WO2019045144A1 - 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 - Google Patents

의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 Download PDF

Info

Publication number
WO2019045144A1
WO2019045144A1 PCT/KR2017/009541 KR2017009541W WO2019045144A1 WO 2019045144 A1 WO2019045144 A1 WO 2019045144A1 KR 2017009541 W KR2017009541 W KR 2017009541W WO 2019045144 A1 WO2019045144 A1 WO 2019045144A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
image data
medical
interest
voxel
Prior art date
Application number
PCT/KR2017/009541
Other languages
English (en)
French (fr)
Inventor
박종현
설동표
Original Assignee
(주)레벨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레벨소프트 filed Critical (주)레벨소프트
Priority to PCT/KR2017/009541 priority Critical patent/WO2019045144A1/ko
Publication of WO2019045144A1 publication Critical patent/WO2019045144A1/ko
Priority to US16/807,139 priority patent/US11183295B2/en
Priority to US17/513,884 priority patent/US11676706B2/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/428Real-time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Definitions

  • the present invention relates to a medical image processing apparatus and a medical image processing method for a medical navigation apparatus, and more particularly, to an apparatus and a method for processing an image provided when using a medical navigation apparatus.
  • Minimally invasive surgery that minimizes the incision site of the patient during surgery is widely used. Minimally invasive surgery has the advantage of minimizing the incision site and minimizing the blood loss and recovery period. However, because of limited physician's vision, some surgeries have risk factors such as meningitis and eye damage . Medical navigation devices (or surgical navigation devices) are being used as a tool to overcome the disadvantages of minimally invasive surgery where the physician's view is limited.
  • the medical navigation system provides real - time tracking of the location information of the instruments inserted into the affected part based on the previously acquired medical images of the patient. Further, such a medical navigation apparatus may be used in combination with an endoscope.
  • An optical or electromagnetic positioning device may be used for real-time positioning of an inserted surgical instrument in a medical navigation system.
  • an optical position tracking device including an infrared ray emitting device and a passive image sensor may be used.
  • the optical position tracking device emits reference light through an infrared ray emitting device and collects an image reflected by a plurality of markers through an image sensor.
  • the position tracking apparatus can acquire the position information of the treatment instrument based on the positions of the plurality of markers.
  • an electromagnetic position tracking device including a magnetic field generator and a conductive metal object may be used.
  • the electromagnetic position tracking apparatus can acquire the position information of the treatment instrument by measuring the eddy current generated in the conductive metal object in the magnetic field generated by the magnetic field generator. To accurately indicate the positional relationship between the surgical instrument and the body part in the locator, a registration process may be required to define the initial positional relationship between the medical data and the surgical instrument for the patient's body part.
  • the medical navigation system may display at least one of images of horizontal, sagittal, and coronal images of the body part.
  • the practitioner interprets each image to determine the three-dimensional position of the surgical apparatus, and grasps the adjacent risk factors.
  • these cross-sectional images can not intuitively describe the position of a surgical instrument within a body part. Therefore, in order to determine the exact position of the surgical instrument by collating a plurality of sectional images, it is not only necessary for the operator's skill but also it may take a lot of time. In addition, when the time required to monitor the medical navigation device for the positioning of the surgical instrument is prolonged, the entire operation period is prolonged, thereby increasing the fatigue of both the operator and the patient.
  • the present invention has an object to provide a medical image processing method that allows a practitioner to intuitively grasp information on a treatment site and adjacent elements in a patient's body.
  • the present invention has an object to effectively render a medical image of a patient collected in advance and an operation site image collected in real time.
  • the present invention has an object to provide a medical navigation apparatus which can easily grasp an anatomical structure of a patient.
  • the present invention provides a medical image processing apparatus and a medical image processing method as described below.
  • a medical image processing apparatus using an augmented reality comprising: an endoscopic image acquiring unit acquiring an endoscopic image of a target object; A memory for storing the medical image data generated based on the medical image for the object; And acquiring position and orientation information of an endoscope based on the medical image data, determining a target area to be displayed as augmented reality in the medical image data based on the obtained position and orientation information, A processor for rendering the partial medical image data as the augmented reality image on the endoscopic image; And a medical image processing apparatus.
  • a medical image processing method using an augmented reality comprising: acquiring an endoscopic image for a target object; Acquiring position and direction information of an endoscope based on the medical image data of the target object, the medical image data of the target object being generated based on the medical image for the target object; Determining a target area to be displayed as an augmented reality in the medical image data based on the obtained position and orientation information; And rendering partial medical image data corresponding to the target area as an augmented reality image on the endoscopic image;
  • a medical image processing method is provided.
  • the medical image data includes data obtained by synthesizing a medical image for the object and auxiliary data arbitrarily set by a user and performing volume rendering.
  • the auxiliary data is represented by a voxel having a value outside a predetermined HU (Hounsfield Unit) range.
  • the range outside the predetermined HU range includes a first HU range exceeding the first threshold value and a second HU range less than the second threshold value, wherein the value of the first HU range is greater than the value of the second HU range Value and auxiliary data of different kinds.
  • the predetermined HU range is from -1000 HU to + 1000 HU.
  • the processor generates a first normal map using the endoscopic image, and outputs the first normal map to a plurality of second normal maps obtained from the medical image data,
  • the position and orientation information of the endoscope on the basis of the medical image data is obtained based on the result of determination of the degree of similarity compared with the medical image data.
  • the processor compares the first normal map with the second normal maps within a predetermined range from the position and orientation of the endoscope at the previous time point.
  • the first normal map is obtained based on reflection information of the structured light for the search area of the object.
  • the second normal map is obtained from the medical image data based on the position and orientation information of the virtual endoscope with respect to the target object.
  • the orientation information of the virtual endoscope is determined based on a straight line connecting the start point of the path of the virtual endoscope and the position of the current virtual endoscope.
  • a medical image processing apparatus for a medical navigation apparatus, comprising: a position tracking unit for obtaining positional information of a medical navigation apparatus in a target body; A memory for storing the medical image data generated based on the medical image for the object; A processor configured to set a region of interest based on positional information of the medical navigation device based on the medical image data and generate partial medical image data corresponding to the region of interest; And a medical image processing apparatus.
  • a medical image processing method for a medical navigation apparatus comprising: acquiring positional information of a medical navigation apparatus in a target body; Storing medical image data generated based on a medical image for the object; Setting an area of interest based on the location information of the medical navigation system based on the medical image data; And generating partial medical image data corresponding to the region of interest; A medical image processing method is provided.
  • the region of interest is set based on at least one of a horizontal plane, a sagittal plane, and a coronal plane of the medical image data based on an area within a predetermined distance from the position of the medical navigation apparatus.
  • the predetermined distance based on each of the horizontal plane, sagittal plane and coronal plane is determined by the user's input.
  • the partial medical image data is generated by rendering voxels having a value within a predetermined HU range in the region of interest.
  • the predetermined HU range is determined based on the CT value of the specific tissue of the subject.
  • the partial medical image data is generated by rendering the voxels of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation apparatus.
  • each pixel value of the partial medical image data Is determined based on the following equation.
  • S 0 is an initial voxel sampled by light projection
  • S n is a final voxel sampled by light projection
  • Is the value of the voxel x
  • ⁇ (t) is the attenuation coefficient of the voxel t
  • K ref is the reflection coefficient
  • P 0 is the position of the virtual light source
  • L is the brightness value of the virtual light source at P 0 .
  • K ref is determined based on the following equation.
  • V p0 -> x is the direction vector from the virtual source position P 0 to the voxel x.
  • the medical image data are voxels generated using a medical image for the object, and the partial medical image data is volume rendering data obtained by projecting voxels corresponding to the region of interest.
  • the medical image of the patient and the operation site image are effectively rendered, thereby providing convenience of the surgery and medical diagnosis.
  • the operator can easily grasp the anatomy of the patient, thereby improving convenience and concentration of the operation.
  • FIG. 1 shows an embodiment of an output image of a medical navigation system.
  • FIG. 2 is a block diagram of a medical image processing apparatus according to an embodiment of the present invention.
  • FIG. 3 is a more detailed block diagram of a processor of a medical image processing apparatus according to an embodiment of the present invention.
  • FIG. 4 is a block diagram of an endoscope tracking unit according to an embodiment of the present invention.
  • FIG. 5 illustrates an endoscopic image and a normal map generated using the endoscopic image.
  • FIG. 6 illustrates that medical image data is provided as an augmented reality image for an endoscopic image.
  • Figures 7 and 8 illustrate a volume rendering technique in accordance with an embodiment of the present invention.
  • FIG. 9 is a block diagram of a medical image data generation unit according to an embodiment of the present invention.
  • FIG. 10 is a block diagram of a medical image processing apparatus according to another embodiment of the present invention.
  • FIG. 11 is a more detailed block diagram of a processor of a medical image processing apparatus according to another embodiment of the present invention.
  • Figure 12 shows an embodiment for setting a region of interest for a subject.
  • FIG. 13 shows partial medical image data corresponding to the region of interest set by FIG.
  • FIG. 14 shows an embodiment of a user interface for setting a region of interest of an object.
  • 15 and 16 illustrate partial medical image data corresponding to variously set interest areas.
  • FIG. 17 shows a method of generating partial medical image data according to a further embodiment of the present invention.
  • the image processing apparatus and the image processing method according to an embodiment of the present invention can be applied to a medical image for a target object including a human body and an animal.
  • the medical image includes an X-ray image, a computed tomography (CT) image, a Positron Emission Tomography (PET) image, an ultrasound image, and a magnetic resonance imaging (MRI)
  • CT computed tomography
  • PET Positron Emission Tomography
  • MRI magnetic resonance imaging
  • the medical image data is used as a broad term including not only a medical image but also various types of data generated by rendering a medical image.
  • the medical image data may indicate data that is volume rendered of the medical image.
  • the medical image data may indicate a three-dimensional data set composed of a group of two-dimensional medical images.
  • the value of the regular grid unit of the thus constructed three-dimensional data set is called a voxel.
  • the medical image processing apparatus and the medical image processing method according to the embodiment of the present invention can generate or process the image provided by the endoscope and / or the medical navigation apparatus.
  • the medical image processing apparatus 10 includes a processor 11, a communication unit 12, an input unit 13, a memory 14, an endoscopic image acquisition unit 15, And an output unit 16.
  • the communication unit 12 includes wired / wireless communication modules of various protocols for performing communication with an external device.
  • the input unit 13 includes various types of interfaces for receiving user input to the medical image processing apparatus 10.
  • the input unit 13 may include a keyboard, a mouse, a camera, a microphone, a pointer, a USB, a connection port with an external device, and the like.
  • the medical image processing apparatus can acquire the medical image of the object in advance via the communication unit 12 and / or the input unit 13.
  • the memory 14 stores a control program used in the medical image processing apparatus 10 and various data related thereto.
  • the memory 14 may store medical images of previously obtained objects.
  • the memory 14 may store the medical image data generated by rendering the medical image of the object.
  • the endoscopic image acquiring unit 15 acquires an endoscopic image for a search region of the object photographed by the endoscope 50.
  • the endoscope image acquiring unit 15 can be connected to the endoscope 50 in a wired or wireless manner to receive an image from the endoscope 50.
  • the display output unit 16 outputs the generated image according to the embodiment of the present invention. That is, the display output unit 16 can output the augmented reality image together with the endoscopic image of the object as described later. At this time, the augmented reality image includes partial medical image data corresponding to the endoscopic image.
  • the image output by the display output unit 16 can be displayed by the monitor 60 connected to the medical image processing apparatus 10.
  • the processor 11 of the present invention can execute various commands or programs and process data in the medical image processing apparatus 10. [ Further, the processor 11 controls each unit of the above-described medical image processing apparatus 10 and can control data transmission / reception between the units.
  • the medical imaging device 10 shown in FIG. 2 is a block diagram according to an embodiment of the present invention. Blocks that are separately displayed are logically distinguished from elements of a corresponding device. Accordingly, the elements of the medical imaging apparatus 10 described above can be mounted as one chip or a plurality of chips according to the design of the apparatus. In addition, some of the configurations of the medical imaging apparatus 10 shown in FIG. 2 may be omitted, and additional configurations may be included in the medical imaging apparatus 10. [
  • FIG. 3 is a more detailed block diagram of the processor 11 of the medical image processing apparatus 10 according to an embodiment of the present invention.
  • the processor 11 of the medical image processing apparatus 10 according to an embodiment of the present invention includes an endoscope tracking unit 110, a medical image data generating unit 120, a partial medical image data extracting unit 130 And an augmented reality data generation unit 140. [0031] FIG.
  • the endoscope tracking unit 110 acquires the position and orientation information of the endoscope 50 that provides the endoscope image to the medical image processing 10. [ More specifically, the endoscope tracking unit 110 acquires the position and direction information of the endoscope 50 based on the medical image data coordinate system of the object. According to an embodiment of the present invention, the endoscope tracking unit 110 may track the position and the direction of the endoscope 50 by analyzing the endoscope image acquired through the endoscope image acquiring unit 15. A specific embodiment will be described later. Meanwhile, according to another embodiment of the present invention, the endoscope tracking unit 110 may include a separate endoscope tracking device to track the position and direction of the endoscope 50.
  • the endoscope tracking unit 110 can acquire the position and orientation information of the endoscope 50 from the tracking device.
  • the registration process is performed on the position and orientation information obtained from the tracking device, the position and orientation information of the endoscope 50 based on the medical image data coordinate system can be obtained.
  • the medical image data generation unit 120 generates medical image data by rendering the medical image of the object.
  • the medical image includes at least one of X-ray image, CT image, PET image, ultrasound image, and MRI.
  • the medical image data generation unit 120 may generate medical image data by performing volume rendering on the medical image of the object.
  • the medical image data generation unit 120 may synthesize the medical image for the object and the auxiliary data arbitrarily set by the user, and generate the medical image data by performing volume rendering on the synthesized data. A specific embodiment will be described later.
  • the partial medical image extracting unit 130 extracts the partial medical image data to be displayed as the augmented reality among the medical image data, based on the obtained position and orientation information of the endoscope 50. More specifically, the partial medical image extracting unit 130 determines a target area to be displayed as an augmented reality in the medical image data, based on the position and orientation information of the endoscope 50. According to one embodiment of the present invention, the target area may be determined as the area of the view frustum based on the specific focal length, viewing angle, and depth of the endoscope 50.
  • a target area to be represented as an augmented reality in the medical image data can be determined.
  • the partial medical image extracting unit 130 extracts the partial medical image data corresponding to the thus determined target area.
  • the augmented reality data generation unit 140 renders the extracted partial medical image data into an augmented reality image. That is, the augmented reality data generation unit 140 matches the partial medical image data with the endoscopic image, and provides the partial medical image data as an augmented reality image for the endoscopic image.
  • FIG. 4 is a block diagram of an endoscope tracking unit 110 according to an embodiment of the present invention.
  • the following information is required.
  • the field of view (FOV) of the endoscope 50 is the field of view (FOV) of the endoscope 50.
  • the focal length of the endoscope 50 is the focal length of the endoscope 50
  • DOF Depth of Field
  • the viewing angle, the focal length, and the depth satisfy the fixed specification of the endoscope lens. Therefore, in order to determine a target area to be represented as an augmented reality in the medical image data, the position information and direction information of the endoscope 50 must be acquired in real time.
  • the endoscope tracking unit 110 may track the position and direction of the endoscope 50 from a separate endoscope tracking device. However, according to another embodiment of the present invention, the endoscope tracking unit 110 may track the position and direction of the endoscope 50 by comparing the endoscope image with the medical image data. More specifically, the endoscope tracking unit 110 compares the normal maps generated using the endoscopic image with the plurality of normal maps generated using the medical image data, and calculates the position and direction of the endoscope 50 Track.
  • the normal map can represent data in which the surface information of the search area is projected in a two-dimensional form.
  • the endoscope tracking unit 110 may include a first normal map generating unit 112, a second normal map generating unit 114, and a normal map comparing unit 116.
  • the first normal map generating unit 112 acquires an endoscopic image and generates a first normal map M real using the acquired endoscopic image.
  • a light source in the form of a spotlight is easy to grasp the direction of light in an endoscopic image.
  • the inside of the human body which is a search area to be observed by the endoscope, has no separate light source, and a large amount of saliva with good reflection is contained on the surface. As a result, the endoscopic image can maximize effects such as highlight and shade.
  • the first normal map generation unit 112 analyzes the intensity of the light from the acquired endoscopic image, and generates a first normal map (first normal map) by projecting the surface information of the three- M real < / RTI >
  • the first normal map (M real ) generated by the first normal map generating unit 112 is transmitted to the normal map comparing unit 116.
  • FIG. 5 illustrates an endoscopic image and a normal map generated using the endoscopic image.
  • 5 (a) shows the endoscopic image acquired from the endoscope 50
  • FIG. 5 (b) shows the normal map generated using the endoscopic image.
  • the endoscopic image can clearly show highlight and shade depending on the surface curvature. Therefore, the medical image processing apparatus 10 of the present invention can generate the normal map as shown in FIG. 5 (b) by analyzing the endoscopic image.
  • an endoscopic image with structured light or pattern light applied to produce a more accurate first normal map M real may be used.
  • the first normal map M real is obtained based on the reflection information of the structured light or the pattern light for the search area of the object.
  • the second normal map generating unit 114 acquires a plurality of second normal maps M virtual from the medical image data.
  • the user can determine the advance direction of the endoscope with respect to the medical image data and store the information in advance.
  • the second normal map generation unit 114 can divide the predetermined endoscopic path course into predetermined intervals and generate a virtual endoscopic image corresponding to each divided point.
  • the second normal map M virtual is obtained using the virtual endoscopic image thus generated.
  • the second normal map M virtual can be obtained from the medical image data based on the position and orientation information of the virtual endoscope for the object.
  • the direction information of the virtual endoscope can be determined based on a straight line connecting the start point of the path of the virtual endoscope and the position of the current virtual endoscope.
  • different second normal maps M virtual may be required depending on the rotation of the virtual endoscope around the direction vector V view . Therefore, according to one embodiment of the present invention, a plurality of second normal maps (M virtual ) divided at a predetermined angle with respect to one point can be obtained.
  • the second normal map (M virtual ) generated by the second normal map generating unit 114 is transmitted to the normal map comparing unit 116.
  • the normal map comparing unit 116 compares the first normal map M real obtained from the endoscopic image with a plurality of second normal maps M virtual obtained from the medical image data to determine the similarity.
  • the position and orientation information of the endoscope 50 based on the medical image data can be obtained based on the second normal map M virtual having the highest degree of similarity as a result of the determination of the degree of similarity.
  • the normal map comparator 116 compares the first normal map M real with the position and direction of the endoscope 50 at the previous point in order to reduce the complexity required to determine the similarity of the normal map With the second normal maps M virtual in the preset range.
  • the medical image processing apparatus 10 extracts the partial medical image data to be displayed as the augmented reality as described above, and renders the extracted partial medical image data into the augmented reality image do.
  • FIG. 6 illustrates that medical image data is provided as an augmented reality image for an endoscopic image. More specifically, FIG. 6A shows the endoscopic image, FIG. 6B shows the partial medical image data, and FIG. 6C shows that the partial medical image data is provided as an augmented reality image for the endoscopic image.
  • the position and orientation information of the endoscope 50 based on the medical image data coordinate system is acquired according to the embodiment of the present invention, the partial medical image data and the endoscope image can be efficiently matched. Accordingly, information on the treatment site and adjacent elements of the object can be intuitively grasped by the practitioner.
  • the medical image data to be represented as the augmented reality may include various types of data.
  • the medical image data may be data obtained by performing volume rendering on a medical image such as an X-ray image, a CT image, a PET image, an ultrasound image, or an MRI.
  • the medical image data may include images of a target organ (e. G., Brain, eyeball, lung, heart, etc.) expressed in mesh form after segmentation in the medical image of the subject have.
  • the medical image data may further include auxiliary data arbitrarily set by the user.
  • the ancillary data includes planning information expressed in the form of a mesh such as a marker and a route inserted by the practitioner in the medical image before the operation.
  • the medical image processing apparatus 10 can perform volume rendering together with the medical image, without performing surface rendering on the auxiliary data expressed in a mesh form. More specifically, the medical image processing apparatus 10 may generate medical image data for an augmented reality by combining auxiliary data with medical images and performing volume rendering on the synthesized data collectively.
  • Figures 7 and 8 illustrate a volume rendering technique in accordance with an embodiment of the present invention.
  • Volume rendering is a technique for displaying a two-dimensional projection for a set of three-dimensional sample data.
  • a typical three-dimensional data set may consist of a group of two-dimensional tomographic images collected from the medical images described above. The images of the group may have a regular pattern and a number of pixels. The value of the regular grid unit of the thus constructed three-dimensional data set is called a voxel.
  • Figure 7 illustrates a ray-casting technique that may be used in volume rendering.
  • the ray projection method defines that the voxels constituting the volume are translucent and have a property of emitting light by themselves.
  • Light projection method is to obtain a rendering value by accumulating the sampled voxel value along each ray (r 0, r 1, ... , r 4) determined according to the user's eye (or the position and orientation of the camera). At this time, the number of rays to be generated depends on the resolution of the resultant image.
  • a color cube technique may be used to render three-dimensional volume data appropriately according to the user's gaze.
  • Figure 8 shows a color cube used in volume rendering.
  • an RGBA conversion function may be defined that defines RGBA (red, green, blue, alpha) values for all voxel values.
  • RGBA transform function a color cube may be used. As shown in Fig. 8, the color cube specifies black at the origin (0, 0, 0), white at the vertex (1, 1, 1) opposite the diagonal, The intensity of the corresponding RGB value increases.
  • the RGB values according to each coordinate are used as normalized texture sampling coordinate values.
  • two images of the front and rear images having the same size may be generated.
  • the value obtained at the same position of each of the generated two images becomes the start point and the end point of the light ray corresponding to the position.
  • the 3D texture sampling of the medical image is performed at predetermined intervals along the light rays from the start point to the end point determined as described above, and an accumulated volume rendering result can be obtained by accumulating the obtained values.
  • the medical image data generation unit 120 of the medical image processing apparatus 10 may perform volume rendering and generate medical image data using the method described above.
  • FIG. 9 is a block diagram of a medical image data generation unit 120 according to an embodiment of the present invention.
  • the medical image data generation unit 120 may include an HU generation unit 122 and a volume renderer 124.
  • the volume renderer 124 receives the medical image of the object and performs volume rendering on the received medical image to generate medical image data.
  • the medical image may include at least one of X-ray image, CT image, PET image, ultrasound image, and MRI, but the present invention is not limited thereto.
  • the volume renderer 124 may volume render the medical images for the object as well as auxiliary data arbitrarily set by the user.
  • Ancillary data can represent arbitrary information whose size and position are defined based on a medical image coordinate system such as a path previously created by a user and a dangerous area.
  • ancillary data is defined as a triangle mesh shape and can be synthesized after being drawn separately from the medical image.
  • auxiliary data can be represented by the voxels having the values of the predetermined range.
  • CT the CT values of each component of the human body are shown in Table 1 below.
  • HU Heunsfield Unit
  • DICOM Digital Imaging and Communications in Medicine
  • the range of values that each pixel can have is 2 16 , ranging from -32768 to 32767.
  • Foreign bodies such as implants may be inserted into the human body, but they are replaced with appropriate levels during reconstitution and values outside the range of +/- 1000HU are not used in CT.
  • the auxiliary data can be represented by a voxel having a value outside the preset HU range.
  • the predetermined HU range may be from -1000 HU to + 1000 HU, but the present invention is not limited thereto.
  • the HU setting unit 122 may replace the value of the voxel corresponding to the position occupied by the auxiliary data in the medical image data with a value outside the range of +/- 1000 HU.
  • the volume renderer 124 acquires the voxel data substituted for the value outside the predetermined HU range from the HU setting unit 122 and performs volume rendering with the medical image.
  • the auxiliary data is volume-rendered together with the medical image, the amount of calculation required for rendering the additional data included in the medical image can be minimized.
  • the range outside the predetermined HU range may include a first HU range exceeding the first threshold and a second HU range below the second threshold.
  • the first threshold value may be + 1000 HU
  • the second threshold value may be -1000 HU.
  • the HU setting unit 122 may set the value of the first HU range and the value of the second HU range to indicate different kinds of auxiliary data.
  • the value of the first HU range may represent the marker information set by the user
  • the value of the second HU range may represent the path information.
  • the value of the first HU range represents path information
  • the value of the second HU range may represent danger area information.
  • auxiliary data By expressing the auxiliary data as a voxel with a different range of values, different types of auxiliary data can be easily identified by the user.
  • the classification criteria and the HU range allocation method of the above-mentioned auxiliary data types are examples of the present invention, and the present invention is not limited thereto.
  • the medical image processing apparatus 20 includes a processor 21, a communication unit 22, an input unit 23, a memory 24, a position tracking unit 25, Section 26.
  • a processor 21 for processing medical image data.
  • the communication unit 22 includes wired / wireless communication modules of various protocols for performing communication with an external device.
  • the input unit 23 includes various types of interfaces for receiving user input to the medical image processing apparatus 20.
  • the input unit 23 may include a keyboard, a mouse, a camera, a microphone, a pointer, a USB, a connection port with an external device, and the like.
  • the medical image processing apparatus can acquire the medical image of the object in advance through the communication unit 22 and / or the input unit 23.
  • the memory 24 stores a control program used in the medical image processing apparatus 10 and various data related thereto.
  • the memory 24 may store a medical image of a previously obtained object.
  • the memory 24 may store the medical image data generated by rendering the medical image of the object.
  • the position tracking unit 25 acquires the positional information of the medical navigation system 55 in the object.
  • the medical navigation device 55 may include various types of surgical navigation devices.
  • the optical position tracking method or the electromagnetic position tracking method may be used for tracking the position of the medical navigation device, but the present invention is not limited thereto.
  • the position tracking unit 25 performs the matching process to determine the position of the medical navigation device 55 based on the medical image data Information can be generated.
  • the location tracking unit 25 can be connected to the medical navigation system 55 by wire or wirelessly and receive location information from the medical navigation system 55.
  • the display output unit 26 outputs the generated image according to the embodiment of the present invention. That is, the display output unit 26 can output the medical image data corresponding to the region of interest of the object, as described later.
  • the image output by the display output unit 26 can be displayed by the monitor 65 connected to the medical image processing apparatus 20.
  • the processor 21 of the present invention can execute various commands or programs and can process data in the medical image processing apparatus 20. [ Further, the processor 21 controls each unit of the above-described medical image processing apparatus 20, and can control data transmission / reception between the units.
  • the medical imaging device 20 shown in FIG. 10 is a block diagram according to an embodiment of the present invention, wherein blocks separated and displayed are logically distinguished from elements of a corresponding device. Therefore, the elements of the medical imaging apparatus 20 described above can be mounted as one chip or a plurality of chips according to the design of the apparatus. In addition, some of the configurations of the medical imaging apparatus 20 shown in Fig. 10 may be omitted, and additional configurations may be included in the medical imaging apparatus 20. Fig.
  • the processor 21 of the medical image processing apparatus 20 includes a region of interest setting unit 210, a medical image data generating unit 220, and a partial medical image data generating unit 230).
  • the ROI setting unit 210 sets the ROI of the user with respect to the object. More specifically, the ROI setting unit 210 receives the position information of the medical navigation system 55 from the position tracking unit 25, and sets the ROI based on the position information. According to the embodiment of the present invention, the region of interest is set based on at least one of the horizontal plane, sagittal plane and coronal plane of the medical image data based on an area within a predetermined distance from the position of the medical navigation apparatus 55. For this, the region-of-interest setting unit 210 may previously receive information on a predetermined distance based on the horizontal plane, sagittal plane, and coronal plane, that is, area setting information, as a user input.
  • the region of interest setting unit 210 sets a region within the first distance based on the horizontal plane from the position of the medical navigation apparatus 55, within the second distance based on the sagittal plane, and / Is cropped to set the region of interest. If the user does not input the area setting information for at least one of the horizontal plane, sagittal plane and coronal plane, the ROI setting unit 210 may not perform cropping based on the plane have.
  • the region of interest information obtained by the region-of-interest setting unit 210 is transmitted to the partial medical image data generation unit 230.
  • the medical image data generation unit 220 generates medical image data by rendering the medical image of the object.
  • the medical image includes at least one of X-ray image, CT image, PET image, ultrasound image, and MRI.
  • the medical image data may indicate voxels generated using the medical image for the object.
  • the present invention is not limited to this, and the medical image data may indicate the volume rendering of the medical image for the object.
  • the partial medical image data generation unit 230 extracts and renders the medical image data corresponding to the region of interest among the medical image data for the object. More specifically, the partial medical image data generation unit 230 may perform volume rendering by selectively projecting voxels in a region of interest. Accordingly, it is possible to prevent an object other than the region of interest in the object from overlapping with the objects in the region of interest, so that the operator can easily grasp the anatomical structure of the object.
  • the partial medical image data generation unit 230 may generate volume rendering data by various methods. According to one embodiment, the partial medical image data generation unit 230 may generate the volume rendering data by performing the light projection on the entire voxels included in the region of interest.
  • the partial medical image data generation unit 230 may generate light volume projection data by selectively performing light projection on voxels having a value within a predetermined HU range in the region of interest have.
  • the predetermined HU range can be determined based on the CT value of the specific tissue of the object.
  • the specific organization for performing volume rendering may be selected by the user.
  • the volume rendering data can be generated by selectively performing the light projection only on the voxels corresponding to the specific tissue selected by the user in the region of interest.
  • the range of CT values of each component of the human body is predetermined. If the user desires to selectively check only the gray matter from the region of interest of the object, the user can input any value contained in the CT value range of -37 to -45 or a CT value range including the range to the input unit 23 Can be input. In addition, the user may input the selection of the gray matter among the organizations of the predetermined object through the input unit 23.
  • the partial medical image data generation unit 230 may generate light volume projection data by selectively performing light projection only on voxels corresponding to the gray matter in the region of interest of the object based on the user's input.
  • the partial medical image data generation unit 230 generates voxel values of the region of interest when light is emitted from a virtual light source at a predetermined point based on the position of the medical navigation system 55 And generate partial medical image data. More specifically, assuming that a virtual light source exists at a predetermined point based on the position of the medical navigation device 55, the partial medical image data generation unit 230 generates the partial medical image data of the region of interest Voxel values can be set.
  • the partial medical image data generation unit 230 may generate the volume rendering data by performing the light projection on the voxels set as described above. A specific embodiment will be described later.
  • the partial medical image data generated by the partial medical image data generation unit 230 may be provided as an output image of the display output unit 26.
  • Figure 12 shows an embodiment for setting a region of interest for a subject.
  • a region included within a specific distance with respect to the sagittal plane in the color cube for performing volume rendering is set as a region of interest.
  • FIG. 13 shows the partial medical image data corresponding to the set region of interest. More specifically, Fig. 13 (a) shows volume rendering data of the object included in the cube, and Fig. 13 (b) shows volume rendering data corresponding to the region of interest set by Fig.
  • FIG. 13 (b) only an area included within a specific distance based on the sagittal plane of the object can be volume-rendered and displayed according to the user's area of interest setting.
  • the user interface can receive information (i.e., area setting information) about a predetermined distance based on each of the horizontal plane, sagittal plane and coronal plane of the object from the user.
  • the region of interest is set based on at least one of a horizontal plane, a sagittal plane and a coronal plane of the medical image data based on an area within a predetermined distance from the position of the medical navigation apparatus 55.
  • the positional information of the medical navigation system 55 obtained from the position tracking unit 25 may be displayed at specific coordinates on the slide bar for each reference plane of the user interface.
  • the user can set the reference distance to be included in the ROI based on the coordinates displayed on each slide bar.
  • the ROI setting unit 210 receives at least one of the first distance information based on the horizontal plane, the second distance information based on the sagittal plane, and the third distance information based on the coronal plane through the user interface.
  • the region of interest setting unit 210 sets a region within the first distance based on the horizontal plane from the position of the medical navigation apparatus 55, within the second distance based on the sagittal plane, and / Is cropped to set the region of interest.
  • FIG. 15 and 16 illustrate partial medical image data corresponding to variously set interest areas.
  • FIG. 15 (a) shows a case where a region of interest is set based on a sagittal plane of the object
  • FIG. 15 (b) shows a case where a region of interest is set with reference to a horizontal plane of the object
  • the region of interest is set as a reference.
  • Fig. 16 shows a case where a region of interest is set on the basis of both the sagittal plane, the horizontal plane and the coronal plane of the object.
  • the ROI can be set in various forms according to the setting of the user, and only the medical images corresponding to the ROI can be selectively rendered and provided to the user.
  • the region of interest is set based on the horizontal plane, the sagittal plane, and the coronal plane of the medical image data, but the present invention is not limited thereto.
  • the region of interest may be set for any reference axis or reference plane of the medical image data.
  • the partial medical image data generation unit 230 renders the voxel values of the region of interest, assuming that light is emitted from a virtual light source at a preset point, for special effects on the region of interest 30, Medical image data can be generated.
  • each pixel value of the volume rendering data using a general ray projection method Can be expressed by Equation (1) below.
  • S 0 is the initial voxel sampled by light projection and S n is the final voxel sampled by light projection.
  • Is the value of the voxel x (or the intensity of the voxel x) Represents the transparency accumulated from the initial voxel S 0 to the current voxel x.
  • ⁇ (t) represents the attenuation coefficient of the voxel t.
  • a virtual light source exists at a predetermined point P 0 based on the position of the medical navigation device 55, and a voxel of a region of interest 30 when light is emitted from a virtual light source You can set the values.
  • the value of the voxel x Can be expressed by Equation (2) below.
  • R (x) is a voxel value adjusted by light emitted from a virtual light source and can be defined as Equation (3) below.
  • K ref is the reflection coefficient
  • P 0 is the position of the virtual light source
  • L is the brightness value at P 0 of the virtual light source.
  • the reflection coefficient K ref can be determined according to Equation (4) below.
  • G (x) is the slope vector in the voxel x
  • V p0 -> x is the direction vector from the virtual light source position P 0 to the voxel x, respectively.
  • the slope vector G (x) can be defined as the normal of the reference plane in which the peripheral voxel values vary most greatly based on the voxel x.
  • each pixel value of partial medical image data Can be determined based on Equation (5) below.
  • the partial medical image data generation unit 230 generates the partial volume rendering data as partial medical image data. According to such a further embodiment of the present invention, it is possible to exhibit the effect that the illumination is inserted inside the area of interest or around the area of interest. When the illumination is inserted in or around the ROI, the ROI of the ROI can be maximized due to the shadow effect on the ROI, and the user's degree of recognition of the ROI can be increased.

Abstract

본 발명은 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 수술용 네비게이터의 사용시 제공되는 영상을 처리하기 위한 장치 및 방법에 관한 것이다. 이를 위해 본 발명은, 의료용 항법 장치를 위한 의료 영상 처리 장치로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서; 를 포함하는 의료 영상 처리 장치 및 이를 이용한 의료 영상 처리 방법을 제공한다.

Description

의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
본 발명은 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법에 관한 것으로서, 더욱 상세하게는 의료용 항법 장치의 사용시 제공되는 영상을 처리하기 위한 장치 및 방법에 관한 것이다.
수술 시 환자의 절개 부위를 최소화하는 최소 침습 수술이 널리 사용되고 있다. 최소 침습 수술은 절개 부위를 최소화하고 그에 따른 실혈(blood loss)과 회복기간을 최소화할 수 있는 장점이 있으나, 의사의 시야가 제한되어 일부 수술들의 경우 뇌수막 손상, 안구 손상 등의 위험 요인을 갖고 있다. 의사의 시야가 제한되는 최소 침습 수술의 단점을 극복하기 위한 도구의 하나로써, 의료용 항법 장치(또는, 수술 항법 장치)가 사용되고 있다. 의료용 항법 장치는 사전에 확보된 환자의 의료 영상을 기준으로 환자의 환부에 삽입된 기구의 위치 정보를 실시간으로 추적하여 제공한다. 또한, 이러한 의료용 항법 장치는 내시경과 결합하여 사용될 수도 있다.
의료용 항법 장치에서 삽입된 시술 기구의 실시간 위치 추적을 위해 광학식 또는 전자기식 위치 추적 장치가 사용될 수 있다. 시술 기구의 위치 추적을 위한 일 예로, 적외선 방출 장치와 패시브 형태의 이미지 센서를 포함하는 광학식 위치 추적 장치가 사용될 수 있다. 광학식 위치 추적 장치는 적외선 방출 장치를 통해 기준 광을 방사하고, 복수의 마커들에 의해 반사되는 이미지를 이미지 센서를 통해 수집한다. 해당 위치 추적 장치는 복수의 마커들의 위치를 기초로 시술 기구의 위치 정보를 획득할 수 있다. 한편, 시술 기구의 위치 추적을 위한 다른 예로, 자기장 생성기 및 전도성 금속 물체를 포함하는 전자기식 위치 추적 장치가 사용될 수 있다. 전자기식 위치 추적 장치는 자기장 생성기에 의해 생성된 자기장 내에서 전도성 금속 물체에 발생하는 맴돌이 전류를 측정하여 시술 기구의 위치 정보를 획득할 수 있다. 위치 추적 장치에서 시술 기구와 신체 부위의 위치 관계를 정확하게 표시하기 위해, 환자의 신체 부위에 대한 의료 데이터와 시술 기구간의 최초 위치 관계를 정의하는 정합 과정이 필요할 수 있다.
도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다. 의료용 항법 장치는 신체 부위에 대한 수평면(horizontal), 시상면(sagittal) 및 관상면(coronal)의 영상들 중 적어도 하나를 디스플레이 할 수 있다. 시술자(또는, 의사)는 각 영상들을 해석하여 시술 기구의 3차원적 위치를 판단하고, 인접한 위험 요소 등을 파악한다. 그러나 이러한 단면 영상들은 신체 부위 내에서의 시술 기구의 위치를 직관적으로 표현할 수 없다. 따라서, 복수의 단면 영상들을 대조하여 시술 기구의 정확한 위치를 판단하기 위해서 시술자의 숙련도가 필요할 뿐만 아니라 많은 시간이 소요될 수 있다. 또한, 시술 기구의 위치 파악을 위해 의료용 항법 장치의 모니터를 주시하는 시간이 길어질 경우, 전체적인 시술 기간이 길어져 시술자와 환자 모두의 피로를 증가시킬 수 있다.
본 발명은 환자의 신체 내의 시술 부위 및 인접한 요소들에 대한 정보를 시술자가 직관적으로 파악할 수 있도록 하는 의료 영상 처리 방법을 제공하기 위한 목적을 가지고 있다.
또한, 본 발명은 사전에 수집된 환자의 의료 영상과 실시간으로 수집되는 시술 부위 영상을 효과적으로 렌더링 하기 위한 목적을 가지고 있다.
또한, 본 발명은 환자의 해부학적 구조를 파악하기 용이한 의료용 항법 장치를 제공하기 위한 목적을 가지고 있다.
상기와 같은 과제를 해결하기 위해, 본 발명은 다음과 같은 의료 영상 처리 장치 및 의료 영상 처리 방법을 제공한다.
먼저, 본 발명의 실시예에 따르면, 증강 현실을 이용한 의료 영상 처리 장치로서, 대상체에 대한 내시경 영상을 취득하는 내시경 영상 취득부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 내시경의 위치 및 방향 정보를 획득하고, 획득된 위치 및 방향 정보에 기초하여 상기 의료 영상 데이터 중 증강 현실로 디스플레이 될 타겟 영역을 결정하고, 상기 타겟 영역에 대응하는 부분 의료 영상 데이터를 상기 내시경 영상에 증강 현실 영상으로 렌더링하는 프로세서; 를 포함하는 의료 영상 처리 장치가 제공된다.
또한, 본 발명의 실시예에 따르면, 증강 현실을 이용한 의료 영상 처리 방법으로서, 대상체에 대한 내시경 영상을 취득하는 단계; 상기 대상체의 의료 영상 데이터를 기준으로 한 내시경의 위치 및 방향 정보를 획득하는 단계, 상기 대상체의 의료 영상 데이터는 상기 대상체에 대한 의료 영상에 기초하여 생성됨; 상기 획득된 위치 및 방향 정보에 기초하여 상기 의료 영상 데이터 중 증강 현실로 디스플레이 될 타겟 영역을 결정하는 단계; 및 상기 타겟 영역에 대응하는 부분 의료 영상 데이터를 상기 내시경 영상에 증강 현실 영상으로 렌더링하는 단계; 를 포함하는 의료 영상 처리 방법이 제공된다.
일 실시예에 따르면, 상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상과 사용자에 의해 임의로 설정된 보조 데이터를 합성하고 볼륨 렌더링을 수행한 데이터를 포함한다.
이때, 상기 보조 데이터는 기 설정된 HU(Hounsfield Unit) 범위 밖의 값을 갖는 복셀(voxel)로 표현된다.
또한, 상기 기 설정된 HU 범위 밖의 범위는 제1 임계값을 초과하는 제1 HU 범위와 제2 임계값 미만의 제2 HU 범위를 포함하며, 상기 제1 HU 범위의 값은 상기 제2 HU 범위의 값과 서로 다른 종류의 보조 데이터를 나타낸다.
일 실시예에 따르면, 상기 기 설정된 HU 범위는 -1000HU부터 +1000HU까지이다.
본 발명의 다른 실시예에 따르면, 상기 프로세서는, 상기 내시경 영상을 이용하여 제1 노멀맵(Normal Map)을 생성하고, 상기 제1 노멀맵을 상기 의료 영상 데이터로부터 획득된 복수의 제2 노멀맵들과 비교하여 유사도를 판단한 결과에 기초하여, 상기 의료 영상 데이터를 기준으로 한 내시경의 위치 및 방향 정보를 획득한다.
이때, 상기 프로세서는, 상기 제1 노멀맵을 이전 시점의 상기 내시경의 위치 및 방향으로부터 기 설정된 범위 내의 제2 노멀맵들과 비교한다.
일 실시예에 따르면, 상기 제1 노멀맵은 상기 대상체의 탐색 영역에 대한 구조광의 반사 정보에 기초하여 획득된다.
또한, 상기 제2 노멀맵은 상기 대상체에 대한 가상 내시경의 위치 및 방향 정보에 기초하여 상기 의료 영상 데이터로부터 획득된다.
또한, 상기 가상 내시경의 방향 정보는 상기 가상 내시경의 경로의 시작점과 현재 가상 내시경의 위치를 잇는 직선에 기초하여 결정된다.
본 발명의 다른 실시예에 따르면, 의료용 항법 장치를 위한 의료 영상 처리 장치로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서; 를 포함하는 의료 영상 처리 장치가 제공된다.
또한, 본 발명의 다른 실시예에 따르면, 의료용 항법 장치를 위한 의료 영상 처리 방법으로서, 대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 단계; 상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 단계; 상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하는 단계; 및 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 단계; 를 포함하는 의료 영상 처리 방법이 제공된다.
이때, 상기 관심 영역은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 상기 의료용 항법 장치의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다.
또한, 상기 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리는 사용자의 입력에 의해 결정된다.
일 실시예에 따르면, 상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성된다.
또한, 상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정된다.
또한, 상기 특정 조직은 사용자의 선택에 의해 결정된다.
본 발명의 추가적인 실시예에 따르면, 상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성된다.
이때, 상기 부분 의료 영상 데이터의 각 픽셀 값
Figure PCTKR2017009541-appb-I000001
는 다음 수학식에 기초하여 결정된다.
Figure PCTKR2017009541-appb-I000002
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀,
Figure PCTKR2017009541-appb-I000003
는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.
이때, 상기 Kref는 다음 수학식에 기초하여 결정된다.
Figure PCTKR2017009541-appb-I000004
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.
또한, 상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터이다.
본 발명의 실시예에 따르면, 환자의 의료 영상과 시술 부위 영상을 효과적으로 렌더링 함으로 수술 및 의료 진단의 편의성을 제공할 수 있다.
또한, 본 발명의 실시예에 따르면, 의료 영상에 포함된 부가적인 데이터의 렌더링에 필요한 연산량을 최소화할 수 있다.
또한, 본 발명의 실시예에 따르면, 시술자가 환자의 해부학적 구조를 용이하게 파악할 수 있도록 하여 시술의 편의성 및 집중도를 향상시킬 수 있다.
도 1은 의료용 항법 장치의 출력 영상의 일 실시예를 도시한다.
도 2는 본 발명의 일 실시예에 따른 의료 영상 처리 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 의료 영상 처리 장치의 프로세서의 더욱 상세한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 내시경 추적부의 블록도이다.
도 5는 내시경 영상 및 이를 이용하여 생성된 노멀맵을 예시한다.
도 6은 의료 영상 데이터가 내시경 영상에 대한 증강 현실 영상으로 제공되는 것을 예시한다.
도 7 및 도 8은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다.
도 9는 본 발명의 일 실시예에 따른 의료 영상 데이터 생성부의 블록도이다.
도 10은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치의 블록도이다.
도 11은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치의 프로세서의 더욱 상세한 블록도이다.
도 12는 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다.
도 13은 도 12에 의해 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 14는 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다.
도 15 및 도 16은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다.
도 17은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
명세서 전체에서, 어떤 구성이 다른 구성과 “연결”되어 있다고 할 때, 이는 “직접적으로 연결”되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 “전기적으로 연결”되어 있는 경우도 포함한다. 또한 어떤 구성이 특정 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 이에 더하여, 특정 임계값을 기준으로 “이상” 또는 “이하”라는 한정 사항은 실시예에 따라 각각 “초과” 또는 “미만”으로 적절하게 대체될 수 있다.
이하, 각 도면을 참조로 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법을 설명하도록 한다. 본 발명의 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 인체 및 동물체를 포함하는 대상체에 대한 의료 영상에 적용될 수 있다. 의료 영상은 X-ray 영상, 컴퓨터 단층 촬영(Computed Tomography, CT) 영상, 양전자 방출 단층 촬영(Positron Emission Tomography, PET) 영상, 초음파 영상 및 자기 공명 영상(Magnetic Resonance Imaging, MRI)을 포함하며, 본 발명은 이에 한정되지 않는다. 또한, 본 명세서에서 의료 영상 데이터는 의료 영상 자체뿐만 아니라 의료 영상을 렌더링하여 생성된 다양한 형태의 데이터를 포함하는 넓은 의미의 용어로 사용된다. 일 실시예에 따르면, 의료 영상 데이터는 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수 있다. 또한, 의료 영상 데이터는 2차원의 의료 영상들의 그룹으로 구성된 3차원 데이터 세트를 가리킬 수도 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다. 본 발명의 실시예에 따른 의료 영상 처리 장치 및 의료 영상 처리 방법은 내시경 및/또는 의료용 항법 장치에 의해 제공되는 영상을 생성하거나 처리할 수 있다.
도 2는 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)의 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)는 프로세서(11), 통신부(12), 입력부(13), 메모리(14), 내시경 영상 취득부(15) 및 디스플레이 출력부(16)를 포함할 수 있다.
먼저, 통신부(12)는 외부 장치와 통신을 수행하기 위한 다양한 프로토콜의 유/무선 통신 모듈을 포함한다. 입력부(13)는 의료 영상 처리 장치(10)에 대한 사용자 입력을 수신하기 위한 다양한 형태의 인터페이스를 포함한다. 일 실시예에 따르면, 입력부(13)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트 등을 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 의료 영상 처리 장치는 통신부(12) 및/또는 입력부(13)를 통해 대상체의 의료 영상을 미리 획득할 수 있다. 메모리(14)는 의료 영상 처리 장치(10)에서 사용되는 제어 프로그램 및 이와 관련된 각종 데이터를 저장한다. 예를 들어, 메모리(14)는 사전에 획득된 대상체의 의료 영상을 저장할 수 있다. 또한, 메모리(14)는 대상체의 의료 영상을 렌더링하여 생성된 의료 영상 데이터를 저장할 수 있다.
내시경 영상 취득부(15)는 내시경(50)이 촬영한 대상체의 탐색 영역에 대한 내시경 영상을 취득한다. 내시경 영상 취득부(15)는 내시경(50)과 유선 또는 무선으로 연결되어 내시경(50)으로부터 영상을 수신할 수 있다.
디스플레이 출력부(16)는 본 발명의 실시예에 따라 생성된 영상을 출력한다. 즉, 디스플레이 출력부(16)는 후술하는 바와 같이 대상체의 내시경 영상과 함께 증강 현실 영상을 출력할 수 있다. 이때, 증강 현실 영상은 내시경 영상에 대응하는 부분 의료 영상 데이터를 포함한다. 디스플레이 출력부(16)에 의해 출력된 영상은 의료 영상 처리 장치(10)와 연결된 모니터(60)에 의해 디스플레이 될 수 있다.
본 발명의 프로세서(11)는 다양한 명령 또는 프로그램을 실행하고, 의료 영상 처리 장치(10) 내부의 데이터를 처리할 수 있다. 또한, 프로세서(11)는 전술한 의료 영상 처리 장치(10)의 각 유닛을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.
도 2에 도시된 의료 영상 장치(10)는 본 발명의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 해당 장치의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 의료 영상 장치(10)의 엘리먼트들은 해당 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 또한, 도 2에 도시된 의료 영상 장치(10)의 구성들 중 일부 구성이 생략될 수 있으며, 추가적인 구성이 의료 영상 장치(10)에 포함될 수도 있다.
도 3은 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)의 프로세서(11)의 더욱 상세한 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(10)의 프로세서(11)는 내시경 추적부(110), 의료 영상 데이터 생성부(120), 부분 의료 영상 데이터 추출부(130) 및 증강 현실 데이터 생성부(140)를 포함할 수 있다.
내시경 추적부(110)는 의료 영상 처리(10)에 내시경 영상을 제공하는 내시경(50)의 위치 및 방향 정보를 획득한다. 더욱 구체적으로, 내시경 추적부(110)는 대상체의 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보를 획득한다. 본 발명의 일 실시예에 따르면, 내시경 추적부(110)는 내시경 영상 취득부(15)를 통해 획득된 내시경 영상을 분석하여 내시경(50)의 위치 및 방향을 추적할 수 있다. 이에 대한 구체적인 실시예는 후술하도록 한다. 한편, 본 발명의 다른 실시예에 따르면, 내시경 추적부(110)는 별도의 내시경 추적 장치를 구비하여, 내시경(50)의 위치 및 방향을 추적할 수 있다. 6DOF(Degree of Freedom)를 갖는 추적 장치가 내시경(50)에 결합된 경우, 내시경 추적부(110)는 추적 장치로부터 내시경(50)의 위치 및 방향 정보를 획득할 수 있다. 추적 장치로부터 획득된 위치 및 방향 정보에 대해 정합(registration) 과정을 수행하면, 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득될 수 있다.
다음으로, 의료 영상 데이터 생성부(120)는 대상체의 의료 영상을 렌더링하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함한다. 일 실시예에 따르면, 의료 영상 데이터 생성부(120)는 대상체의 의료 영상에 볼륨 렌더링을 수행하여 의료 영상 데이터를 생성할 수 있다. 뿐만 아니라, 의료 영상 데이터 생성부(120)는 대상체에 대한 의료 영상과 사용자에 의해 임의로 설정된 보조 데이터를 합성하고, 합성된 데이터에 볼륨 렌더링을 수행하여 의료 영상 데이터를 생성할 수도 있다. 이에 대한 구체적인 실시예는 후술하도록 한다.
다음으로, 부분 의료 영상 추출부(130)는 획득된 내시경(50)의 위치 및 방향 정보에 기초하여, 의료 영상 데이터 중 증강 현실로 디스플레이 될 부분 의료 영상 데이터를 추출한다. 더욱 구체적으로, 부분 의료 영상 추출부(130)는 내시경(50)의 위치 및 방향 정보에 기초하여, 의료 영상 데이터 중 증강 현실로 디스플레이 될 타겟 영역을 결정한다. 본 발명의 일 실시예에 따르면, 타겟 영역은 내시경(50)의 특정 초점 거리, 시야각, 심도에 기초한 절두체(view frustum)의 영역으로 결정될 수 있다. 따라서, 내시경 추적부(110)에 의해 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득되면, 의료 영상 데이터 내에서 증강 현실로 표현되어야 할 타겟 영역이 결정될 수 있다. 부분 의료 영상 추출부(130)는 이와 같이 결정된 타겟 영역에 대응하는 부분 의료 영상 데이터를 추출한다.
다음으로, 증강 현실 데이터 생성부(140)는 추출된 부분 의료 영상 데이터를 증강 현실 영상으로 렌더링 한다. 즉, 증강 현실 데이터 생성부(140)는 부분 의료 영상 데이터와 내시경 영상을 정합하여, 부분 의료 영상 데이터를 내시경 영상에 대한 증강 현실 영상으로 제공한다.
도 4는 본 발명의 일 실시예에 따른 내시경 추적부(110)의 블록도이다. 내시경 영상과 증강 현실 영상을 의미 있는 형태로 정합하기 위해서는 다음과 같은 정보들이 필요하다.
- 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 Pf(Xf, Yf, Zf)
- 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 방향 벡터 Vview(Xv, Yv, Zv), Vup(Xu, Yu, Zu), Vright(Xr, Yr, Zr)
- 내시경(50)의 시야각(Field of View, FOV)
- 내시경(50)의 초점 거리
- 내시경(50)의 심도(Depth of Field, DOF)
이들 중에서 시야각, 초점 거리, 심도는 내시경 렌즈의 고정된 사양을 따르게 된다. 따라서, 의료 영상 데이터 내에서 증강 현실로 표현되어야 할 타겟 영역을 결정하기 위해서는 내시경(50)의 위치 정보 및 방향 정보가 실시간으로 획득되어야 한다.
본 발명의 일 실시예에 따르면, 내시경 추적부(110)는 별도의 내시경 추적 장치로부터 내시경(50)의 위치 및 방향을 추적할 수 있다. 그러나 본 발명의 다른 실시예에 따르면, 내시경 추적부(110)는 내시경 영상과 의료 영상 데이터를 비교하여 내시경(50)의 위치 및 방향을 추적할 수 있다. 더욱 구체적으로, 내시경 추적부(110)는 내시경 영상을 이용하여 생성된 노멀맵(normal map)과 의료 영상 데이터를 이용하여 생성된 복수의 노멀맵들을 비교하여, 내시경(50)의 위치 및 방향을 추적한다. 노멀맵은 탐색 영역에 대한 표면 정보를 2차원 형태로 프로젝션한 데이터를 나타낼 수 있다.
도 4를 참조하면, 내시경 추적부(110)는 제1 노멀맵 생성부(112), 제2 노멀맵 생성부(114) 및 노멀맵 비교부(116)를 포함할 수 있다. 먼저, 제1 노멀맵 생성부(112)는 내시경 영상을 획득하고, 획득된 내시경 영상을 이용하여 제1 노멀맵(Mreal)을 생성한다. 일반적으로 내시경 영상에는 빛의 방향 파악이 용이한 스포트라이트(spotlight) 형태의 광원이 내재되어 있다. 또한, 내시경으로 관찰하는 탐색 영역인 인체의 내부는 별도의 광원이 없고, 반사가 잘되는 타액이 표면에 많이 포함되어 있다. 이로 인해, 내시경 영상은 하이라이트(highlight) 및 셰이드(shade) 등의 효과가 극대화 될 수 있다. 따라서, 본 발명의 실시예에 따르면, 제1 노멀맵 생성부(112)는 획득된 내시경 영상에서 빛의 세기를 분석하여 3차원 탐색 영역의 표면 정보를 2차원 형태로 프로젝션한 제1 노멀맵(Mreal)을 생성할 수 있다. 제1 노멀맵 생성부(112)에서 생성된 제1 노멀맵(Mreal)은 노멀맵 비교부(116)로 전달된다.
도 5는 내시경 영상 및 이를 이용하여 생성된 노멀맵을 예시한다. 도 5(a)는 내시경(50)으로부터 획득된 내시경 영상을 나타내며, 도 5(b)는 내시경 영상을 이용하여 생성된 노멀맵을 나타낸다. 도 5(a)에서 나타난 바와 같이, 내시경 영상은 표면의 굴곡에 따라 하이라이트와 셰이드가 명확하게 나타날 수 있다. 따라서, 본 발명의 의료 영상 처리 장치(10)는 내시경 영상을 분석하여 도 5(b)에 나타난 바와 같은 노멀맵을 생성할 수 있다.
본 발명의 추가적인 실시예에 따르면, 보다 정확한 제1 노멀맵(Mreal)을 생성하기 위해 구조광 또는 패턴광이 적용된 내시경 영상이 사용될 수 있다. 이때, 제1 노멀맵(Mreal)은 대상체의 탐색 영역에 대한 구조광 또는 패턴광의 반사 정보에 기초하여 획득된다.
다시 도 4로 돌아가면, 제2 노멀맵 생성부(114)는 의료 영상 데이터로부터 복수의 제2 노멀맵(Mvirtual)들을 획득한다. 사용자는 사전에 의료 영상 데이터에 대한 내시경의 진행 방향을 결정하고 그 정보를 저장할 수 있다. 본 발명의 실시예에 따르면, 제2 노멀맵 생성부(114)는 사전에 결정된 내시경 진행 경로를 소정의 간격으로 나누고, 나누어진 각 지점에 대응하는 가상 내시경 영상을 생성할 수 있다. 이와 같이 생성된 가상 내시경 영상을 이용하여 제2 노멀맵(Mvirtual)이 획득된다. 제2 노멀맵(Mvirtual)은 대상체에 대한 가상 내시경의 위치 및 방향 정보에 기초하여 의료 영상 데이터로부터 획득될 수 있다. 이때, 가상 내시경의 방향 정보는 가상 내시경의 경로의 시작점과 현재 가상 내시경의 위치를 잇는 직선에 기초하여 결정될 수 있다. 그러나 가상 내시경이 동일 위치 및 방향 벡터 Vview를 갖더라도, 방향 벡터 Vview를 중심으로 한 가상 내시경의 회전에 따라 서로 다른 제2 노멀맵(Mvirtual)들이 필요할 수 있다. 따라서, 본 발명의 일 실시예에 따르면, 하나의 지점에 대해 소정의 각도로 분할된 복수의 제2 노멀맵(Mvirtual)들이 획득될 수 있다. 제2 노멀맵 생성부(114)에서 생성된 제2 노멀맵(Mvirtual)은 노멀맵 비교부(116)로 전달된다.
노멀맵 비교부(116)는 내시경 영상으로부터 획득된 제1 노멀맵(Mreal)을 의료 영상 데이터로부터 획득된 복수의 제2 노멀맵(Mvirtual)들과 비교하여 유사도를 판단한다. 유사도 판단 결과 가장 유사도가 높은 제2 노멀맵(Mvirtual)에 기초하여, 의료 영상 데이터를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득될 수 있다. 본 발명의 추가적인 실시예에 따르면, 노멀맵 비교부(116)는 노멀맵의 유사도 판단에 소요되는 복잡도를 줄이기 위해, 제1 노멀맵(Mreal)을 이전 시점의 내시경(50)의 위치 및 방향으로부터 기 설정된 범위 내의 제2 노멀맵(Mvirtual)들과 우선적으로 비교할 수 있다.
내시경(50)의 위치 및 방향 정보가 획득되면, 의료 영상 처리 장치(10)는 전술한 바와 같이 증강 현실로 디스플레이 될 부분 의료 영상 데이터를 추출하고, 추출된 부분 의료 영상 데이터를 증강 현실 영상으로 렌더링한다.
도 6은 의료 영상 데이터가 내시경 영상에 대한 증강 현실 영상으로 제공되는 것을 예시한다. 더욱 구체적으로, 도 6(a)는 내시경 영상을, 도 6(b)는 부분 의료 영상 데이터를 나타내며, 도 6(c)는 부분 의료 영상 데이터가 내시경 영상에 대한 증강 현실 영상으로 제공된 것을 나타낸다. 전술한 본 발명의 실시예에 따라 의료 영상 데이터 좌표계를 기준으로 한 내시경(50)의 위치 및 방향 정보가 획득되면, 부분 의료 영상 데이터와 내시경 영상이 효율적으로 정합될 수 있다. 이에 따라, 대상체의 시술 부위 및 인접한 요소들에 대한 정보가 시술자에게 직관적으로 파악될 수 있다.
한편, 증강 현실로 표현될 의료 영상 데이터는 다양한 종류의 데이터를 포함할 수 있다. 전술한 바와 같이, 의료 영상 데이터는 X-ray 영상, CT 영상, PET 영상, 초음파 영상, MRI 등의 의료 영상에 볼륨 렌더링을 수행하여 획득된 데이터일 수 있다. 본 발명의 추가적인 실시예에 따르면, 의료 영상 데이터는 대상체의 의료 영상에서 분할(segmentation) 후 메쉬 형태로 표현된 표적 장기(예를 들어, 뇌, 안구, 폐, 심장 등)의 영상을 포함할 수 있다. 뿐만 아니라, 의료 영상 데이터는 사용자에 의해 임의로 설정된 보조 데이터를 더 포함할 수 있다. 보조 데이터는 시술자가 시술 전에 의료 영상에 삽입한 마커, 경로 등 메쉬 형태로 표현되는 계획(planning) 정보를 포함한다. 본 발명의 실시예에 따르면, 의료 영상 처리 장치(10)는 메쉬 형태로 표현되는 상기 보조 데이터들에 대해 표면 렌더링을 수행하지 않고, 의료 영상과 함께 볼륨 렌더링을 수행할 수 있다. 더욱 구체적으로, 의료 영상 처리 장치(10)는 보조 데이터를 의료 영상과 합성하고, 합성된 데이터에 일괄적으로 볼륨 렌더링을 수행하여 증강 현실을 위한 의료 영상 데이터를 생성할 수 있다.
도 7 및 도 8은 본 발명의 실시예에 따른 볼륨 렌더링 기법을 도시한다. 볼륨 렌더링은 3차원 샘플 데이터 세트에 대한 2차원 투영을 표시하는 기술이다. 일반적인 3차원 데이터 세트는 전술한 의료 영상들로부터 수집된 2차원의 단층 촬영 이미지들의 그룹으로 구성될 수 있다. 상기 그룹의 이미지들은 규칙적인 패턴 및 개수의 픽셀들을 가질 수 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 한다.
도 7은 볼륨 렌더링에서 사용될 수 있는 광선 투사(ray-casting) 기법을 도시한다. 광선 투사 방식은 볼륨을 구성하는 복셀들이 반투명하여 스스로 빛을 내는 성질을 갖는 것으로 정의한다. 광선 투사 방식은 사용자의 시선(또는, 카메라의 위치 및 방향)에 따라 결정된 각 광선(r0, r1, … , r4)을 따라 샘플링된 복셀 값들을 누적하여 렌더링 값을 획득 한다. 이때, 생성해야 할 광선의 개수는 결과 영상의 해상도에 따라 결정된다. 사용자의 시선에 따라 3차원 볼륨 데이터를 적절하게 렌더링하기 위해 컬러 큐브 기법이 사용될 수 있다.
도 8은 볼륨 렌더링에서 사용되는 컬러 큐브를 도시한다. 볼륨 렌더링을 위해서는 모든 복셀의 투명도와 색상이 정의되어야 한다. 이를 위해, 모든 복셀 값에 대한 RGBA(red, green, blue, alpha) 값을 정의하는 RGBA 변환 함수가 정의될 수 있다. RGBA 변환 함수의 일 실시예에로, 컬러 큐브가 사용될 수 있다. 도 8에 도시된 바와 같이, 컬러 큐브는 원점(0, 0, 0)에 검정색을 지정하고, 대각선 맞은편 꼭지점(1, 1, 1)에 흰색을 지정하며, 큐브 내에서 각 좌표 값이 증가할수록 해당 RGB 값의 강도가 증가하게 된다. 각 좌표에 따른 RGB 값은 정규화된 텍스쳐 샘플링 좌표 값으로 사용된다.
볼륨 렌더링에서 각 광선의 시작점과 끝점을 정의하기 위해, 동일한 크기(즉, 픽셀 사이즈)를 갖는 전면 영상과 후면 영상의 두 장의 영상이 생성될 수 있다. 생성된 두 장의 영상 각각의 동일한 위치에서 획득되는 값이 그 위치에 대응하는 광선의 시작점과 끝점이 된다. 이와 같이 결정된 시작점부터 끝점까지 광선을 따라 일정 간격으로 의료 영상의 3차원 텍스쳐 샘플링을 진행하며 획득되는 값을 누적하면, 의도한 볼륨 렌더링 결과가 획득될 수 있다. 본 발명의 실시예에 따른 의료 영상 처리 장치(10)의 의료 영상 데이터 생성부(120)는 전술한 방법을 이용하여 볼륨 렌더링을 수행하고 의료 영상 데이터를 생성할 수 있다.
도 9는 본 발명의 일 실시예에 따른 의료 영상 데이터 생성부(120)의 블록도이다. 도 9를 참조하면, 본 발명의 일 실시예에 따른 의료 영상 데이터 생성부(120)는 HU 생성부(122) 및 볼륨 렌더러(124)를 포함할 수 있다.
볼륨 렌더러(124)는 대상체의 의료 영상을 수신하고, 수신된 의료 영상에 볼륨 렌더링을 수행하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 본 발명의 추가적인 실시예에 따르면, 볼륨 렌더러(124)는 대상체에 대한 의료 영상뿐만 아니라 사용자에 의해 임의로 설정된 보조 데이터를 함께 볼륨 렌더링할 수 있다. 보조 데이터는 사용자가 사전에 작성한 경로, 위험 영역 등 의료 영상 좌표계를 기준으로 그 크기와 위치가 정의된 임의의 정보를 나타낼 수 있다.
일반적으로 보조 데이터는 삼각형 메쉬 형태로 정의되어 의료 영상과 별도로 그려진 후 합성될 수 있다. 그러나 본 발명의 실시예에 따르면, 사전에 작성된 보조 데이터를 의료 영상과 함께 합성한 후 볼륨 렌더링을 수행할 수 있다. 보조 데이터를 의료 영상과 함께 볼륨 렌더링을 수행하기 위해, 보조 데이터를 기 설정된 범위의 값을 갖는 복셀들로 표현할 수 있다.
가장 널리 사용되는 의료 영상인 CT의 경우, 인체의 각 구성 요소가 갖는 CT 수치는 아래 표 1과 같다. 이때, 각 수치의 단위는 HU(Hounsfield Unit)이다.
조직(tissue) CT Number (HU)
+1000
40 ~ 60
백색질 -20 ~ -30
회백질 -37 ~ -45
혈액 40
근육 10 ~ 40
콩팥 30
뇌척수액 (CSF) 15
0
지방 -50 ~ -100
공기 -1000
의료 영상 표준인 DICOM(Digital Imaging and Communications in Medicine)에 따르는 데이터는 픽셀당 2byte를 사용한다. 따라서, 각 픽셀이 가질 수 있는 값의 범위는 216으로 -32768부터 32767까지이다. 임플란트 등의 이물질이 인체에 삽입될 수도 있으나, 재구성 과정에서 적정 수준의 값으로 치환되어 +/-1000HU 범위 밖의 값은 CT에서 사용되지 않는다.
따라서, 본 발명의 실시예에 따르면, 보조 데이터는 기 설정된 HU 범위 밖의 값을 갖는 복셀로 표현될 수 있다. 이때, 기 설정된 HU 범위는 -1000HU부터 +1000HU까지일 수 있으나, 본 발명은 이에 한정되지 않는다. HU 설정부(122)는 의료 영상 데이터 내에서 보조 데이터가 차지하는 위치에 대응하는 복셀의 값을 +/-1000HU 범위 밖의 값으로 치환할 수 있다. 볼륨 렌더러(124)는 기 설정된 HU 범위 밖의 값으로 치환된 복셀 데이터를 HU 설정부(122)로부터 획득하고, 이를 의료 영상과 함께 볼륨 렌더링 한다. 이와 같이 보조 데이터를 의료 영상과 함께 볼륨 렌더링 하면 의료 영상에 포함된 부가적인 데이터의 렌더링에 필요한 연산량을 최소화할 수 있다.
본 발명의 추가적인 실시예에 따르면, 기 설정된 HU 범위 밖의 범위는 제1 임계값을 초과하는 제1 HU 범위와 제2 임계값 미만의 제2 HU 범위를 포함할 수 있다. 이때, 제1 임계값은 +1000HU이고, 제2 임계값은 -1000HU일 수 있다. HU 설정부(122)는 제1 HU 범위의 값과 제2 HU 범위의 값이 서로 다른 종류의 보조 데이터를 나타내도록 설정할 수 있다. 예를 들어, 제1 HU 범위의 값은 사용자가 설정한 마커 정보를 나타내고, 제2 HU 범위의 값은 경로 정보를 나타낼 수 있다. 다른 실시예에 따르면, 제1 HU 범위의 값은 경로 정보를 나타내고, 제2 HU 범위의 값은 위험 영역 정보를 나타낼 수 있다. 보조 데이터를 서로 다른 범위의 값을 갖는 복셀로 표현함으로 서로 다른 종류의 보조 데이터를 사용자가 쉽게 식별할 수 있다. 상기 언급된 보조 데이터 종류의 구분 기준 및 HU 범위 할당 방법은 본 발명의 예시를 나타낸 것이며, 본 발명은 이에 한정되지 않는다.
도 10은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치(20)의 블록도이다. 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 처리 장치(20)는 프로세서(21), 통신부(22), 입력부(23), 메모리(24), 위치 추적부(25) 및 디스플레이 출력부(26)를 포함할 수 있다.
먼저, 통신부(22)는 외부 장치와 통신을 수행하기 위한 다양한 프로토콜의 유/무선 통신 모듈을 포함한다. 입력부(23)는 의료 영상 처리 장치(20)에 대한 사용자 입력을 수신하기 위한 다양한 형태의 인터페이스를 포함한다. 일 실시예에 따르면, 입력부(23)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트 등을 포함할 수 있으며, 본 발명은 이에 한정되지 않는다. 의료 영상 처리 장치는 통신부(22) 및/또는 입력부(23)를 통해 대상체의 의료 영상을 미리 획득할 수 있다. 메모리(24)는 의료 영상 처리 장치(10)에서 사용되는 제어 프로그램 및 이와 관련된 각종 데이터를 저장한다. 예를 들어, 메모리(24)는 사전에 획득된 대상체의 의료 영상을 저장할 수 있다. 또한, 메모리(24)는 대상체의 의료 영상을 렌더링하여 생성된 의료 영상 데이터를 저장할 수 있다.
위치 추적부(25)는 대상체 내에서의 의료용 항법 장치(55)의 위치 정보를 취득한다. 본 발명의 실시예에서 의료용 항법 장치(55)는 다양한 종류의 수술 항법 장치를 포함할 수 있다. 의료용 항법 장치의 위치 추적을 위해 광학식 위치 추적 방법 또는 전자기식 위치 추적 방법이 사용될 수 있으나, 본 발명은 이에 한정되지 않는다. 의료용 항법 장치(55)로부터 획득된 위치 정보가 대상체의 의료 영상 데이터와 정합되지 않은 경우, 위치 추적부(25)는 정합 과정을 수행하여 의료 영상 데이터를 기준으로 한 의료용 항법 장치(55)의 위치 정보를 생성할 수 있다. 위치 추적부(25)는 의료용 항법 장치(55)와 유선 또는 무선으로 연결되어 의료용 항법 장치(55)로부터 위치 정보를 수신할 수 있다.
디스플레이 출력부(26)는 본 발명의 실시예에 따라 생성된 영상을 출력한다. 즉, 디스플레이 출력부(26)는 후술하는 바와 같이 대상체의 관심 영역에 대응하는 의료 영상 데이터를 출력할 수 있다. 디스플레이 출력부(26)에 의해 출력된 영상은 의료 영상 처리 장치(20)와 연결된 모니터(65)에 의해 디스플레이 될 수 있다.
본 발명의 프로세서(21)는 다양한 명령 또는 프로그램을 실행하고, 의료 영상 처리 장치(20) 내부의 데이터를 처리할 수 있다. 또한, 프로세서(21)는 전술한 의료 영상 처리 장치(20)의 각 유닛을 제어하며, 유닛들 간의 데이터 송수신을 제어할 수 있다.
도 10에 도시된 의료 영상 장치(20)는 본 발명의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 해당 장치의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 의료 영상 장치(20)의 엘리먼트들은 해당 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 또한, 도 10에 도시된 의료 영상 장치(20)의 구성들 중 일부 구성이 생략될 수 있으며, 추가적인 구성이 의료 영상 장치(20)에 포함될 수도 있다.
도 11은 본 발명의 다른 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)의 더욱 상세한 블록도이다. 도시된 바와 같이, 본 발명의 다른 실시예에 따른 의료 영상 처리 장치(20)의 프로세서(21)는 관심 영역 설정부(210), 의료 영상 데이터 생성부(220) 및 부분 의료 영상 데이터 생성부(230)를 포함할 수 있다.
관심 영역 설정부(210)는 대상체에 대한 사용자의 관심 영역을 설정한다. 더욱 구체적으로, 관심 영역 설정부(210)는 위치 추적부(25)로부터 의료용 항법 장치(55)의 위치 정보를 수신하고, 상기 위치 정보에 기초하여 관심 영역을 설정한다. 본 발명의 실시예에 따르면, 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 이를 위해, 관심 영역 설정부(210)는 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자 입력으로 사전에 수신할 수 있다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다. 만약 사용자가 수평면, 시상면 및 관상면 중 적어도 하나의 기준면에 대한 영역 설정 정보를 입력하지 않은 경우, 관심 영역 설정부(210)는 해당 면을 기준으로 한 크롭핑(cropping)을 수행하지 않을 수 있다. 관심 영역 설정부(210)에서 획득된 관심 영역 정보는 부분 의료 영상 데이터 생성부(230)로 전달된다.
다음으로, 의료 영상 데이터 생성부(220)는 대상체의 의료 영상을 렌더링하여 의료 영상 데이터를 생성한다. 전술한 바와 같이, 의료 영상은 X-ray 영상, CT 영상, PET 영상, 초음파 영상 및 MRI 중 적어도 하나를 포함한다. 의료 영상 데이터는 대상체에 대한 의료 영상을 이용하여 생성된 복셀들을 가리킬 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 의료 영상 데이터는 대상체에 대한 의료 영상을 볼륨 렌더링한 데이터를 가리킬 수도 있다.
다음으로, 부분 의료 영상 데이터 생성부(230)는 대상체에 대한 의료 영상 데이터 중 관심 영역에 대응하는 부분의 의료 영상 데이터를 추출하여 렌더링한다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 관심 영역의 복셀들을 선별적으로 광선 투사하여 볼륨 렌더링을 수행할 수 있다. 이에 따라, 대상체 내에서 관심 영역 이외의 개체들이 관심 영역의 개체들과 중첩되는 것을 방지하여, 시술자가 대상체의 해부학적 구조를 용이하게 파악할 수 있게 된다.
본 발명의 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 다양한 방법으로 볼륨 렌더링 데이터를 생성할 수 있다. 일 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에 포함된 복셀들 전체에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.
본 발명의 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀들에 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이때, 기 설정된 HU 범위는 대상체의 특정 조직(tissue)의 CT 수치에 기초하여 결정될 수 있다. 또한, 볼륨 렌더링을 수행하기 위한 특정 조직은 사용자에 의해 선택될 수 있다. 이를 통해, 관심 영역 내에서 사용자의 설정에 의해 선택된 특정 조직에 대응하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.
표 1을 통해 설명된 바와 같이, 인체의 각 구성 요소가 갖는 CT 수치의 범위는 미리 결정되어 있다. 만약 사용자가 대상체의 관심 영역 중에서 회백질만을 선별적으로 확인하고 싶다면, 사용자는 -37 내지 -45의 CT 수치 범위에 포함된 임의의 값 또는 해당 범위를 포함하는 CT 수치 범위를 입력부(23)를 통해 입력할 수 있다. 뿐만 아니라, 사용자는 기 설정된 대상체의 조직들 중 회백질에 대한 선택을 입력부(23)를 통해 입력할 수도 있다. 부분 의료 영상 데이터 생성부(230)는 사용자의 입력에 기초하여 대상체의 관심 영역 중에서 회백질에 해당하는 복셀들에만 선별적으로 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다.
본 발명의 또 다른 실시예에 따르면, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다. 더욱 구체적으로, 부분 의료 영상 데이터 생성부(230)는 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점에 가상의 광원이 존재한다고 가정하여, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역의 복셀 값들을 설정할 수 있다. 부분 의료 영상 데이터 생성부(230)는 이와 같이 설정된 복셀들에 광선 투사를 수행하여 볼륨 렌더링 데이터를 생성할 수 있다. 이에 대한 구체적인 실시예는 후술하도록 한다.
부분 의료 영상 데이터 생성부(230)에서 생성된 부분 의료 영상 데이터는 디스플레이 출력부(26)의 출력 영상으로 제공될 수 있다.
도 12는 대상체에 대한 관심 영역을 설정하는 일 실시예를 도시한다. 도 12를 참조하면, 볼륨 렌더링을 수행하기 위한 컬러 큐브 내에서 시상면을 기준으로 특정 거리 이내에 포함된 영역이 관심 영역으로 설정되어 있다. 도 13은 이와 같이 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 더욱 구체적으로, 도 13(a)는 큐브 내에 포함된 대상체의 볼륨 렌더링 데이터를 나타내며, 도 13(b)는 도 12에 의해 설정된 관심 영역에 대응하는 볼륨 렌더링 데이터를 나타낸다. 도 13(b)에 나타난 바와 같이, 사용자의 관심 영역 설정에 따라, 대상체의 시상면을 기준으로 특정 거리 이내에 포함된 영역만이 볼륨 렌더링되어 디스플레이 될 수 있다.
도 14는 대상체의 관심 영역을 설정하기 위한 유저 인터페이스의 일 실시예를 도시한다. 도 14를 참조하면, 유저 인터페이스는 대상체의 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리에 대한 정보(즉, 영역 설정 정보)를 사용자로부터 수신할 수 있다. 관심 영역은 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 의료용 항법 장치(55)의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정된다. 본 발명의 일 실시예에 따르면, 위치 추적부(25)로부터 획득된 의료용 항법 장치(55)의 위치 정보가 유저 인터페이스의 각 기준면에 대한 슬라이드 바 상에서 특정 좌표로 표시될 수 있다. 사용자는 각 슬라이드 바에 표시된 좌표를 기준으로 관심 영역에 포함될 기준 거리를 설정할 수 있다. 관심 영역 설정부(210)는 수평면을 기준으로 한 제1 거리 정보, 시상면을 기준으로 한 제2 거리 정보 및 관상면을 기준으로 한 제3 거리 정보 중 적어도 하나를 유저 인터페이스를 통해 수신한다. 관심 영역 설정부(210)는 의료용 항법 장치(55)의 위치로부터 수평면을 기준으로 제1 거리 이내, 시상면을 기준으로 제2 거리 이내 및/또는 관상면을 기준으로 제3 거리 이내에 포함된 영역을 크롭(crop)하여 관심 영역으로 설정한다.
도 15 및 도 16은 다양하게 설정된 관심 영역에 대응하는 부분 의료 영상 데이터를 도시한다. 도 15(a)는 대상체의 시상면을 기준으로 관심 영역이 설정된 경우를, 도 15(b)는 대상체의 수평면을 기준으로 관심 영역이 설정된 경우를, 도 15(c)는 대상체의 관상면을 기준으로 관심 영역이 설정된 경우를 각각 나타낸다. 또한, 도 16은 대상체의 시상면, 수평면 및 관상면 모두를 기준으로 관심 영역이 설정된 경우를 나타낸다. 이와 같이, 본 발명의 실시예에 따르면 사용자의 설정에 따라 다양한 형태로 관심 영역이 설정될 수 있으며, 관심 영역에 대응하는 의료 영상만을 선별적으로 렌더링하여 사용자에게 제공할 수 있다.
한편, 상기 실시예들에서는 관심 영역이 의료 영상 데이터의 수평면, 시상면 및 관상면을 기준으로 설정되는 것으로 설명되었으나, 본 발명은 이에 한정되지 않는다. 본 발명에서 관심 영역은 의료 영상 데이터의 임의의 기준 축 또는 기준 면에 대하여 설정될 수 있다.
도 17은 본 발명의 추가적인 실시예에 따른 부분 의료 영상 데이터 생성 방법을 도시한다. 전술한 바와 같이, 부분 의료 영상 데이터 생성부(230)는 관심 영역(30)에 대한 특수 효과를 위해, 기 설정된 지점의 가상의 광원으로부터 빛이 방출된다는 가정 하에 관심 영역의 복셀 값들을 렌더링하여 부분 의료 영상 데이터를 생성할 수 있다.
먼저, 일반적인 광선 투사 방법을 이용한 볼륨 렌더링 데이터의 각 픽셀 값
Figure PCTKR2017009541-appb-I000005
은 아래 수학식 1과 같이 표현될 수 있다.
Figure PCTKR2017009541-appb-M000001
여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀을 가리킨다. 또한,
Figure PCTKR2017009541-appb-I000006
는 복셀 x의 값(또는, 복셀 x의 강도) 이고,
Figure PCTKR2017009541-appb-I000007
는 최초 복셀 S0부터 현재 복셀 x까지 누적된 투명도를 나타낸다. τ(t)는 복셀 t의 감쇄 계수를 나타낸다.
본 발명의 실시예에 따르면, 의료용 항법 장치(55)의 위치에 기초한 기 설정된 지점 P0에 가상의 광원이 존재한다고 가정하고, 가상의 광원으로부터 빛이 방출되었을 때의 관심 영역(30)의 복셀 값들을 설정할 수 있다. 이때, 복셀 x의 값
Figure PCTKR2017009541-appb-I000008
는 아래 수학식 2와 같이 표현될 수 있다.
Figure PCTKR2017009541-appb-M000002
여기서, R(x)는 가상의 광원에서 방출된 빛에 의해 조정되는 복셀 값이며 아래 수학식 3과 같이 정의될 수 있다.
Figure PCTKR2017009541-appb-M000003
여기서, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값을 각각 나타낸다. 본 발명의 실시예에 따르면, 반사 계수 Kref는 아래 수학식 4와 같이 결정될 수 있다.
Figure PCTKR2017009541-appb-M000004
여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터를 각각 나타낸다. 일 실시예에 따르면, 기울기 벡터 G(x)는 복셀 x를 기준으로 주변 복셀 값들이 가장 크게 변화하는 참조면의 법선으로 정의될 수 있다.
따라서, 본 발명의 실시예에 따르면, 부분 의료 영상 데이터의 각 픽셀 값
Figure PCTKR2017009541-appb-I000009
는 아래 수학식 5에 기초하여 결정될 수 있다.
Figure PCTKR2017009541-appb-M000005
부분 의료 영상 데이터 생성부(230)는 이와 같이 생성된 볼륨 렌더링 데이터를 부분 의료 영상 데이터로 생성한다. 이와 같은 본 발명의 추가적인 실시예에 따르면, 관심 영역 내부 또는 관심 영역 주변에 조명이 삽입된 것과 같은 효과를 나타낼 수 있다. 관심 영역 내부 또는 주변에 조명이 삽입되면 관심 영역에 대한 그림자 효과로 인해 관심 영역의 입체감이 극대화 될 수 있으며, 관심 영역에 대한 사용자의 식별도가 증가될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아는 것으로 해석해야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 의료용 항법 장치를 위한 의료 영상 처리 장치로서,
    대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 위치 추적부;
    상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 메모리; 및
    상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하고, 상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 프로세서;
    를 포함하는 의료 영상 처리 장치.
  2. 제1 항에 있어서,
    상기 관심 영역은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 상기 의료용 항법 장치의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정되는 의료 영상 처리 장치.
  3. 제2 항에 있어서,
    상기 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리는 사용자의 입력에 의해 결정되는 의료 영상 처리 장치.
  4. 제1 항에 있어서,
    상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성되는 의료 영상 처리 장치.
  5. 제4 항에 있어서,
    상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정되는 의료 영상 처리 장치.
  6. 제5 항에 있어서,
    상기 특정 조직은 사용자의 선택에 의해 결정되는 의료 영상 처리 장치.
  7. 제1 항에 있어서,
    상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성되는 의료 영상 처리 장치.
  8. 제7 항에 있어서,
    상기 부분 의료 영상 데이터의 각 픽셀 값
    Figure PCTKR2017009541-appb-I000010
    는 다음 수학식에 기초하여 결정되는 의료 영상 처리 장치.
    Figure PCTKR2017009541-appb-I000011
    여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀,
    Figure PCTKR2017009541-appb-I000012
    는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.
  9. 제8 항에 있어서,
    상기 Kref는 다음 수학식에 기초하여 결정되는 의료 영상 처리 장치.
    Figure PCTKR2017009541-appb-I000013
    여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.
  10. 제1 항에 있어서,
    상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터인 의료 영상 처리 장치.
  11. 의료용 항법 장치를 위한 의료 영상 처리 방법으로서,
    대상체 내에서의 의료용 항법 장치의 위치 정보를 획득하는 단계;
    상기 대상체에 대한 의료 영상에 기초하여 생성된 의료 영상 데이터를 저장하는 단계;
    상기 의료 영상 데이터를 기준으로 한 상기 의료용 항법 장치의 위치 정보에 기초하여 관심 영역을 설정하는 단계; 및
    상기 관심 영역에 대응하는 부분 의료 영상 데이터를 생성하는 단계;
    를 포함하는 의료 영상 처리 방법.
  12. 제11 항에 있어서,
    상기 관심 영역은 상기 의료 영상 데이터의 수평면, 시상면 및 관상면 중 적어도 하나를 기준으로, 상기 의료용 항법 장치의 위치로부터 기 설정된 거리 이내의 영역에 기초하여 설정되는 의료 영상 처리 방법.
  13. 제12 항에 있어서,
    상기 수평면, 시상면 및 관상면 각각을 기준으로 한 기 설정된 거리는 사용자의 입력에 의해 결정되는 의료 영상 처리 방법.
  14. 제11 항에 있어서,
    상기 부분 의료 영상 데이터는 상기 관심 영역 내에서 기 설정된 HU 범위 이내의 값을 갖는 복셀(voxel)들을 렌더링하여 생성되는 의료 영상 처리 방법.
  15. 제14 항에 있어서,
    상기 기 설정된 HU 범위는 상기 대상체의 특정 조직의 CT 수치에 기초하여 결정되는 의료 영상 처리 방법.
  16. 제15 항에 있어서,
    상기 특정 조직은 사용자의 선택에 의해 결정되는 의료 영상 처리 방법.
  17. 제11 항에 있어서,
    상기 부분 의료 영상 데이터는 상기 의료용 항법 장치의 위치에 기초한 기 설정된 지점의 가상의 광원으로부터 빛이 방출되었을 때의 상기 관심 영역의 복셀들을 렌더링하여 생성되는 의료 영상 처리 방법.
  18. 제17 항에 있어서,
    상기 부분 의료 영상 데이터의 각 픽셀 값
    Figure PCTKR2017009541-appb-I000014
    는 다음 수학식에 기초하여 결정되는 의료 영상 처리 방법.
    Figure PCTKR2017009541-appb-I000015
    여기서, S0는 광선 투사에 의해 샘플링 되는 최초 복셀, Sn은 광선 투사에 의해 샘플링 되는 최종 복셀,
    Figure PCTKR2017009541-appb-I000016
    는 복셀 x의 값, τ(t)는 복셀 t의 감쇄 계수, Kref는 반사 계수, P0는 가상의 광원의 위치, L은 가상의 광원의 P0에서의 밝기 값.
  19. 제18 항에 있어서,
    상기 Kref는 다음 수학식에 기초하여 결정되는 의료 영상 처리 방법.
    Figure PCTKR2017009541-appb-I000017
    여기서, G(x)는 복셀 x에서의 기울기 벡터, Vp0 ->x는 가상의 광원의 위치 P0에서 복셀 x로의 방향 벡터.
  20. 제11 항에 있어서,
    상기 의료 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 부분 의료 영상 데이터는 상기 관심 영역에 대응하는 복셀들을 광선 투사하여 획득한 볼륨 렌더링 데이터인 의료 영상 처리 방법.
PCT/KR2017/009541 2017-08-31 2017-08-31 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 WO2019045144A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2017/009541 WO2019045144A1 (ko) 2017-08-31 2017-08-31 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US16/807,139 US11183295B2 (en) 2017-08-31 2020-03-02 Medical image processing apparatus and medical image processing method which are for medical navigation device
US17/513,884 US11676706B2 (en) 2017-08-31 2021-10-29 Medical image processing apparatus and medical image processing method which are for medical navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/009541 WO2019045144A1 (ko) 2017-08-31 2017-08-31 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/807,139 Continuation US11183295B2 (en) 2017-08-31 2020-03-02 Medical image processing apparatus and medical image processing method which are for medical navigation device

Publications (1)

Publication Number Publication Date
WO2019045144A1 true WO2019045144A1 (ko) 2019-03-07

Family

ID=65525619

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/009541 WO2019045144A1 (ko) 2017-08-31 2017-08-31 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법

Country Status (2)

Country Link
US (2) US11183295B2 (ko)
WO (1) WO2019045144A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11145111B2 (en) * 2018-12-04 2021-10-12 Intuitive Research And Technology Corporation Volumetric slicer
EP4258216A1 (en) * 2022-04-06 2023-10-11 Avatar Medical Method for displaying a 3d model of a patient
US11967073B2 (en) 2022-03-15 2024-04-23 Avatar Medical Method for displaying a 3D model of a patient
WO2023175001A1 (en) * 2022-03-15 2023-09-21 Avatar Medical Method for displaying a 3d model of a patient

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003079637A (ja) * 2001-09-13 2003-03-18 Hitachi Medical Corp 手術ナビゲーションシステム
JP2006223894A (ja) * 2006-05-19 2006-08-31 Ziosoft Inc 医用画像生成装置および方法、ならびに、プログラム
US20160350963A1 (en) * 2015-05-27 2016-12-01 Siemens Corporation Method for Streaming-Optimized Medical raytracing
KR20170026163A (ko) * 2015-08-26 2017-03-08 바이오센스 웹스터 (이스라엘) 리미티드 역추적 미로 문제 해법을 사용한 자동 ent 수술 사전계획
KR101728044B1 (ko) * 2015-02-02 2017-04-18 삼성전자주식회사 의료 영상을 디스플레이 하기 위한 방법 및 장치

Family Cites Families (314)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4782501A (en) * 1987-09-04 1988-11-01 Mobil Oil Corporation Method for determining pore volume compressibility of a porous material
US5555352A (en) * 1991-04-23 1996-09-10 International Business Machines Corporation Object-based irregular-grid volume rendering
US5442733A (en) * 1992-03-20 1995-08-15 The Research Foundation Of State University Of New York Method and apparatus for generating realistic images using a discrete representation
JP3483929B2 (ja) * 1994-04-05 2004-01-06 株式会社日立製作所 3次元画像生成方法
JP2002510230A (ja) 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ 立体的画像ナビゲーション方法及び装置
US6166742A (en) * 1998-06-13 2000-12-26 Lucent Technologies, Inc. Wavelet-assisted volume ray casting
JP2000149047A (ja) * 1998-11-12 2000-05-30 Mitsubishi Electric Inf Technol Center America Inc ボリュ―ムレンダリングプロセッサ
US7085400B1 (en) * 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
US7952583B2 (en) * 2000-06-19 2011-05-31 Mental Images Gmbh Quasi-monte carlo light transport simulation by efficient ray tracing
AU2002222702A1 (en) * 2000-11-25 2002-06-03 Infinitt Co., Ltd. 3-dimensional multiplanar reformatting system and method and computer-readable recording medium having 3-dimensional multiplanar reformatting program recorded thereon
KR20020058370A (ko) * 2000-12-29 2002-07-12 김선민 복수의 디스플레이장치가 한 개의 본체에 일체로 제공되는컴퓨터
CN100405973C (zh) 2002-03-14 2008-07-30 Netkisr有限公司 分析和显示计算机体层摄影术数据的方法
JP4171833B2 (ja) 2002-03-19 2008-10-29 国立大学法人東京工業大学 内視鏡誘導装置および方法
US7154985B2 (en) * 2003-05-13 2006-12-26 Medical Insight A/S Method and system for simulating X-ray images
US7091973B1 (en) * 2003-06-20 2006-08-15 Jonathan Michael Cohen Apparatus and method for estimating reflected radiance under complex distant illumination
US7301538B2 (en) * 2003-08-18 2007-11-27 Fovia, Inc. Method and system for adaptive direct volume rendering
GB2415876B (en) * 2004-06-30 2007-12-05 Voxar Ltd Imaging volume data
JP2006055213A (ja) * 2004-08-17 2006-03-02 Konica Minolta Medical & Graphic Inc 画像処理装置、及びプログラム
US20070299639A1 (en) * 2004-08-31 2007-12-27 Koninklijke Philips Electronics N.V. Direct Volume Rendering with Shading
US7576737B2 (en) * 2004-09-24 2009-08-18 Konica Minolta Medical & Graphic, Inc. Image processing device and program
JP2006107093A (ja) * 2004-10-05 2006-04-20 Konica Minolta Medical & Graphic Inc 画像処理装置、およびプログラム
US7301644B2 (en) * 2004-12-02 2007-11-27 University Of Miami Enhanced optical coherence tomography for anatomical mapping
US20090226055A1 (en) * 2004-12-10 2009-09-10 Harry Dankowicz Systems and methods for multi-dimensional characterization and classification of spinal shape
JP4213135B2 (ja) * 2005-04-22 2009-01-21 ザイオソフト株式会社 展開画像投影方法、展開画像投影プログラム、展開画像投影装置
US7853304B2 (en) * 2005-05-13 2010-12-14 Tomtec Imaging Systems Gmbh Method and device for reconstructing two-dimensional sectional images
US7330578B2 (en) * 2005-06-23 2008-02-12 Accuray Inc. DRR generation and enhancement using a dedicated graphics device
US7236558B2 (en) * 2005-07-07 2007-06-26 Terarecon, Inc. Three-dimensional image display device creating three-dimensional image directly from projection data
JP4267598B2 (ja) * 2005-07-11 2009-05-27 ザイオソフト株式会社 画像融合処理方法、画像融合処理プログラム、画像融合処理装置
US7787678B2 (en) * 2005-10-07 2010-08-31 Siemens Corporation Devices, systems, and methods for processing images
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US7750906B2 (en) * 2006-04-19 2010-07-06 Pixar Systems and methods for light pruning
US20070248259A1 (en) * 2006-04-21 2007-10-25 Cheng-Wen Liu Apparatus for reconstructing multi-dimensional image data and a method thereof
JP4864554B2 (ja) * 2006-06-12 2012-02-01 株式会社東芝 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム
US8066378B2 (en) * 2006-10-06 2011-11-29 Marc Lalley Three-dimensional internal back-projection system and method for using the same
EP3260042B1 (en) 2006-11-10 2020-07-15 Covidien LP Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7860331B2 (en) * 2006-11-23 2010-12-28 General Electric Company Purpose-driven enhancement filtering of anatomical data
JP4588736B2 (ja) * 2007-04-12 2010-12-01 富士フイルム株式会社 画像処理方法および装置並びにプログラム
JP4709177B2 (ja) * 2007-04-12 2011-06-22 富士フイルム株式会社 三次元画像処理装置および方法並びにプログラム
JP4388104B2 (ja) * 2007-06-29 2009-12-24 ザイオソフト株式会社 画像処理方法、画像処理プログラム及び画像処理装置
JP5383014B2 (ja) * 2007-08-30 2014-01-08 キヤノン株式会社 放射線画像処理装置及び方法
US8218905B2 (en) * 2007-10-12 2012-07-10 Claron Technology Inc. Method, system and software product for providing efficient registration of 3D image data
US9082213B2 (en) * 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
US20090136096A1 (en) * 2007-11-23 2009-05-28 General Electric Company Systems, methods and apparatus for segmentation of data involving a hierarchical mesh
US10575875B2 (en) * 2007-12-18 2020-03-03 Howmedica Osteonics Corporation Systems and methods for surgical planning of arthroplasty procedures
US10687856B2 (en) * 2007-12-18 2020-06-23 Howmedica Osteonics Corporation System and method for image segmentation, bone model generation and modification, and surgical planning
DE112009000094T5 (de) * 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Verfeinerung dreidimensionaler Modelle
JP2009160306A (ja) * 2008-01-09 2009-07-23 Ziosoft Inc 画像表示装置、画像表示装置の制御方法、および画像表示装置の制御プログラム
US8983580B2 (en) * 2008-01-18 2015-03-17 The Board Of Trustees Of The University Of Illinois Low-coherence interferometry and optical coherence tomography for image-guided surgical treatment of solid tumors
KR101475779B1 (ko) * 2008-06-02 2014-12-23 삼성전자주식회사 3d 영상 처리 방법
CN102124320A (zh) * 2008-06-18 2011-07-13 苏尔吉克斯有限公司 用于将多个图像拼接成全景图像的方法和系统
DE102008030552A1 (de) * 2008-06-27 2009-12-31 Siemens Aktiengesellschaft Verfahren zur Erzeugung von Bilddaten zu einer virtuell vorgebbaren Röntgenröhrenspannung aus ersten und zweiten CT-Bilddaten
US20100033482A1 (en) * 2008-08-11 2010-02-11 Interactive Relighting of Dynamic Refractive Objects Interactive Relighting of Dynamic Refractive Objects
JP5491830B2 (ja) * 2009-01-20 2014-05-14 株式会社東芝 超音波診断装置、超音波画像処理装置、画像処理方法および画像表示方法
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US11464578B2 (en) * 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
JP4719929B2 (ja) * 2009-03-31 2011-07-06 Necカシオモバイルコミュニケーションズ株式会社 表示装置、および、プログラム
JP5346859B2 (ja) * 2009-04-15 2013-11-20 富士フイルム株式会社 医用画像管理装置および方法並びにプログラム
EP2427723B1 (en) * 2009-05-04 2018-12-19 Duke University Methods and computer program products for quantitative three-dimensional image correction and clinical parameter computation in optical coherence tomography
KR101651859B1 (ko) * 2009-06-05 2016-09-12 삼성전자주식회사 사용자별 ui 제공방법 및 이를 적용한 디바이스
US9439736B2 (en) * 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US8483458B2 (en) * 2009-09-10 2013-07-09 General Electric Company Method and system for measuring visceral fat mass using dual energy x-ray absorptiometry
US20130120385A1 (en) * 2009-09-15 2013-05-16 Aravind Krishnaswamy Methods and Apparatus for Diffuse Indirect Illumination Computation using Progressive Interleaved Irradiance Sampling
DE102009042328B4 (de) * 2009-09-21 2024-02-15 Siemens Healthcare Gmbh Effiziente Bestimmung von Lichteffekten beim Volume Rendering
EP2320381A1 (en) * 2009-11-04 2011-05-11 TomTec Imaging Systems GmbH Method and device for visualizing surface-like structures in volumetric data sets
US8615127B2 (en) * 2010-01-15 2013-12-24 Vanderbilt University System and method for point-based rigid registration with anisotropic weighting
US8780115B1 (en) * 2010-04-06 2014-07-15 The Pnc Financial Services Group, Inc. Investment management marketing tool
JP5586048B2 (ja) * 2010-05-26 2014-09-10 Necカシオモバイルコミュニケーションズ株式会社 情報表示装置及びプログラム
JP5609416B2 (ja) * 2010-08-19 2014-10-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5486437B2 (ja) * 2010-08-24 2014-05-07 富士フイルム株式会社 立体視画像表示方法および装置
JP5675227B2 (ja) * 2010-08-31 2015-02-25 富士フイルム株式会社 内視鏡画像処理装置および作動方法、並びに、プログラム
US20120069020A1 (en) * 2010-09-21 2012-03-22 Siemens Medical Solutions Usa, Inc. Lighting Control for Occlusion-based Volume Illumination of Medical Data
US8928552B2 (en) * 2010-12-01 2015-01-06 Sony Corporation Personal digital assistant, and display control method and display control program thereof
JP2012165838A (ja) 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
DE112012000752A5 (de) * 2011-02-11 2013-11-21 Olaf Christiansen Endoskopisches Bildverarbeitungssystem mit Mitteln, welche im Erfassungsbereich einer optischen Digitalkamera eine geometrische Vermessungsinformation erzeugen
JP5351198B2 (ja) * 2011-03-23 2013-11-27 シャープ株式会社 マルチディスプレイシステム
JP5263997B2 (ja) * 2011-03-30 2013-08-14 富士フイルム株式会社 医用レポート作成装置、医用レポート作成方法および医用レポート作成プログラム
DE102011015893A1 (de) * 2011-04-01 2012-10-04 NUMENUS GmbH Verfahren zur Visualisierung von Freiformflächen mittels Ray Tracing
KR101206340B1 (ko) 2011-04-29 2012-11-29 주식회사 코어메드 영상수술 리허설 제공방법 및 시스템, 그 기록매체
JP5808146B2 (ja) * 2011-05-16 2015-11-10 株式会社東芝 画像処理システム、装置及び方法
US8638331B1 (en) * 2011-09-16 2014-01-28 Disney Enterprises, Inc. Image processing using iterative generation of intermediate images using photon beams of varying parameters
US9280848B1 (en) * 2011-10-24 2016-03-08 Disney Enterprises Inc. Rendering images with volumetric shadows using rectified height maps for independence in processing camera rays
US8866813B2 (en) * 2011-06-30 2014-10-21 Dreamworks Animation Llc Point-based guided importance sampling
WO2013012070A1 (ja) * 2011-07-20 2013-01-24 株式会社東芝 画像処理システム、装置、方法及び医用画像診断装置
JP5839907B2 (ja) * 2011-09-15 2016-01-06 キヤノン株式会社 画像処理装置および画像処理方法
US8867807B1 (en) * 2011-09-23 2014-10-21 Dr Systems, Inc. Intelligent dynamic preloading and processing
US20130080932A1 (en) * 2011-09-27 2013-03-28 Sanjiv Sirpal Secondary single screen mode activation through user interface toggle
KR101891794B1 (ko) * 2011-11-28 2018-08-27 삼성전자주식회사 보조 윈도우 표시 방법 및 이를 지원하는 단말기
CN104040463B (zh) * 2012-01-13 2017-02-22 索尼公司 信息处理设备和信息处理方法、以及计算机程序
JP6165438B2 (ja) * 2012-01-27 2017-07-19 東芝メディカルシステムズ株式会社 X線ct装置
US20130222276A1 (en) * 2012-02-29 2013-08-29 Lg Electronics Inc. Electronic device and method for controlling electronic device
KR101329748B1 (ko) * 2012-03-07 2013-11-14 삼성메디슨 주식회사 영상 처리 장치 및 방법
GB2500405B (en) * 2012-03-20 2014-04-16 Lightmap Ltd Point and click lighting for image based lighting surfaces
CN107822690B (zh) * 2012-05-25 2020-10-02 外科手术室公司 具有不用手的控制的混合图像/场景再现器
CN103505288B (zh) * 2012-06-29 2017-11-17 通用电气公司 超声成像方法和超声成像设备
WO2014013579A1 (ja) * 2012-07-19 2014-01-23 Necディスプレイソリューションズ株式会社 多画面表示システム及び表示方法
JP6316557B2 (ja) * 2012-08-30 2018-04-25 キヤノンメディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理方法
JP6080249B2 (ja) * 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
EP2907106B1 (en) * 2012-10-12 2019-04-17 Koninklijke Philips N.V. System for accessing data of a face of a subject
RU2654611C2 (ru) * 2012-11-20 2018-05-21 Конинклейке Филипс Н.В. Автоматическое позиционирование стандартных плоскостей для оценки сердца плода в режиме реального времени
KR101538658B1 (ko) * 2012-11-20 2015-07-22 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
JP2014104328A (ja) 2012-11-30 2014-06-09 Toyota Keeramu:Kk 手術支援システム、手術支援方法及び手術支援プログラム
US20140152560A1 (en) * 2012-11-30 2014-06-05 Emo2 Inc. Systems for changing orientation of displayed content
KR20140073398A (ko) * 2012-12-06 2014-06-16 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR101524085B1 (ko) 2013-01-04 2015-05-29 삼성메디슨 주식회사 의료 영상 제공 장치 및 방법
JP6150532B2 (ja) * 2013-01-22 2017-06-21 オリンパス株式会社 計測装置およびプログラム
KR102054680B1 (ko) * 2013-01-23 2020-01-22 삼성전자주식회사 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
WO2014123396A1 (en) * 2013-02-08 2014-08-14 Ewoosoft Co., Ltd. Image display to display internal structure with change of depth
US9478065B2 (en) * 2013-03-14 2016-10-25 Robert Bosch Gmbh System and method for remote generation of indirect illumination sources in three-dimensional graphics
EP2967350A4 (en) * 2013-03-15 2017-03-01 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
US11134921B2 (en) * 2013-04-12 2021-10-05 Hitachi, Ltd. Ultrasonic diagnostic device and ultrasonic three-dimensional image generation method
US9245376B2 (en) * 2013-05-14 2016-01-26 Roblox Corporation Lighting management in virtual worlds
JP6430149B2 (ja) * 2013-05-28 2018-11-28 キヤノンメディカルシステムズ株式会社 医用画像処理装置
JP6122495B2 (ja) * 2013-06-11 2017-04-26 敦 丹治 骨切支援システム、情報処理装置、画像処理方法、および画像処理プログラム
ES2684300T3 (es) * 2013-07-18 2018-10-02 Fasetto, L.L.C. Sistema y método de vídeos de múltiples ángulos
GB201313810D0 (en) * 2013-08-01 2013-09-18 King S College London Method and system for tomosynthesis imaging
KR102206196B1 (ko) * 2013-08-29 2021-01-22 삼성전자주식회사 엑스선 촬영 장치 및 그 제어 방법
WO2015037340A1 (ja) * 2013-09-10 2015-03-19 ソニー株式会社 画像処理装置、画像処理方法、プログラム
EP2863363A1 (en) * 2013-09-30 2015-04-22 Samsung Medison Co., Ltd. Method and apparatus for generating three-dimensional image of target object
KR20150059509A (ko) * 2013-11-22 2015-06-01 삼성전자주식회사 디스플레이 장치, 디스플레이 시스템 및 그 제어 방법
KR20150064937A (ko) * 2013-12-04 2015-06-12 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
KR102122476B1 (ko) * 2014-01-08 2020-06-12 삼성전자주식회사 화면의 회전을 컨트롤할 수 있는 전자 장치 및 방법
JP2015157067A (ja) * 2014-01-21 2015-09-03 株式会社東芝 医用画像診断装置、画像処理装置及び画像処理方法
KR102278816B1 (ko) * 2014-02-04 2021-07-20 삼성디스플레이 주식회사 표시장치 및 이의 구동방법
US9842424B2 (en) * 2014-02-10 2017-12-12 Pixar Volume rendering using adaptive buckets
US10712918B2 (en) * 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
JP6321405B2 (ja) * 2014-02-27 2018-05-09 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像生成装置、放射線断層撮影装置及び画像生成方法並びにプログラム
JP2015159945A (ja) * 2014-02-27 2015-09-07 富士フイルム株式会社 画像表示装置、方法およびプログラム
US10347042B2 (en) * 2014-03-13 2019-07-09 Pixar Importance sampling of sparse voxel octrees
WO2015140816A1 (en) * 2014-03-15 2015-09-24 Vats Nitin Self-demonstrating object features and/or operations in interactive 3d-model of real object for understanding object's functionality
KR20150117018A (ko) * 2014-04-09 2015-10-19 삼성전자주식회사 컴퓨팅 장치, 컴퓨팅 장치 제어 방법 및 다중 디스플레이 시스템
US10755378B2 (en) * 2014-05-28 2020-08-25 Echo Pixel, Inc. Multi-point annotation using a haptic plane
US10755379B2 (en) * 2014-05-28 2020-08-25 EchoPixel, Inc. Multi-point annotation using a haptic plane
JP2015228186A (ja) * 2014-06-02 2015-12-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP2016006613A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR101565482B1 (ko) * 2014-07-21 2015-11-05 한국과학기술연구원 반투과 광학소자를 이용한 영상표시장치
US9892548B2 (en) * 2014-08-08 2018-02-13 Nvidia Corporation Lighting simulation analysis using light path expressions
US11227427B2 (en) * 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
JP2016045623A (ja) * 2014-08-21 2016-04-04 ソニー株式会社 情報処理装置および制御方法
US20170255340A1 (en) * 2014-09-16 2017-09-07 Nec Corporation Information processing apparatus, and control method and control program thereof
WO2016042864A1 (ja) * 2014-09-16 2016-03-24 日本電気株式会社 マルチ画面の表示位置入替方法、情報処理装置およびその制御方法と制御プログラム
US10068368B2 (en) * 2014-09-23 2018-09-04 Siemens Healthcare Gmbh Method, visualization device, and computer program product for visualizing a three-dimensional object
US10298877B2 (en) * 2014-09-25 2019-05-21 Steve H. McNelley Communication stage and display systems
EP3001385B1 (en) * 2014-09-29 2019-05-01 Agfa Healthcare A system and method for rendering a video stream
US20160098820A1 (en) * 2014-10-03 2016-04-07 Raghu Kopalle System for robust denoising of images
US10527562B2 (en) * 2014-10-29 2020-01-07 Massachusetts Institute Of Technology Methods and apparatus for X-ray imaging from temporal measurements
KR20160054360A (ko) * 2014-11-06 2016-05-16 삼성전자주식회사 영상 장치 및 영상화 방법
JP6432770B2 (ja) * 2014-11-12 2018-12-05 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
US20160135775A1 (en) * 2014-11-17 2016-05-19 Wisconsin Alumni Research Foundation System And Method For Time-Resolved, Three-Dimensional Angiography With Physiological Information
JP6437286B2 (ja) * 2014-11-26 2018-12-12 株式会社東芝 画像処理装置、画像処理プログラム、画像処理方法及び治療システム
KR102292923B1 (ko) * 2014-12-15 2021-08-24 삼성전자주식회사 3d 렌더링 방법 및 장치
US10007996B2 (en) * 2015-03-02 2018-06-26 Lawrence Livermore National Security, Llc System for detecting objects in streaming 3D images formed from data acquired with a medium penetrating sensor
US9984493B2 (en) * 2015-03-09 2018-05-29 Siemens Healthcare Gmbh Method and system for volume rendering based on 3D image filtering and real-time cinematic rendering
US10049467B2 (en) * 2015-03-18 2018-08-14 Vatech Co., Ltd. Apparatus and method for reconstructing medical image
CN106572786B (zh) * 2015-03-30 2018-12-18 奥林巴斯株式会社 胶囊型内窥镜系统以及磁场产生装置
US20190141315A1 (en) * 2015-05-04 2019-05-09 University Of Rochester Real space 3d image generation system
JP6504248B2 (ja) * 2015-05-08 2019-04-24 富士通クライアントコンピューティング株式会社 画像出力制御方法、画像出力制御プログラム及び表示装置
US9582926B2 (en) * 2015-05-22 2017-02-28 Siemens Healthcare Gmbh Coherent memory access in Monte Carlo volume rendering
WO2016197248A1 (en) * 2015-06-12 2016-12-15 Nureva, Inc. Method and apparatus for using gestures across multiple devices
US20180357032A1 (en) * 2015-06-12 2018-12-13 Nureva, Inc. System, apparatus, and method for facilitating and perpetuating a collaborative ideation session
CN107735714B (zh) * 2015-06-25 2020-06-09 奥林巴斯株式会社 内窥镜装置
US10223813B2 (en) * 2015-08-13 2019-03-05 InstaRecon Method and system for reprojection and backprojection for tomography reconstruction
US9799135B2 (en) * 2015-09-01 2017-10-24 Siemens Healthcare Gmbh Semantic cinematic volume rendering
US10354438B2 (en) * 2015-09-02 2019-07-16 Siemens Healthcare Gmbh Illumination in rendering of anatomy with functional information
KR20170032818A (ko) * 2015-09-15 2017-03-23 삼성전자주식회사 단층 촬영 장치 및 단층 촬영 장치의 제어 방법
EP3353593A1 (en) * 2015-09-21 2018-08-01 University of Rochester Methods and systems for controlling angular intensity patterns in a real space 3d image
US11188146B2 (en) * 2015-10-17 2021-11-30 Arivis Ag Direct volume rendering in virtual and/or augmented reality
US9947091B2 (en) * 2015-11-16 2018-04-17 Biosense Webster (Israel) Ltd. Locally applied transparency for a CT image
KR101769331B1 (ko) 2015-11-30 2017-08-18 오스템임플란트 주식회사 Ct 영상 재구성 방법, 이를 위한 장치 및 기록 매체
JP6732439B2 (ja) * 2015-12-03 2020-07-29 株式会社バンダイナムコエンターテインメント プログラム及び画像生成システム
US20190200951A1 (en) * 2015-12-16 2019-07-04 Glo-Tip, Llc Needle tracking transducer array methods and apparatus
US20170178390A1 (en) * 2015-12-18 2017-06-22 Canon Kabushiki Kaisha Devices, systems, and methods for measuring and reconstructing the shapes of specular objects by multiview capture
EP3188131B1 (de) * 2015-12-29 2018-04-18 Siemens Healthcare GmbH Verfahren und visualisierungsvorrichtung zur volumetrischen visualisierung eines dreidimensionalen objekts
CN105677240B (zh) * 2015-12-30 2019-04-23 上海联影医疗科技有限公司 数据删除方法及系统
KR102558737B1 (ko) * 2016-01-04 2023-07-24 삼성전자주식회사 3d 렌더링 방법 및 장치
US11335302B2 (en) * 2016-01-15 2022-05-17 Google Llc Adaptable user interface with dual screen device
EP3402408B1 (en) * 2016-01-15 2020-09-02 Koninklijke Philips N.V. Automated probe steering to clinical views using annotations in a fused image guidance system
SG11201804547XA (en) * 2016-02-03 2018-08-30 Mitsubishi Electric Corp On-board information display device, on-board information display control device, on-board information display control system, and on-board information display control method
KR102480462B1 (ko) * 2016-02-05 2022-12-23 삼성전자주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
EP3206190A1 (en) * 2016-02-15 2017-08-16 Thomson Licensing Device and process for improving efficiency of image rendering
JP6155427B1 (ja) * 2016-02-25 2017-07-05 地方独立行政法人秋田県立病院機構 医用断面表示装置及び断面画像表示方法
US10664220B2 (en) * 2016-02-29 2020-05-26 Sharp Kabushiki Kaisha Display control device, display system, and display control method
US10564921B2 (en) * 2016-03-09 2020-02-18 Ricoh Company, Ltd. Display device, display method, and display system for determining image display size
US10445905B2 (en) * 2016-03-31 2019-10-15 Shanghai United Imaging Healthcare Co., Ltd. System and method for image reconstruction
CN109076148B (zh) * 2016-04-12 2021-02-05 奎蒂安特有限公司 日常场景重建引擎
JP6929689B2 (ja) * 2016-04-26 2021-09-01 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像診断装置
US10194990B2 (en) * 2016-04-27 2019-02-05 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
US20170323471A1 (en) * 2016-05-06 2017-11-09 National Taiwan University 3D rendering method and 3D graphics processing device
US9936187B2 (en) * 2016-05-18 2018-04-03 Siemens Healthcare Gmbh Multi-resolution lightfield rendering using image pyramids
CN107452048B (zh) * 2016-05-30 2019-03-12 网易(杭州)网络有限公司 全局光照的计算方法及装置
US9916677B2 (en) * 2016-06-09 2018-03-13 Disney Enterprises, Inc. Ray tracing across refractive boundaries
JP6887449B2 (ja) * 2016-06-10 2021-06-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. レンダリングされた画像を照明するシステム及び方法
EP3469553A1 (en) * 2016-06-10 2019-04-17 Koninklijke Philips N.V. Systems and methods for generating b-mode images from 3d ultrasound data
JP2017227976A (ja) * 2016-06-20 2017-12-28 レノボ・シンガポール・プライベート・リミテッド 画面の分割表示を行うためのデバイス、方法、及びプログラム・プロダクト
CN109478092A (zh) * 2016-07-12 2019-03-15 富士胶片株式会社 图像显示系统、以及头戴式显示器的控制装置及其工作方法和工作程序
JP6693342B2 (ja) * 2016-08-31 2020-05-13 セイコーエプソン株式会社 表示システム、及び表示システムの制御方法
US10055878B2 (en) * 2016-08-31 2018-08-21 Siemens Healthcare Gmbh Method of visualizing a three-dimensional object from a data volume
US10939963B2 (en) * 2016-09-01 2021-03-09 Covidien Lp Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
US10282918B2 (en) * 2016-09-20 2019-05-07 Siemens Healthcare Gmbh Two-dimensional cinematic medical imaging in color based on deep learning
US9706972B1 (en) * 2016-09-28 2017-07-18 General Electric Company Systems and methods for reconstruction of emission activity image
DE102017217599A1 (de) * 2016-10-04 2018-04-05 Toshiba Medical Systems Corporation Medizinische Informationsverarbeitungsvorrichtung, Röntgen-CT-Vorrichtung und medizinisches Informationsverarbeitungsverfahren
US10459676B2 (en) * 2016-10-16 2019-10-29 Dell Products, L.P. Dynamic user interface for multiple shared displays in an electronic collaboration setting
US10896538B2 (en) * 2016-11-07 2021-01-19 Koninklijke Philips N.V. Systems and methods for simulated light source positioning in rendered images
WO2018092059A1 (en) * 2016-11-16 2018-05-24 Navix International Limited Tissue model dynamic visual rendering
US10452813B2 (en) * 2016-11-17 2019-10-22 Terarecon, Inc. Medical image identification and interpretation
JP6760008B2 (ja) * 2016-11-21 2020-09-23 富士通株式会社 コンテンツ制御装置、コンテンツ制御プログラムおよびコンテンツ制御方法
JP6187668B1 (ja) * 2016-11-25 2017-08-30 富士ゼロックス株式会社 表示装置、画像処理装置及びプログラム
EP3340180A1 (en) * 2016-12-20 2018-06-27 Thomson Licensing Device and method for scene rendering by path tracing with complex lighting
CN106682424A (zh) * 2016-12-28 2017-05-17 上海联影医疗科技有限公司 医学图像的调节方法及其系统
US20180189014A1 (en) * 2017-01-05 2018-07-05 Honeywell International Inc. Adaptive polyhedral display device
US11282191B2 (en) * 2017-01-12 2022-03-22 Navix International Limited Flattened view for intra-lumenal navigation
US11730395B2 (en) * 2017-01-12 2023-08-22 Navix International Limited Reconstruction of an anatomical structure from intrabody measurements
CN110383345B (zh) * 2017-01-12 2023-08-15 纳维斯国际有限公司 用于内腔导航的扁平化视图
US10546415B2 (en) * 2017-02-07 2020-01-28 Siemens Healthcare Gmbh Point cloud proxy for physically-based volume rendering
CN110506249B (zh) * 2017-02-16 2022-07-19 索尼公司 信息处理设备、信息处理方法和记录介质
JP6903935B2 (ja) * 2017-02-17 2021-07-14 ソニーグループ株式会社 情報処理システム、情報処理方法、およびプログラム
CN106898039B (zh) * 2017-02-23 2020-08-21 京东方科技集团股份有限公司 用于生成计算全息图的方法和系统
EP3590407B1 (en) * 2017-03-03 2021-09-15 FUJIFILM Corporation Measurement support device with an imaging unit, with a coordinate acquisition unit and with a unit for displaying a marker based on the coordinates
US10198853B2 (en) * 2017-03-07 2019-02-05 General Electric Company Method and system for performing real-time volume rendering to provide enhanced visualization of ultrasound images at a head mounted display
US10607393B2 (en) * 2017-03-10 2020-03-31 Siemens Healthcare Gmbh Consistent 3D rendering in medical imaging
EP3600044B1 (en) * 2017-03-24 2023-08-30 Koninklijke Philips N.V. Noise-robust real-time extraction of the respiratory motion signal from pet list-data
WO2018178274A1 (en) * 2017-03-29 2018-10-04 Koninklijke Philips N.V. Embedded virtual light source in 3d volume linked to mpr view crosshairs
US11127197B2 (en) * 2017-04-20 2021-09-21 Siemens Healthcare Gmbh Internal lighting for endoscopic organ visualization
CN107115119B (zh) * 2017-04-25 2020-04-10 上海联影医疗科技有限公司 Pet图像衰减系数的获取方法、衰减校正的方法及系统
WO2018201155A1 (en) * 2017-04-28 2018-11-01 The Brigham And Women's Hospital, Inc. Systems, methods, and media for presenting medical imaging data in an interactive virtual reality environment
US10186051B2 (en) * 2017-05-11 2019-01-22 Dantec Dynamics A/S Method and system for calibrating a velocimetry system
US10311631B2 (en) * 2017-05-12 2019-06-04 Siemens Healthcare Gmbh Light path fusion for rendering surface and volume data in medical imaging
US10275130B2 (en) * 2017-05-12 2019-04-30 General Electric Company Facilitating transitioning between viewing native 2D and reconstructed 3D medical images
US10635292B2 (en) * 2017-05-15 2020-04-28 Dell Products L.P. Information handling system predictive content navigation
US20180333129A1 (en) * 2017-05-17 2018-11-22 Carestream Health, Inc. Automatic exposure control setup
JP2018197674A (ja) * 2017-05-23 2018-12-13 オリンパス株式会社 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
US10692273B2 (en) * 2017-06-01 2020-06-23 Siemens Healthcare Gmbh In-context photorealistic 3D visualization for surgical decision support
WO2018227449A1 (en) * 2017-06-15 2018-12-20 Shanghai United Imaging Healthcare Co., Ltd. Imaging systems and methods thereof
JP7227168B2 (ja) * 2017-06-19 2023-02-21 モハメド・アール・マーフーズ 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション
US11357575B2 (en) * 2017-07-14 2022-06-14 Synaptive Medical Inc. Methods and systems for providing visuospatial information and representations
EP3658070A1 (en) * 2017-07-27 2020-06-03 Align Technology, Inc. Tooth shading, transparency and glazing
US10410433B2 (en) * 2017-08-30 2019-09-10 Go Ghost, LLC Method of modifying ray tracing samples after rendering and before rasterizing
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US20210287454A1 (en) * 2017-09-15 2021-09-16 Multus Medical, Llc System and method for segmentation and visualization of medical image data
US10265138B2 (en) * 2017-09-18 2019-04-23 MediVis, Inc. Methods and systems for generating and using 3D images in surgical settings
EP3692329B1 (en) * 2017-10-06 2023-12-06 Advanced Scanners, Inc. Generation of one or more edges of luminosity to form three-dimensional models of objects
US10671237B2 (en) * 2017-10-16 2020-06-02 Microsoft Technology Licensing, Llc Human-machine interface for presenting a user interface on a virtual curved visual surface
US10593099B2 (en) * 2017-11-14 2020-03-17 Siemens Healthcare Gmbh Transfer function determination in medical imaging
US11893729B2 (en) * 2017-11-22 2024-02-06 GE Precision Healthcare LLC Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US10420469B2 (en) * 2017-11-22 2019-09-24 Hi Llc Optical detection system for determining neural activity in brain based on water concentration
US10354451B2 (en) * 2017-11-29 2019-07-16 Siemens Healthcare Gmbh Exploration of medical visualization parameters in virtual spaces
JP6984377B2 (ja) * 2017-12-12 2021-12-17 富士通株式会社 情報処理装置、画面表示システム及びプログラム
CN111566744A (zh) * 2018-01-02 2020-08-21 皇家飞利浦有限公司 Oss介入设备的动画位置显示
JP6977573B2 (ja) * 2018-01-12 2021-12-08 京セラドキュメントソリューションズ株式会社 情報端末装置、情報処理システムおよび表示制御プログラム
US10665007B2 (en) * 2018-01-15 2020-05-26 Siemens Healthcare Gmbh Hybrid interactive mode for rendering medical images with ray tracing
WO2019147961A1 (en) * 2018-01-26 2019-08-01 University Of Florida Research Foundation, Inc. Techniques for skin illumination of radiation therapy treatment region using non-coaxial digital projector
US10719932B2 (en) * 2018-03-01 2020-07-21 Carl Zeiss Meditec, Inc. Identifying suspicious areas in ophthalmic data
US10755474B1 (en) * 2018-03-13 2020-08-25 Siemens Healthcare Gmbh Method of processing a volumetric dataset and a method of rendering a volumetric dataset
WO2019182906A1 (en) * 2018-03-17 2019-09-26 Nvidia Corporation Shadow denoising in ray-tracing applications
JP6981326B2 (ja) * 2018-03-22 2021-12-15 富士通株式会社 情報処理装置、表示システム及びウィンドウ配置プログラム
WO2019187206A1 (ja) * 2018-03-27 2019-10-03 オリンパス株式会社 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム
US10372402B1 (en) * 2018-03-27 2019-08-06 Panoscape Holdings, LLC Multi-panel, multi-communication video wall and system and method for seamlessly isolating one of more panels for individual user interaction
EP3545849A1 (en) * 2018-03-27 2019-10-02 Koninklijke Philips N.V. Apparatus, system and method for visualizing a periodically moving anatomy
US11373330B2 (en) * 2018-03-27 2022-06-28 Siemens Healthcare Gmbh Image-based guidance for device path planning based on penalty function values and distances between ROI centerline and backprojected instrument centerline
US10762693B2 (en) * 2018-04-05 2020-09-01 Canon Medical Systems Corporation Imaging data processing apparatus and method
JP7115897B2 (ja) * 2018-04-20 2022-08-09 富士フイルム株式会社 内視鏡装置
US10796430B2 (en) * 2018-04-24 2020-10-06 General Electric Company Multimodality 2D to 3D imaging navigation
CN110536125A (zh) * 2018-05-25 2019-12-03 光宝电子(广州)有限公司 影像处理系统及影像处理方法
JP2020123304A (ja) * 2018-05-31 2020-08-13 キヤノン株式会社 画像処理システム、撮像装置、画像処理装置、電子機器、これらの制御方法、および、プログラム
US10679740B2 (en) * 2018-06-12 2020-06-09 The Chinese University Of Hong Kong System and method for patient privacy protection in medical images
CN108876783B (zh) * 2018-06-27 2021-02-05 上海联影医疗科技股份有限公司 图像融合方法及系统、医疗设备和图像融合终端
US11705238B2 (en) * 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
EP3598948B1 (de) * 2018-07-27 2022-03-16 Siemens Healthcare GmbH Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
KR102102942B1 (ko) * 2018-07-31 2020-04-21 서울대학교산학협력단 3d 영상 정합 제공 장치 및 그 방법
US11157414B2 (en) * 2018-08-10 2021-10-26 Nvidia Corporation Method for efficient grouping of cache requests for datapath scheduling
US10573067B1 (en) * 2018-08-22 2020-02-25 Sony Corporation Digital 3D model rendering based on actual lighting conditions in a real environment
US11416069B2 (en) * 2018-09-21 2022-08-16 Immersivetouch, Inc. Device and system for volume visualization and interaction in a virtual reality or augmented reality environment
US11043025B2 (en) * 2018-09-28 2021-06-22 Arizona Board Of Regents On Behalf Of Arizona State University Illumination estimation for captured video data in mixed-reality applications
US11457981B2 (en) * 2018-10-04 2022-10-04 Acclarent, Inc. Computerized tomography (CT) image correction using position and direction (P andD) tracking assisted optical visualization
EP3873387A4 (en) * 2018-10-30 2022-08-03 Mehmet Erdem Ay BODY ENGAGEMENT DEVICES AND METHODS OF USE
US10754498B2 (en) * 2018-12-07 2020-08-25 Amazon Technologies, Inc. Hybrid image rendering system
EP3667624A1 (en) * 2018-12-14 2020-06-17 Siemens Healthcare GmbH Method of determining an illumination effect of a volumetric dataset
US10881371B2 (en) * 2018-12-27 2021-01-05 Medtronic Navigation, Inc. System and method for imaging a subject
CN109464757B (zh) * 2018-12-29 2021-07-20 上海联影医疗科技股份有限公司 一种确定目标对象位置的方法、系统、装置及存储介质
US10818265B2 (en) * 2019-01-15 2020-10-27 Dell Products L. P. Displaying a logo on a screen of a dual-screen device
US10565773B1 (en) * 2019-01-15 2020-02-18 Nokia Technologies Oy Efficient light field video streaming
KR102654804B1 (ko) * 2019-02-20 2024-04-05 삼성전자주식회사 폴더블 디스플레이를 포함하는 전자 장치 및 그 동작 방법
US10849696B2 (en) * 2019-03-01 2020-12-01 Biosense Webster (Israel) Ltd. Map of body cavity
US10664217B1 (en) * 2019-03-04 2020-05-26 International Business Machines Corporation Displaying dynamic content on multiple devices
US10790056B1 (en) * 2019-04-16 2020-09-29 International Medical Solutions, Inc. Methods and systems for syncing medical images across one or more networks and devices
US11100696B2 (en) * 2019-04-25 2021-08-24 Case Western Reserve University Systems, methods, and media for rendering voxel-based 3D content
US11756681B2 (en) * 2019-05-07 2023-09-12 Medtronic, Inc. Evaluation of post implantation patient status and medical device performance
US11413094B2 (en) * 2019-05-24 2022-08-16 University Health Network System and method for multi-client deployment of augmented reality instrument tracking
JP7313192B2 (ja) * 2019-05-27 2023-07-24 キヤノンメディカルシステムズ株式会社 診断支援装置、及び、x線ct装置
JP7345292B2 (ja) * 2019-06-25 2023-09-15 富士フイルムヘルスケア株式会社 X線トモシンセシス装置、画像処理装置、および、プログラム
KR102384304B1 (ko) * 2019-07-15 2022-04-07 레고 에이/에스 렌더링 방법 및 이를 수행하는 렌더링 장치
US20210019932A1 (en) * 2019-07-18 2021-01-21 GE Precision Healthcare LLC Methods and systems for shading a volume-rendered image
US11049315B2 (en) * 2019-07-31 2021-06-29 Verizon Patent And Licensing Inc. Methods and devices for bifurcating graphics rendering between a media player device and a multi-access edge compute server
US20210072944A1 (en) * 2019-09-05 2021-03-11 Panasonic Avionics Corporation Animations over multiple screens in an in-flight entertainment system
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
US11344266B2 (en) * 2019-09-16 2022-05-31 Redlen Technologies, Inc. Calibration methods for improving uniformity in X-ray photon counting detectors
EP3796265A1 (en) * 2019-09-23 2021-03-24 Siemens Healthcare GmbH Implicit surface shading in medical volumetric rendering
JP2021051573A (ja) * 2019-09-25 2021-04-01 キヤノン株式会社 画像処理装置、および画像処理装置の制御方法
US11433258B2 (en) * 2019-10-18 2022-09-06 Uih-Rt Us Llc System and method for dose measurement in radiation therapy
US20210125396A1 (en) * 2019-10-25 2021-04-29 Hyperfine Research, Inc. Systems and methods for generating three-dimensional medical images using ray tracing
US11398072B1 (en) * 2019-12-16 2022-07-26 Siemens Healthcare Gmbh Method of obtaining a set of values for a respective set of parameters for use in a physically based path tracing process and a method of rendering using a physically based path tracing process
US20210236233A1 (en) * 2020-01-30 2021-08-05 Verb Surgical Inc. Three dimensional medical imaging and interactions
KR20230005287A (ko) * 2020-04-27 2023-01-09 아발론 홀로그래픽스 인코퍼레이션 광 필드 볼륨 렌더링 시스템 및 방법
US20210358198A1 (en) * 2020-05-15 2021-11-18 Nvidia Corporation Using directional radiance for interactions in path tracing
US11302056B2 (en) * 2020-06-10 2022-04-12 Nvidia Corporation Techniques for traversing data employed in ray tracing
US11367237B2 (en) * 2020-07-01 2022-06-21 GE Precision Healthcare LLC Method and system for controlling a virtual light source for volume-rendered images
US11657563B2 (en) * 2020-07-28 2023-05-23 Unity Technologies Sf Path guiding for path-traced rendering
DE102021210435A1 (de) * 2020-10-20 2022-04-21 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten
US11367241B2 (en) * 2020-10-22 2022-06-21 Nvidia Corporation Ray-guided water caustics
US11847722B2 (en) * 2020-11-30 2023-12-19 James R. Glidewell Dental Ceramics, Inc. Out of view CT scan reconstruction
US11756254B2 (en) * 2020-12-08 2023-09-12 Nvidia Corporation Light importance caching using spatial hashing in real-time ray tracing applications
US11610360B2 (en) * 2021-03-03 2023-03-21 Nvidia Corporation Real-time neural network radiance caching for path tracing
EP4057233A1 (en) * 2021-03-10 2022-09-14 Siemens Healthcare GmbH System and method for automatic light arrangement for medical visualization
US11922556B2 (en) * 2021-04-12 2024-03-05 Nvidia Corporation Ray-traced light resampling using screen space visibility
US20220335636A1 (en) * 2021-04-15 2022-10-20 Adobe Inc. Scene reconstruction using geometry and reflectance volume representation of scene

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003079637A (ja) * 2001-09-13 2003-03-18 Hitachi Medical Corp 手術ナビゲーションシステム
JP2006223894A (ja) * 2006-05-19 2006-08-31 Ziosoft Inc 医用画像生成装置および方法、ならびに、プログラム
KR101728044B1 (ko) * 2015-02-02 2017-04-18 삼성전자주식회사 의료 영상을 디스플레이 하기 위한 방법 및 장치
US20160350963A1 (en) * 2015-05-27 2016-12-01 Siemens Corporation Method for Streaming-Optimized Medical raytracing
KR20170026163A (ko) * 2015-08-26 2017-03-08 바이오센스 웹스터 (이스라엘) 리미티드 역추적 미로 문제 해법을 사용한 자동 ent 수술 사전계획

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
US11676706B2 (en) 2017-08-31 2023-06-13 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device

Also Published As

Publication number Publication date
US11676706B2 (en) 2023-06-13
US20220051786A1 (en) 2022-02-17
US11183295B2 (en) 2021-11-23
US20200203006A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
WO2019045144A1 (ko) 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US8251893B2 (en) Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
WO2016195401A1 (ko) 증강현실을 이용한 외과 수술용 3d 안경 시스템
US20170202443A1 (en) Video Endoscopic System
US20170366773A1 (en) Projection in endoscopic medical imaging
JP5771757B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
WO2009142443A2 (en) System and method for generating a multi-dimensional image
US11302092B2 (en) Inspection support device, endoscope device, inspection support method, and inspection support program
US20050203380A1 (en) System and method for augmented reality navigation in a medical intervention procedure
US9198640B2 (en) System and methods for providing information related to a tissue region of a subject
CN107049489B (zh) 一种手术导航方法及系统
US11915378B2 (en) Method and system for proposing and visualizing dental treatments
JP5934070B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
CN110720985A (zh) 一种多模式引导的手术导航方法和系统
JPH09173352A (ja) 医用ナビゲーションシステム
WO2022035110A1 (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
KR20190069751A (ko) 복수의 후보 좌표를 이용한 특징점 기반 정합 장치 및 방법
KR101977650B1 (ko) 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR102084251B1 (ko) 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
WO2019088008A1 (ja) 画像処理装置、画像処理方法、プログラム、及び内視鏡システム
CN109965987A (zh) 一种具有共聚焦激光扫描功能的机器人外视镜
KR102208577B1 (ko) 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
CN114496197A (zh) 内窥镜图像注册系统和方法
CN215181889U (zh) 使用三维面部及身体扫描数据提供实时可视化服务的设备
WO2021193697A1 (ja) 多視点映像撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17922967

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17922967

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 25.01.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 17922967

Country of ref document: EP

Kind code of ref document: A1