WO2014077613A1 - 정복 시술 로봇 및 그의 구동 제어 방법 - Google Patents

정복 시술 로봇 및 그의 구동 제어 방법 Download PDF

Info

Publication number
WO2014077613A1
WO2014077613A1 PCT/KR2013/010387 KR2013010387W WO2014077613A1 WO 2014077613 A1 WO2014077613 A1 WO 2014077613A1 KR 2013010387 W KR2013010387 W KR 2013010387W WO 2014077613 A1 WO2014077613 A1 WO 2014077613A1
Authority
WO
WIPO (PCT)
Prior art keywords
bone
region
area
fracture
interpolation image
Prior art date
Application number
PCT/KR2013/010387
Other languages
English (en)
French (fr)
Inventor
박일형
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to US14/443,027 priority Critical patent/US10015470B2/en
Priority to JP2015542951A priority patent/JP6291503B2/ja
Publication of WO2014077613A1 publication Critical patent/WO2014077613A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • A61B17/58Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor for osteosynthesis, e.g. bone plates, screws, setting implements or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • A61B17/58Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor for osteosynthesis, e.g. bone plates, screws, setting implements or the like
    • A61B17/60Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor for osteosynthesis, e.g. bone plates, screws, setting implements or the like for external osteosynthesis, e.g. distractors, contractors
    • A61B17/66Alignment, compression or distraction mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking

Definitions

  • the present invention relates to a reduction robot and a drive control method thereof, and to a reduction robot and a drive control method thereof capable of displaying a fracture site and a three-dimensional interpolation image of a symmetrical position where a fracture does not occur.
  • Robots are mechanical devices that make it possible for people to do many difficult and difficult tasks. Recently, robots have been applied not only to the industrial field but also to the medical field.
  • a robot for conquest surgery includes a photographing unit for photographing a plurality of bone images of different angles with respect to a fracture region of a patient and a normal region corresponding to the fracture region.
  • An image processor configured to generate a 3D interpolation image for each of the fracture region and the normal region by using the photographed plurality of bone images, and a 3D interpolation image for the generated fracture region and the generated normal region It includes a display unit for displaying a three-dimensional interpolation image for.
  • the photographing unit may photograph the fracture area and the normal area by using at least one device of X-ray, MRI, and CT.
  • the image processor may extract a diaphysis portion of the bone image and generate a 3D interpolation image of the extracted interbone portion.
  • the image processor may generate a 3D interpolation image in consideration of at least one of a diameter, a bending, and a length of the bone of the bone image.
  • the robot may further include a position detecting unit configured to detect a position of a movable bone area among the fracture areas, and the display unit may include a 3D interpolation image of the normal area based on the detected position.
  • the 3D interpolation image of the fracture area may be overlapped with each other.
  • the reduction robot extracts a bone outline for each of the generated 3D interpolation image and the 3D interpolation image for the generated normal region, and calculates the degree of coincidence of the extracted bone outline.
  • the display unit may further include a matching unit, and the display unit may display the calculated degree of matching.
  • the matching unit may divide the 3D interpolation image into a plurality of regions, and calculate a degree of agreement of the divided bone outlines for each divided region.
  • the reduction robot is fixed to one side of the bone area that is movable among the fracture area, the driving unit for moving the bone area, and the operation unit for receiving a control command for controlling the operation of the drive unit It may include.
  • the operation unit may receive a stop command as a control command, and when the stop command is input, the driving unit may maintain the position of the bone region in the current state.
  • the reduction robot is a path calculation unit for calculating a movement path for reduction of the bone area that is movable among the fracture area, and, if the bone area is out of the calculated movement path, the driving unit It may further include a control unit for stopping the operation.
  • the driving unit may be connected to one side of the bone region through a fixing pin, a connecting portion, and an outer fixing portion.
  • the fixing pin may include a spiral region inserted into the fractured bone region and a threshold region protruding so that the spiral region is inserted only by a predetermined depth.
  • an outer shape of the threshold region may have a polygonal shape with respect to the central axis of the fixing pin.
  • connection part may include a first area capable of fixing the fixing pin on one side and a second area capable of fixing the external fixing part on the other side.
  • the outer fixing portion may have at least one form of a U-shape, annular ring form, semi-circle form, date form.
  • the drive control method of the conquest robot the step of photographing a plurality of bone images of different angles for each of the fracture area of the patient and the normal area corresponding to the fracture area, the plurality of the photographed Generating a 3D interpolation image of each of the fracture area and the normal area using a bone image, and generating a 3D interpolation image of the generated fracture area and a 3D interpolation image of the generated normal area And displaying together.
  • the fracture region and the normal region may be photographed using at least one device of X-ray, MRI, and CT.
  • the diaphysis portion of the bone image may be extracted, and the 3D interpolation image of the extracted interbone portion may be generated.
  • the 3D interpolation image may be generated in consideration of at least one of a diameter, a bending, and a length of the bone of the bone image.
  • the driving control method may further include detecting a position of a movable bone area among the fracture areas, and the displaying of the driving control method may include a 3D interpolation image of the normal area based on the detected position.
  • the 3D interpolation image of the fracture area may be overlapped and displayed on the screen.
  • the driving control method extracts a bone outline for each of the generated 3D interpolation image for the fracture area and the generated 3D interpolation image for the generated normal area, and calculates the degree of coincidence of the extracted bone outline.
  • the method may further include displaying the calculated degree of match.
  • the 3D interpolation image may be divided into a plurality of regions, and the degree of coincidence of the bone outlines of the divided regions may be calculated.
  • the drive control method the step of receiving a control command for controlling the drive of the conquest surgical robot, and driving to move the bone area that is movable among the fracture area in accordance with the input control command It may further include.
  • the step of receiving the control command, receiving the stop command, the driving step, when the stop command is input it is possible to maintain the position of the bone area in the current state.
  • the drive control method the step of calculating the movement path for reduction (reduction) of the movable bone area of the fracture area, and if the bone area is out of the calculated movement path of the reduction robot
  • the method may further include stopping the driving.
  • FIG. 1 is a simplified block diagram of a conquest robot according to an embodiment of the present invention
  • FIG. 2 is a specific block diagram of a conquest robot according to an embodiment of the present invention.
  • FIG. 3 is a view showing the shape of the fixing pin according to the present embodiment
  • connection part and the external fixing part are a view illustrating a coupling example of the connection part and the external fixing part according to the present embodiment
  • FIG. 7 to 9 illustrate various examples of a user interface window that may be displayed on the display of FIG. 1;
  • FIG. 10 is a flowchart for explaining a driving control method of a conquest robot according to an embodiment of the present invention.
  • FIG. 11 is a flowchart for describing the driving control method of FIG. 10 in detail.
  • FIG. 1 is a simplified block diagram of a conquest robot according to an embodiment of the present invention.
  • the conquest robot 100 may include a photographing unit 110, an image processing unit 120, and a display unit 130.
  • the imaging unit 110 captures a plurality of bone images of different angles for each of the fracture area and the fracture area of the patient.
  • the photographing unit 110 may photograph a plurality of bone images while rotating about each of the normal areas corresponding to the fracture area and the fracture area of the patient using techniques such as X-ray, MRI, and CT capable of bone imaging.
  • the normal region is a bone region located opposite to the bone located in the fracture region. For example, when the fracture region is the left femur, the normal region is the right femur.
  • the reason for photographing at different angles for the same area is that when checking the fracture reduction using only the two-dimensional image, it is difficult to check the rotation state of the bone and the like. Therefore, in the present embodiment, photographing is performed at different angles for the same region, and three-dimensional interpolation is performed using bone images photographed at different angles in the image processing unit 120 described later.
  • the image processor 120 generates an interpolation image for each of the fracture area and the normal area by using the plurality of captured bone images.
  • the image processor 120 may use a plurality of bone images photographed by the photographing unit 110 to determine a three-dimensional interpolation image (hereinafter referred to as a three-dimensional fracture image) and a three-dimensional interpolation of a normal region.
  • An image hereinafter referred to as a three-dimensional normal image
  • a method of generating a more specific interpolation image will be described later with reference to FIG. 6.
  • the image processor 120 may perform image processing on the generated 3D interpolation image according to the position of the bone detected by the sensor 140 to be described later. Specifically, the bone of the fracture area is moved by the reduction operation. Accordingly, the image processor 120 may generate a 3D fracture image having a variable position of the movable region on the 3D fracture image according to the degree of movement of the bone sensed by the detector 140.
  • the display unit 120 displays various types of information provided by the conquest robot 100.
  • the display unit 120 displays a 3D interpolation image (ie, 3D fracture image) of the generated fracture area and a 3D interpolation image (ie, 3D normal image) of the generated normal area.
  • the display unit 120 may overlay and display the 3D fracture image on the 3D normal image as shown in FIG. 7.
  • the display unit 120 may display the matching degree calculated by the matching unit to be described later, as shown in FIG. 9.
  • Various user interface windows that may be displayed on the display unit 120 will be described later with reference to FIGS. 7 to 9.
  • the conquest robot 100 generates and displays a three-dimensional interpolation image of a normal region corresponding to the fracture region and the fracture region, and thus the doctor can perform a more precise conquest procedure.
  • the photographing unit 110, the image processing unit 120, and the display unit 130 are illustrated and described as being applied only to the conquest robot 100, but in the implementation, the photographing unit 110 and the image processing unit ( 120 and the display 130 may be implemented as a diagnostic device for measuring the degree of fracture of the patient.
  • the conquest robot 100 may further include other components in addition to the aforementioned configuration. More detailed configuration of the conquest robot 100 will be described below with reference to FIG. 2.
  • FIG. 2 is a detailed block diagram of the conquest robot according to an embodiment of the present invention.
  • the conquest robot 100 includes a photographing unit 110, an image processing unit 120, a display unit 130, a sensing unit 140, a matching unit 150, a driving unit 160, and an operation unit 170. ), The path calculator 180, and the controller 190.
  • the sensing unit 140 detects a position of a bone area that can be moved among the fracture areas.
  • the conquest robot 100 moves a bone area that is movable among the fracture areas for conquest of the bone.
  • the bone position of the fracture area is changed by this movement, so it is necessary to confirm how much such movement should be performed.
  • the state of the bone caused by such movement is confirmed through additional X-ray imaging.
  • a marker is installed in each of the fixed and movable regions of the fracture region, and the sensing unit 140 moves. Markers installed in these possible areas can be tracked to detect the location of the movable bone area. By using such a sensing unit 140, it is possible to track the movement of the movable bone area of the fracture area without additional X-ray imaging.
  • the matching unit 150 extracts a bone outline for each of the generated 3D interpolation image of the fracture area and the generated 3D interpolation image, and calculates the degree of matching of the extracted bone outline.
  • the matching unit 150 may divide the 3D interpolation image into a plurality of regions, and calculate a degree of matching of the divided outlines of the divided regions.
  • the matching unit 150 may be divided into an upper region, an intermediate region, and a lower region on the 3D interpolation image, and separately calculate the matching degree of each region. In this way, by calculating whether the bone is matched by dividing it into a plurality of areas, it is possible to determine whether the rotation and shortening or excess dog of the entire bone.
  • the bone outline is extracted from the 3D interpolation image, and the degree of coincidence between the two bones is calculated using the extracted bone outline.
  • various other parameters such as the volume and area of the bone are used. You can calculate the degree of agreement between the two bones.
  • the degree of coincidence calculated in this manner may be displayed on the display unit 130 described above.
  • the calculation of the matching degree may be performed in real time according to the movement of the bone.
  • the driving unit 160 is fixed to one side of the bone area that can be moved among the fracture areas, and moves the bone area.
  • the driving unit 160 includes a motor and a robot arm, and moves the bone area, which is movable in the fracture area, using the robot arm based on an operation command of the operation unit 170 to be described later.
  • the driving unit 160 may be connected to the fracture area through the apparatus as shown in FIGS. 3 to 5.
  • the operation unit 170 includes a plurality of functions for setting or selecting various functions supported by the conquest robot 100. And the operation unit 170 receives a control command for controlling the operation of the drive unit.
  • the display unit 130 and the operation unit 170 are illustrated and described as having separate configurations, but at the time of implementation, the display unit 130 and the operation unit 170 are implemented as a device such as a touch screen in which input and output are simultaneously implemented. It may be implemented.
  • the path calculator 180 calculates a movement path for conquering a bone region that can be moved among the fracture regions. Specifically, the path calculating unit 180 uses the 3D normal image and the 3D fracture image, so that the fractured bone on the 3D fracture image has the same position as the normal bone on the 3D normal image.
  • the movement path of the area can be calculated.
  • the movement path may be calculated by an optimized algorithm by various experiments.
  • the controller 190 controls each component in the conquest robot 100. Specifically, when a command for starting a reduction operation is input, the controller 190 may control the photographing unit 110 to perform imaging of the fracture area and the normal area. The controller 190 may control the image processor 120 to generate a 3D interpolation image of a plurality of bone images, and may control the display 130 to display the generated 3D interpolation image.
  • the controller 190 may control the path calculator 180 to calculate an interpolation path based on the generated 3D interpolation image.
  • the driving unit 160 may be controlled to perform driving according to the received driving command.
  • the sensing unit 140 detects the movement of the bone, and the controller 190 may update the 3D interpolation image displayed on the display unit 130 according to the detected movement path. have.
  • the controller 190 When the controller 190 receives a net command through the manipulation unit 170, the controller 190 maintains the position of the bone region in the current state, that is, the motor state of the driving unit 160 is frozen (more specifically, the motor rotation angle).
  • the driving unit 160 may be controlled to maintain the current state.
  • the reduction robot 100 generates and displays a 3D interpolation image of a normal region corresponding to the fracture region and the fracture region, and changes the 3D interpolation in real time in response to bone movement during the surgery.
  • a 3D interpolation image of a normal region corresponding to the fracture region and the fracture region, and changes the 3D interpolation in real time in response to bone movement during the surgery.
  • doctors can more easily perform conquest.
  • using the three-dimensional interpolation image it is possible to perform a conquest procedure while more precisely checking the rotational state, shortening state and the like of the entire bone.
  • 3 is a view showing the shape of the fixing pin according to this embodiment.
  • the fixing pin 200 is connected to the bone of the fracture region and the robot arm of the driving unit 160. Specifically, the fixing pin 200 includes a spiral region 210 and a threshold region 220.
  • Spiral region 210 is a region inserted into the fractured bone region. Such a spiral region may be approximately 7 cm long. However, the present invention is not limited to such a value, and the length of the spiral region 210 may vary depending on the condition of the patient.
  • the threshold region 220 is a protruding region for preventing the fixing pin 200 from being inserted into the bone more than a predetermined time.
  • a threshold region 220 may have a form of a circle, polygon (triangle, quadrilateral, etc.).
  • the threshold region 220 is positioned as a predetermined length at the end of the spiral region 210 of the fixing pin 200, in the implementation, the threshold region 220 is the spiral region 210. It may also be implemented in the form located from the end of the fixing pin 200 to the end.
  • the diameter of the threshold region 220 is shown to be the same, in the implementation, the threshold region 220 may have a different diameter between the end of the spiral region 210 and the end of the fixing pin 200.
  • the appearance of the threshold region is preferably a polygonal shape based on the central axis of the fixing pin 200.
  • the shape of the threshold region has a polygonal shape, and there is an advantage that it can be easily inserted into a bone even with a tool such as a general Roche driver or a monkey, without using a special fixing pin insertion tool.
  • the strength can be implemented stronger than the original.
  • the fixing pin 200 is provided with a threshold region 220 to prevent the pin from being inserted into the bone more than a predetermined time, thereby preventing the fixing pin from penetrating through the bone.
  • connection unit 4 is a view showing the shape of the connection unit according to the present embodiment.
  • connection part 300 couples the fixing pin 200 and the external fixing part 400.
  • the connection part 300 includes a first area for fixing the fixing pin on one side and a second area for fixing the outer fixing part 400 on the other side.
  • the connection part 300 may include a first region capable of fixing the fixing pin on one side, and the pin may be positioned in the first region and may be attached to the fixing pin 200 by using a wrench or the like.
  • the shape of the first region may have a shape corresponding to the outer shape of the fixing pin 200. For example, if the external shape of the fixing pin 200 is circular, the external shape of the first region may also be circular. If the external shape of the fixing pin 200 is triangular, the external shape of the first region may also be triangular.
  • the shape in which the external fixing part 400 is attached to the connection part 300 is illustrated in FIG. 5.
  • the outer fixing part 400 may have at least one of a U shape, an annular ring shape, a semicircle shape, and a straight shape, and the shape of the second region corresponds to the outer shape of the outer fixing part 400. It may have a shape.
  • the external fixing unit 400 may be connected to the robot arm of the driving unit 160 described above. Accordingly, the driving unit 160 is fixed to the fractured bone through a continuous binding relationship such as the robot arm, the external fixing part 400, the connecting part 300, and the fixing pin 200, and moves the fractured bone area. It becomes possible.
  • FIG. 5 only the connection relationship between one external fixing part 400 and one connecting part 300 is illustrated.
  • a plurality of fixing pins 200 and a plurality of connecting parts 300 may also be implemented in a form that the plurality of external fixing unit 400 is connected in combination.
  • FIG. 6 is a view for explaining the structure of the bone.
  • the bone shown in Figure 6 is the bone of the human thigh, such bone is to be divided into the upper portion (upper and lower epiphysis), the middle portion (diaphysis), the end (metaphysis) Can be.
  • the robot according to the present embodiment mainly targets such fractures in the interosseous bones.
  • the middle region of the bone that is, the intervertebral bone
  • the image processor 120 may extract parameters of bone length, diameter, and bending degree from each of the plurality of images, and generate a 3D interpolation image using the extracted parameters.
  • a three-dimensional interpolation image may be generated using only at least two bone images, and thus the radiation coating of the patient may be reduced, and the present invention may be applied to a pregnant or pediatric patient.
  • the three-dimensional interpolation as described above may be performed not only on the whole bone but also on a certain area of the bone.
  • interpolation of upper and lower bones and inter-terminal end where 3-D interpolation is difficult may be performed using standardized data of a general person, and only 3-D interpolation may be performed using only an intermediate part (ie, inter-bone) where interpolation is relatively simple. have.
  • FIG. 7 to 9 illustrate various examples of a user interface window that may be displayed on the display of FIG. 1.
  • the UI window overlays and displays the 3D fracture image 720 on the 3D normal image 710.
  • the 3D fracture image 720 is overlaid and displayed on the 3D normal image, and a surgeon may more easily identify a movement path of the bone area 721 that is movable among the fracture areas. And such a user interface window can be changed in real time by bone movement.
  • the user interface window may display the color, illuminance, brightness, etc. of the 3D fracture image 720 which is overlaid and displayed differently from the 3D normal image.
  • the overlay degree (ie, transparency) and overlay position of the displayed 3D fracture image may be changed by a user's manipulation.
  • FIG. 7 an example of overlaying and displaying a 3D fracture image and a 3D normal image is illustrated.
  • the 3D fracture image 820 and the 3D normal image 180 are illustrated as shown in FIG. 8. It can also be implemented as a separate display without overlay.
  • the user interface window 900 displays an image 910 in which a 3D fracture image is overlaid on a 3D normal image, as shown in FIG. 7, and a matching degree 920 for each region. Is displayed together. In this way, the user interface window 900 displays the matching degree, the doctor can easily determine whether to conquer during the operation, and can check the degree of matching by area, the rotation and shortening of the entire bone and excess dog You can check whether or not.
  • FIG. 10 is a flowchart illustrating a driving control method of a conquest robot according to an embodiment of the present invention.
  • a plurality of bone images of different angles are photographed for each of a fracture area and a fracture area of a patient (S1010).
  • a plurality of bone images may be taken while rotating with respect to each fracture area and the normal area corresponding to the fracture area of the patient using techniques such as X-ray, MRI, and CT capable of bone imaging.
  • the normal region is a bone region located opposite to the bone located in the fracture region. For example, when the fracture region is the left femur, the normal region is the right femur.
  • a 3D interpolation image of each of the fracture area and the normal area is generated using the plurality of captured bone images.
  • the 3D interpolation image of the generated fracture region and the 3D interpolation image of the generated normal region are displayed together (S1030).
  • the 3D interpolation image of the fracture area may be overlaid and displayed on the generated 3D interpolation image of the normal region.
  • the driving control method generates and displays a 3D interpolation image corresponding to the fracture area and the fracture area, so that a doctor can more easily perform the conquest procedure using the displayed 3D interpolation image. do.
  • the drive control method as shown in FIG. 10 may be executed on the conquest robot 100 having the configuration of FIG. 1 or 2, or may be executed on the conquest robot 100 having other configurations.
  • the driving control method as described above may be implemented as a program including an executable algorithm that can be executed in a computer, and the program may be stored and provided in a non-transitory computer readable medium. have.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
  • FIG. 11 is a flowchart for describing the driving control method of FIG. 10 in detail.
  • the doctor connects the fractured area and the robot arm by using the fixing pin, the connection part, and the external fixing part as shown in relation to FIGS. 3 to 5 (S1110).
  • a plurality of bone images of different angles are photographed with respect to the fracture area and the fracture area of the patient.
  • the bone image is taken after the operation of connecting the fractured area and the robot arm.
  • a 3D fracture image and a 3D normal image are generated by using the plurality of photographed bone images.
  • a process of generating a 3D interpolation image has been described above with reference to FIG. 6, and thus description thereof will not be repeated.
  • the degree of matching is calculated using the generated 3D fracture image and the 3D normal image (S1140). Specifically, the coincidence may be calculated using the outlines or other parameters (eg, volume, etc.) of the two generated 3D interpolation images. The calculation of the match may be performed for each divided region (eg, upper region, middle region, and lower region).
  • the movement path of the bone area that can be moved among the fracture areas is calculated.
  • the generated 3D fracture image and the 3D normal image are displayed (S1160). Specifically, the 3D fracture image may be overlaid and displayed on the generated 3D normal image. In this case, the matching degree calculated previously may be displayed together.
  • a driving command is input from a user (specifically, a doctor).
  • the robot arm is moved to move the movable bone area of the fracture area (S1180).
  • the driving control method generates and displays a three-dimensional interpolation image of the fracture region and the normal region corresponding to the fracture region, and displays the three-dimensional interpolation image changed in real time in response to the bone movement during the surgery.
  • doctors can more easily perform conquest procedures.
  • using the three-dimensional interpolation image it is possible to perform the conquest procedure while more precisely checking the rotational state, shortening state, etc. of the entire bone.
  • the drive control method as shown in FIG. 11 may be executed on the conquest robot 100 having the constitution of FIG. 2 or may be executed on the conquest robot 100 having other constitutions.
  • the driving control method as described above may be implemented as a program including an executable algorithm that can be executed in a computer, and the program may be stored and provided in a non-transitory computer readable medium. have.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mechanical Engineering (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Nursing (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

정복 시술 로봇이 개시된다. 본 정복 시술 로봇은, 환자의 골절 영역 및 골절 영역에 대응되는 정상 영역 각각에 대한 서로 다른 각도의 복수의 뼈 이미지를 촬영하는 촬영부, 촬영된 복수의 뼈 이미지를 이용하여 골절 영역 및 정상 영역 각각에 대한 3차원 보간 이미지를 생성하는 이미지 처리부, 및, 생성된 골절 영역에 대한 3차원 보간 이미지 및 생성된 정상 영역에 대한 3차원 보간 이미지를 함께 표시하는 표시부를 포함한다.

Description

정복 시술 로봇 및 그의 구동 제어 방법
본 발명은 정복 시술 로봇 및 그의 구동 제어 방법에 관한 것으로, 골절 부위와 골절이 발생하지 않은 대칭적 위치의 3차원 보간 이미지를 함께 표시할 수 있는 정복 시술 로봇 및 그의 구동 제어 방법에 관한 것이다.
로봇은 사람을 대신에 힘들고 어려운 여러 작업을 할 수 있도록 만든 기계장치를 의미한다. 최근에 로봇은 산업 현장뿐만 아니라 의료 분야에도 적용되고 있다.
이와 같은 의료 분야에서 로봇 기술을 이용하여 더욱 정밀한 의료 수술이 가능하다는 점에서, 수술용 로봇은 가파르게 확장되고 있다. 그러나 종래에는 복강경 분야와 관절치환수술분야에만 로봇 기술이 적용되어 상용화되고 있을 뿐, 골절 및 근골격 복구 기술에는 적용이 되지 않고 있을 실정이다.
그러나 최근 노인 인구의 증가에 의하여 골절 및 근골격 복구 수술이 증가하고 있다는 점에서, 골절 및 근골력 복구 수술에 사용할 수 있는 로봇 기술의 개발이 요구되었다.
따라서, 본 발명의 목적은 골절 부위와 골절이 발생하지 않은 대칭적 위치의 3차원 보간 이미지를 함께 표시할 수 있는 정복 시술 로봇 및 그의 구동 제어 방법을 제공하는 데 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 정복 시술 로봇은, 환자의 골절 영역 및 상기 골절 영역에 대응되는 정상 영역 각각에 대한 서로 다른 각도의 복수의 뼈 이미지를 촬영하는 촬영부, 상기 촬영된 복수의 뼈 이미지를 이용하여 상기 골절 영역 및 상기 정상 영역 각각에 대한 3차원 보간 이미지를 생성하는 이미지 처리부, 및, 상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지를 함께 표시하는 표시부를 포함한다.
이 경우, 상기 촬영부는, X-ray, MRI 및 CT 중 적어도 하나의 장치를 이용하여 상기 골절 영역 및 상기 정상 영역을 촬영할 수 있다.
한편, 상기 이미지 처리부는, 상기 뼈 이미지의 골간(diaphysis) 부분을 추출하고, 상기 추출된 골간 부분에 대한 3차원 보간 이미지를 생성할 수 있다.
한편, 상기 이미지 처리부는, 상기 뼈 이미지의 뼈의 지름, 휨, 길이 중 적어도 하나를 고려하여 3차원 보간 이미지를 생성할 수 있다.
한편, 본 정복 시술 로봇은, 상기 골절 영역 중 이동이 가능한 뼈 영역의 위치를 감지하는 위치 감지부를 더 포함하고, 상기 표시부는, 상기 감지된 위치를 기준으로 상기 정상 영역에 대한 3차원 보간 이미지 상에 상기 골절 영역에 대한 3차원 보간 이미지를 오버랩하여 표시할 수 있다.
한편, 본 정복 시술 로봇은, 상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지 각각에 대한 뼈 외곽선을 추출하고, 추출된 뼈 외곽선의 일치 정도를 계산하는 매칭부를 더 포함하고, 상기 표시부는, 상기 계산된 일치 정도를 표시할 수 있다.
이 경우, 상기 매칭부는, 상기 3차원 보간 이미지를 복수의 영역으로 구분하고, 상기 구분된 영역별 뼈 외곽선의 일치 정도를 계산할 수 있다.
한편, 본 정복 시술 로봇은, 상기 골절 영역 중 이동이 가능한 뼈 영역의 일 측에 고정되며, 상기 뼈 영역을 이동시키는 구동부, 및, 상기 구동부의 동작을 제어하기 위한 제어 명령을 입력받는 조작부를 더 포함할 수 있다.
이 경우, 상기 조작부는, 정지 명령을 제어 명령으로 입력받고, 상기 구동부는, 상기 정지 명령이 입력되면, 상기 뼈 영역의 위치를 현 상태로 유지할 수 있다.
한편, 본 정복 시술 로봇은, 상기 골절 영역 중 이동이 가능한 뼈 영역을 정복(reduction)하기 위한 이동 경로를 산출하는 경로 산출부, 및, 상기 뼈 영역이 상기 산출된 이동 경로를 벗어나면 상기 구동부의 동작을 정지시키는 제어부를 더 포함할 수 있다.
한편, 상기 구동부는, 고정 핀, 연결부 및 외 고정부를 통하여 상기 뼈 영역의 일 측에 연결될 수 있다.
이 경우, 상기 고정 핀은, 골절된 뼈 영역에 삽입되는 나선 영역 및 상기 나선 영역이 기설정된 깊이만큼만 삽입되도록 돌출된 문턱 영역을 포함할 수 있다.
이 경우, 상기 문턱 영역의 외형은 상기 고정 핀의 중심 축을 기준으로 다각형 형태일 수 있다.
한편, 상기 연결부는, 일 측에 상기 고정핀을 고정할 수 있는 제1 영역 및 타 측에 상기 외 고정부를 고정할 수 있는 제2 영역을 포함할 수 있다.
한편, 상기 외 고정부는 U자 형태, 환형 링 형태, 반원 형태, 일자 형태 중 적어도 하나의 형태를 가질 수 있다.
한편, 본 실시 예에 따른 정복 시술 로봇의 구동 제어 방법은, 환자의 골절 영역 및 상기 골절 영역에 대응되는 정상 영역 각각에 대한 서로 다른 각도의 복수의 뼈 이미지를 촬영하는 단계, 상기 촬영된 복수의 뼈 이미지를 이용하여 상기 골절 영역 및 상기 정상 영역 각각에 대한 3차원 보간 이미지를 생성하는 단계, 및, 상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지를 함께 표시하는 단계를 포함할 수 있다.
이 경우, 상기 촬영하는 단계는, X-ray, MRI 및 CT 중 적어도 하나의 장치를 이용하여 골절 영역 및 상기 정상 영역을 촬영할 수 있다.
한편, 상기 3차원 보간 이미지를 생성하는 단계는, 상기 뼈 이미지의 골간(diaphysis) 부분을 추출하고, 상기 추출된 골간 부분에 대한 3차원 보간 이미지를 생성할 수 있다.
한편, 상기 3차원 보간 이미지를 생성하는 단계는, 상기 뼈 이미지의 뼈의 지름, 휨, 길이 중 적어도 하나를 고려하여 3차원 보간 이미지를 생성할 수 있다.
한편, 본 구동 제어 방법은, 상기 골절 영역 중 이동이 가능한 뼈 영역의 위치를 감지하는 단계를 더 포함하고, 상기 표시하는 단계는, 상기 감지된 위치를 기준으로 상기 정상 영역에 대한 3차원 보간 이미지 상에 상기 골절 영역에 대한 3차원 보간 이미지를 오버랩하여 표시할 수 있다.
한편, 본 구동 제어 방법은, 상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지 각각에 대한 뼈 외곽선을 추출하고, 추출된 뼈 외곽선의 일치 정도를 계산하는 단계를 더 포함하고, 상기 표시하는 단계는, 상기 계산된 일치 정도를 표시할 수 있다.
이 경우, 상기 계산하는 단계는, 상기 3차원 보간 이미지를 복수의 영역으로 구분하고, 상기 구분된 영역별 뼈 외곽선의 일치 정도를 계산할 수 있다.
한편, 본 구동 제어 방법은, 상기 정복 시술 로봇의 구동을 제어하기 위한 제어 명령을 입력받는 단계, 및, 상기 입력된 제어 명령에 따라 상기 골절 영역 중 이동이 가능한 뼈 영역을 이동시키도록 구동하는 단계를 더 포함할 수 있다.
이 경우, 상기 제어 명령을 입력받는 단계는, 정지 명령을 입력받고, 상기 구동하는 단계는, 상기 정지 명령이 입력되면, 상기 뼈 영역의 위치를 현 상태로 유지할 수 있다.
한편, 본 구동 제어 방법은, 상기 골절 영역 중 이동이 가능한 뼈 영역을 정복(reduction)하기 위한 이동 경로를 산출하는 단계, 및, 상기 뼈 영역이 상기 산출된 이동 경로를 벗어나면 상기 정복 시술 로봇의 구동을 정지시키는 단계를 더 포함할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 정복 시술 로봇의 간략한 블록도,
도 2는 본 발명의 일 실시 예에 따른 정복 시술 로봇의 구체적인 블록도,
도 3은 본 실시 예에 따른 고정 핀의 형상을 도시한 도면,
도 4는 본 실시 예에 따른 연결부의 형상을 도시한 도,
도 5는 본 실시 예에 따른 연결부 및 외 고정부의 결합 예를 도시한 도면,
도 6은 뼈의 구조를 설명하기 위한 도면,
도 7 내지 도 9는 도 1의 표시부에서 표시될 수 있는 사용자 인터페이스 창의 다양한 예를 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 정복 시술 로봇의 구동 제어 방법을 설명하기 위한 흐름도, 그리고,
도 11은 도 10의 구동 제어 방법을 구체적으로 설명하기 위한 흐름도이다.
-
이하 첨부된 도면들을 참조하여 본 발명의 일시 예를 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 정복 시술 로봇의 간략한 블록도이다.
도 1을 참조하면, 정복 시술 로봇(100)은 촬영부(110), 이미지 처리부(120), 표시부(130)로 구성될 수 있다.
촬영부(110)는 환자의 골절 영역 및 골절 영역에 대응되는 정상 영역 각각에 대한 서로 다른 각도의 복수의 뼈 이미지를 촬영한다. 구체적으로, 촬영부(110)는 뼈 촬영이 가능한 X-ray, MRI 및 CT와 같은 기술을 이용하여 환자의 골절 영역 및 골절 영역에 대응되는 정상 영역 각각에 대해서 회전을 하면서 복수의 뼈 이미지를 촬영할 수 있다. 여기서 정상 영역은 골절 영역에 위치하는 뼈에 대향적으로 위치하는 뼈 영역으로, 예를 들어, 골절 영역이 좌측 대퇴뼈인 경우, 정상 영역은 우측 대퇴뼈이다.
여기서 동일한 영역에 대해서 서로 다른 각도로 촬영하는 이유는 2차원 이미지만을 이용하여 골절 정복을 확인하는 경우, 뼈의 회전 상태 등에 대해서 확인이 어렵기 때문이다. 따라서, 본 실시 예에서는 동일한 영역에 대해서 서로 다른 각도로 촬영을 수행하고, 후술한 이미지 처리부(120)에서 서로 다른 각도로 촬영된 뼈 이미지를 이용하여 3차원 보간을 수행한다.
이미지 처리부(120)는 촬영된 복수의 뼈 이미지를 이용하여 골절 영역 및 정상 영역 각각에 대한 보간 이미지를 생성한다. 구체적으로, 이미지 처리부(120)는 촬영부(110)에서 촬영된 복수의 뼈 이미지를 이용하여 골절 영역에 대한 3차원 보간 이미지(이하에서는 3차원 골절 이미지라고 함)와 정상 영역에 대한 3차원 보간 이미지(이하에서는 3차원 정상 이미지라고 함)를 생성할 수 있다. 보다 구체적인 보간 이미지의 생성 방법에 대해서는 도 6을 참조하여 후술한다.
이미지 처리부(120)는 후술할 감지부(140)에서 감지된 뼈의 위치에 따라, 생성된 3차원 보간 이미지에 대한 이미지 처리를 수행할 수 있다. 구체적으로, 정복 수술에 의하여 골절 영역의 뼈는 이동하게 된다. 따라서, 이미지 처리부(120)는 감지부(140)에서 감지된 뼈의 이동 정도에 따라, 3차원 골절 이미지상의 이동 가능한 영역의 위치를 가변한 3차원 골절 이미지를 생성할 수 있다.
표시부(120)는 정복 시술 로봇(100)에서 제공하는 각종 정보를 표시한다.
그리고 표시부(120)는 생성된 골절 영역에 대한 3차원 보간 이미지(즉, 3차원 골절 이미지)와 생성된 정상 영역에 대한 3차원 보간 이미지(즉, 3차원 정상 이미지)를 표시한다. 이때, 표시부(120)는 도 7에 도시된 바와 같이 3차원 정상 이미지 상에 3차원 골절 이미지를 오버레이하여 표시할 수 있다. 그리고 표시부(120)는 도 9에 도시된 바와 같이 후술할 매칭부에서 계산된 매칭 정도를 함께 표시할 수 있다. 표시부(120)에서 표시될 수 있는 다양한 사용자 인터페이스 창에 대해서는 도 7 내지 9를 참조하여 후술한다.
이와 같이 본 실시 예에 따른 정복 시술 로봇(100)은 골절 영역 및 골절 영역에 대응되는 정상 영역의 3차원 보간 이미지를 생성하여 표시하는바, 의사는 보다 정밀한 정복 시술을 수행할 수 있게 된다.
한편, 이상에서는 촬영부(110), 이미지처리부(120) 및 표시부(130)가 정복 시술 로봇(100)에만 적용되는 것으로 도시하고 설명하였지만, 구현시에는 상술한 촬영부(110), 이미지 처리부(120) 및 표시부(130)의 구성은 환자의 골절 정도를 측정하기 위한 진단 장치로도 구현될 수 있다.
이상에서는 정복 시술 로봇(100)의 간략한 구성에 대해서만 도시하고 설명하였지만, 정복 시술 로봇(100)은 상술한 구성 이외의 다른 구성을 더 포함할 수 있다. 정복 시술 로봇(100)의 더욱 자세한 구성에 대해서는 도 2를 참조하여 이하에서 설명한다.
도 2는 본 발명의 일 실시 예에 따른 정복 시술 로봇의 구체적인 블록도이다.
도 2를 참조하면, 정복 시술 로봇(100)은 촬영부(110), 이미지 처리부(120), 표시부(130), 감지부(140), 매칭부(150), 구동부(160), 조작부(170), 경로 산출부(180) 및 제어부(190)로 구성될 수 있다.
촬영부(110), 이미지 처리부(120) 및 표시부(130)의 구체적인 기능 및 동작은 도 1과 동일한바 중복 설명은 생략한다.
감지부(140)는 골절 영역 중 이동이 가능한 뼈 영역의 위치를 감지한다. 구체적으로, 정복 시술 로봇(100)은 뼈의 정복을 위하여 골절 영역 중 이동이 가능한 뼈 영역을 이동시키기 된다. 그러나 이와 같은 이동에 의하여 골절 영역의 뼈 위치는 변경되게 되는바, 이와 같은 이동이 얼만큼 수행되어야 했는지 확인이 필요하다. 종래에는 이와 같은 이동에 의한 뼈의 상태를 추가적인 X-ray 촬영을 통하여 확인하였지만, 본 실시 예에서는 골절 영역 중 고정된 영역 및 이동이 가능한 영역 각각에 마커를 설치하고, 감지부(140)는 이동이 가능한 영역에 설치된 마커를 추적하여 이동이 가능한 뼈 영역의 위치를 감지할 수 있다. 이와 같은 감지부(140)를 이용함으로써, 추가적인 X-ray 촬영 없이 골절 영역 중 이동 가능한 뼈 영역의 이동 추적이 가능하다.
매칭부(150)는 생성된 골절 영역에 대한 3차원 보간 이미지 및 생성된 정상 영역에 대한 3차원 보간 이미지 각각에 대한 뼈 외곽선을 추출하고, 추출된 뼈 외곽선의 일치 정도를 계산한다.
그리고 매칭부(150)는 3차원 보간 이미지를 복수의 영역으로 구분하고, 구분된 영역별 외곽선의 일치 정도를 계산할 수 있다. 구체적으로, 매칭부(150)는 3차원 보간 이미지상에서 상부 영역, 중간 영역 및 하부 영역으로 구분하고, 각 영역별 매칭 정도를 개별적으로 계산할 수 있다. 이와 같이 복수의 영역으로 구분하여 뼈의 일치 여부를 계산함으로써, 전체 뼈의 회전 및 단축 또는 과잉견 여부를 확인할 수 있게 된다.
한편, 이상에서는 3차원 보간 이미지상에서 뼈 외곽선을 추출하고, 추출된 뼈 외곽선을 이용하여 두 뼈의 일치 정도를 계산하는 것으로 설명하였지만, 구현시에는 뼈의 부피, 면적 등의 다른 다양한 파라미터를 이용하여 두 뼈의 일치 정도를 계산할 수 있다.
이와 같이 계산된 뼈의 일치 정도는 상술한 표시부(130)에 표시될 수 있다. 그리고 이와 같은 매칭 정도의 계산은 뼈의 이동에 따라 실시간으로 수행될 수 있다.
구동부(160)는 골절 영역 중 이동이 가능한 뼈 영역의 일 측에 고정되며, 뼈 영역을 이동시킨다. 구체적으로, 구동부(160)는 모터 및 로봇 암을 구비하며, 후술할 조작부(170)의 조작 명령에 기초하여 골절 영역 중 이동이 가능한 뼈 영역을 로봇 암을 이용하여 이동시킨다. 이와 같은 구동부(160)는 도 3 내지 도 5에 도시된 바와 같은 장치를 통하여 골절 영역과 연결될 수 있다.
조작부(170)는 정복 시술 로봇(100)에서 지원하는 각종 기능을 사용자가 설정 또는 선택할 수 있는 다수의 기능을 구비한다. 그리고 조작부(170)는 구동부의 동작을 제어하기 위한 제어 명령을 입력받는다. 본 실시 예에서는 표시부(130)와 조작부(170)가 별도의 구성인 것으로 도시하고 설명하였지만, 구현시에 표시부(130)와 조작부(170)는 입력과 출력이 동시에 구현되는 터치 스크린과 같은 장치로 구현될 수도 있다.
경로 산출부(180)는 골절 영역 중 이동이 가능한 뼈 영역을 정복하기 위한 이동 경로를 산출한다. 구체적으로, 경로 산출부(180)는 3차원 정상 이미지와 3차원 골절 이미지를 이용하여, 3차원 골절 이미지상의 골절된 뼈가 3차원 정상 이미지상의 정상 뼈와 같은 위치를 갖도록 하기 위한 골절 영역의 뼈 영역의 이동 경로를 산출할 수 있다. 이와 같은 이동 경로의 산출은 다양한 실험에 의한 최적화된 알고리즘에 의하여 산출될 수 있다.
제어부(190)는 정복 시술 로봇(100) 내의 각 구성에 대한 제어를 수행한다. 구체적으로, 정복 수술 시작 명령이 입력되면, 제어부(190)는 골절 영역 및 정상 영역에 대한 촬영이 수행되도록 촬영부(110)를 제어할 수 있다. 그리고 제어부(190)는 복수의 뼈 이미지에 대한 3차원 보간 이미지가 생성되도록 이미지 처리부(120)를 제어할 수 있으며, 생성된 3차원 보간 이미지가 표시되도록 표시부(130)를 제어할 수 있다.
그리고 제어부(190)는 생성된 3차원 보간 이미지에 따른 보간 경로가 산출되도록 경로 산출부(180)를 제어할 수 있다. 그리고 조작부(170)를 통하여 구동 명령을 입력받으면, 입력받은 구동 명령에 따른 구동이 수행되도록 구동부(160)를 제어할 수 있다. 이와 같은 구동에 의하여 뼈 영역이 이동되면 감지부(140)는 뼈의 이동을 감지하고, 제어부(190)는 감지된 이동 경로에 따라 표시부(130)에서 표시되는 3차원 보간 이미지가 갱신되도록 할 수 있다.
그리고 제어부(190)는 조작부(170)를 통하여 정미 명령을 입력받으면, 뼈 영역의 위치를 현 상태로 유지하도록, 즉, 구동부(160)의 모터 상태가 프리징되도록(보다 구체적으로, 모터 회전 각도가 현 상태를 유지하도록) 구동부(160)를 제어할 수 있다.
이와 같이 본 실시 예에 따른 정복 시술 로봇(100)은 골절 영역 및 골절 영역에 대응되는 정상 영역의 3차원 보간 이미지를 생성하여 표시하고, 수술과정에서의 뼈 이동에 대응하여 실시간으로 변경된 3차원 보간 이미지를 표시하는바, 의사는 보다 손쉽게 정복 시술을 수행할 수 있게 된다. 이와 같이, 3차원 보간 이미지를 이용하는바, 전체 뼈의 회전 상태, 단축 상태 등을 더욱 정밀하게 확인하면서 정복 시술을 수행할 수 있게 된다.
도 3은 본 실시 예에 따른 고정 핀의 형상을 도시한 도면이다.
도 3을 참조하면, 고정 핀(200)은 골절 영역의 뼈와 구동부(160)의 로봇 암과 연결되는 구성이다. 구체적으로, 고정 핀(200)은 나선 영역(210) 및 문턱 영역(220)을 포함한다.
나선 영역(210)은 골절된 뼈 영역에 삽입되는 영역이다. 이와 같은 나선 영역은 대략 7cm의 길이일 수 있다. 그러나 이와 같은 수치에 본원이 한정되는 것은 아니며, 나선 영역(210)의 길이는 환자의 상태에 따라 달라질 수 있다.
문턱 영역(220)은 고정 핀(200)이 뼈에 일정이상 삽입되지 않도록 하는 돌출 영역이다. 이와 같은 문턱 영역(220)은 원형, 다각형(3각, 4각, 등등)의 형태를 가질 수 있다. 한편, 도시된 예에서는 문턱 영역(220)이 고정 핀(200)의 나선 영역(210)의 끝 부분에 일정 길이만큼 위치하는 것으로 도시하였지만, 구현시에 문턱 영역(220)은 나선 영역(210)의 끝 부분부터 고정핀(200)의 끝 부분까지 위치하는 형태로도 구현될 수 있다. 또한, 문턱 영역(220)의 지름이 동일한 것으로 도시하였지만, 구현시에는 문턱 영역(220)은 나선 영역(210)의 끝 부분에서 고정핀(200)의 끝 부분으로 사이에서 지름이 다를 수도 있다.
한편, 도시된 예에서는 문턱 영역의 형태가 원형인 것으로 도시하였으나, 구현시에 문턱 영역의 외형은 고정 핀(200)의 중심 축을 기준으로 다각형 형태인 것이 바람직하다. 이와 같이 문턱 영역의 형상을 다각형 형태로 하는바, 특수한 고정핀 삽입 공구를 사용하지 않고, 일반적인 로체 드라이버, 몽키 등의 공구로도 쉽게 뼈에 삽입할 수 있는 이점이 있다. 또한, 원형에 비하여 그 강도를 강하게 구현할 수 있게 되는 이점도 있다.
이와 같이 본 실시 예에 따른 고정 핀(200)은 뼈에 일정이상 삽입되지 않도록 하는 문턱 영역(220)이 구비되는바, 뼈에 고정 핀이 관통되는 것을 방지할 수 있게 된다.
도 4는 본 실시 예에 따른 연결부의 형상을 도시한 도면이다.
도 4를 참조하면, 연결부(300)는 고정핀(200)과 외 고정부(400)를 결합한다. 구체적으로, 연결부(300)는 일 측에 고정핀을 고정할 수 있는 제1 영역 및 타 측에 외 고정부(400)를 고정할 수 있는 제2 영역을 포함한다. 보다 구체적으로, 연결부(300)는 일 측에 고정핀을 고정할 수 있는 제1 영역을 포함하고, 상기 제1 영역에 핀을 위치시키고 렌치 등을 이용하여 고정핀(200)과 결착될 수 있다. 이와 같은 제1 영역의 형상은 고정핀(200)의 외형에 대응된 형상을 가질 수 있다. 예를 들어, 고정핀(200)의 외형이 원형이면, 제1 영역의 외형 역시 원형일 수 있으며, 고정 핀(200)의 외형이 3각이면, 제1 영역의 외형 역시 3각일 수 있다.
그리고 연결부(300) 타 측에 외 고정부(400)를 고정할 수 있는 제2 영역을 포함하고, 제2 영역에 외 고정부를 위치시키고 렌치 등을 이용하여 외 고정부(400)와 결착될 수 있다. 이와 같이 연결부(300)에 외 고정부(400)가 결착된 형상은 도 5에 도시되어 있다. 한편, 외 고정부(400)는 U자 형태, 환형 링 형태, 반원 형태, 일자 형태 중 적어도 하나의 형태를 가질 수 있는바, 제2 영역의 형상은 외 고정부(400)의 외형에 대응되는 형상을 가질 수 있다.
*이와 같은 외 고정부(400)는 앞서 설명한 구동부(160)의 로봇 암에 연결될 수 있다. 이에 따라, 구동부(160)는 로봇 암, 외 고정부(400), 연결부(300), 고정핀(200)과 같은 연속된 결착 관계를 통하여 골절된 뼈에 고정되며, 골절된 뼈 영역을 이동시킬 수 있게 된다.
한편, 도 5에서는 하나의 외 고정부(400)와 하나의 연결부(300)의 연결 관계만을 도시하였으나, 구현시에 골절된 뼈 영역에는 복수의 고정핀(200) 및 복수의 연결부(300) 및 복수의 외 고정부(400)가 복합적으로 연결되는 형태로도 구현될 수 있다.
도 6은 뼈의 구조를 설명하기 위한 도면이다.
구체적으로, 도 6에 도시된 뼈는 사람의 대퇴부의 뼈이며, 이와 같은 뼈는 상부 부분(상하 골단(epiphysis)), 중간 부분(골간(diaphysis), 끝 부분(골간단(metaphysis)으로 구분될 수 있다.
뼈의 골절은 대부분은 골간(즉, 뼈의 중간 부분)에서 발생하면, 본 실시 예에 따른 정복 시술 로봇은 이와 같은 골간에서의 골절을 주요 대상으로 하는바, 상부 영역(상하 골단), 하부 영역(골간단)은 골절 후 회전 변형의 판단 및 교정 과정에서의 주요 지표로 사용될 수 있다.
여기서 뼈의 중간 영역, 즉 골간은 형태가 단순한 곡선의 원통이다. 이러한 점에서, 이미지 처리부(120)는 복수의 이미지 각각에서 뼈의 길이, 지름 및 휨 정도의 파라미터를 추출하고, 추출된 파라미터를 이용하여 3차원 보간 이미지를 생성할 수 있다. 이와 같이 본 실시 예에서는 최소 2장의 뼈 이미지만을 이용하여 3차원 보간 이미지를 생성할 수 있는바, 환자에 대한 방사선 피복을 감소할 수 있으며, 임신 중인 환자 또는 소아 환자에 대해서도 적용이 가능하다.
한편, 상술한 바와 같은 3차원 보간은 뼈의 전체에 대해서 수행될 수 있을 뿐만 아니라 뼈의 일정 영역에 대해서만 수행될 수 있다. 구체적으로, 3차원 보간이 어려운 상하 골간과 골간단 부분의 보간은 기저장된 일반적인 사람의 규격화된 데이터를 이용하고, 보간이 비교적 간단한 중간 부분(즉, 골간)만을 이용하여 3차원 보간을 수행할 수 있다.
도 7 내지 도 9는 도 1의 표시부에서 표시될 수 있는 사용자 인터페이스 창의 다양한 예를 도시한 도면이다.
도 7을 참조하면, 사용자 인터페이스 창은 3차원 정상 이미지(710) 상에 3차원 골절 이미지(720)를 오버레이하여 표시한다. 이와 같이 3차원 정상 이미지상에 3차원 골절 이미지(720)가 오버레이되어 표시되는바, 의사는 골절 영역 중 이동이 가능한 뼈 영역(721)의 이동 경로를 더욱 손쉽게 확인할 수 있다. 그리고 이와 같은 사용자 인터페이스 창은 뼈 이동에 의하여 실시간으로 변경될 수 있다.
이때, 사용자 인터페이스 창은 오버레이되어 표시되는 3차원 골절 이미지(720)의 색, 조도, 휘도 등을 3차원 정상 이미지와 다르게 표시할 수 있다. 그리고 표시되는 3차원 골절 이미지의 오버레이 정도(즉, 투명도) 및 오버레이 위치는 사용자의 조작에 의하여 변경될 수 있다.
한편, 도 7에서는 3차원 골절 이미지와 3차원 정상 이미지를 오버레이하여 표시하는 예를 도시하였지만, 구현시에는 도 8에 도시된 바와 같이 3차원 골절 이미지(820)와 3차원 정상 이미지(180)를 오버레이 하지 않고, 개별적으로 표시하는 형태로도 구현할 수 있다.
도 9를 참조하면, 사용자 인터페이스 창(900)은 도 7에 도시된 바와 같이 3차원 정상 이미지상에 3차원 골절 이미지가 오브레이된 이미지(910)를 표시하고, 각 영역별 매칭 정도(920)를 함께 표시한다. 이와 같이 사용자 인터페이스 창(900)은 매칭 정도를 함께 표시하는바, 수술과정에서 의사는 손쉽게 정복 여부를 판단할 수 있으며, 영역별 매칭 정도를 확인할 수 있는바, 전체 뼈의 회전 및 단축 및 과잉견 여부를 확인할 수 있게 된다.
도 10은 본 발명의 일 실시 예에 따른 정복 시술 로봇의 구동 제어 방법을 설명하기 위한 흐름도이다.
도 10을 참조하면, 먼저, 환자의 골절 영역 및 골절 영역에 대응되는 정상 영역 각각에 대한 서도 다른 각도의 복수의 뼈 이미지를 촬영한다(S1010). 구체적으로, 뼈 촬영이 가능한 X-ray, MRI 및 CT와 같은 기술을 이용하여 환자의 골절 영역 및 골절 영역에 대응되는 정상 영역 각각에 대해서 회전을 하면서 복수의 뼈 이미지를 촬영할 수 있다. 여기서 정상 영역은 골절 영역에 위치하는 뼈에 대향적으로 위치하는 뼈 영역으로, 예를 들어, 골절 영역이 좌측 대퇴뼈인 경우, 정상 영역은 우측 대퇴뼈이다.
그리고 촬영된 복수의 뼈 이미지를 이용하여 골절 영역 및 정상 영역 각각에 대한 3차원 보간 이미지를 생성한다(S1020). 3차원 보간 이미지를 생성하는 동작에 대해서는 도 6과 관련하여 앞서 자세히 설명하였는바, 중복 설명은 생략한다.
그리고 생성된 골절 영역에 대한 3차원 보간 이미지 및 생성된 정상 영역에 대한 3차원 보간 이미지를 함께 표시한다(S1030). 이때, 생성된 정상 영역에 대한 3차원 보간 이미지 상에 골절 영역에 대한 3차원 보간 이미지를 오버레이하여 표시할 수 있다.
따라서, 본 실시 예에 따른 구동 제어 방법은, 골절 영역 및 골절 영역에 대응되는 3차원 보간 이미지를 생성하여 표시하는바, 의사는 표시된 3차원 보간 이미지를 이용하여 더욱 손쉽게 정복 시술을 수행할 수 있게 된다. 도 10과 같은 구동 제어 방법은, 도 1 또는 도 2의 구성을 가지는 정복 시술 로봇(100) 상에서 실행될 수 있으며, 그 밖의 다른 구성을 가지는 정복 시술 로봇(100) 상에서도 실행될 수 있다.
또한, 상술한 바와 같은 구동 제어 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
도 11은 도 10의 구동 제어 방법을 구체적으로 설명하기 위한 흐름도이다.
도 11을 참조하면, 의사는 도 3 내지 도 5와 관련하여 도시한 바와 같은 고정 핀, 연결부, 외 고정부를 이용하여 골절된 영역과 로봇 암을 연결한다(S1110).
그리고 환자의 골절 영역 및 골절 영역에 대응되는 정상 영역 각각에 대한 서도 다른 각도의 복수의 뼈 이미지를 촬영한다(S1120). 한편, 도시된 예에서는 골절된 영역과 로봇 암의 연결 동작 이후에 뼈 이미지를 촬영하는 것으로 도시하였으나, 구현시에는 뼈 이미지의 촬영 및 후술할 3차원 보간 이미지의 생성 이후에 로봇 암과의 연결 동작이 수행될 수도 있다.
그리고 촬영된 복수의 뼈 이미지를 이용하여 3차원 골절 이미지 및 3차원 정상 이미지를 생성한다(S1130). 3차원 보간 이미지를 생성하는 과정에 대해서는 도 6과 관련하여 앞서 설명하였는바, 중복 설명은 생략한다.
그리고 생성된 3차원 골절 이미지와 3차원 정상 이미지를 이용하여 매칭 정도를 계산한다(S1140). 구체적으로, 생성된 두 개의 3차원 보간 이미지의 외곽선 또는 다른 파라미터(예를 들어, 부피 등)를 이용하여 일치 여부를 계산할 수 있다. 이와 같은 일치 여부의 계산은 구분된 영역(예를 들어, 상부 영역, 중간 영역, 하부 영역) 별로 수행될 수 있다.
그리고 생성된 3차원 골절 이미지와 3차원 정상 이미지를 이용하여 골절 영역 중 이동이 가능한 뼈 영역의 이동 경로를 계산한다.
그리고 생성된 3차원 골절 이미지와 3차원 정상 이미지를 표시한다(S1160).구체적으로, 생성된 3차원 정상 이미지 상에 3차원 골절 이미지를 오버레이하여 표시할 수 있다. 이때, 앞서 계산된 매칭 정도가 함께 표시될 수 있다.
그리고 사용자(구체적으로, 의사)로부터 구동 명령을 입력받으면(S1170). 로봇 암을 구동하여 골절 영역 중 이동 가능한 뼈 영역을 이동한다(S1180).
그리고 뼈 영역의 이동이 감지부를 통하여 감지되면, 감지된 이동 경로에 따라서, 앞서 상술한 바와 같은 동작을 반복한다(S1190).
따라서, 본 실시 예에 따른 구동 제어 방법은, 골절 영역 및 골절 영역에 대응되는 정상 영역의 3차원 보간 이미지를 생성하여 표시하고, 수술과정에서의 뼈 이동에 대응하여 실시간으로 변경된 3차원 보간 이미지를 표시하는바, 의사는 보다 손쉽게 정복 시술을 수행할 수 있게 된다. 특히나, 3차원 보간 이미지를 이용하는바, 전체 뼈의 회전 상태, 단축 상태 등을 더욱 정밀하게 확인하면서 정복 시술을 수행할 수 있게 된다. 도 11과 같은 구동 제어 방법은, 도 2의 구성을 가지는 정복 시술 로봇(100) 상에서 실행될 수 있으며, 그 밖의 다른 구성을 가지는 정복 시술 로봇(100) 상에서도 실행될 수 있다.
또한, 상술한 바와 같은 구동 제어 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대해서 도시하고, 설명하였으나, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 누구든지 다양한 변형 실시할 수 있는 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
-

Claims (25)

  1. 정복 시술 로봇에 있어서,
    환자의 골절 영역 및 상기 골절 영역에 대응되는 정상 영역 각각에 대한 서로 다른 각도의 복수의 뼈 이미지를 촬영하는 촬영부;
    상기 촬영된 복수의 뼈 이미지를 이용하여 상기 골절 영역 및 상기 정상 영역 각각에 대한 3차원 보간 이미지를 생성하는 이미지 처리부; 및
    상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지를 함께 표시하는 표시부;를 포함하는 정복 시술 로봇.
  2. 제1항에 있어서,
    상기 촬영부는,
    X-ray, MRI 및 CT 중 적어도 하나의 장치를 이용하여 상기 골절 영역 및 상기 정상 영역을 촬영하는 것을 특징으로 하는 정복 시술 로봇.
  3. 제1항에 있어서,
    상기 이미지 처리부는,
    상기 뼈 이미지의 골간(diaphysis) 부분을 추출하고, 상기 추출된 골간 부분에 대한 3차원 보간 이미지를 생성하는 것을 특징으로 하는 정복 시술 로봇.
  4. 제1항에 있어서,
    상기 이미지 처리부는,
    상기 뼈 이미지의 뼈의 지름, 휨, 길이 중 적어도 하나를 고려하여 3차원 보간 이미지를 생성하는 것을 특징으로 하는 정복 시술 로봇.
  5. 제1항에 있어서,
    상기 골절 영역 중 이동이 가능한 뼈 영역의 위치를 감지하는 위치 감지부;를 더 포함하고,
    상기 표시부는,
    상기 감지된 위치를 기준으로 상기 정상 영역에 대한 3차원 보간 이미지 상에 상기 골절 영역에 대한 3차원 보간 이미지를 오버랩하여 표시하는 것을 특징으로 하는 정복 시술 로봇.
  6. 제1항에 있어서,
    상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지 각각에 대한 뼈 외곽선을 추출하고, 추출된 뼈 외곽선의 일치 정도를 계산하는 매칭부;를 더 포함하고,
    상기 표시부는, 상기 계산된 일치 정도를 표시하는 것을 특징으로 하는 정복 시술 로봇.
  7. 제6항에 있어서,
    상기 매칭부는,
    상기 3차원 보간 이미지를 복수의 영역으로 구분하고, 상기 구분된 영역별 뼈 외곽선의 일치 정도를 계산하는 것을 특징으로 하는 정복 시술 로봇.
  8. 제1항에 있어서,
    상기 골절 영역 중 이동이 가능한 뼈 영역의 일 측에 고정되며, 상기 뼈 영역을 이동시키는 구동부; 및
    상기 구동부의 동작을 제어하기 위한 제어 명령을 입력받는 조작부;를 더 포함하는 것을 특징으로 하는 정복 시술 로봇.
  9. 제8항에 있어서,
    상기 조작부는, 정지 명령을 제어 명령으로 입력받고,
    상기 구동부는, 상기 정지 명령이 입력되면, 상기 뼈 영역의 위치를 현 상태로 유지하는 것을 특징으로 하는 정복 시술 로봇.
  10. 제8항에 있어서,
    상기 골절 영역 중 이동이 가능한 뼈 영역을 정복(reduction)하기 위한 이동 경로를 산출하는 경로 산출부; 및
    상기 뼈 영역이 상기 산출된 이동 경로를 벗어나면 상기 구동부의 동작을 정지시키는 제어부;를 더 포함하는 것을 특징으로 하는 정복 시술 로봇.
  11. 제8항에 있어서,
    상기 구동부는,
    고정 핀, 연결부 및 외 고정부를 통하여 상기 뼈 영역의 일 측에 연결되는 것을 특징으로 하는 정복 시술 로봇.
  12. 제11항에 있어서,
    상기 고정 핀은,
    골절된 뼈 영역에 삽입되는 나선 영역 및 상기 나선 영역이 기설정된 깊이만큼만 삽입되도록 돌출된 문턱 영역을 포함하는 것을 특징으로 하는 정복 시술 로봇.
  13. 제12항에 있어서,
    상기 문턱 영역의 외형은 상기 고정 핀의 중심 축을 기준으로 다각형 형태인 것을 특징으로 하는 정복 시술 로봇.
  14. 제11항에 있어서,
    상기 연결부는,
    일 측에 상기 고정핀을 고정할 수 있는 제1 영역 및 타 측에 상기 외 고정부를 고정할 수 있는 제2 영역을 포함하는 것을 특징으로 하는 정복 시술 로봇.
  15. 제11항에 있어서,
    상기 외 고정부는
    U자 형태, 환형 링 형태, 반원 형태, 일자 형태 중 적어도 하나의 형태를 갖는 것을 특징으로 하는 정복 시술 로봇.
  16. 정복 시술 로봇의 구동 제어 방법에 있어서,
    환자의 골절 영역 및 상기 골절 영역에 대응되는 정상 영역 각각에 대한 서로 다른 각도의 복수의 뼈 이미지를 촬영하는 단계;
    상기 촬영된 복수의 뼈 이미지를 이용하여 상기 골절 영역 및 상기 정상 영역 각각에 대한 3차원 보간 이미지를 생성하는 단계; 및
    상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지를 함께 표시하는 단계;를 포함하는 구동 제어 방법.
  17. 제16항에 있어서,
    상기 촬영하는 단계는,
    X-ray, MRI 및 CT 중 적어도 하나의 장치를 이용하여 골절 영역 및 상기 정상 영역을 촬영하는 것을 특징으로 하는 구동 제어 방법.
  18. 제16항에 있어서,
    상기 3차원 보간 이미지를 생성하는 단계는,
    상기 뼈 이미지의 골간(diaphysis) 부분을 추출하고, 상기 추출된 골간 부분에 대한 3차원 보간 이미지를 생성하는 것을 특징으로 하는 구동 제어 방법.
  19. 제16항에 있어서,
    상기 3차원 보간 이미지를 생성하는 단계는,
    상기 뼈 이미지의 뼈의 지름, 휨, 길이 중 적어도 하나를 고려하여 3차원 보간 이미지를 생성하는 것을 특징으로 하는 구동 제어 방법.
  20. 제16항에 있어서,
    상기 골절 영역 중 이동이 가능한 뼈 영역의 위치를 감지하는 단계;를 더 포함하고,
    상기 표시하는 단계는,
    상기 감지된 위치를 기준으로 상기 정상 영역에 대한 3차원 보간 이미지 상에 상기 골절 영역에 대한 3차원 보간 이미지를 오버랩하여 표시하는 것을 특징으로 하는 구동 제어 방법.
  21. 제16항에 있어서,
    상기 생성된 골절 영역에 대한 3차원 보간 이미지 및 상기 생성된 정상 영역에 대한 3차원 보간 이미지 각각에 대한 뼈 외곽선을 추출하고, 추출된 뼈 외곽선의 일치 정도를 계산하는 단계;를 더 포함하고,
    상기 표시하는 단계는,
    상기 계산된 일치 정도를 표시하는 것을 특징으로 하는 구동 제어 방법.
  22. 제21항에 있어서,
    상기 계산하는 단계는,
    상기 3차원 보간 이미지를 복수의 영역으로 구분하고, 상기 구분된 영역별 뼈 외곽선의 일치 정도를 계산하는 것을 특징으로 하는 구동 제어 방법.
  23. 제16항에 있어서,
    상기 정복 시술 로봇의 구동을 제어하기 위한 제어 명령을 입력받는 단계; 및
    상기 입력된 제어 명령에 따라 상기 골절 영역 중 이동이 가능한 뼈 영역을 이동시키도록 구동하는 단계;를 더 포함하는 것을 특징으로 하는 구동 제어 방법.
  24. 제23항에 있어서,
    상기 제어 명령을 입력받는 단계는, 정지 명령을 입력받고,
    상기 구동하는 단계는,
    상기 정지 명령이 입력되면, 상기 뼈 영역의 위치를 현 상태로 유지하는 것을 특징으로 하는 구동 제어 방법.
  25. 제23항에 있어서,
    상기 골절 영역 중 이동이 가능한 뼈 영역을 정복(reduction)하기 위한 이동 경로를 산출하는 단계; 및
    상기 뼈 영역이 상기 산출된 이동 경로를 벗어나면 상기 정복 시술 로봇의 구동을 정지시키는 단계;를 더 포함하는 것을 특징으로 하는 구동 제어 방법.
PCT/KR2013/010387 2012-11-16 2013-11-15 정복 시술 로봇 및 그의 구동 제어 방법 WO2014077613A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/443,027 US10015470B2 (en) 2012-11-16 2013-11-15 Robot for repositioning procedure, and method for controlling operation thereof
JP2015542951A JP6291503B2 (ja) 2012-11-16 2013-11-15 整復施術ロボット及びその駆動制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0130543 2012-11-16
KR1020120130543A KR101433242B1 (ko) 2012-11-16 2012-11-16 정복 시술 로봇 및 그의 구동 제어 방법

Publications (1)

Publication Number Publication Date
WO2014077613A1 true WO2014077613A1 (ko) 2014-05-22

Family

ID=50731456

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010387 WO2014077613A1 (ko) 2012-11-16 2013-11-15 정복 시술 로봇 및 그의 구동 제어 방법

Country Status (4)

Country Link
US (1) US10015470B2 (ko)
JP (1) JP6291503B2 (ko)
KR (1) KR101433242B1 (ko)
WO (1) WO2014077613A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105643640A (zh) * 2014-11-12 2016-06-08 沈阳新松机器人自动化股份有限公司 一种关节定位识别系统
CN111590584A (zh) * 2020-05-27 2020-08-28 京东方科技集团股份有限公司 安全限位区的确定方法和装置、复位方法和医用机器人
WO2021142213A1 (en) * 2020-01-09 2021-07-15 Smith & Nephew, Inc. Methods and arrangements to describe deformity of a bone

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6951116B2 (ja) * 2016-05-11 2021-10-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像診断装置、及び画像処理方法
KR101871601B1 (ko) * 2016-11-30 2018-06-26 한국과학기술연구원 안와벽 재건술을 위한 수술 계획 생성 방법, 이를 수행하는 수술 계획 생성 서버, 및 이를 저장하는 기록매체
KR101961682B1 (ko) * 2017-07-13 2019-07-17 재단법인대구경북과학기술원 골절 교정을 위한 내비게이션 장치 및 방법
KR102168431B1 (ko) * 2017-10-24 2020-10-21 경북대학교 산학협력단 능동형 견인장치 및 이의 제어 방법
CN109820590B (zh) * 2019-02-15 2024-04-12 中国人民解放军总医院 一种骨盆骨折复位智能监控系统
US11109914B2 (en) 2019-03-08 2021-09-07 DePuy Synthes Products, Inc. Outcome-based splinting
KR102081834B1 (ko) * 2019-09-03 2020-02-26 의료법인 명지의료재단 종골 골절의 정복 판단 방법
EP4065023A1 (en) * 2019-11-26 2022-10-05 Howmedica Osteonics Corporation Pre-operative planning and intra operative guidance for orthopedic surgical procedures in cases of bone fragmentation
KR102581628B1 (ko) * 2020-12-18 2023-09-21 가톨릭관동대학교산학협력단 임플란트 자동 컨투어링 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000011134A (ko) * 1996-05-15 2000-02-25 인드래니 머캐르지 정위 수술 방법 및 장치
WO2003105659A2 (en) * 2002-06-17 2003-12-24 Mazor Surgical Technologies Ltd. Robot for use with orthopaedic inserts
US20090054910A1 (en) * 2006-12-15 2009-02-26 Ao Technology Ag Method and device for computer assisted distal locking of intramedullary nails
KR20100081588A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 로봇 및 그 제어방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546942A (en) * 1994-06-10 1996-08-20 Zhang; Zhongman Orthopedic robot and method for reduction of long-bone fractures
US20020045812A1 (en) * 1996-02-01 2002-04-18 Shlomo Ben-Haim Implantable sensor for determining position coordinates
US5799055A (en) 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US8944070B2 (en) * 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US20040068187A1 (en) * 2000-04-07 2004-04-08 Krause Norman M. Computer-aided orthopedic surgery
US20020194023A1 (en) 2001-06-14 2002-12-19 Turley Troy A. Online fracture management system and associated method
JP4056791B2 (ja) * 2002-05-22 2008-03-05 策雄 米延 骨折整復誘導装置
US8750960B2 (en) * 2002-07-19 2014-06-10 Warsaw Orthopedic, Inc. Process for selecting bone for transplantation
JP5323885B2 (ja) 2003-02-12 2013-10-23 剛 村瀬 骨矯正のための方法、部材、システムおよびプログラム
US8860753B2 (en) * 2004-04-13 2014-10-14 University Of Georgia Research Foundation, Inc. Virtual surgical system and methods
US9782229B2 (en) * 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
US7835559B1 (en) * 2007-04-27 2010-11-16 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for quantitative and comparative analysis of image intensities in radiographs
US20090015680A1 (en) * 2007-07-10 2009-01-15 Harris David P Device, System and Method for Aligning Images
JP4369969B2 (ja) * 2007-10-26 2009-11-25 株式会社アールビーエス 生体適合性材料並びにその製造方法
US8600149B2 (en) * 2008-08-25 2013-12-03 Telesecurity Sciences, Inc. Method and system for electronic inspection of baggage and cargo
US20110033516A1 (en) * 2009-08-06 2011-02-10 Medical University Of South Carolina Methods and compositions for bone healing by periostin
US8870799B2 (en) * 2010-05-28 2014-10-28 Fixes 4 Kids Inc. Systems, devices, and methods for mechanically reducing and fixing bone fractures
US20110313479A1 (en) * 2010-06-22 2011-12-22 Philip Rubin System and method for human anatomic mapping and positioning and therapy targeting
JP2012075702A (ja) * 2010-10-01 2012-04-19 Fujifilm Corp 管状構造物内画像再構成装置、管状構造物内画像再構成方法および管状構造物内画像再構成プログラム
WO2012056686A1 (ja) * 2010-10-27 2012-05-03 パナソニック株式会社 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP5606423B2 (ja) * 2011-11-04 2014-10-15 三菱電機株式会社 ロボットハンド及びフィンガー交換装置
CN103903303B (zh) * 2012-12-27 2018-01-30 清华大学 三维模型创建方法和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000011134A (ko) * 1996-05-15 2000-02-25 인드래니 머캐르지 정위 수술 방법 및 장치
WO2003105659A2 (en) * 2002-06-17 2003-12-24 Mazor Surgical Technologies Ltd. Robot for use with orthopaedic inserts
US20090054910A1 (en) * 2006-12-15 2009-02-26 Ao Technology Ag Method and device for computer assisted distal locking of intramedullary nails
KR20100081588A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 로봇 및 그 제어방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105643640A (zh) * 2014-11-12 2016-06-08 沈阳新松机器人自动化股份有限公司 一种关节定位识别系统
WO2021142213A1 (en) * 2020-01-09 2021-07-15 Smith & Nephew, Inc. Methods and arrangements to describe deformity of a bone
CN111590584A (zh) * 2020-05-27 2020-08-28 京东方科技集团股份有限公司 安全限位区的确定方法和装置、复位方法和医用机器人
WO2021238876A1 (zh) * 2020-05-27 2021-12-02 京东方科技集团股份有限公司 安全限位区的确定方法和装置、复位方法和医用机器人
CN111590584B (zh) * 2020-05-27 2021-12-10 京东方科技集团股份有限公司 安全限位区的确定方法和装置、复位方法和医用机器人

Also Published As

Publication number Publication date
JP6291503B2 (ja) 2018-03-14
JP2016503322A (ja) 2016-02-04
US10015470B2 (en) 2018-07-03
KR101433242B1 (ko) 2014-08-25
KR20140063321A (ko) 2014-05-27
US20150341615A1 (en) 2015-11-26

Similar Documents

Publication Publication Date Title
WO2014077613A1 (ko) 정복 시술 로봇 및 그의 구동 제어 방법
WO2018056544A1 (ko) 치과 수술용 증강현실 시스템 및 구현방법
WO2017192020A1 (ko) 치과용 3차원 데이터 처리장치 및 그 방법
WO2019132427A1 (ko) 레이저 표적 투영장치 및 그 제어방법, 레이저 표적 투영장치를 포함하는 레이저 수술 유도 시스템
KR20220025186A (ko) 진단 검사를 실시간 치료에 통합하기 위한 범용 장치 및 방법
JP2004049912A (ja) 医療用診断または治療装置における患者の位置決め方法および装置
WO2013095032A1 (ko) 초음파 영상을 이용하여 정중 시상면을 자동으로 검출하는 방법 및 그 장치
WO2017142223A1 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
WO2019132165A1 (ko) 수술결과에 대한 피드백 제공방법 및 프로그램
WO2022035110A1 (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
WO2018097596A1 (ko) 방사선 촬영 가이드 시스템 및 방법
WO2021071336A1 (ko) 시선 검출 기반의 스마트 안경 표시 장치
WO2019132244A1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
WO2010058927A2 (ko) 안면 영상 촬영장치
JP2015019777A (ja) 体位決定支援装置及び医用画像診断装置
WO2021162287A1 (ko) 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
WO2021153973A1 (ko) 관절치환 로봇수술 정보 제공 장치 및 제공 방법
WO2021045546A2 (ko) 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템
WO2021054659A2 (ko) 수술 내비게이션 장치 및 그 방법
WO2012108578A1 (ko) 3차원 광학 측정기를 이용한 뼈 움직임 감지 및 경로 보정 시스템
WO2018080131A1 (ko) 방사선 촬영 시스템에서 프로토콜을 재배열하기 위한 장치 및 방법
WO2020197109A1 (ko) 치아 영상 정합 장치 및 방법
WO2020185049A2 (ko) 페디클 스크류 고정 플래닝 시스템 및 방법
WO2021015449A2 (ko) 수술위치 정보제공방법 및 수술위치 정보제공장치
WO2022225132A1 (ko) 랜드마크를 이용한 증강현실 기반의 의료정보 시각화 시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856000

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14443027

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2015542951

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13856000

Country of ref document: EP

Kind code of ref document: A1