WO2014129760A1 - 트랙킹 시스템 및 이를 이용한 트랙킹 방법 - Google Patents

트랙킹 시스템 및 이를 이용한 트랙킹 방법 Download PDF

Info

Publication number
WO2014129760A1
WO2014129760A1 PCT/KR2014/000979 KR2014000979W WO2014129760A1 WO 2014129760 A1 WO2014129760 A1 WO 2014129760A1 KR 2014000979 W KR2014000979 W KR 2014000979W WO 2014129760 A1 WO2014129760 A1 WO 2014129760A1
Authority
WO
WIPO (PCT)
Prior art keywords
markers
light
marker
pair
beam splitter
Prior art date
Application number
PCT/KR2014/000979
Other languages
English (en)
French (fr)
Inventor
홍종규
이현기
정재헌
김민영
Original Assignee
주식회사 고영테크놀러지
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지, 경북대학교 산학협력단 filed Critical 주식회사 고영테크놀러지
Priority to CN201480008932.9A priority Critical patent/CN105073056A/zh
Priority to EP14753937.3A priority patent/EP2959857A4/en
Priority to US14/376,712 priority patent/US20160228198A1/en
Priority to JP2015559174A priority patent/JP5998294B2/ja
Publication of WO2014129760A1 publication Critical patent/WO2014129760A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Definitions

  • the present invention relates to a tracking system and a tracking method using the same. More specifically, the surgical tracking to detect the spatial position information and the direction information of the target by tracking the coordinates of the markers attached to the target, such as the affected part of the patient or surgical instruments It relates to a system and a tracking method using the same.
  • Surgical navigation as described above includes a tracking system that can accurately detect and detect the spatial position and direction of the object, such as the affected area or surgical instruments as described above.
  • Such a tracking system is typically connected to markers attached to an object such as an affected part or a surgical tool, first and second imaging units for imaging light emitted by the markers, and the first and second imaging units.
  • an object such as an affected part or a surgical tool
  • first and second imaging units for imaging light emitted by the markers
  • the first and second imaging units After calculating the three-dimensional coordinates of the markers, the space of the object by comparing the stored information of the straight lines connecting the neighboring markers and the angle information formed by a pair of neighboring straight lines with the three-dimensional coordinates of the markers It includes a processor for calculating position and direction.
  • the coordinates of the markers emitted from one marker and formed in the first imaging unit and the coordinates of the markers formed in the second imaging unit are the same. It is assumed that two detectors are required by detection by trigonometry.
  • the conventional general tracking system must include two imaging units for imaging light emitted from the respective markers at different positions, thereby increasing the manufacturing cost and increasing the overall size of the system, thereby limiting the surgical space. There was a problem to receive a lot.
  • an object of the present invention is to provide a tracking system that can calculate the three-dimensional coordinates of each marker with only one imaging unit to reduce the manufacturing cost and to compact the equipment to minimize the constraint of the surgical space and It relates to a tracking method using the same.
  • a tracking system includes at least three markers attached to an object to reflect light, a pair of light sources emitting light at different positions toward the markers, and a pair of light sources
  • a lens unit for passing the light reflected by the markers, an imaging unit for receiving the light passing through the lens unit, and forming a pair of marker images per marker, and a pair of imaging units per marker in the imaging unit.
  • the tracking system is disposed between the lens unit and the imaging unit to reflect a portion of the light emitted from any one of the light source of the pair of light sources through the lens unit in the direction of the center of the markers, the marker
  • the beam splitter may further include a beam splitter that passes through the lens unit and emits a part of light emitted in the direction of the center of the light and re-reflected by the markers.
  • the tracking system may further include a diffuser disposed between the light source for emitting light toward the beam splitter and the beam splitter to diffuse the light emitted from the light source.
  • the imaging unit may be a camera that reflects light from the markers and sequentially receives light passing through the lens unit and the beam splitter to form a pair of images per marker.
  • the geometric information between the markers may be length information of straight lines connecting the neighboring markers and angle information formed by the pair of neighboring straight lines.
  • the tracking method comprises the steps of emitting light toward at least three markers from a pair of light sources disposed at different positions, and the light emitted from the pair of light sources is driven by the markers. Reflecting to the lens unit, and the light reflected by the markers passes through the lens unit to form a pair of marker images per marker on the imaging unit, and a marker image formed by pairs per marker on the imaging unit. Calculating three-dimensional coordinates of the respective markers using a processor; and comparing spatial information of the three-dimensional coordinates of the respective markers with geometric information between neighboring markers previously stored in the processor. And calculating a direction.
  • the light source of any one of the pair of light sources emits light in the direction of a beam splitter disposed between the lens unit and the imaging unit, and then reflects a part of the light by the beam splitter, thereby causing the center of the markers through the lens unit.
  • the other light source can emit light directly to the markers.
  • the light emitted in the beam splitter direction may be diffused by a diffuser disposed between the beam splitters and emitted to the beam splitter side.
  • the geometric information between the markers may be length information of straight lines connecting the neighboring markers and angle information formed by the pair of neighboring straight lines.
  • the calculating of the three-dimensional coordinates of the markers may be performed by calculating the two-dimensional center coordinates of the respective markers by using the imaging position information of a pair of marker images per marker formed in the imaging unit through the processor. And calculating three-dimensional coordinates of the markers by using two-dimensional center coordinates of each marker.
  • the tracking system and the tracking method using the same may image a pair of marker images at different positions of the imaging unit for each marker by a pair of light sources disposed at different positions. Therefore, the three-dimensional coordinates of the markers may be calculated using triangulation using only one imaging unit, and the spatial position information and the orientation information of the markers attached to the object may be calculated and confirmed.
  • the manufacturing cost of the tracking system can be reduced and the weight can be reduced, the surgical space is relatively less constrained than the conventional tracking system.
  • FIG. 1 is a schematic diagram of a tracking system according to an embodiment of the present invention.
  • FIG. 2 is an exemplary view in which markers are attached to an object
  • FIG. 3 is a block diagram illustrating a tracking method according to an embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a process of calculating three-dimensional coordinates of markers.
  • FIG. 5 is an exemplary view for explaining a state in which an image of markers is imaged on an imaging unit in a state where three markers are arranged horizontally with a lens;
  • FIG. 6 is an enlarged view illustrating a change in image formation position of a marker image according to a distance between markers and a lens unit;
  • FIG. 7 is an exemplary diagram for describing a process of calculating two-dimensional center coordinates of a first marker.
  • FIG. 8 is an exemplary diagram for explaining a relationship between a point where light is reflected from a surface of a marker and a center of the marker;
  • FIG. 9 is an exemplary diagram for describing a process of calculating a coordinate of a point at which light is reflected on a surface of a marker.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • a tracking system and a tracking method using the same include attaching at least three markers to an object such as an affected part or a surgical tool, and then calculates three-dimensional coordinates of the markers and neighboring markers previously stored in a processor. By comparing the geometric information of the liver and the three-dimensional coordinates of the markers through the processor to calculate the spatial position information and direction information of the object such as the affected part or surgical instruments, the detailed configuration will be described with reference to the drawings. .
  • FIG. 1 is a schematic diagram of a tracking system according to an embodiment of the present invention
  • FIG. 2 is an exemplary diagram in which markers are attached to an object.
  • a tracking system includes at least three markers 110, 111, 112, at least two first light sources 150, and a second light source ( 151, the lens unit 120, a beam splitter 160, an imaging unit 130, a processor 140, and the like.
  • the at least three markers 110, 111, 112 are attached to a target 200, such as a patient's affected part or surgical tool.
  • the at least three markers 110, 111, 112 are spaced apart from each other by the markers 110, 111, 112 that are adjacent to each other, and the markers 110, 111, which are adjacent to each other ( 112 is virtually connected, and a pair of virtual straight lines L1, L2, and L3 adjacent to each marker 110, 111, and 112 make a constant angle A1, A2, A3. Placed to achieve is attached to the target object such as the affected part or surgical instruments.
  • the length information and the angles A1, A2, and A3 of a pair of neighboring straight lines connecting neighboring markers 110, 111, and 112 to each other are stored in the processor 140. (memory: 141) is already stored.
  • the markers 110, 111, and 112 may be attached in a triangular form to the target 200, such as affected areas or surgical instruments, the three markers 110, 111, ( A pair of virtual neighboring pairs connecting the markers 110, 111, and 112 with the length information of each of the straight lines L1, L2, and L3 constituting the sides of the triangle having the vertex 112 as a vertex.
  • Information of angles A1, A2, and A3 formed by a straight line may be stored in the memory 141 included in the processor 140.
  • the markers 110, 111, and 112 may be passive markers that reflect at least light emitted from the first and second light sources 150 and 151.
  • the first and second light sources 150 and 151 emit light at different positions toward the markers 110 and 111 and 112.
  • the first light source 150 may emit light directly toward the markers 110, 111, and 112 and the second light source 151 may be connected to the lens unit 120.
  • the light emitter may be disposed to be positioned between the imaging unit 130 to face the beam splitter 160 disposed between the lens unit 120 and the imaging unit 130.
  • the light emitted from the second light source 151 is partially reflected by the beam splitter 160 and passes through the lens unit 120, and then, in the direction of the center of the markers 110, 111, 112. Allow to emit light.
  • a part of the light emitted from the second light source 151 is reflected by the beam splitter 160 and is emitted through the lens unit 120 in the direction of the center of the markers 110, 111, 112. The rest will pass through the beam splitter 160.
  • the second light source 151 may be directly emitted to the markers 110, 111, 112, and the first light source 150 emits light to the beam splitter 160 to allow the lens.
  • Light may be emitted through the unit 130 in the direction of the center of gravity of the markers 110, 111, and 112.
  • first and second light sources 150 and 151 it is preferable to use point illumination reflected at only one point among the entire surfaces of the markers 110, 111 and 112.
  • the lens unit 120 is light emitted directly from the light source selected from any one of the first light source 150 and the second light source 151 and reflected to the markers (110, 111, 112), After being emitted from the other light source is reflected by the beam splitter 160 is passed through the lens unit 120 in the direction of the center of the markers 110, 111, 112 and passes through the reflected light .
  • the beam splitter 160 is disposed at the rear portion of the lens unit 120.
  • the beam splitter 160 passes through a portion of the light emitted from any one of the first light source 150 and the second light source 151 and reflects the remaining light to pass through the lens unit 120. To be discharged in the center direction of the fields 110, 111, 112.
  • the imaging unit 130 is disposed at the rear of the beam splitter 160 to receive light sequentially passing through the lens unit 120 and the beam splitter 160 to receive the respective markers 110 and 111 ( 112) A pair of marker images are formed per image.
  • the imaging unit 130 is disposed at a rear portion of the beam splitter 160 to display the markers 110 and 111 from any one light source selected from the first light source 150 and the second light source 152.
  • the light sequentially passes through the lens unit 120 and the beam splitter 160, and is emitted and reflected from the other light source to the beam splitter 160 and then the lens unit ( After passing through 120, the markers 110, 111, and 112 are emitted in the direction of the center of the re-reflected and then received by passing the light sequentially through the lens unit 120 and the beam splitter 160
  • a pair of marker images are imaged per markers 110, 111, and 112.
  • the light is emitted from the first and second light sources 150 and 151 and then reflected by the markers 110, 111 and 112 to pass through the lens unit 120 to the beam splitter 160.
  • the light is partially reflected by the beam splitter 160, and the remaining light passes through the beam splitter 160 and then flows into the image forming unit 130, so that each of the markers 110, 111 and 112 passes through the beam splitter 160.
  • a pair of marker images are imaged.
  • the imaging unit 130 may be emitted from the first and second light sources 150 and 151 and then reflected by the markers 110, 111, and 112 and the lens unit 120. It may be a camera mounted with an image sensor 131 that receives light passing through the beam splitter 160 sequentially and forms a pair of marker images for each marker 110, 111, 112.
  • a diffuser 170 is disposed between any one of the first and second light sources 150 and 151 that emits light to the beam splitter 160 and the beam splitter 160.
  • the light emitted to the splitter 160 may be diffused.
  • the processor 140 is emitted from the first and second light sources 150 and 151 and reflected by the markers 110, 111 and 112, respectively, and formed on the imaging unit 130.
  • a three-dimensional coordinate of each of the markers 110, 111, and 112 is calculated using a pair of marker images per (111, 112), and 3 of the markers 110, 111, 112 are calculated.
  • the object 200 such as an affected part or surgical tool to which the markers 110, 111 and 112 are attached. It is possible to calculate the spatial position information and direction information of.
  • the memory 141 is mounted in the processor 140.
  • the memory 141 mounted in the processor 140 includes geometric information between the neighboring markers 110, 111, and 112, that is, the neighboring markers 110, 111, 112. Angles A1 and A2 formed by the length information of the straight lines L1, L2, and L3 to be connected and a pair of neighboring straight lines to connect the markers 110, 111 and 112 that are adjacent to each other.
  • A3) Information may be stored in advance.
  • spatial location information and direction information of the first and second light sources 150 and 151 may be stored in the memory 141 mounted in the processor 140.
  • FIG. 3 is a block diagram illustrating a tracking method according to an embodiment of the present invention
  • FIG. 4 is a block diagram illustrating a process of calculating three-dimensional coordinates of markers
  • FIG. FIG. 6 is an exemplary diagram for explaining a state in which images of markers are imaged on the imaging unit in a horizontally arranged state
  • FIG. 6 is an enlarged example for explaining a change in image formation position of the marker image according to the distance between the markers and the lens unit
  • 7 is an exemplary view for explaining a process of calculating the two-dimensional center coordinates of the first marker
  • FIG. 8 is an exemplary view for explaining a relationship between the point where light is reflected from the surface of the marker and the center of the marker
  • 9 is an exemplary view for explaining a process of calculating the coordinates of the point where the light is reflected from the surface of the marker.
  • the first light source is disposed to emit light directly to the markers
  • the second light source is disposed to emit light to the markers through a beam splitter.
  • first and second light sources 150 disposed at different positions are first provided.
  • the light emitting device 151 emits light from the first and second light sources 150 and 151 toward the first to third markers 110 and 111 and 112.
  • the point light emitted by the first light source 150 is operated to be directly irradiated to the first to third markers 110, 111, 112, and the second light source 151.
  • Point light emitted by the operation is irradiated to the beam splitter 160 and a part of it passes through the beam splitter 160 and the other part is reflected by the beam splitter 160 to pass through the lens unit 120.
  • the first to third markers 110, 111, and 112 are emitted toward the center of gravity.
  • the light emitted from the first light source 150 is directly reflected by one point of the surface of the first to third markers 110, 111, 112 to be first to third. Reflected toward the lens unit 120 through the three light paths AX1, AX2, and AX3, the light emitted from the second light source 151 is irradiated to the beam splitter 160, and a part of the beam splitter After passing through the lens unit 120, the remainder is reflected by the beam splitter 160 and passes through the lens unit 120 through the fourth to sixth optical paths AX4, AX5, and AX6. 3 markers 110, 111, 112 are emitted toward the center of gravity.
  • the light passing through the lens unit 120 through the first to sixth optical paths AX1, AX2, AX3, AX4, AX5, and AX6 passes through the marker 110 to the imaging unit 130.
  • a pair of marker images are imaged per 111 and 112 (S130).
  • the light emitted from the first light source 150 and reflected by the first marker 110 through the first optical path AX1 and passed through the lens unit 120 is formed in the imaging unit (
  • the first marker image of the first marker 110 is imaged on the 130, and is emitted from the second light source 151 and reflected by the first marker 110 through the fourth optical path AX4 to the lens unit.
  • the light passing through 120 forms an image of the second marker of the first marker 110 on the imaging unit 130.
  • the light emitted from the first light source 151 and reflected by the second marker 111 through the second optical path AX2 and passed through the lens unit 120 is transferred to the imaging unit 130.
  • the first marker image of the second marker 111 is imaged, and is emitted from the second light source 151 and reflected by the second marker 111 through the fifth path AX5 to pass through the lens unit 120.
  • One light forms the second marker image of the second marker 111 on the imaging unit 130.
  • the light emitted from the first light source 150 and reflected by the third marker 112 through the third optical path AX3 and passed through the lens unit 120 is transferred to the imaging unit 130.
  • the first marker image of the three markers 112 is imaged, and is emitted from the second light source 151 and reflected by the third marker 112 through the sixth optical path AX6 to cover the lens unit 120.
  • the passed light forms an image of the second marker of the third marker 112 on the imaging unit 130.
  • the image formed on the imaging unit 130 is formed. 3 of the first to third markers 110, 111, 112 through the processor 140 using the first and second marker images of the first to third markers 110, 111, 112.
  • the dimension coordinates are calculated (S140).
  • each of the markers 110, 111, 112 formed in the imaging unit 130 through the processor 140. 2D center coordinates of each of the markers 110, 111, and 112 are calculated using the imaging position information of the first and second marker images.
  • FIGS. 5 and 6 A process of calculating the two-dimensional center coordinates of the markers 110, 111, and 112 will be described in more detail.
  • FIGS. 5 and 6 a case where the first to third markers are arranged in line with the lens unit will be described as an example.
  • the beam splitter is omitted in the drawings by explaining the state in which the markers are arranged in line with the lens unit.
  • the light is reflected by each of the markers 110, 111, 112 after the emission from the second light source 151 toward the center of the markers 110, 111, 112.
  • the image forming position is omitted since it may be aligned with the center line CL of the lens unit 120.
  • the light sources emitted from the first light source 150 are respectively markers 110, 111, and 112 through the first to third light paths AX1, AX2, and AX3. Reflected at the surface of the different points of the) is formed in the imaging unit 130. Therefore, after being emitted from the first light source 150, the lens unit is reflected by the respective markers 110, 111, and 112 and passes through the first to third optical paths AX1, AX2, and AX3. After passing through the 120, first marker images of the first to third markers 110, 111, and 112 that are introduced and formed into the imaging unit 130 are located at different positions in the imaging unit 130. It is formed.
  • the processor 140 may perform image forming position information of the first marker image of each of the markers 110, 111 and 112, image forming position information of the second marker image, and the pre-stored information in the processor 140.
  • Each of the markers 110 and 111 (using the position information of the first and second light sources 150 and 151 and the radius information of the first to third markers 110, 111 and 112). 112 can be calculated.
  • the two-dimensional center coordinates of the markers 110, 111, and 112 are x and y
  • the coordinates of the first light source 150 are I 1 and J 1
  • the second light source is
  • the coordinates of 151 are referred to as I 2 , J 2
  • U 1 , V 1 and the coordinates of the second marker image emitted by the second light source 151 and reflected by the first marker 110 and formed on the imaging unit 130 are U 2 , V.
  • a straight line containing U 1 , V 1 and x 1 , y 1 Straight line containing, U 2 , V 2 and X 2 , Y 2 ,
  • a straight line containing points I 1 , J 1 and x 1 , y 1 , Straight lines containing I 2 , J 2 and X 2 , Y 2 May be expressed as in Equation 2.
  • t 1 and t 2 are values that determine the length of the straight line.
  • Equation 4 the coordinate x 1 of the point emitted from the first light source 150 (see FIG. 7) or the second light source 151 (see FIG. 7) and reflected by the first marker 110 is shown.
  • y 1 is x, y, and should be present over a radius r having the center, wherein x 1, connecting the coordinates x, y of x 1, y 1 of the first marker 110 is the sum of the vector input to the y 1
  • the radius r squared can be expressed as Equation 4, and the direction from x, y to x 1 , y 1 Is a vector from x, y to x 2 , y 2 May be expressed as in Equation 5.
  • Equation 6 an error E for x, y, t 1 , and t 2 may be expressed as in Equation 6.
  • Equation 6 since the variables are t 1 , t 2 , x, and y, the processor 140 calculates two-dimensional center coordinates x and y of the first marker 110.
  • the processor 140 repeats the above process to calculate the two-dimensional center coordinates of the second marker 111 and the third marker 112.
  • the radius of the first marker 110 is referred to as 'r'
  • the center coordinate of the lens unit 120 is referred to as (0, 0)
  • the position of the first light source 150 is represented as (0).
  • d the center of the first marker 110
  • the center of the first marker 110 is (e, f)
  • Equation (1) the square of the radius of the first marker 150 is expressed as Equation (1), and Equation (1) may be expressed as shown in Equations (2) to (4). If the solution of (4) of Equation 7 is obtained, the y-axis coordinate of the point at which the light emitted from the first light source 150 is reflected on the surface of the first marker 110 is calculated.
  • Equation 7 when (1) of Equation 7 is summarized with respect to x and the solution is obtained, the x-axis of the point where the light emitted from the first light source 150 is reflected on the surface of the first marker 110 is obtained. The coordinates are calculated.
  • the processor 140 is repeated by the above-described process to be emitted by the first light source 150 and the second light source 151 to the surface of the first to third markers (110, 111, 112). It is possible to calculate the coordinates of the point reflected from.
  • the respective markers 110, 111, and 112 are used.
  • the geometric information between the three-dimensional coordinates of the markers and neighboring markers 110, 111, and 112 previously stored in the processor 140 are compared through the processor 140 to display the markers 110, 111, and 112. ) Calculates the spatial position and direction of the object 200 is attached (S150).
  • the geometric information between the neighboring markers (110, 111, 112) is a straight line (L1) (virtually connecting the markers (110, 111, 112) neighboring each other as described above ( Length information of L2) and L3 and angle A1, A2, and A3 information formed by a pair of adjacent straight lines connecting the markers 110, 111, and 112 to each other.
  • the length information of the straight lines L1 (L2) and L3 connecting the virtual lines and the pair of adjacent straight lines connecting the markers 110, 111 and 112 to each other (A1) By comparing the information (A2) and (A3), the spatial position information and the direction information of the object 200 to which the markers 110, 111, and 112 are attached are calculated.
  • any one of a pair of light sources 150 and 151 disposed at different positions may correspond to the respective markers 110 (
  • the first marker image of each marker 110, 111, 112 is imaged on the imaging unit 130 by emitting light directly at a point on the surface of the surfaces 111 and 112 and reflecting the light toward the lens unit 120.
  • the other light source emits light toward the center of the markers 110, 111, and 112 through the lens unit 120, and reflects the light to the lens unit 120 again to form the imaging unit.
  • the second marker image of each marker 110, 111, 112 is imaged at 130 so that a pair of marker images per marker 110, 111, 112 are imaged on the imaging unit.
  • a pair of marker images are formed at different positions of the imaging unit 130 per one marker 110, 111, 112, and thus, each of the markers 110 may be triangulated using only one imaging unit 130.
  • Three-dimensional coordinates of the (111) 112 can be calculated.
  • the tracking system and the tracking method using the same according to an embodiment of the present invention, the spatial position information and the orientation of the markers 110, 111, 112 attached to the object 200 with only one imaging unit 130 alone. Information can be calculated and confirmed.
  • the manufacturing cost of the tracking system can be reduced and the light weight can be achieved. Therefore, compared with the conventional tracking system, there is an advantage that the operation space is less restricted.

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

한 대의 결상 유닛만으로도 각각의 마커들의 3차원 좌표를 산출할 수 있도록 하여 제작비용의 감소와 더불어 장비의 컴팩트화를 실현하여 수술 공간의 제약을 최소화할 수 있는 트랙킹 시스템 및 이를 이용한 트랙킹 방법이 개시된다. 상기 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 서로 다른 위치에 배치된 한 쌍의 광원에 의해 각 마커 당 결상유닛의 서로 다른 위치에 한 쌍의 마커 영상을 결상시킬 수 있으므로, 한 대의 결상유닛만으로도 삼각법을 통해 상기 각 마커들의 3차원 좌표를 산출하여 목적물에 부착된 마커들의 공간 위치 정보와 방향 정보를 산출하여 확인할 수 있으므로, 트랙킹 시스템의 제작비용의 절감과 더불어 소형 경량화를 이룰 수 있으므로 종래의 트랙킹 시스템에 비하여 수술 공간의 제약을 상대적으로 덜 받는다는 효과가 있다.

Description

트랙킹 시스템 및 이를 이용한 트랙킹 방법
본 발명은 트랙킹 시스템 및 이를 이용한 트랙킹 방법에 관한 것으로, 보다상세하게는 환자의 환부나 수술도구와 같은 목적물에 부착된 마커들의 좌표를 추적하여 목적물의 공간 위치 정보와 방향 정보를 검출하는 수술용 트랙킹 시스템 및 이를 이용한 트랙킹 방법에 관한 것이다.
최근에는 복강경 수술이나 이비인후과 수술을 할 시 보다 환자의 고통을 덜어주고 보다 빠르게 환자가 회복할 수 있도록 하기 위한 로봇 수술이 연구 및 도입되고 있는 실정이다.
이러한, 로봇 수술 시에는 수술의 위험을 최소화하고 보다 정밀한 수술을 진행할 수 있도록 하기 위하여 환부나 수술도구와 같은 목적물의 공간 위치와 방향을 정확히 추적하여 검출한 후, 상기 수술도구를 환자의 환부로 정확히 조종(NAVIGATE)할 수 있는 내비게이션이 사용된다.
상기와 같은 수술용 내비게이션에는 상술한 바와 같이 환부나 수술도구와 같은 목적물의 공간 위치와 방향을 정확히 추적하여 검출할 수 있는 트랙킹 시스템이 포함된다.
상기와 같은 트랙킹 시스템은 통상 환부나 수술도구와 같은 목적물에 부착되는 마커들과, 상기 마커들에 의해 방출되는 광을 결상시키는 제1, 2 결상 유닛과, 상기 제1, 2 결상 유닛과 연결되어 상기 마커들의 3차원 좌표를 산출한 후, 기 저장된 상기 서로 이웃하는 마커들을 연결하는 직선들의 정보와 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보를 상기 마커들의 3차원 좌표와 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 프로세서를 포함한다.
여기서, 상기 마커들의 3차원 좌표를 프로세서를 통해 산출하기 위해서는 통상적으로 하나의 마커로부터 방출되어 제1 결상 유닛에 결상된 상기 마커의 좌표와 상기 제2 결상 유닛에 결상된 상기 마커의 좌표가 동일하다고 가정하여 삼각법을 통해 검출됨으로써 반드시 2대의 디텍터가 필요하였다.
따라서, 종래의 일반적인 트랙킹 시스템은 서로 다른 위치에서 각각의 마커들로부터 방출되는 광을 결상시키기 위한 2대의 결상 유닛을 구비해야만 함으로써 제작비용의 상승과 더불어 시스템 전체 사이즈가 커지게 됨으로써 수술 공간의 제약을 많이 받는다는 문제점이 있었다.
따라서, 본 발명의 목적은 한 대의 결상유닛만으로도 각각의 마커들의 3차원 좌표를 산출할 수 있도록 하여 제작비용의 감소와 더불어 장비의 컴팩트화를 실현하여 수술 공간의 제약을 최소화할 수 있는 트랙킹 시스템 및 이를 이용한 트랙킹 방법에 관한 것이다.
본 발명의 일실시예에 의한 트랙킹 시스템은 목적물에 부착되어 광을 반사시키는 적어도 3개의 마커와, 상기 마커들을 향해 서로 다른 위치에서 광을 방출하는 한 쌍의 광원과, 상기 한 쌍의 광원으로부터 방출되어 상기 마커들에 의해 반사된 광을 통과시키는 렌즈부와, 상기 렌즈부를 통과한 광을 받아들여 마커 당 한 쌍의 마커 영상들을 결상시키는 결상유닛 및, 상기 결상유닛에 마커 당 결상된 한 쌍의 마커 영상들을 이용하여 상기 마커들의 3차원 좌표를 산출한 후 상기 마커들의 3차원 좌표와 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 목적물의 공간 위치 정보와 방향 정보를 산출하는 프로세서를 포함한다.
한편, 상기 트랙킹 시스템은 상기 렌즈부와 결상유닛 사이에 배치되어 상기 한 쌍의 광원 중 어느 하나의 광원으로부터 방출된 광의 일부를 상기 렌즈부를 통해 상기 마커들의 주심방향으로 방출시키도록 반사시키며, 상기 마커들의 주심방향으로 방출되어 상기 마커들에 의해 재 반사되어 상기 렌즈부를 통해 유입되는 광의 일부를 상기 결상 유닛으로 통과시키는 빔 스플리터를 더 포함할 수 있다.
또한, 상기 트랙킹 시스템은 상기 빔 스플리터 측으로 광을 방출하는 광원과 상기 빔 스플리터 사이에 배치되어 상기 광원으로부터 방출된 광을 확산시키는 디퓨져를 더 포함할 수 있다.
일예를 들면, 상기 결상유닛은 상기 마커들로부터 반사되어 상기 렌즈부와 빔 스플리터를 순차적으로 통과한 광을 받아 들여 마커 당 한 쌍의 영상을 결상시키는 카메라일 수 있다.
일예를 들면, 상기 마커들 간의 기하학적 정보는 상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와, 상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보일 수 있다.
본 발명의 일실시예에 의한 트랙킹 방법은 서로 다른 위치에 배치된 한 쌍의 광원으로부터 적어도 3개의 마커들을 향해 광을 방출하는 단계와, 상기 한 쌍의 광원으로부터 방출되는 광이 상기 마커들에 의해 렌즈부 측으로 반사되는 단계와, 상기 마커들에 의해 반사된 광이 상기 렌즈부를 통과하여 결상유닛에 마커 당 한 쌍의 마커 영상들을 결상시키는 단계와, 상기 결상유닛에 마커 당 한 쌍씩 결상된 마커 영상들을 이용하여 프로세서를 통해 상기 각각의 마커들의 3차원 좌표를 산출하는 단계 및, 상기 각각의 마커들의 3차원 좌표와 상기 프로세서에 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 단계를 포함한다.
여기서, 상기 한 쌍의 광원 중 어느 하나의 광원은 상기 렌즈부와 결상 유닛 사이에 배치된 빔 스플리터 방향으로 광을 방출한 후 상기 빔 스플리터에 의해 광의 일부를 반사시켜 상기 렌즈부를 통해 상기 마커들의 주심방향으로 방출하며, 다른 하나의 광원은 상기 마커들로 직접적으로 광을 방출할 수 있다.
한편, 상기 빔 스플리터 방향으로 방출되는 광은, 상기 빔 스플리터 사이에 배치된 디퓨저에 의해 확산되어 상기 빔 스플리터 측으로 방출될 수 있다.
일예를 들면, 상기 마커들 간의 기하학적 정보는 상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와, 상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보일 수 있다.
일예를 들면, 상기 마커들의 3차원 좌표를 산출하는 단계는 상기 프로세서를 통해 상기 결상 유닛에 결상된 마커 당 한 쌍의 마커 영상의 결상 위치 정보를 이용하여 상기 각 마커들의 2차원 중심 좌표를 산출하는 단계 및, 상기 각 마커의 2차원 중심 좌표를 이용하여 상기 마커들의 3차원 좌표를 산출하는 단계를 포함할 수 있다.
이와 같이 본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은, 서로 다른 위치에 배치된 한 쌍의 광원에 의해 각 마커 당 결상유닛의 서로 다른 위치에 한 쌍의 마커 영상을 결상시킬 수 있으므로, 한 대의 결상유닛만으로도 삼각법을 통해 상기 각 마커들의 3차원 좌표를 산출하여 목적물에 부착된 마커들의 공간 위치 정보와 방향 정보를 산출하여 확인할 수 있다.
그러므로, 트랙킹 시스템의 제작비용의 절감과 더불어 소형 경량화를 이룰 수 있으므로 종래의 트랙킹 시스템에 비하여 수술 공간의 제약을 상대적으로 덜 받는다는 효과가 있다.
도 1은 본 발명의 일실시예에 의한 트랙킹 시스템의 개략도
도 2는 마커들이 목적물에 부착된 예시도
도 3은 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 블록도
도 4는 마커들의 3차원 좌표를 산출하는 과정을 설명하기 위한 블록도
도 5는 3개의 마커들이 렌즈와 수평하게 배열된 상태에서 결상유닛에 마커들의 영상이 결상되는 상태를 설명하기 위한 예시도
도 6은 마커들과 렌즈부와의 거리에 따른 마커 영상의 결상 위치 변화를 설명하기 위한 확대 예시도
도 7은 제1 마커의 2차원 중심 좌표를 산출하는 과정을 설명하기 위한 예시도
도 8은 광이 마커의 표면에서 반사되는 지점과 마커의 중심과의 관계를 설명하기 위한 예시도
도 9는 마커의 표면에서 광이 반사되는 지점의 좌표를 산출하는 과정을 설명하기 위한 예시도
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하 도면을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 환부나 수술도구와 같은 목적물에 적어도 3개의 마커들을 부착한 후 상기 마커들의 3차원 좌표를 산출하여 프로세서에 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보와 상기 마커들의 3차원 좌표를 프로세서를 통해 비교하여 상기 환부나 수술도구와 같은 목적물의 공간 위치 정보와 방향 정보를 산출할 수 있도록 하는 것으로서, 그 상세한 구성에 대해서는 도면을 참조하여 설명한다.
도 1은 본 발명의 일실시예에 의한 트랙킹 시스템의 개략도이며, 도 2는 마커들이 목적물에 부착된 예시도이다.
도 1 및 도 2를 참조하면, 본 발명의 일실시예에 의한 트랙킹 시스템은 적어도 3개의 마커들(110)(111)(112), 적어도 2개의 제1 광원(150) 및, 제2 광원(151), 렌즈부(120), 빔 스플리터(beam splitter : 160), 결상유닛(130) 및 프로세서(140) 등을 포함할 수 있다.
상기 적어도 3개의 마커들(110)(111)(112)은 환자의 환부나 수술도구와 같은 목적물(200)에 부착된다. 여기서, 상기 적어도 3개의 마커들(110)(111)(112)은 서로 이웃하는 마커들(110)(111)(112) 간에 일정 간격 이격되며, 서로 이웃하는 마커들(110)(111)(112)을 가상으로 연결하여 각 마커(110)(111)(112)마다 이웃하는 가상의 한 쌍의 직선들(L1)(L2)(L3)이 일정한 각도(A1)(A2)(A3)를 이루도록 배치되어 상기 환부나 수술도구와 같은 목적물(200)에 부착된다.
여기서, 상기 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보, 즉 서로 이웃하는 마커들(110)(111)(112)을 연결하는 직선들(L1)(L2)(L3)의 길이 정보와 서로 이웃하는 마커들(110)(111)(112)을 연결하는 이웃하는 한 쌍의 직선들이 이루는 각도(A1)(A2)(A3) 정보는 상기 프로세서(140)에 실장된 메모리(memory : 141)에 기 저장된다.
예를 들면, 상기 마커들(110)(111)(112)은 3개가 환부나 수술도구와 같은 목적물(200)에 삼각형 형태로 부착될 수 있으며, 상기 3개의 마커들(110)(111)(112)을 꼭지점으로 하는 삼각형의 변을 이루는 각각의 직선(L1)(L2)(L3)의 길이 정보와, 상기 마커들(110)(111)(112)을 연결하는 가상의 서로 이웃하는 한 쌍의 직선이 이루는 각도(A1)(A2)(A3) 정보는 상기 프로세서(140)에 포함된 메모리(141)에 기 저장될 수 있다.
한편, 상기 마커들(110)(111)(112)은 적어도 상기 제1, 2 광원(150)(151)으로부터 방출되는 광을 반사시키는 패시브(passive) 마커일 수 있다.
상기 제1, 2 광원(150)(151)은 상기 마커들(110)(111)(112)을 향해 서로 다른 위치에서 광을 방출한다. 예를 들면, 상기 제1 광원(150)은 상기 마커들(110)(111)(112)을 향해 직접적으로 광을 방출할 수 있으며, 상기 제2 광원(151)은 상기 렌즈부(120)와 상기 결상유닛(130) 사이에 위치하도록 배치되어 상기 렌즈부(120)와 상기 결상유닛(130) 사이에 배치되는 빔 스플리터(160)를 향하도록 광을 방출할 수 있다. 상기 제 2 광원(151)으로부터 방출된 광은 빔 스플리터(160)에 의해 광의 일부가 반사되어 상기 렌즈부(120)를 통과한 후 상기 마커들(110)(111)(112)의 주심 방향으로 광을 방출할 수 있도록 한다.
즉, 제2 광원(151)으로부터 방출된 광의 그 일부는 상기 빔 스플리터(160)에 의해 반사되어 렌즈부(120)를 통해 상기 마커들(110)(111)(112)의 주심 방향으로 방출되고 나머지는 상기 빔 스플리터(160)를 통과하게 된다.
이와는 다르게, 상기 제2 광원(151)이 상기 마커들(110)(111)(112)에 직접적으로 방출될 수 있으며, 제1 광원(150)이 빔 스플리터(160)로 광을 방출하여 상기 렌즈부(130)를 통해 상기 마커들(110)(111)(112)의 주심 방향으로 광을 방출할 수도 있다.
예를 들면, 상기 제1, 2 광원(150)(151)으로는 상기 마커들(110)(111)(112)의 전체 표면 중에서 단 한 점에서 반사되는 점 조명을 사용하는 것이 바람직하다.
상기 렌즈부(120)는 상기 제1 광원(150)과 제2 광원(151) 중 선택된 어느 하나의 광원으로부터 상기 마커들(110)(111)(112)에 직접적으로 방출되어 반사되는 광과, 다른 하나의 광원으로부터 방출된 후 상기 빔 스플리터(160)에 의해 반사되어 렌즈부(120)를 통해 상기 마커들(110)(111)(112)의 주심 방향으로 방출되어 재 반사되는 광을 통과시킨다.
상기 빔 스플리터(160)는 상기 렌즈부(120)의 후방부에 배치된다. 상기 빔 스플리터(160)는 상기 제1 광원(150)과 제2 광원(151) 중 선택된 어느 하나의 광원으로부터 방출되는 광의 일부는 통과시키고 나머지는 반사시켜 렌즈부(120)를 통과한 후 상기 마커들(110)(111)(112)의 주심방향으로 방출되도록 한다.
상기 결상유닛(130)은 상기 빔 스플리터(160)의 후방부에 배치되어 상기 렌즈부(120)와 빔 스플리터(160)를 순차적으로 통과한 광을 받아들여 상기 각 마커(110)(111)(112) 당 한 쌍의 마커 영상들을 결상시킨다.
즉, 상기 결상유닛(130)은 상기 빔 스플리터(160)의 후방부에 배치되어 상기 제1 광원(150)과 제2 광원(152) 중 선택된 어느 하나의 광원으로부터 상기 마커들(110)(111)(112)에 직접적으로 방출되어 반사된 후 상기 렌즈부(120)와 빔 스플리터(160)를 순차적으로 통과한 광과, 다른 하나의 광원으로부터 빔 스플리터(160)로 방출되고 반사되어 렌즈부(120)를 통과한 후 상기 마커들(110)(111)(112)의 주심 방향으로 방출되어 재 반사된 다음 상기 렌즈부(120)와 빔 스플리터(160)를 순차적으로 통과한 광을 받아들임으로써 각 마커(110)(111)(112) 당 한 쌍의 마커 영상들을 결상시킨다.
여기서, 상기 제1, 2 광원(150)(151)으로부터 방출된 후 상기 마커들(110)(111)(112)에 의해 반사되어 렌즈부(120)를 통과하여 상기 빔 스플리터(160)에 유입되는 광은, 상기 빔 스플리터(160)에 의해 일부는 반사되고, 나머지는 상기 빔 스플리터(160)를 통과한 후 상기 결상유닛(130)으로 유입되어 각 마커(110)(111)(112) 당 한 쌍의 마커 영상들을 결상시키게 된다.
예를 들면, 상기 결상유닛(130)은 상기 제1, 2 광원(150)(151)으로부터 방출된 후 상기 마커들(110)(111)(112)에 의해 반사되어 상기 렌즈부(120)와 빔 스플리터(160)를 순차적으로 통과한 광을 받아 들여 각 마커(110)(111)(112) 당 한 쌍의 마커 영상을 결상시키는 이미지 센서(131)가 실장된 카메라일 수 있다.
한편, 상기 제1, 2 광원(150)(151) 중 상기 빔 스플리터(160)로 광을 방출하는 어느 하나의 광원과 상기 빔 스플리터(160) 사이에는 디퓨져(diffuser : 170)가 배치되어 상기 빔 스플리터(160) 측으로 방출되는 광을 확산시킬 수도 있다.
상기 프로세서(140)는 제1, 2 광원(150)(151)으로부터 방출되어 각각 마커들(110)(111)(112)에 의해 반사되어 상기 결상유닛(130)에 결상된 각 마커(110)(111)(112) 당 한 쌍의 마커 영상을 이용하여 상기 각 마커들(110)(111)(112)의 3차원 좌표를 산출하며, 상기 마커들(110)(111)(112)의 3차원 좌표를 기 저장된 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보와 비교함으로써 마커들(110)(111)(112)이 부착된 환부나 수술도구와 같은 상기 목적물(200)의 공간 위치 정보와 방향 정보를 산출할 수 있다.
여기서, 상기 프로세서(140)에는 메모리(141)가 실장된다. 한편, 상기 프로세서(140)에 실장된 메모리(141)에는 상기 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보, 즉 서로 이웃하는 마커들(110)(111)(112)을 연결하는 직선들(L1)(L2)(L3)의 길이 정보와 서로 이웃하는 마커들(110)(111)(112)을 연결하는 이웃하는 한 쌍의 직선들이 이루는 각도(A1)(A2)(A3) 정보가 기 저장될 수 있다.
이에 더하여, 상기 프로세서(140)에 실장된 메모리(141)에는 상기 제1, 2 광원(150)(151)의 공간 위치 정보와 방향 정보가 기 저장될 수 있다.
하기에서는 도 1 내지 도 8을 참조하여 본 발명의 일실시예에 의한 트랙킹 시스템을 이용하여 목적물의 공간 위치와 방향을 트랙킹하는 과정에 대해 설명하도록 한다.
도 3은 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 블록도이며, 도 4는 마커들의 3차원 좌표를 산출하는 과정을 설명하기 위한 블록도이고, 도 5는 3개의 마커들이 렌즈와 수평하게 배열된 상태에서 결상유닛에 마커들의 영상이 결상되는 상태를 설명하기 위한 예시도이며, 도 6은 마커들과 렌즈부와의 거리에 따른 마커 영상의 결상 위치 변화를 설명하기 위한 확대 예시도이고, 도 7은 제1 마커의 2차원 중심 좌표를 산출하는 과정을 설명하기 위한 예시도이며, 도 8은 광이 마커의 표면에서 반사되는 지점과 마커의 중심과의 관계를 설명하기 위한 예시도이고, 도 9는 마커의 표면에서 광이 반사되는 지점의 좌표를 산출하는 과정을 설명하기 위한 예시도이다.
이하, 본 발명의 일실시예에서는 설명의 편의를 위하여 제1 광원은 마커들에 직접적으로 광을 방출하도록 배치되며, 제2 광원은 빔 스플리터를 통해 상기 마커들에 광을 방출하도록 배치된 상태를 예를 들어 설명한다.
도 1 내지 도 9를 참조하면, 본 발명의 일실시예에 의한 트랙킹 시스템을 이용하여 목적물의 공간 위치 정보와 방향 정보를 트랙킹 하기 위해서는, 먼저, 서로 다른 위치에 배치된 제1, 2 광원(150)(151)을 작동시켜 상기 제1, 2 광원(150)(151)으로부터 상기 제1 내지 제3 마커들(110)(111)(112)을 향해 광을 방출한다.(S110)
보다 상세하게 설명하면, 상기 제1 광원(150)이 작동되어 방출되는 점 조명은 상기 제1 내지 제3 마커들(110)(111)(112)에 직접적으로 조사되며, 상기 제2 광원(151)이 작동되어 방출되는 점 조명은 빔 스플리터(160)에 조사되어 일부는 상기 빔 스플리터(160)를 통과하고 나머지는 상기 빔 스플리터(160)에 의해 반사되어 렌즈부(120)를 통과한 후 상기 제1 내지 제3 마커들(110)(111)(112)의 주심방향을 향해 방출된다.
상기 제1, 2 광원(150)(151)으로부터 점 조명 형태로 상기 마커들(110)(111)(112)을 향해 방출된 광은 상기 제1 내지 제3 마커들(110)(111)(112)에 의해 반사되어 렌즈부(120) 측으로 반사된다.(S120)
보다 상세하게 설명하면, 상기 제1 광원(150)으로부터 방출된 광은 직접적으로 상기 제1 내지 제3 마커들(110)(111)(112)의 표면 중 한 지점에 의해 반사되어 제1 내지 제3 광 경로(AX1)(AX2)(AX3)를 통해 렌즈부(120) 측으로 반사되며, 상기 제2 광원(151)으로부터 방출된 광은 상기 빔 스플리터(160)에 조사되어 일부는 상기 빔 스플리터(160)를 통과하고 나머지는 상기 빔 스플리터(160)에 의해 반사되어 제4 내지 제6 광 경로(AX4)(AX5)(AX6)를 통해 상기 렌즈부(120)를 통과한 후 상기 제1 내지 제3 마커들(110)(111)(112)의 주심방향을 향해 방출된다.
상기 제1 내지 제6 광 경로(AX1)(AX2)(AX3)(AX4)(AX5)(AX6)를 통해 상기 렌즈부(120)를 통과한 광들은 결상유닛(130)에 마커(110)(111)(112) 당 한 쌍의 마커 영상들을 결상시킨다.(S130)
보다 상세하게 설명하면, 상기 제1 광원(150)으로부터 방출되어 제1 광 경로(AX1)를 통해 상기 제1 마커(110)에 의해 반사되어 렌즈부(120)를 통과한 광은 상기 결상유닛(130)에 제1 마커(110)의 제1 마커 영상을 결상시키고, 상기 제2 광원(151)으로부터 방출되어 제4 광 경로(AX4)를 통해 상기 제1 마커(110)에 의해 반사되어 렌즈부(120)를 통과한 광은 상기 결상유닛(130)에 상기 제1 마커(110)의 제2 마커 영상을 결상시킨다. 또한, 상기 제1 광원(151)으로부터 방출되어 제2 광 경로(AX2)를 통해 상기 제2 마커(111)에 의해 반사되어 렌즈부(120)를 통과한 광은 상기 결상유닛(130)에 제2 마커(111)의 제1 마커 영상을 결상시키고, 상기 제2 광원(151)으로부터 방출되어 제5 경로(AX5)를 통해 상기 제2 마커(111)에 의해 반사되어 렌즈부(120)를 통과한 광은 상기 결상유닛(130)에 상기 제2 마커(111)의 제2 마커 영상을 결상시킨다. 또한, 상기 제1 광원(150)으로부터 방출되어 제3 광 경로(AX3)를 통해 상기 제3 마커(112)에 의해 반사되어 렌즈부(120)를 통과한 광은 상기 결상유닛(130)에 제3 마커(112)의 제1 마커 영상을 결상시키고, 상기 제2 광원(151)으로부터 방출되어 제6 광 경로(AX6)를 통해 상기 제3 마커(112)에 의해 반사되어 렌즈부(120)를 통과한 광은 상기 결상유닛(130)에 상기 제3 마커(112)의 제2 마커 영상을 결상시킨다.
상기와 같이 제1 내지 제3 마커들(110)(111)(112)의 제1, 2 마커 영상들이 상기 결상유닛(130)에 결상된 다음에는, 상기 결상유닛(130)에 결상된 상기 제1 내지 제3 마커들(110)(111)(112)의 제1, 2 마커 영상들을 이용하여 프로세서(140)를 통해 상기 제1 내지 제3 마커들(110)(111)(112)의 3차원 좌표를 산출하게 된다.(S140)
상기 제1 내지 제3 마커들(110)(111)(112)의 3차원 좌표를 산출하는 단계에 대하여 보다 상세하게 설명하면 다음과 같다.
상기 각 마커들(110)(111)(112)의 3차원 좌표를 산출하기 위해서는, 먼저 상기 프로세서(140)를 통해 상기 결상유닛(130)에 결상된 각 마커들(110)(111)(112)의 제1, 2 마커 영상의 결상 위치 정보를 이용하여 상기 각 마커들(110)(111)(112)의 2차원 중심 좌표를 산출한다.(S141)
상기 각 마커들(110)(111)(112)의 2차원 중심 좌표를 산출하는 과정에 대하여 보다 상세하게 설명한다. 설명의 편의를 위하여 도 5 및 도 6에서는 제1 내지 제3 마커가 렌즈부와 수평하게 일렬로 배치된 경우를 일예를 들어 설명한다. 그리고, 상기 마커들이 렌즈부와 수평하게 일렬로 배치된 상태에 대하여 설명함으로써 도면에서 빔 스플리터는 생략 하였다.
또한, 도 1에 도시된 바와 같이 제2 광원(151)으로부터 각 마커들(110)(111)(112)의 주심방향으로 방출 후 상기 각 마커들(110)(111)(112)에 의해 반사되어 제4 내지 제6 광 경로(AX4)(AX5)(AX6)를 통해 결상유닛(130)으로 유입되어 결상된 제1 내지 제3 마커(110)(111)(112)의 제2 마커 영상들의 결상위치에 대해 도 5 및 도 6에서는 렌즈부(120)의 센터라인(CL)과 일츠하게 되므로 생략하였다.
도 5 및 도 6에 도시된 바와 같이 제1 광원(150)으로부터 방출된 광원은 제1 내지 제3 광 경로(AX1)(AX2)(AX3)를 통해 각 마커들(110)(111)(112)의 서로 다른 지점의 표면에서 반사되어 상기 결상유닛(130)에 결상된다. 그러므로, 상기 제1 광원(150)으로부터 방출된 후 상기 각 마커들(110)(111)(112)에 의해 반사되어 제1 내지 제3 광 경로(AX1)(AX2)(AX3)를 통해 렌즈부(120)를 통과한 후 결상유닛(130)으로 유입되어 결상된 제1 내지 제3 마커(110)(111)(112)의 제1 마커 영상들은 상기 결상유닛(130) 내에서 서로 다른 위치에 결상된다.
따라서, 상기 프로세서(140)는 상기 각 마커들(110)(111)(112)의 제1 마커 영상의 결상 위치 정보, 상기 제2 마커 영상의 결상 위치 정보, 상기 프로세서(140)에 기 저장된 상기 제1, 2 광원(150)(151)의 위치 정보 및, 상기 제1 내지 제3 마커들(110)(111)(112)의 반경 정보를 이용하여 상기 각 마커들(110)(111)(112)의 2차원 중심 좌표를 산출할 수 있다.
상기 프로세서에 의해 마커들의 2차원 중심 좌표가 산출되는 과정에 대하여 상세하게 설명하면 다음과 같다.
도 7에 도시된 바와 같이 마커들(110)(111)(112)의 2차원 중심 좌표를 x, y라 하고, 제1 광원(150)의 좌표를 I1, J1이라 하며, 제2 광원(151)의 좌표를 I2, J2라고 하며, 제1 광원(150)에 의해 방출된 후 제1 마커(110)에 의해 반사되어 결상유닛(130)에 결상된 상기 제1 마커 영상의 좌표를 U1, V1이라하고, 제2 광원(151)에 의해 방출된 후 상기 제1 마커(110)에 의해 반사되어 결상유닛(130)에 결상된 제2 마커 영상의 좌표를 U2, V2라 하며, 상기 제1 광원(150)으로부터 방출된 광원이 제1 마커(110)에 의해 반사되는 지점의 좌표를 x1, y1이라 하고, 제2 광원(151)으로부터 방출된 광원이 상기 제1 마커(110)에 의해 반사되는 지점의 좌표를 X2, Y2라 하면, U1, V1에서 x1, y1을 향하는 벡터인
Figure PCTKR2014000979-appb-I000001
, U2, V2에서 X2, Y2를 향하는 벡터인
Figure PCTKR2014000979-appb-I000002
, I1, J1에서 x1, y1을 향하는 벡터인
Figure PCTKR2014000979-appb-I000003
, I2, J2에서 X2, Y2를 향하는 벡터인
Figure PCTKR2014000979-appb-I000004
는 <수학식 1>과 같이 표현될 수 있다.
수학식 1
Figure PCTKR2014000979-appb-M000001
한편, U1, V1과 x1, y1을 포함하는 직선
Figure PCTKR2014000979-appb-I000005
,U2, V2와 X2, Y2를 포함하는 직선
Figure PCTKR2014000979-appb-I000006
, 점 I1, J1과 x1, y1을 포함하는 직선
Figure PCTKR2014000979-appb-I000007
, I2, J2와 X2, Y2를 포함하는 직선
Figure PCTKR2014000979-appb-I000008
는 <수학식 2>와 같이 표현될 수 있다.
수학식 2
Figure PCTKR2014000979-appb-M000002
여기서, t1, t2는 그 직선의 길이를 결정하는 값이다.
한편,
Figure PCTKR2014000979-appb-I000009
는 <수학식 3>과 같이 표현될 수도 있다.
수학식 3
Figure PCTKR2014000979-appb-M000003
그리고 도 7 및 도 8을 참조하면, 상기 제1 광원(150 : 도 7 참조) 또는 제2 광원(151 : 도 7 참조)으로부터 방출되어 제1 마커(110)에 의해 반사되는 지점의 좌표 x1, y1는 x, y 중심을 가지는 반경 r위에 존재해야 하며, 상기 x1, y1에 입력되는 벡터의 합이 x1, y1과 제1 마커(110)의 중심 좌표 x, y를 연결하는 벡터와 방향이 일치해야 함으로써 반경 r제곱은 수학식 4와 같이 표현될 수 있으며, x, y에서 x1, y1을 향하는 벡터인
Figure PCTKR2014000979-appb-I000010
와, x, y에서 x2, y2를 향하는 벡터인
Figure PCTKR2014000979-appb-I000011
는 <수학식 5>와 같이 표현될 수 있다.
수학식 4
Figure PCTKR2014000979-appb-M000004
수학식 5
Figure PCTKR2014000979-appb-M000005
한편, <수학식 4>와 <수학식 5>에 개시된 4개의 수학식을 이용하면, x, y, t1, t2에 대한 오차 E는 <수학식 6>과 같이 표현될 수 있다.
수학식 6
Figure PCTKR2014000979-appb-M000006
상기 <수학식 6>에서 변수는 t1, t2, x, y 이므로 프로세서(140)에 의해 제1 마커(110)의 2차원 중심 좌표인 x, y가 산출된다.
상기 프로세서(140)는 상술한 바와 같은 과정을 반복하여 제2 마커(111)와 제3 마커(112)의 2차원 중심 좌표도 산출하게 된다.
한편, 상기 제1 광원(150) 또는 제2 광원(151)으로부터 방출된 광이 제1 마커(110)의 표면에서 반사되는 지점의 좌표를 산출하는 과정에 대하여 설명한다.
도 9에 도시된 바와 같이 제1 마커(110)의 반지름을 'r'이라고 하고, 렌즈부(120)의 중심 좌표를 (0, 0) 이라하며, 제1 광원(150)의 위치를 (0, d)라 하고, 제1 마커(110)의 중심을 (e, f)라 하며, 제1 광원(150)으로부터 방출된 광이 제1 마커(150)의 표면에서 반사되는 지점의 좌표를 (x, y)라 한다.
수학식 7
Figure PCTKR2014000979-appb-M000007
따라서, 제1 마커(150)의 반지름의 제곱은 수학식 7의 (1)과 같이 표현되며, 수학식 (1)은 다시 <수학식 7>의 (2) 내지 (4)와 같이 표현될 수 있고, <수학식 7>의 (4)의 해를 구하게 되면, 상기 제1 광원(150)으로부터 방출된 광이 제1 마커(110)의 표면에서 반사되는 지점의 y축 좌표가 산출된다.
한편, 상기 <수학식 7>의 (1)을 x에 대하여 정리하여 그 해를 구하게 되면 상기 제1 광원(150)으로부터 방출된 광이 제1 마커(110)의 표면에서 반사되는 지점의 x축 좌표가 산출된다.
따라서, 상기 프로세서(140)는 상술한 바와 같은 과정을 반복하여 제1 광원(150)과 제2 광원(151)에 의해 방출되어 제1 내지 제3 마커(110)(111)(112)의 표면에서 반사되는 지점의 좌표를 산출할 수 있다.
이후, 상기 제1 내지 제3 마커(110)(111)(112)의 2차원 좌표를 이용하여 상기 프로세서(140)를 통해 상기 제1 내지 제3 마커들(110)(111)(112)의 3차원 좌표를 산출하게 된다.(S142)
상술한 바와 같이 프로세서(140)에 의해 제1 내지 제3 마커들(110)(111)(112)의 3차원 좌표를 산출한 다음에는, 상기 각각의 마커들(110)(111)(112)의 3차원 좌표와 상기 프로세서(140)에 기 저장된 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보를 프로세서(140)를 통해 비교하여 상기 마커들(110)(111)(112)이 부착된 목적물(200)의 공간 위치와 방향을 산출하게 된다.(S150)
여기서, 상기 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보는 상술한 바와 같이 서로 이웃하는 마커들(110)(111)(112)을 가상으로 연결하는 직선들(L1)(L2)(L3)의 길이 정보와, 상기 마커들(110)(111)(112)을 연결하는 서로 이웃하는 한 쌍의 직선이 이루는 각도(A1)(A2)(A3) 정보일 수 있다.
즉, 상기 프로세서(140)를 통해 상기 각각의 마커들(110)(111)(112)의 3차원 좌표와 상기 프로세서(140)에 기 저장된 서로 이웃하는 마커들(110)(111)(112)을 가상으로 연결하는 직선들(L1)(L2)(L3)의 길이 정보와, 각 마커들(110)(111)(112)을 서로 연결하는 서로 이웃하는 한 쌍의 직선이 이루는 각도(A1)(A2)(A3) 정보를 비교하여 상기 마커들(110)(111)(112)이 부착된 목적물(200)의 공간 위치 정보와 방향 정보를 산출하게 된다.
상술한 바와 같이 본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은, 서로 다른 위치에 배치된 한 쌍의 광원(150)(151) 중 어느 하나의 광원은 각 마커들(110)(111)(112)의 표면상의 어느 한 지점에 직접적으로 광을 방출하여 렌즈부(120) 측으로 반사시켜 결상유닛(130)에 각 마커(110)(111)(112)의 제1 마커 영상이 결상되도록 하고, 다른 하나의 광원은 렌즈부(120)를 통해 각 마커들(110)(111)(112)의 주심 방향을 향하도록 광을 방출하여 다시 렌즈부(120) 측으로 재 반사시켜 상기 결상유닛(130)에 각 마커(110)(111)(112)의 제2 마커 영상이 결상되도록 함으로써 각 마커(110)(111)(112) 당 한 한 쌍의 마커 영상이 결상유닛에 결상되도록 한다.
즉, 하나의 마커(110)(111)(112) 당 결상유닛(130)의 서로 다른 위치에 한 쌍의 마커 영상이 결상됨으로써 한 대의 결상유닛(130)만으로도 삼각법을 통해 상기 각 마커들(110)(111)(112)의 3차원 좌표를 산출할 수 있다.
따라서, 본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 한 대의 결상유닛(130)만으로도 목적물(200)에 부착된 마커들(110)(111)(112)의 공간 위치 정보와 방향 정보를 산출하여 확인할 수 있다.
그러므로, 트랙킹 시스템의 제작비용의 절감과 더불어 소형 경량화를 이룰 수 있으므로 종래의 트랙킹 시스템에 비하여 수술 공간의 제약을 상대적으로 덜 받는다는 장점이 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (10)

  1. 목적물에 부착되어 광을 반사시키는 적어도 3개의 마커;
    상기 마커들을 향해 서로 다른 위치에서 광을 방출하는 한 쌍의 광원;
    상기 한 쌍의 광원으로부터 방출되어 상기 마커들에 의해 반사된 광을 통과시키는 렌즈부;
    상기 렌즈부를 통과한 광을 받아들여 마커 당 한 쌍의 마커 영상들을 결상시키는 결상유닛; 및
    상기 결상유닛에 마커 당 결상된 한 쌍의 마커 영상들을 이용하여 상기 마커들의 3차원 좌표를 산출한 후 상기 마커들의 3차원 좌표와 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 목적물의 공간 위치 정보와 방향 정보를 산출하는 프로세서를 포함하는 트랙킹 시스템.
  2. 제 1 항에 있어서,
    상기 렌즈부와 결상유닛 사이에 배치되어,
    상기 한 쌍의 광원 중 어느 하나의 광원으로부터 방출된 광의 일부를 상기 렌즈부를 통해 상기 마커들의 주심방향으로 방출시키도록 반사시키며,
    상기 마커들의 주심방향으로 방출되어 상기 마커들에 의해 재 반사되어 상기 렌즈부를 통해 유입되는 광의 일부를 상기 결상 유닛으로 통과시키는 빔 스플리터를 더 포함하는 트랙킹 시스템.
  3. 제 2 항에 있어서,
    상기 빔 스플리터 측으로 광을 방출하는 광원과 상기 빔 스플리터 사이에 배치되어 상기 광원으로부터 방출된 광을 확산시키는 디퓨져를 더 포함하는 트랙킹 시스템.
  4. 제 1 항에 있어서,
    상기 결상유닛은,
    상기 마커들로부터 반사되어 상기 렌즈부와 빔 스플리터를 순차적으로 통과한 광을 받아 들여 마커 당 한 쌍의 영상을 결상시키는 카메라인 것을 특징으로 하는 트랙킹 시스템.
  5. 제 1 항에 있어서,
    상기 마커들 간의 기하학적 정보는,
    상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와,
    상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보인 것을 특징으로 하는 트랙킹 시스템.
  6. 서로 다른 위치에 배치된 한 쌍의 광원으로부터 적어도 3개의 마커들을 향해 광을 방출하는 단계;
    상기 한 쌍의 광원으로부터 방출되는 광이 상기 마커들에 의해 렌즈부 측으로 반사되는 단계;
    상기 마커들에 의해 반사된 광이 상기 렌즈부를 통과하여 결상유닛에 마커 당 한 쌍의 마커 영상들을 결상시키는 단계;
    상기 결상유닛에 마커 당 한 쌍씩 결상된 마커 영상들을 이용하여 프로세서를 통해 상기 각각의 마커들의 3차원 좌표를 산출하는 단계; 및
    상기 각각의 마커들의 3차원 좌표와 상기 프로세서에 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 단계를 포함하는 트랙킹 방법.
  7. 제 6 항에 있어서,
    상기 한 쌍의 광원 중 어느 하나의 광원은 상기 렌즈부와 결상 유닛 사이에 배치된 빔 스플리터 방향으로 광을 방출한 후 상기 빔 스플리터에 의해 광의 일부를 반사시켜 상기 렌즈부를 통해 상기 마커들의 주심방향으로 방출하며,
    다른 하나의 광원은 상기 마커들로 직접적으로 광을 방출하는 것을 특징으로 하는 트랙킹 방법.
  8. 제 7 항에 있어서,
    상기 빔 스플리터 방향으로 방출되는 광은, 상기 빔 스플리터 사이에 배치된 디퓨저에 의해 확산되어 상기 빔 스플리터 측으로 방출되는 것을 특징으로 하는 트랙킹 방법.
  9. 제 6 항에 있어서,
    상기 마커들 간의 기하학적 정보는,
    상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와,
    상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보인 것을 특징으로 하는 트랙킹 방법.
  10. 제 6 항에 있어서,
    상기 마커들의 3차원 좌표를 산출하는 단계는,
    상기 프로세서를 통해 상기 결상 유닛에 결상된 마커 당 한 쌍의 마커 영상의 결상 위치 정보를 이용하여 상기 각 마커들의 2차원 중심 좌표를 산출하는 단계; 및
    상기 각 마커의 2차원 중심 좌표를 이용하여 상기 마커들의 3차원 좌표를 산출하는 단계를 더 포함하는 것을 특징으로 하는 트랙킹 방법.
PCT/KR2014/000979 2013-02-21 2014-02-05 트랙킹 시스템 및 이를 이용한 트랙킹 방법 WO2014129760A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480008932.9A CN105073056A (zh) 2013-02-21 2014-02-05 跟踪系统及利用其的跟踪方法
EP14753937.3A EP2959857A4 (en) 2013-02-21 2014-02-05 Tracking system and tracking method using same
US14/376,712 US20160228198A1 (en) 2013-02-21 2014-02-05 Tracking system and tracking method using the same
JP2015559174A JP5998294B2 (ja) 2013-02-21 2014-02-05 トラッキングシステム及びこれを用いたトラッキング方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130018469A KR101446173B1 (ko) 2013-02-21 2013-02-21 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR10-2013-0018469 2013-02-21

Publications (1)

Publication Number Publication Date
WO2014129760A1 true WO2014129760A1 (ko) 2014-08-28

Family

ID=51391504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/000979 WO2014129760A1 (ko) 2013-02-21 2014-02-05 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Country Status (6)

Country Link
US (1) US20160228198A1 (ko)
EP (1) EP2959857A4 (ko)
JP (1) JP5998294B2 (ko)
KR (1) KR101446173B1 (ko)
CN (1) CN105073056A (ko)
WO (1) WO2014129760A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018206406B3 (de) 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
JP7457692B2 (ja) * 2018-08-01 2024-03-28 ブレイン ナビ バイオテクノロジー カンパニー リミテッド 手術を実行するためにロボットアームアセンブリの手術経路を更新するためのシステムの作動方法及びそのシステム、並びに記憶媒体
DE102021104219A1 (de) * 2021-02-23 2022-08-25 Nano4Imaging Gmbh Erkennung einer in biologisches Gewebe eingeführten Vorrichtung mit medizinischer Bildgebung
DE102021202951A1 (de) 2021-03-25 2022-09-29 Carl Zeiss Meditec Ag Medizinisches Gerät zur Ermittlung der räumlichen Lage eines flächig ausgebildeten Markers

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050015005A1 (en) * 2003-04-28 2005-01-20 Kockro Ralf Alfons Computer enhanced surgical navigation imaging system (camera probe)
JP2007130398A (ja) * 2005-11-14 2007-05-31 Toshiba Corp 光学式位置計測装置
US20070183041A1 (en) * 2006-02-09 2007-08-09 Northern Digital Inc. Retroreflective marker-tracking systems
KR20110118640A (ko) * 2008-12-31 2011-10-31 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 기기 트래킹을 위한 컨피규레이션 마커 디자인 및 탐지

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4735497A (en) * 1983-07-01 1988-04-05 Aoi Systems, Inc. Apparatus for viewing printed circuit boards having specular non-planar topography
JPH11160027A (ja) * 1997-11-25 1999-06-18 Todaka Seisakusho:Kk 球状物体の高さ測定装置、およびその測定方法
US6061644A (en) * 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
US6081371A (en) * 1998-01-06 2000-06-27 Olympus Optical Co., Ltd. Surgical microscope including a first image and a changing projection position of a second image
JP4141627B2 (ja) * 2000-09-11 2008-08-27 富士フイルム株式会社 情報獲得方法、画像撮像装置及び、画像処理装置
DE10252837B4 (de) * 2002-11-13 2005-03-24 Carl Zeiss Untersuchungssystem und Untersuchungsverfahren
JP4226452B2 (ja) * 2003-12-10 2009-02-18 インフォコム株式会社 光学式手術用ナビゲーションシステム及び方法とそれに用いられる反射球マーカ
EP1872735B1 (de) * 2006-06-23 2016-05-18 Brainlab AG Verfahren zum automatischen Identifizieren von Instrumenten bei der medizinischen Navigation
EP2149266A1 (en) * 2007-04-23 2010-02-03 California Institute of Technology Single-lens, single-aperture, single-sensor 3-d imaging device
JP5208075B2 (ja) * 2008-10-20 2013-06-12 富士フイルム株式会社 光波干渉測定装置
CN201422889Y (zh) * 2009-05-22 2010-03-17 许杰 手术导航设备
EP2298223A1 (en) * 2009-09-21 2011-03-23 Stryker Leibinger GmbH & Co. KG Technique for registering image data of an object
JP2012223363A (ja) * 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
US20140378843A1 (en) * 2012-01-20 2014-12-25 The Trustees Of Dartmouth College Method And Apparatus For Quantitative Hyperspectral Fluorescence And Reflectance Imaging For Surgical Guidance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050015005A1 (en) * 2003-04-28 2005-01-20 Kockro Ralf Alfons Computer enhanced surgical navigation imaging system (camera probe)
JP2007130398A (ja) * 2005-11-14 2007-05-31 Toshiba Corp 光学式位置計測装置
US20070183041A1 (en) * 2006-02-09 2007-08-09 Northern Digital Inc. Retroreflective marker-tracking systems
KR20110118640A (ko) * 2008-12-31 2011-10-31 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 기기 트래킹을 위한 컨피규레이션 마커 디자인 및 탐지

Also Published As

Publication number Publication date
EP2959857A1 (en) 2015-12-30
KR20140104688A (ko) 2014-08-29
JP5998294B2 (ja) 2016-09-28
EP2959857A4 (en) 2017-01-18
US20160228198A1 (en) 2016-08-11
JP2016507340A (ja) 2016-03-10
KR101446173B1 (ko) 2014-10-01
CN105073056A (zh) 2015-11-18

Similar Documents

Publication Publication Date Title
US11408728B2 (en) Registration of three-dimensional coordinates measured on interior and exterior portions of an object
WO2014112782A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
WO2014129760A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US8874406B2 (en) Optical measurement system
JP5123932B2 (ja) 回動鏡を備えるカメラ利用6自由度標的計測装置及び標的追尾装置
JP4396564B2 (ja) 物体のモニタリング方法およびこれを用いたモーショントラッカ
KR20170130320A (ko) 터치 프로브에 대하여 시각 시스템을 켈리브레이팅하기 위한 시스템 및 방법
WO2011087337A2 (ko) 기판 검사장치
WO2014109520A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
JPH0615968B2 (ja) 立体形状測定装置
WO2016163840A1 (ko) 3차원 형상 측정장치
US11400602B2 (en) Robot system
WO2017022901A1 (ko) 3차원 점군 데이터에 기반한 치수 측정 장치 및 방법
JP2001148025A5 (ko)
WO2016085281A1 (ko) 이동체의 3차원 자세 및 위치 인식 장치
WO2015046669A1 (en) Head mounted display device and method of controlling the same
WO2015115770A1 (ko) 캘리브레이션 장치 및 카메라 시스템
WO2022164013A1 (ko) 구강 스캐너
WO2016093415A1 (ko) 거리 측정 장치 및 거리 측정 방법
WO2016163669A1 (ko) 공작기계 좌표설정장치 및 방법
JPH0769144B2 (ja) 三次元位置測定方式
WO2017200289A1 (ko) 360도 이미지를 형성할 수 있는 렌즈 모듈, 360도 이미지 형성 방법, 이 방법을 실행하는 컴퓨터 프로그램, 및 이 컴퓨터 프로그램을 저장하는 저장 매체
JP3459969B2 (ja) 球ジョイントの角度検出装置
WO2023121262A1 (ko) 라이더 센서 장치 및 이를 구비한 전자 장치
WO2023075543A1 (ko) 구강 스캐너

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480008932.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 14376712

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14753937

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015559174

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014753937

Country of ref document: EP