WO2016028095A1 - 도구의 위치 추적장치 - Google Patents

도구의 위치 추적장치 Download PDF

Info

Publication number
WO2016028095A1
WO2016028095A1 PCT/KR2015/008682 KR2015008682W WO2016028095A1 WO 2016028095 A1 WO2016028095 A1 WO 2016028095A1 KR 2015008682 W KR2015008682 W KR 2015008682W WO 2016028095 A1 WO2016028095 A1 WO 2016028095A1
Authority
WO
WIPO (PCT)
Prior art keywords
tool
axis
camera
image
tracking
Prior art date
Application number
PCT/KR2015/008682
Other languages
English (en)
French (fr)
Inventor
전인호
아쉐이케콥퍼
홍재성
최현석
정경화
Original Assignee
재단법인 아산사회복지재단
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 재단법인대구경북과학기술원 filed Critical 재단법인 아산사회복지재단
Publication of WO2016028095A1 publication Critical patent/WO2016028095A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to an apparatus for tracking a position of a patient and a tool, and in detail, at least one camera or at least one camera and an inertial or acceleration sensor attached to the tool to track all directions of the tool on an image acquired by the camera. It relates to a device for tracking the position of the tool.
  • an optical flow technique is used as a method of tracking and displaying the movement of an object, and the visual flow technique is shown in FIG. Finding the motion patterns of objects, surfaces, and edges in the visual landscape caused by motion.
  • the observer is a camera by the visual flow technique
  • feature points are extracted from an image acquired through the camera (A)
  • the feature points are continuously tracked while the image acquired through the camera is updated (B).
  • the direction information of the object can be obtained by obtaining the trajectories of the feature points of the (A) and (B) images. That is, the feature points are continuously extracted to obtain direction information of the object.
  • This general optical flow technique is mainly used to obtain the motion information of the object of interest while the camera is fixed, but in the surgical tool, the camera is fixed to the surgical tool without fixing the camera to the movement of the surgical tool. Therefore, by tracking the feature points on the image, that is, the background of the camera to obtain the position information of the surgical tool.
  • the conventional invention described in Patent Document 2 of the prior art document is to install the camera and the sensor to the surgical instrument to obtain the position and direction information of the surgical instrument and part of the present invention
  • the conventional invention is different from the present invention in that the camera and the sensor are installed using a separate frame rather than the camera and the sensor installed in the surgical tool itself.
  • the present invention has been made to solve the above-mentioned problems, the object of which is to at least one camera or one or more cameras on the tool to track and represent all directions of the tool on the image obtained by the camera
  • the present invention provides an apparatus for tracking a position of a tool having an inertial or acceleration sensor such as an IMU sensor.
  • the position tracking device of the tool of the present invention in the device for tracking the position of the tool on the image obtained by the camera, attaching the camera to the tool based on the image obtained by the camera.
  • optical flow techniques or other image features to track the position of the tool in the front and back (x-axis), left and right (y-axis), and up-and-down (z-axis) directions and display it on the image. It features.
  • the camera may also be attached to at least one tool at different angles, and based on the images obtained by the one or more cameras, using an optical flow technique or other features of the image, before and after the tool. It is desirable to track the position in the (x-axis) direction, the left and right (y-axis) direction, and the up-and-down (z-axis) direction and display it on the image.
  • any one of the at least one camera tracks the position of the tool in the left and right (y-axis) and up and down (z-axis) direction, and the other cameras attached at different angles are attached to the front and rear of the tool. It is desirable to track the (x-axis) direction so that it appears on the image.
  • the inertial or acceleration sensor is attached to the tool together with the camera, and the inertial or acceleration sensor is preferably an IMU sensor.
  • the position of the tool in the left and right (y-axis) and up and down (z-axis) directions is tracked through an optical flow technique, and the front and rear sides of the tool are controlled by the inertial or acceleration sensor.
  • x-axis) direction is preferably detected and displayed on the image.
  • the image obtained through the camera is preferably an image of the environment around the object to which the tool is directed.
  • the tool is preferably a surgical tool.
  • the position tracking device of the tool of the present invention by accurately tracking not only the left and right (y-axis) and up and down (z-axis) direction of the tool on the image obtained by the camera, but also the front and back (x-axis) direction that is difficult to track, There is an effect that can further increase the accuracy of the location information of the tool on the image.
  • FIG. 1 is an explanatory diagram of an optical flow technique utilized in a position tracking device of a tool according to the present invention.
  • FIG. 2 is a conceptual diagram showing extracting feature points by the position tracking device of the tool according to the present invention.
  • FIG. 3 is a conceptual diagram showing extracting feature points when the tool is moved left or right by the position tracking device of the tool according to the present invention.
  • FIG. 4 is a conceptual diagram showing extracting feature points when the tool is moved upward or downward by the position tracking device of the tool according to the present invention.
  • Figure 5 is a coordinate diagram showing the direction of movement of the tool up, down, left and right and back and forth by the position tracking device of the tool according to the invention
  • Figure 2 shows a conceptual diagram showing the extraction of feature points by the position tracking device of the tool according to the present invention.
  • the position tracking device of the tool by attaching one camera to the surgical tool by the front and rear (x-axis), left and right (y-axis), up and down (z-axis) of the surgical tool by the camera
  • the position information is read by the optical flow technique and displayed on the image.
  • the optical flow technique is used in tracking and displaying the directions of the three axes of the surgical tool, but information of the direction of the surgical tool may be displayed using other image features.
  • the directions of the three axes of the x-axis, the y-axis, and the z-axis can be known, but the information in the front and rear directions of the x-axis is somewhat inaccurate.
  • one camera is directed in the direction of the surgical object and the other camera is in the direction of 90 degrees apart.
  • the camera facing the direction of the operating object basically tracks the surrounding environment centered on the operating object, that is, the operating room rather than the operating object, and shoots the visual flow technique using the feature points of the object extracted from the operating room.
  • the location information of the surgical tool is read as a feature of another image.
  • FIG 3 is a conceptual diagram showing the extraction of the feature points when the tool is moved to the left or right by the position tracking device of the tool according to the invention
  • Figure 4 is a tool upper by the position tracking device of the tool according to the invention
  • the two cameras attached to the surgical tool at intervals of 90 degrees read the position information tracked up, down, left and right, and the front and rear directions of the surgical tool, and display it on the image, but one or more cameras and an inertial or acceleration sensor such as an IMU sensor Also by reading the position information tracked up and down, left and right and front and rear direction of the surgical tool can be displayed. That is, one or more cameras read the positional information by visual flow technique to show the movements of the left and right (y-axis) and up-down (z-axis) directions of the surgical tool as described above, and the inertial or acceleration sensor is displayed before and after the surgical tool. It detects movement in the (x-axis) direction and reads location information through visual flow technique or other image features.
  • the IMU sensor which is a kind of inertial or acceleration sensor, is a sensor for measuring the velocity, direction, and gravity of an object, and serves to detect movement in the front and rear (x-axis) directions of a surgical tool.
  • the present invention accurately tracks and displays not only the left and right (y-axis) and up-and-down (z-axis) directions of the tool on the image acquired by the camera, but also the front and back (x-axis) directions that are difficult to track. This can be useful as a location tracking device for tools that can further increase the.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 도구의 위치 추적장치에 관한 것으로서, 카메라로 획득한 이미지 상에서 도구의 위치를 추적하는 장치에 있어서, 상기 도구에 카메라를 부착하고 카메라에 의해 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법 또는 다른 영상의 특징을 이용하여 도구의 앞뒤(x축) 방향과 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고 이를 이미지 상에 나타냄으로써, 이미지 상의 도구의 위치정보의 정확성을 더욱 높일 수 있는 효과가 있다.

Description

도구의 위치 추적장치
본 발명은 환자와 도구의 위치 추적장치에 관한 것으로서, 상세히는 도구에 적어도 1대 이상의 카메라 또는 1대 이상의 카메라와 관성 또는 가속도 센서를 부착하여 상기 카메라로 획득한 이미지 상에서 상기 도구의 모든 방향을 추적하여 나타내도록 한 도구의 위치 추적장치에 관한 것이다.
일반적으로 물체의 움직임을 추적하여 나타내는 방법으로 시각적 유동(Optical flow) 기법을 사용하는데, 상기 시각적 유동 기법은 도 1에 도시한 바와 같이, 관찰자(눈 또는 카메라가 될 수 있음)와 경관 사이에 상대 동작에 기인된 시각적인 경관에서 대상체, 표면 및 가장자리의 모션 패턴(motion pattern)을 찾는 것이다.
즉 상기 시각적 유동 기법에 의해 관찰자가 카메라라고 하면 상기 카메라를 통해 획득한 이미지에서 특징점들을 추출하고(A), 상기 카메라를 통해 획득되는 이미지가 갱신되는 동안에 특징점들을 계속해서 추적하게 되며(B), 상기 (A) 이미지와 (B) 이미지의 특징점들의 궤적을 획득함으로써 물체의 방향정보를 얻을 수 있도록 한 것이다. 즉 상기 특징점들을 계속해서 추출하여 물체의 방향정보를 얻을 수 있도록 한 것이다.
이러한 일반적인 시각적 유동(Optical flow) 기법은 예컨대 카메라는 고정된 상태에서 관심물체의 움직임 정보를 얻기 위해서 주로 사용되지만, 수술도구에서는 카메라를 고정하지 않고 수술도구에 카메라를 고정하여 상기 수술도구의 움직임에 따라서 카메라의 이미지, 즉 배경화면에서 특징점들을 추적하여 수술도구의 위치정보를 얻게 된다.
상기한 수술도구에 카메라를 부착한 예 중에, 선행기술문헌의 특허문헌 2에 기재된 종래 발명은 카메라와 센서 등을 수술도구에 설치하여 수술도구의 위치와 방향 정보를 얻도록 한 것이 본 발명과 일부 유사하나, 상기 종래 발명은 수술도구 자체에 카메라와 센서를 설치한 것이 아니고 별도의 프레임을 사용하여 카메라와 센서를 설치하였다는 점에서 본 발명과 차이가 있다.
본 발명은 상기한 바와 같은 제반 문제점을 개선하기 위해 안출된 것으로서, 그 목적은 카메라에 의해 획득한 이미지 상에서 도구의 모든 방향을 추적하여 나타낼 수 있도록 상기 도구에 적어도 1대 이상의 카메라 또는 1대 이상의 카메라와 IMU 센서와 같은 관성 또는 가속도 센서를 부착한 도구의 위치 추적장치를 제공함에 있다.
상기한 바와 같은 목적을 달성하기 위해 본 발명의 도구의 위치 추적장치는, 카메라로 획득한 이미지 상에서 도구의 위치를 추적하는 장치에 있어서, 상기 도구에 카메라를 부착하고 카메라에 의해 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법 또는 다른 영상의 특징을 이용하여 도구의 앞뒤(x축) 방향과 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고 이를 이미지 상에 나타내도록 한 것을 특징으로 한다.
또 상기 카메라는 서로 다른 각도의 간격을 두고 적어도 1대 이상 도구에 부착하고 상기 1대 이상의 카메라에 의해 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법 또는 다른 영상의 특징을 이용하여, 도구의 앞뒤(x축) 방향과 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고 이를 이미지 상에 나타내도록 하는 것이 바람직하다.
또 상기 1대 이상의 카메라 중 어느 하나의 카메라는 도구의 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고, 서로 다른 각도의 간격을 두고 부착된 다른 하나의 카메라는 도구의 앞뒤(x축) 방향을 추적하여 이미지 상에 나타내도록 하는 것이 바람직하다.
또 상기 도구에 카메라와 함께 관성 또는 가속도 센서를 부착하며, 상기 관성 또는 가속도 센서는 IMU 센서인 것이 바람직하다.
또 상기 카메라로 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법을 통해 도구의 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고, 상기 관성 또는 가속도 센서를 통해 도구의 앞뒤(x축) 방향을 감지하여 이미지 상에 나타내도록 하는 것이 바람직하다.
또 상기 카메라를 통해 획득한 이미지는 도구가 향하는 대상체를 중심으로 하여 주변환경의 이미지인 것이 바람직하다.
또 상기 도구는 수술도구인 것이 바람직하다.
본 발명의 도구의 위치 추적장치에 의하면, 카메라에 의해 획득한 이미지 상에서 도구의 좌우(y축)와 상하(z축) 방향은 물론 추적하기 힘든 앞뒤(x축) 방향까지도 정확하게 추적하여 나타냄으로써, 이미지 상의 도구의 위치정보의 정확성을 더욱 높일 수 있는 효과가 있다.
도 1은 본 발명에 따른 도구의 위치 추적장치에 활용하는 시각적 유동(Optical flow) 기법의 설명도
도 2는 본 발명에 따른 도구의 위치 추적장치에 의해 특징점들을 추출하는 것을 보여주는 개념도
도 3은 본 발명에 따른 도구의 위치 추적장치에 의해 도구가 왼쪽 또는 오른쪽으로 이동하였을 때의 특징점들을 추출하는 것을 보여주는 개념도
도 4는 본 발명에 따른 도구의 위치 추적장치에 의해 도구가 상부 또는 하부로 이동하였을 때의 특징점들을 추출하는 것을 보여주는 개념도
도 5는 본 발명에 따른 도구의 위치 추적장치에 의해 도구의 상하좌우 및 앞뒤의 움직임 방향을 나타내는 좌표도
이하, 본 발명에 따른 도구의 위치 추적장치의 바람직한 실시예를 첨부한 도면을 참조로 하여 상세히 설명한다. 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위하여 제공되는 것이다.
도 2는 본 발명에 따른 도구의 위치 추적장치에 의해 특징점 들을 추출하는 것을 보여주는 개념도를 도시한 것이다.
도 2에 도시한 바와 같이, 본 발명에 따른 도구의 위치 추적장치는 1대의 카메라를 수술도구에 부착함으로써 상기 카메라에 의해 수술도구의 앞뒤(x축), 좌우(y축), 상하(z축) 방향의 3축의 방향을 추적하여 시각적 유동(Optical flow) 기법에 의해 위치정보를 읽고 이를 이미지 상에 나타내게 된다. 수술도구의 3축의 방향을 추적하여 나타냄에 있어 시각적 유동(Optical flow) 기법을 이용하지만, 이외에도 다른 영상의 특징을 이용하여 수술도구의 방향의 정보를 나타낼 수 있다.
다만 카메라 1대를 사용하여 도구의 위치를 추적하는 경우 상기한 바와 같이 x축, y축, z축의 3축의 방향을 모두 알 수는 있지만, x축의 앞뒤 방향의 정보는 정확도가 다소 떨어지기 때문에 이를 보완하기 위해 1대 이상의 카메라를 사용하거나 1대 이상의 카메라와 IMU 센서와 같은 관성 또는 가속도 센서를 사용하여 앞뒤 방향 정보의 정확도를 보상해주도록 한다.
이에 따라 예를 들어 2대의 카메라를 수술도구에 부착하여 사용하는 경우, 1대의 카메라는 수술대상체의 방향으로 향하고 다른 1대의 카메라는 90도 간격을 두는 방향으로 향하도록 한다. 수술대상체의 방향을 향하는 카메라는 기본적으로 수술대상체를 중심으로 하는 주변 환경, 즉 수술대상체가 아닌 수술실의 환경을 추적하여 촬영하도록 함으로써 수술실의 환경에서 추출되는 물체의 특징점들을 이용하여 상기한 시각적 유동기법 또는 다른 영상의 특징으로 수술도구의 위치정보를 읽게 된다.
도 3은 본 발명에 따른 도구의 위치 추적장치에 의해 도구가 왼쪽 또는 오른쪽으로 이동하였을 때의 특징점들을 추출하는 것을 보여주는 개념도이고, 도 4는 본 발명에 따른 도구의 위치 추적장치에 의해 도구가 상부 또는 하부로 이동하였을 때의 특징점들을 추출하는 것을 보여주는 개념도를 도시한 것이다.
도 3에 도시한 바와 같이, 수술도구가 1대의 카메라에 의해 획득한 이미지 상에서 좌우(y축) 방향으로 이동하였을 때 상기한 바와 같이 수술실의 환경에서 추적에 의해 추출되는 물체의 특징점들을 이용하여 상기한 시각적 유동기법 또는 다른 영상의 특징으로 좌우로 이동하는 수술도구의 위치정보를 읽게 된다. 또한 도 4에 도시한 바와 같이, 수술도구가 1대의 카메라에 의해 획득한 이미지 상에서 상하(z축) 방향으로 이동하였을 때 상기한 바와 같이 수술실의 환경에서 추적에 의해 추출되는 물체의 특징점들을 이용하여 상기한 시각적 유동기법 또는 다른 영상의 특징으로 상하로 이동하는 수술도구의 위치정보를 읽게 된다.
그런데, 도 5에 도시한 바와 같이, 카메라가 부착된 수술도구를 움직일 경우에 카메라를 통해서 획득한 이미지 상에서 특징점들을 추적할 때, 도 5의 오른쪽에 도시한 수술도구의 좌우(y축) 방향과 상하(z축) 방향의 정보의 추적은 쉽지만, 도 5의 왼쪽에 도시한 이미지 상에서 앞뒤로 움직이는 수술도구의 앞뒤(x축) 방향의 정보의 추적은 힘들다. 따라서 상기한 앞뒤(x축) 방향의 정보의 추적은 수술대상체의 방향으로 향하는 1대의 카메라와 90도 간격을 두고 수술도구에 부착된 다른 1대의 카메라에 의해 이루어지도록 한다. 즉 90도의 간격을 둔 다른 1대의 카메라에 의해 획득한 이미지 상에서 특징정들을 추적하여 앞뒤(x축) 방향으로 움직이는 수술도구의 위치정보를 읽게 된다.
이와 같이 90도 간격을 두고 수술도구에 부착된 2대의 카메라로 수술도구의 상하좌우 및 앞뒤 방향을 추적한 위치정보를 읽어 이미지 상에 나타내지만, 1대 이상의 카메라와 IMU 센서와 같은 관성 또는 가속도 센서에 의해서도 수술도구의 상하좌우 및 앞뒤 방향을 추적한 위치정보를 읽어 나타낼 수 있다. 즉 1대 이상의 카메라는 상기한 바와 같이 수술도구의 좌우(y축) 방향과 상하(z축) 방향의 움직임을 시각적 유동 기법을 통해 위치정보를 읽어 나타내고, 상기 관성 또는 가속도 센서는 수술도구의 앞뒤(x축) 방향의 움직임을 감지하여 시각적 유동 기법 또는 다른 영상의 특징을 통해 위치정보를 읽어 나타낸다. 관성 또는 가속도 센서의 일종인 상기 IMU 센서는 물체의 속도와 방향 및 중력을 측정하는 센서로써 수술도구의 앞뒤(x축) 방향의 움직임을 감지하는 역할을 하게 된다.
이상과 같이 본 발명에 따른 도구의 위치 추적장치에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.
본 발명은 카메라에 의해 획득한 이미지 상에서 도구의 좌우(y축)와 상하(z축) 방향은 물론 추적하기 힘든 앞뒤(x축) 방향까지도 정확하게 추적하여 나타냄으로써, 이미지 상의 도구의 위치정보의 정확성을 더욱 높일 수 있는 도구의 위치 추적장치로 유용하게 사용할 수 있다.

Claims (8)

  1. 카메라로 획득한 이미지 상에서 도구의 위치를 추적하는 장치에 있어서,
    상기 도구에 카메라를 부착하고 카메라에 의해 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법 또는 다른 영상의 특징을 이용하여 도구의 앞뒤(x축) 방향과 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고 이를 이미지 상에 나타내도록 한 것을 특징으로 하는 도구의 위치 추적장치.
  2. 제1항에 있어서,
    상기 카메라는 서로 다른 각도의 간격을 두고 적어도 1대 이상 도구에 부착착하고 상기 1대 이상의 카메라에 의해 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법 또는 다른 영상의 특징을 이용하여, 도구의 앞뒤(x축) 방향과 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고 이를 이미지 상에 나타내도록 한 것을 특징으로 하는 도구의 위치 추적장치.
  3. 제2항에 있어서,
    상기 1대 이상의 카메라 중 어느 하나의 카메라는 도구의 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고, 서로 다른 각도의 간격을 두고 부착된 다른 하나의 카메라는 도구의 앞뒤(x축) 방향을 추적하여 이미지 상에 나타내도록 한 것을 특징으로 하는 도구의 위치 추적장치.
  4. 제2항에 있어서,
    상기 도구에 카메라와 함께 관성 또는 가속도 센서를 부착한 것을 특징으로 하는 도구의 위치 추적장치.
  5. 제4항에 있어서,
    상기 관성 또는 가속도 센서는 IMU 센서인 것을 특징으로 하는 도구의 위치 추적장치.
  6. 제4항에 있어서,
    상기 카메라로 획득한 이미지를 토대로 시각적 유동(Optical flow) 기법을 통해 도구의 좌우(y축) 방향 및 상하(z축) 방향의 위치를 추적하고, 상기 관성 또는 가속도 센서를 통해 도구의 앞뒤(x축) 방향을 감지하여 이미지 상에 나타내도록 한 것을 특징으로 하는 도구의 위치 추적장치.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 카메라를 통해 획득한 이미지는 도구가 향하는 대상체를 중심으로 하여 주변환경의 이미지인 것을 특징으로 하는 도구의 위치 추적장치.
  8. 제7항에 있어서,
    상기 도구는 수술도구인 것을 특징으로 하는 도구의 위치 추적장치.
PCT/KR2015/008682 2014-08-20 2015-08-20 도구의 위치 추적장치 WO2016028095A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140108599A KR20160022705A (ko) 2014-08-20 2014-08-20 도구의 위치 추적장치
KR10-2014-0108599 2014-08-20

Publications (1)

Publication Number Publication Date
WO2016028095A1 true WO2016028095A1 (ko) 2016-02-25

Family

ID=55350968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/008682 WO2016028095A1 (ko) 2014-08-20 2015-08-20 도구의 위치 추적장치

Country Status (2)

Country Link
KR (1) KR20160022705A (ko)
WO (1) WO2016028095A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220090597A (ko) 2020-12-22 2022-06-30 한국전자기술연구원 특징 매칭을 이용한 위치추적장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264892A (ja) * 2003-01-31 2004-09-24 Olympus Corp 運動検出装置及び通信装置
JP2005198868A (ja) * 2004-01-16 2005-07-28 Olympus Corp 内視鏡用処置具
JP2010200894A (ja) * 2009-03-02 2010-09-16 Tadashi Ukimura 手術支援システム及び手術ロボットシステム
KR20100123160A (ko) * 2009-05-14 2010-11-24 국립암센터 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템
KR20130121521A (ko) * 2012-04-27 2013-11-06 주식회사 고영테크놀러지 환부 및 수술도구의 트랙킹 방법
US20140107471A1 (en) * 2011-06-27 2014-04-17 Hani Haider On-board tool tracking system and methods of computer assisted surgery

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101305806B1 (ko) 2011-11-30 2013-09-06 성균관대학교산학협력단 인공슬관절 전치환술을 위한 수술 항법 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264892A (ja) * 2003-01-31 2004-09-24 Olympus Corp 運動検出装置及び通信装置
JP2005198868A (ja) * 2004-01-16 2005-07-28 Olympus Corp 内視鏡用処置具
JP2010200894A (ja) * 2009-03-02 2010-09-16 Tadashi Ukimura 手術支援システム及び手術ロボットシステム
KR20100123160A (ko) * 2009-05-14 2010-11-24 국립암센터 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템
US20140107471A1 (en) * 2011-06-27 2014-04-17 Hani Haider On-board tool tracking system and methods of computer assisted surgery
KR20130121521A (ko) * 2012-04-27 2013-11-06 주식회사 고영테크놀러지 환부 및 수술도구의 트랙킹 방법

Also Published As

Publication number Publication date
KR20160022705A (ko) 2016-03-02

Similar Documents

Publication Publication Date Title
US10852847B2 (en) Controller tracking for multiple degrees of freedom
CN102869310B (zh) 操作输入装置以及机械手系统
US10095031B1 (en) Non-overlapped stereo imaging for virtual reality headset tracking
EP3090407B1 (en) Methods and systems for determining estimation of motion of a device
US8282487B2 (en) Determining orientation in an external reference frame
JP6659924B2 (ja) ヘッドマウントディスプレイの提示の調整
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
CN106687063B (zh) 跟踪系统及利用其的跟踪方法
KR101768958B1 (ko) 고품질 콘텐츠 제작을 위한 하이브리드 모션캡쳐 시스템
CN106681510B (zh) 位姿识别装置、虚拟现实显示装置以及虚拟现实系统
CN108022302B (zh) 一种Inside-Out空间定位的AR立体显示装置
CN110865650B (zh) 基于主动视觉的无人机位姿自适应估计方法
CN107289910B (zh) 一种基于tof的光流定位系统
KR101341727B1 (ko) 3d gui 제어 장치 및 방법
CN104870941A (zh) 分离的基于计算机视觉的姿势与基于惯性传感器的姿势的显示
JP2006245795A (ja) 動体追跡装置及び動体追跡表示装置
KR101880437B1 (ko) 실제카메라 영상과 가상카메라 영상을 활용하여 넓은 시야각을 제공하는 무인선 관제시스템
US11108964B2 (en) Information processing apparatus presenting information, information processing method, and storage medium
CN104665838A (zh) 体质检测方法及系统
CN108225281A (zh) 一种基于摄像机的飞行员头部姿态检测方法
CN112492195A (zh) 光学传感装置及方法
WO2016028095A1 (ko) 도구의 위치 추적장치
CN109839109B (zh) 基于图像识别和多传感器融合的掘进机绝对位姿检测方法
JP2011053024A (ja) 高架道特定装置、高架道特定方法及び高架道特定プログラム
JP6467039B2 (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15833291

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15833291

Country of ref document: EP

Kind code of ref document: A1