KR102200956B1 - 마이크로로봇의 자세 측정 방법 - Google Patents

마이크로로봇의 자세 측정 방법 Download PDF

Info

Publication number
KR102200956B1
KR102200956B1 KR1020180127695A KR20180127695A KR102200956B1 KR 102200956 B1 KR102200956 B1 KR 102200956B1 KR 1020180127695 A KR1020180127695 A KR 1020180127695A KR 20180127695 A KR20180127695 A KR 20180127695A KR 102200956 B1 KR102200956 B1 KR 102200956B1
Authority
KR
South Korea
Prior art keywords
microrobot
color
posture
image
points
Prior art date
Application number
KR1020180127695A
Other languages
English (en)
Other versions
KR20200046486A (ko
Inventor
안재현
최홍수
강원석
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180127695A priority Critical patent/KR102200956B1/ko
Publication of KR20200046486A publication Critical patent/KR20200046486A/ko
Application granted granted Critical
Publication of KR102200956B1 publication Critical patent/KR102200956B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06K9/00771
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J7/00Micromanipulators
    • G06K9/4652
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

본 발명은 마이크로로봇의 자세를 측정하는 방법에 관한 것이다. 본 발명에서는 이미지를 캡쳐하는 단계, 상기 캡쳐된 이미지에서 마이크로로봇을 인식하는 단계, 상기 인식된 마이크로로봇 상에 마커를 표시하는 단계, 상기 표시된 마커 상의 복수의 점들의 색상을 획득하는 단계, 및 상기 획득한 색상을 이용하여 상기 마이크로로봇의 자세를 결정하는 단계를 포함하는 마이크로로봇의 자세 측정 방법을 제공한다.

Description

마이크로로봇의 자세 측정 방법{Method for measuring attitude of micro-robot}
본 발명은 마이크로로봇(micro-robot)에 관한 것으로서, 보다 상세하게는 마이크로로봇의 자세를 측정하는 방법에 관한 것이다.
최근 치료(therapeutic), 의료(biomedical), 및 검사(diagnostic)에 마이크로로봇을 이용하기 위한 연구가 진행되고 있다. 또한 마이크로로봇은 국소 부위의 수술에 사용되거나 특정 부위에 약물을 전달하기 위한 용도로 사용되고 있다.
마이크로로봇은 인체 내부 또는 인체 팬텀(rando phantom) 내부에 삽입되고, 외부 자기장 또는 연결된 가이드 와이어에 의해 움직임이 제어될 수 있다. 마이크로로봇이 원하는 지점으로 부드럽게 움직이도록 제어하기 위해서는 마이크로로봇의 자세(attitude)가 측정되어야 한다.
종래에는 마이크로로봇 표면에 직선 또는 곡선을 표시하고, 마이크로로봇의 이미지를 캡쳐한 뒤, 캡쳐된 이미지에서 상기 표시를 분석하여 마이크로로봇의 자세를 측정하였다. 종래의 방법은 캡쳐된 이미지 상의 노이즈로 인해 마이크로로봇 표면의 표시를 인식하지 못하거나 잘못 인식하게 되어 마이크로로봇의 자세를 정확하게 측정하지 못하는 한계가 있다.
한국 공개특허공보 제10-2014-0082686호
본 발명이 해결하고자 하는 과제는, 마이크로로봇의 자세를 정확하면서 동시에 강인하게 측정하는 방법을 제공하고자 한다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 해결하기 위한 수단으로서, 일 실시예에 따른 마이크로로봇의 자세 측정 방법은, 이미지를 캡쳐하는 단계; 상기 캡쳐된 이미지에서 마이크로로봇을 인식하는 단계; 상기 인식된 마이크로로봇 상에 마커를 표시하는 단계; 상기 표시된 마커 상의 복수의 점들의 색상을 획득하는 단계; 및 상기 획득한 색상을 이용하여 상기 마이크로로봇의 자세를 결정하는 단계를 포함한다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇을 인식하는 단계는, 상기 캡쳐된 이미지에서 상기 마이크로로봇과 노이즈를 구별하는 단계를 포함한다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇과 상기 노이즈는 현재 캡쳐된 이미지와 이전에 캡쳐된 이미지의 차분 이미지를 이용하여 구별된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇과 상기 노이즈는 크기로 구별된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇과 노이즈를 구별하는 단계는, 제1 색상 및 제2 색상으로 상기 캡쳐된 이미지의 색상을 이진화하는 단계를 포함하고, 상기 마이크로로봇과 상기 노이즈는 상기 이진화된 색상에 의해 구별된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇의 자세를 결정하는 단계는, 상기 마커 상의 복수의 점들 중에서 상기 제1 색상인 점들과 상기 제2 색상인 점들의 경계점의 좌표를 획득하는 단계; 및 상기 획득한 좌표로부터 상기 마이크로로봇의 자세를 산출하는 단계를 포함한다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇의 자세를 결정하는 단계는, 상기 마커 상의 복수의 점들 중에서 상기 제1 색상을 갖는 점들의 좌표 또는 상기 제2 색상을 갖는 점들의 좌표를 획득하는 단계; 및 상기 획득한 좌표로부터 상기 마이크로로봇의 자세를 산출하는 단계를 포함한다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마커는 상기 마이크로로봇의 윤곽선과 교차하도록 표시된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마커의 중심은 상기 마이크로로봇의 중심과 일치하도록 표시된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마커는 원형으로 표시된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇은 원통형으로 구성된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇은 가이드 와이어의 단부에 부착되거나 독립된 개체로 혈관 내부에 삽입된다.
일 실시예에 따른 마이크로로봇의 자세 측정 방법에서, 상기 마이크로로봇은 외부 자기장에 의해 자세가 조정된다.
상술한 기술적 과제를 해결하기 위한 수단으로서, 일 실시예에 따른 마이크로로봇의 자세 측정 장치는, 이미지를 캡쳐하는 촬상부; 상기 캡쳐된 이미지에서 마이크로로봇을 인식하는 인식부; 상기 인식된 마이크로로봇 상에 마커를 표시하는 마킹부; 및 상기 표시된 마커 상의 복수의 점들의 색상을 획득하고, 상기 획득한 색상을 이용하여 상기 마이크로로봇의 자세를 결정하는 처리부를 포함한다.
본 발명에서는 마이크로로봇 표면의 표시가 아닌 캡쳐된 이미지의 색상 정보를 이용하여 마이크로로봇의 자세를 측정한다. 따라서 노이즈 또는 블러(blur) 현상 등에 의해 마이크로로봇 표면의 표시를 인식할 수 없거나 잘못 인식하는 경우 없이, 강인하게 마이크로로봇의 자세를 측정할 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1 및 도 2는 마이크로로봇을 나타낸다.
도 3은 일 실시예에 따른 마이크로로봇의 자세 측정 장치의 구성을 나타낸다.
도 4는 일 실시예에 따른 마이크로로봇의 자세 측정 방법을 나타낸다.
도 5는 일 실시예에 따른 마이크로로봇의 인식 방법을 나타낸다.
도 6은 촬상부가 마이크로로봇의 이미지를 캡쳐하는 일 실시예를 나타낸다.
도 7은 캡쳐된 이미지의 일 실시예를 나타낸다.
도 8 및 도 9는 마커가 표시된 이미지의 일 실시예를 나타난다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다. 하기 설명은 실시예들을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 당해 기술분야의 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.
본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
도 1 및 도 2는 마이크로로봇을 나타낸다. 마이크로로봇(12, 13, 21)은 연구, 치료, 수술 등의 목적으로 인체 내부 또는 인체 팬텀 내부에 삽입될 수 있다. 예를 들어, 마이크로로봇은 인체의 혈관 내부에 삽입되거나, 흉부 팬텀, 요추 팬텀 등 다양한 종류의 팬텀 내부에 삽입될 수 있다.
마이크로로봇(12, 13, 21)은 외부 자기장에 의해 움직임 및 자세가 제어되도록 자성체로 구성될 수 있다. 도 1 및 도 2에는 원통형 마이크로로봇이 도시되어 있으나, 마이크로로봇은 이와 다른 구조로 구성될 수 있다.
마이크로로봇(12, 13)은 도 1에 도시된 것처럼 가이드 와이어(11)의 일단에 부착될 수 있다. 가이드 와이어(11)의 일단에 부착되는 마이크로로봇은 1개 또는 복수일 수 있다. 사용자 또는 수술용 로봇 등으로부터 가이드 와이어의 길이방향으로 가해지는 힘에 의해 마이크로로봇의 움직임이 제어될 수 있다. 또한 외부 자기장에 의해 마이크로로봇의 자세가 제어될 수 있다.
또는 마이크로로봇(21)은 도 2에 도시된 것처럼 독립된 개체로 구성될 수 있다. 이 경우 마이크로로봇은 외부 자기장에 의해 움직임 및 자세가 제어될 수 있다.
마이크로로봇을 원하는 부위로 이동시키기 위해서, 마이크로로봇이 원하는 자세를 취하도록 제어하기 위해서 등의 이유로 마이크로로봇의 자세가 정확하게 측정될 필요가 있다.
예를 들어, 도 1에 도시된 도면에서 가이드 와이어(11)를 전진시키면 A혈관으로 이동하게 되는데, B혈관으로 이동하기 위해서는 마이크로로봇의 자세가 B혈관을 향하도록 변경되어야 한다. 즉, 마이크로로봇의 자세에 따라 가이드 와이어(11)가 이동하게 되는 부위가 달라질 수 있으므로, 마이크로로봇의 자세가 정확하게 측정될 필요가 있다.
마이크로로봇은 인체 또는 인체 팬텀의 내부에 위치하므로, 마이크로로봇의 자세를 측정하는데 노이즈가 작용할 수 있다. 노이즈는 마이크로로봇의 자세를 측정하는데 방해가 되는 요소를 의미한다. 인체 팬텀 내부의 물방울이나 먼지, 조명에 의한 빛의 산란, 인체 팬텀의 색상, 가이드 와이어, 혈관 벽 등 다양한 요소들이 노이즈로 작용할 수 있다.
이에 본 발명에서는 마이크로로봇의 자세를 정확하면서 동시에 노이즈에 강인하게 측정하는 방법을 제안하고자 한다.
도 3은 일 실시예에 따른 마이크로로봇의 자세 측정 장치의 구성을 나타낸다. 도 4는 일 실시예에 따른 마이크로로봇의 자세 측정 방법을 나타낸다. 도 5는 일 실시예에 따른 마이크로로봇의 인식 방법을 나타낸다.
일 실시예에서 자세 측정 장치(30)는 촬상부(31), 인식부(32), 마킹부(33), 및 처리부(34)로 구성된다. 촬상부(31)에 의해 단계 41(S41)이, 인식부(32)에 의해 단계 42(S42) 및 단계 421~423(S421~S423)이, 마킹부(33)에 의해 단계 43(S43)이, 처리부(34)에 의해 단계 44, 45(S44, 45)가 수행될 수 있다.
촬상부(31)는 인체 내부 또는 인체 팬텀 내부에 삽입된 마이크로로봇의 이미지를 캡쳐한다(S41). 촬상부(31)는 도 6에 도시된 것처럼, 2차원 평면에 투영되는 마이크로로봇의 이미지를 캡쳐할 수 있다.
인식부(32)는 캡쳐된 이미지 상에서 마이크로로봇을 인식한다(S42). 촬상부(31)에 의해 캡쳐된 이미지는 도 7에 도시된 것처럼 마이크로로봇(71) 뿐만 아니라 노이즈(72, 73, 74)를 포함할 수 있다.
인식부(32)는 마이크로로봇과 노이즈를 구별하기 위해 현재 캡쳐된 이미지와 이전에 캡쳐된 이미지의 차분 이미지를 이용할 수 있다(S421). 이전에 캡쳐된 이미지는 현재 캡쳐된 이미지의 바로 이전 프레임이거나, 과거에 캡쳐된 기준 이미지일 수 있다. 인식부(32)는 차분 이미지로부터 이전에 캡쳐된 이미지 대비 현재 캡쳐된 이미지에 새롭게 등장하거나 이동한 요소들에 대한 정보를 획득할 수 있다.
예를 들어, 인식부(32)는 마이크로로봇을 캡쳐한 현재 이미지와 마이크로로봇 삽입 이전에 캡쳐한 기준 이미지의 차분 이미지를 획득할 수 있으며, 차분 이미지로부터 새롭게 등장한 마이크로로봇과 같은 동적인 요소들을 식별할 수 있다.
예를 들어, 노이즈(74)가 캡쳐된 현재 이미지와 이전에 캡쳐한 기준 이미지에 모두 존재하는 경우, 인식부(32)가 차분 이미지를 이용함에 따라, 마이크로로봇과 정적인 노이즈(74)를 구별 가능하다.
또한 인식부(32)는 마이크로로봇과 노이즈를 구별하기 위해 제1 색상 및 제2 색상으로 이미지의 색상을 이진화할 수 있다(S422). 인식부(32)는 명도 또는 채도 등에 대한 기준값을 설정하고, 설정된 기준값보다 높은 수치를 갖는 색상은 제1 색상으로, 낮은 수치를 갖는 색상은 제2 색상으로 이미지의 색상을 이진화할 수 있다 이때, 이진화되는 이미지는 촬상부(31)에 의해 캡쳐된 이미지이거나 상기 차분 이미지일 수 있다.
예를 들어, 인식부(32)는 명도에 대한 기준값보다 높은 색상은 흰색으로, 낮은 색상은 검정색으로 이미지의 색상을 이진화할 수 있다.
예를 들어, 노이즈(72)는 제1 색상으로 분류되고, 마이크로로봇은 제2 색상으로 분류되는 경우, 인식부(32)가 이미지의 색상을 이진화함에 따라, 마이크로로봇과 다른 색상으로 분류되는 노이즈(72)를 구별 가능하다.
또한 인식부(32)는 마이크로로봇과 노이즈를 구별하기 위해 크기를 이용할 수 있다(S423). 마이크로로봇의 크기는 이미 알고 있는 정보이므로, 캡쳐된 이미지에서 물체들의 크기를 측정하고 이를 마이크로로봇의 크기와 비교하여, 마이크로로봇과 크기가 다른 노이즈를 구별할 수 있다. 이때, 크기를 측정하는데 사용되는 이미지는 상기 차분 이미지이거나 상기 이진화 된 이미지일 수 있다.
예를 들어, 노이즈(73)는 마이크로로봇(71)과 측정 오차범위 이상의 크기 차이를 가지므로, 크기 측정을 통해 마이크로로봇과 크기가 다른 노이즈(73)를 구별할 수 있다.
도 5에 단계 421, 단계 422, 및 단계 423 순서로 수행되도록 도시되어 있으나, 각 단계들은 이와 다른 순서로 수행될 수 있다. 예를 들어, 단계 422에 의해 색상의 이진화를 우선 수행한 뒤, 이진화 된 이미지를 이용하여 단계 421 및 단계 423을 수행할 수 있다.
마킹부(33)는 인식부(32)에 의해 인식된 마이크로로봇 상에 마커를 표시한다. 마킹부(33)는 마이크로로봇의 윤곽선과 교차하도록 마커를 표시할 수 있으며, 마이크로로봇의 중심과 중심이 일치하도록 마커를 표시할 수 있다.
도 8은 마커가 표시된 이미지의 일 실시예를 나타난다. 도 8은 인식부에 의해 식별된 노이즈들을 제거한 이미지에 마커가 표시된 이미지를 나타낸다.
도 8에 도시된 것처럼, 마킹부(33)는 원형 마커(81)를 마이크로로봇(71) 상에 표시할 수 있다. 마커는 이와 달리 정사각형, 타원형 등 다양한 형태로 표시될 수 있다. 도 8에서 마커(81)와 마이크로로봇(71)의 윤곽선이 교차하도록, 마커(81)의 직경은 마이크로로봇(71)의 폭보다 크고, 길이보다 작게 표시된다.
처리부(34)는 표시된 마커 상의 복수의 점들의 색상을 획득한다. 마커가 표시된 이미지는 색상이 이진화 된 이미지이므로, 복수의 점들은 제1 색상 또는 제2 색상을 갖게 된다.
예를 들어, 도 9에 도시된 것처럼 마커 상의 복수의 점들 중 마이크로로봇의 외부에 외치한 제1 그룹(82) 및 제 3 그룹(84)은 제1 색상을 갖고, 마이크로로봇의 내부에 위치한 제2 그룹(83) 및 제4 그룹(85)은 제2 색상을 갖는다.
처리부(34)는 복수의 점들 중 제1 색상과 제2 색상의 경계에 해당하는 경계점들을 인식한다. 처리부(34)는 인접한 점들의 색상을 비교하여 경계점들을 인식할 수 있다. 도 9의 경우 4개의 점들(86~89)이 경계점들로 인식된다. 처리부(34)는 경계점들(86~89)의 좌표로부터 마이크로로봇의 자세를 산출할 수 있다.
예를 들어, 처리부(34)는 제1 경계점(86)과 제2 경계점(87)의 좌표의 차이값 및 제3 경계점(88)과 제4 경계점(89)의 좌표의 차이값을 이용하여 마이크로로봇의 자세를 산출할 수 있다.
또 다른 예를 들어, 처리부(34)는 제1 경계점(86)과 제2 경계점(87)의 좌표의 평균값 및 제3 경계점(88)과 제4 경계점(89)의 좌표의 평균값을 이용하여 마이크로로봇의 자세를 산출할 수 있다.
또는 처리부(34)는 복수의 점들 중 제1 색상에 해당하는 점들과 제2 색상에 해당하는 점들을 분류하고, 분류된 점들의 좌표로부터 마이크로로봇의 자세를 산출할 수 있다.
예를 들어, 처리부(34)는 제1 색상을 갖는 제1 그룹(82)의 좌표의 평균값 및 제3 그룹(84)의 좌표의 평균값을 이용하여 마이크로로봇의 자세를 산출할 수 있다.
또 다른 예를 들어 처리부(34)는 제2 색상을 갖는 제2 그룹(83)의 좌표의 평균값 및 제4 그룹(85)의 좌표의 평균값을 이용하여 마이크로로봇의 자세를 산출할 수 있다.
이상에서 설명한 방법으로 산출된 마이크로로봇의 자세는 외부 자기장으로 마이크로로봇의 자세를 제어하는데 피드백될 수 있다.
또한 이상에서 2차원 평면에 대한 마이크로로봇의 자세를 산출하는 방법을 설명하였으나, XY평면, YZ평면, 및 ZY평면에 대해 동일한 방법을 적용하여 마이크로로봇의 자세를 산출한 뒤, 이를 종합하여 3차원 공간에 대한 마이크로로봇의 자세를 산출할 수 있다.
이상에서 설명한 방법으로 마이크로로봇의 자세를 산출하면, 종래 기술과 달리 마이크로로봇의 표면의 직선 또는 곡선 표시를 이용하지 않으므로, 노이즈에 강인하게 마이크로로봇의 자세를 산출할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
11: 가이드 와이어 12, 13, 21, 71: 마이크로로봇
31: 촬상부 32: 인식부
33: 마킹부 34: 처리부
72, 73, 74: 노이즈 81: 마커

Claims (14)

  1. 이미지를 캡쳐하는 단계;
    상기 캡쳐된 이미지에서, 마이크로로봇과 노이즈를 구별하여 상기 마이크로로봇을 인식하는 단계;
    상기 캡쳐된 이미지에서 상기 인식된 마이크로로봇 상에, 상기 마이크로로봇의 윤곽선과 교차하며, 직경은 상기 인식된 마이크로로봇의 폭보다 크고 상기 인식된 마이크로로봇의 길이보다 작은 마커를 표시하는 단계;
    상기 표시된 마커 상의 복수의 점들을 표시하는 단계;
    상기 복수의 점들 중, 상기 마이크로로봇의 외부에 외치한 복수의 점들은 제1 색상을 갖고, 상기 마이크로로봇의 내부에 외치한 복수의 점들은 제2 색상으로 갖도록 색상을 이진화하는 단계; 및
    이진화한 색상의 경계점의 좌표를 획득하여, 상기 마이크로로봇의 자세를 결정하는 단계를 포함하는, 마이크로로봇의 자세 측정 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 마이크로로봇을 인식하는 단계는,
    상기 마이크로로봇과 상기 노이즈는 현재 캡쳐된 이미지와 이전에 캡쳐된 이미지의 차분 이미지를 이용하여 구별되는, 마이크로로봇의 자세 측정 방법.
  4. 제1항에 있어서,
    상기 마이크로로봇을 인식하는 단계는,
    상기 마이크로로봇과 상기 노이즈는 크기로 구별되는, 마이크로로봇의 자세 측정 방법.
  5. 제1항에 있어서,
    상기 마이크로로봇을 인식하는 단계는,
    상기 마이크로로봇과 노이즈를 구별하는 단계는,
    제1 색상 및 제2 색상으로 상기 캡쳐된 이미지의 색상을 이진화하는 단계를 포함하고,
    상기 마이크로로봇과 상기 노이즈는 상기 이진화된 색상에 의해 구별되는, 마이크로로봇의 자세 측정 방법.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제1항에 있어서,
    상기 마커의 중심은 상기 마이크로로봇의 중심과 일치하도록 표시되는, 마이크로로봇의 자세 측정 방법.
  10. 제1항에 있어서,
    상기 마커는 원형으로 표시되는, 마이크로로봇의 자세 측정 방법.
  11. 제1항에 있어서,
    상기 마이크로로봇은 원통형으로 구성되는, 마이크로로봇의 자세 측정 방법.
  12. 제1항에 있어서,
    상기 마이크로로봇은 가이드 와이어의 단부에 부착되거나 독립된 개체로 혈관 내부에 삽입되는, 마이크로로봇의 자세 측정 방법.
  13. 제1항에 있어서,
    상기 마이크로로봇은 외부 자기장에 의해 자세가 조정되는, 마이크로로봇의 자세 측정 방법.
  14. 이미지를 캡쳐하는 촬상부;
    상기 캡쳐된 이미지에서 마이크로로봇과 노이즈를 구별하여 상기 마이크로로봇을 인식하는 인식부;
    상기 캡쳐된 이미지에서 상기 인식된 마이크로로봇 상에, 상기 마이크로로봇의 윤곽선과 교차하며, 직경은 상기 인식된 마이크로로봇의 폭보다 크고 상기 인식된 마이크로로봇의 길이보다 작은 마커를 표시하는 마킹부; 및
    상기 표시된 마커 상의 복수의 점들을 표시하고, 상기 복수의 점들 중, 상기 마이크로로봇의 외부에 외치한 복수의 점들은 제1 색상을 갖고, 상기 마이크로로봇의 내부에 외치한 복수의 점들은 제2 색상으로 갖도록 이진화하고, 이진화한 색상의 경계점의 좌표를 획득하여 상기 마이크로로봇의 자세를 결정하는 처리부를 포함하는, 마이크로로봇의 자세 결정 장치.

KR1020180127695A 2018-10-24 2018-10-24 마이크로로봇의 자세 측정 방법 KR102200956B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180127695A KR102200956B1 (ko) 2018-10-24 2018-10-24 마이크로로봇의 자세 측정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180127695A KR102200956B1 (ko) 2018-10-24 2018-10-24 마이크로로봇의 자세 측정 방법

Publications (2)

Publication Number Publication Date
KR20200046486A KR20200046486A (ko) 2020-05-07
KR102200956B1 true KR102200956B1 (ko) 2021-01-12

Family

ID=70733697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180127695A KR102200956B1 (ko) 2018-10-24 2018-10-24 마이크로로봇의 자세 측정 방법

Country Status (1)

Country Link
KR (1) KR102200956B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349275B1 (ko) * 2012-08-24 2014-01-09 전남대학교산학협력단 피두셜 마커를 이용한 2차원 이미지와 3차원 이미지의 정합 시스템 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188715B1 (ko) * 2010-10-04 2012-10-09 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
PL2753243T3 (pl) 2011-09-06 2016-10-31 Sonda obrazująca i sposób otrzymywania informacji o pozycji i/lub orientacji

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349275B1 (ko) * 2012-08-24 2014-01-09 전남대학교산학협력단 피두셜 마커를 이용한 2차원 이미지와 3차원 이미지의 정합 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20200046486A (ko) 2020-05-07

Similar Documents

Publication Publication Date Title
US11253171B2 (en) System and method for patient positioning
US20200268339A1 (en) System and method for patient positioning
CN106859675B (zh) 用3d相机进行的用于x射线管的扫描仪自动化的方法和系统
US7233693B2 (en) Methods and systems for computer analysis of skin image
EP1994879B1 (en) Image analysis device and image analysis method
CN105147311B (zh) 用于ct系统中的可视化设备辅助扫描定位方法和系统
US20150257850A1 (en) Image processing apparatus, image processing method and program
US20150332459A1 (en) Scanning device and method for positioning a scanning device
CN109171789B (zh) 一种用于影像诊断设备的校准方法和校准系统
WO2018230098A1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP2020531099A5 (ko)
US11432707B2 (en) Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion
US9320485B2 (en) System and method for molecular breast imaging
JP4848481B2 (ja) 撮像装置
KR102200956B1 (ko) 마이크로로봇의 자세 측정 방법
US10117563B2 (en) Polyp detection from an image
WO2021171464A1 (ja) 処理装置、内視鏡システム及び撮像画像の処理方法
CN109118480B (zh) 一种调节方法及装置
WO2016159255A1 (ja) 口領域検出装置及び口領域検出方法
WO2019244345A1 (ja) ランドマーク推定方法、及び、内視鏡装置
CA3106823A1 (en) Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
JP2019088782A (ja) 外科用インプラントを選択する方法と関連デバイス
EP3949888A1 (en) Dental image registration device and method
CN110675444B (zh) 头部ct扫描区域的确定方法、装置及图像处理设备
KR102270279B1 (ko) 치아 영상 정합 장치 및 방법

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant