KR102186551B1 - 증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법 - Google Patents

증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법 Download PDF

Info

Publication number
KR102186551B1
KR102186551B1 KR1020180154966A KR20180154966A KR102186551B1 KR 102186551 B1 KR102186551 B1 KR 102186551B1 KR 1020180154966 A KR1020180154966 A KR 1020180154966A KR 20180154966 A KR20180154966 A KR 20180154966A KR 102186551 B1 KR102186551 B1 KR 102186551B1
Authority
KR
South Korea
Prior art keywords
stimulator
augmented reality
reality device
brain
display unit
Prior art date
Application number
KR1020180154966A
Other languages
English (en)
Other versions
KR20200068239A (ko
Inventor
김준우
김현수
Original Assignee
주식회사 피치랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피치랩 filed Critical 주식회사 피치랩
Priority to KR1020180154966A priority Critical patent/KR102186551B1/ko
Publication of KR20200068239A publication Critical patent/KR20200068239A/ko
Application granted granted Critical
Publication of KR102186551B1 publication Critical patent/KR102186551B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N2/00Magnetotherapy
    • A61N2/004Magnetotherapy specially adapted for a specific therapy
    • A61N2/006Magnetotherapy specially adapted for a specific therapy for magnetic stimulation of nerve tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/0404Electrodes for external use
    • A61N1/0408Use-related aspects
    • A61N1/0456Specially adapted for transcutaneous electrical nerve stimulation [TENS]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/08Arrangements or circuits for monitoring, protecting, controlling or indicating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Neurology (AREA)
  • Robotics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명은 증강현실장치를 이용한 비침습뇌자극용 자극기를 위치시키는 방법으로서, (a) 증강현실장치의 제어부에서 3D 뇌 이미지 및 3D 실제 자극기 이미지가 각각 3D 뇌 오브젝트 및 3D 자극기 오브젝트로 변환되어 저장되는 단계; 및 (b) 상기 3D 뇌 오브젝트 및 상기 3D 자극기 오브젝트가 상기 증강현실장치의 디스플레이부에 표출되는 단계를 포함하는 비침습뇌자극용 자극기를 위치시키는 방법에 관한 것이다.

Description

증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법{A method of placing a stimulator for non-invasive brain stimulation using augmented reality device}
본 발명은 증강현실장치를 이용하여 비침습뇌자극 치료법에 사용되는 비침습뇌자극용 자극기를 위치시키는 방법으로서, 두개골 밖에서 실제 자극기를 이용하여 피자극자의 뇌 속의 특정지점을 정확히 자극하기 위하여, 피자극자의 머리에서 실제 자극기가 위치되어야 지점을 정확히 하고자, 증강현실장치의 디스플레이부에서 3D 뇌 오브젝트를 피자극자의 머리에 표출시킴과 동시에, 3D 뇌 오브젝트 상에서의 소정의 지점에 3D 자극기 오브젝트를 표출시키고, 이후 실제 자극기를 피자극자의 머리 방향으로 이동시켜 증강현실장치의 디스플레이부에서의 3D 자극기 오브젝트와 일치시킴으로써, 피자극자의 머리에서 실제 자극기를 정확한 지점에 위치시킬 수 있는 비침습뇌자극용 자극기를 위치시키는 방법에 관한 것이다.
영상 분야의 비약적인 발전으로 인해 다양한 영상 기술이 개발 및 응용되고 있으며, 특히, 컴퓨터 또는 사용자 단말을 통해 가상현실 또는 증강현실 영상을 재생하고 관람하는 기술이 등장하고 있다.
여기에서, 가상현실(Virtual Reality: VR)이라 함은 실제 현실은 아니지만 사용자가 현실과 같은 환경을 3차원적인 시각(Sight)을 통해 경험할 수 있는 시뮬레이션 기술을 의미하며, 증강현실(Augmented Reality: AR)이라 함은 사용자가 눈으로 보는 현실세계에 가상의 오브젝트(Object)를 겹쳐 보여주는 시뮬레이션 기술을 의미한다.
증강현실은, 현실세계에 실시간으로 부가정보를 갖는 가상의 오브젝트를 합쳐 하나의 영상으로 보여주는 특징으로 인해 흔히 혼합 현실(Mixed Reality: MR)이라고도 불리운다.
컴퓨터 격투 게임을 예로 들어 양자를 비교 설명하면, 가상현실 게임은 나를 대신하는 캐릭터가 가상의 공간에서 가상의 적과 대결하지만, 증강현실 게임은 현실의 내가 현실의 공간에서 가상의 적과 대결을 벌이는 형태가 된다. 그에 따라, 증강현실 기술을 이용할 경우 현실에 실제로 존재하지 않은 가상 캐릭터 등이 화면상으로는 실제로 존재하는 것처럼 보여질 수 있다.
따라서, 이러한 증강현실 기술은 가상의 환경만으로 구성된 가상현실 기술과는 달리, 실제 환경과 가상의 오브젝트가 혼합된 영상이 사용자에게 제공되는 것이므로, 사용자로서는 가상의 오브젝트를 실제 환경과 함께 볼 수 있어 가상의 환경만으로 구성된 가상현실과 비교할 때 보다 나은 현실감과 부가 정보가 제공된다는 장점이 존재하고 있다.
증강현실은, 일반적으로 증강현실 마커를 감지하여 감지된 마커에 따른 가상의 오브젝트를 실제 영상에 합성하여 표출시키는 기술로서, 오브젝트를 증강현실장치의 디스플레이부에 표출시키기 위해, 마커의 종류 및 위치 등에 대응되도록 가상 오브젝트의 크기, 위치, 형태 등을 계산하여 계산된 위치에 오브젝트를 표출시켜 실제 영상과 합성하는 기술이다
한편, 비침습뇌자극 치료법은 수술없이 두개골 밖에서 실제 자극기를 통해 뇌를 자극하여 뇌 속의 특정부분을 활성화시키는 신경/정신 의학적 질환을 치료하는 방법이다. 대표적으로 TMS(transcranial magnetic stimulation), tDCS(transcranial direct current stimulation), TUS(transcranial ultrasound stimulation) 등을 들 수 있다.
이러한 비침습뇌자극 치료법은 뇌 속의 특정부분을 자극해야 하므로 자극의 정확도가 중요한 요소이며, 이에 따라 실제 자극기의 정확한 자극을 위하여 실제 자극기가 두개골 밖에서, 즉 피자극자(환자)의 머리의 정확한 지점에 위치될 필요가 있다.
비침습뇌자극 치료법은 대부분 자극의 정확도를 높이기 위해, 뉴로네비게이션(neuronavigation)이라는 소프트웨어를 활용한다. 뉴로네비게이션은 화면을 통해 피자극자(환자)의 뇌영상(MRI)과 실제 자극기의 위치관계를 실시간으로 표출해주며, 자극자(의사)는 이 뉴로네비게이션 화면을 보며 실제 자극기를 원하는 위치로 이동시키는 방법으로 치료를 진행한다. 하지만, 기존의 뉴로네비게이션은 2D 화면을 통해 표출되고, 피자극자와 컴퓨터 디스플레이부를 번갈아가면서 확인해야 하기 때문에 직관성이 떨어져, 자극자(의사)가 원하는 지점에 실제 자극기를 정확하게 위치시키는데 한계가 있다는 문제점이 있다.
이에 본 발명에서는 증강현실장치를 활용하여 비침습뇌자극용 실제 자극기를 피자극자의 머리에서 정확히 위치시킬 수 있는 방법을 제안하고자 한다.
(특허문헌 1) KR10-1485591 B
(특허문헌 2) KR10-2014-0136517 A
상술한 종래기술에 따른 문제점을 해결하고자, 피자극자의 머리에 실제 자극기가 위치되어야 할 정확한 지점에 실제 자극기를 위치시킬 수 있는 방법으로서, 증강현실장치를 활용하여 비침습뇌자극용 실제 자극기를 정확하게 위치시킬 수 있는 방법을 제공하고자 한다.
구체적으로, 증강현실장치를 활용하여 증강현실장치의 디스플레이부에 뇌 오브젝트와 이에 따른 자극기 오브젝트를 표출시키고, 실제 자극기를 자극기 오브젝트에 일치시킴으로써, 피자극자의 머리에서의 정확히 지점에 실제 자극기를 위치시킬 수 있는 방법을 제공하고자 한다.
나아가, 실제 피자극자의 머리에서 실제 자극기가 정확한 지점에 위치되었는지 여부를 용이하게 확인할 수 있는 수단을 제공하고자 한다.
종래기술에 따른 문제점을 해결하고자 본 발명에 따른 비침습뇌자극용 자극기를 위치시키는 방법은, (a) 증강현실장치의 제어부(500)에서 3D 뇌 이미지 및 3D 실제 자극기 이미지가 각각 3D 뇌 오브젝트(320) 및 3D 자극기 오브젝트(220)로 변환되어 저장되는 단계; 및 (b) 상기 3D 뇌 오브젝트(320) 및 상기 3D 자극기 오브젝트(220)가 상기 증강현실장치의 디스플레이부(100)에 표출되는 단계를 포함한다.
바람직하게는, 상기 (b) 단계는, (b-1) 상기 3D 뇌 오브젝트(320) 상에서 자극이 필요한 특정지점의 위치에 대한 정보가 상기 증강현실장치의 제어부(500)에 입력되는 단계; (b-2) 상기 (b-1) 단계에서 입력된 특정지점의 위치에 대한 정보가 상기 증강현실장치의 제어부(500)에 입력되어 상기 3D 자극기 오브젝트(220)의 위치가 계산되고, 상기 계산된 상기 3D 자극기 오브젝트(220)의 위치에 대한 정보가 상기 증강현실장치의 제어부(500)에 저장되는 단계; 및 (b-3) 상기 3D 뇌 오브젝트(320)가 상기 증강현실장치의 디스플레이부(100)에 표출된 상태에서, 상기 3D 자극기 오브젝트(220)가 상기 증강현실장치의 디스플레이부(100)에 표출된 3D 뇌 오브젝트(320)의 소정의 지점에 위치된 상태로 상기 증강현실장치의 디스플레이부(100)에 표출되는 단계를 포함한다.
바람직하게는, (c) 상기 증강현실장치의 디스플레이부(100)에서 상기 3D 실제 자극기 이미지의 대상인 실제 자극기(200)가 상기 3D 자극기 오브젝트(220)에 일치되도록 이동되는 단계; 및 (d) 상기 실제 자극기(200)가 상기 3D 자극기 오브젝트(220)에 일치되는지 여부가 상기 증강현실장치의 디스플레이부(100)에서 시각적으로 표출되거나 상기 증강현실장치로부터 청각적으로 표출되는 단계를 더 포함한다.
바람직하게는, 상기 (b-3) 단계에서, 상기 3D 뇌 오브젝트(320)에 매칭된 제3마커(301)가 광학측정장치(400)에 의해 인식됨에 따라, 상기 증강현실장치의 디스플레이부(100)에서 상기 제3마커(301)로 인식된 위치에 상기 3D 뇌 오브젝트(320)가 표출되며, 상기 3D 자극기 오브젝트(220)는 상기 증강현실장치의 디스플레이부(100)에 표출된 상기 3D 뇌 오브젝트(320)의 소정의 지점에 위치된 상태로 상기 증강현실장치의 디스플레이부(100)에 표출된다.
바람직하게는, 상기 (d) 단계에서, 상기 증강현실장치의 디스플레이부(100)에서 상기 실제 자극기(200)가 상기 3D 자극기 오브젝트(220)에 일치되는지 여부에 대한 판단은, 광학측정장치(400)에서 상기 실제 자극기(200)에 장착된 제2마커(201)로 인식된 위치와 상기 증강현실장치의 제어부(500)에서 계산된 상기 3D 자극기 오브젝트(220)의 위치가 일치하는지 여부로 이루어진다.
상술한 과제해결수단으로 인하여, 비침습뇌자극 치료가 진행됨에 있어서, 캘리브레이션된 실제 자극기의 자극 형태가 3D 뇌 오브젝트의 특정된 지점을 가리키고 있는 상태에서, 3D 뇌 오브젝트 상에서의 3D 자극기 오브젝트의 위치가 계산되는 바, 실제 자극기가 위치되어야 할 피자극자의 머리에서의 정확한 지점을 용이하게 파악할 수 있다. 나아가, 자극자는 증강현실장치의 디스플레이부에 표출되는 3D 자극기 오브젝트의 위치에 실제 자극기를 이동시켜 일치시킴으로써, 그 위치에 실제 자극기를 정확하게 위치시킬 수 있어서, 비침습뇌자극 치료의 정확성과 편리성이 증대된다.
나아가, 피자극자의 머리에 실제 자극기의 위치되고, 나아가 실제 자극기가 정확한 지점에 위치되었는지 시각적 효과나 청각적인 효과로 확인할 수 있어서 위치되어야 할 지점에 실제 자극기가 제대로 위치되었는지 용이하게 확인될 수 있다.
도 1은 본 발명에 따른 비침습뇌자극용 자극기를 위치시키는 방법에 대한 순서도이다.
도 2는 본 발명에 따른 비침습뇌자극용 자극기를 위치시키는 방법을 수행하기 위한 증강현실장치를 개략적으로 도시한 도면이다.
도 3은 본 발명에 따른 비침습뇌자극용 자극기를 위치시키는 방법을 수행하기 위한 과정을 개략적으로 설명하기 위한 도면이다.
이하, 본 발명에 따른 방법의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의성을 위해 과장되게 도시될 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자 또는 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1 내지 도 3을 참조하여 설명한다.
1. 비침습뇌자극용 자극기를 위치시키는 방법을 수행하기 위한 증강현실장치의 구성요소 설명
본 발명에 따른 비침습뇌자극용 자극기를 위치시키는 방법을 수행하기 위한 증강현실장치는 증강현실장치의 디스플레이부(100), 실제 자극기(200), 광학측정장치(400), 제어부(500)를 포함한다.
증강현실장치의 디스플레이부(100)는 컴퓨터 모니터 또는 증강현실장치용 안경일 수 있으며, 이에 한정되지 않고 증강현실장치에서 오브젝트가 표출되는 어떠한 디스플레이부도 가능함은 물론이다. 이러한 증강현실장치의 디스플레이부(100)에는 제1마커(101)가 장착된다.
실제 자극기(200)는 비침습뇌자극 치료에 사용되는 자력 자극기, 초음파 자극기 등 모든 자극기를 지칭한다. 실제 자극기(200)에는 제2마커(201)가 장착된다.
피자극자는 비침습뇌자극 치료 대상인 환자일 수 있으며, 마찬가지로 피자극자의 머리(300)에는 제3마커(301)가 장착된다.
광학측정장치(400)에서 제1마커(101), 제2마커(201) 및 제3마커(301)가 인식됨으로써 피자극자의 머리(300), 실제 자극기(200) 및 증강현실장치의 디스플레이부(100)의 위치가 측정되어 후술할 제어부(500)에 입력된다.
제어부(500)에서는, 3D 뇌 이미지의 3D 뇌 오브젝트(320)로의 변환 및 3D 실제 자극기 이미지의 3D 자극기 오브젝트(220)로의 변환, 입력된 3D 뇌 오브젝트(320)에서 자극이 필요한 특정지점의 위치 특정, 이에 따른 3D 자극기 오브젝트(220)의 위치 계산, 3D 자극기 오브젝트(220)에서 캘리브레이션 된 자극 형태 표출 등 증강현실장치를 이용한 비침습뇌자극 치료에 적용되는 모든 연산 및 저장 기능이 수행된다.
2. 비침습뇌자극용 자극기를 위치시키는 방법
S100: 3D 뇌 오브젝트(320) 및 3D 자극기 오브젝트(220)가 생성되는 단계
3D 뇌 오브젝트(320)는 3D 뇌 이미지로부터 변환되어 생성된다. 3D 뇌 이미지는 MRI, CT 등 뇌를 촬영한 3D 이미지를 지칭한다
3D 자극기 오브젝트(220)는 3D 실제 자극기 이미지로부터 변환되어 생성된다. 3D 실제 자극기 이미지는 실제 자극기(200)의 외형 등이 이미지화된 것을 지칭한다.
이러한 이미지의 오브젝트로의 변환은 제어부(500)에서 일정 연산에 의해 이루어질 수 있음은 물론이다.
S200: 3D 자극기 오브젝트(220)에 반영되도록 자극 형태에 대한 캘리브레이션 정보가 입력되는 단계
실제 자극기(200)가 피자극자의 머리(300)에 위치된 상태에서, 피자극자의 뇌 속 특정지점이 실제 자극기(200)로 자극된다. 캘리브레이션된 실제 자극기(200)의 자극 형태가 3D 자극기 오브젝트(220)에 입력된다.
즉, 실제 자극기(200)로부터 자극 최대 강도 지점까지의 거리, 자력이나 초음파 등의 기하학적 형상 등으로 자극 형태가 캘리브레이션된 상태에서 3D 자극기 오브젝트(220)에 반영되도록 제어부(500)에 입력된다. 따라서, 3D 자극기 오브젝트(220)가 증강현실장치의 디스플레이부(100)에 표출될 때, 캘리브레이션된 자극 형태가 반영된 상태로 증강현실장치의 디스플레이부(100)에 표출된다.
S300: 3D 뇌 오브젝트(320)에 자극이 필요한 특정지점이 특정되는 단계
자극자(의사 등)는 3D 뇌 오브젝트(320) 속에서 자극이 필요한 특정지점에 대한 위치 정보를 제어부(500)에 입력한다. 상술한 바와 같이, 비침습뇌자극 치료는 피자극자의 두개골 밖에서 실제 자극기(200)의 자극으로 이루어지는 바, 실제 자극기(200)의 자극이 미쳐져야 할 뇌 속의 특정지점을 특정할 필요가 있어, 이러한 특정지점의 위치에 대한 정보가 제어부(500)에 입력된다. 나아가, 이러한 특정지점의 위치뿐만 아니라 특정지점에 자극되어야 할 자극의 각도에 대한 정보까지 제어부(500)에 입력될 수 있음은 물론이다.
따라서, 3D 뇌 오브젝트(320)가 증강현실장치의 디스플레이부(100)에 표출될 때, 3D 뇌 오브젝트(320)의 특정지점이 반영된 상태로 증강현실장치의 디스플레이부(100)에 표출된다.
S400: 3D 뇌 오브젝트(320) 상에서 3D 자극기 오브젝트(220)가 위치되어야 할 지점이 제어부(500)에서 계산되어 입력되는 단계
S300 단계에서 3D 뇌 오브젝트(320)에서 자극되어야 할 특정지점이 특정됨에 따라, 이러한 특정지점이 자극되기 위하여 3D 뇌 오브젝트(320) 상에서 3D 자극기 오브젝트(220)가 위치되어야 할 지점이 제어부(500)에서 계산되어 저장된다.
실제 자극기(200)의 자극의 강도, 자극의 거리, 자극의 위치, 자극의 각도 등이 고려되어 3D 뇌 오브젝트(320) 상에서 3D 자극기 오브젝트(220)가 위치되어야 할 정확한 지점이 계산되어 특정된다.
따라서, 3D 뇌 오브젝트(320)가 증강현실장치의 디스플레이부(100)에 표출될 때, 3D 뇌 오브젝트(320) 상에서 계산된 지점에 3D 자극기 오브젝트(220)가 위치된 상태로 증강현실장치의 디스플레이부(100)에 표출된다. 물론, 이때 캘리브레이션된 자극 형태가 반영된 3D 자극기 오브젝트(220)가 표출되고, 나아가 캘리브레이션된 자극 형태가 정확하게 3D 뇌 오브젝트(320)의 특정지점를 가리키고 있음은 물론이다.
S500: 광학측정장치(400)에 의해 피자극자의 머리(300), 실제 자극기(200), 증강현실장치의 디스플레이부(100)의 위치가 인식되어 제어부에 입력되는 단계
상술한 바와 같이, 피자극자의 머리(300)에는 제3마커(301)가 장착되어 있고, 실제 자극기(200)에는 제2마커(201), 그리고 증강현실장치의 디스플레이부(100)에는 제1마커(101)가 장착되어 있다. 광학측정장치(400)에서 이러한 마커(101,201,301)를 인식함에 따라 피자극자의 머리(300), 실제 자극기(200), 증강현실장치의 디스플레이부(100)의 위치가 인식되어 제어부에 입력된다.
이에 따라, 증강현실장치의 디스플레이부(100) 또는 피자극자의 머리(300)가 움직이더라도 증강현실장치의 디스플레이부(100)에 표출된 3D 뇌 오브젝트(320) 및 3D 자극기 오브젝트(220)도 이와 함께 연동되어 움직이게 된다.
다만, 3D 뇌 오브젝트(320) 상에서 위치된 3D 자극기 오브젝트(220)는 증가현실장치의 디스플레이부(100)에 표출된 3D 뇌 오브젝트(320) 상의 특정 위치에 고정된 상태이기 때문에, 3D 뇌 오브젝트(320)의 움직임에 따라 함께 움직이며, 따라서 제2마커(201)의 움직임에 연동되지 않는다.
실제 자극기(200)에 장착된 제2마커(201)는 증강현실장치의 디스플레이부(100)에서 실제 자극기(200)와 표출된 3D 자극기 오브젝트(220)의 일치 여부를 판단함에 적용되는데, 제어부(500)에 입력된 3D 뇌 오브젝트(320) 상의 3D 자극기 오브젝트(220)의 위치와 제2마커(201)로 인식되는 실제 자극기(200)의 위치가 일치되는지 여부 판단시 적용된다.
S600: 증강현실장치의 디스플레이부(100)에 3D 뇌 오브젝트(320)와 3D 자극기 오브젝트가 표출되는 단계
3D 뇌 오브젝트(320)는 피자극자의 머리(300)에 오버랩된 상태로 증강현실장치의 디스플레이부(100)에 표출된다. 3D 뇌 오브젝트(320)에 매칭된 제3마커(301)가 광학측정장치(400)에 인식됨에 따라, 증강현실장치의 디스플레이부(100)에 표출된 3D 뇌 오브젝트(320)가 제3마커(301)가 장착된 피자극자의 머리(300)에 오버랩된 상태로 증강현실장치의 디스플레이부(100)에 표출된다.
물론, 3D 뇌 오브젝트(320)가 증강현실장치의 디스플레이부(100)에 표출될 때, 3D 뇌 오브젝트(320) 상에서 제어부(500)에서 계산된 지점인 소정의 지점에 3D 자극기 오브젝트(220)가 위치된 상태에서, 3D 뇌 오브젝트(320)와 3D 자극기 오브젝트(220)가 동시에 증강현실장치의 디스플레이부(100)에 표출된다. 물론, 이때 캘리브레이션된 자극 형태가 반영된 3D 자극기 오브젝트(220)가 표출되고, 나아가 캘리브레이션된 자극 형태가 정확하게 3D 뇌 오브젝트(320)의 자극되어야 할 특정지점를 가리키고 있음은 물론이다.
S700: 증강현실장치의 디스플레이부(100)에서 보이는 실제 자극기(200)가 증강현실장치의 디스플레이부(100) 상에 표출된 3D 자극기 오브젝트(200)에 일치되도록 이동되는 단계
증강현실장치의 디스플레이부(100)에는 3D 뇌 오브젝트(320)가 표출됨과 동시에 3D 뇌 오브젝트(320) 상의 소정의 지점에 위치된 3D 자극기 오브젝트(220)가 함께 표출된다. 상술한 바와 같이, 3D 뇌 오브젝트(320)에서 자극되어야 할 특정지점이 특정된 상태에서, 이러한 특정지점을 정확히 자극하기 위하여 3D 뇌 오브젝트(320) 상의 정확한 지점에 위치된 3D 자극기 오브젝트(220)가 동시에 표출된 상태이다.
자극자는 증강현실장치의 디스플레이부(100)를 통하여 3D 뇌 오브젝트(320), 3D 자극기 오브젝트(220), 실제 자극기(200) 및 피자극자의 머리(300)를 시각적으로 인식한다. 따라서, 실제 자극기(200)를 3D 자극기 오브젝트(220)에 일치시키기 위하여 자극자는 피자극자의 머리(300) 방향으로 실제 자극기(200)를 이동시킨다.
S800: 증강현실장치의 디스플레이부(100)에 표출된 3D 자극기 오브젝트(220)의 위치에 실제 자극기(200)를 일치시키는 단계
자극자는 증강현실장치의 디스플레이부(100)를 통하여 인식되는 3D 자극기 오브젝트(220)와 실제 자극기(200)를 일치시킨다. 일치됨에 따라 실제 자극기(200)는 특정지점을 자극하기 위하여 피자극자의 머리(300)에 위치되어야 할 정확한 지점에 위치되게 된다. 실제 자극기(200)는 3D 자극기 오브젝트(220)의 위치뿐만 아니라 자세까지도 동일하게 위치된다. 자극의 위치와 각도를 정확하게 하여 자극의 정확성을 높이기 위함이다.
증강현실장치의 디스플레이부(100)를 통하여 시각적으로 인식되는 실제 자극기(200)가 3D 자극기 오브젝트(220) 방향으로 이동되어, 증강현실장치의 디스플레이부(100)를 통하여 인식되는 실제 자극기(200)의 위치와 자세가 증강현실장치의 디스플레이부(100)를 통하여 인식되는 3D 자극기 오브젝트(220)의 위치와 자세가 일치된다.
증강현실장치의 디스플레이부(100)를 통하여 인식되는 실제 자극기(200)의 위치와 자세가 3D 자극기 오브젝트(220)의 위치와 자세가 일치되었는지 여부에 대한 판단은, 실제 자극기(200)에 장착된 제2마커(201)가 광학측정장치(400)에 인식됨에 따라 제어부(500)에서 계산된 실제 자극기(200)의 위치 및 자세와 제어부(500)에서 계산되어 입력된 3D 자극기 오브젝트(220)의 위치 및 자세가 일치되었는지로 판단될 수 있으며, 또는 증강현실장치의 디스플레이부(100)를 통하여 시각적으로 인식되는 위치 및 자세가 일치되는지 여부로 판단될 수 있다.
또한, 증강현실장치의 디스플레이부(100)를 통하여 인식되는 실제 자극기(200)의 위치와 자세가 3D 자극기 오브젝트(220)의 위치와 자세가 일치되었는지 여부는 상기 증강현실장치의 디스플레이부(100)에서 시각적으로 표출되거나 상기 증강현실장치로부터 청각적으로 표출될 수 있다.
이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.
100: 증강현실장치의 디스플레이부
101: 제1마커
200: 실제 자극기
201: 제2마커
220: 3D 자극기 오브젝트
300: 피자극자의 머리
301: 제3마커
320: 3D 뇌 오브젝트
400: 광학측정장치
500: 제어부

Claims (5)

  1. (a) 증강현실장치의 제어부(500)에서 3D 뇌 이미지 및 3D 실제 자극기 이미지가 각각 3D 뇌 오브젝트(320) 및 3D 자극기 오브젝트(220)로 변환되어 저장되는 단계; 및
    (b) 상기 3D 뇌 오브젝트(320) 및 상기 3D 자극기 오브젝트(220)가 상기 증강현실장치의 디스플레이부(100)에 표출되는 단계를 포함하며,
    상기 (b) 단계는,
    (b-1) 상기 3D 뇌 오브젝트(320) 상에서 자극이 필요한 특정지점의 위치에 대한 정보가 상기 증강현실장치의 제어부(500)에 입력되고, 상기 3D 실제 자극기 이미지 대상인 실제 자극기(200)의 캘리브레이션된 자극 형태가 상기 증강현실장치의 제어부(500)에 입력되는 단계;
    (b-2) 상기 (b-1) 단계에서 입력된 특정지점의 위치에 대한 정보가 상기 증강현실장치의 제어부(500)에 입력되어 상기 3D 자극기 오브젝트(220)의 위치가 계산되고, 상기 계산된 3D 자극기 오브젝트(220)의 위치에 대한 정보가 상기 증강현실장치의 제어부(500)에 저장되는 단계; 및
    (b-3) 상기 3D 뇌 오브젝트(320)가 상기 증강현실장치의 디스플레이부(100)에 표출된 상태에서, 상기 3D 자극기 오브젝트(220)가 상기 증강현실장치의 디스플레이부(100)에 표출된 3D 뇌 오브젝트(320)의 소정의 지점에 위치된 상태로 상기 증강현실장치의 디스플레이부(100)에 표출되되, 상기 3D 뇌 오브젝트(320) 상에서 자극이 필요한 특정지점를 가리키는 캘리브레이션된 자극 형태가 상기 3D 자극기 오브젝트(220)에 반영된 상태로 표출되는 단계를 포함하며,
    상기 (b-3) 단계에서, 상기 3D 뇌 오브젝트(320)에 매칭된 제3마커(301)가 광학측정장치(400)에 의해 인식됨에 따라, 상기 증강현실장치의 디스플레이부(100)에서 상기 제3마커(301)로 인식된 위치에 상기 3D 뇌 오브젝트(320)가 표출되며, 상기 3D 뇌 오브젝트(320)와 함께 연동되어 이동되되 상기 캘리브레이션된 자극 형태가 반영된 상태로 함께 연동되어 이동되는 상기 3D 자극기 오브젝트(220)는 상기 증강현실장치의 디스플레이부(100)에 표출된 상기 3D 뇌 오브젝트(320)의 소정의 지점에 위치된 상태로 상기 증강현실장치의 디스플레이부(100)에 표출되며,
    (c) 상기 증강현실장치의 디스플레이부(100)를 통하여 상기 3D 뇌 이미지 대상인 피자극자의 머리(300)에 상기 3D 뇌 오브젝트(320)가 중첩되게 인식되고, 이에 따라 상기 캘리브레이션된 자극 형태가 반영된 상기 3D 자극기 오브젝트(220)가 상기 피자극자의 머리(300) 상에 위치되는 것으로 인식되는 상태에서, 상기 증강현실장치의 디스플레이부(100)에서 상기 실제 자극기(200)가 상기 3D 자극기 오브젝트(220)에 일치되도록 상기 실제 자극기(200)가 상기 피자극자의 머리(300) 상에서 이동되는 단계; 및
    (d) 상기 실제 자극기(200)가 상기 3D 자극기 오브젝트(220)에 일치되는지 여부가 상기 증강현실장치의 디스플레이부(100)에서 시각적으로 표출되거나 상기 증강현실장치로부터 청각적으로 표출되는 단계를 더 포함하는 비침습뇌자극용 자극기를 위치시키는 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서,
    상기 (d) 단계에서, 상기 증강현실장치의 디스플레이부(100)에서 상기 실제 자극기(200)가 상기 3D 자극기 오브젝트(220)에 일치되는지 여부에 대한 판단은, 광학측정장치(400)에서 상기 실제 자극기(200)에 장착된 제2마커(201)로 인식된 위치와 상기 증강현실장치의 제어부(500)에서 계산된 상기 3D 자극기 오브젝트(220)의 위치가 일치하는지 여부로 이루어지는 비침습뇌자극용 자극기를 위치시키는 방법.
KR1020180154966A 2018-12-05 2018-12-05 증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법 KR102186551B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180154966A KR102186551B1 (ko) 2018-12-05 2018-12-05 증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180154966A KR102186551B1 (ko) 2018-12-05 2018-12-05 증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법

Publications (2)

Publication Number Publication Date
KR20200068239A KR20200068239A (ko) 2020-06-15
KR102186551B1 true KR102186551B1 (ko) 2020-12-03

Family

ID=71081432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180154966A KR102186551B1 (ko) 2018-12-05 2018-12-05 증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법

Country Status (1)

Country Link
KR (1) KR102186551B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230112793A (ko) 2022-01-20 2023-07-28 가톨릭관동대학교산학협력단 신경계 네비게이션 장비에 비침습적 대뇌 자극장치를 등록 사용하는 방식의 비침습적 대뇌 자극 치료방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647467B1 (ko) * 2015-06-05 2016-08-11 주식회사 메드릭스 증강현실을 이용한 외과 수술용 3d 안경 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206340B1 (ko) * 2011-04-29 2012-11-29 주식회사 코어메드 영상수술 리허설 제공방법 및 시스템, 그 기록매체

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647467B1 (ko) * 2015-06-05 2016-08-11 주식회사 메드릭스 증강현실을 이용한 외과 수술용 3d 안경 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230112793A (ko) 2022-01-20 2023-07-28 가톨릭관동대학교산학협력단 신경계 네비게이션 장비에 비침습적 대뇌 자극장치를 등록 사용하는 방식의 비침습적 대뇌 자극 치료방법

Also Published As

Publication number Publication date
KR20200068239A (ko) 2020-06-15

Similar Documents

Publication Publication Date Title
US20210174706A1 (en) Injection site training system
KR101531620B1 (ko) 뇌의 실영상에 nbs 기능 데이터를 오버레이하기 위한 방법 및 시스템
JP2019534734A (ja) 誘導される処置システム
US9612657B2 (en) 3D-volume viewing by controlling sight depth
Heinrich et al. Comparison of projective augmented reality concepts to support medical needle insertion
US10675479B2 (en) Operation teaching device and transcranial magnetic stimulation device
CN106251284B (zh) 基于牙套的医学图像配准方法
KR102186551B1 (ko) 증강현실장치를 이용하여 비침습뇌자극용 자극기를 위치시키는 방법
Soeiro et al. Visualizing the brain on a mixed reality smartphone application
US11291852B2 (en) Accurate patient-specific targeting of cranial therapy using a brain atlas
Wang et al. Real-time marker-free patient registration and image-based navigation using stereovision for dental surgery
Westwood Planning and analyzing robotized TMS using virtual reality
Leuze et al. Landmark-based mixed-reality perceptual alignment of medical imaging data and accuracy validation in living subjects
Cattari et al. Wearable AR and 3D ultrasound: Towards a novel way to guide surgical dissections
AU2022311784A1 (en) Augmented reality-driven guidance for interventional procedures
TW202207242A (zh) 用於增強現實脊柱手術之系統及方法
WO2022229916A1 (en) Method and device for generating an uncertainty map for guided percutaneous procedures
JP6795744B2 (ja) 医療支援方法および医療支援装置
KR20220063893A (ko) Xr 시스템에 대한 생체객체 인식용 마커 및 이를 이용한 xr 기반 응급 의료 처치 시스템
KR102443956B1 (ko) 확장현실 기반의 침술 시스템 및 그 방법
KR102362149B1 (ko) 임플란트 수술을 위한 증강현실 도구 및 임플란트 수술정보 가시화 방법
EP3917430B1 (en) Virtual trajectory planning
US20240122650A1 (en) Virtual trajectory planning
RU2771799C2 (ru) Калибровка жесткого отоларингологического инструмента
Lin et al. HoloNeedle: Augmented-reality Guidance System for Needle Placement Investigating the Advantages of 3D Needle Shape Reconstruction

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right