KR102615906B1 - 의료 환경의 가상 현실을 구현하기 위한 전자 장치 - Google Patents

의료 환경의 가상 현실을 구현하기 위한 전자 장치 Download PDF

Info

Publication number
KR102615906B1
KR102615906B1 KR1020210093554A KR20210093554A KR102615906B1 KR 102615906 B1 KR102615906 B1 KR 102615906B1 KR 1020210093554 A KR1020210093554 A KR 1020210093554A KR 20210093554 A KR20210093554 A KR 20210093554A KR 102615906 B1 KR102615906 B1 KR 102615906B1
Authority
KR
South Korea
Prior art keywords
virtual
processor
medical image
medical images
medical
Prior art date
Application number
KR1020210093554A
Other languages
English (en)
Other versions
KR20230012820A (ko
Inventor
고재철
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020210093554A priority Critical patent/KR102615906B1/ko
Publication of KR20230012820A publication Critical patent/KR20230012820A/ko
Application granted granted Critical
Publication of KR102615906B1 publication Critical patent/KR102615906B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

다양한 실시 예들에 따른 전자 장치는, 가상 공간 내 가상 제네레이터 및 가상 디텍터를 포함하는 가상 의료 영상 장치를 이용하여 상기 가상 제네레이터 및 상기 가상 디텍터 사이의 복수 개의 의료 영상들의 스택을 포함하는 가상 모델에 대한 가상 의료 영상을 생성하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수 개의 의료 영상들의 각각의 제 1 크기의 복수 개의 셀들의 어레이에 기초하여 제 1 가상 의료 영상을 생성하고, 상기 복수 개의 의료 영상들의 각각의 제 1 크기보다 작은 제 2 크기의 복수 개의 셀들의 어레이에 기초하여 제 2 가상 의료 영상을 생성하도록 구성될 수 있다.

Description

의료 환경의 가상 현실을 구현하기 위한 전자 장치{ELECTRONIC DEVICE FOR REALIZATION OF VIRTUAL REALITY OF MEDICAL ENVIRONMENT}
아래의 다양한 실시 예들은 의료 환경의 가상 현실을 구현하기 위한 전자 장치에 관한 것으로, 예를 들면, 수술/시술 교육 및/또는 사전 수술/시술을 위한 시뮬레이션을 위한 전자 장치에 관한 것이다.
가상 현실 공간에서 방사선 유도 환경 아래 수술/시술을 하기 위해 실제 엑스레이 장치와 유사한 가상 엑스레이 장치를 구현하고 이를 이용하여 수술/시술을 지원하는 정합 기술이 개발되고 있다. 예를 들면, 미국 특허출원공개공보 US 2018/0049622 A1은 의료 절차에서 감각 증강을 위한 시스템 및 방법을 개시한다.
다양한 실시 예들에 따르면, 다양한 증례(case)들에 맞춰 수술/시술 교육 및/또는 사전 수술/시술을 위한 시뮬레이션을 제공할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 가상 공간 내 가상 제네레이터 및 가상 디텍터를 포함하는 가상 의료 영상 장치를 이용하여 상기 가상 제네레이터 및 상기 가상 디텍터 사이의 복수 개의 의료 영상들의 스택을 포함하는 가상 모델에 대한 가상 의료 영상을 생성하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수 개의 의료 영상들의 각각의 제 1 크기의 복수 개의 셀들의 어레이에 기초하여 제 1 가상 의료 영상을 생성하고, 상기 복수 개의 의료 영상들의 각각의 제 1 크기보다 큰 제 2 크기의 복수 개의 셀들의 어레이에 기초하여 제 2 가상 의료 영상을 생성하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 동시에 생성하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 제 1 가상 의료 영상에 상기 제 2 가상 의료 영상을 오버랩시키도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 사용자의 입력에 기초하여 상기 제 1 크기를 결정하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 가상 제네레이터 및 상기 디텍터 사이의 제 1 벡터, 상기 가상 제네레이터 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 사이의 제 2 벡터, 및 상기 복수 개의 의료 영상들 각각의 법선 벡터를 이용하여 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 생성하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트와 다른 제 2 코너 포인트의 위치 벡터, 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 및 상기 제 2 코너 포인트와 다른 제 3 코너 포인트의 위치 벡터를 이용하여 상기 법선 벡터를 계산하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 제 1 벡터 및 상기 법선 벡터의 제 1 내적, 및 상기 제 2 벡터 및 상기 법선 벡터의 제 2 내적을 계산하도록 구성되고, 상기 프로세서는 상기 제 2 내적을 상기 제 1 내적으로 나눈 비율을 계산하도록 구성되고, 상기 프로세서는, 상기 제 1 벡터에 상기 비율을 곱하고, 상기 복수 개의 의료 영상들 중 각각의 의료 영상 및 상기 제 1 벡터의 가상의 라인이 만나는 컨택 포인트를 계산하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 제 1 코너 포인트 및 상기 제 2 코너 포인트를 연결하는 제 1 라인 상에 상기 컨택 포인트가 프로젝션 된 제 1 교차 포인트, 및 상기 제 1 코너 포인트 및 상기 제 3 코너 포인트를 연결하는 제 2 라인 상에 상기 컨택 포인트가 프로젝션 된 제 2 교차 포인트를 계산하도록 구성되고, 상기 프로세서는, 상기 제 1 코너 포인트 및 상기 제 1 교차 포인트 사이의 길이를 상기 제 1 라인의 길이로 나눈 제 1 비율이 1보다 크고 상기 제 1 코너 포인트 및 상기 제 2 교차 포인트 사이의 길이를 상기 제 2 라인의 길이로 나눈 제 2 비율이 1보다 큰 경우, 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상의 생성을 종료하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 제 1 비율을 상기 복수 개의 의료 영상들의 제 1 방향의 픽셀들 또는 복셀들의 개수에 곱하고 상기 제 2 비율을 제 2 방향의 픽셀들 또는 복셀들의 개수에 곱함으로써 상기 복수 개의 의료 영상들의 각각의 흡수도를 계산하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 가상 모델에 위치되도록 구성되는 가상 마커에 대한 데이터 및 상기 복수 개의 의료 영상들 각각에 포함된 해부학적 구조에 대한 데이터를 통합시킴으로써 복수 개의 변형 의료 영상들의 스택을 생성하고, 상기 복수 개의 변형 의료 영상들에 기초하여 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 생성하도록 구성될 수 있다.
일 실시 예에서, 상기 프로세서는, 상기 가상 마커 및 상기 가상 모델 사이의 위치 관계, 상기 가상 마커 및 상기 가상 모델 사이의 결합 구조, 및 상기 가상 마커 및 상기 가상 모델 사이의 크기 관계 중 적어도 하나 이상을 이용하여 상기 복수 개의 변형 의료 영상들의 스택을 생성할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 다양한 증례들에 맞춰 수술/시술 교육 및/또는 사전 수술/시술을 위한 시뮬레이션을 제공할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 일체형 시스템을 통한 사용자의 편의성을 개선할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 가상/증강/혼합 현실 내 구현되는 오브젝트의 정합 정확도를 개선할 수 있다.
다양한 실시 예들에 따른 전자 장치의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 다양한 실시 예들에 따른 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 전자 장치의 가상 공간 내 가상 의료 영상을 생성하는 루틴을 설명하는 순서도이다.
도 3은 일 실시 예에 따른 전자 장치가 구현하는 가상 공간의 도면이다.
도 4a 내지 도 4d는 일 실시 예에 따른 가상 공간 내 가상 의료 영상을 생성하는 방식을 설명하기 위한 도면들이다.
이하에서, 첨부된 도면을 참조하여 실시 예들을 상세하게 설명한다. 그러나, 실시 예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리범위가 이러한 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 실시 예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시 예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안 된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시 예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
도 1을 참조하면, 다양한 실시 예들에 따른 전자 장치(10)는, 프로세서(110), 메모리(120), 입력 모듈(130), 디스플레이(140) 및 통신 모듈(150)을 포함할 수 있다. 어떤 실시 예에 따른 전자 장치(10)에서, 상기 열거된 구성요소들 중 적어도 하나의 구성요소가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다.
프로세서(110)는, 프로그램을 실행하여 프로세서(110)에 연결된 전자 장치(10)의 적어도 하나의 다른 구성요소를 제어하고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(110)는, 적어도 하나의 다른 구성요소로부터 수신된 명령 또는 데이터를 메모리(120)에 저장하고, 메모리(120)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(120)에 저장할 수 있다. 일 실시 예에서, 프로세서(110)는 전자 장치(10)의 외부(예: 사용자)로부터 수신된 의료 영상을 판독하도록 구성될 수 있다. 일 실시 예에서, 프로세서(110)는 가상 공간(예: 가상 공간(311)) 내 가상의 영상 장치(예: 영상 장치(330))를 구현하고, 가상의 영상 장치를 이용하여 복수 개의 의료 영상(예: 의료 영상(421))들의 스택 또는 이의 가상 모델(예: 모델(321))에 대한 가상 의료 영상을 생성할 수 있다.
메모리(120)는, 전자 장치(10)의 적어도 하나의 구성요소(예: 프로세서(110))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들면, 메모리(120)는, 외부(예: 사용자)로부터 수신된 적어도 하나의 의료 영상을 저장하고, 프로세서(110)에 의해 처리된 의료 영상의 중간 또는 결과 데이터를 저장할 수 있다.
입력 모듈(130)은, 프로세서(110)에 사용될 명령 또는 데이터를 전자 장치(10)의 외부로부터 수신할 수 있다. 예를 들면, 입력 모듈(130)은, 사용자 또는 외부 전자 장치로부터 수신된 적어도 하나의 의료 영상 또는 복수 개의 의료 영상들의 스택을 수신할 수 있다.
디스플레이(140)는, 전자 장치(10)의 외부에 정보를 시각적으로 제공할 수 있다. 예를 들면, 디스플레이(140)는, 프로세서(110)에 의해 판독된 의료 영상의 결과 데이터에 기초하여 프로세서(110)에 의해 생성된 2차원 또는 3차원 가상 모델을 표시할 수 있다.
통신 모듈(150)은, 전자 장치(10) 및 외부 전자 장치 사이의 통신 채널 확보 및 확보된 통신 채널을 통한 통신을 지원할 수 있다. 예를 들면, 통신 모듈(150)은, 외부 전자 장치와 메모리(120) 및/또는 프로세서(110) 사이의 통신을 중계할 수 있다.
도 2를 참조하면, 일 실시 예에 따른 전자 장치(예: 전자 장치(10))는, 복수 개의 의료 영상(예: 의료 영상(421))들의 스택에 대해 서로 상이한 루틴들에 의해 처리된 복수 개(예: 2개)의 가상 의료 영상들을 생성하는 프로세서(예: 프로세서(110))를 포함할 수 있다. 예를 들면, 프로세서는, 복수 개의 의료 영상들의 스택을 로드하는 동작(210)을 수행하고, 복수 개의 의료 영상들의 스택에 대해, 제 1 크기의 복수 개의 셀(예: 128 x 128 픽셀들 또는 복셀들)들의 어레이의 제 1 가상 의료 영상을 생성하는 동작(221) 및 가상 공간 내 가상 디스플레이(예: 가상 디스플레이(340))에 제 1 가상 의료 영상을 표시하는 동작(222)을 포함하는 제 1 루틴(220), 및 제 1 크기보다 작은 제 2 크기의 복수 개의 셀들(예: 512 x 512 픽셀들 또는 복셀들)의 어레이의 제 2 가상 의료 영상을 생성하는 동작(231) 및 가상 공간 내 가상 디스플레이에 제 2 가상 의료 영상을 표시하는 동작(232)을 포함하는 제 2 루틴(230)을 수행할 수 있다.
일 실시 예에서, 프로세서는, 제 1 루틴(220) 및 제 2 루틴(230)을 실질적으로 동시에 수행할 수 있다. 예를 들면, 프로세서가 제 1 루틴(220)을 수행하여 128 x 128 픽셀들 또는 복셀들의 어레이를 갖는 의료 영상으로부터 제 1 가상 의료 영상을 생성하는 동안, 제 1 가상 의료 영상의 복수 개의 픽셀들 또는 복셀들의 어레이의 파라미터(예: 흡수도)의 계산이 적어도 16,384회 반복되는 한편, 프로세서가 제 2 루틴(230)을 수행하여 512 x 512 픽셀들 또는 복셀들의 어레이를 갖는 의료 영상으로부터 제 2 가상 의료 영상을 생성하는 동안, 제 2 가상 의료 영상의 복수 개의 픽셀들 또는 복셀들의 어레이의 파라미터(예: 흡수도)의 계산이 적어도 262,144회 반복될 수 있다. 만약 프로세서에 의해 적어도 300개의 의료 영상들의 스택에 대한 각각의 루틴이 수행되면, 제 1 루틴(220)에 의한 처리 시간 및 제 2 루틴(230)에 의한 처리 시간 사이의 차이는 의료 영상의 개수에 비례하여 크게 증가할 수 있다. 프로세서에 의해 제 1 루틴(220) 및 제 2 루틴(230)이 동시에 수행되는 것은, 사용자에게 제공하기에 적합한 정확도의 제 1 가상 의료 영상을 상대적으로 빠르게 제공하면서, 사용자의 어떤 임의의 수행(예: 가상 시술/수술 시뮬레이션)이 진행되는 동안, 상대적으로 높은 정확도의 제 2 가상 의료 영상을 제공하여 제 1 가상 의료 영상의 정확도를 보완할 수 있다.
일 실시 예에서, 프로세서는, 제 1 루틴(220)에 의해 생성된 제 1 가상 의료 영상 및 제 2 루틴(230)에 의해 생성된 제 2 가상 의료 영상을 오버랩시키는 동작(240)을 수행할 수 있다. 어떤 실시 예에서, 프로세서는, 제 1 루틴(220)에 의해 생성된 제 1 가상 의료 영상에 제 2 루틴(230)에 의해 생성된 제 2 가상 의료 영상을 오버랩시킬 수 있다.
도 2를 참조하면, 일 실시 예에 따른 전자 장치(예: 전자 장치(10))는, 가상 모델(321)에 대해 가상 의료 영상을 생성하기 위한 가상 영상 장치(330) 및 가상 의료 영상을 표시하는 가상 디스플레이(340)를 포함하는 가상 공간(311)을 구현하는 프로세서(예: 프로세서(110))를 포함할 수 있다.
일 실시 예에서, 가상 영상 장치(330)는, 예를 들면, 가상 제네레이터(331), 가상 디텍터(332), 및 가상 제네레이터(331) 및 가상 디텍터(332)를 연결하는 C 형상의 가상 아암(333)을 포함할 수 있다.
일 실시 예에서, 가상 모델(321)은, 복수 개의 의료 영상들의 스택이거나, 복수 개의 의료 영상들에 기초하여 생성될 수 있다. 일 실시 예에서, 가상 모델(321)은 가상 마커(322)와 결합될 수 있다. 어떤 실시 예에서, 가상 모델(321)을 구성하는 복수 개의 의료 영상(예: DICOM 형태의 의료 영상)들의 데이터 및 가상 마커(322)의 데이터는 서로 통합되어 하나의 데이터(예: 변형 의료 영상)로 구현될 수 있다. 예를 들면, 모델(321)을 구성하는 해부학적 구조 및 마커(322)의 구조 사이의 결합 관계, 모델(321)을 구성하는 해부학적 구조 중 적어도 일부(예: 마커(322)가 설치되는 부분) 및 마커(322) 사이의 위치 관계, 모델(321)을 구성하는 해부학적 구조의 크기 및 마커(322)의 크기 사이의 크기 관계 등이 하나의 데이터 내에 정합되게 구현될 수 있다. 통합된 하나의 데이터를 이용하여 가상 공간(311)에 가상 모델(321) 및 가상 마커(322)를 구현하는 것은, 가상 모델(321)을 구성하는 복수 개의 의료 영상들의 데이터 및 가상 마커(322)의 데이터가 가상 공간(311) 내 개별적으로 구현되는 결과에 비하여 보다 정합된 결과를 제공할 수 있다. 일 실시 예에서, 가상 모델(321)은 가상 의료 도구(323)와 결합될 수 있다. 어떤 실시 예에서, 가상 모델(321)을 구성하는 복수 개의 의료 영상들의 데이터 및 가상 의료 도구(323)의 데이터는 서로 통합되어 하나의 데이터(예: 변형 의료 영상)로 구현될 수 있다. 어떤 실시 예에서, 가상 모델(321)을 구성하는 복수 개의 의료 영상들의 데이터, 가상 마커(322)의 데이터 및 가상 의료 도구(323)의 데이터는 하나의 통합된 데이터로 구현될 수 있다. 일 실시 예에서, 가상 모델(321), 가상 마커(322) 및/또는 가상 의료 도구(323)는 가상 제네레이터(331) 및 가상 디텍터(332) 사이에 위치될 수 있다.
도 4a 내지 도 4d를 참조하면, 일 실시 예에 따른 전자 장치(예: 전자 장치(10))는, 가상 공간(411)(예: 가상 공간(311)) 내 가상 제네레이터(431)(예: 가상 제네레이터(331)) 및 가상 디텍터(432)(예: 가상 디텍터(332)) 사이의 가상 모델(예: 가상 모델(321)) 또는 복수 개의 의료 영상(421)들의 스택에 대한 가상 의료 영상을 생성하는 프로세서(예: 프로세서(110))를 포함할 수 있다. 가상 제네레이터(431)의 위치, 가상 디텍터(432)의 위치, 및 복수 개의 의료 영상(421)들의 복수 개의 셀들의 어레이 상의 임의의 포인트(또는 셀)의 위치는, 가상 공간(411) 내에서 미리 결정된 절대 좌표계에 따른 벡터로 표현될 수 있다.
도 4a를 참조하면, 먼저, 프로세서는, 가상 디텍터(432) 상에 미리 결정된 크기의 타겟(4321)(예: 사용자에 의해 설정된 해상도 크기의 타겟)들을 설정할 수 있다. 예를 들면, 프로세서는, 128 x 128 해상도의 가상 의료 영상을 생성하기 위해, 가상 디텍터(432) 상에 128 x 128의 타겟(4321)들의 어레이를 설정할 수 있다.
도 4b를 참조하면, 프로세서는, 가상 디텍터(432)의 타겟(4321)의 위치 벡터 v2에서 가상 제네레이터(431)의 위치 벡터 v1를 뺀 위치 벡터 A와, 복수 개의 의료 영상(421)들의 스택에서 일 의료 영상(421)의 제 1 코너 포인트(4212)의 위치 벡터 v4에서 가상 제네레이터(431)의 위치 벡터 v1을 뺀 위치 벡터 B와, 그 의료 영상(421)의 법선 벡터 C를 계산할 수 있다. 일 실시 예에서, 프로세서는, 의료 영상(421)의 제 2 코너 포인트(4213)의 위치 벡터 v5 및 의료 영상(421)의 제 3 코너 포인트(4214)의 위치 벡터 v6를 이용(예: v5 및 v6의 외적)하여 법선 벡터 C를 계산할 수 있다.
도 4b 및 도 4c를 참조하면, 프로세서는, 위치 벡터 A 및 법선 벡터 C의 제 1 내적 및 위치 벡터 B 및 법선 벡터 C의 제 2 내적을 계산할 수 있다. 이후, 프로세서는 제 2 내적을 제 1 내적으로 나눈 비율(제 2 내적/제 1 내적)을 계산할 수 있다. 프로세서는 상기 비율을 위치 벡터 A에 곱함으로써, 의료 영상(421)의 면 및 위치 벡터 A에 따른 선이 만나는 포인트(4211)를 계산할 수 있다. 한편, 프로세서에 의해 계산된 상기 비율이 음수인 경우, 가상 제네레이터(431)의 방향이 반대 방향이므로, 상기 비율이 양수인 경우만 상기 비율을 상기 계산에 이용할 수 있다.
도 4d를 참조하면, 프로세서는, 위치 벡터 v5에서 위치 벡터 v4를 뺀 위치 벡터의 라인 상의 위치 벡터 v3의 프로젝션(projection)의 제 1 교차 포인트(4215)의 위치 벡터 v7, 및 위치 벡터 v6에서 위치 벡터 v4를 뺀 위치 벡터의 라인 상의 위치 벡터 v3의 프로젝션의 제 2 교차 포인트(4216)의 위치 벡터 v8을 각각 계산할 수 있다. 일 실시 예에서, 프로세서는, 복수 개의 의료 영상(421)들의 각각의 임의의 포인트(4211)를 지나 디텍터(432)의 임의의 타겟(4321)에서의 영상 파라미터(예: 흡수도)들의 합을 계산하고, 위치 벡터 (v7 - v4)의 크기를 위치벡터 (v5 - v4)의 크기로 나눈 값이 1보다 크고 위치 벡터 (v8 - v4)의 크기를 위치벡터 (v6 - v4)의 크기로 나눈 값이 1보다 큰 경우 그 타겟(4321)에 대한 영상 파라미터들의 계산을 종료할 수 있다. 일 실시 예에서, 프로세서는, 상기와 같이 계산된 영상 파라미터(예: 흡수도)들의 합을 의료 영상(421)의 개수로 나눔으로써, 타겟(4321)의 화소 하나의 값을 계산할 수 있다. 일 실시 예에서, 프로세서는, 디텍터(432) 상의 복수 개의 타겟(4321)들에 대해 타겟(4321)의 개수만큼 상기와 같은 동작을 반복함으로써 가상 의료 영상을 생성할 수 있다.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시 예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시 예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (11)

  1. 다양한 증례들에 맞춰 수술 또는 시술 교육 또는 사전 수술 또는 시술을 위한 시뮬레이션을 제공하여 가상 공간 내 구현되는 오브젝트의 정합 정확도를 개선하기 위한 전자 장치에 있어서,
    가상 공간 내 가상 제네레이터 및 가상 디텍터를 포함하는 가상 의료 영상 장치를 이용하여 상기 가상 제네레이터 및 상기 가상 디텍터 사이의 복수 개의 의료 영상들의 스택을 포함하는 가상 모델에 대한 가상 의료 영상을 생성하는 프로세서를 포함하고,
    상기 프로세서는, 제 1 루틴으로서 상기 복수 개의 의료 영상들의 각각의 제 1 크기의 복수 개의 셀들의 어레이에 기초하여 제 1 가상 의료 영상을 생성하고, 상기 제 1 루틴이 수행되는 동안 제 2 루틴으로서 상기 복수 개의 의료 영상들의 각각의 제 1 크기보다 큰 제 2 크기의 복수 개의 셀들의 어레이에 기초하여 제 2 가상 의료 영상을 생성하도록 구성되고,
    상기 프로세서는 상기 제 1 가상 의료 영상에 상기 제 2 가상 의료 영상을 오버랩시키도록 구성되는 전자 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는, 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 동시에 생성하도록 구성되는 전자 장치.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 프로세서는, 사용자의 입력에 기초하여 상기 제 1 크기를 결정하도록 구성된 전자 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는, 상기 가상 제네레이터 및 상기 디텍터 사이의 제 1 벡터, 상기 가상 제네레이터 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 사이의 제 2 벡터, 및 상기 복수 개의 의료 영상들 각각의 법선 벡터를 이용하여 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 생성하도록 구성된 전자 장치.
  6. 제 5 항에 있어서,
    상기 프로세서는, 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트와 다른 제 2 코너 포인트의 위치 벡터, 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 및 상기 제 2 코너 포인트와 다른 제 3 코너 포인트의 위치 벡터를 이용하여 상기 법선 벡터를 계산하도록 구성된 전자 장치.
  7. 제 6 항에 있어서,
    상기 프로세서는, 상기 제 1 벡터 및 상기 법선 벡터의 제 1 내적, 및 상기 제 2 벡터 및 상기 법선 벡터의 제 2 내적을 계산하도록 구성되고,
    상기 프로세서는 상기 제 2 내적을 상기 제 1 내적으로 나눈 비율을 계산하도록 구성되고,
    상기 프로세서는, 상기 제 1 벡터에 상기 비율을 곱하고, 상기 복수 개의 의료 영상들 중 각각의 의료 영상 및 상기 제 1 벡터의 가상의 라인이 만나는 컨택 포인트를 계산하도록 구성된 전자 장치.
  8. 제 7 항에 있어서,
    상기 프로세서는, 상기 제 1 코너 포인트 및 상기 제 2 코너 포인트를 연결하는 제 1 라인 상에 상기 컨택 포인트가 프로젝션 된 제 1 교차 포인트, 및 상기 제 1 코너 포인트 및 상기 제 3 코너 포인트를 연결하는 제 2 라인 상에 상기 컨택 포인트가 프로젝션 된 제 2 교차 포인트를 계산하도록 구성되고,
    상기 프로세서는, 상기 제 1 코너 포인트 및 상기 제 1 교차 포인트 사이의 길이를 상기 제 1 라인의 길이로 나눈 제 1 비율이 1보다 크고 상기 제 1 코너 포인트 및 상기 제 2 교차 포인트 사이의 길이를 상기 제 2 라인의 길이로 나눈 제 2 비율이 1보다 큰 경우, 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상의 생성을 종료하도록 구성된 전자 장치.
  9. 제 8 항에 있어서,
    상기 프로세서는, 상기 제 1 비율을 상기 복수 개의 의료 영상들의 제 1 방향의 픽셀들 또는 복셀들의 개수에 곱하고 상기 제 2 비율을 제 2 방향의 픽셀들 또는 복셀들의 개수에 곱함으로써 상기 복수 개의 의료 영상들의 각각의 흡수도를 계산하도록 구성된 전자 장치.
  10. 제 1 항에 있어서,
    상기 프로세서는, 상기 가상 모델에 위치되도록 구성되는 가상 마커에 대한 데이터 및 상기 복수 개의 의료 영상들 각각에 포함된 해부학적 구조에 대한 데이터를 통합시킴으로써 복수 개의 변형 의료 영상들의 스택을 생성하고, 상기 복수 개의 변형 의료 영상들에 기초하여 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 생성하도록 구성된 전자 장치.
  11. 제 10 항에 있어서,
    상기 프로세서는, 상기 가상 마커 및 상기 가상 모델 사이의 위치 관계, 상기 가상 마커 및 상기 가상 모델 사이의 결합 구조, 및 상기 가상 마커 및 상기 가상 모델 사이의 크기 관계 중 적어도 하나 이상을 이용하여 상기 복수 개의 변형 의료 영상들의 스택을 생성하는 전자 장치.
KR1020210093554A 2021-07-16 2021-07-16 의료 환경의 가상 현실을 구현하기 위한 전자 장치 KR102615906B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210093554A KR102615906B1 (ko) 2021-07-16 2021-07-16 의료 환경의 가상 현실을 구현하기 위한 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210093554A KR102615906B1 (ko) 2021-07-16 2021-07-16 의료 환경의 가상 현실을 구현하기 위한 전자 장치

Publications (2)

Publication Number Publication Date
KR20230012820A KR20230012820A (ko) 2023-01-26
KR102615906B1 true KR102615906B1 (ko) 2023-12-21

Family

ID=85110682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210093554A KR102615906B1 (ko) 2021-07-16 2021-07-16 의료 환경의 가상 현실을 구현하기 위한 전자 장치

Country Status (1)

Country Link
KR (1) KR102615906B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090017430A1 (en) 2007-05-15 2009-01-15 Stryker Trauma Gmbh Virtual surgical training tool
US20190011703A1 (en) * 2016-07-25 2019-01-10 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443346B2 (en) * 2013-07-23 2016-09-13 Mako Surgical Corp. Method and system for X-ray image generation
KR101954868B1 (ko) * 2016-05-03 2019-03-08 재단법인대구경북과학기술원 혈관 중재 시술을 위한 내비게이션 시스템 및 가상의 엑스선 이미지 생성 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090017430A1 (en) 2007-05-15 2009-01-15 Stryker Trauma Gmbh Virtual surgical training tool
US20190011703A1 (en) * 2016-07-25 2019-01-10 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hyunyoung Seong 외 4인, Development of pre-procedure virtual simulation for challenging interventional procedures: an experimental study with clinical application(2022) 1부.
M. Teistler 외 6인, Simplifying the Exploration of Volumetric Images: Development of a 3D User Interface for the Radiologist’s Workplace(2008) 1부.*
Oliver Johannes Bott 외 11인, virtX - a computer based system for training the intrasurgical use of mobile image intensifier systems(2006) 1부.*

Also Published As

Publication number Publication date
KR20230012820A (ko) 2023-01-26

Similar Documents

Publication Publication Date Title
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
Wang et al. Video see‐through augmented reality for oral and maxillofacial surgery
US20180182157A1 (en) Fast rendering of quadrics
US10872439B2 (en) Method and device for verification
US20180182159A1 (en) Fast rendering of quadrics and marking of silhouettes thereof
US6369818B1 (en) Method, apparatus and computer program product for generating perspective corrected data from warped information
US9406164B2 (en) Apparatus and method of multi-view rendering
US9875578B2 (en) Voxelization of a mesh
KR20190125526A (ko) 사용자 움직임 정보에 기초하여 영상을 표시하기 위한 방법 및 장치
EP3506204B1 (en) Image processing system, method and program therefor
US20030218610A1 (en) System and method for implementing shadows using pre-computed textures
KR102398171B1 (ko) 증강현실 기반 유방 수술을 위한 유방 변형 예측 방법, 이를 수행하기 위한 기록 매체 및 장치
KR20190088379A (ko) 자세 추정 방법, 추정된 자세를 이용하여 가상 객체를 디스플레이하는 방법, 및 이를 수행하는 장치들
CN110322539B (zh) 三维物体的三维模型切割过程显示方法、装置与电子设备
KR102615906B1 (ko) 의료 환경의 가상 현실을 구현하기 위한 전자 장치
KR101844278B1 (ko) 관절식 객체의 자세를 추정하기 위한 파라미터 학습 방법 및 관절식 객체의 자세 추정 방법
JP2013539136A (ja) モーションブラー及び被写界深度のためのバックフェースカリング
US11514645B2 (en) Electronic device for providing visual localization based on outdoor three-dimension map information and operating method thereof
JP2010033397A (ja) 画像合成装置および方法
KR102583320B1 (ko) 증강현실 기반 뇌실천자술을 위한 뇌 변형 예측 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102577964B1 (ko) 간 수술을 위한 정렬 시스템
Noborio et al. Omni-directional shortest distance algorithm by complete parallel-processing based on GPU cores
US10699409B2 (en) Removing ghost markers from a measured set of medical markers
KR101573168B1 (ko) 3차원 모델의 비트맵 생성 장치 및 방법
KR102412373B1 (ko) 다중 시점 X-ray 데이터를 활용한 3D 데이터 생성 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)