KR20220107546A - 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템 - Google Patents

표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템 Download PDF

Info

Publication number
KR20220107546A
KR20220107546A KR1020210010303A KR20210010303A KR20220107546A KR 20220107546 A KR20220107546 A KR 20220107546A KR 1020210010303 A KR1020210010303 A KR 1020210010303A KR 20210010303 A KR20210010303 A KR 20210010303A KR 20220107546 A KR20220107546 A KR 20220107546A
Authority
KR
South Korea
Prior art keywords
image
patient
optical camera
depth optical
rgb depth
Prior art date
Application number
KR1020210010303A
Other languages
English (en)
Other versions
KR102534981B1 (ko
Inventor
손문준
문치웅
김광현
이행화
Original Assignee
인제대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인제대학교 산학협력단 filed Critical 인제대학교 산학협력단
Priority to KR1020210010303A priority Critical patent/KR102534981B1/ko
Priority to PCT/KR2021/017598 priority patent/WO2022158697A1/ko
Publication of KR20220107546A publication Critical patent/KR20220107546A/ko
Application granted granted Critical
Publication of KR102534981B1 publication Critical patent/KR102534981B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0492Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Alarm Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템이 개시된다.
이를 위해 본 발명은 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 우측 체부를 촬상하는 제1 RGB 깊이 광학카메라, 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 좌측 체부를 촬상하는 제2 RGB 깊이 광학카메라, 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 정면 체부를 촬상하는 중앙 RGB 깊이 광학카메라, 3대의 카메라인 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라와 연동되어 촬상된 정보를 기초로 환자의 3차원 데이터를 수집하고, 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 환자의 기준3D이미지를 얻는 중앙서버를 포함하되, 상기 중앙서버는 상기 기준3D이미지와 촬상을 통해 얻는 환자의 3D이미지를 비교하여 동일한 이미지인지 판단하는 것을 특징으로 한다.

Description

표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템{System for alignmenting patient position and monitoring with surface image guidance}
본 발명은 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템에 관한 것이다.
환자를 검사할 때 의사는 여러 가지 영상 기법을 사용할 수 있다. 각 영상 기법은 일부 조직 타입 및/또는 조직 기능에 대하여는 우수한 세부적인 영상을 제공할 수 있으나, 다른 조직 타입 및/또는 기능에 대해서는 열악한 영상을 제공할 수 있다.
그러므로, 종합적인 임상 화면을 얻기 위해서는 여러 다양한 기법들이 사용될 수 있다.
CT 영상 기법은 예를 들면, 영상 아티팩트(artifact), 강도(intensity) 레벨 및/또는 공간적 형상의 차이의 면에서 다를 수 있다.
상기 차이는 각각의 기법의 영상 형성에 관한 물리적 과정에 기인할 수 있다.
CT 영상은 360도를 회전하는 시스템 구조로 X-선을 조사하여 검출기로 획득한 영상을 재구성하여 획득하게 된다.
이러한 진단 영상으로부터 환자의 치료를 결정하게 되면, 치료실 및 수술실에서 수술 계획에 따른 환자의 치료 병변 위치에 대한 수술 및 치료 부위를 확정하기 위하여, 치료실 또는 수술실 내에서 영상을 획득하여야 한다.
이에 치료실 또는 수술실 내에서 위치 확인을 위하여서 환자의 자세를 확인하기 위한 실시간 영상 시스템을 필요로 한다.
이러한 치료실 내 환자의 위치를 확인하기 위한 영상화 기법을 이용하여, 환자 정보를 혼합하고 치료 과정의 진단, 후속 조치 및 시각화를 더 잘 하기 위해 치료실 내에서 환자 위치의 확인을 위한 이미징 시스템의 개발을 위한 다양한 시도가 되어왔다.
그러나, 각 기법의 영상 정보와 관련 있는 물리학적 요소에 기인한 영상 아티팩트, 강도 차이 및 공간적 형상의 차이와 같은 기법의 차이는 표준 의료 영상과의 정합을 어렵게 만들었다.
KR 10-2018-0141885 (2018.11.16)
본 발명은 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템을 제공함에 그 목적이 있다.
표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템이 개시된다.
이를 위해 본 발명은 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 우측 체부를 촬상하는 제1 RGB 깊이 광학카메라, 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 좌측 체부를 촬상하는 제2 RGB 깊이 광학카메라, 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 정면 체부를 촬상하는 중앙 RGB 깊이 광학카메라, 3대의 카메라인 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라와 연동되어 촬상된 정보를 기초로 환자의 3차원 데이터를 수집하고, 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 환자의 기준3D이미지를 얻는 중앙서버를 포함하되, 상기 중앙서버는 상기 기준3D이미지와 촬상을 통해 얻는 환자의 3D이미지를 비교하여 동일한 이미지인지 판단하는 것을 특징으로 한다.
상기와 같은 구성으로 이루어진 본 발명에 의한다면 3개의 제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라를 활용하여 환자의 형태를 3D로 Scanning하고 이를 활용하여 환자의 몸을 고정시켜 정렬시 항상 동일한 위치, 부위에 정렬 할 수 있게 도와주는 효과가 구현된다.
또한, 본 발명에 의한다면 환자의 위치를 맞추는 의료 인력에 의한 휴먼 에러(Human error)를 최소화 하여 더욱 정확한 수술 및 치료가 되는 등의 다양한 효과가 구현된다.
도 1은 본 발명인 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템의 전체 구성도,
도 2는 환자의 3차원 체표면 영상과 환자의 CT 영상을 정합하여 별도의 디스플레이부에 표시되는 상태를 나타내는 도면,
도 3은 본 발명의 개략적인 기술 모식도 1,
도 4는 본 발명의 개략적인 기술 모식도 2,
도 5는 본 발명의 일 구성요소인 제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라가 실제 설치된 상태도,
도 6은 본 발명을 이용하여 수술실 및 치료실 내에서 팬텀을 영상화하는 장면을 나타내는 사진,
도 7은 본 발명이 이용될 수 있도록 개발된 팬텀을 나타내는 사진,
도 8, 도 9, 도 10은 본 발명이 구현될 수 있는 일종의 디스플레이부 화면 혹은 어플리케이션 UI를 나타내는 사진,
도 11은 본 발명의 일 구성요소인 테이블을 셋팅하는 과정을 설명하기 위한 도면,
도 12, 도 13은 매칭 여부 및 정렬가이드를 설명하기 위한 도면,
도 14 내지 도 16은 저장된 3D이미지와 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단하기 위해 본 발명에서 채용한 로직을 설명하기 위한 도면과 저장된 3D이미지와 기준3D이미지와 비교시 그 매칭 여부에 따라 서로 다른 색상으로 디스플레이부에 표시되는 상태를 나타내는 도면이다.
도 17 은 최초 등록 표면 영상과 현재 위치 영상을 일치시킨 경우와 불일치 된 경우를 설명하기 위한 도면이고, 도 18은 스캔 모델이 등록이 되고 저장되는 과정을 설명하기 위한 디스플레이 화면을 나타낸다.
도 19는 Iterative closest 알고리즘을 이용하여 저장된 3D이미지와 기준3D이미지와 비교하여 x,y,z 3축의 방향으로의 포인트의 거리 및 방향 차이를 변환 병렬 값으로 획득하는 것을 설명하기 위한 순서도이다.
도 20은 본 발명의 일 구성요소인 3대의 카메라를 이용해서 환자 정보를 얻은 이미지를 나타내는 도면이다.
도 21은 본 발명에 적용된 다운샘플링을 설명하기 위한 도면이다.
이하 첨부된 도면을 참조로 본 발명인 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템의 바람직한 실시예를 설명한다.
도 1은 본 발명인 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템의 전체 구성도, 도 2는 환자의 3차원 체표면 영상과 환자의 CT 영상을 정합하여 별도의 디스플레이부에 표시되는 상태를 나타내는 도면, 도 3은 본 발명의 개략적인 기술 모식도 1, 도 4는 본 발명의 개략적인 기술 모식도 2, 도 5는 본 발명의 일 구성요소인 제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라가 실제 설치된 상태도, 도 6은 본 발명을 이용하여 수술실 및 치료실 내에서 팬텀을 영상화하는 장면을 나타내는 사진, 도 7은 본 발명이 이용될 수 있도록 개발된 팬텀을 나타내는 사진, 도 8, 도 9, 도 10은 본 발명이 구현될 수 있는 일종의 디스플레이부 화면 혹은 어플리케이션 UI를 나타내는 사진, 도 11은 본 발명의 일 구성요소인 테이블을 셋팅하는 과정을 설명하기 위한 도면, 도 12, 도 13은 매칭 여부 및 정렬가이드를 설명하기 위한 도면, 도 14 내지 도 16은 저장된 3D이미지와 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단하기 위해 본 발명에서 채용한 로직을 설명하기 위한 도면과 저장된 3D이미지와 기준3D이미지와 비교시 그 매칭 여부에 따라 서로 다른 색상으로 디스플레이부에 표시되는 상태를 나타내는 도면이다. 도 17 및 도 18은 스캔등록을 설명하기 위해 첨부된 도면이다. 도 19는 Iterative closest 알고리즘을 이용하여 저장된 3D이미지와 기준3D이미지와 비교하여 x,y,z 3축의 방향으로의 포인트의 거리 및 방향 차이를 변환 병렬 값으로 획득하는 것을 설명하기 위한 순서도이다. 도 20은 본 발명의 일 구성요소인 3대의 카메라를 이용해서 환자 정보를 얻은 이미지를 나타내는 도면이다. 도 21은 본 발명에 적용된 다운샘플링을 설명하기 위한 도면이다.
이하 도 1 내지 도 21을 참조로 본 발명을 구체적으로 설명하면 다음과 같다.
도 1 내지 도 2에 본 발명의 전체 구성도가 개시되어 있으며, 도시된 바와 같이 본 발명은 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 우측 체부를 촬상하는 제1 RGB 깊이 광학카메라, 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 좌측 체부를 촬상하는 제2 RGB 깊이 광학카메라, 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 정면 체부를 촬상하는 중앙 RGB 깊이 광학카메라, 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라와 연동되어 촬상된 정보를 기초로 환자의 3차원 데이터를 수집하고, 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 환자의 기준3D이미지를 얻는 중앙서버를 포함하되, 상기 중앙서버는 상기 기준3D이미지와 촬상을 통해 얻는 환자의 3D이미지를 비교하여 동일한 이미지인지 판단하는 것을 특징으로 한다.
도 3은 이러한 본 발명의 개략적인 기술 모식도 1이고, 도 4는 본 발명의 개략적인 기술 모식도 2이다.
상기의 구성으로 본 발명은 3개의 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라를 활용하여 환자의 형태를 3D로 Scanning하고 이를 활용하여 환자의 몸을 고정시켜 정렬시 항상 동일한 위치에 부위에 정렬 할 수 있게 도와준다.
더 나아가 종래의 7개의 광학식 Marker를 사용하는 방식에 추가하여 3개의 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라를 이용하여 디스플레이부를 통하여 시각적으로 확인이 가능하게 하며 CT Image(DICOM Data)와의 연동이 가능한 형태의 기술을 제공하게 된다.
먼저 3개의 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라를 이용하여 3D 스캐닝 과정이 수행된다.
환자의 위치와 대상을 3D화하여 modeling을 위한 데이터를 구성하는 단계로,
3D화한 대상을 Modeling하여 디스플레이부에 출력시키고 프레임 단위로 갱신한다.
그 다음으로, 저장과 정합 여부를 수행하는 단계가 수행된다.
환자의 기준이 되는 기준3D이미지의 구성과 위치를 저장하여 환자의 정보를 획득한다.
그 후 다시 환자가 3개의 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라 내에 노출되었을시 사용자의 최종 갱신된 3D이미지와 기준3D이미지의 구성과 위치를 파악하고 저장된 기준3D이미지의 정보와의 차이점을 구분 짓는 표현을 실시간으로 수행한다.(기준3D이미지와 촬상을 통해 얻는 환자의 3D이미지를 비교하여 동일한 이미지인지 판단하는 단계)
이를 위해 기준3D이미지와 촬상을 통해 얻는 환자의 3D이미지를 비교시 수치화 하여 실시간으로 비교 및 표시한다.(Hausdorff distance 이용)
그 다음으로 CT DATA를 출력하게 된다.
실시간으로 생성된 환자의 표면 데이터(포인트 클라우드) 위에 CT 이미지를 정렬시켜 화면상에 리얼타임 3D 데이터를 출력하고, 사용자가 원하는 위치의 CT 사진을 Align Guide 중 언제든 열람할 수 있도록 한다.
한편, 중앙서버는 상기 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 이미지 프로세싱 과정을 수행하여 환자의 체부 3D 이미지를 얻는 것을 특징으로 한다.
더 나아가 본 발명은 사용자가 확인할 수 있는 별도의 디스플레이부가 더 포함되는데, 상기 디스플레이부에는 상기 환자의 체부 3D 이미지와 환자의 CT 영상을 정합하여 사용자에게 디스플레이 해주는 것을 특징으로 한다.
기 설명한 바와 같이, 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라 및 상기 중앙서버는 모델링 대상인 환자의 위치를 지정하여 상기 기준3D이미지를 얻는 것을 특징으로 한다.
이때, 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라는 환자의 깊이, 표면, 위치를 센싱한 뒤 상기 3D이미지를 생성하고, 환자의 움직임에 따라 트래킹하여 실시간으로 상기 3D이미지를 갱신한 후, 상기 중앙서버는 최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내(±1 mm 이내)의 동일한 이미지인지를 판단하는 것을 특징으로 한다.
상기와 같은 구성에 의한 단계를 보다 구체적으로 설명하면 다음과 같다.
일명 초기화하는 단계가 수행된다.
환자를 테이블에 눕힌다.
상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라를 이용하여 환자의 깊이, 표면, 위치를 받아 3D Model로 생성시키고, 3D Model을 환자 정보에 저장한다.(저장된 3D 이미지 생성하는 단계)
그 다음으로 일명 정렬 가이드 단계가 수행된다.
환자를 테이블에 눕힌다.
상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라를 이용하여 환자의 깊이, 표면, 위치를 받아 3D Model로 생성시키고, 이미지 프로세싱 과정을 거쳐서 3D 모델을 생성한다.
이미지 프로세싱 과정은 제 1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라로부터 얻은 각각의 표면 영상을 중앙 RGB 깊이 광학카메라로부터 얻은 중앙 이미지로부터, 좌측 및 우측 영상과 합하여 한 개의 영상으로 통합하는 과정이다.
통합 영상을 만들 경우, 특정 3차원 좌표 x, y, z 좌표를 기준으로 중앙 이미지와 좌측 영상 또는 우측 영상에 대하여 해당 좌표의 위치가 같으면, 이를 동일 지점으로 간주하고, 위치가 다른 좌표에 대하여는, 중앙 RGB 깊이 광학카메라로부터 얻은 이미지 좌표를 기준으로 위치가 다른 좌표에 대하여, 회전(R)과 이동(T) 행렬변환을 통하여, 새로운 통합 이미지의 좌표 x', y', z' 좌표를 생성한다. 이렇게 생성된 3D Model을 환자 정보에 저장한다.(저장된 3D 이미지 생성하는 단계)
그 다음으로 일명 정렬 가이드 단계가 수행된다.
환자를 테이블에 눕힌다.
상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라를 이용하여 환자의 깊이, 표면, 위치를 받아 3D Model로 생성시키고, 환자의 움직임에 따라 Tracking하여 갱신 시킨다.(최종 갱신된 3D이미지 생성 및 저장하는 단계)
그 다음으로 저장된 3D 이미지와 최종 갱신된 3D이미지를 비교하여 설정된 유효 범위 내에 있어 동일한 이미지로 볼 수 있는지에 대해 체크하며, 그에 따라 조정 및 완료된다.
한편, 도 5는 본 발명의 일 구성요소인 제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라가 실제 설치된 상태도, 도 6은 본 발명을 이용하여 수술실 및 치료실 내에서 팬텀을 영상화하는 장면을 나타내는 사진, 도 7은 본 발명이 이용될 수 있도록 개발된 팬텀을 나타내는 사진이다.
도 5에 도시된 바와 같이, Point Clouds는 좌, 우 카메라(제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라)에 의한 TL, TR Matrix을 Top Camera(중앙 RGB 깊이 광학카메라)에 변환, 3개의 Camera(제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라)는 하나의 값으로 병합된다.
결국, 정렬 가이드의 핵심은 제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라, 중앙 RGB 깊이 광학카메라에 의한 환자의 3D Model detection을 통하여, 3가지 카메라로부터 획득한 영상의 형성을 위한 회전 및 이동등의 영상 처리 알고리즘, 영상을 표시하고 환자 정보를 디스플레이하여 주는 통합 유저 인터페이스가 되는 것이다.
본 발명의 일 구성요소인 중앙서버는 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 이미지 프로세싱 과정을 수행하여 환자의 체부 3D 이미지를 얻는 것을 특징으로 하되, 이미지 프로세싱 과정은 제1 RGB 깊이 광학카메라, 제2 RGB 깊이 광학카메라 및 중앙 RGB 깊이 광학카메라로 부터 각각 촬상된 표면 영상을 하나의 영상으로 통합하는 것을 특징으로 한다.
이때, 프로세싱 과정의 속도가 지연되는 것을 방지하기 위해 이미지 축소를 위한 다운샘플링 로직을 거치되, 다운샘플링 로직이 수행되기 위한 행렬은 하기의 식으로 진행되는 것을 특징으로 한다.
3차원 공간의 x, y, z 좌표를 기준으로 중앙 RGB 깊이 광학카메라로 촬상된 표면 영상 이미지와 제1 RGB 깊이 광학카메라와 제2 RGB 깊이 광학카메라에 의해 각각 촬상된 우측 표면 영상 이미지 또는 좌측 표면 영상 이미지에 대하여 해당 좌표의 위치가 같으면, 이를 동일 지점으로 간주하고, 위치가 다른 좌표에 대하여는, 중앙 RGB 깊이 광학카메라로부터 얻은 표면 영상 이미지 좌표를 기준으로 위치가 다른 좌표에 대하여, 하기의 회전(R)과 이동(T) 행렬변환을 통하여, 통합된 영상 이미지의 좌표 x', y', z' 생성하는 것을 특징으로 한다.
Figure pat00001
한편, 도 8, 도 9, 도 10은 본 발명이 구현될 수 있는 일종의 디스플레이부 화면 혹은 어플리케이션 UI를 나타내는 사진이고, 도 11은 본 발명의 일 구성요소인 테이블을 셋팅하는 과정을 설명하기 위한 도면이며, 그 구체적인 설명은 도면으로 대체한다.
다만, 도 11에서 각 Marker와 지정된 위치가 명확히 일치 했을 때와 그렇지 않을 때를 다음과 같이 표시된다.
Figure pat00002
한편, 도 12, 도 13은 매칭 여부 및 정렬가이드를 설명하기 위한 도면이고, 도 14 내지 도 16은 저장된 3D이미지와 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단하기 위해 본 발명에서 채용한 로직을 설명하기 위한 도면과 저장된 3D이미지와 기준3D이미지와 비교시 그 매칭 여부에 따라 서로 다른 색상으로 디스플레이부에 표시되는 상태를 나타내는 도면이다.
도 17 은 최초 등록 표면 영상과 현재 위치 영상을 일치시킨 경우와 불일치 된 경우를 설명하기 위한 도면이고, 도 18은 스캔 모델이 등록이 되고 저장되는 과정을 설명하기 위한 디스플레이 화면을 나타낸다.
도 19는 Iterative closest 알고리즘을 이용하여 저장된 3D이미지와 기준3D이미지와 비교하여 x,y,z 3축의 방향으로의 포인트의 거리 및 방향 차이를 변환 병렬 값으로 획득하는 것을 설명하기 위한 순서도이다.
도 20은 본 발명의 일 구성요소인 3대의 카메라를 이용해서 환자 정보를 얻은 이미지를 나타내는 도면이다.
도 21은 본 발명에 적용된 다운샘플링을 설명하기 위한 도면이다.
최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단하는 것은 하기의 식으로 구현되는 것을 특징으로 한다.
중앙서버에서 최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단하는 것은 하기 위해 Hausdorff distance 식과 iterative closest 알고리즘을 구현되는 것을 특징으로 한다.
이때, Iterative closest 알고리즘은 도 19와 같은 순서로 저장된 3D이미지와 기준3D이미지와 비교하여 x,y,z 3축의 방향으로의 포인트의 거리 및 방향 차이를 변환 병렬 값으로 획득한다.
설정된 유효범주는 AAPM TG40에 따라 재위치 오차는 상기 이미지가 저장된 3D 이미지를 기준으로 유효범위(±1 mm) 이내에 포함 되어야 한다.
이때, 두 지점의 거리차가 0에 가까울수록 두가지의 물체가 근접하여 일치되고 있는 것으로 판단하여 이를 가장 근접한 거리로 정의한다.
그리고 공간 상의 점에 대한 거리차는 x, y, z 좌표에 대한 한 개의 평균 거리로 표현된다.
Figure pat00003
Figure pat00004
Figure pat00005
(Hausdorff distance 정의하고, Hausdorff 거리는 두 모델 간의 최대 편차이며, 공간상의 두 점 집합 (각 A와 각 B 점)이 거리상으로는 서로 최소에 근접한 지점이면서, 최초 A 지점과 이동한 A 지점은 거리상으로는 서로 최대가 됨으로써, 이들이 서로 얼마나 분리되어 있는지를 측정, 비어 있지 않은 두 개의 클라우드 포인트 세트 A와 B를 지정하면 A와 B 사이의 Hausdorff 거리는 H(A,B)로 정의)
이때, 최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내에 속하는 경우와 속하지 않는 경우 별도의 색상으로 상기 디스플레이부에 표시하는 것을 특징으로 하는데 이는 도 15 내지 도 16에 도시되어 있다.
도 17 및 도 18은 스캔등록을 설명하기 위해 첨부된 도면이고, 구체적인 설명은 도면으로 대체한다.

Claims (8)

  1. 환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 우측 체부를 촬상하는 제1 RGB 깊이 광학카메라;
    환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 좌측 체부를 촬상하는 제2 RGB 깊이 광학카메라;
    환자가 누울 수 있는 테이블 측을 향해 위치하고 환자의 정면 체부를 촬상하는 중앙 RGB 깊이 광학카메라;
    3대의 카메라인 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라와 연동되어 촬상된 정보를 기초로 환자의 3차원 데이터를 수집하고, 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 환자의 기준3D이미지를 얻는 중앙서버;를 포함하되,
    상기 중앙서버는 상기 기준3D이미지와 촬상을 통해 얻는 환자의 3D이미지를 비교하여 동일한 이미지인지 판단하는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.
  2. 청구항 1에 있어서,
    상기 중앙서버는 상기 3차원 공간의 x,y,z 좌표를 갖는 데이터 포인트를 획득한 뒤 이미지 프로세싱 과정을 수행하여 환자의 체부 3D 이미지를 얻는 것을 특징으로 하되, 상기 이미지 프로세싱 과정은 상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라 및 상기 중앙 RGB 깊이 광학카메라로 부터 각각 촬상된 표면 영상을 하나의 영상으로 통합하는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.
  3. 청구항 2에 있어서,
    상기 프로세싱 과정의 속도가 지연되는 것을 방지하기 위해 이미지 축소를 위한 다운샘플링 로직을 거치되, 상기 다운샘플링 로직이 수행되기 위한 행렬은 하기의 식으로 진행되는 것을 특징으로 하며,
    상기 3차원 공간의 x, y, z 좌표를 기준으로 상기 중앙 RGB 깊이 광학카메라로 촬상된 표면 영상 이미지와 상기 제1 RGB 깊이 광학카메라와 상기 제2 RGB 깊이 광학카메라에 의해 각각 촬상된 우측 표면 영상 이미지 또는 좌측 표면 영상 이미지에 대하여 해당 좌표의 위치가 같으면, 이를 동일 지점으로 간주하고, 위치가 다른 좌표에 대하여는, 상기 중앙 RGB 깊이 광학카메라로부터 얻은 표면 영상 이미지 좌표를 기준으로 위치가 다른 좌표에 대하여, 하기의 회전(R)과 이동(T) 행렬변환을 통하여, 통합된 영상 이미지의 좌표 x', y', z' 생성하는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.

    Figure pat00006
  4. 청구항 3에 있어서,
    사용자가 확인할 수 있는 별도의 디스플레이부가 더 포함되고,
    상기 디스플레이부에는 환자의 체부 3D 이미지와 환자의 CT 영상을 정합하여 사용자에게 디스플레이 해주는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.
  5. 청구항 4에 있어서,
    상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라 및 상기 중앙서버는 영상화 대상인 환자의 위치를 지정하여 상기 기준3D이미지를 얻는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.
  6. 청구항 5에 있어서,
    상기 제1 RGB 깊이 광학카메라, 상기 제2 RGB 깊이 광학카메라, 상기 중앙 RGB 깊이 광학카메라는 환자의 깊이, 표면, 위치를 센싱한 뒤 상기 3D이미지를 생성하고, 환자의 움직임에 따라 트래킹하여 실시간으로 상기 3D이미지를 갱신한 후,
    상기 중앙서버는 최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단하는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.
  7. 청구항 6에 있어서,
    상기 중앙서버에서 최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내의 동일한 이미지인지를 판단 하기 위해 Hausdorff distance 식과 iterative closest 알고리즘을 이용하는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.
    Figure pat00007

    Figure pat00008

    Figure pat00009

    (Hausdorff distance 정의하고, Hausdorff 거리는 두 모델 간의 최대 편차이며, 두 점 집합이 서로 얼마나 떨어져 있는지를 측정, 비어 있지 않은 두 개의 클라우드 포인트 세트 A와 B를 지정하면 A와 B 사이의 Hausdorff 거리는 H(A,B)로 정의)
  8. 청구항 7에 있어서,
    상기 중앙서버는,
    최종 갱신된 3D이미지를 저장하고, 저장된 3D이미지와 상기 기준3D이미지와 비교하여 설정된 유효 범주 내에 속하는 경우와 속하지 않는 경우 별도의 색상으로 상기 디스플레이부에 표시하는 것을 특징으로 하는, 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템.



KR1020210010303A 2021-01-25 2021-01-25 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템 KR102534981B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210010303A KR102534981B1 (ko) 2021-01-25 2021-01-25 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템
PCT/KR2021/017598 WO2022158697A1 (ko) 2021-01-25 2021-11-26 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210010303A KR102534981B1 (ko) 2021-01-25 2021-01-25 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템

Publications (2)

Publication Number Publication Date
KR20220107546A true KR20220107546A (ko) 2022-08-02
KR102534981B1 KR102534981B1 (ko) 2023-05-19

Family

ID=82549533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210010303A KR102534981B1 (ko) 2021-01-25 2021-01-25 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템

Country Status (2)

Country Link
KR (1) KR102534981B1 (ko)
WO (1) WO2022158697A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101337423B1 (ko) * 2012-09-18 2013-12-06 전남대학교산학협력단 깊이 정보와 움직임 정보를 이용한 움직임 객체 검출 및 추적방법
KR20140142037A (ko) * 2013-06-03 2014-12-11 삼성전자주식회사 포즈 추정 방법 및 장치
KR20160022576A (ko) * 2014-08-20 2016-03-02 한국전자통신연구원 알지비 센서 및 깊이 센서 기반 3차원 인체 관절 좌표 정합 장치 및 방법
KR20170015928A (ko) * 2014-05-23 2017-02-10 주식회사바텍 깊이 카메라를 이용한 의료영상 촬영장치 및 의료영상 보정방법
KR20200013984A (ko) * 2018-07-31 2020-02-10 서울대학교산학협력단 3d 영상 정합 제공 장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101337423B1 (ko) * 2012-09-18 2013-12-06 전남대학교산학협력단 깊이 정보와 움직임 정보를 이용한 움직임 객체 검출 및 추적방법
KR20140142037A (ko) * 2013-06-03 2014-12-11 삼성전자주식회사 포즈 추정 방법 및 장치
KR20170015928A (ko) * 2014-05-23 2017-02-10 주식회사바텍 깊이 카메라를 이용한 의료영상 촬영장치 및 의료영상 보정방법
KR20160022576A (ko) * 2014-08-20 2016-03-02 한국전자통신연구원 알지비 센서 및 깊이 센서 기반 3차원 인체 관절 좌표 정합 장치 및 방법
KR20200013984A (ko) * 2018-07-31 2020-02-10 서울대학교산학협력단 3d 영상 정합 제공 장치 및 그 방법

Also Published As

Publication number Publication date
KR102534981B1 (ko) 2023-05-19
WO2022158697A1 (ko) 2022-07-28

Similar Documents

Publication Publication Date Title
US11576645B2 (en) Systems and methods for scanning a patient in an imaging system
KR102018565B1 (ko) 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램
US9498132B2 (en) Visualization of anatomical data by augmented reality
Wang et al. A practical marker-less image registration method for augmented reality oral and maxillofacial surgery
US9990744B2 (en) Image registration device, image registration method, and image registration program
US11576578B2 (en) Systems and methods for scanning a patient in an imaging system
US7546156B2 (en) Method of indexing biological imaging data using a three-dimensional body representation
US11915378B2 (en) Method and system for proposing and visualizing dental treatments
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JPH10143652A (ja) 医用画像合成装置
WO2014050019A1 (ja) 仮想内視鏡画像生成装置および方法並びにプログラム
WO2001057805A2 (en) Image data processing method and apparatus
CN111658142A (zh) 一种基于mr的病灶全息导航方法及系统
US10102638B2 (en) Device and method for image registration, and a nontransitory recording medium
US10631948B2 (en) Image alignment device, method, and program
KR102534981B1 (ko) 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템
CN114283179A (zh) 基于超声图像的骨折远近端空间位姿实时获取与配准系统
CN114496197A (zh) 内窥镜图像注册系统和方法
Chen et al. Video-guided calibration of an augmented reality mobile C-arm
JP2023520618A (ja) 多視点姿勢推定を使用するための方法及びシステム
US10049480B2 (en) Image alignment device, method, and program
CN111743628A (zh) 一种基于计算机视觉的自动穿刺机械臂路径规划的方法
US20230196595A1 (en) Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
CN113614785A (zh) 介入设备跟踪
CN116983084A (zh) 一种穿支皮瓣三维导航方法和系统

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant