KR20190080702A - 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램 - Google Patents

3차원 탄성 모델 렌더링 방법, 장치 및 프로그램 Download PDF

Info

Publication number
KR20190080702A
KR20190080702A KR1020180055097A KR20180055097A KR20190080702A KR 20190080702 A KR20190080702 A KR 20190080702A KR 1020180055097 A KR1020180055097 A KR 1020180055097A KR 20180055097 A KR20180055097 A KR 20180055097A KR 20190080702 A KR20190080702 A KR 20190080702A
Authority
KR
South Korea
Prior art keywords
node
voxel
tree
determining
condition
Prior art date
Application number
KR1020180055097A
Other languages
English (en)
Inventor
김호승
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Publication of KR20190080702A publication Critical patent/KR20190080702A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Gynecology & Obstetrics (AREA)
  • Manipulator (AREA)
  • Image Generation (AREA)

Abstract

컴퓨터가 트리를 탐색하는 단계, 상기 트리에 포함된 제1 경로에 대한 한계 노드를 결정하는 단계, 상기 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득하는 단계 및 상기 획득된 정보를 이용하여, 상기 제1 복셀을 포함하는 객체를 표시하는 단계를 포함하고, 상기 트리는, 대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함는 것인, 3차원 탄성 모델 렌더링 방법.

Description

3차원 탄성 모델 렌더링 방법, 장치 및 프로그램 {METHOD, APPARATUS AND PROGRAM FOR RENDERING 3D ELASTIC MODEL}
본 발명은 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램에 관한 것이다.
렌더링은 2차원의 화상에 광원, 위치 및 색상 등 외부의 정보를 고려하여 사실감을 불어넣어, 3차원 화상을 만드는 과정을 뜻하는 컴퓨터그래픽스 용어이다.
예를 들어, 평면인 그림에 형태, 위치, 조명 등 외부의 정보에 따라 다르게 나타나는 그림자, 색상, 농도 등을 고려하면서 실감나는 3차원 화상을 만들어내는 과정 또는 그러한 기법을 일컫는다. 즉, 평면적으로 보이는 물체에 그림자나 농도의 변화 등을 주어 입체감이 들게 함으로써 사실감을 추가하는 컴퓨터그래픽상의 과정이 곧 렌더링이다.
옥트리(octree)는 팔진 트리를 의미하며, 삼차원 공간을 재귀적으로 분할하는 경우에 자주 쓰인다. 옥트리는 입방체로 감싸인 3차원 공간을 표현하는 데 사용되며, 복셀 기반 렌더링에 이용된다.
본 발명이 해결하고자 하는 과제는 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 3차원 탄성 모델 렌더링 방법은, 컴퓨터가 트리를 탐색하는 단계, 상기 트리에 포함된 제1 경로에 대한 한계 노드를 결정하는 단계, 상기 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득하는 단계 및 상기 획득된 정보를 이용하여, 상기 제1 복셀을 포함하는 객체를 표시하는 단계를 포함하고, 상기 트리는, 대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함한다.
또한, 상기 제1 복셀에 대한 정보는, 상기 제1 복셀의 탄성값에 대한 정보를 포함하고, 상기 제1 복셀의 탄성값에 대한 정보는, 상기 대상체를 촬영한 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 획득되는 것을 특징으로 할 수 있다.
또한, 상기 영상을 표시하는 단계는, 상기 제1 복셀의 탄성값에 대한 정보에 기초하여, 상기 객체의 상태 변화를 계산하는 단계 및 상기 계산 결과에 기초하여 상기 영상을 표시하는 단계를 포함할 수 있다.
또한, 상기 한계 노드는, 상기 한계 노드의 자식 노드들에 대응하는 복셀들 각각의 탄성값의 차이가 소정의 한계치(threshold) 이하인 제1 조건을 만족하는 노드인 것을 특징으로 할 수 있다.
또한, 상기 한계 노드는, 상기 의료영상에서 상기 한계 노드의 자식 노드들 각각에 대응하는 위치의 색상정보가 소정의 범위 내에 속하는 제2 조건을 만족하는 노드인 것을 특징으로 할 수 있다.
또한, 상기 색상정보는, 상기 의료영상에서 상기 한계 노드의 자식 노드들 각각에 대응하는 위치의 그레이스케일 값인 것을 특징으로 할 수 있다.
또한, 상기 한계 노드는, 상기 제1 조건 또는 상기 제2 조건을 만족하는 상기 제1 경로상의 노드 중 가장 낮은 레벨을 갖는 노드인 것을 특징으로 할 수 있다.
또한, 상기 한계 노드를 결정하는 단계는, 상기 제1 경로상에 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 없는 경우, 상기 제1 경로의 말단 노드를 상기 한계 노드로 결정하는 단계를 포함할 수 있다.
또한, 상기 한계 노드를 결정하는 단계는, 루트 노드에서부터 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견될때까지 상기 제1 경로를 따라 순차적으로 탐색을 수행하는 단계, 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견되는 경우, 상기 발견된 노드를 상기 한계 노드로 결정하는 단계 및 말단 노드까지 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견되지 않는 경우, 상기 말단 노드를 상기 한계 노드로 결정하는 단계를 포함할 수 있다.
또한, 상기 한계 노드를 결정하는 단계는, 렌더링 시점(point of view)으로부터의 거리에 기초하여 상기 한계 노드의 레벨을 결정하는 단계를 포함할 수 있다.
또한, 상기 트리는, 상기 3차원 모델 데이터를 포함하는 육면체를 루트로 하는 옥트리(octree)인 것을 특징으로 할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 일 면에 따른 3차원 탄성 모델 렌더링 방법은, 컴퓨터가 대상체의 신체부위를 촬영한 의료 영상을 획득하는 단계, 상기 의료 영상에 기초하여, 상기 신체부위의 3차원 모델 데이터를 획득하는 단계, 상기 3차원 모델 데이터를 하나 이상의 복셀로 계층적으로 분할하는 단계, 상기 계층적으로 분할된 하나 이상의 복셀 각각에 대응하는 노드를 포함하는 트리를 생성하는 단계, 상기 트리에 포함된 제1 노드에 대응하는 제1 복셀의 속성값을 결정하되, 상기 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 상기 제1 복셀의 속성값을 결정하는, 단계 및 상기 결정된 상기 제1 복셀의 탄성값을 상기 제1 노드에 저장하는 단계를 포함한다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 3차원 탄성 모델 렌더링 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 트리를 탐색하는 단계, 상기 트리에 포함된 제1 경로에 대한 한계 노드를 결정하는 단계, 상기 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득하는 단계 및 상기 획득된 정보를 이용하여, 상기 제1 복셀을 포함하는 객체를 표시하는 단계를 수행하고, 상기 트리는, 대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함한다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 3차원 탄성 모델 렌더링 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 대상체의 신체부위를 촬영한 의료 영상을 획득하는 단계, 상기 의료 영상에 기초하여, 상기 신체부위의 3차원 모델 데이터를 획득하는 단계, 상기 3차원 모델 데이터를 하나 이상의 복셀로 계층적으로 분할하는 단계, 상기 계층적으로 분할된 하나 이상의 복셀 각각에 대응하는 노드를 포함하는 트리를 생성하는 단계, 상기 트리에 포함된 제1 노드에 대응하는 제1 복셀의 속성값을 결정하되, 상기 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 상기 제1 복셀의 속성값을 결정하는, 단계 및 상기 결정된 상기 제1 복셀의 탄성값을 상기 제1 노드에 저장하는 단계를 수행한다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 3차원 탄성 모델 렌더링 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램이 제공된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 트리를 이용하여 렌더링에 필요한 연산량을 감소시키면서, 실제 장기의 탄성값을 반영할 수 있는 렌더링을 수행하는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 2는 일 실시 예에 따른 3차원 탄성 모델 렌더링 시스템을 도시한 도면이다.
도 3은 일 실시 예에 따른 3차원 탄성 모델 렌더링 방법을 도시한 흐름도이다.
도 4는 3차원 모델 데이터를 복셀로 분할하는 방법 및 의료 영상에 기초하여 각 복셀의 탄성값을 획득하는 방법의 일 예를 도시한 도면이다.
도 5는 3차원 모델 데이터 및 이에 대응하는 트리를 도시한 도면이다.
도 6은 한계 노드를 탐색하는 방법들의 일 예를 도시한 도면이다.
도 7은 트리의 한계 노드들을 결정한 결과의 일 예를 도시한 도면이다.
도 8은 일 실시 예에 따라 렌더링 시점(point of view)에 기초하여 렌더링을 수행하는 방법을 도시한 도면이다.
도 9는 대상체를 절단하는 데 따른 트리 구조의 변화의 일 예를 도시한 도면이다.
도 10은 일 실시 예에 따른 장치(900)의 구성도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)"등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 렌더링은 3차원 화상을 만들기 위하여 수행되는 모든 종류의 계산과정을 포괄하는 의미로서 이해된다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(20) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.
일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.
일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.
서버(20)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.
제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.
촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.
일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.
일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.
제어부(30)는 서버(20)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.
예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.
서버(20)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다.
제어부(30)는 서버(20)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(20)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.
일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다.
개시된 실시 예에서, 촬영장치(36)에서 획득되는 수술영상은 제어부(30)로 전달된다.
일 실시 예에서, 제어부(30)는 수술 중에 획득되는 수술영상을 실시간으로 분할(segmentation)할 수 있다.
일 실시 예에서, 제어부(30)는 수술 중 또는 수술이 완료된 후 수술영상을 서버(20)에 전송한다.
서버(20)는 수술영상을 분할하여 분석할 수 있다.
도 2는 일 실시 예에 따른 3차원 탄성 모델 렌더링 시스템을 도시한 도면이다.
도 2를 참조하면, 3차원 탄성 모델 렌더링 시스템은 클라이언트(100) 및 서버(200)를 포함한다.
일 실시 예에서, 클라이언트(100) 및 서버(200)는 적어도 하나의 프로세서를 포함하는 컴퓨터 장치이다.
일 실시 예에서, 클라이언트(100)는 수술실(수술현장)에 구비된 컴퓨팅 장치일 수 있다. 예를 들어, 클라이언트(100)는 도 1에 도시된 제어부(30)에 대응할 수 있다. 다른 예로, 클라이언트(100)는 제어부(30)와 별도의 컴퓨팅 장치로서 수술실에 구비되고, 제어부(30)와 연결될 수 있다. 본 명세서에서, 연결은 물리적 연결뿐 아니라 전자적인 연결 개념을 포함하며, 서로 통신가능한 상태에 놓이는 것 또한 연결의 개념으로 이해될 수 있다. 예를 들어, 클라이언트(100)는 제어부(30)와 유선 또는 무선으로 연결될 수 있고, 근거리 무선 통신이나 네트워크 통신을 이용하여 상호 통신가능한 상태가 될 수 있다.
도 3은 일 실시 예에 따른 3차원 탄성 모델 렌더링 방법을 도시한 흐름도이다.
일 실시 예에서, 도 3에 도시된 방법은 도 2에 도시된 클라이언트(100) 또는 서버(200)에서 수행되는 동작들을 단계적으로 도시한 것이다. 이하에서는, 설명의 편의상 컴퓨터가 도 3에 도시된 방법 및 도 3이하에 도시된 실시 예들을 수행하는 것으로 서술하나, 각각의 단계 및 실시 예들의 적어도 일부 또는 전부가 클라이언트(100) 또는 서버(200)에서 수행될 수 있으며, 그 수행 주체는 제한되지 않는다.
일 실시 예에서, 트리가 정의된다. 트리는, 대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함한다. 예를 들어, 트리는 대상체를 포함하는 육면체를 분할한 하나 이상의 복셀에 대응하는 노드들로 이루어지는 옥트리(octree)일 수 있으나, 이에 제한되지 않는다.
일 실시 예에서, 대상체의 3차원 모델 데이터는 대상체를 촬영한 의료 영상에 기초하여 획득된다.
일 실시 예에서, 트리의 각 노드에는 각 노드에 대응하는 복셀에 대한 정보가 저장될 수 있다. 복셀에 대한 정보는, 복셀의 탄성(elastic)값을 포함한다.
일 실시 예에서, 복셀의 탄성값은, 대상체를 촬영한 의료영상에서, 각 복셀에 대응하는 위치의 색에 기초하여 획득될 수 있다. 예를 들어, 의료영상은 CT 영상일 수 있으며, 색은 그레이스케일 값을 의미할 수 있으나, 이에 제한되지 않는다.
예를 들어, CT 영상은 촬영대상 신체(대상체)의 분자구조 등 물성에 따라 서로 다른 그레이스케일을 표현한다. 따라서, CT 영상의 그레이스케일 값에 기초하여 각 부분의 물성을 판단할 수 있으며, 이에 기초하여 탄성값을 결정할 수 있다.
도 4를 참조하면, 3차원 모델 데이터를 복셀로 분할하는 방법 및 의료 영상에 기초하여 각 복셀의 탄성값을 획득하는 방법의 일 예가 도시되어 있다.
도 4를 참조하면, 3차원 모델(300) 및 3차원 모델(300)을 포함하는 육면체(400)가 도시되어 있다. 예를 들어, 3차원 모델(300)은 간을 모델링한 3차원 모델일 수 있다.
일 실시 예에서, 컴퓨터는 육면체(400)를 8개의 육면체로 분할한다. 각각의 육면체는 다시 분할되며, 계측정 분할을 통해 한계부피를 갖는 말단 육면체(410)를 획득할 수 있다.
컴퓨터는 분할 과정에서 생성되는 각각의 육면체에 대응하는 노드를 갖는 트리(예를 들어, 옥트리)를 생성한다. 본 명세서에서, 복셀은 한계부피를 갖는 말단 육면체(410) 외에도 분할 과정에서 생성되는 육면체(402) 및 최초의 육면체(400)를 모두 포괄할 수 있는 개념으로 이해된다.
즉, 복셀은 한계부피를 갖는 최소단위로서 이해될 수도 있으며, 이들이 결합되어 생성되는 더 큰 부피의 복셀 또한 포함할 수 있다.
또한, 도 4를 참조하면 대상체(510)를 포함하는 의료영상(500)의 일 예가 도시되어 있다. 컴퓨터는 복셀(410)의 탄성값을 획득하기 위해, 의료영상(500)에서 말단 육면체(410)에 대응하는 위치(520)의 그레이스케일 값을 획득한다.
예를 들어, 그레이스케일 값은 위치(520)에 포함된 그레이스케일 값의 평균으로 획득될 수 있으나, 이에 제한되지 않는다.
일 실시 예에서, 육면체(400)의 분할 과정에서 오브젝트, 즉 3차원 모델(300)이 포함되지 않은 육면체는 제거될 수 있다. 제거된 육면체는 트리에 포함되지 않는다.
일 실시 예에서, 육면체(400)의 분할 및 트리의 생성 과정에서, 컴퓨터는 특정 조건이 만족되는 경우 분할을 중지하거나, 분할된 육면체들을 병합할 수 있다.
예를 들어, 컴퓨터는 분할된 육면체 중 의료영상(500)에서 해당 육면체에 대응하는 위치의 그레이스케일 값이 균일한 경우, 분할을 중지하고, 해당 육면체를 말단 육면체로 결정할 수 있다.
다른 예로, 컴퓨터는 특정 육면체를 분할한 후, 이로부터 생성된 8개의 육면체 각각의 그레이스케일 값이 유사한 경우(예를 들어, 소정 범위 내에 속하거나, 각각의 그레이스케일 값이 소정 기준값 이하인 경우), 8개의 육면체를 병합하고, 병합된 육면체를 말단 육면체로 결정할 수 있다.
육면체 내부의 그레이스케일 값의 변화가 없거나 적으면 육면체 전체가 동일하거나 유사한 물성을 갖는다는 것을 의미하고, 즉 유사한 탄성값을 가질 것으로 예측할 수 있으므로, 이러한 육면체는 추가적으로 분할하지 않음으로써 부하를 줄일 수 있다. 예를 들어, 물체의 탄성에 의한 움직임(deformation)을 계산함에 있어서, 각 육면체의 분할단계를 조절함으로써, 계산의 부하를 줄일 수 있다.
렌더링 수준을 결정하는 것은 상술한 바와 같이 컴퓨터가 트리를 생성하는 과정에서도 수행될 수 있다.
이하에서는, 도 3을 참조하여 컴퓨터가 생성된 트리를 이용하여 렌더링 수준을 결정하고, 렌더링을 수행하는 방법을 설명한다.
단계 S110에서, 컴퓨터는 대상체의 3차원 모델 데이터에 기초하여 생성된 트리를 탐색한다. 일 실시 예에서, 컴퓨터는 트리의 루트 노드에서부터 트리를 탐색한다. 컴퓨터는 트리를 탑 다운(top-down)방식 또는 바텀 업(bottom-up) 방식으로 탐색할 수 있으나, 이에 제한되지 않는다.
단계 S120에서, 컴퓨터는 단계 S110에서 탐색하는 트리에 포함된 제1 경로에 대한 한계 노드를 결정한다. 예를 들어, 컴퓨터는 트리에 포함된 제1 경로를 탐색하는 과정에서, 렌더링 대상 노드인 한계 노드를 결정한다.
한계 노드를 결정하는 방법에 대해서는 구체적으로 후술한다.
단계 S130에서, 컴퓨터는 단계 S120에서 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득한다. 예를 들어, 제1 복셀에 대한 정보는 제1 복셀의 탄성값에 대한 정보를 포함한다.
단계 S140에서, 컴퓨터는 단계 S130에서 획득된 정보를 이용하여, 제1 복셀 및 제1 복셀을 포함하는 객체에 대한 렌더링을 수행한다. 컴퓨터는 제1 복셀의 탄성값을 이용하여 제1 복셀 및 제1 복셀을 포함하는 객체에 대한 렌더링을 수행한다.
일 실시 예에서, 컴퓨터는 제1 복셀을 포함하는 객체를 표시하기 위한 계산을 수행하고, 계산 결과에 기초하여 제1 복셀을 포함하는 객체를 표시하기 위한 렌더링을 수행하며, 렌더링 결과를 이용하여 제1 복셀을 포함하는 객체를 표시한다. 예를 들어, 제1 복셀을 포함하는 객체는 환자의 신체부위(예를 들어, 장기)를 의미할 수 있다.
일 실시 예에서, 컴퓨터는 제1 복셀의 탄성값을 이용하여 제1 복셀을 포함하는 객체에 대한 외부 자극에 대응하는 객체의 상태 변화를 계산한다. 예를 들어, 객체의 상태 변화는 객체의 움직임 및 변형을 포함할 수 있으나, 이에 제한되지 않는다.
예를 들어, 렌더링된 모델에 대하여 시뮬레이션 과정에서 외부의 자극이 있는 경우, 이에 대하여 실제 대상체와 유사한 반응을 하도록 하기 위한 계산에 탄성값이 이용될 수 있다. 예를 들어, 시뮬레이션 과정에서 대상체를 렌더링한 모델을 누르거나 자를 때, 실제 대상체와 유사한 형태로 눌리거나 잘려질 수 있다. 컴퓨터는 트리를 이용하여 객체의 움직임 및 변형을 계산하기 위한 한계 노드를 결정하고, 결정된 한계 노드로부터 획득되는 정보를 이용하여 객체의 움직임 및 변형을 계산한다.
즉, 컴퓨터는 객체의 움직임 및 변형을 계산할 때, 객체에 포함된 모든 복셀들에 대응하는 탄성값을 일일이 계산하지 않고, 트리를 이용하여 각각의 경로에 대한 한계 노드를 결정하고, 결정된 한계 노드에 대응하는 복셀의 탄성값을 이용하여 객체의 움직임 및 변형을 계산할 수 있다.
컴퓨터는 계산 결과에 기초하여 객체의 상태를 변화시키고, 변화된 상태에 기초하여 객체를 표시하기 위한 렌더링을 수행하여 객체를 표시할 수 있다.
또한, 컴퓨터는 렌더링 시점으로부터 객체까지의 거리에 기초하여 객체를 렌더링하기 위한 한계 노드를 결정한다.
예를 들어, 컴퓨터는 트리로 나타내어지는 3차원 모델을 렌더링하되, 모든 말단 노드를 렌더링하는 대신, 루트에서부터 각각의 말단 노드를 연결하는 경로 상에서 한계 노드를 결정한 후, 한계 노드만에 대응하는 복셀들만을 렌더링함으로써 렌더링에 필요한 부하를 줄일 수 있다. 거리에 기초하여 렌더링을 위한 한계 노드들을 결정하는 구체적인 방법에 대해서는 이하에서 후술한다.
도 5를 참조하면, 3차원 모델 데이터 및 이에 대응하는 트리가 도시되어 있다.
도 5를 참조하면, 3차원 모델 데이터(300)에 대응하여 생성된 트리(600)가 도시되어 있다. 컴퓨터는 트리(600)를 탐색하며 3차원 모델 데이터(300)를 렌더링하기 위한 렌더링 수준, 즉 한계 노드들을 결정한다.
일 실시 예에서, 트리(600)는 3차원 모델 데이터(300)를 포함하는 육면체(400)를 루트로 하는 옥트리일 수 있으나, 이에 제한되지 않는다.
트리(600)는 루트 노드(610) 및 그 자식 노드(620), 자식 노드(620)의 자식 노드(630) 및 자식 노드(630)의 자식 노드(640)를 포함하는 제1 경로를 포함한다. 일 실시 예에서, 컴퓨터는 제1 경로를 따라 렌더링할 한계 노드를 결정한다.
일 실시 예에서, 한계 노드의 레벨이 낮을수록 더 큰 단위로 렌더링을 하게 되므로 렌더링의 부하가 줄어들고, 한계 노드의 레벨이 높을수록 더 작은 단위로 렌더링을 하게 되므로 렌더링의 부하가 늘어나게 된다.
따라서, 렌더링 수준을 결정하는 것은 트리(600)에 포함된 각각의 경로에 대하여 렌더링할 한계 노드의 레벨을 결정하는 것으로 이해될 수 있다.
본 명세서에서, 레벨은 트리의 루트에 가까울수록 작아지고, 루트에서 멀어질수록 커지는 것으로 정의된다. 예를 들어, 레벨은 루트로부터의 거리로 정의될 수 있다.
일 실시 예에서, 한계 노드는, 한계 노드의 자식 노드들에 대응하는 복셀들 각각의 탄성값의 차이가 소정의 한계치 이하인 제1 조건을 만족하는 노드일 수 있다.
예를 들어, 노드(630)의 자식 노드들(640 내지 644) 각각에 대응하는 복셀들 각각의 탄성값이 소정 범위 내에 속하거나, 각각의 차이가 소정의 한계치 이하인 경우, 노드(630)는 제1 경로의 한계 노드가 될 수 있다.
일 실시 예에서, 한계 노드는, 의료영상(500)에서 한계 노드의 자식 노드들 각각에 대응하는 위치의 색상정보가 소정의 범위 내에 속하는 제2 조건을 만족하는 노드일 수 있다.
예를 들어, 노드(630)의 자식 노드들(640 내지 644) 각각에 대응하는 복셀들 각각에 대하여, 의료영상(500)에서 각각 대응하는 위치의 색상정보(예를 들어, 그레이스케일 값)가 유사한 경우, 노드(630)는 제1 경로의 한계 노드가 될 수 있다.
일 실시 예에서, 한계 노드는, 상기한 제1 조건 또는 제2 조건을 만족하는 각각의 경로상의 노드 중 가장 낮은 레벨을 갖는 노드일 수 있다.
예를 들어, 노드(630)가 제1 조건 또는 제2 조건을 만족하는 경우에도, 노드(620)가 제1 조건 또는 제2 조건을 만족하는 경우, 제1 경로에 대한 한계노드는 노드(620)가 될 수 있다. 도 5를 참조하면, 노드(620)는 하나 이상의 경로의 한계 노드가 될 수 있다.
도 6을 참조하면, 한계 노드를 탐색하는 방법들의 일 예가 도시되어 있다.
컴퓨터는 한계 노드를 탑 다운 방식으로 탐색할 수도 있고, 바텀 업 방식으로 탐색할 수도 있다.
탑 다운 방식으로 탐색하는 경우, 컴퓨터는 한계 노드가 발견되는 경우 탐색을 중지하고, 한계 노드의 자식 노드들을 탐색하지 않을 수 있다.
예를 들어, 컴퓨터는 노드(630)에서, 노드(630)의 자식 노드들에 대응하는 탄성값 또는 그레이스케일 값을 비교할 수 있다. 각각의 탄성값 또는 그레이스케일 값은 각각의 노드에 저장되어 있을 수도 있고, 탐색과정에서 획득될 수도 있다. 노드(630)의 자식 노드들에 대응하는 탄성값 또는 그레이스케일 값이 서로 유사한 경우, 컴퓨터는 노드(630)를 한계 노드로 결정하고, 탐색을 중지할 수 있다.
바텀 업 방식으로 탐색하는 경우, 컴퓨터는 한계 노드의 조건을 만족하는 노드가 발견되는 경우에도, 더 낮은 레벨에서 해당 조건을 만족하는 노드가 있는지 여부를 계속해서 탐색할 수 있다.
예를 들어, 컴퓨터는 재귀(recursive)방식으로 트리를 탐색하며, 말단 노드에서부터 탐색을 수행할 수 있다. 컴퓨터는 각각의 자식 노드(640 내지 644)로부터 탄성값 또는 그레이스케일 값을 획득하고, 획득된 값을 부모 노드(630)에서 비교하고, 비교 결과에 따라 부모 노드(630)를 한계 노드로 결정할 수 있다.
하지만, 이 경우 컴퓨터는 노드(630)의 형제 노드들 및 노드(630)의 부모 노드(및 조상 노드들)에 대한 탐색을 계속해야 한다.
예를 들어, 노드(630)의 형제 노드들 또한 모두 한계 노드의 조건을 만족하고, 노드(630)의 부모 노드 또한 한계 노드의 조건을 만족하는 경우, 부모 노드는 새로운 한계 노드가 될 수 있다.
일 실시 예에서, 제1 경로상에 한계 노드가 존재하지 않을 수 있다. 이 경우, 컴퓨터는 제1 경로의 말단 노드에 대응하는 복셀을 렌더링한다. 즉, 제1 경로의 말단 노드가 제1 경로의 한계 노드가 된다.
예를 들어, 탑 다운 방식의 경우, 컴퓨터는 루트 노드에서부터 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견될때까지 상기 제1 경로를 따라 순차적으로 탐색을 수행한다. 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견되는 경우, 컴퓨터는 상기 발견된 노드를 상기 한계 노드로 결정한다.
말단 노드까지 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견되지 않는 경우, 컴퓨터는 말단 노드를 한계 노드로 결정한다.
도 7은 트리의 한계 노드들을 결정한 결과의 일 예를 도시한 도면이다.
도 7을 참조하면, 3차원 모델 데이터에 기초하여 생성된 트리(700)가 도시되어 있다.
설명의 편의를 위하여 도 7에서는 이진 트리 형태로 트리(700)를 도시하였으나, 트리의 형태는 이에 제한되지 않는다. 예를 들어, 트리(700)는 옥트리일 수 있다.
상술한 바와 같이, 트리(700)에 포함된 각 경로의 길이(레벨)는 상이할 수 있다. 예를 들어, 트리를 생성하는 과정에서 특정 노드에 대응하는 육면체가 비어 있는 경우(즉, 3차원 모델을 포함하지 않는 경우) 해당 노드는 트리에서 삭제될 수 있다.
또한, 실시 예에 따라서 서로 유사한 탄성값이나 그레이스케일 값을 갖는 형제 노드들은 트리에서 삭제되고, 부모 노드가 말단 노드가 될 수도 있다. 이러한 노드들은 전처리 과정 또는 트리 생성 과정에서 삭제될 수도 있고, 유지되어 탐색 및 렌더링 과정에서 배제될 수도 있다.
도 7에 도시된 실시 예에 따르면, 노드들(720)은 형제 노드들이 서로 유사한 탄성값 또는 그레이스케일 값을 갖는 복셀에 대응하는 노드들이다.
이러한 노드들(720)은 렌더링 과정에서 배제되며, 노드들(710)은 각각의 경로에 대한 한계 노드들로서, 노드들(710)에 대응하는 복셀들에 대하여 렌더링이 수행된다.
일 실시 예에서, 노드들(710)에 대응하는 복셀들의 탄성값은 각각의 자식 노드들에 대응하는 복셀들의 탄성값의 합으로 결정될 수 있으나, 이에 제한되지 않는다. 예를 들어, 노드들(710)에 대응하는 복셀들의 버텍스(vertex)의 탄성값은 자식 노드들에 대응하는 복셀들의 버텍스의 탄성값의 합일 수 있다.
도 8은 일 실시 예에 따라 렌더링 시점(point of view)에 기초하여 렌더링을 수행하는 방법을 도시한 도면이다.
도 8을 참조하면, 촬영장치(36)가 대상체(800)를 촬영하는 일 예가 도시되어 있다.
일 실시 예에서, 촬영장치(36)의 위치는 렌더링 시점을 결정하는 데 이용된다. 또한, 대상체(800)의 위치는 촬영장치(36)의 위치에 대한 상대적인 위치로서, 렌더링 대상인 3차원 모델의 위치를 결정하는 데 이용된다.
일 실시 예에서, 컴퓨터는 렌더링 시점(point of view)으로부터의 거리에 기초하여 트리의 각 경로에 대한 한계 노드의 레벨을 결정한다.
예를 들어, 렌더링 시점으로부터의 거리가 가까울수록 더 상세한 표현이 필요하므로, 한계 노드의 레벨은 커질 수 있다.
반대로, 렌더링 시점으로부터의 거리가 멀수록 상세한 표현이 불필요하고, 원근에 의하여 렌더링되는 크기 자체도 작아지므로, 한계 노드의 레벨은 작아질 수 있다.
도 8을 참조하면, 복셀(810)은 복셀(820)보다 높은 레벨의 한계 노드에 대응할 수 있다.
또한, 렌더링 시점에서 보이지 않는 부분(830)의 경우, 렌더링이 불필요할 수 있다. 따라서, 렌더링 시점에서 보이지 않는 부분(830)에 대응하는 경로 자체가 트리에서 배제될 수 있으며, 이 경우 해당 경로의 한계 노드는 트리의 루트 노드가 될 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 렌더링 시점에서 보이지 않는 부분(830)에 대응하는 경로는 트리에 포함된 서브트리의 경로일 수 있으며, 이 경우 해당 경로의 한계 노드는 포함된 서브트리의 루트 노드가 될 수 있다.
도 9는 대상체를 절단하는 데 따른 트리 구조의 변화의 일 예를 도시한 도면이다.
개시된 실시 예에서, 대상체(800)는 신체부위, 즉 장기일 수 있고, 대상체(800)를 렌더링한 결과는 수술 시뮬레이션 등에 활용되므로, 대상체(800)를 절단하는 경우가 있을 수 있다.
폴리곤 기반의 렌더링은 모델을 절단하는 동작에 취약하며, 매번 새로 렌더링을 해야 하는 단점이 있다.
반면에, 개시된 실시 예에 따른 복셀 기반 렌더링을 수행하는 경우 대상체(800)를 절단한 절단면(802)에 기초하여 트리(700)를 분할함으로써, 추가 렌더링 동작 없이 간단하게 절단된 대상체(800)를 표현할 수 있다.
예를 들어, 컴퓨터는 대상체(800)의 절단면(802)에 대응하는 가지(702)를 기준으로 트리(700)를 분할할 수 있다. 분할된 서브트리는 대상체의 분할된 부분에 각각 대응한다.
다른 예로, 컴퓨터는 대상체(800)의 절단면(802)에 대응하는 노드를 기준으로 트리를 분할할 수도 있으며, 분할방법은 이에 제한되지 않는다.
도 10은 일 실시 예에 따른 장치의 구성도이다.
프로세서(902)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(902)는 메모리(904)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 9와 관련하여 설명된 수술영상데이터 학습방법을 수행한다.
예를 들어, 프로세서(902)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 트리를 탐색 하고, 상기 트리에 포함된 제1 경로에 대한 한계 노드를 결정하고, 상기 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득하고, 상기 획득된 정보를 이용하여, 상기 제1 복셀에 대한 렌더링을 수행 하고, 상기 트리는, 대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함하고, 상기 제1 복셀에 대한 정보는, 상기 제1 복셀의 탄성값에 대한 정보를 포함하고, 상기 제1 복셀의 탄성값에 대한 정보는, 상기 대상체를 촬영한 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 획득된다.
한편, 프로세서(902)는 프로세서(902) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(902)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(904)에는 프로세서(902)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(904)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 수술영상 분할방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100: 클라이언트
200: 서버

Claims (15)

  1. 컴퓨터가 트리를 탐색하는 단계;
    상기 트리에 포함된 제1 경로에 대한 한계 노드를 결정하는 단계;
    상기 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득하는 단계; 및
    상기 획득된 정보를 이용하여, 상기 제1 복셀을 포함하는 객체를 표시하는 단계; 를 포함하고,
    상기 트리는,
    대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함는 것인, 3차원 탄성 모델 렌더링 방법.
  2. 제1 항에 있어서,
    상기 제1 복셀에 대한 정보는,
    상기 제1 복셀의 탄성값에 대한 정보를 포함하고,
    상기 제1 복셀의 탄성값에 대한 정보는,
    상기 대상체를 촬영한 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 획득되는 것을 특징으로 하는, 3차원 탄성 모델 렌더링 방법.
  3. 제2 항에 있어서,
    상기 영상을 표시하는 단계는,
    상기 제1 복셀의 탄성값에 대한 정보에 기초하여,
    상기 객체의 상태 변화를 계산하는 단계; 및
    상기 계산 결과에 기초하여 상기 영상을 표시하는 단계; 를 포함하는, 3차원 탄성 모델 렌더링 방법.
  4. 제3 항에 있어서,
    상기 한계 노드는,
    상기 한계 노드의 자식 노드들에 대응하는 복셀들 각각의 탄성값의 차이가 소정의 한계치(threshold) 이하인 제1 조건을 만족하는 노드인 것을 특징으로 하는, 3차원 탄성 모델 렌더링 방법.
  5. 제4 항에 있어서,
    상기 한계 노드는,
    상기 의료영상에서 상기 한계 노드의 자식 노드들 각각에 대응하는 위치의 색상정보가 소정의 범위 내에 속하는 제2 조건을 만족하는 노드인 것을 특징으로 하는, 3차원 탄성 모델 렌더링 방법.
  6. 제5 항에 있어서,
    상기 색상정보는,
    상기 의료영상에서 상기 한계 노드의 자식 노드들 각각에 대응하는 위치의 그레이스케일 값인 것을 특징으로 하는, 3차원 탄성 모델 렌더링 방법.
  7. 제4 항 또는 제5 항 중 어느 한 항에 있어서,
    상기 한계 노드는,
    상기 제1 조건 또는 상기 제2 조건을 만족하는 상기 제1 경로상의 노드 중 가장 낮은 레벨을 갖는 노드인 것을 특징으로 하는, 3차원 탄성 모델 렌더링 방법.
  8. 제4 항 또는 제5 항 중 어느 한 항에 있어서,
    상기 한계 노드를 결정하는 단계는,
    상기 제1 경로상에 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 없는 경우, 상기 제1 경로의 말단 노드를 상기 한계 노드로 결정하는 단계; 를 포함하는, 3차원 탄성 모델 렌더링 방법.
  9. 제4 항 또는 제5 항 중 어느 한 항에 있어서,
    상기 한계 노드를 결정하는 단계는,
    루트 노드에서부터 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견될때까지 상기 제1 경로를 따라 순차적으로 탐색을 수행하는 단계;
    상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견되는 경우, 상기 발견된 노드를 상기 한계 노드로 결정하는 단계; 및
    말단 노드까지 상기 제1 조건 또는 상기 제2 조건을 만족하는 노드가 발견되지 않는 경우, 상기 말단 노드를 상기 한계 노드로 결정하는 단계; 를 포함하는, 3차원 탄성 모델 렌더링 방법.
  10. 제1 항에 있어서,
    상기 한계 노드를 결정하는 단계는,
    렌더링 시점(point of view)으로부터의 거리에 기초하여 상기 한계 노드의 레벨을 결정하는 단계; 를 포함하는, 3차원 탄성 모델 렌더링 방법.
  11. 제1 항에 있어서,
    상기 트리는,
    상기 3차원 모델 데이터를 포함하는 육면체를 루트로 하는 옥트리(octree)인 것을 특징으로 하는, 3차원 탄성 모델 렌더링 방법.
  12. 컴퓨터가 대상체의 신체부위를 촬영한 의료 영상을 획득하는 단계;
    상기 의료 영상에 기초하여, 상기 신체부위의 3차원 모델 데이터를 획득하는 단계;
    상기 3차원 모델 데이터를 하나 이상의 복셀로 계층적으로 분할하는 단계;
    상기 계층적으로 분할된 하나 이상의 복셀 각각에 대응하는 노드를 포함하는 트리를 생성하는 단계;
    상기 트리에 포함된 제1 노드에 대응하는 제1 복셀의 속성값을 결정하되, 상기 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 상기 제1 복셀의 속성값을 결정하는, 단계; 및
    상기 결정된 상기 제1 복셀의 탄성값을 상기 제1 노드에 저장하는 단계; 를 포함하는, 3차원 탄성 모델 렌더링 방법.
  13. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    트리를 탐색하는 단계;
    상기 트리에 포함된 제1 경로에 대한 한계 노드를 결정하는 단계;
    상기 결정된 한계 노드에 대응하는 제1 복셀에 대한 정보를 획득하는 단계; 및
    상기 획득된 정보를 이용하여, 상기 제1 복셀을 포함하는 객체를 표시하는 단계; 를 수행하고,
    상기 트리는,
    대상체의 3차원 모델 데이터를 계층적으로 분할한 하나 이상의 복셀에 각각 대응하는 하나 이상의 노드를 포함하는 것인, 3차원 탄성 모델 렌더링 장치.
  14. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    대상체의 신체부위를 촬영한 의료 영상을 획득하는 단계;
    상기 의료 영상에 기초하여, 상기 신체부위의 3차원 모델 데이터를 획득하는 단계;
    상기 3차원 모델 데이터를 하나 이상의 복셀로 계층적으로 분할하는 단계;
    상기 계층적으로 분할된 하나 이상의 복셀 각각에 대응하는 노드를 포함하는 트리를 생성하는 단계;
    상기 트리에 포함된 제1 노드에 대응하는 제1 복셀의 속성값을 결정하되, 상기 의료영상에서, 상기 제1 복셀에 대응하는 위치의 색에 기초하여 상기 제1 복셀의 속성값을 결정하는, 단계; 및
    상기 결정된 상기 제1 복셀의 탄성값을 상기 제1 노드에 저장하는 단계; 를 수행하는, 3차원 탄성 모델 렌더링 장치.
  15. 하드웨어인 컴퓨터와 결합되어, 제1 항 또는 제12 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
KR1020180055097A 2017-12-28 2018-05-14 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램 KR20190080702A (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20170182898 2017-12-28
KR20170182899 2017-12-28
KR1020170182898 2017-12-28
KR20170182900 2017-12-28
KR1020170182899 2017-12-28
KR1020170182900 2017-12-28

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180026573A Division KR101862677B1 (ko) 2017-12-28 2018-03-06 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램

Publications (1)

Publication Number Publication Date
KR20190080702A true KR20190080702A (ko) 2019-07-08

Family

ID=63058435

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020180026574A KR101880246B1 (ko) 2017-12-28 2018-03-06 수술영상 재생제어 방법, 장치 및 프로그램
KR1020180055097A KR20190080702A (ko) 2017-12-28 2018-05-14 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램
KR1020180055116A KR20190080703A (ko) 2017-12-28 2018-05-14 수술도구의 최적진입위치 산출시스템, 방법 및 프로그램
KR1020180055105A KR102298412B1 (ko) 2017-12-28 2018-05-14 수술영상데이터 학습시스템

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020180026574A KR101880246B1 (ko) 2017-12-28 2018-03-06 수술영상 재생제어 방법, 장치 및 프로그램

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020180055116A KR20190080703A (ko) 2017-12-28 2018-05-14 수술도구의 최적진입위치 산출시스템, 방법 및 프로그램
KR1020180055105A KR102298412B1 (ko) 2017-12-28 2018-05-14 수술영상데이터 학습시스템

Country Status (2)

Country Link
KR (4) KR101880246B1 (ko)
WO (1) WO2019132169A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210030077A (ko) * 2019-09-09 2021-03-17 (주)미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
KR102405647B1 (ko) * 2022-03-15 2022-06-08 헬리오센 주식회사 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102172258B1 (ko) * 2018-12-05 2020-10-30 쓰리디메디비젼 주식회사 수술 동영상 제작 시스템 및 수술 동영상 제작 방법
KR102315212B1 (ko) * 2019-10-14 2021-10-20 경상국립대학교산학협력단 파열된 금속정을 제거하기 위한 갈고리 기구
KR102180921B1 (ko) * 2019-10-18 2020-11-19 주식회사 엠티이지 인공지능 기반의 수술 동영상에 대한 주석 삽입 장치 및 방법
CN110840534B (zh) * 2019-12-19 2022-05-17 上海钛米机器人科技有限公司 穿刺速度规划方法、装置、穿刺设备以及计算机存储介质
KR20210130041A (ko) * 2020-04-21 2021-10-29 사회복지법인 삼성생명공익재단 3차원 영상을 활용한 술기 교육 시스템 및 머신 러닝 기반의 수술 가이드 시스템
KR102426925B1 (ko) * 2020-06-23 2022-07-29 (주)휴톰 3d 시뮬레이션을 활용한 수술로봇의 동작 정보를 획득하는 방법 및 프로그램
KR102407531B1 (ko) * 2020-08-05 2022-06-10 주식회사 라온메디 치아 분리 장치 및 치아 분리 방법
KR102427171B1 (ko) * 2020-09-14 2022-07-29 (주)휴톰 영상 내의 객체 레이블링 제공 방법 및 이를 위한 장치
KR102619729B1 (ko) * 2020-11-20 2023-12-28 서울대학교산학협력단 임상 기록 데이터 생성 방법 및 장치
CN112891685B (zh) * 2021-01-14 2022-07-01 四川大学华西医院 一种智能检测血管位置的方法及系统
KR102640314B1 (ko) * 2021-07-12 2024-02-23 (주)휴톰 인공지능 수술 시스템 및 그것의 제어방법
CN113616336B (zh) * 2021-09-13 2023-04-14 上海微创微航机器人有限公司 手术机器人仿真系统、仿真方法及可读存储介质
KR20240087423A (ko) * 2022-12-12 2024-06-19 큐렉소 주식회사 수술로봇의 수술 가능 영역 생성 장치 및 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237923A (ja) * 2008-03-27 2009-10-15 Nec Corp 学習方法およびシステム
JP2010092266A (ja) * 2008-10-08 2010-04-22 Nec Corp 学習装置、学習方法及びプログラム
KR101235044B1 (ko) * 2010-11-02 2013-02-21 서울대학교병원 (분사무소) 3d 모델링을 이용한 수술 시뮬레이션 방법 및 자동 수술장치
KR101795720B1 (ko) * 2011-05-12 2017-11-09 주식회사 미래컴퍼니 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템
KR101175065B1 (ko) * 2011-11-04 2012-10-12 주식회사 아폴로엠 수술용 영상 처리 장치를 이용한 출혈 부위 검색 방법
KR101302595B1 (ko) * 2012-07-03 2013-08-30 한국과학기술연구원 수술 진행 단계를 추정하는 시스템 및 방법
KR102239714B1 (ko) * 2014-07-24 2021-04-13 삼성전자주식회사 신경망 학습 방법 및 장치, 데이터 처리 장치
KR101655940B1 (ko) * 2015-02-06 2016-09-08 경희대학교 산학협력단 수술용 가이드 설계정보 생성장치 및 생성방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210030077A (ko) * 2019-09-09 2021-03-17 (주)미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
WO2021049761A3 (ko) * 2019-09-09 2021-05-20 주식회사 미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
KR20220024265A (ko) * 2019-09-09 2022-03-03 (주)미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
KR102405647B1 (ko) * 2022-03-15 2022-06-08 헬리오센 주식회사 3차원 점군데이터 고속 동적 가시화와 투명 메쉬데이터를 이용한 공간함수 시스템

Also Published As

Publication number Publication date
KR20190080703A (ko) 2019-07-08
WO2019132169A1 (ko) 2019-07-04
KR101880246B1 (ko) 2018-07-19
KR20190088375A (ko) 2019-07-26
KR102298412B1 (ko) 2021-09-06

Similar Documents

Publication Publication Date Title
KR20190080702A (ko) 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램
US11270497B2 (en) Object loading method and apparatus, storage medium, and electronic device
JP7364809B2 (ja) レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
US11395715B2 (en) Methods and systems for generating and using 3D images in surgical settings
CN110827383B (zh) 三维模型的姿态模拟方法、装置、存储介质和电子设备
CN109584349B (zh) 用于渲染材料属性的方法和设备
KR101861313B1 (ko) 삼차원 환경 재구성
EP3358529A2 (en) Lightfield rendering based on depths from physically-based volume rendering
CA2620474C (en) Reconstruction render farm used in motion capture
US10529119B2 (en) Fast rendering of quadrics and marking of silhouettes thereof
EP3304423A1 (en) Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation
JP2022533207A (ja) 稠密3d再構築データのキャッシュおよび更新
CN111382618B (zh) 一种人脸图像的光照检测方法、装置、设备和存储介质
US11748905B2 (en) Efficient localization based on multiple feature types
JP2023532285A (ja) アモーダル中心予測のためのオブジェクト認識ニューラルネットワーク
JP2022537817A (ja) 動的オクルージョンのための高速の手のメッシュ化
KR101862677B1 (ko) 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램
KR20220052140A (ko) 맞춤형 3차원 인체 모델 데이터 생성 방법 및 서버
CN113191462A (zh) 信息获取方法、图像处理方法、装置及电子设备
CN116310043A (zh) 三维模型切割方法、装置、设备及存储介质
WO2019132167A1 (ko) 3차원 탄성 모델 렌더링 방법, 장치 및 프로그램
CN114998812A (zh) 关键点的位置更新方法、装置、计算机设备及存储介质
CN118056230A (zh) 用于获得使用多个相机拍摄的对象的三维骨骼数据的电子设备和方法
CN117593440A (zh) 用于渲染医学体积数据的计算机实现的方法
Khattak A variational approach to mapping: an exploration of map representation for SLAM

Legal Events

Date Code Title Description
A107 Divisional application of patent