KR102582154B1 - User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image - Google Patents

User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image Download PDF

Info

Publication number
KR102582154B1
KR102582154B1 KR1020220163625A KR20220163625A KR102582154B1 KR 102582154 B1 KR102582154 B1 KR 102582154B1 KR 1020220163625 A KR1020220163625 A KR 1020220163625A KR 20220163625 A KR20220163625 A KR 20220163625A KR 102582154 B1 KR102582154 B1 KR 102582154B1
Authority
KR
South Korea
Prior art keywords
image
user terminal
augmented reality
measurement subject
reference point
Prior art date
Application number
KR1020220163625A
Other languages
Korean (ko)
Other versions
KR20220164463A (en
Inventor
노태훈
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020220163625A priority Critical patent/KR102582154B1/en
Publication of KR20220164463A publication Critical patent/KR20220164463A/en
Application granted granted Critical
Publication of KR102582154B1 publication Critical patent/KR102582154B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information

Abstract

본 발명은 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법에 관한 것이다.
본 발명에 따르면, 증강현실 의료영상 제공 방법에 있어서, 측정 대상자의 신체 일부에 대하여 촬영된 의료 영상을 의료영상 서버로부터 수신하여 3차원 영상을 재구성하고, 재구성된 3차원 영상으로부터 특징점을 추출하는 단계, 사용자 단말기에 장착된 깊이 카메라를 이용하여 측정 대상자의 신체 일부를 촬영하고, 촬영된 영상으로부터 측정 대상자의 3차원 데이터를 획득하고, 3차원 데이터로부터 특징점을 추출하는 단계, 3차원 영상과 3차원 데이터로부터 각각 추출된 특징점을 매칭시켜 정합하는 단계, 사용자 단말기로부터 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정하고, 기준점에 해당하는 3차원 좌표가 측정 대상자의 신체 일부 내에 위치하는 경우, 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 깊이 카메라에 의해 촬영되는 영상에 겹쳐서 사용자 단말기의 화면상에 제공하는 단계를 포함하며, 화면상에 제공하는 단계는 사용자 단말기와 측정 대상자 사이의 거리가 변화함에 따라, 신체의 일부의 단면에 해당하는 증강현실 영상을 연속적으로 화면 상에 표시하여 제공하는 단계를 포함한다.
The present invention relates to a user terminal for providing augmented reality medical images and a method for providing augmented reality medical images.
According to the present invention, in the augmented reality medical image providing method, the steps include receiving a medical image captured of a body part of a measurement subject from a medical image server, reconstructing a 3D image, and extracting feature points from the reconstructed 3D image. , Photographing a part of the body of the measurement subject using a depth camera mounted on the user terminal, obtaining 3D data of the measurement subject from the captured image, and extracting feature points from the 3D data, 3D images and 3D A step of matching and registering feature points extracted from the data; setting a point spaced a certain distance in the vertical direction from the user terminal as a virtual reference point, and 3D coordinates corresponding to the reference point are located within a part of the body of the measurement subject , which includes the step of providing an augmented reality image of the cross section corresponding to the corresponding reference point on the screen of the user terminal by overlapping the image captured by the depth camera, and the step of providing the augmented reality image of the cross section corresponding to the corresponding reference point on the screen is a step between the user terminal and the measurement subject. As the distance changes, it includes continuously displaying and providing an augmented reality image corresponding to a cross-section of a part of the body on the screen.

Description

깊이 카메라를 이용한 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법{USER TERMINAL FOR PROVIDING AUGMENTED REALITY MEDICAL IMAGE USING DEPTH CAMERA AND METHOD FOR PROVIDING AUGMENTED REALITY MEDICAL IMAGE}User terminal for providing augmented reality medical images using a depth camera and method for providing augmented reality medical images {USER TERMINAL FOR PROVIDING AUGMENTED REALITY MEDICAL IMAGE USING DEPTH CAMERA AND METHOD FOR PROVIDING AUGMENTED REALITY MEDICAL IMAGE}

본 발명은 깊이 카메라를 이용한 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법에 관한 것으로, 증강현실을 이용하여 각각의 측정 대상자의 3차원 영상을 측정 대상자의 영상과 함께 제공하는 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법에 관한 것이다.The present invention relates to a user terminal for providing augmented reality medical images using a depth camera and a method for providing augmented reality medical images, which provides a three-dimensional image of each measurement subject together with the image of the measurement subject using augmented reality. This relates to a user terminal for providing augmented reality medical images and a method for providing augmented reality medical images.

증강 현실 기술은 사용자가 보고 있는 실사에 가상 영상을 투영함으로써 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이며, 로널드 아즈마(Ronald Azuma)에 따르면, 증강 현실은 현실의 이미지와 가상의 이미지를 결합한 것과, 실시간으로 간섭이 가능하고 삼차원의 공간 안에 놓인 것으로 정의된다. Augmented reality technology is a technology that superimposes virtual objects on the real world that the user sees by projecting a virtual image onto the actual image that the user is viewing. According to Ronald Azuma, augmented reality is a technology that combines real images and virtual images. It is defined as something that can interact in real time and is located in a three-dimensional space.

이는 사용자가 가상 영상에 몰입하여 실제 주변환경을 볼 수 없는 가상 현실 기술과는 차별되며, 실제 환경과 가상 객체의 혼합을 통해 보다 나은 현실감과 부가 정보를 제공한다. This is different from virtual reality technology, in which users are immersed in a virtual image and cannot see the real surroundings, and provides a better sense of reality and additional information through a mixture of the real environment and virtual objects.

이러한 증강 현실 기술은 1990년 후반부터 미국을 중심으로 연구되어 최근 스마트폰의 보급으로 본격적인 상업화가 시도되고 있으며, 게임 및 교육 분야 등에서 다양한 제품이 출시되고 있다.This augmented reality technology has been studied mainly in the United States since the late 1990s, and with the recent spread of smartphones, full-scale commercialization is being attempted, and various products are being released in the game and education fields.

증강 현실을 착용자에게 보여주는 방식으로는 착용식 컴퓨터를 머리에 쓰는 형태의 컴퓨터 화면 장치, 소위 헤드 마운트 디스플레이(head mounted display, HMD)가 있으며, 이러한 HMD는 사용자에게 실제환경에 가상 영상을 겹쳐 실시간으로 보여준다. 최근 Microsoft사에서 Hololens를 출시하는 등, HMD에 대한 개발이 활발히 이뤄지고 있다.A method of showing augmented reality to the wearer is a computer screen device in the form of a wearable computer worn on the head, a so-called head mounted display (HMD). This HMD superimposes virtual images on the real environment to the user and displays them in real time. It shows. Recently, development of HMDs is actively taking place, with Microsoft releasing Hololens.

또한 증강 현실 기술의 발달과 함께 세계적으로 이를 의료에 접목하려는 연구가 진행되고 있으며, 특히 해부학적 구조를 보여주는 교육용 프로그램이나 수술 보조용으로 사용하려는 시도가 진행 중이다. 하지만, 기존의 의료용 증강현실은 단순한 비주얼 마커를 사용한 이미지 트랙킹(Image tracking)을 기반으로 한 증강 현실 구현이다. In addition, with the development of augmented reality technology, research is being conducted around the world to apply it to medical care. In particular, attempts are being made to use it as an educational program that shows anatomical structures or as an aid to surgery. However, existing medical augmented reality is an augmented reality implementation based on image tracking using simple visual markers.

이미지 트래킹을 기반으로 하는 방식의 경우, 영상을 촬영하고 촬영된 영상을 분석함으로써 영상 매칭을 수행하도록 한다. 그러나, 이러한 이미지 tracking 기반의 방식의 경우, 무균 무접촉을 원칙으로 하는 의료 시술이나 수술에서는 drapping이 선행되어 대부분의 신체가 무균 시트에 가려지게 되어 매칭시킬 영상을 촬영하지 못하게 되므로 증강 현실의 적용에 한계가 있다. In the case of a method based on image tracking, image matching is performed by shooting an image and analyzing the captured image. However, in the case of this image tracking-based method, in medical procedures or surgeries based on the principle of sterility and no contact, draping is preceded, and most of the body is covered by a sterile sheet, making it impossible to capture images to match, making it difficult to apply augmented reality. There are limits.

따라서, 비주얼 마커의 사용없이 증강현실을 제공하는 시스템이 필요하게 되었다.Therefore, there is a need for a system that provides augmented reality without the use of visual markers.

본 발명의 배경이 되는 기술은 대한민국 등록특허 제10-1831514호(2018.02.26. 공고)에 개시되어 있다.The technology behind the present invention is disclosed in Republic of Korea Patent No. 10-1831514 (announced on February 26, 2018).

본 발명이 이루고자 하는 기술적 과제는 증강현실을 이용하여 각각의 측정 대상자의 3차원 영상을 측정 대상자의 영상과 함께 제공하는 깊이 카메라를 이용한 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법을 제공하기 위한 것이다.The technical problem to be achieved by the present invention is to provide a user terminal and augmented reality medical images for providing augmented reality medical images using a depth camera that provides a 3D image of each measurement subject together with the image of the measurement subject using augmented reality. It is intended to provide a method.

이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따르면, 사용자 단말기를 이용한 증강현실 의료영상 제공 방법에 있어서, 측정 대상자의 신체 일부에 대하여 촬영된 의료 영상을 의료영상 서버로부터 수신하여 3차원 영상을 재구성하고, 상기 재구성된 3차원 영상으로부터 특징점을 추출하는 단계, 사용자 단말기에 장착된 깊이 카메라를 이용하여 상기 측정 대상자의 신체 일부를 촬영하고, 상기 촬영된 영상으로부터 상기 측정 대상자의 3차원 데이터를 획득하고, 상기 3차원 데이터로부터 특징점을 추출하는 단계, 상기 3차원 영상으로부터 추출된 특징점과 상기 3차원 데이터로부터 추출된 특징점을 매칭시켜 정합하는 단계, 상기 사용자 단말기로부터 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정하고, 상기 기준점에 해당하는 3차원 좌표가 상기 측정 대상자의 신체 일부 내에 위치하는 경우, 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 상기 깊이 카메라에 의해 촬영되는 영상에 겹쳐서 상기 사용자 단말기의 화면상에 제공하는 단계를 포함하며, 상기 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 상기 깊이 카메라에 의해 촬영되는 영상에 겹쳐서 제공하는 단계는, 상기 사용자 단말기와 상기 측정 대상자 사이의 거리가 변화함에 따라, 상기 신체의 일부의 단면에 해당하는 증강현실 영상을 연속적으로 화면 상에 표시하여 제공한다. According to an embodiment of the present invention to achieve this technical problem, in a method of providing augmented reality medical images using a user terminal, medical images captured of a body part of a measurement subject are received from a medical image server and a 3D image is reconstructed. Extracting feature points from the reconstructed 3D image, photographing a body part of the measurement subject using a depth camera mounted on the user terminal, and obtaining 3D data of the measurement subject from the captured image. , extracting feature points from the 3D data, matching feature points extracted from the 3D image with feature points extracted from the 3D data, and selecting a point spaced a certain distance in the vertical direction from the user terminal. If it is set as a virtual reference point, and the three-dimensional coordinates corresponding to the reference point are located within a body part of the measurement subject, the augmented reality image of the cross section corresponding to the reference point is overlaid on the image captured by the depth camera. A step of providing on the screen of the user terminal, wherein providing an augmented reality image of a cross-section corresponding to the corresponding reference point overlaid on an image captured by the depth camera, the user terminal and the measurement subject As the distance between them changes, augmented reality images corresponding to cross-sections of parts of the body are continuously displayed on the screen.

상기 사용자 단말기는 3축 지자기 센서를 포함하며, 상기 사용자 단말기의 현재 위치 및 3축 각도에 대응하여, 상기 기준점을 중심으로 상기 사용자 단말기와 평행인 면에 대응하는 단면에 대한 증강현실 영상을 표시할 수 있다.The user terminal includes a 3-axis geomagnetic sensor, and in response to the current position and 3-axis angle of the user terminal, displays an augmented reality image of a cross section corresponding to a plane parallel to the user terminal centered on the reference point. You can.

본 발명의 다른 실시예에 따르면, 증강현실 의료영상을 제공하기 위한 사용자 단말기에 있어서, 측정 대상자의 신체 일부에 대하여 촬영된 의료영상을 의료영상 서버로부터 수신하여 3차원 영상을 재구성하고, 상기 재구성된 3차원 영상으로부터 특징점을 추출하는 제1 특징점 추출부, 깊이 카메라를 이용하여 상기 측정 대상자의 신체 일부를 촬영하기 위한 촬영부, 상기 촬영된 영상으로부터 상기 측정 대상자의 3차원 데이터를 획득하고, 상기 3차원 데이터로부터 특징점을 추출하는 제2 특징점 추출부, 상기 3차원 영상으로부터 추출된 특징점과 상기 3차원 데이터로부터 추출된 특징점을 매칭시켜 정합하는 영상 정합부, 그리고 상기 사용자 단말기로부터 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정하고, 상기 기준점에 해당하는 3차원 좌표가 상기 측정 대상자의 신체 일부 내에 위치하는 경우, 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 상기 사용자 단말기에 의해 촬영되는 영상에 겹쳐서 제공하는 제어부를 포함하며, 상기 제어부는, 상기 사용자 단말기와 상기 측정 대상자 사이의 거리가 변화함에 따라, 상기 신체의 일부의 단면에 해당하는 증강현실 영상을 연속적으로 화면 상에 표시하여 제공한다.According to another embodiment of the present invention, in a user terminal for providing augmented reality medical images, a medical image captured of a body part of a measurement subject is received from a medical image server, a three-dimensional image is reconstructed, and the reconstructed A first feature point extraction unit for extracting feature points from a 3D image, an imaging unit for photographing a body part of the measurement subject using a depth camera, obtaining 3D data of the measurement subject from the captured image, and the 3 A second feature point extraction unit that extracts feature points from dimensional data, an image registration section that matches and registers feature points extracted from the 3D image and feature points extracted from the 3D data, and a predetermined distance in the vertical direction from the user terminal. When a separated point is set as a virtual reference point and the 3D coordinates corresponding to the reference point are located within a body part of the measurement subject, an augmented reality image of the cross section corresponding to the reference point is captured by the user terminal. and a control unit that provides an overlapping image, wherein as the distance between the user terminal and the measurement subject changes, the control unit continuously displays an augmented reality image corresponding to a cross section of a part of the body on the screen. to provide.

이와 같이 본 발명에 따르면, 사용자 단말기와 측정 대상자 사이의 거리에 따라 측정 대상자의 신체 내부에 대한 증강현실 영상을 실시간으로 제공함으로써, 수술전 시뮬레이션 및 의료 교육시 활용할 수 있다.In this way, according to the present invention, augmented reality images of the inside of the body of the measurement subject are provided in real time according to the distance between the user terminal and the measurement subject, and can be used for pre-surgical simulation and medical education.

또한, 의료영상과 촬영된 깊이영상을 이용하기 때문에 기존의 마커를 이용하여 증강현실을 제공하는 방법보다 제작비용과 연산량을 감소시킬 수 있다.In addition, because it uses medical images and captured depth images, production costs and computational volume can be reduced compared to methods that provide augmented reality using existing markers.

도 1은 본 발명의 실시예에 따른 증강현실 의료영상 제공 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 증강현실 의료영상 제공 방법을 설명하기 위한 순서도이다.
도 3은 도 2의 S260단계를 설명하기 위한 도면이다.
도 4는 도 3에의해 제공되는 증강현실 영상을 나타낸 도면이다.
도 5는 도 2의 S270단계를 설명하기 위한 도면이다.
도 6a은 본 발명의 실시예에 따른 측정 대상자의 정면을 촬영했을 경우 제공되는 화면이다.
도 6b는 본 발명의 실시예에 따른 측정 대상자의 왼쪽 측면을 촬영했을 경우 제공되는 화면이다.
1 is a configuration diagram illustrating an augmented reality medical image providing system according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a method for providing augmented reality medical images according to an embodiment of the present invention.
Figure 3 is a diagram for explaining step S260 of Figure 2.
Figure 4 is a diagram showing the augmented reality image provided by Figure 3.
Figure 5 is a diagram for explaining step S270 of Figure 2.
Figure 6a is a screen provided when the front of a measurement subject is photographed according to an embodiment of the present invention.
Figure 6b is a screen provided when the left side of a measurement subject is photographed according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to “include” a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention.

도 1은 본 발명의 실시예에 따른 증강현실 의료영상 제공 시스템을 설명하기 위한 구성도이다.1 is a configuration diagram illustrating an augmented reality medical image providing system according to an embodiment of the present invention.

도 1에서 나타낸 것처럼, 본 발명의 실시예에 따른 의료영상 증강현실 제공 시스템은 의료영상 서버(100) 및 사용자 단말기(200)를 포함한다. As shown in FIG. 1, the system for providing augmented reality for medical images according to an embodiment of the present invention includes a medical image server 100 and a user terminal 200.

먼저, 의료영상 서버(100)는 환자별로 기 촬영된 의료영상을 개별적으로 저장한다. First, the medical image server 100 individually stores previously captured medical images for each patient.

이때, 의료영상은 CT, MRI, X-ray 또는 초음파 영상 중에서 적어도 하나를 포함한다.At this time, the medical image includes at least one of CT, MRI, X-ray, or ultrasound images.

여기서, 인체를 통과하는 X-선을 이용하는 방법은, X-ray(X선영상 기술, radiography)을 이용하여 인체의 각 부위 조직의 투과된 X선의 감쇄 특성을 이용하여 평면 형광판이나 필름에 생체 내부 구조를 영상화하는 방법 및 CT(전산화 단층 촬영 기술, Computed Tomography)을 이용하여 인체의 단면 주위를 돌면서 X-선을 투사하고 X-선이 인체를 통과하면서 감소되는 양을 측정하여 내부 구조를 영상화하는 방법을 포함할 수 있다.Here, the method of using X-rays passing through the human body is to use A method of imaging structures and using CT (Computed Tomography) is used to image internal structures by projecting Method may be included.

또한, 인체 내에 주입된 감마선을 이용하는 방법은 PET(양전자 방출 단층 촬영기술, Positron Emission Tomography) 방법이 될 수 있다. 세 번째로 인체 내에서 반사된 초음파 이용하는 방법은 Ultrasound(초음파 영상 진단 기술)를 이용하여 송신된 초음파에 대해 생체 조직에서 반사된 초음파를 수신하여 반사되어온 초음파를 증폭, 검출하여 모니터에 영상화하는 방법을 포함할 수 있다. Additionally, a method using gamma rays injected into the human body may be a PET (Positron Emission Tomography) method. The third method of using ultrasound reflected within the human body is to use Ultrasound (ultrasound imaging technology) to receive ultrasound reflected from biological tissue for the transmitted ultrasound, amplify and detect the reflected ultrasound, and image it on a monitor. It can be included.

그리고, 인체 내 주입된 자기장 이용하는 방법은 MRI(자기공명영상 진단 기술, Magnetic Resonance Imaging)를 이용하여 자력에 의하여 발생하는 자기장을 이용하여 생체 임의의 단층 영상을 획득할 수 있는 방법을 포함할 수 있다.In addition, the method of using a magnetic field injected into the human body may include a method of acquiring a tomography image of any living body using a magnetic field generated by magnetism using MRI (Magnetic Resonance Imaging). .

사용자 단말기(200)는 제1 특징점 추출부(210), 촬영부(220), 제2 특징점 추출부(230), 영상 정합부(240) 및 제어부(250)를 포함한다.The user terminal 200 includes a first feature point extraction unit 210, a photographing unit 220, a second feature point extraction unit 230, an image matching unit 240, and a control unit 250.

먼저, 제1 특징점 추출부(210)는 의료영상 서버(100)로부터 측정 대상자의 신체 일부에 대하여 촬영된 의료영상을 수신하고, 수신된 의료영상으로부터 3차원 영상을 재구성하고, 재구성된 3차원 영상으로부터 특징점을 추출한다.First, the first feature point extractor 210 receives a medical image captured of a body part of a measurement subject from the medical image server 100, reconstructs a 3D image from the received medical image, and creates the reconstructed 3D image. Extract feature points from.

또한, 의료영상 서버(100)가 미리 기 저장된 의료영상을 이용하여 3차원 영상으로 재구성하여 제1 특징점 추출부(210)에 제공할 수도 있다. Additionally, the medical image server 100 may reconstruct a 3D image using a pre-stored medical image and provide the image to the first feature point extractor 210.

그리고, 제1 특징점 추출부(210)는 재구성된 3차원 영상으로부터 특징점을 추출한다.Then, the first feature point extraction unit 210 extracts feature points from the reconstructed 3D image.

여기서, 제1 특징점 추출부(210)에 의해 추출되는 특징점은 측정 대상자의 눈, 코 및 입 중에서 적어도 하나를 포함한다.Here, the feature point extracted by the first feature point extractor 210 includes at least one of the eyes, nose, and mouth of the measurement subject.

다음으로, 촬영부(220)에는 깊이 카메라가 장착되어 있으며, 장착된 깊이 카메라를 이용하여 측정 대상자의 신체 일부를 촬영한다. Next, the imaging unit 220 is equipped with a depth camera, and a part of the body of the measurement subject is photographed using the mounted depth camera.

여기서, 깊이 카메라는 복수개의 렌즈를 통해 촬영된 영상을 이용하여 카메라와 사물 사이의 거리를 측정할 수 있는 카메라이며, 본 발명의 실시예에 따르면, 측정 대상자는 사용자 단말기(200)의 렌즈가 자신을 향하도록 파지한 상태에서, 사용자 단말기(200)를 전후좌우로 움직이면서 촬영을 할 수 있으며, 제3자가 사용자 단말기(200)를 통해 측정 대상자의 신체 일부를 촬영할 수도 있다. Here, the depth camera is a camera that can measure the distance between the camera and an object using images captured through a plurality of lenses, and according to an embodiment of the present invention, the measurement subject is the lens of the user terminal 200. In a state in which the user terminal 200 is held facing , the user terminal 200 can be photographed by moving it forward, backward, left, and right, and a third party can also photograph a part of the body of the measurement subject through the user terminal 200.

그러면, 깊이 카메라는 사용자 단말기(200)와 측정 대상자와의 거리를 측정하고, 해당되는 지점의 영상을 제공한다. Then, the depth camera measures the distance between the user terminal 200 and the measurement subject and provides an image of the corresponding point.

또한, 사용자 단말기(200)는 3축 지자기 센서(미도시)를 더 포함할 수 있으며, 3축 지자기 센서를 이용하여 현재 사용자 단말기의 3축 각도를 판단한다.Additionally, the user terminal 200 may further include a 3-axis geomagnetic sensor (not shown), and determines the current 3-axis angle of the user terminal using the 3-axis geomagnetic sensor.

제2 특징점 추출부(230)는 깊이 카메라에 의해 촬영된 영상으로부터 측정 대상자의 3차원 데이터를 획득하고, 3차원 데이터로부터 특징점을 추출한다.The second feature point extraction unit 230 obtains 3D data of the measurement subject from an image captured by a depth camera and extracts feature points from the 3D data.

마찬가지로, 제2 특징점 추출부(230)에 의해 추출되는 특징점은 측정 대상자의 눈, 코 및 입 중에서 적어도 하나를 포함한다. Likewise, the feature point extracted by the second feature point extractor 230 includes at least one of the eyes, nose, and mouth of the measurement subject.

다음으로, 영상 정합부(240)는 제1 특징점 추출부(210)에 의해 추출된 특징점과 제2 특징점 추출부(230)에 의해 추출된 특징점을 매칭시켜 증강현실 영상을 제작한다.Next, the image matching unit 240 produces an augmented reality image by matching the feature points extracted by the first feature point extractor 210 and the feature points extracted by the second feature point extractor 230.

여기서, 증강현실 영상은 3차원 공간에 생성된 현실의 이미지와 가상의 이미지를 결합하여 실시간으로 수정 또는 간섭이 가능한 영상이며, 본 발명의 실시예에 따르면, 증강현실 영상은 사용자 단말기(200)의 3축 각도 및 측정대상자와의 거리에 따라 실시간으로 변화되어 제공한다.Here, the augmented reality image is an image that can be modified or interfered with in real time by combining a real image and a virtual image created in a three-dimensional space. According to an embodiment of the present invention, the augmented reality image is an image of the user terminal 200. It changes in real time depending on the 3-axis angle and the distance to the measurement subject.

다음으로, 제어부(250)는 사용자 단말기(200)의 전면으로부터 전방을 향하는 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정한다. Next, the control unit 250 sets a point spaced a certain distance away from the front of the user terminal 200 in the vertical direction facing forward as a virtual reference point.

그리고, 제어부(250)는 기준점에 해당하는 3차원 좌표가 측정 대상자의 신체 일부 내에 위치하는 경우, 해당하는 기준점에 대응하는 단면에 대한 증강현실 영상을 촬영부(220)에 의해 촬영되는 영상에 겹쳐서 화면상에 제공한다.In addition, when the three-dimensional coordinates corresponding to the reference point are located within a part of the body of the measurement subject, the control unit 250 superimposes the augmented reality image of the cross section corresponding to the reference point on the image captured by the photographing unit 220. Provided on screen.

또한, 제어부(250)는 사용자 단말기(200)와 측정 대상자 사이의 거리가 변화함에 따라, 신체의 일부의 단면에 해당하는 증강현실 영상을 연속적으로 사용자 단말기(200)의 화면상에 표시한다.Additionally, as the distance between the user terminal 200 and the measurement subject changes, the control unit 250 continuously displays an augmented reality image corresponding to a cross section of a part of the body on the screen of the user terminal 200.

이하에서는 도 2 내지 도 6b를 이용하여 본 발명의 실시예에 따른 증강현실 의료영상 제공 방법을 설명한다.Hereinafter, a method for providing augmented reality medical images according to an embodiment of the present invention will be described using FIGS. 2 to 6B.

도 2는 본 발명의 실시예에 따른 증강현실 의료영상 제공 방법을 설명하기 위한 순서도이다.Figure 2 is a flowchart illustrating a method for providing augmented reality medical images according to an embodiment of the present invention.

먼저, 제1 특징점 추출부(210)는 측정 대상자의 신체 일부에 대하여 촬영된 의료 영상을 의료영상 서버(100)로부터 수신하여 3차원 영상을 재구성하고, 재구성된 3차원 영상으로부터 특징점을 추출한다(S210).First, the first feature point extraction unit 210 receives a medical image captured of a body part of a measurement subject from the medical image server 100, reconstructs a 3D image, and extracts feature points from the reconstructed 3D image ( S210).

이때, 의료영상은 도 1에서 설명한 것과 같이 X-선, 감마선, 초음파 및 자기장 등을 이용하여 촬영된 영상이다.At this time, the medical image is an image captured using X-rays, gamma rays, ultrasound, and magnetic fields, as described in FIG. 1.

여기서, 측정 대상자의 신체 일부는 얼굴, 팔, 다리 또는 상체와 같은 사람의 신체 일부를 말하며, 각각의 신체 일부에는 서로 다른 특징점을 가진다.Here, the body part of the person being measured refers to a human body part such as the face, arms, legs, or upper body, and each body part has different characteristic points.

예를 들어, 얼굴에 대한 특징점은 눈, 코, 입 또는 귀일 수 있으며, 다리에 대한 특징점은 복사뼈 또는 발가락 등이 될 수 있다. For example, feature points for the face may be eyes, nose, mouth, or ears, and feature points for the legs may be ankle bones or toes.

특징점이 3차원적으로 식별이 어려운 경우, 제1 특징점 추출부(210)는 카메라를 통해 단말기 화면에 투영된 영상에서 직접 특징점을 지정할 수 있다. If it is difficult to identify a feature point in three dimensions, the first feature point extractor 210 can directly specify the feature point from an image projected on the terminal screen through a camera.

예를 들어, 옷을 입은 상태로 복부를 관찰하고 싶은 경우 명치부위나 유두, 배꼽등을 사용자 단말기 화면에서 직접 탭하거나 관찰대상을 손가락 등의 표시자로 가리켜서 지정할 수 있다.For example, if you want to observe the abdomen while wearing clothes, you can designate the solar plexus area, nipples, or navel by tapping directly on the user terminal screen or pointing to the observation object with an indicator such as a finger.

또한, 의료영상 서버(100)는 측정 대상자별로 기 저장되어 있는 의료영상을 정합하여 3차원 영상으로 재구성하고, 재구성된 3차원 영상을 사용자 단말(200)로 전송할 수 있다.In addition, the medical image server 100 can match medical images previously stored for each measurement subject, reconstruct them into 3D images, and transmit the reconstructed 3D images to the user terminal 200.

이때, 재구성된 3차원 영상은 각각의 좌표 및 위치정보를 포함한다.At this time, the reconstructed 3D image includes each coordinate and location information.

다음으로, 촬영부(220)를 이용하여 측정 대상자의 신체 일부를 촬영하고, 제2 특징점 추출부(230)는 촬영된 영상으로부터 측정 대상자의 3차원 데이터를 획득하고, 3차원 데이터로부터 특징점을 추출한다(S220).Next, a part of the body of the measurement subject is photographed using the imaging unit 220, and the second feature point extraction unit 230 obtains 3D data of the measurement subject from the captured image and extracts feature points from the 3D data. Do it (S220).

여기서, 촬영부(220)는 측정 대상자의 3차원 데이터를 획득하기 위해 도트 프로젝터(Dot Projector)를 이용한다.Here, the imaging unit 220 uses a dot projector to acquire 3D data of the measurement subject.

이때, 본 발명의 실시예에 따르면, 측정 대상자의 3차원 데이터를 획득하기 위해 도트 프로젝터는 1줄의 레이저를 3만개 이상의 레이저로 분산시켜 3차원 데이터를 획득한다.At this time, according to an embodiment of the present invention, in order to obtain 3D data of the measurement subject, the dot projector disperses one line of laser into more than 30,000 lasers to obtain 3D data.

즉, 특징점에 해당하는 3차원 데이터는 각각 해당하는 위치정보를 포함한다.In other words, 3D data corresponding to feature points each include corresponding location information.

다음으로, 영상 정합부(240)는 제1 특징점 추출부(210)에 의한 3차원 영상으로부터 추출된 특징점과 제2 특징점 추출부(230)에 의한 3차원 데이터로부터 추출된 특징점을 매칭시켜 영상을 정합한다(S230).Next, the image matching unit 240 matches the feature points extracted from the 3D image by the first feature point extractor 210 and the feature points extracted from the 3D data by the second feature point extractor 230 to create the image. Match (S230).

즉, 영상 정합부(240)는 S210 단계에서 3차원 영상으로부터 추출된 특징점의 위치 좌표와 S220 단계에서 3차원 데이터로부터 추출된 특징점에 해당하는 좌표를 매칭시킨다.That is, the image registration unit 240 matches the position coordinates of the feature point extracted from the 3D image in step S210 with the coordinates corresponding to the feature point extracted from the 3D data in step S220.

예를 들어, 3차원 영상으로부터 추출된 특징점의 위치 좌표가 (242, 546, 254)이면, 영상 정합부(240)는 해당 위치 좌표와 동일한 위치 좌표를 가지는 3차원 데이터를 매칭하여 영상을 정합한다.For example, if the position coordinates of a feature point extracted from a 3D image are (242, 546, 254), the image matching unit 240 matches the image by matching 3D data having the same position coordinates as the corresponding position coordinates. .

또한, 영상 정합부(240)는 딥러닝 방법을 이용하여 3차원 영상으로부터 추출된 특징점과 3차원 데이터로부터 추출된 특징점을 매칭시켜 영상을 정합할 수 있다.Additionally, the image registration unit 240 may match the image by matching the feature points extracted from the 3D image and the feature points extracted from the 3D data using a deep learning method.

그러면, 영상 정합부(240)는 매칭된 영상을 이용하여 증강현실 영상을 생성한다.Then, the image matching unit 240 generates an augmented reality image using the matched image.

다음으로, 제어부(250)는 사용자 단말기(200)의 전면을 기준으로 전방에 해당하는 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정한다(S240).Next, the control unit 250 sets a point spaced a certain distance in the vertical direction corresponding to the front of the user terminal 200 as a virtual reference point (S240).

즉, 가상의 기준점은 사용자 단말기(200)의 전면으로부터 일정 거리만큼 이격된 지점을 의미한다.That is, the virtual reference point refers to a point spaced a certain distance away from the front of the user terminal 200.

이때, 가상의 기준점은 사용자 단말기(200)와 측정 대상자 사이의 거리에 따라 측정 대상자의 내부 또는 외부에 위치할 수 있다.At this time, the virtual reference point may be located inside or outside the measurement subject depending on the distance between the user terminal 200 and the measurement subject.

다음으로, 제어부(250)는 가상의 기준점이 측정 대상자의 신체 내부에 존재하는지 여부를 판단한다(S250). 즉, 제어부(250)는 사용자 단말기(200)와 가상의 기준점과의 거리(R)와 사용자 단말기(200)와 측정 대상자 사이의 거리(D)를 비교한다.Next, the control unit 250 determines whether the virtual reference point exists inside the body of the measurement subject (S250). That is, the control unit 250 compares the distance (R) between the user terminal 200 and the virtual reference point and the distance (D) between the user terminal 200 and the measurement subject.

여기서, 사용자 단말기(200)와 가상의 기준점과의 거리(R)는 S240단계에서 기 설정된 값을 나타낸다.Here, the distance (R) between the user terminal 200 and the virtual reference point represents a preset value in step S240.

이때, 사용자 단말기(200)와 가상의 기준점과의 거리(R)가 사용자 단말기(200)와 측정 대상자 사이의 거리(D)보다 긴 경우, 제어부(250)는 가상의 기준점이 측정 대상자의 내부에 위치하는 것으로 판단하고, 제어부(250)는 대응되는 가상 단면에 대한 증강현실 영상을 사용자 단말기(200)에 의해 촬영되는 영상에 겹쳐서 제공한다(S260).At this time, if the distance (R) between the user terminal 200 and the virtual reference point is longer than the distance (D) between the user terminal 200 and the measurement subject, the control unit 250 determines that the virtual reference point is inside the measurement subject. Upon determining that it is located, the control unit 250 provides an augmented reality image of the corresponding virtual cross-section overlaid on the image captured by the user terminal 200 (S260).

도 3은 도 2의 S260단계를 설명하기 위한 도면이고, 도 4는 도 3에 의해 제공되는 증강현실 영상을 나타낸 도면이다.Figure 3 is a diagram for explaining step S260 of Figure 2, and Figure 4 is a diagram showing the augmented reality image provided by Figure 3.

즉, 도 3에서 나타낸 것처럼, 사용자 단말기(200)와 가상의 기준점 사이의 거리(R)가 사용자 단말기(200)와 측정 대상자 사이의 거리(D)보다 긴 경우, 제어부(250)는 가상의 기준점이 측정 대상자의 신체 내부에 존재하는 것으로 판단한다.That is, as shown in FIG. 3, when the distance (R) between the user terminal 200 and the virtual reference point is longer than the distance (D) between the user terminal 200 and the measurement subject, the control unit 250 detects the virtual reference point It is judged to exist inside the body of the person being measured.

그러면, 도 4에서 나타낸 것처럼, 제어부(250)는 가상의 기준점을 중심으로 하는 가상의 평면에 해당하는 측정 대상자의 뇌의 단면을 증강현실 형태로 제공한다.Then, as shown in FIG. 4, the control unit 250 provides a cross-section of the brain of the measurement subject corresponding to a virtual plane centered on a virtual reference point in augmented reality.

이를 위하여, 제어부(250)는 의료영상 제공서버(100)로 가상의 기준점 및 사용자 단말기(200)의 3축 각도 정보를 제공한다.To this end, the control unit 250 provides a virtual reference point and 3-axis angle information of the user terminal 200 to the medical image providing server 100.

그러면, 의료영상 제공서버(100)는 해당 가상의 기준점을 중심(0,0,0)으로 하고 사용자 단말기(200)의 3축 각도와 동일한 3축 각도로 설정된 증강현실영상을 제어부(250)로 전달한다.Then, the medical image providing server 100 centers the virtual reference point (0,0,0) and sends the augmented reality image set at the same 3-axis angle as the 3-axis angle of the user terminal 200 to the control unit 250. Deliver.

즉, 의료영상 제공서버(100)는 제어부(250)로부터 수신한 가상의 기준점과 3축 각도 정보에 대응하는 단면 영상을 사용자 단말기(200)에 제공한다.That is, the medical image providing server 100 provides the user terminal 200 with a cross-sectional image corresponding to the virtual reference point and 3-axis angle information received from the control unit 250.

예를 들어, 사용자 단말기(200)가 x축을 기준으로 40도 기울어진 상태라고 가정하면, 의료영상 제공서버(100)는 기준점을 중심(0,0,0)으로 하고 x축 방향으로 40도 기울어진 평면에 해당하는 증강현실 영상을 제어부(250)에 제공한다. For example, assuming that the user terminal 200 is tilted 40 degrees based on the x-axis, the medical image providing server 100 is tilted 40 degrees in the x-axis direction with the reference point as the center (0,0,0). An augmented reality image corresponding to the true plane is provided to the control unit 250.

따라서, 사용자 단말기(200)는 의료영상 제공서버(100)로부터 수신한 단면에 해당하는 증강현실 영상을 촬영부(220)에 의해 촬영된 영상에 겹쳐서 제공한다.Accordingly, the user terminal 200 provides the augmented reality image corresponding to the cross-section received from the medical image providing server 100 by overlapping it with the image captured by the photographing unit 220.

이때, 기준점의 위치가 동일하고, 사용자 단말기(200)의 자세가 변경되면, 제어부(250)는 해당 사용자 단말기(200)의 자세에 따라 사용자 단말기(200)와 동일한 3축 각도를 가지는 단면에 해당하는 증강현실 영상을 제공한다.At this time, if the position of the reference point is the same and the posture of the user terminal 200 changes, the control unit 250 corresponds to a cross section having the same three-axis angle as the user terminal 200 according to the posture of the user terminal 200. Provides augmented reality video.

이와 반대로, 사용자 단말기(200)와 가상의 기준점 사이의 거리(R)가 사용자 단말기(200)와 측정 대상자 사이의 거리(D)보다 짧거나 같은 경우, 제어부(250)는 가상의 기준점이 측정 대상자의 외부에 위치하는 것으로 판단하고, 측정 대상자의 뇌 표면이나 장기 표면에 대응하는 증강현실 영상을 촬영부(220)에 의해 촬영되는 영상에 겹쳐서 제공한다(S270).On the contrary, when the distance (R) between the user terminal 200 and the virtual reference point is shorter than or equal to the distance (D) between the user terminal 200 and the measurement subject, the control unit 250 determines that the virtual reference point is the measurement subject. It is determined to be located outside of , and an augmented reality image corresponding to the brain surface or organ surface of the measurement subject is provided overlaid on the image captured by the imaging unit 220 (S270).

도 5는 도 2의 S270단계를 설명하기 위한 도면이고, 도 6a은 본 발명의 실시예에 따른 측정 대상자의 정면을 촬영했을 경우 제공되는 화면이고, 도 6b는 본 발명의 실시예에 따른 측정 대상자의 왼쪽 측면을 촬영했을 경우 제공되는 화면이다.Figure 5 is a diagram for explaining step S270 of Figure 2, Figure 6a is a screen provided when the front of the measurement subject according to an embodiment of the present invention is photographed, and Figure 6b is a measurement subject according to an embodiment of the present invention. This is the screen provided when the left side of is taken.

즉, 도 5에서 나타낸 것과 같이, 사용자 단말기(200)와 가상의 기준점과의 거리(R)가 사용자 단말기(200)와 측정 대상자 사이의 거리(D)보다 짧거나 같은 경우, 제어부(250)는 가상의 기준점이 측정 대상자의 신체 외부에 존재하는 것으로 판단한다.That is, as shown in FIG. 5, when the distance (R) between the user terminal 200 and the virtual reference point is shorter than or equal to the distance (D) between the user terminal 200 and the measurement subject, the control unit 250 The virtual reference point is determined to exist outside the body of the person being measured.

만일, 사용자 단말기(200)의 현재 위치가 측정 대상자의 얼굴 정면을 향하고 있는 경우, 도 6a에서 나타낸 것처럼, 제어부(250)는 측정 대상자의 뇌의 전면부에 해당하는 증강현실 영상을 사용자 단말기(200)의 화면 상에 제공할 수 있다. If the current position of the user terminal 200 is facing the front of the measurement subject's face, as shown in FIG. 6A, the control unit 250 sends an augmented reality image corresponding to the front part of the measurement subject's brain to the user terminal 200. ) can be provided on the screen.

또한, 사용자 단말기(200)의 현재 위치가 측정 대상자의 얼굴의 좌측면을 향하고 있는 경우, 도 6b에서 나타낸 것처럼, 제어부(250)는 측정 대상자의 왼쪽 측면부에 해당하는 증강현실 영상을 사용자 단말기(200)의 화면 상에 제공할 수 있다.In addition, when the current location of the user terminal 200 is toward the left side of the measurement subject's face, as shown in FIG. 6B, the control unit 250 sends an augmented reality image corresponding to the left side of the measurement subject to the user terminal 200. ) can be provided on the screen.

이때, 제어부(250)는 촬영된 측정 대상자가 화면 상에 나타나는 크기에 따라 증강현실 영상을 축소 또는 확대하여 사용자 단말기(200)에 제공할 수 있다.At this time, the control unit 250 may reduce or enlarge the augmented reality image according to the size of the captured measurement subject on the screen and provide it to the user terminal 200.

그리고, 사용자 단말기(200)를 통해 촬영된 영상에 측정 대상자가 존재하지 않는 경우, 제어부(250)는 사용자 단말기(200)를 통해 임의의 가상의 기준점을 지정받고, 가상의 기준점과 단말기와 가상의 기준점과의 거리, 가상의 평면 및 3축 각도에 따른 의료영상의 단면을 제공할 수 있다.And, if the measurement subject does not exist in the image captured through the user terminal 200, the control unit 250 receives an arbitrary virtual reference point through the user terminal 200, and determines the virtual reference point, the terminal, and the virtual reference point. It can provide cross-sections of medical images according to the distance from the reference point, virtual plane, and 3-axis angle.

또한, 사용자 단말기(200)에 의해 촬영된 영상이 측정 대상자가 아닌 해부학 모형인 경우, 제어부(250)는 임의의 증강현실 영상을 사용자 단말기(200)의 화면 상에 제공할 수 있다.Additionally, when the image captured by the user terminal 200 is an anatomical model rather than a measurement subject, the control unit 250 may provide an arbitrary augmented reality image on the screen of the user terminal 200.

이때, 제어부(250)는 임의의 측정 대상자의 증강현실 영상 또는 확인이 필요한 측정 대상자의 증강현실 영상을 사용자 단말기(200)의 화면상에 제공할 수 있다,At this time, the control unit 250 may provide an augmented reality image of a random measurement subject or an augmented reality image of a measurement subject requiring confirmation on the screen of the user terminal 200.

이와 같이 본 발명의 실시예에 따르면, 사용자 단말기와 측정 대상자 사이의 거리에 따라 측정 대상자의 신체 내부에 대한 증강현실 영상을 실시간으로 제공함으로써 수술전 시뮬레이션 및 의료 교육시 활용할 수 있다.In this way, according to an embodiment of the present invention, augmented reality images of the inside of the body of the measurement subject are provided in real time according to the distance between the user terminal and the measurement subject, and can be used for pre-surgical simulation and medical education.

또한, 의료영상과 촬영된 깊이영상을 이용하기 때문에 기존의 마커를 이용하여 증강현실을 제공하는 방법보다 제작비용과 연산량을 감소시킬 수 있다.In addition, because it uses medical images and captured depth images, production costs and computational volume can be reduced compared to methods that provide augmented reality using existing markers.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것이 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached patent claims.

100: 의료영상 제공서버, 200: 사용자 단말기,
210: 제1 특징점 추출부, 220: 촬영부,
230: 제2 특징점 추출부, 240: 영상 정합부,
250: 제어부
100: medical image provision server, 200: user terminal,
210: first feature point extraction unit, 220: photography unit,
230: second feature point extraction unit, 240: image registration unit,
250: control unit

Claims (4)

사용자 단말기를 이용한 증강현실 의료영상 제공 방법에 있어서,
측정 대상자의 신체 일부에 대하여 촬영된 의료 영상을 의료영상 서버로부터 수신하여 3차원 영상을 재구성하고, 상기 재구성된 3차원 영상으로부터 특징점을 추출하는 단계,
사용자 단말기에 장착된 깊이 카메라를 이용하여 상기 측정 대상자의 신체 일부를 촬영하고, 상기 촬영된 영상으로부터 상기 측정 대상자의 3차원 데이터를 획득하고, 상기 3차원 데이터로부터 특징점을 추출하는 단계,
상기 3차원 영상으로부터 추출된 특징점과 상기 3차원 데이터로부터 추출된 특징점을 매칭시켜 정합하는 단계,
상기 사용자 단말기로부터 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정하고, 상기 기준점에 해당하는 3차원 좌표가 상기 측정 대상자의 신체 일부 내에 위치하는 경우, 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 상기 깊이 카메라에 의해 촬영되는 영상에 겹쳐서 상기 사용자 단말기의 화면상에 제공하는 단계를 포함하며,
상기 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 상기 깊이 카메라에 의해 촬영되는 영상에 겹쳐서 제공하는 단계는,
상기 사용자 단말기와 상기 측정 대상자 사이의 거리가 변화함에 따라, 상기 신체의 일부의 단면에 해당하는 증강현실 영상을 연속적으로 화면 상에 표시하여 제공하는 증강현실 의료영상 제공 방법.
In a method of providing augmented reality medical images using a user terminal,
Receiving a medical image taken of a body part of a measurement subject from a medical image server, reconstructing a 3D image, and extracting feature points from the reconstructed 3D image,
Photographing a body part of the measurement subject using a depth camera mounted on a user terminal, obtaining 3D data of the measurement subject from the captured image, and extracting feature points from the 3D data,
A step of matching and registering feature points extracted from the 3D image and feature points extracted from the 3D data,
A point spaced a certain distance in the vertical direction from the user terminal is set as a virtual reference point, and when the three-dimensional coordinates corresponding to the reference point are located within a part of the body of the measurement subject, the cross section corresponding to the reference point is set as a virtual reference point. It includes providing the augmented reality image on the screen of the user terminal by overlapping it with the image captured by the depth camera,
The step of providing an augmented reality image of a cross section corresponding to the corresponding reference point by overlapping it with an image captured by the depth camera,
A method of providing an augmented reality medical image that continuously displays and provides an augmented reality image corresponding to a cross section of a part of the body on a screen as the distance between the user terminal and the measurement subject changes.
제1항에 있어서,
상기 사용자 단말기는 3축 지자기 센서를 포함하며,
상기 사용자 단말기의 현재 위치 및 3축 각도에 대응하여, 상기 기준점을 중심으로 상기 사용자 단말기와 평행인 면에 대응하는 단면에 대한 증강현실 영상을 표시하는 증강현실 의료영상 제공 방법.
According to paragraph 1,
The user terminal includes a 3-axis geomagnetic sensor,
A method of providing an augmented reality medical image that displays an augmented reality image of a cross-section corresponding to a plane parallel to the user terminal centered on the reference point, in response to the current position and three-axis angle of the user terminal.
증강현실 의료영상을 제공하기 위한 사용자 단말기에 있어서,
측정 대상자의 신체 일부에 대하여 촬영된 의료영상을 의료영상 서버로부터 수신하여 3차원 영상을 재구성하고, 상기 재구성된 3차원 영상으로부터 특징점을 추출하는 제1 특징점 추출부,
깊이 카메라를 이용하여 상기 측정 대상자의 신체 일부를 촬영하기 위한 촬영부,
상기 촬영된 영상으로부터 상기 측정 대상자의 3차원 데이터를 획득하고, 상기 3차원 데이터로부터 특징점을 추출하는 제2 특징점 추출부,
상기 3차원 영상으로부터 추출된 특징점과 상기 3차원 데이터로부터 추출된 특징점을 매칭시켜 정합하는 영상 정합부, 그리고
상기 사용자 단말기로부터 수직 방향으로 일정 거리만큼 이격된 지점을 가상의 기준점으로 설정하고, 상기 기준점에 해당하는 3차원 좌표가 상기 측정 대상자의 신체 일부 내에 위치하는 경우, 해당되는 기준점에 대응하는 단면에 대한 증강현실 영상을 상기 사용자 단말기에 의해 촬영되는 영상에 겹쳐서 제공하는 제어부를 포함하며,
상기 제어부는,
상기 사용자 단말기와 상기 측정 대상자 사이의 거리가 변화함에 따라, 상기 신체의 일부의 단면에 해당하는 증강현실 영상을 연속적으로 화면 상에 표시하여 제공하는 사용자 단말기.
In a user terminal for providing augmented reality medical images,
A first feature point extraction unit that receives medical images taken of a body part of a measurement subject from a medical image server, reconstructs a 3D image, and extracts feature points from the reconstructed 3D image;
A photographing unit for photographing a body part of the measurement subject using a depth camera,
a second feature point extraction unit that acquires 3D data of the measurement subject from the captured image and extracts feature points from the 3D data;
an image registration unit that matches and registers feature points extracted from the 3D image and feature points extracted from the 3D data, and
A point spaced a certain distance in the vertical direction from the user terminal is set as a virtual reference point, and when the three-dimensional coordinates corresponding to the reference point are located within a part of the body of the measurement subject, the cross section corresponding to the reference point is set as a virtual reference point. It includes a control unit that provides an augmented reality image by overlapping it with an image captured by the user terminal,
The control unit,
A user terminal that continuously displays and provides an augmented reality image corresponding to a cross-section of a part of the body on a screen as the distance between the user terminal and the measurement subject changes.
제3항에 있어서,
3축 지자기 센서를 더 포함하며,
상기 제어부는,
상기 사용자 단말기의 현재 위치 및 3축 각도에 대응하여, 상기 기준점을 중심으로 상기 사용자 단말기와 평행인 면에 대응하는 단면에 대한 증강현실 영상을 표시하는 사용자 단말기.
According to paragraph 3,
It further includes a 3-axis geomagnetic sensor,
The control unit,
A user terminal that displays an augmented reality image of a cross-section corresponding to a plane parallel to the user terminal centered on the reference point, in response to the current position and three-axis angle of the user terminal.
KR1020220163625A 2020-08-10 2022-11-30 User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image KR102582154B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220163625A KR102582154B1 (en) 2020-08-10 2022-11-30 User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200099686A KR102476832B1 (en) 2020-08-10 2020-08-10 User terminal for providing augmented reality medical image and method for providing augmented reality medical image
KR1020220163625A KR102582154B1 (en) 2020-08-10 2022-11-30 User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200099686A Division KR102476832B1 (en) 2020-08-10 2020-08-10 User terminal for providing augmented reality medical image and method for providing augmented reality medical image

Publications (2)

Publication Number Publication Date
KR20220164463A KR20220164463A (en) 2022-12-13
KR102582154B1 true KR102582154B1 (en) 2023-09-22

Family

ID=80247125

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200099686A KR102476832B1 (en) 2020-08-10 2020-08-10 User terminal for providing augmented reality medical image and method for providing augmented reality medical image
KR1020220163625A KR102582154B1 (en) 2020-08-10 2022-11-30 User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200099686A KR102476832B1 (en) 2020-08-10 2020-08-10 User terminal for providing augmented reality medical image and method for providing augmented reality medical image

Country Status (2)

Country Link
KR (2) KR102476832B1 (en)
WO (1) WO2022035110A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230166023A (en) * 2022-05-27 2023-12-06 고려대학교 산학협력단 Method and apparatus for providing ar images
US20240045491A1 (en) * 2022-08-05 2024-02-08 Alexander Sourov Medical image overlays for augmented reality experiences

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102082290B1 (en) 2017-12-06 2020-02-27 조선대학교산학협력단 Surgery navigation program stored in computer-readable storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039948B1 (en) * 2017-08-16 2019-11-04 연세대학교 원주산학협력단 Mobile terminal for rendering virtual organs in augmented/virtual reality and system thereof
KR20190030414A (en) * 2017-09-14 2019-03-22 울산대학교 산학협력단 Medical apparatus
KR102056930B1 (en) * 2017-11-21 2019-12-17 경희대학교 산학협력단 Spine surgical navigation system and method using augmented reality technology
EP3689287B1 (en) * 2019-01-30 2022-07-27 DENTSPLY SIRONA Inc. System for proposing and visualizing dental treatments

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102082290B1 (en) 2017-12-06 2020-02-27 조선대학교산학협력단 Surgery navigation program stored in computer-readable storage medium

Also Published As

Publication number Publication date
WO2022035110A1 (en) 2022-02-17
KR20220164463A (en) 2022-12-13
KR20220019353A (en) 2022-02-17
KR102476832B1 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
KR102582154B1 (en) User terminal for providing augmented reality medical image using depth camera and method for providing augmented reality medical image
JP6698824B2 (en) Image display control device, method and program
US20220192611A1 (en) Medical device approaches
JP2020516003A (en) Extending the patient's real-time view with 3D data
US7774044B2 (en) System and method for augmented reality navigation in a medical intervention procedure
US11443431B2 (en) Augmented reality patient positioning using an atlas
KR20200097747A (en) Systems and methods that support visualization during surgery
EP3789965B1 (en) Method for controlling a display, computer program and mixed reality display device
KR101993384B1 (en) Method, Apparatus and system for correcting medical image by patient's pose variation
JP6493885B2 (en) Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
CN111297501B (en) Augmented reality navigation method and system for oral implantation operation
WO2021211986A1 (en) Systems and methods for enhancing medical images
JP4736040B2 (en) Human body internal information projection system
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
JP6795744B2 (en) Medical support method and medical support device
KR20220020634A (en) Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof
JP6878028B2 (en) Medical image diagnostic system and mixed reality image generator
KR102460821B1 (en) Augmented reality apparatus and method for operating augmented reality apparatus
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
US11941765B2 (en) Representation apparatus for displaying a graphical representation of an augmented reality
KR102257895B1 (en) Device and method for setting the working projection
Kumar et al. Stereoscopic augmented reality for single camera endoscope using optical tracker: a study on phantom
Chiou et al. A Novel Surgery Navigation System Combined with Augmented Reality based on Image Target Positioning System
CN117677358A (en) Augmented reality system and method for stereoscopic projection and cross-referencing of intra-operative field X-ray fluoroscopy and C-arm computed tomography imaging
CN115176283A (en) Augmented reality positioning medical views

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant