KR20230012820A - Electronic device for realization of virtual reality of medical environment - Google Patents

Electronic device for realization of virtual reality of medical environment Download PDF

Info

Publication number
KR20230012820A
KR20230012820A KR1020210093554A KR20210093554A KR20230012820A KR 20230012820 A KR20230012820 A KR 20230012820A KR 1020210093554 A KR1020210093554 A KR 1020210093554A KR 20210093554 A KR20210093554 A KR 20210093554A KR 20230012820 A KR20230012820 A KR 20230012820A
Authority
KR
South Korea
Prior art keywords
virtual
processor
medical images
medical image
medical
Prior art date
Application number
KR1020210093554A
Other languages
Korean (ko)
Other versions
KR102615906B1 (en
Inventor
고재철
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020210093554A priority Critical patent/KR102615906B1/en
Publication of KR20230012820A publication Critical patent/KR20230012820A/en
Application granted granted Critical
Publication of KR102615906B1 publication Critical patent/KR102615906B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

According to various embodiments, an electronic device comprises a processor which generates a virtual medical image with respect to a virtual model including a stack of a plurality of medical images between a virtual generator and the virtual director by using a virtual medical image device including the virtual generator and the virtual direction in a virtual space. The processor may be configured to: generate a first virtual medical image based on an array of a plurality of cells of a first size for each of the plurality of medical images; and generate a second virtual medical image based on an array of a plurality of cells of a second size, smaller than the first size, for each of the plurality of medical images. According to the present invention, the electronic device can improve user convenience through an integrated system.

Description

의료 환경의 가상 현실을 구현하기 위한 전자 장치{ELECTRONIC DEVICE FOR REALIZATION OF VIRTUAL REALITY OF MEDICAL ENVIRONMENT}Electronic device for realizing virtual reality in a medical environment

아래의 다양한 실시 예들은 의료 환경의 가상 현실을 구현하기 위한 전자 장치에 관한 것으로, 예를 들면, 수술/시술 교육 및/또는 사전 수술/시술을 위한 시뮬레이션을 위한 전자 장치에 관한 것이다.Various embodiments below relate to an electronic device for realizing virtual reality in a medical environment, for example, an electronic device for surgery/procedure education and/or simulation for pre-surgery/procedure.

가상 현실 공간에서 방사선 유도 환경 아래 수술/시술을 하기 위해 실제 엑스레이 장치와 유사한 가상 엑스레이 장치를 구현하고 이를 이용하여 수술/시술을 지원하는 정합 기술이 개발되고 있다. 예를 들면, 미국 특허출원공개공보 US 2018/0049622 A1은 의료 절차에서 감각 증강을 위한 시스템 및 방법을 개시한다.In order to perform surgery/procedure under a radiation-guided environment in a virtual reality space, a matching technology for implementing a virtual X-ray device similar to an actual X-ray device and using the virtual X-ray device to support surgery/procedure is being developed. For example, US Patent Application Publication No. US 2018/0049622 A1 discloses systems and methods for sensory enhancement in medical procedures.

다양한 실시 예들에 따르면, 다양한 증례(case)들에 맞춰 수술/시술 교육 및/또는 사전 수술/시술을 위한 시뮬레이션을 제공할 수 있다.According to various embodiments, it is possible to provide surgery/procedure education and/or simulation for pre-surgery/procedure according to various cases.

다양한 실시 예들에 따른 전자 장치는, 가상 공간 내 가상 제네레이터 및 가상 디텍터를 포함하는 가상 의료 영상 장치를 이용하여 상기 가상 제네레이터 및 상기 가상 디텍터 사이의 복수 개의 의료 영상들의 스택을 포함하는 가상 모델에 대한 가상 의료 영상을 생성하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수 개의 의료 영상들의 각각의 제 1 크기의 복수 개의 셀들의 어레이에 기초하여 제 1 가상 의료 영상을 생성하고, 상기 복수 개의 의료 영상들의 각각의 제 1 크기보다 작은 제 2 크기의 복수 개의 셀들의 어레이에 기초하여 제 2 가상 의료 영상을 생성하도록 구성될 수 있다.An electronic device according to various embodiments may use a virtual medical imaging device including a virtual generator and a virtual detector in a virtual space to generate virtual images for a virtual model including a stack of a plurality of medical images between the virtual generator and the virtual detector. A processor generating a medical image, wherein the processor generates a first virtual medical image based on an array of a plurality of cells having a first size, respectively, of the plurality of medical images; It may be configured to generate a second virtual medical image based on an array of a plurality of cells having a second size smaller than the first size of .

일 실시 예에서, 상기 프로세서는, 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 동시에 생성하도록 구성될 수 있다.In an embodiment, the processor may be configured to simultaneously generate the first virtual medical image and the second virtual medical image.

일 실시 예에서, 상기 프로세서는, 상기 제 1 가상 의료 영상에 상기 제 2 가상 의료 영상을 오버랩시키도록 구성될 수 있다.In an embodiment, the processor may be configured to overlap the second virtual medical image with the first virtual medical image.

일 실시 예에서, 상기 프로세서는, 사용자의 입력에 기초하여 상기 제 1 크기를 결정하도록 구성될 수 있다.In one embodiment, the processor may be configured to determine the first size based on a user's input.

일 실시 예에서, 상기 프로세서는, 상기 가상 제네레이터 및 상기 디텍터 사이의 제 1 벡터, 상기 가상 제네레이터 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 사이의 제 2 벡터, 및 상기 복수 개의 의료 영상들 각각의 법선 벡터를 이용하여 상기 가상 의료 영상을 생성하도록 구성될 수 있다.In an embodiment, the processor may include a first vector between the virtual generator and the detector, a second vector between the virtual generator and first corner points of each of the plurality of medical images, and the plurality of medical images. The virtual medical image may be generated using each normal vector.

일 실시 예에서, 상기 프로세서는, 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트와 다른 제 2 코너 포인트 및 상기 복수 개의 의료 영상들 각각의 코너 포인트들을 제외한 임의의 포인트 사이의 제 3 벡터, 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 및 상기 제 2 코너 포인트와 다른 제 3 코너 포인트 및 상기 임의의 포인트 사이의 제 4 벡터를 이용하여 상기 법선 벡터를 계산하도록 구성될 수 있다.In an embodiment, the processor may include a third vector between a second corner point different from a first corner point of each of the plurality of medical images and an arbitrary point excluding corner points of each of the plurality of medical images; and The normal vector may be calculated using a fourth vector between a third corner point different from the first corner point and the second corner point of each of the plurality of medical images and the arbitrary point.

일 실시 예에서, 상기 프로세서는, 상기 제 1 벡터 및 상기 법선 벡터의 내적, 및 상기 제 2 벡터 및 상기 법선 벡터의 내적의 비율을 계산하도록 구성되고, 상기 프로세서는, 상기 가상 제네레이터로부터 상기 임의의 포인트를 향하는 방향에 상기 비율을 곱하고, 상기 복수 개의 의료 영상들 각각 및 상기 방향에 따른 가상의 라인이 만나는 컨택 포인트를 계산하도록 구성될 수 있다.In an embodiment, the processor is configured to calculate a ratio of a dot product of the first vector and the normal vector, and a dot product of the second vector and the normal vector, wherein the processor: It may be configured to multiply a direction toward a point by the ratio, and calculate a contact point where each of the plurality of medical images and a virtual line along the direction meet.

일 실시 예에서, 상기 프로세서는, 상기 제 1 코너 포인트 및 상기 제 2 코너 포인트를 연결하는 제 1 라인 상의 상기 컨택 포인트의 제 1 교차 포인트, 및 상기 제 2 코너 포인트 및 상기 제 3 코너 포인트를 연결하는 제 2 라인 상의 상기 컨택 포인트의 제 2 교차 포인트를 계산하도록 구성되고, 상기 프로세서는, 상기 제 1 라인의 길이 대비 상기 제 1 코너 포인트 및 상기 제 1 교차 포인트 사이의 길이의 제 1 비율 및 상기 제 2 라인의 길이 대비 상기 제 3 코너 포인트 및 상기 제 2 교차 포인트 사이의 길이의 제 2 비율이 1보다 크면 상기 가상 의료 영상의 생성을 종료하도록 구성될 수 있다.In one embodiment, the processor connects a first intersection point of the contact point on a first line connecting the first corner point and the second corner point, and the second corner point and the third corner point. and calculate a second intersection point of the contact point on a second line that comprises: a first ratio of a length of the first line to a length between the first corner point and the first intersection point; and Generation of the virtual medical image may be terminated when a second ratio of a length of a second line to a length between the third corner point and the second intersection point is greater than 1.

일 실시 예에서, 상기 프로세서는, 상기 제 1 비율 및 상기 제 2 비율을 상기 복수 개의 의료 영상들의 제 1 방향의 크기 및 제 2 방향의 크기에 각각 곱하고, 상기 복수 개의 의료 영상들의 각각의 흡수도를 계산하도록 구성될 수 있다.In an embodiment, the processor multiplies the first ratio and the second ratio by sizes in a first direction and sizes in a second direction of the plurality of medical images, respectively, and absorbance of each of the plurality of medical images. It can be configured to calculate

일 실시 예에서, 상기 프로세서는, 상기 가상 모델에 위치되도록 구성되는 가상 마커에 대한 데이터 및 상기 복수 개의 의료 영상들 각각에 포함된 해부학적 구조에 대한 데이터를 통합시킴으로써 복수 개의 변형 의료 영상들의 스택을 생성하고, 상기 복수 개의 변형 의료 영상들에 기초하여 상기 가상 의료 영상을 생성하도록 구성될 수 있다.In an embodiment, the processor stacks a plurality of deformed medical images by integrating data for a virtual marker configured to be positioned on the virtual model and data for an anatomical structure included in each of the plurality of medical images. and generate the virtual medical image based on the plurality of modified medical images.

일 실시 예에서, 상기 프로세서는, 상기 가상 마커 및 상기 가상 모델 사이의 위치 관계, 상기 가상 마커 및 상기 가상 모델 사이의 결합 구조, 및 상기 가상 마커 및 상기 가상 모델 사이의 크기 관계 중 적어도 하나 이상을 이용하여 상기 복수 개의 변형 의료 영상들의 스택을 생성할 수 있다.In one embodiment, the processor may determine at least one of a positional relationship between the virtual marker and the virtual model, a coupling structure between the virtual marker and the virtual model, and a size relationship between the virtual marker and the virtual model. A stack of the plurality of deformed medical images may be generated by using the image.

다양한 실시 예들에 따른 전자 장치는, 다양한 증례들에 맞춰 수술/시술 교육 및/또는 사전 수술/시술을 위한 시뮬레이션을 제공할 수 있다.An electronic device according to various embodiments may provide surgery/procedure education and/or simulation for pre-surgery/procedure according to various cases.

다양한 실시 예들에 따른 전자 장치는, 일체형 시스템을 통한 사용자의 편의성을 개선할 수 있다.An electronic device according to various embodiments may improve user convenience through an integrated system.

다양한 실시 예들에 따른 전자 장치는, 가상/증강/혼합 현실 내 구현되는 오브젝트의 정합 정확도를 개선할 수 있다.An electronic device according to various embodiments may improve matching accuracy of objects implemented in virtual/augmented/mixed reality.

다양한 실시 예들에 따른 전자 장치의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the electronic device according to various embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 다양한 실시 예들에 따른 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 전자 장치의 가상 공간 내 가상 의료 영상을 생성하는 루틴을 설명하는 순서도이다.
도 3은 일 실시 예에 따른 전자 장치가 구현하는 가상 공간의 도면이다.
도 4a 내지 도 4d는 일 실시 예에 따른 가상 공간 내 가상 의료 영상을 생성하는 방식을 설명하기 위한 도면들이다.
1 is a block diagram of an electronic device according to various embodiments.
2 is a flowchart illustrating a routine for generating a virtual medical image in a virtual space of an electronic device according to an exemplary embodiment.
3 is a diagram of a virtual space implemented by an electronic device according to an embodiment.
4A to 4D are diagrams for explaining a method of generating a virtual medical image in a virtual space according to an exemplary embodiment.

이하에서, 첨부된 도면을 참조하여 실시 예들을 상세하게 설명한다. 그러나, 실시 예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리범위가 이러한 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 실시 예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시 예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안 된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시 예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the embodiment, the detailed description will be omitted.

또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being “connected,” “coupled to,” or “connected” to another element, that element may be directly connected or connected to the other element, but there may be another element between the elements. It should be understood that may be "connected", "coupled" or "connected".

어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components having common functions will be described using the same names in other embodiments. Unless stated to the contrary, descriptions described in one embodiment may be applied to other embodiments, and detailed descriptions will be omitted to the extent of overlap.

도 1을 참조하면, 다양한 실시 예들에 따른 전자 장치(10)는, 프로세서(110), 메모리(120), 입력 모듈(130), 디스플레이(140) 및 통신 모듈(150)을 포함할 수 있다. 어떤 실시 예에 따른 전자 장치(10)에서, 상기 열거된 구성요소들 중 적어도 하나의 구성요소가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다.Referring to FIG. 1 , an electronic device 10 according to various embodiments may include a processor 110, a memory 120, an input module 130, a display 140, and a communication module 150. In the electronic device 10 according to some embodiments, at least one of the above-listed components may be omitted or one or more other components may be added.

프로세서(110)는, 프로그램을 실행하여 프로세서(110)에 연결된 전자 장치(10)의 적어도 하나의 다른 구성요소를 제어하고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(110)는, 적어도 하나의 다른 구성요소로부터 수신된 명령 또는 데이터를 메모리(120)에 저장하고, 메모리(120)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(120)에 저장할 수 있다. 일 실시 예에서, 프로세서(110)는 전자 장치(10)의 외부(예: 사용자)로부터 수신된 의료 영상을 판독하도록 구성될 수 있다. 일 실시 예에서, 프로세서(110)는 가상 공간(예: 가상 공간(311)) 내 가상의 영상 장치(예: 영상 장치(330))를 구현하고, 가상의 영상 장치를 이용하여 복수 개의 의료 영상(예: 의료 영상(421))들의 스택 또는 이의 가상 모델(예: 모델(321))에 대한 가상 의료 영상을 생성할 수 있다.The processor 110 may execute a program to control at least one other component of the electronic device 10 connected to the processor 110 and perform various data processing or calculations. The processor 110 may store commands or data received from at least one other component in the memory 120, process the commands or data stored in the memory 120, and store resultant data in the memory 120. there is. In an embodiment, the processor 110 may be configured to read a medical image received from the outside of the electronic device 10 (eg, a user). In an embodiment, the processor 110 implements a virtual imaging device (eg, the imaging device 330) in a virtual space (eg, the virtual space 311), and uses the virtual imaging device to generate a plurality of medical images. A virtual medical image of a stack of (eg, medical images 421) or a virtual model thereof (eg, the model 321) may be generated.

메모리(120)는, 전자 장치(10)의 적어도 하나의 구성요소(예: 프로세서(110))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들면, 메모리(120)는, 외부(예: 사용자)로부터 수신된 적어도 하나의 의료 영상을 저장하고, 프로세서(110)에 의해 처리된 의료 영상의 중간 또는 결과 데이터를 저장할 수 있다. The memory 120 may store various data used by at least one component (eg, the processor 110) of the electronic device 10. For example, the memory 120 may store at least one medical image received from the outside (eg, a user) and may store intermediate or result data of the medical image processed by the processor 110 .

입력 모듈(130)은, 프로세서(110)에 사용될 명령 또는 데이터를 전자 장치(10)의 외부로부터 수신할 수 있다. 예를 들면, 입력 모듈(130)은, 사용자 또는 외부 전자 장치로부터 수신된 적어도 하나의 의료 영상 또는 복수 개의 의료 영상들의 스택을 수신할 수 있다.The input module 130 may receive commands or data to be used by the processor 110 from outside the electronic device 10 . For example, the input module 130 may receive at least one medical image or a stack of a plurality of medical images received from a user or an external electronic device.

디스플레이(140)는, 전자 장치(10)의 외부에 정보를 시각적으로 제공할 수 있다. 예를 들면, 디스플레이(140)는, 프로세서(110)에 의해 판독된 의료 영상의 결과 데이터에 기초하여 프로세서(110)에 의해 생성된 2차원 또는 3차원 가상 모델을 표시할 수 있다.The display 140 may visually provide information to the outside of the electronic device 10 . For example, the display 140 may display a 2D or 3D virtual model generated by the processor 110 based on result data of a medical image read by the processor 110 .

통신 모듈(150)은, 전자 장치(10) 및 외부 전자 장치 사이의 통신 채널 확보 및 확보된 통신 채널을 통한 통신을 지원할 수 있다. 예를 들면, 통신 모듈(150)은, 외부 전자 장치와 메모리(120) 및/또는 프로세서(110) 사이의 통신을 중계할 수 있다.The communication module 150 may secure a communication channel between the electronic device 10 and an external electronic device and support communication through the secured communication channel. For example, the communication module 150 may relay communication between an external electronic device and the memory 120 and/or the processor 110 .

도 2를 참조하면, 일 실시 예에 따른 전자 장치(예: 전자 장치(10))는, 복수 개의 의료 영상(예: 의료 영상(421))들의 스택에 대해 서로 상이한 루틴들에 의해 처리된 복수 개(예: 2개)의 가상 의료 영상들을 생성하는 프로세서(예: 프로세서(110))를 포함할 수 있다. 예를 들면, 프로세서는, 복수 개의 의료 영상들의 스택을 로드하는 동작(210)을 수행하고, 복수 개의 의료 영상들의 스택에 대해, 제 1 크기의 복수 개의 셀(예: 128 x 128 픽셀들 또는 복셀들)들의 어레이의 제 1 가상 의료 영상을 생성하는 동작(221) 및 가상 공간 내 가상 디스플레이(예: 가상 디스플레이(340))에 제 1 가상 의료 영상을 표시하는 동작(222)을 포함하는 제 1 루틴(220), 및 제 1 크기보다 작은 제 2 크기의 복수 개의 셀들(예: 512 x 512 픽셀들 또는 복셀들)의 어레이의 제 2 가상 의료 영상을 생성하는 동작(231) 및 가상 공간 내 가상 디스플레이에 제 2 가상 의료 영상을 표시하는 동작(232)을 포함하는 제 2 루틴(230)을 수행할 수 있다.Referring to FIG. 2 , in an electronic device (eg, electronic device 10) according to an embodiment, a plurality of stacks of a plurality of medical images (eg, medical images 421) are processed by different routines. It may include a processor (eg, the processor 110) generating two (eg, two) virtual medical images. For example, the processor performs an operation 210 of loading a stack of a plurality of medical images, and loads a plurality of cells of a first size (eg, 128 x 128 pixels or voxels) for the stack of the plurality of medical images. s) generating a first virtual medical image of the array (221) and displaying the first virtual medical image on a virtual display (eg, the virtual display 340) in the virtual space (222). Routine 220, and operation 231 of generating a second virtual medical image of an array of a plurality of cells (eg, 512 x 512 pixels or voxels) of a second size smaller than the first size, and A second routine 230 including an operation 232 of displaying a second virtual medical image on the display may be performed.

일 실시 예에서, 프로세서는, 제 1 루틴(220) 및 제 2 루틴(230)을 실질적으로 동시에 수행할 수 있다. 예를 들면, 프로세서가 제 1 루틴(220)을 수행하여 128 x 128 픽셀들 또는 복셀들의 어레이를 갖는 의료 영상으로부터 제 1 가상 의료 영상을 생성하는 동안, 제 1 가상 의료 영상의 복수 개의 픽셀들 또는 복셀들의 어레이의 파라미터(예: 흡수도)의 계산이 적어도 16,384회 반복되는 한편, 프로세서가 제 2 루틴(230)을 수행하여 512 x 512 픽셀들 또는 복셀들의 어레이를 갖는 의료 영상으로부터 제 2 가상 의료 영상을 생성하는 동안, 제 2 가상 의료 영상의 복수 개의 픽셀들 또는 복셀들의 어레이의 파라미터(예: 흡수도)의 계산이 적어도 262,144회 반복될 수 있다. 만약 프로세서에 의해 적어도 300개의 의료 영상들의 스택에 대한 각각의 루틴이 수행되면, 제 1 루틴(220)에 의한 처리 시간 및 제 2 루틴(230)에 의한 처리 시간 사이의 차이는 의료 영상의 개수에 비례하여 크게 증가할 수 있다. 프로세서에 의해 제 1 루틴(220) 및 제 2 루틴(230)이 동시에 수행되는 것은, 사용자에게 제공하기에 적합한 정확도의 제 1 가상 의료 영상을 상대적으로 빠르게 제공하면서, 사용자의 어떤 임의의 수행(예: 가상 시술/수술 시뮬레이션)이 진행되는 동안, 상대적으로 높은 정확도의 제 2 가상 의료 영상을 제공하여 제 1 가상 의료 영상의 정확도를 보완할 수 있다.In one embodiment, the processor may perform the first routine 220 and the second routine 230 substantially simultaneously. For example, while the processor performs the first routine 220 to generate a first virtual medical image from a medical image having an array of 128 x 128 pixels or voxels, a plurality of pixels or While calculation of a parameter (eg, absorbance) of the array of voxels is repeated at least 16,384 times, the processor performs a second routine 230 to generate a second virtual medical treatment from a medical image having an array of 512 x 512 pixels or voxels. While generating an image, calculation of a parameter (eg, absorbance) of an array of a plurality of pixels or voxels of the second virtual medical image may be repeated at least 262,144 times. If each routine for a stack of at least 300 medical images is performed by the processor, the difference between the processing time by the first routine 220 and the processing time by the second routine 230 is proportional to the number of medical images. can increase exponentially. Simultaneous execution of the first routine 220 and the second routine 230 by the processor relatively quickly provides a first virtual medical image with accuracy suitable for provision to the user, while performing any arbitrary action of the user (e.g. : virtual procedure/surgery simulation), the accuracy of the first virtual medical image may be supplemented by providing a second virtual medical image with relatively high accuracy.

일 실시 예에서, 프로세서는, 제 1 루틴(220)에 의해 생성된 제 1 가상 의료 영상 및 제 2 루틴(230)에 의해 생성된 제 2 가상 의료 영상을 오버랩시키는 동작(240)을 수행할 수 있다. 어떤 실시 예에서, 프로세서는, 제 1 루틴(220)에 의해 생성된 제 1 가상 의료 영상에 제 2 루틴(230)에 의해 생성된 제 2 가상 의료 영상을 오버랩시킬 수 있다.In an embodiment, the processor may perform an operation 240 of overlapping the first virtual medical image generated by the first routine 220 and the second virtual medical image generated by the second routine 230. there is. In some embodiments, the processor may overlap the first virtual medical image generated by the first routine 220 with the second virtual medical image generated by the second routine 230 .

도 2를 참조하면, 일 실시 예에 따른 전자 장치(예: 전자 장치(10))는, 가상 모델(321)에 대해 가상 의료 영상을 생성하기 위한 가상 영상 장치(330) 및 가상 의료 영상을 표시하는 가상 디스플레이(340)를 포함하는 가상 공간(311)을 구현하는 프로세서(예: 프로세서(110))를 포함할 수 있다.Referring to FIG. 2 , an electronic device (eg, electronic device 10) according to an embodiment displays a virtual imaging device 330 for generating a virtual medical image for a virtual model 321 and the virtual medical image. It may include a processor (eg, the processor 110) that implements the virtual space 311 including the virtual display 340 to be displayed.

일 실시 예에서, 가상 영상 장치(330)는, 예를 들면, 가상 제네레이터(331), 가상 디텍터(332), 및 가상 제네레이터(331) 및 가상 디텍터(332)를 연결하는 C 형상의 가상 아암(333)을 포함할 수 있다.In one embodiment, the virtual imaging device 330 includes, for example, a virtual generator 331, a virtual detector 332, and a C-shaped virtual arm connecting the virtual generator 331 and the virtual detector 332 ( 333) may be included.

일 실시 예에서, 가상 모델(321)은, 복수 개의 의료 영상들의 스택이거나, 복수 개의 의료 영상들에 기초하여 생성될 수 있다. 일 실시 예에서, 가상 모델(321)은 가상 마커(322)와 결합될 수 있다. 어떤 실시 예에서, 가상 모델(321)을 구성하는 복수 개의 의료 영상(예: DICOM 형태의 의료 영상)들의 데이터 및 가상 마커(322)의 데이터는 서로 통합되어 하나의 데이터(예: 변형 의료 영상)로 구현될 수 있다. 예를 들면, 모델(321)을 구성하는 해부학적 구조 및 마커(322)의 구조 사이의 결합 관계, 모델(321)을 구성하는 해부학적 구조 중 적어도 일부(예: 마커(322)가 설치되는 부분) 및 마커(322) 사이의 위치 관계, 모델(321)을 구성하는 해부학적 구조의 크기 및 마커(322)의 크기 사이의 크기 관계 등이 하나의 데이터 내에 정합되게 구현될 수 있다. 통합된 하나의 데이터를 이용하여 가상 공간(311)에 가상 모델(321) 및 가상 마커(322)를 구현하는 것은, 가상 모델(321)을 구성하는 복수 개의 의료 영상들의 데이터 및 가상 마커(322)의 데이터가 가상 공간(311) 내 개별적으로 구현되는 결과에 비하여 보다 정합된 결과를 제공할 수 있다. 일 실시 예에서, 가상 모델(321)은 가상 의료 도구(323)와 결합될 수 있다. 어떤 실시 예에서, 가상 모델(321)을 구성하는 복수 개의 의료 영상들의 데이터 및 가상 의료 도구(323)의 데이터는 서로 통합되어 하나의 데이터(예: 변형 의료 영상)로 구현될 수 있다. 어떤 실시 예에서, 가상 모델(321)을 구성하는 복수 개의 의료 영상들의 데이터, 가상 마커(322)의 데이터 및 가상 의료 도구(323)의 데이터는 하나의 통합된 데이터로 구현될 수 있다. 일 실시 예에서, 가상 모델(321), 가상 마커(322) 및/또는 가상 의료 도구(323)는 가상 제네레이터(331) 및 가상 디텍터(332) 사이에 위치될 수 있다.In an embodiment, the virtual model 321 may be a stack of a plurality of medical images or may be generated based on a plurality of medical images. In one embodiment, the virtual model 321 may be combined with the virtual marker 322. In some embodiments, data of a plurality of medical images (eg, DICOM-type medical images) constituting the virtual model 321 and data of the virtual marker 322 are integrated into one data (eg, modified medical image). can be implemented as For example, a coupling relationship between an anatomical structure constituting the model 321 and a structure of the marker 322, at least some of the anatomical structures constituting the model 321 (eg, a portion where the marker 322 is installed) ) and the marker 322, the size relationship between the size of the anatomical structure constituting the model 321 and the size of the marker 322, etc. may be implemented in a consistent manner within one data. Implementing the virtual model 321 and the virtual marker 322 in the virtual space 311 using one integrated data is the data of a plurality of medical images constituting the virtual model 321 and the virtual marker 322 It is possible to provide a more consistent result than a result in which the data of is individually implemented in the virtual space 311 . In one embodiment, the virtual model 321 may be combined with the virtual medical tool 323. In some embodiments, data of a plurality of medical images constituting the virtual model 321 and data of the virtual medical tool 323 may be integrated and implemented as one data (eg, modified medical image). In some embodiments, data of a plurality of medical images constituting the virtual model 321, data of the virtual marker 322, and data of the virtual medical tool 323 may be implemented as one integrated data. In one embodiment, virtual model 321 , virtual marker 322 and/or virtual medical tool 323 may be positioned between virtual generator 331 and virtual detector 332 .

도 4a 내지 도 4d를 참조하면, 일 실시 예에 따른 전자 장치(예: 전자 장치(10))는, 가상 공간(411)(예: 가상 공간(311)) 내 가상 제네레이터(431)(예: 가상 제네레이터(331)) 및 가상 디텍터(432)(예: 가상 디텍터(332)) 사이의 가상 모델(예: 가상 모델(321)) 또는 복수 개의 의료 영상(421)들의 스택에 대한 가상 의료 영상을 생성하는 프로세서(예: 프로세서(110))를 포함할 수 있다. 가상 제네레이터(431)의 위치, 가상 디텍터(432)의 위치, 및 복수 개의 의료 영상(421)들의 복수 개의 셀들의 어레이 상의 임의의 포인트(또는 셀)의 위치는, 가상 공간(411) 내에서 미리 결정된 절대 좌표계에 따른 벡터로 표현될 수 있다.Referring to FIGS. 4A to 4D , an electronic device (eg, the electronic device 10) according to an exemplary embodiment includes a virtual generator 431 (eg, the virtual space 311) in a virtual space 411 (eg, the virtual space 311). A virtual model (eg, the virtual model 321) between the virtual generator 331) and the virtual detector 432 (eg, the virtual detector 332) or a virtual medical image of a stack of a plurality of medical images 421 is generated. It may include a processor (eg, the processor 110) that generates it. The position of the virtual generator 431, the position of the virtual detector 432, and the position of an arbitrary point (or cell) on the array of a plurality of cells of the plurality of medical images 421 are determined in advance within the virtual space 411. It can be expressed as a vector according to the determined absolute coordinate system.

도 4a를 참조하면, 먼저, 프로세서는, 가상 디텍터(432) 상에 미리 결정된 크기의 타겟(4321)(예: 사용자에 의해 설정된 해상도 크기의 타겟)들을 설정할 수 있다. 예를 들면, 프로세서는, 128 x 128 해상도의 가상 의료 영상을 생성하기 위해, 가상 디텍터(432) 상에 128 x 128의 타겟(4321)들의 어레이를 설정할 수 있다.Referring to FIG. 4A , first, the processor may set targets 4321 having a predetermined size (eg, targets having a resolution size set by a user) on the virtual detector 432 . For example, the processor may set an array of 128 x 128 targets 4321 on the virtual detector 432 to generate a virtual medical image of 128 x 128 resolution.

도 4b를 참조하면, 프로세서는, 가상 디텍터(432)의 타겟(4321)의 위치 벡터 v2에서 가상 제네레이터(431)의 위치 벡터 v1를 뺀 위치 벡터 A와, 복수 개의 의료 영상(421)들의 스택에서 일 의료 영상(421)의 제 1 코너 포인트(4212)의 위치 벡터 v4에서 가상 제네레이터(431)의 위치 벡터 v1을 뺀 위치 벡터 B와, 그 의료 영상(421)의 법선 벡터 C를 계산할 수 있다. 일 실시 예에서, 프로세서는, 의료 영상(421)의 제 2 코너 포인트(4213)의 위치 벡터 v5 및 의료 영상(421)의 제 3 코너 포인트(4214)의 위치 벡터 v6를 이용(예: v5 및 v6의 외적)하여 법선 벡터 C를 계산할 수 있다.Referring to FIG. 4B , the processor obtains a position vector A obtained by subtracting the position vector v1 of the virtual generator 431 from the position vector v2 of the target 4321 of the virtual detector 432, and a stack of a plurality of medical images 421. The position vector B obtained by subtracting the position vector v1 of the virtual generator 431 from the position vector v4 of the first corner point 4212 of one medical image 421 and the normal vector C of the medical image 421 may be calculated. In an embodiment, the processor uses the position vector v5 of the second corner point 4213 of the medical image 421 and the position vector v6 of the third corner point 4214 of the medical image 421 (eg, v5 and cross product of v6) to calculate the normal vector C.

도 4b 및 도 4c를 참조하면, 프로세서는, 위치 벡터 A 및 위치 벡터 C의 내적에 따른 제 1 내적 비(inner product ratio) 및 위치 벡터 B 및 위치 벡터 C의 내적에 따른 제 2 내적 비를 계산할 수 있다. 이후, 프로세서는, 제 1 내적 비 및 제 2 내적 비를 각각 위치 벡터 A에 곱함으로써, 의료 영상(421)의 면 및 위치 벡터 A에 따른 선이 만나는 포인트(4211)를 계산할 수 있다. 한편, 프로세서에 의해 계산된 제 1 내적 비 및 제 2 내적 비가 음수인 경우, 가상 제네레이터(431)의 방향이 반대 방향이므로, 제 1 내적 비 및 제 2 내적 비가 양수인 경우만 제 1 내적 비 및 제 2 내적 비를 상기 계산에 이용할 수 있다.Referring to FIGS. 4B and 4C , the processor may calculate a first inner product ratio according to the dot product of the position vector A and the position vector C and a second inner product ratio according to the inner product of the position vector B and the position vector C. can Thereafter, the processor may calculate the point 4211 where the plane of the medical image 421 and the line according to the position vector A intersect by multiplying the first dot product ratio and the second dot product ratio by the position vector A, respectively. Meanwhile, when the first dot product ratio and the second dot product ratio calculated by the processor are negative numbers, since the direction of the virtual generator 431 is in the opposite direction, the first dot product ratio and the second dot product ratio are obtained only when the first dot product ratio and the second dot product ratio are positive numbers. 2 dot product ratios can be used in the above calculations.

도 4d를 참조하면, 프로세서는, 위치 벡터 v5에서 위치 벡터 v4를 뺀 위치 벡터의 라인 상의 위치 벡터 v3의 프로젝션(projection)의 제 1 교차 포인트(4215)의 위치 벡터 v7, 및 위치 벡터 v6에서 위치 벡터 v4를 뺀 위치 벡터의 라인 상의 위치 벡터 v3의 프로젝션의 제 2 교차 포인트(4216)의 위치 벡터 v8을 각각 계산할 수 있다. 일 실시 예에서, 프로세서는, 위치벡터 (v5 - v4)의 크기를 위치 벡터 (v7 - v4)의 크기로 나눈 값이 1보다 큰 경우 및 위치벡터 (v6 - v4)의 크기를 위치 벡터 (v8 - v4)의 크기로 나눈 값이 1보다 큰 경우, 복수 개의 의료 영상(421)들의 각각의 임의의 포인트(4211)를 지나 디텍터(432)의 임의의 타겟(4321)에서의 영상 파라미터(예: 흡수도)들의 합을 계산하고, 그 타겟(4321)에 대한 영상 파라미터들의 계산을 종료할 수 있다. 일 실시 예에서, 프로세서는, 상기와 같이 계산된 영상 파라미터(예: 흡수도)들의 합을 의료 영상(421)의 개수로 나눔으로써, 타겟(4321)의 화소 하나의 값을 계산할 수 있다. 일 실시 예에서, 프로세서는, 디텍터(432) 상의 복수 개의 타겟(4321)들에 대해 타겟(4321)의 개수만큼 상기와 같은 동작을 반복함으로써 가상 의료 영상을 생성할 수 있다.Referring to FIG. 4D , the processor calculates the position vector v7 of the first intersection point 4215 of the projection of the position vector v3 on the line of the position vector v4 by subtracting the position vector v4 from the position vector v5, and the position at the position vector v6. The position vector v8 of the second intersection point 4216 of the projection of the position vector v3 on the line of the position vector obtained by subtracting the vector v4 can be calculated respectively. In one embodiment, the processor, when a value obtained by dividing the size of the position vector (v5 - v4) by the size of the position vector (v7 - v4) is greater than 1 and the size of the position vector (v6 - v4) is the position vector (v8 - When the value divided by the size of v4) is greater than 1, the image parameter (eg: absorbance), and the calculation of imaging parameters for that target 4321 can be finished. In an embodiment, the processor may calculate a value of one pixel of the target 4321 by dividing the sum of image parameters (eg, absorbance) calculated as above by the number of medical images 421 . In an embodiment, the processor may generate a virtual medical image by repeating the above operation as many times as the number of targets 4321 for the plurality of targets 4321 on the detector 432 .

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may store program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시 예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시 예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (11)

가상 공간 내 가상 제네레이터 및 가상 디텍터를 포함하는 가상 의료 영상 장치를 이용하여 상기 가상 제네레이터 및 상기 가상 디텍터 사이의 복수 개의 의료 영상들의 스택을 포함하는 가상 모델에 대한 가상 의료 영상을 생성하는 프로세서를 포함하고,
상기 프로세서는, 상기 복수 개의 의료 영상들의 각각의 제 1 크기의 복수 개의 셀들의 어레이에 기초하여 제 1 가상 의료 영상을 생성하고, 상기 복수 개의 의료 영상들의 각각의 제 1 크기보다 작은 제 2 크기의 복수 개의 셀들의 어레이에 기초하여 제 2 가상 의료 영상을 생성하도록 구성된 전자 장치.
A processor generating a virtual medical image for a virtual model including a stack of a plurality of medical images between the virtual generator and the virtual detector using a virtual medical imaging device including a virtual generator and a virtual detector in a virtual space; ,
The processor generates a first virtual medical image based on an array of cells having a first size of each of the plurality of medical images, and generates a second virtual medical image of a second size smaller than the first size of each of the plurality of medical images. An electronic device configured to generate a second virtual medical image based on an array of a plurality of cells.
제 1 항에 있어서,
상기 프로세서는, 상기 제 1 가상 의료 영상 및 상기 제 2 가상 의료 영상을 동시에 생성하도록 구성되는 전자 장치.
According to claim 1,
The processor is configured to simultaneously generate the first virtual medical image and the second virtual medical image.
제 1 항에 있어서,
상기 프로세서는, 상기 제 1 가상 의료 영상에 상기 제 2 가상 의료 영상을 오버랩시키도록 구성되는 전자 장치.
According to claim 1,
The electronic device configured to overlap the second virtual medical image with the first virtual medical image.
제 1 항에 있어서,
상기 프로세서는, 사용자의 입력에 기초하여 상기 제 1 크기를 결정하도록 구성된 전자 장치.
According to claim 1,
The processor is configured to determine the first size based on a user's input.
제 1 항에 있어서,
상기 프로세서는, 상기 가상 제네레이터 및 상기 디텍터 사이의 제 1 벡터, 상기 가상 제네레이터 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 사이의 제 2 벡터, 및 상기 복수 개의 의료 영상들 각각의 법선 벡터를 이용하여 상기 가상 의료 영상을 생성하도록 구성된 전자 장치.
According to claim 1,
The processor generates a first vector between the virtual generator and the detector, a second vector between the virtual generator and first corner points of each of the plurality of medical images, and a normal vector of each of the plurality of medical images. An electronic device configured to generate the virtual medical image using
제 5 항에 있어서,
상기 프로세서는, 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트와 다른 제 2 코너 포인트 및 상기 복수 개의 의료 영상들 각각의 코너 포인트들을 제외한 임의의 포인트 사이의 제 3 벡터, 및 상기 복수 개의 의료 영상들 각각의 제 1 코너 포인트 및 상기 제 2 코너 포인트와 다른 제 3 코너 포인트 및 상기 임의의 포인트 사이의 제 4 벡터를 이용하여 상기 법선 벡터를 계산하도록 구성된 전자 장치.
According to claim 5,
The processor determines a second corner point different from the first corner point of each of the plurality of medical images and a third vector between arbitrary points excluding corner points of each of the plurality of medical images, and the plurality of medical images. An electronic device configured to calculate the normal vector using a fourth vector between a first corner point and a third corner point different from each of the second corner points and the arbitrary point.
제 5 항에 있어서,
상기 프로세서는, 상기 제 1 벡터 및 상기 법선 벡터의 내적, 및 상기 제 2 벡터 및 상기 법선 벡터의 내적의 비율을 계산하도록 구성되고,
상기 프로세서는, 상기 가상 제네레이터로부터 상기 임의의 포인트를 향하는 방향에 상기 비율을 곱하고, 상기 복수 개의 의료 영상들 각각 및 상기 방향에 따른 가상의 라인이 만나는 컨택 포인트를 계산하도록 구성된 전자 장치.
According to claim 5,
the processor is configured to calculate a ratio of a dot product of the first vector and the normal vector, and a dot product of the second vector and the normal vector;
The processor is configured to multiply a direction from the virtual generator toward the arbitrary point by the ratio, and calculate a contact point where each of the plurality of medical images and a virtual line along the direction meet.
제 7 항에 있어서,
상기 프로세서는, 상기 제 1 코너 포인트 및 상기 제 2 코너 포인트를 연결하는 제 1 라인 상의 상기 컨택 포인트의 제 1 교차 포인트, 및 상기 제 2 코너 포인트 및 상기 제 3 코너 포인트를 연결하는 제 2 라인 상의 상기 컨택 포인트의 제 2 교차 포인트를 계산하도록 구성되고,
상기 프로세서는, 상기 제 1 라인의 길이 대비 상기 제 1 코너 포인트 및 상기 제 1 교차 포인트 사이의 길이의 제 1 비율 및 상기 제 2 라인의 길이 대비 상기 제 3 코너 포인트 및 상기 제 2 교차 포인트 사이의 길이의 제 2 비율이 1보다 크면 상기 가상 의료 영상의 생성을 종료하도록 구성된 전자 장치.
According to claim 7,
The processor determines a first intersection point of the contact point on a first line connecting the first corner point and the second corner point, and a second line connecting the second corner point and the third corner point. configured to calculate a second intersection point of the contact point;
The processor determines a first ratio of the length of the first line between the first corner point and the first intersection point and the length of the second line between the third corner point and the second intersection point. An electronic device configured to terminate generation of the virtual medical image when the second ratio of the length is greater than 1.
제 8 항에 있어서,
상기 프로세서는, 상기 제 1 비율 및 상기 제 2 비율을 상기 복수 개의 의료 영상들의 제 1 방향의 크기 및 제 2 방향의 크기에 각각 곱하고, 상기 복수 개의 의료 영상들의 각각의 흡수도를 계산하도록 구성된 전자 장치.
According to claim 8,
The processor is configured to multiply the first ratio and the second ratio by sizes in a first direction and sizes in a second direction of the plurality of medical images, respectively, and calculate absorbance of each of the plurality of medical images. Device.
제 1 항에 있어서,
상기 프로세서는, 상기 가상 모델에 위치되도록 구성되는 가상 마커에 대한 데이터 및 상기 복수 개의 의료 영상들 각각에 포함된 해부학적 구조에 대한 데이터를 통합시킴으로써 복수 개의 변형 의료 영상들의 스택을 생성하고, 상기 복수 개의 변형 의료 영상들에 기초하여 상기 가상 의료 영상을 생성하도록 구성된 전자 장치.
According to claim 1,
The processor generates a stack of a plurality of deformed medical images by integrating data on a virtual marker configured to be positioned on the virtual model and data on an anatomical structure included in each of the plurality of medical images, and the plurality of modified medical images are stacked. An electronic device configured to generate the virtual medical image based on two modified medical images.
제 10 항에 있어서,
상기 프로세서는, 상기 가상 마커 및 상기 가상 모델 사이의 위치 관계, 상기 가상 마커 및 상기 가상 모델 사이의 결합 구조, 및 상기 가상 마커 및 상기 가상 모델 사이의 크기 관계 중 적어도 하나 이상을 이용하여 상기 복수 개의 변형 의료 영상들의 스택을 생성하는 전자 장치.
According to claim 10,
The processor may use at least one of a positional relationship between the virtual marker and the virtual model, a coupling structure between the virtual marker and the virtual model, and a size relationship between the virtual marker and the virtual model to determine the plurality of locations. An electronic device that creates a stack of deformed medical images.
KR1020210093554A 2021-07-16 2021-07-16 Electronic device for realization of virtual reality of medical environment KR102615906B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210093554A KR102615906B1 (en) 2021-07-16 2021-07-16 Electronic device for realization of virtual reality of medical environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210093554A KR102615906B1 (en) 2021-07-16 2021-07-16 Electronic device for realization of virtual reality of medical environment

Publications (2)

Publication Number Publication Date
KR20230012820A true KR20230012820A (en) 2023-01-26
KR102615906B1 KR102615906B1 (en) 2023-12-21

Family

ID=85110682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210093554A KR102615906B1 (en) 2021-07-16 2021-07-16 Electronic device for realization of virtual reality of medical environment

Country Status (1)

Country Link
KR (1) KR102615906B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090017430A1 (en) * 2007-05-15 2009-01-15 Stryker Trauma Gmbh Virtual surgical training tool
KR20160034912A (en) * 2013-07-23 2016-03-30 마코 서지컬 코포레이션 Method and system for x-ray image generation
KR20170124962A (en) * 2016-05-03 2017-11-13 재단법인대구경북과학기술원 Navigation system for vascular intervention and method for generaing virtual x-ray image
US20190011703A1 (en) * 2016-07-25 2019-01-10 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090017430A1 (en) * 2007-05-15 2009-01-15 Stryker Trauma Gmbh Virtual surgical training tool
KR20160034912A (en) * 2013-07-23 2016-03-30 마코 서지컬 코포레이션 Method and system for x-ray image generation
KR20170124962A (en) * 2016-05-03 2017-11-13 재단법인대구경북과학기술원 Navigation system for vascular intervention and method for generaing virtual x-ray image
US20190011703A1 (en) * 2016-07-25 2019-01-10 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hyunyoung Seong 외 4인, Development of pre-procedure virtual simulation for challenging interventional procedures: an experimental study with clinical application(2022) 1부. *
M. Teistler 외 6인, Simplifying the Exploration of Volumetric Images: Development of a 3D User Interface for the Radiologist’s Workplace(2008) 1부.* *
Oliver Johannes Bott 외 11인, virtX - a computer based system for training the intrasurgical use of mobile image intensifier systems(2006) 1부.* *

Also Published As

Publication number Publication date
KR102615906B1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
US11734572B2 (en) Spatial transformer modules
US20170372202A1 (en) Tensor processing using low precision format
US20180182157A1 (en) Fast rendering of quadrics
US6369818B1 (en) Method, apparatus and computer program product for generating perspective corrected data from warped information
US10559095B2 (en) Image processing apparatus, image processing method, and medium
EP4329296A2 (en) System and methods for extrinsic calibration of cameras and diffractive optical elements
CN108694055A (en) Vectorial reduction processor
US10580182B2 (en) Facial feature adding method, facial feature adding apparatus, and facial feature adding device
CN103810728A (en) System, method, and computer program product for inputting modified coverage data into a pixel shader
IL256459A (en) Fast rendering of quadrics and marking of silhouettes thereof
WO2013069215A1 (en) Image processing device, image processing method and image file data structure
EP3298590B1 (en) Information processing apparatus, method, and program
EP3506204B1 (en) Image processing system, method and program therefor
US20220262037A1 (en) Camera parameter estimation apparatus, camera parameter estimation method, and computer-readable recording medium
CN109615602B (en) X-ray view angle image generation method, storage medium and terminal equipment
EP3839873A1 (en) Image processing apparatus and operation method thereof
US20130147786A1 (en) Method and apparatus for executing high performance computation to solve partial differential equations and for outputting three-dimensional interactive images in collaboration with graphic processing unit, computer readable recording medium, and computer program product
US11514645B2 (en) Electronic device for providing visual localization based on outdoor three-dimension map information and operating method thereof
KR20160066425A (en) Method and apparatus for blurring an image
KR101844278B1 (en) Parameter learning method for estimating posture of articulated object and posture estimating method of articulated object
KR20230012820A (en) Electronic device for realization of virtual reality of medical environment
EP4086853A2 (en) Method and apparatus for generating object model, electronic device and storage medium
CN113196380A (en) Image processing apparatus and method of operating the same
US9165208B1 (en) Robust ground-plane homography estimation using adaptive feature selection
JP7058425B1 (en) Simulation equipment, simulation method and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)