RU2707369C1 - Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation - Google Patents

Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation Download PDF

Info

Publication number
RU2707369C1
RU2707369C1 RU2019105661A RU2019105661A RU2707369C1 RU 2707369 C1 RU2707369 C1 RU 2707369C1 RU 2019105661 A RU2019105661 A RU 2019105661A RU 2019105661 A RU2019105661 A RU 2019105661A RU 2707369 C1 RU2707369 C1 RU 2707369C1
Authority
RU
Russia
Prior art keywords
surgical
patient
augmented reality
pointer
points
Prior art date
Application number
RU2019105661A
Other languages
Russian (ru)
Inventor
Александр Владимирович Колсанов
Сергей Сергеевич Чаплыгин
Original Assignee
Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации filed Critical Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации
Priority to RU2019105661A priority Critical patent/RU2707369C1/en
Application granted granted Critical
Publication of RU2707369C1 publication Critical patent/RU2707369C1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

FIELD: medicine.
SUBSTANCE: group of inventions relates to medical equipment, specifically to means of preparing and performing a surgical operation using augmented reality. Method includes stages of planning a surgical operation, surgical navigation and surgical intervention using augmented reality, wherein at the stage of planning the surgical operation, a computer or magnetic resonance imaging is performed to the patient and forming a three-dimensional raster image of the patient's individual anatomy, which is transmitted to the complex of equipment for the surgical operation using the augmented reality, wherein at the stage of surgical navigation constructing a contour and three-dimensional reconstruction of all anatomical structures of interest to the surgeon in the forthcoming operation by placing three key points on the anatomical landmarks visible on the computer screen in the form of a three-dimensional model and also visible or tangible on the patient's body, wherein the points are selected to form a triangle thereof, followed by selecting a trajectory and safe limits of surgical approach, determining a transformation matrix of coordinates between the system of coordinates of the stereocamera of the complex and the coordinate system of the tomograph, in which the patient underwent diagnostics, by means of the point of the navigation pointer installation on the patient's body of the same three points and in the same sequence as the anatomical model, and fixing the points position by the computer, after installation of three key points, if necessary, additional points are placed on the same anatomical surface, followed by triggering the process of recording points with points on the surface of three-dimensional models of patient's anatomy, wherein on computer screen additionally displaying three-dimensional model of navigation pointer, wherein the position and orientation of the three-dimensional model of the navigation pointer relative to the patient's anatomy models corresponds to the physical position of the pointer relative the anatomical surface of the patient, at the surgical stage, a navigation pointer is used to search for anatomical structures of interest, access points to them, direction of their location relative to the access point, distance to them, as well as to limit the surgical approach area, at that, focusing on the image on the computer screen or in glasses of augmented reality, in the surgical approach area, the navigation pointer is installed so that the anatomical structure of interest is on the continuation line of the pointer, wherein the screen displays the distance to the anatomical structure in millimeters, and to limit the surgical approach area, focusing on the image on the computer screen or in the augmented reality glasses, moving the navigation pointer so that the pointer extension line moves along the contour of the anatomical structure of interest, pointer is moved along the projection line of the anatomical structure of interest on the body surface and the area of the forthcoming surgical approach is outlined, after which a surgical operation is performed, during which, if necessary, a new access point is established and the access area is corrected. A complex of equipment for performing a surgical operation using the augmented reality comprises a block of chambers installed above an operation field and including a chamber of augmented reality and a ToF chamber, stereo camera operating in the infrared wavelength range, augmented reality glasses comprising a control panel connected to the computer, and markers, wherein stereo camera is installed so that its visibility area includes markers made spherical and reflecting, located on camera unit, navigation pointer, enlarged reality glasses and basic marker of coordinate system, wherein the markers configuration on each of them is different from the others, the base marker of the coordinate system is rigidly fixed on the cranial clamp or the operating table, and the computer is equipped with a foot controller in the form of a unit with pedals.
EFFECT: use of inventions widens range of means for surgical interventions using augmented reality.
2 cl, 6 dwg

Description

Изобретение относится к медицине, а именно к хирургии, и может быть использовано при выполнении операций в области хирургии, а именно торакальной хирургии, абдоминальной хирургии, пластической хирургии, нейрохирургии, травматологии, ортопедии, онкологии, реаниматологии, челюстно-лицевой хирургии, эндокринной хирургии, оториноларингологии.The invention relates to medicine, namely to surgery, and can be used when performing operations in the field of surgery, namely thoracic surgery, abdominal surgery, plastic surgery, neurosurgery, traumatology, orthopedics, oncology, resuscitation, maxillofacial surgery, endocrine surgery, otorhinolaryngology.

Известен опубликованный в интернете «Метод интраоперационной навигации на основе виртуального моделирования при видеоэндоскопической резекции почки при опухолях почки», размещенный по адресу: http://elibrary.ru/item.asp?id=23488789, авторов
Дубровин В. Н., Егошин А. В., Фурман А. А., Роженцов А. А., Eruslanov Р. И. Метод содержит специальную компьютерную программу для создания трехмерного изображения операционного пространства на основе предоперационных томографических данных конкретного пациента, и позволяющий сформировать виртуальные 3D модели пациента по результатам томографического обследования. Этот метод особенно перспективен для обучения начинающих хирургов, это может помочь им приобрести навыки в малоинвазивной хирургии.
A well-known published on the Internet "Method of intraoperative navigation based on virtual modeling in video endoscopic resection of the kidney with kidney tumors", located at: http://elibrary.ru/item.asp?id=23488789, authors
Dubrovin V.N., Egoshin A.V., Furman A.A., Rozhentsov A.A., Eruslanov R.I. The method contains a special computer program for creating a three-dimensional image of the operating space based on preoperative tomographic data of a particular patient, and allowing to form virtual 3D models of the patient according to the results of tomographic examination. This method is especially promising for training novice surgeons, it can help them acquire skills in minimally invasive surgery.

Но данный метод предназначен для обучения начинающих хирургов и сопряжен с обязательным использованием эндоскопического оборудования. Метод не позволяет проводить вмешательства в открытой хирургии, травматологии, и т.п. Так же данный способ не может быть применим для визуализации анатомических образований, лежащих за пределами почки. Основными ориентирами для позиционирования системы служат только ткани органа, тогда как заявляемое техническое решение позволяет отображать всю топологию органов.But this method is intended for training novice surgeons and involves the mandatory use of endoscopic equipment. The method does not allow interventions in open surgery, traumatology, etc. Also, this method cannot be applicable for visualization of anatomical formations lying outside the kidneys. The main guidelines for positioning the system are only the tissues of the organ, while the claimed technical solution allows you to display the entire topology of the organs.

Известен способ выполнения регистрации, описанный в патентах США № US 2005015005 A1 20.01.2005 COMPUTER ENHANCED SURGICAL NAVIGATION IMAGING SYSTEM (CAMERA PROBE) / Ralf Alfons Kockro и патент США № US 2005/0215879 A1 29.09.2015 ACCURACYEVALUATIONOFVIDEO-BASEDAUGMENTEDREALITYENHANCEDSURGICALNAVIGATIONSYSTEMS / ZhuChuanggui, основанный на установке маркеров на тело пациента или фантом перед проведением КТ и/или МРТ, и полагающийся на наличие информации о положении маркеров в трёхмерных растровых изображениях анатомии пациента. A known registration method is described in US Pat. placing markers on the patient’s body or phantom before performing CT and / or MRI, and relying on the availability of information about the position of the markers in three-dimensional raster images of the patient’s anatomy.

Недостатком известного способа является его неприменимость в случаях, когда КТ и/или МРТ выполняются с диагностической целью без маркеров, а необходимость хирургической навигации становится понятна уже после изучения результатов КТ и/или МРТ. Выполнение повторного КТ и/или МРТ с маркерами сопряжены с увеличением общей стоимости диагностики, дополнительными затратами времени, и в случае КТ – с увеличением лучевой нагрузки на пациента.The disadvantage of this method is its inapplicability in cases where CT and / or MRI are performed for diagnostic purposes without markers, and the need for surgical navigation becomes clear after studying the results of CT and / or MRI. Repeated CT and / or MRI scans with markers are associated with an increase in the total cost of diagnosis, additional time costs, and in the case of CT, with an increase in radiation exposure to the patient.

Известен способ размещения камеры дополненной реальности в навигационной указке, описанный в патенте США № US 2005015005 A1 20.01.2005 COMPUTER ENHANCED SURGICAL NAVIGATION IMAGING SYSTEM (CAMERA PROBE) / Ralf Alfons Kockro. There is a method of placing an augmented reality camera in a navigation pointer, described in US patent No. US 2005015005 A1 01/20/2005 COMPUTER ENHANCED SURGICAL NAVIGATION IMAGING SYSTEM (CAMERA PROBE) / Ralf Alfons Kockro.

Недостатком известного способа является превращение навигационной указки из пассивного оптического устройства в активное электронное. Навигационная указка является медицинским инструментом, для которого требуется регулярная предстерилизационная очистка и стерилизация. Размещение внутри указки камеры с необходимыми для её работы элементами питания и модулями беспроводной передачи данных требует обеспечения герметичности корпуса и увеличения его размеров, добавляя ограничение на время автономной работы. В результате усложняется проектирование и увеличивается стоимость устройства, а удобство использования снижается.The disadvantage of this method is the conversion of the navigation pointer from a passive optical device to an active electronic one. The navigation pointer is a medical instrument that requires regular pre-sterilization cleaning and sterilization. Placing inside the camera’s pointer with the batteries and wireless data transfer modules necessary for its operation requires ensuring the integrity of the case and increasing its size, adding a limitation on the battery life. As a result, design becomes more complicated and the cost of the device increases, while usability decreases.

Принципы функционирования очков с объединителями на основе волноводов и системы дополненной реальности, построенные с использованием таких очков, рассмотрены в патентах США № US 2015/0248793 A1 03.09.2015 METHOD AND SYSTEM FOR FACILITATING SURGERY USING AN AUGMENTED REALITY SYSTEM / RonyAbovitz, Brian T. Schowengerdt, Matthew D. Watson и патент США № US 2015/0242943 A1 03.09.2015 METHOD AND SYSTEM FOR GENERATING A RETAL, EXPERIENCEUSING AN AUGMENTED REALITY SYSTEM / RonyAbovitz, Brian T. Schowengerdt, Matthew D. WatsonThe principles of functioning of glasses with combiners based on waveguides and augmented reality systems built using such glasses are discussed in US Pat. , Matthew D. Watson and US Patent No. US 2015/0242943 A1 09/03/2015 METHOD AND SYSTEM FOR GENERATING A RETAL, EXPERIENCEUSING AN AUGMENTED REALITY SYSTEM / RonyAbovitz, Brian T. Schowengerdt, Matthew D. Watson

Известен способ реализации дополненной реальности без очков на основе проецирования изображения на операционное поле с помощью проектора, описанный в патенте США № US 2014/0022283 A1 23.01.2014 AUGMENTEDREALITYAPPARATUS / HarleyHau-LamChan, MichaelJohnDaly, JonathanCrawfordIRISH. There is a method of implementing augmented reality without glasses based on projection of an image on the surgical field using a projector, described in US patent No. US 2014/0022283 A1 01/23/2014 AUGMENTEDREALITYAPPARATUS / HarleyHau-LamChan, MichaelJohnDaly, JonathanCrawfordIRISH.

Недостатком известного способа является низкая контрастность изображения, полученного с помощью проектора, на ярко освещённом операционном поле.The disadvantage of this method is the low contrast of the image obtained using the projector on a brightly lit operating field.

Самым близким по своей технической сущности является навигационный метод оперативного вмешательства в режиме реального времени и аппарат для отображения расширенного обзора пациента с предпочтительной статической или динамической точки зрения хирурга описанный в патенте US 2016019 1887 A1 включающий использование изображения поверхности, графическое представление внутренней анатомической структуры пациента, обработанное из предоперационных или интраоперационных изображений, и компьютер, регистрирующий оба изображения, а также включающий определение положения инструментов и частей системы (ToF-камеры, очков дополненной реальности) с помощью оптических маркеров (с. 2, [0035]), использование стереокамеры (с. 1, [0010]), использование time-of-flight (ToF) камеры (с. 1, [0007]), использование в качестве исходных данных медицинских изображений КТ и МРТ (c. 5, [0073]), построение пользователем сегментации и трёхмерной модели поверхности (c. 5, [0075]), использование очков дополненной реальности с прозрачным дисплеем на основе объединителей световых лучей (с. 9, [0117]).Данный метод предполагает определение положения пациента на основе комбинации двух способов: 1) с помощью отражающих или цветных маркеров, размещённых непосредственно на анатомических ориентирах на теле пациента (с. 2, [0035]; с. 4, [0056]; с. 6, [0087]; с. 13, [0146]), положение которых определяется с помощью камер (с. 8, [0104]); 2) путём сканирования поверхности тела пациента 3D-сканером (с. 7, [0093], [0094]) при смещении маркеров, превышающем некоторое пороговое значение (с. 7, [0095]). Таким образом, определение положения пациента требует прямой видимости тела пациента или его части (Fig. 2), инструменты при определении положения пациента не используются (Fig. 1).The closest in technical essence is the real-time navigation method of surgical intervention and the apparatus for displaying an expanded overview of the patient from the preferred static or dynamic point of view of the surgeon described in US 2016019 1887 A1, including the use of a surface image, a graphical representation of the patient’s internal anatomical structure, processed from preoperative or intraoperative images, and a computer that records both images, including determining the position of instruments and parts of the system (ToF camera, augmented reality glasses) using optical markers (p. 2, [0035]), using a stereo camera (p. 1, [0010]), using time-of-flight (ToF ) cameras (p. 1, [0007]), use of CT and MRI images as medical data (p. 5, [0073]), user construction of a segmentation and three-dimensional surface model (p. 5, [0075]), use augmented reality glasses with a transparent display based on combiners of light rays (p. 9, [0117]). This method involves determining the patient’s position based on a combination of two methods: 1) using reflective or colored markers placed directly on the anatomical landmarks on the patient’s body (p. 2, [0035]; p. 4, [ 0056]; p. 6, [0087]; p. 13, [0146]), the position of which is determined using cameras (p. 8, [0104]); 2) by scanning the surface of the patient’s body with a 3D scanner (p. 7, [0093], [0094]) when the markers shift beyond a certain threshold value (p. 7, [0095]). Thus, determining the position of the patient requires direct visibility of the patient's body or part thereof (Fig. 2), instruments are not used to determine the position of the patient (Fig. 1).

Размещение маркеров непосредственно на анатомических ориентирах на теле пациента сопряжено со следующими проблемами:Placing markers directly on anatomical landmarks on the patient’s body is associated with the following problems:

- при выборе анатомических ориентиров в операционном поле размещённые на таких ориентирах маркеры препятствуют продолжению хирургического вмешательства;
- при выборе анатомических ориентиров вне операционного поля отсутствует прямая видимость маркеров для камер - этому препятствует операционное бельё, покрывающее тело пациента за пределами операционного поля;
- when choosing anatomical landmarks in the surgical field, markers placed on such landmarks prevent the continuation of surgical intervention;
- when choosing anatomical landmarks outside the surgical field, there is no direct visibility of the markers for the cameras - this is prevented by the operating linen covering the patient’s body outside the surgical field;

- маркеры могут быть размещены только вне операционной раны, поэтому использование анатомических ориентиров внутри операционной раны становится невозможным; Сканирование поверхности тела пациента 3D-сканером любого типа, в том числе ToF-камерой, также затруднено, поскольку тело пациента за пределами операционного поля закрыто операционным бельём.- markers can only be placed outside the surgical wound, so the use of anatomical landmarks inside the surgical wound becomes impossible; Scanning the surface of the patient’s body with a 3D scanner of any type, including a ToF camera, is also difficult, because the patient’s body is covered by operating linen outside the surgical field.

Предлагаемое изобретение направлено на расширение функциональных возможностей способа и арсенала оборудования для осуществления подготовки и выполнения хирургической операции с использованием дополненной реальности и позволяющего сократить время операции и уменьшить объём травмируемых тканей.The present invention is aimed at expanding the functionality of the method and arsenal of equipment for preparing and performing a surgical operation using augmented reality and allowing to reduce the time of surgery and reduce the amount of injured tissue.

Поставленная задача решается за счет того что, Способ подготовки и выполнения хирургической операции с использованием дополненной реальности включает этапы планирования хирургической операции, хирургической навигации и хирургического вмешательства с использованием дополненной реальности, причем на этапе планирования хирургической операции пациенту проводят компьютерную или магнитно-резонансную томографию и формируют трёхмерное растровое изображение индивидуальной анатомии пациента, которое передают на компьютер комплекса оборудования для осуществления хирургической операции с использованием дополненной реальности, при этом на этапе хирургической навигации выполняют построение контура и трехмерную реконструкцию всех анатомических структур представляющих интерес для хирурга в предстоящей операции путем установки трех ключевых точек на анатомических ориентирах, видимых на экране компьютера в виде трехмерной модели, и так же видимых или осязаемых на теле пациента, причем точки выбирают с возможностью образования ими треугольника, после чего выбирают траекторию и безопасные пределы хирургического доступа, определяют матрицу трансформации координат между системой координат стереокамеры комплекса и системой координат томографа, в котором пациент проходил диагностику, посредством установки кончиком навигационной указки комплекса на теле пациента тех же трех точек и в той же последовательности, что и на анатомической модели, и фиксации компьютером комплекса позиции точек, после установки трех ключевых точек, при необходимости устанавливают дополнительные точки, находящиеся на той же анатомической поверхности, после чего запускают процесс регистрации точек с точками на поверхности трёхмерных моделей анатомии пациента, при этом на экране компьютера дополнительно отображают трёхмерную модель навигационной указки, при этом положение и ориентация трёхмерной модели навигационной указки относительно моделей анатомии пациента соответствует физическому положению указки относительно анатомической поверхности пациента, на этапе хирургического вмешательства используют навигационную указку для поиска интересующих анатомических структур, точки доступа к ним, направления их расположения относительно точки доступа, расстояния до них, а также для ограничения области хирургического доступа, при этом ориентируясь на изображение на экране компьютера или в очках дополненной реальности, в область хирургического доступа устанавливают навигационную указку таким образом, чтобы интересующая анатомическая структура находилась на линии продолжения указки, при этом на экране отображается расстояние до анатомической структуры в миллиметрах, а для ограничения области хирургического доступа, ориентируясь на изображение на экране компьютера или в очках дополненной реальности, перемещают навигационную указку таким образом, чтобы линия продолжения указки двигалась вдоль контура интересующей анатомической структуры, указку двигают по линии проекции интересующей анатомической структуры на поверхности тела и очерчивают область предстоящего хирургического доступа, после чего выполняют хирургическую операцию, в ходе которой при необходимости устанавливают новую точку доступа и корректируют область доступа. Знание точной области доступа позволяет хирургу уменьшить объём травмируемых тканей.              The problem is solved due to the fact that the Method of preparing and performing a surgical operation using augmented reality includes the steps of planning a surgical operation, surgical navigation and surgical intervention using augmented reality, and at the stage of planning a surgical operation, the patient is subjected to computed or magnetic resonance imaging and form a three-dimensional raster image of the individual anatomy of the patient, which is transmitted to the computer of the complex of beliefs for the implementation of a surgical operation using augmented reality, while at the stage of surgical navigation, they perform the contour construction and three-dimensional reconstruction of all anatomical structures of interest to the surgeon in the upcoming operation by setting three key points on the anatomical landmarks visible on a computer screen as a three-dimensional model, and also visible or tangible on the patient’s body, moreover, the points are chosen with the possibility of the formation of a triangle by them, after which they select thorium and safe limits of surgical access, determine the coordinate transformation matrix between the coordinate system of the stereo camera of the complex and the coordinate system of the tomograph in which the patient was diagnosed by setting the tip of the navigation pointer of the complex on the patient’s body with the same three points and in the same sequence as on the anatomical models, and fixing by the computer of the complex the position of the points, after installing three key points, if necessary, establish additional points located on the same ana of the tomic surface, after which the process of registering points with points on the surface of three-dimensional models of the patient’s anatomy is started, while the three-dimensional model of the navigation pointer is additionally displayed on the computer screen, while the position and orientation of the three-dimensional model of the navigation pointer relative to the patient’s anatomy models corresponds to the physical position of the pointer relative to the anatomical surface patient, at the stage of surgical intervention, use a navigation pointer to search for anatomists of interest structures, access points to them, the directions of their location relative to the access point, the distance to them, as well as to limit the area of surgical access, while focusing on the image on a computer screen or in augmented reality glasses, a navigation pointer is set in the surgical access area in this way so that the anatomical structure of interest is on the continuation line of the pointer, while the distance to the anatomical structure in millimeters is displayed on the screen, and to limit the area These surgical access, focusing on the image on a computer screen or in augmented reality glasses, move the navigation pointer so that the continuation line of the pointer moves along the contour of the anatomical structure of interest, the pointer is moved along the projection line of the anatomical structure of interest on the body surface and outline the area of the upcoming surgical access after which they perform a surgical operation, during which, if necessary, establish a new access point and adjust the area access. Knowing the exact access area allows the surgeon to reduce the amount of injured tissue.

Комплекс оборудования для осуществления хирургической операции с использованием дополненной реальности содержит блок камер, установленный над операционным полем и включающий камеру дополненной реальности и ToF-камеру, стереокамеру, работающую в инфракрасном диапазоне длин волн, очки дополненной реальности, содержащие пульт управления, связанные с компьютером, и маркеры, при этом стереокамера установлена таким образом, что в область ее видимости попадают маркеры, выполненные сферическими и отражающими, расположенные на блоке камер, навигационной указке, очках дополненной реальности и базовом маркере системы координат, причем конфигурация маркеров на каждом из них отлична от других, базовый маркер системы координат неподвижно закреплен на черепном зажиме или операционном столе, а компьютер снабжен ножным контроллером в виде блока с педалями.   The complex of equipment for carrying out a surgical operation using augmented reality includes a camera unit mounted above the surgical field and including an augmented reality camera and a ToF camera, a stereo camera operating in the infrared wavelength range, augmented reality glasses containing a control panel connected to a computer, and markers, while the stereo camera is installed in such a way that markers made of spherical and reflective located on the camera block fall on its scope igatsionnoy orders, glasses augmented reality marker and the base coordinate system, wherein the configuration of the markers in each of them is different from the other, the base coordinate system of the marker is fixedly secured to the cranial clamp or operating table, and the computer is provided with a foot controller as a unit with pedals.

В предлагаемом изобретении недостатки ближайшего аналога решаются на основе следующих действий: 1) разделение процесса первоначального определения положения пациента и процесса отслеживания изменений положения пациента; 2) использование для определения положения пациента вспомогательных инструментов - навигационной указки и базового маркера системы координат. Первоначальное определение положения пациента выполняется с помощью навигационной указки. Навигационная указка позволяет указывать ключевые точки, как на открытой, так и на закрытой операционным бельём поверхности тела пациента, а также внутри раны, в пределах длины указки. Использование навигационной указки не создаёт помех для продолжения хирургического вмешательства. Отслеживание изменений положения пациента выполняется с помощью базового маркера системы координат, либо с помощью ToF-камеры. Базовый маркер системы координат не требуется закреплять на поверхности тела пациента, достаточно закрепить его неподвижно относительно операционного поля: например, к рельсам операционного стола или к черепному зажиму. Базовый маркер может быть поднят над операционным бельём для обеспечения его прямой видимости для стереокамеры. ToF-камера в предлагаемом изобретении используется для сканирования объектов, не обязательно являющихся поверхностью тела пациента, однако неподвижных относительно операционного поля: хирургического стола, закреплённого над столом оборудования (например, инструментального столика), операционного белья, укрывающего тело пациента. Сопоставление изображений со стереокамеры с предоперационными или интраоперационными изображениями КТ или МРТ выполняется только на этапе первоначального определения положения пациента. При отслеживании изменений положения пациента предоперационные или интраоперационные изображения КТ или МРТ не используются, вместо этого выполняется анализ изменений положения базового маркера системы координат в поле зрения стереокамеры, и объектов в поле зрения ToF-камеры. Тем самым достигается возможность коррекции положения пациента при отсутствии прямой видимости тела пациента или его части для камер, что позволяет избежать повторного выполнения регистрации, и тем самым сократить время операции. Таким образом, способ подготовки и выполнения хирургической операции с использованием дополненной реальности и комплекс оборудования для её осуществления позволяет сократить время операции, уменьшить область хирургического вмешательства и минимизировать повреждения окружающих здоровых тканей.In the present invention, the disadvantages of the closest analogue are solved on the basis of the following actions: 1) separation of the process of initial determination of the patient’s position and the process of tracking changes in the patient’s position; 2) the use of auxiliary tools for determining the position of the patient - a navigation pointer and a base marker of the coordinate system. Initial determination of the patient’s position is done using the navigation pointer. The navigation pointer allows you to indicate key points, both on the surface of the patient’s body open and closed by operating linen, as well as inside the wound, within the length of the pointer. Using a navigation pointer does not interfere with the continuation of surgery. Tracking changes in the patient’s position is performed using the base marker of the coordinate system, or using the ToF camera. The base marker of the coordinate system does not need to be fixed on the surface of the patient’s body, it is enough to fix it motionless relative to the surgical field: for example, to the rails of the operating table or to the cranial clamp. The base marker can be raised above the operating linen to ensure its direct visibility to the stereo camera. The ToF camera in the present invention is used to scan objects that are not necessarily the surface of the patient’s body, but are stationary relative to the surgical field: a surgical table fixed above the equipment table (for example, an instrument table), operating linen that covers the patient’s body. Comparison of images from a stereo camera with preoperative or intraoperative images of CT or MRI is performed only at the stage of initial determination of the patient's position. When tracking changes in the patient’s position, preoperative or intraoperative CT or MRI images are not used; instead, an analysis is made of changes in the position of the base marker of the coordinate system in the field of view of the stereo camera and objects in the field of view of the ToF camera. Thereby, it is possible to correct the position of the patient in the absence of direct visibility of the patient's body or its part for the cameras, which allows to avoid re-registration, and thereby reduce the time of surgery. Thus, the method of preparing and performing a surgical operation using augmented reality and the complex of equipment for its implementation can reduce the time of surgery, reduce the area of surgical intervention and minimize damage to surrounding healthy tissues.

Суть технического решения поясняется изображениями, где на фигуре 1 представлена схема взаимосвязи следующих устройств: навигационная указка 1, базовый маркер системы координат 2, блок камер – ToF-камеры и камеры дополненной реальности 3, стереокамера 4, очки дополненной реальности 5, монитор 6, компьютер 7, ножной контроллер 8, клавиатура и мышь 9.На фигуре 2 изображена стереокамера 4. На фигуре 3 изображен блок камер 3. На фигуре 4 изображена навигационная указка 1. На фигуре 5 изображен базовый маркер системы координат 2. На фигуре 6 изображены очки дополненной реальности 5.The essence of the technical solution is illustrated by the images, where figure 1 shows the interconnection of the following devices: navigation pointer 1, base marker of the coordinate system 2, camera unit - ToF cameras and augmented reality cameras 3, stereo camera 4, augmented reality glasses 5, monitor 6, computer 7, foot controller 8, keyboard and mouse 9. Figure 2 shows a stereo camera 4. Figure 3 shows a block of cameras 3. Figure 4 shows a navigation pointer 1. Figure 5 shows the base marker of the coordinate system 2. Figure 6 shows glasses augmented reality 5.

Способ подготовки осуществляется следующим образом. На этапе планирования хирургической операции пациент проходит процедуру компьютерной томографии или магнитно-резонансной томографии. В результате такой процедуры рабочая станция томографа формирует трёхмерное растровое изображение индивидуальной анатомии пациента в формате DICOM. Из уровня техники [https://www.dicomstandard.org/about/] известен стандарт DICOM – медицинский отраслевой стандарт, регламентирующий создание, хранение, передачу и визуализацию цифровых медицинских изображений и метаданных. Набор файлов DICOM передаётся на компьютер 7 комплекса планирования, управления и контроля результатов хирургического лечения. Используя полученные данные, врач-рентгенолог с помощью программного обеспечения выполняет сегментацию (построение контура) и трехмерную реконструкцию (построение трёхмерной модели поверхности) всех анатомических структур, которые представляют интерес для хирурга в предстоящей операции. Примерами таких анатомических структур являются новообразования, сосуды, кости скелета, поверхность тела пациента. Далее на основе полученной 3D-модели хирург планирует предстоящую операцию. На этапе хирургической навигации происходит процесс определения матрицы трансформации координат между системой координат стереокамеры и системой координат томографа, в котором пациент проходил диагностику. Такая трансформация необходима, потому что координаты трёхмерных моделей поверхности, построенных по результатам КТ и/или МРТ, заданы в системе координат томографа, а положение навигационной указки1 и пациента заданы в системе координат стереокамеры. В программном обеспечении комплекса из всех подготовленных трёхмерных моделей поверхности анатомических структур выбирается одна модель, которая будет использоваться для регистрации. На поверхности выбранной модели с помощью мыши 9 устанавливаются три ключевые точки. Точки устанавливаются на анатомических ориентирах, видимых на экране монитора 6 компьютера 7 на трехмерной модели, и при этом видимых или осязаемых на теле пациента – например, на характерных бугорках и впадинах костей. Точки выбираются таким образом, чтобы они образовали треугольник. Не допускается, чтобы точки находились на одной линии. После установки трёх ключевых точек на трёхмерной модели поверхности хирург указывает те же точки в той же последовательности на теле пациента с помощью навигационной указки. Для этого хирург ставит кончик указки 1 в каждую из точек и нажимает кнопку мыши 9, клавишу клавиатуры или педаль ножного контроллера 8, чтобы зафиксировать позицию точки. После установки трёх ключевых точек хирург, при необходимости, может указать с помощью указки 1 дополнительные точки, находящиеся на поверхности той же анатомической структуры, что и ключевые. Указание дополнительных точек позволяет повысить точность регистрации. После указания точек на теле пациента хирург запускает регистрацию с помощью кнопки мыши 9, клавиши клавиатуры или педали ножного контроллера 8, после чего происходит процесс регистрации двух наборов точек. Первый набор точек указан навигационной указкой 1 на поверхности тела пациента, а второй набор точек получен при трёхмерной реконструкции анатомических моделей, при этом три такие точки отмечены как ключевые. После выполнения регистрации на экране монитора 6, кроме трёхмерных моделей анатомии пациента, отображается трёхмерная модель навигационной указки 1. Положение и ориентация модели указки относительно моделей анатомии пациента соответствует положению физической указки 1 относительно пациента. На этапе хирургического вмешательства, хирург может управлять видимостью и прозрачностью отдельных моделей – кожи, костей, органов, новообразований в них, сосудов, тем самым получая представление об их расположении относительно указки, даже если в операционном поле эти анатомические структуры скрыты от глаз. Хирургу доступны следующие режимы отображения модели навигационной указки: вид на указку 1 и пациента со стороны; вид на пациента из позиции кончика указки 1; вид модели указки на плоских срезах КТ и/или МРТ. Также хирургу доступно измерение кратчайшего расстояния от текущего положения кончика указки 1 до выбранной трёхмерной модели анатомии пациента, например, до новообразования. В ходе операций с системой навигации, после выполнения регистрации, у хирургов часто возникает необходимость регулировки высоты, поворота и конфигурации стола, при этом пациент смещается относительно стереокамеры 4. В таких случаях, чтобы избежать повторное выполнение регистрации, в комплексе может использоваться одно из двух дополнительных устройств – базовый маркер системы координат 2 или ToF-камера, входящая в состав блока камер 3. Базовый маркер системы координат 2 (фиг.5) снабжен набором сферических отражающих маркеров. При изменении положения пациента базовый маркер 2 смещается вместе с пациентом. Программное обеспечение на основе различия между старым и новым положением базового маркера 2 соответствующим образом корректирует матрицу трансформации, полученную в результате первоначальной регистрации, и таким образом исключает потребность в повторной регистрации. ToF-камера входящая в состав блока камер 3 определяет расстояние до ближайшей к ней поверхности на основе известной скорости света и времени между излучением светового сигнала и получением отраженного сигнала. Результатом работы ToF-камеры является карта глубины, которая может быть представлена в виде облака точек. Выполняя сравнение двух облаков точек – до и после перемещения пациента, программное обеспечение сначала рассчитывает матрицу трансформации, соответствующую такому перемещению, а затем с её помощью корректирует матрицу трансформации, полученную в результате первоначальной регистрации, также исключая потребность в повторном проведении регистрации.The preparation method is as follows. At the stage of planning a surgical operation, the patient undergoes computed tomography or magnetic resonance imaging. As a result of this procedure, the tomograph workstation generates a three-dimensional raster image of the individual patient anatomy in the DICOM format. From the prior art [https://www.dicomstandard.org/about/], the DICOM standard is known - the medical industry standard governing the creation, storage, transmission and visualization of digital medical images and metadata. The DICOM file set is transferred to computer 7 of the complex for planning, managing and monitoring the results of surgical treatment. Using the data obtained, the radiologist using the software performs segmentation (contouring) and three-dimensional reconstruction (building a three-dimensional surface model) of all anatomical structures that are of interest to the surgeon in the upcoming operation. Examples of such anatomical structures are neoplasms, blood vessels, skeleton bones, and the surface of a patient's body. Further, based on the obtained 3D-model, the surgeon plans the upcoming operation. At the stage of surgical navigation, the process of determining the coordinate transformation matrix between the coordinate system of the stereo camera and the coordinate system of the tomograph in which the patient underwent diagnostics takes place. Such a transformation is necessary because the coordinates of three-dimensional surface models based on the results of CT and / or MRI are specified in the coordinate system of the tomograph, and the position of the navigation pointer1 and the patient are specified in the coordinate system of the stereo camera. In the complex software, from all prepared three-dimensional surface models of anatomical structures, one model is selected that will be used for registration. Three key points are set on the surface of the selected model using mouse 9. The points are set on anatomical landmarks visible on the screen of the monitor 6 of the computer 7 on a three-dimensional model, while being visible or tangible on the patient’s body - for example, on characteristic tubercles and hollows of bones. Points are selected so that they form a triangle. Points are not allowed to be on the same line. After setting three key points on a three-dimensional surface model, the surgeon indicates the same points in the same sequence on the patient’s body using a navigation pointer. To do this, the surgeon puts the tip of pointer 1 at each of the points and presses the mouse button 9, the keyboard key or pedal of the foot controller 8 to fix the position of the point. After setting three key points, the surgeon, if necessary, can indicate with the help of pointer 1 additional points located on the surface of the same anatomical structure as the key ones. Specifying additional points allows you to increase the accuracy of registration. After specifying points on the patient’s body, the surgeon starts the registration using the mouse button 9, the keyboard key or pedal of the foot controller 8, after which the process of registering two sets of points occurs. The first set of points is indicated by navigation mark 1 on the surface of the patient’s body, and the second set of points was obtained during three-dimensional reconstruction of anatomical models, while three such points are marked as key. After registration on the screen of monitor 6, in addition to three-dimensional models of the patient’s anatomy, a three-dimensional model of the navigation pointer 1 is displayed. The position and orientation of the pointer model relative to the patient’s anatomy models corresponds to the position of the physical pointer 1 relative to the patient. At the stage of surgical intervention, the surgeon can control the visibility and transparency of individual models - skin, bones, organs, neoplasms in them, vessels, thereby gaining an idea of their location relative to the pointer, even if these anatomical structures are hidden from the eyes in the surgical field. The following modes of displaying the navigation pointer model are available to the surgeon: side view of pointer 1 and the patient; view of the patient from the position of the tip of the pointer 1; view of the pointer model on flat sections of CT and / or MRI. Also, the surgeon can measure the shortest distance from the current position of the tip of the pointer 1 to the selected three-dimensional model of the patient’s anatomy, for example, to the neoplasm. During operations with the navigation system, after registration, surgeons often need to adjust the height, rotation and configuration of the table, while the patient moves relative to the stereo camera 4. In such cases, in order to avoid re-registration, one of two additional devices - the base marker of the coordinate system 2 or ToF camera, which is part of the block of cameras 3. The base marker of the coordinate system 2 (figure 5) is equipped with a set of spherical reflective markers. When the patient's position changes, the base marker 2 moves with the patient. The software, based on the difference between the old and the new position of the base marker 2, appropriately corrects the transformation matrix resulting from the initial registration, and thus eliminates the need for re-registration. The ToF camera, which is part of the camera unit 3, determines the distance to the surface closest to it based on the known speed of light and the time between the emission of the light signal and the receipt of the reflected signal. The result of the ToF camera is a depth map, which can be represented as a point cloud. Comparing two point clouds - before and after the patient’s movement, the software first calculates the transformation matrix corresponding to such a movement, and then with its help it corrects the transformation matrix obtained as a result of the initial registration, also eliminating the need for re-registration.

Хирургическая операция с использованием дополненной реальности осуществляется следующим образом. После выполнения регистрации, хирург использует навигационную указку 1 для поиска интересующих анатомических структур: точки доступа к ним, направления их расположения относительно точки доступа, расстояния до них, а также для ограничения области хирургического доступа (разъединения тканей). Примерами анатомических структур являются опухоли или гематомы мозга, поражённые аденомой паращитовидные железы, новообразования в канале трубчатых костей, травматические повреждения костей. Хирург перемещает указку 1 по поверхности тела (до начала хирургического доступа) или в операционном поле (в процессе хирургического доступа) и наклоняет её, наблюдая трёхмерную модель указки, линию продолжения указки и трёхмерные модели анатомии пациента на экране или в очках дополненной реальности. Для поиска анатомической структуры, ориентируясь на изображение на экране 6 или в очках дополненной реальности 5 (фиг.6), хирург устанавливает навигационную указку 1 так, чтобы интересующая его анатомическая структура находилась на линии продолжения указки, видит на экране 6 расстояние в миллиметрах до интересующей структуры. Переводя взгляд с экрана 6 на операционное поле и саму указку 1, хирург видит её направление и понимает, что интересующая его анатомическая структура находится в этом направлении, на глубине, соответствующей расстоянию, которое он видел на экране 6. Для ограничения области хирургического доступа, ориентируясь на изображение на экране 6 или в очках дополненной реальности 5, хирург перемещает навигационную указку 1 так, чтобы линия продолжения указки 1 двигалась вдоль контура интересующей его анатомической структуры. При этом указка 1 в руках хирурга двигается по линии проекции интересующей анатомической структуры на поверхность тела, и очерчивает область предстоящего хирургического доступа. Переводя взгляд с экрана 6 на операционное поле, наблюдая движение указки 1 в операционном поле, хирург видит границу области предстоящего хирургического доступа. Использование при операции дополненной реальности не меняет совокупности действий хирурга и последовательности их выполнения, но позволяет уменьшить количество и величину перемещений взгляда хирурга между монитором и операционным полем. При использовании камеры дополненной реальности, входящей в блок камер 3, хирург видит изображение операционного поля за трёхмерными моделями на экране 6, и, если такого изображения достаточно, не перемещать взгляд на операционное поле. При использовании очков дополненной реальности 5, хирург видит изображение моделей через прозрачные объединители очков 5, поверх изображения операционного поля, и может переводить взгляд с операционного поля на модели не поворачивая головы, а только фокусируя взгляд попеременно на операционном поле и на объединителях очков дополненной реальности 5. После определения точки и/или области хирургического доступа хирург приостанавливает использование навигации и выполняет операцию традиционным способом до того момента, когда для продолжения доступа ему становится необходимо уточнить направление или расстояния доступа, выбрать новую точку доступа или скорректировать область доступа. Таким образом, система дополненной реальности доступна хирургу на всём протяжении операции, может быть использована в любой момент, но потребность в её использовании не постоянна, а возникает периодически. При этом необходимость просмотра трёхмерных моделей анатомических структур в ходе операции и необходимость навигации с помощью указки 1 могут возникать независимо друг от друга.Surgery using augmented reality is as follows. After completing registration, the surgeon uses navigation pointer 1 to search for anatomical structures of interest: access points to them, directions of their location relative to the access point, distance to them, and also to limit the area of surgical access (tissue separation). Examples of anatomical structures are brain tumors or hematomas, parathyroid glands affected by adenoma, neoplasms in the canal of tubular bones, and traumatic injuries of bones. The surgeon moves pointer 1 on the surface of the body (before the start of surgical access) or in the surgical field (during the surgical access) and tilts it, observing the three-dimensional model of the pointer, the line of continuation of the pointer and three-dimensional models of the patient's anatomy on the screen or in augmented reality glasses. To search for the anatomical structure, focusing on the image on the screen 6 or in augmented reality glasses 5 (Fig. 6), the surgeon sets the navigation pointer 1 so that the anatomical structure of interest to him is on the continuation line of the pointer, sees on the screen 6 the distance in millimeters to the interesting structure. Looking from screen 6 to the surgical field and pointer 1 itself, the surgeon sees its direction and understands that the anatomical structure of interest to him is in this direction, at a depth corresponding to the distance that he saw on screen 6. To limit the area of surgical access, focusing On the image on the screen 6 or in augmented reality glasses 5, the surgeon moves the navigation pointer 1 so that the continuation line of the pointer 1 moves along the contour of the anatomical structure of interest to him. In this case, pointer 1 in the hands of the surgeon moves along the line of projection of the anatomical structure of interest on the surface of the body, and outlines the area of upcoming surgical access. Looking from the screen 6 to the surgical field, observing the movement of the pointer 1 in the surgical field, the surgeon sees the border of the area of the upcoming surgical access. The use of augmented reality during the operation does not change the set of actions of the surgeon and the sequence of their execution, but allows you to reduce the number and magnitude of the movement of the surgeon's gaze between the monitor and the surgical field. When using the augmented reality camera included in the camera unit 3, the surgeon sees an image of the surgical field behind three-dimensional models on screen 6, and if such an image is enough, do not move your eyes to the surgical field. When using augmented reality glasses 5, the surgeon sees the image of the models through the transparent combiners of glasses 5, over the image of the surgical field, and can look from the surgical field to the models without turning his head, but only focusing his eyes alternately on the surgical field and on the combiners of augmented reality glasses 5 After determining the point and / or area of surgical access, the surgeon suspends the use of navigation and performs the operation in the traditional way until then, for tions of access to it becomes necessary to clarify the direction of, or access distance, choose a new access point or adjust the access area. Thus, the augmented reality system is available to the surgeon throughout the operation, can be used at any time, but the need for its use is not constant, but arises periodically. In this case, the need to view three-dimensional models of anatomical structures during the operation and the need for navigation using pointer 1 may arise independently of each other.

Комплекс оборудования для подготовки и выполнения хирургических операций с использованием дополненной реальности используется следующим образом. Оборудование комплекса размещается в операционной. Базовый маркер системы координат 2 закрепляется к оборудованию операционной, неподвижному относительно операционного поля, например, к черепному зажиму или кронштейнам операционного стола. Хирург надевает очки дополненной реальности 5 и берёт в руки навигационную указку 1. Блок камер 3 размещается над операционным полем, а стереокамера 4 размещается так, чтобы в области её видимости находилось всё оборудование комплекса, оснащённое сферическими отражающими маркерами: навигационная указка 1, базовый маркер системы координат 2, очки дополненной реальности 5, блок камер 3. Конфигурация сферических отражающих маркеров у каждого устройства уникальна, что позволяет программному обеспечению отличать устройства друг от друга на изображениях со стереокамеры. Навигационная указка 1 является медицинским инструментом, для которого требуется регулярная предстерилизационная очистка и стерилизация. Размещение внутри указки камеры с необходимыми для её работы элементами питания и модулями беспроводной передачи данных требует обеспечения герметичности корпуса и увеличения его размеров, добавляя ограничение на время автономной работы. В результате усложняется проектирование и увеличивается стоимость устройства, а удобство использования снижается. По этим причинам в составе комплекса используется пассивная оптическая навигационная указка 1. Очки дополненной реальности 5, так же как и камера дополненной реальности, позволяют хирургу совместить просмотр трёхмерных моделей анатомии пациента и операционного поля. В отличие от камеры дополненной реальности, которая добавляет изображение операционного поля в окно просмотра трёхмерных моделей, очки дополненной реальности позволяют добавить изображение трёхмерных моделей в поле зрения хирурга, смотрящего на операционное поле. Очки дополненной реальности 5 (фиг. 6) состоят из оголовья и блока управления. На оголовье закреплены электронные модули формирования изображения и прозрачные объединители, выполняющие совмещение световых лучей, поступающих извне с лучами, формируемыми модулями очков дополненной реальности 5. Настройка яркости и цветопередачи изображения, формируемого модулями очков, возможна с помощью блока управления. Очки работают в стереоскопическом режиме. Очки 5 снабжены набором сферических отражающих маркеров, позволяющих программному обеспечению на основе изображения со стереокамеры 3 определить положение головы хирурга в системе координат стереокамеры. Матрица трансформации, полученная в результате регистрации, позволяет преобразовать координаты головы и направление взгляда хирурга из системы координат стереокамеры в систему координат томографа, в которой построены все трёхмерные модели анатомии пациента, и отобразить эти модели в очках дополненной реальности 5.A set of equipment for the preparation and execution of surgical operations using augmented reality is used as follows. The equipment of the complex is located in the operating room. The base marker of the coordinate system 2 is fixed to the operating room equipment, which is stationary relative to the surgical field, for example, to the cranial clamp or the brackets of the operating table. The surgeon puts on augmented reality glasses 5 and picks up the navigation pointer 1. The camera unit 3 is placed above the surgical field, and the stereo camera 4 is placed so that all the equipment of the complex equipped with spherical reflective markers is in its field of vision: navigation pointer 1, the basic marker of the system coordinates 2, augmented reality glasses 5, camera block 3. The configuration of the spherical reflective markers for each device is unique, which allows the software to distinguish devices from each other by expressions with a stereo camera. Navigation pointer 1 is a medical instrument that requires regular pre-sterilization cleaning and sterilization. Placing inside the camera’s pointer with the batteries and wireless data transfer modules necessary for its operation requires ensuring the integrity of the case and increasing its size, adding a limitation on the battery life. As a result, design becomes more complicated and the cost of the device increases, while usability decreases. For these reasons, the complex uses a passive optical navigation pointer 1. Augmented reality glasses 5, as well as an augmented reality camera, allow the surgeon to combine viewing three-dimensional models of the patient’s anatomy and the surgical field. In contrast to the augmented reality camera, which adds an image of the surgical field to the viewing window of three-dimensional models, augmented reality glasses allow you to add an image of three-dimensional models in the field of view of a surgeon looking at the operating field. Augmented reality glasses 5 (Fig. 6) consist of a headband and a control unit. Electronic imaging modules and transparent combiners are fixed on the headband, combining light rays coming from the outside with the rays formed by the augmented reality glasses modules 5. The brightness and color reproduction of the image formed by the glasses modules are possible using the control unit. Glasses work in stereoscopic mode. Glasses 5 are equipped with a set of spherical reflective markers that allow software based on the image from stereo camera 3 to determine the position of the surgeon's head in the coordinate system of the stereo camera. The transformation matrix obtained as a result of registration allows you to convert the coordinates of the head and the direction of the surgeon’s gaze from the coordinate system of the stereo camera to the coordinate system of the tomograph, in which all three-dimensional models of the patient’s anatomy are built, and display these models in augmented reality glasses 5.

Предложенное техническое решение позволяет сократить время проведения операции за счёт ускорения поиска интересующих анатомических структур и уменьшить травматичность операции за счёт уменьшения области хирургического доступа до минимально необходимых размеров и за счёт поиска интересующих анатомических структур без повреждения тканей. В результате уменьшается количество осложнений и сокращается время на реабилитацию пациента после операции.The proposed technical solution allows to reduce the time of the operation by speeding up the search for anatomical structures of interest and reducing the invasiveness of the operation by reducing the area of surgical access to the minimum required size and by searching for the anatomical structures of interest without damaging the tissues. As a result, the number of complications decreases and the time for patient rehabilitation after surgery is reduced.

Claims (2)

1. Способ подготовки и выполнения хирургической операции с использованием дополненной реальности, включающий этапы планирования хирургической операции, хирургической навигации и хирургического вмешательства с использованием дополненной реальности, причем на этапе планирования хирургической операции пациенту проводят компьютерную или магнитно-резонансную томографию и формируют трёхмерное растровое изображение индивидуальной анатомии пациента, которое передают на компьютер комплекса оборудования для осуществления хирургической операции с использованием дополненной реальности, отличающийся тем, что на этапе хирургической навигации выполняют построение контура и трехмерную реконструкцию всех анатомических структур, представляющих интерес для хирурга в предстоящей операции, путем установки трех ключевых точек на анатомических ориентирах, видимых на экране компьютера в виде трехмерной модели и также видимых или осязаемых на теле пациента, причем точки выбирают с возможностью образования ими треугольника, после чего выбирают траекторию и безопасные пределы хирургического доступа, определяют матрицу трансформации координат между системой координат стереокамеры комплекса и системой координат томографа, в котором пациент проходил диагностику, посредством установки кончиком навигационной указки комплекса на теле пациента тех же трех точек и в той же последовательности, что и на анатомической модели, и фиксации компьютером комплекса позиции точек, после установки трех ключевых точек, при необходимости устанавливают дополнительные точки, находящиеся на той же анатомической поверхности, после чего запускают процесс регистрации точек с точками на поверхности трёхмерных моделей анатомии пациента, при этом на экране компьютера дополнительно отображают трёхмерную модель навигационной указки, при этом положение и ориентация трёхмерной модели навигационной указки относительно моделей анатомии пациента соответствует физическому положению указки относительно анатомической поверхности пациента, на этапе хирургического вмешательства используют навигационную указку для поиска интересующих анатомических структур, точки доступа к ним, направления их расположения относительно точки доступа, расстояния до них, а также для ограничения области хирургического доступа, при этом ориентируясь на изображение на экране компьютера или в очках дополненной реальности, в область хирургического доступа устанавливают навигационную указку таким образом, чтобы интересующая анатомическая структура находилась на линии продолжения указки, при этом на экране отображается расстояние до анатомической структуры в миллиметрах, а для ограничения области хирургического доступа, ориентируясь на изображение на экране компьютера или в очках дополненной реальности, перемещают навигационную указку таким образом, чтобы линия продолжения указки двигалась вдоль контура интересующей анатомической структуры, указку двигают по линии проекции интересующей анатомической структуры на поверхности тела и очерчивают область предстоящего хирургического доступа, после чего выполняют хирургическую операцию, в ходе которой при необходимости устанавливают новую точку доступа и корректируют область доступа.1. The method of preparation and execution of a surgical operation using augmented reality, including the stages of planning a surgical operation, surgical navigation and surgical intervention using augmented reality, moreover, at the stage of planning a surgical operation, the patient undergoes computer or magnetic resonance imaging and form a three-dimensional raster image of an individual anatomy the patient, which is transferred to the computer complex equipment for surgical operations using augmented reality, characterized in that at the stage of surgical navigation, they perform the contour construction and three-dimensional reconstruction of all anatomical structures of interest to the surgeon in the upcoming operation by setting three key points on the anatomical landmarks visible on a computer screen in the form of a three-dimensional model and also visible or tangible on the patient’s body, the points being chosen with the possibility of forming a triangle, after which the path and safe limits x rurgic access, determine the coordinate transformation matrix between the coordinate system of the stereo camera of the complex and the coordinate system of the tomograph in which the patient was diagnosed by setting the tip of the navigation pointer of the complex on the patient’s body with the same three points and in the same sequence as in the anatomical model, and fixing after the installation of three key points, if necessary, additional points are located on the same anatomical surface, after which starts the process of registering points with points on the surface of three-dimensional models of the patient’s anatomy, while the 3D model of the navigation pointer is additionally displayed on the computer screen, while the position and orientation of the three-dimensional model of the navigation pointer relative to the patient’s anatomy models corresponds to the physical position of the pointer relative to the patient’s anatomical surface, at the stage of surgical intervention use a navigation pointer to search for anatomical structures of interest, access points to them, the directions of their location relative to the access point, the distance to them, as well as to limit the area of surgical access, while focusing on the image on a computer screen or in augmented reality glasses, a navigation pointer is set in the surgical access area so that the anatomical of interest the structure was on the line of continuation of the pointer, while the screen displays the distance to the anatomical structure in millimeters, and to limit the area of surgical access, Based on the image on a computer screen or in augmented reality glasses, the navigation pointer is moved so that the continuation line of the pointer moves along the contour of the anatomical structure of interest, the pointer is moved along the projection line of the anatomical structure of interest on the body surface and the area of the upcoming surgical access is outlined, after which they perform surgery, during which, if necessary, establish a new access point and adjust the access area. 2. Комплекс оборудования для осуществления хирургической операции с использованием дополненной реальности, содержащий блок камер, установленный над операционным полем и включающий камеру дополненной реальности и ToF-камеру, стереокамеру, работающую в инфракрасном диапазоне длин волн, очки дополненной реальности, содержащие пульт управления, связанные с компьютером, и маркеры, отличающийся тем, что стереокамера установлена таким образом, что в область ее видимости попадают маркеры, выполненные сферическими и отражающими, расположенные на блоке камер, навигационной указке, очках дополненной реальности и базовом маркере системы координат, причем конфигурация маркеров на каждом из них отлична от других, базовый маркер системы координат неподвижно закреплен на черепном зажиме или операционном столе, а компьютер снабжен ножным контроллером в виде блока с педалями.2. A set of equipment for the implementation of a surgical operation using augmented reality, comprising a camera unit mounted on the surgical field and including an augmented reality camera and a ToF camera, a stereo camera operating in the infrared wavelength range, augmented reality glasses, containing a control panel associated with a computer, and markers, characterized in that the stereo camera is mounted in such a way that markers made of spherical and reflective, located on the camera unit, navigation pointer, augmented reality glasses and the base marker of the coordinate system, and the configuration of the markers on each of them is different from the others, the base marker of the coordinate system is fixed on the skull clamp or operating table, and the computer is equipped with a foot controller in the form of a block with pedals .
RU2019105661A 2019-02-27 2019-02-27 Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation RU2707369C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2019105661A RU2707369C1 (en) 2019-02-27 2019-02-27 Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019105661A RU2707369C1 (en) 2019-02-27 2019-02-27 Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation

Publications (1)

Publication Number Publication Date
RU2707369C1 true RU2707369C1 (en) 2019-11-26

Family

ID=68652969

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019105661A RU2707369C1 (en) 2019-02-27 2019-02-27 Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation

Country Status (1)

Country Link
RU (1) RU2707369C1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2716480C1 (en) * 2019-08-21 2020-03-11 Федеральное государственное бюджетное учреждение "Национальный медицинский исследовательский центр сердечно-сосудистой хирургии имени А.Н. Бакулева" Министерства здравоохранения Российской Федерации Surgical set for training operations on heart and vessels in conditions of artificial blood circulation
CN111242881A (en) * 2020-01-07 2020-06-05 北京字节跳动网络技术有限公司 Method, device, storage medium and electronic equipment for displaying special effects
RU2736800C1 (en) * 2020-06-23 2020-11-20 Марк Феликсович Дорфман Method for preparation and performing of surgical operation on small pelvis organs
CN112487576A (en) * 2020-11-26 2021-03-12 新拓三维技术(深圳)有限公司 Pipeline reverse modeling method
RU2754288C1 (en) * 2020-10-06 2021-08-31 Владимир Михайлович Иванов Method for preparing for and performing a surgical operation on the head using mixed reality
CN113520619A (en) * 2021-08-26 2021-10-22 重庆市妇幼保健院 Marking element for registering three-dimensional medical image system and binocular vision system and assembling method thereof
RU2757991C2 (en) * 2020-07-06 2021-10-25 Общество с ограниченной ответственностью "Толикети" Method for automated control of a robotic operational exoscope
CN114098797A (en) * 2020-08-26 2022-03-01 通用电气精准医疗有限责任公司 Method and system for providing anatomical orientation indicators
RU2766396C1 (en) * 2021-04-30 2022-03-15 Александр Григорьевич ВИЛЛЕР Percutaneous vascular puncture system and method
CN115645044A (en) * 2022-11-04 2023-01-31 福州大学 Oral implant image superposition method based on no-marker
RU2823108C1 (en) * 2023-12-05 2024-07-18 Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации Spinal neurosurgery instrument set for use with surgical navigation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150248793A1 (en) * 2013-07-12 2015-09-03 Magic Leap, Inc. Method and system for facilitating surgery using an augmented reality system
US20160191887A1 (en) * 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization
RU2625940C1 (en) * 2016-04-23 2017-07-19 Виталий Витальевич Аверьянов Method of impacting on virtual objects of augmented reality
US20180046874A1 (en) * 2016-08-10 2018-02-15 Usens, Inc. System and method for marker based tracking
US20180168740A1 (en) * 2016-08-16 2018-06-21 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150248793A1 (en) * 2013-07-12 2015-09-03 Magic Leap, Inc. Method and system for facilitating surgery using an augmented reality system
US20160191887A1 (en) * 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization
RU2625940C1 (en) * 2016-04-23 2017-07-19 Виталий Витальевич Аверьянов Method of impacting on virtual objects of augmented reality
US20180046874A1 (en) * 2016-08-10 2018-02-15 Usens, Inc. System and method for marker based tracking
US20180168740A1 (en) * 2016-08-16 2018-06-21 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
КОЛСАНОВ А.В. и др. Виртуальное моделирование операции на печени на основе данных компьютерной томографии. АННАЛЫ ХИРУРГИЧЕСКОЙ ГЕПАТОЛОГИИ, 2016, т.21, no.4, с.16-22. *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2716480C1 (en) * 2019-08-21 2020-03-11 Федеральное государственное бюджетное учреждение "Национальный медицинский исследовательский центр сердечно-сосудистой хирургии имени А.Н. Бакулева" Министерства здравоохранения Российской Федерации Surgical set for training operations on heart and vessels in conditions of artificial blood circulation
CN111242881A (en) * 2020-01-07 2020-06-05 北京字节跳动网络技术有限公司 Method, device, storage medium and electronic equipment for displaying special effects
RU2736800C1 (en) * 2020-06-23 2020-11-20 Марк Феликсович Дорфман Method for preparation and performing of surgical operation on small pelvis organs
RU2757991C2 (en) * 2020-07-06 2021-10-25 Общество с ограниченной ответственностью "Толикети" Method for automated control of a robotic operational exoscope
CN114098797A (en) * 2020-08-26 2022-03-01 通用电气精准医疗有限责任公司 Method and system for providing anatomical orientation indicators
CN114098797B (en) * 2020-08-26 2024-05-14 通用电气精准医疗有限责任公司 Method and system for providing anatomical orientation indicators
RU2754288C1 (en) * 2020-10-06 2021-08-31 Владимир Михайлович Иванов Method for preparing for and performing a surgical operation on the head using mixed reality
CN112487576A (en) * 2020-11-26 2021-03-12 新拓三维技术(深圳)有限公司 Pipeline reverse modeling method
CN112487576B (en) * 2020-11-26 2024-04-02 新拓三维技术(深圳)有限公司 Pipeline reverse modeling method
RU2766396C1 (en) * 2021-04-30 2022-03-15 Александр Григорьевич ВИЛЛЕР Percutaneous vascular puncture system and method
CN113520619A (en) * 2021-08-26 2021-10-22 重庆市妇幼保健院 Marking element for registering three-dimensional medical image system and binocular vision system and assembling method thereof
CN115645044A (en) * 2022-11-04 2023-01-31 福州大学 Oral implant image superposition method based on no-marker
RU2823108C1 (en) * 2023-12-05 2024-07-18 Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации Spinal neurosurgery instrument set for use with surgical navigation system

Similar Documents

Publication Publication Date Title
RU2707369C1 (en) Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation
US11883118B2 (en) Using augmented reality in surgical navigation
KR102014355B1 (en) Method and apparatus for calculating location information of surgical device
JP6400793B2 (en) Generating image display
Bichlmeier et al. The virtual mirror: a new interaction paradigm for augmented reality environments
Sielhorst et al. Advanced medical displays: A literature review of augmented reality
Gavaghan et al. A portable image overlay projection device for computer-aided open liver surgery
EP2951779B1 (en) Three-dimensional image segmentation based on a two-dimensional image information
ES2292593T3 (en) GUIDING SYSTEM
US20110105895A1 (en) Guided surgery
JP5934070B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
WO2023246521A1 (en) Method, apparatus and electronic device for lesion localization based on mixed reality
Galloway Jr et al. Image display and surgical visualization in interactive image-guided neurosurgery
Bichlmeier et al. Laparoscopic virtual mirror for understanding vessel structure evaluation study by twelve surgeons
KR20230059159A (en) Apparatus and method for positioning a patient's body and tracking the patient's position during surgery
RU2754288C1 (en) Method for preparing for and performing a surgical operation on the head using mixed reality
EP3782529A1 (en) Systems and methods for selectively varying resolutions
Hirai et al. Image-guided neurosurgery system integrating AR-based navigation and open-MRI monitoring
Hawkes et al. Three-dimensional multimodal imaging in image-guided interventions
CN115363751B (en) Intraoperative anatomical structure indication method
Jing et al. Navigating system for endoscopic sinus surgery based on augmented reality
JP7495216B2 (en) Endoscopic surgery support device, endoscopic surgery support method, and program
Kersten-Oertel et al. 20 Augmented Reality for Image-Guided Surgery
Giraldez et al. Multimodal augmented reality system for surgical microscopy
Wang et al. Tumor Displacement Prediction and Augmented Reality Visualization in Brain Tumor Resection Surgery

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20210228