RU2707369C1 - Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation - Google Patents
Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation Download PDFInfo
- Publication number
- RU2707369C1 RU2707369C1 RU2019105661A RU2019105661A RU2707369C1 RU 2707369 C1 RU2707369 C1 RU 2707369C1 RU 2019105661 A RU2019105661 A RU 2019105661A RU 2019105661 A RU2019105661 A RU 2019105661A RU 2707369 C1 RU2707369 C1 RU 2707369C1
- Authority
- RU
- Russia
- Prior art keywords
- surgical
- patient
- augmented reality
- pointer
- points
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Robotics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
Изобретение относится к медицине, а именно к хирургии, и может быть использовано при выполнении операций в области хирургии, а именно торакальной хирургии, абдоминальной хирургии, пластической хирургии, нейрохирургии, травматологии, ортопедии, онкологии, реаниматологии, челюстно-лицевой хирургии, эндокринной хирургии, оториноларингологии.The invention relates to medicine, namely to surgery, and can be used when performing operations in the field of surgery, namely thoracic surgery, abdominal surgery, plastic surgery, neurosurgery, traumatology, orthopedics, oncology, resuscitation, maxillofacial surgery, endocrine surgery, otorhinolaryngology.
Известен опубликованный в интернете «Метод интраоперационной навигации на основе виртуального моделирования при видеоэндоскопической резекции почки при опухолях почки», размещенный по адресу: http://elibrary.ru/item.asp?id=23488789, авторов
Дубровин В. Н., Егошин А. В., Фурман А. А., Роженцов А. А., Eruslanov Р. И. Метод содержит специальную компьютерную программу для создания трехмерного изображения операционного пространства на основе предоперационных томографических данных конкретного пациента, и позволяющий сформировать виртуальные 3D модели пациента по результатам томографического обследования. Этот метод особенно перспективен для обучения начинающих хирургов, это может помочь им приобрести навыки в малоинвазивной хирургии.A well-known published on the Internet "Method of intraoperative navigation based on virtual modeling in video endoscopic resection of the kidney with kidney tumors", located at: http://elibrary.ru/item.asp?id=23488789, authors
Dubrovin V.N., Egoshin A.V., Furman A.A., Rozhentsov A.A., Eruslanov R.I. The method contains a special computer program for creating a three-dimensional image of the operating space based on preoperative tomographic data of a particular patient, and allowing to form virtual 3D models of the patient according to the results of tomographic examination. This method is especially promising for training novice surgeons, it can help them acquire skills in minimally invasive surgery.
Но данный метод предназначен для обучения начинающих хирургов и сопряжен с обязательным использованием эндоскопического оборудования. Метод не позволяет проводить вмешательства в открытой хирургии, травматологии, и т.п. Так же данный способ не может быть применим для визуализации анатомических образований, лежащих за пределами почки. Основными ориентирами для позиционирования системы служат только ткани органа, тогда как заявляемое техническое решение позволяет отображать всю топологию органов.But this method is intended for training novice surgeons and involves the mandatory use of endoscopic equipment. The method does not allow interventions in open surgery, traumatology, etc. Also, this method cannot be applicable for visualization of anatomical formations lying outside the kidneys. The main guidelines for positioning the system are only the tissues of the organ, while the claimed technical solution allows you to display the entire topology of the organs.
Известен способ выполнения регистрации, описанный в патентах США № US 2005015005 A1 20.01.2005 COMPUTER ENHANCED SURGICAL NAVIGATION IMAGING SYSTEM (CAMERA PROBE) / Ralf Alfons Kockro и патент США № US 2005/0215879 A1 29.09.2015 ACCURACYEVALUATIONOFVIDEO-BASEDAUGMENTEDREALITYENHANCEDSURGICALNAVIGATIONSYSTEMS / ZhuChuanggui, основанный на установке маркеров на тело пациента или фантом перед проведением КТ и/или МРТ, и полагающийся на наличие информации о положении маркеров в трёхмерных растровых изображениях анатомии пациента. A known registration method is described in US Pat. placing markers on the patient’s body or phantom before performing CT and / or MRI, and relying on the availability of information about the position of the markers in three-dimensional raster images of the patient’s anatomy.
Недостатком известного способа является его неприменимость в случаях, когда КТ и/или МРТ выполняются с диагностической целью без маркеров, а необходимость хирургической навигации становится понятна уже после изучения результатов КТ и/или МРТ. Выполнение повторного КТ и/или МРТ с маркерами сопряжены с увеличением общей стоимости диагностики, дополнительными затратами времени, и в случае КТ – с увеличением лучевой нагрузки на пациента.The disadvantage of this method is its inapplicability in cases where CT and / or MRI are performed for diagnostic purposes without markers, and the need for surgical navigation becomes clear after studying the results of CT and / or MRI. Repeated CT and / or MRI scans with markers are associated with an increase in the total cost of diagnosis, additional time costs, and in the case of CT, with an increase in radiation exposure to the patient.
Известен способ размещения камеры дополненной реальности в навигационной указке, описанный в патенте США № US 2005015005 A1 20.01.2005 COMPUTER ENHANCED SURGICAL NAVIGATION IMAGING SYSTEM (CAMERA PROBE) / Ralf Alfons Kockro. There is a method of placing an augmented reality camera in a navigation pointer, described in US patent No. US 2005015005 A1 01/20/2005 COMPUTER ENHANCED SURGICAL NAVIGATION IMAGING SYSTEM (CAMERA PROBE) / Ralf Alfons Kockro.
Недостатком известного способа является превращение навигационной указки из пассивного оптического устройства в активное электронное. Навигационная указка является медицинским инструментом, для которого требуется регулярная предстерилизационная очистка и стерилизация. Размещение внутри указки камеры с необходимыми для её работы элементами питания и модулями беспроводной передачи данных требует обеспечения герметичности корпуса и увеличения его размеров, добавляя ограничение на время автономной работы. В результате усложняется проектирование и увеличивается стоимость устройства, а удобство использования снижается.The disadvantage of this method is the conversion of the navigation pointer from a passive optical device to an active electronic one. The navigation pointer is a medical instrument that requires regular pre-sterilization cleaning and sterilization. Placing inside the camera’s pointer with the batteries and wireless data transfer modules necessary for its operation requires ensuring the integrity of the case and increasing its size, adding a limitation on the battery life. As a result, design becomes more complicated and the cost of the device increases, while usability decreases.
Принципы функционирования очков с объединителями на основе волноводов и системы дополненной реальности, построенные с использованием таких очков, рассмотрены в патентах США № US 2015/0248793 A1 03.09.2015 METHOD AND SYSTEM FOR FACILITATING SURGERY USING AN AUGMENTED REALITY SYSTEM / RonyAbovitz, Brian T. Schowengerdt, Matthew D. Watson и патент США № US 2015/0242943 A1 03.09.2015 METHOD AND SYSTEM FOR GENERATING A RETAL, EXPERIENCEUSING AN AUGMENTED REALITY SYSTEM / RonyAbovitz, Brian T. Schowengerdt, Matthew D. WatsonThe principles of functioning of glasses with combiners based on waveguides and augmented reality systems built using such glasses are discussed in US Pat. , Matthew D. Watson and US Patent No. US 2015/0242943 A1 09/03/2015 METHOD AND SYSTEM FOR GENERATING A RETAL, EXPERIENCEUSING AN AUGMENTED REALITY SYSTEM / RonyAbovitz, Brian T. Schowengerdt, Matthew D. Watson
Известен способ реализации дополненной реальности без очков на основе проецирования изображения на операционное поле с помощью проектора, описанный в патенте США № US 2014/0022283 A1 23.01.2014 AUGMENTEDREALITYAPPARATUS / HarleyHau-LamChan, MichaelJohnDaly, JonathanCrawfordIRISH. There is a method of implementing augmented reality without glasses based on projection of an image on the surgical field using a projector, described in US patent No. US 2014/0022283 A1 01/23/2014 AUGMENTEDREALITYAPPARATUS / HarleyHau-LamChan, MichaelJohnDaly, JonathanCrawfordIRISH.
Недостатком известного способа является низкая контрастность изображения, полученного с помощью проектора, на ярко освещённом операционном поле.The disadvantage of this method is the low contrast of the image obtained using the projector on a brightly lit operating field.
Самым близким по своей технической сущности является навигационный метод оперативного вмешательства в режиме реального времени и аппарат для отображения расширенного обзора пациента с предпочтительной статической или динамической точки зрения хирурга описанный в патенте US 2016019 1887 A1 включающий использование изображения поверхности, графическое представление внутренней анатомической структуры пациента, обработанное из предоперационных или интраоперационных изображений, и компьютер, регистрирующий оба изображения, а также включающий определение положения инструментов и частей системы (ToF-камеры, очков дополненной реальности) с помощью оптических маркеров (с. 2, [0035]), использование стереокамеры (с. 1, [0010]), использование time-of-flight (ToF) камеры (с. 1, [0007]), использование в качестве исходных данных медицинских изображений КТ и МРТ (c. 5, [0073]), построение пользователем сегментации и трёхмерной модели поверхности (c. 5, [0075]), использование очков дополненной реальности с прозрачным дисплеем на основе объединителей световых лучей (с. 9, [0117]).Данный метод предполагает определение положения пациента на основе комбинации двух способов: 1) с помощью отражающих или цветных маркеров, размещённых непосредственно на анатомических ориентирах на теле пациента (с. 2, [0035]; с. 4, [0056]; с. 6, [0087]; с. 13, [0146]), положение которых определяется с помощью камер (с. 8, [0104]); 2) путём сканирования поверхности тела пациента 3D-сканером (с. 7, [0093], [0094]) при смещении маркеров, превышающем некоторое пороговое значение (с. 7, [0095]). Таким образом, определение положения пациента требует прямой видимости тела пациента или его части (Fig. 2), инструменты при определении положения пациента не используются (Fig. 1).The closest in technical essence is the real-time navigation method of surgical intervention and the apparatus for displaying an expanded overview of the patient from the preferred static or dynamic point of view of the surgeon described in US 2016019 1887 A1, including the use of a surface image, a graphical representation of the patient’s internal anatomical structure, processed from preoperative or intraoperative images, and a computer that records both images, including determining the position of instruments and parts of the system (ToF camera, augmented reality glasses) using optical markers (p. 2, [0035]), using a stereo camera (p. 1, [0010]), using time-of-flight (ToF ) cameras (p. 1, [0007]), use of CT and MRI images as medical data (p. 5, [0073]), user construction of a segmentation and three-dimensional surface model (p. 5, [0075]), use augmented reality glasses with a transparent display based on combiners of light rays (p. 9, [0117]). This method involves determining the patient’s position based on a combination of two methods: 1) using reflective or colored markers placed directly on the anatomical landmarks on the patient’s body (p. 2, [0035]; p. 4, [ 0056]; p. 6, [0087]; p. 13, [0146]), the position of which is determined using cameras (p. 8, [0104]); 2) by scanning the surface of the patient’s body with a 3D scanner (p. 7, [0093], [0094]) when the markers shift beyond a certain threshold value (p. 7, [0095]). Thus, determining the position of the patient requires direct visibility of the patient's body or part thereof (Fig. 2), instruments are not used to determine the position of the patient (Fig. 1).
Размещение маркеров непосредственно на анатомических ориентирах на теле пациента сопряжено со следующими проблемами:Placing markers directly on anatomical landmarks on the patient’s body is associated with the following problems:
- при выборе анатомических ориентиров в операционном поле размещённые на таких ориентирах маркеры препятствуют продолжению хирургического вмешательства;
- при выборе анатомических ориентиров вне операционного поля отсутствует прямая видимость маркеров для камер - этому препятствует операционное бельё, покрывающее тело пациента за пределами операционного поля; - when choosing anatomical landmarks in the surgical field, markers placed on such landmarks prevent the continuation of surgical intervention;
- when choosing anatomical landmarks outside the surgical field, there is no direct visibility of the markers for the cameras - this is prevented by the operating linen covering the patient’s body outside the surgical field;
- маркеры могут быть размещены только вне операционной раны, поэтому использование анатомических ориентиров внутри операционной раны становится невозможным; Сканирование поверхности тела пациента 3D-сканером любого типа, в том числе ToF-камерой, также затруднено, поскольку тело пациента за пределами операционного поля закрыто операционным бельём.- markers can only be placed outside the surgical wound, so the use of anatomical landmarks inside the surgical wound becomes impossible; Scanning the surface of the patient’s body with a 3D scanner of any type, including a ToF camera, is also difficult, because the patient’s body is covered by operating linen outside the surgical field.
Предлагаемое изобретение направлено на расширение функциональных возможностей способа и арсенала оборудования для осуществления подготовки и выполнения хирургической операции с использованием дополненной реальности и позволяющего сократить время операции и уменьшить объём травмируемых тканей.The present invention is aimed at expanding the functionality of the method and arsenal of equipment for preparing and performing a surgical operation using augmented reality and allowing to reduce the time of surgery and reduce the amount of injured tissue.
Поставленная задача решается за счет того что, Способ подготовки и выполнения хирургической операции с использованием дополненной реальности включает этапы планирования хирургической операции, хирургической навигации и хирургического вмешательства с использованием дополненной реальности, причем на этапе планирования хирургической операции пациенту проводят компьютерную или магнитно-резонансную томографию и формируют трёхмерное растровое изображение индивидуальной анатомии пациента, которое передают на компьютер комплекса оборудования для осуществления хирургической операции с использованием дополненной реальности, при этом на этапе хирургической навигации выполняют построение контура и трехмерную реконструкцию всех анатомических структур представляющих интерес для хирурга в предстоящей операции путем установки трех ключевых точек на анатомических ориентирах, видимых на экране компьютера в виде трехмерной модели, и так же видимых или осязаемых на теле пациента, причем точки выбирают с возможностью образования ими треугольника, после чего выбирают траекторию и безопасные пределы хирургического доступа, определяют матрицу трансформации координат между системой координат стереокамеры комплекса и системой координат томографа, в котором пациент проходил диагностику, посредством установки кончиком навигационной указки комплекса на теле пациента тех же трех точек и в той же последовательности, что и на анатомической модели, и фиксации компьютером комплекса позиции точек, после установки трех ключевых точек, при необходимости устанавливают дополнительные точки, находящиеся на той же анатомической поверхности, после чего запускают процесс регистрации точек с точками на поверхности трёхмерных моделей анатомии пациента, при этом на экране компьютера дополнительно отображают трёхмерную модель навигационной указки, при этом положение и ориентация трёхмерной модели навигационной указки относительно моделей анатомии пациента соответствует физическому положению указки относительно анатомической поверхности пациента, на этапе хирургического вмешательства используют навигационную указку для поиска интересующих анатомических структур, точки доступа к ним, направления их расположения относительно точки доступа, расстояния до них, а также для ограничения области хирургического доступа, при этом ориентируясь на изображение на экране компьютера или в очках дополненной реальности, в область хирургического доступа устанавливают навигационную указку таким образом, чтобы интересующая анатомическая структура находилась на линии продолжения указки, при этом на экране отображается расстояние до анатомической структуры в миллиметрах, а для ограничения области хирургического доступа, ориентируясь на изображение на экране компьютера или в очках дополненной реальности, перемещают навигационную указку таким образом, чтобы линия продолжения указки двигалась вдоль контура интересующей анатомической структуры, указку двигают по линии проекции интересующей анатомической структуры на поверхности тела и очерчивают область предстоящего хирургического доступа, после чего выполняют хирургическую операцию, в ходе которой при необходимости устанавливают новую точку доступа и корректируют область доступа. Знание точной области доступа позволяет хирургу уменьшить объём травмируемых тканей. The problem is solved due to the fact that the Method of preparing and performing a surgical operation using augmented reality includes the steps of planning a surgical operation, surgical navigation and surgical intervention using augmented reality, and at the stage of planning a surgical operation, the patient is subjected to computed or magnetic resonance imaging and form a three-dimensional raster image of the individual anatomy of the patient, which is transmitted to the computer of the complex of beliefs for the implementation of a surgical operation using augmented reality, while at the stage of surgical navigation, they perform the contour construction and three-dimensional reconstruction of all anatomical structures of interest to the surgeon in the upcoming operation by setting three key points on the anatomical landmarks visible on a computer screen as a three-dimensional model, and also visible or tangible on the patient’s body, moreover, the points are chosen with the possibility of the formation of a triangle by them, after which they select thorium and safe limits of surgical access, determine the coordinate transformation matrix between the coordinate system of the stereo camera of the complex and the coordinate system of the tomograph in which the patient was diagnosed by setting the tip of the navigation pointer of the complex on the patient’s body with the same three points and in the same sequence as on the anatomical models, and fixing by the computer of the complex the position of the points, after installing three key points, if necessary, establish additional points located on the same ana of the tomic surface, after which the process of registering points with points on the surface of three-dimensional models of the patient’s anatomy is started, while the three-dimensional model of the navigation pointer is additionally displayed on the computer screen, while the position and orientation of the three-dimensional model of the navigation pointer relative to the patient’s anatomy models corresponds to the physical position of the pointer relative to the anatomical surface patient, at the stage of surgical intervention, use a navigation pointer to search for anatomists of interest structures, access points to them, the directions of their location relative to the access point, the distance to them, as well as to limit the area of surgical access, while focusing on the image on a computer screen or in augmented reality glasses, a navigation pointer is set in the surgical access area in this way so that the anatomical structure of interest is on the continuation line of the pointer, while the distance to the anatomical structure in millimeters is displayed on the screen, and to limit the area These surgical access, focusing on the image on a computer screen or in augmented reality glasses, move the navigation pointer so that the continuation line of the pointer moves along the contour of the anatomical structure of interest, the pointer is moved along the projection line of the anatomical structure of interest on the body surface and outline the area of the upcoming surgical access after which they perform a surgical operation, during which, if necessary, establish a new access point and adjust the area access. Knowing the exact access area allows the surgeon to reduce the amount of injured tissue.
Комплекс оборудования для осуществления хирургической операции с использованием дополненной реальности содержит блок камер, установленный над операционным полем и включающий камеру дополненной реальности и ToF-камеру, стереокамеру, работающую в инфракрасном диапазоне длин волн, очки дополненной реальности, содержащие пульт управления, связанные с компьютером, и маркеры, при этом стереокамера установлена таким образом, что в область ее видимости попадают маркеры, выполненные сферическими и отражающими, расположенные на блоке камер, навигационной указке, очках дополненной реальности и базовом маркере системы координат, причем конфигурация маркеров на каждом из них отлична от других, базовый маркер системы координат неподвижно закреплен на черепном зажиме или операционном столе, а компьютер снабжен ножным контроллером в виде блока с педалями. The complex of equipment for carrying out a surgical operation using augmented reality includes a camera unit mounted above the surgical field and including an augmented reality camera and a ToF camera, a stereo camera operating in the infrared wavelength range, augmented reality glasses containing a control panel connected to a computer, and markers, while the stereo camera is installed in such a way that markers made of spherical and reflective located on the camera block fall on its scope igatsionnoy orders, glasses augmented reality marker and the base coordinate system, wherein the configuration of the markers in each of them is different from the other, the base coordinate system of the marker is fixedly secured to the cranial clamp or operating table, and the computer is provided with a foot controller as a unit with pedals.
В предлагаемом изобретении недостатки ближайшего аналога решаются на основе следующих действий: 1) разделение процесса первоначального определения положения пациента и процесса отслеживания изменений положения пациента; 2) использование для определения положения пациента вспомогательных инструментов - навигационной указки и базового маркера системы координат. Первоначальное определение положения пациента выполняется с помощью навигационной указки. Навигационная указка позволяет указывать ключевые точки, как на открытой, так и на закрытой операционным бельём поверхности тела пациента, а также внутри раны, в пределах длины указки. Использование навигационной указки не создаёт помех для продолжения хирургического вмешательства. Отслеживание изменений положения пациента выполняется с помощью базового маркера системы координат, либо с помощью ToF-камеры. Базовый маркер системы координат не требуется закреплять на поверхности тела пациента, достаточно закрепить его неподвижно относительно операционного поля: например, к рельсам операционного стола или к черепному зажиму. Базовый маркер может быть поднят над операционным бельём для обеспечения его прямой видимости для стереокамеры. ToF-камера в предлагаемом изобретении используется для сканирования объектов, не обязательно являющихся поверхностью тела пациента, однако неподвижных относительно операционного поля: хирургического стола, закреплённого над столом оборудования (например, инструментального столика), операционного белья, укрывающего тело пациента. Сопоставление изображений со стереокамеры с предоперационными или интраоперационными изображениями КТ или МРТ выполняется только на этапе первоначального определения положения пациента. При отслеживании изменений положения пациента предоперационные или интраоперационные изображения КТ или МРТ не используются, вместо этого выполняется анализ изменений положения базового маркера системы координат в поле зрения стереокамеры, и объектов в поле зрения ToF-камеры. Тем самым достигается возможность коррекции положения пациента при отсутствии прямой видимости тела пациента или его части для камер, что позволяет избежать повторного выполнения регистрации, и тем самым сократить время операции. Таким образом, способ подготовки и выполнения хирургической операции с использованием дополненной реальности и комплекс оборудования для её осуществления позволяет сократить время операции, уменьшить область хирургического вмешательства и минимизировать повреждения окружающих здоровых тканей.In the present invention, the disadvantages of the closest analogue are solved on the basis of the following actions: 1) separation of the process of initial determination of the patient’s position and the process of tracking changes in the patient’s position; 2) the use of auxiliary tools for determining the position of the patient - a navigation pointer and a base marker of the coordinate system. Initial determination of the patient’s position is done using the navigation pointer. The navigation pointer allows you to indicate key points, both on the surface of the patient’s body open and closed by operating linen, as well as inside the wound, within the length of the pointer. Using a navigation pointer does not interfere with the continuation of surgery. Tracking changes in the patient’s position is performed using the base marker of the coordinate system, or using the ToF camera. The base marker of the coordinate system does not need to be fixed on the surface of the patient’s body, it is enough to fix it motionless relative to the surgical field: for example, to the rails of the operating table or to the cranial clamp. The base marker can be raised above the operating linen to ensure its direct visibility to the stereo camera. The ToF camera in the present invention is used to scan objects that are not necessarily the surface of the patient’s body, but are stationary relative to the surgical field: a surgical table fixed above the equipment table (for example, an instrument table), operating linen that covers the patient’s body. Comparison of images from a stereo camera with preoperative or intraoperative images of CT or MRI is performed only at the stage of initial determination of the patient's position. When tracking changes in the patient’s position, preoperative or intraoperative CT or MRI images are not used; instead, an analysis is made of changes in the position of the base marker of the coordinate system in the field of view of the stereo camera and objects in the field of view of the ToF camera. Thereby, it is possible to correct the position of the patient in the absence of direct visibility of the patient's body or its part for the cameras, which allows to avoid re-registration, and thereby reduce the time of surgery. Thus, the method of preparing and performing a surgical operation using augmented reality and the complex of equipment for its implementation can reduce the time of surgery, reduce the area of surgical intervention and minimize damage to surrounding healthy tissues.
Суть технического решения поясняется изображениями, где на фигуре 1 представлена схема взаимосвязи следующих устройств: навигационная указка 1, базовый маркер системы координат 2, блок камер – ToF-камеры и камеры дополненной реальности 3, стереокамера 4, очки дополненной реальности 5, монитор 6, компьютер 7, ножной контроллер 8, клавиатура и мышь 9.На фигуре 2 изображена стереокамера 4. На фигуре 3 изображен блок камер 3. На фигуре 4 изображена навигационная указка 1. На фигуре 5 изображен базовый маркер системы координат 2. На фигуре 6 изображены очки дополненной реальности 5.The essence of the technical solution is illustrated by the images, where figure 1 shows the interconnection of the following devices:
Способ подготовки осуществляется следующим образом. На этапе планирования хирургической операции пациент проходит процедуру компьютерной томографии или магнитно-резонансной томографии. В результате такой процедуры рабочая станция томографа формирует трёхмерное растровое изображение индивидуальной анатомии пациента в формате DICOM. Из уровня техники [https://www.dicomstandard.org/about/] известен стандарт DICOM – медицинский отраслевой стандарт, регламентирующий создание, хранение, передачу и визуализацию цифровых медицинских изображений и метаданных. Набор файлов DICOM передаётся на компьютер 7 комплекса планирования, управления и контроля результатов хирургического лечения. Используя полученные данные, врач-рентгенолог с помощью программного обеспечения выполняет сегментацию (построение контура) и трехмерную реконструкцию (построение трёхмерной модели поверхности) всех анатомических структур, которые представляют интерес для хирурга в предстоящей операции. Примерами таких анатомических структур являются новообразования, сосуды, кости скелета, поверхность тела пациента. Далее на основе полученной 3D-модели хирург планирует предстоящую операцию. На этапе хирургической навигации происходит процесс определения матрицы трансформации координат между системой координат стереокамеры и системой координат томографа, в котором пациент проходил диагностику. Такая трансформация необходима, потому что координаты трёхмерных моделей поверхности, построенных по результатам КТ и/или МРТ, заданы в системе координат томографа, а положение навигационной указки1 и пациента заданы в системе координат стереокамеры. В программном обеспечении комплекса из всех подготовленных трёхмерных моделей поверхности анатомических структур выбирается одна модель, которая будет использоваться для регистрации. На поверхности выбранной модели с помощью мыши 9 устанавливаются три ключевые точки. Точки устанавливаются на анатомических ориентирах, видимых на экране монитора 6 компьютера 7 на трехмерной модели, и при этом видимых или осязаемых на теле пациента – например, на характерных бугорках и впадинах костей. Точки выбираются таким образом, чтобы они образовали треугольник. Не допускается, чтобы точки находились на одной линии. После установки трёх ключевых точек на трёхмерной модели поверхности хирург указывает те же точки в той же последовательности на теле пациента с помощью навигационной указки. Для этого хирург ставит кончик указки 1 в каждую из точек и нажимает кнопку мыши 9, клавишу клавиатуры или педаль ножного контроллера 8, чтобы зафиксировать позицию точки. После установки трёх ключевых точек хирург, при необходимости, может указать с помощью указки 1 дополнительные точки, находящиеся на поверхности той же анатомической структуры, что и ключевые. Указание дополнительных точек позволяет повысить точность регистрации. После указания точек на теле пациента хирург запускает регистрацию с помощью кнопки мыши 9, клавиши клавиатуры или педали ножного контроллера 8, после чего происходит процесс регистрации двух наборов точек. Первый набор точек указан навигационной указкой 1 на поверхности тела пациента, а второй набор точек получен при трёхмерной реконструкции анатомических моделей, при этом три такие точки отмечены как ключевые. После выполнения регистрации на экране монитора 6, кроме трёхмерных моделей анатомии пациента, отображается трёхмерная модель навигационной указки 1. Положение и ориентация модели указки относительно моделей анатомии пациента соответствует положению физической указки 1 относительно пациента. На этапе хирургического вмешательства, хирург может управлять видимостью и прозрачностью отдельных моделей – кожи, костей, органов, новообразований в них, сосудов, тем самым получая представление об их расположении относительно указки, даже если в операционном поле эти анатомические структуры скрыты от глаз. Хирургу доступны следующие режимы отображения модели навигационной указки: вид на указку 1 и пациента со стороны; вид на пациента из позиции кончика указки 1; вид модели указки на плоских срезах КТ и/или МРТ. Также хирургу доступно измерение кратчайшего расстояния от текущего положения кончика указки 1 до выбранной трёхмерной модели анатомии пациента, например, до новообразования. В ходе операций с системой навигации, после выполнения регистрации, у хирургов часто возникает необходимость регулировки высоты, поворота и конфигурации стола, при этом пациент смещается относительно стереокамеры 4. В таких случаях, чтобы избежать повторное выполнение регистрации, в комплексе может использоваться одно из двух дополнительных устройств – базовый маркер системы координат 2 или ToF-камера, входящая в состав блока камер 3. Базовый маркер системы координат 2 (фиг.5) снабжен набором сферических отражающих маркеров. При изменении положения пациента базовый маркер 2 смещается вместе с пациентом. Программное обеспечение на основе различия между старым и новым положением базового маркера 2 соответствующим образом корректирует матрицу трансформации, полученную в результате первоначальной регистрации, и таким образом исключает потребность в повторной регистрации. ToF-камера входящая в состав блока камер 3 определяет расстояние до ближайшей к ней поверхности на основе известной скорости света и времени между излучением светового сигнала и получением отраженного сигнала. Результатом работы ToF-камеры является карта глубины, которая может быть представлена в виде облака точек. Выполняя сравнение двух облаков точек – до и после перемещения пациента, программное обеспечение сначала рассчитывает матрицу трансформации, соответствующую такому перемещению, а затем с её помощью корректирует матрицу трансформации, полученную в результате первоначальной регистрации, также исключая потребность в повторном проведении регистрации.The preparation method is as follows. At the stage of planning a surgical operation, the patient undergoes computed tomography or magnetic resonance imaging. As a result of this procedure, the tomograph workstation generates a three-dimensional raster image of the individual patient anatomy in the DICOM format. From the prior art [https://www.dicomstandard.org/about/], the DICOM standard is known - the medical industry standard governing the creation, storage, transmission and visualization of digital medical images and metadata. The DICOM file set is transferred to computer 7 of the complex for planning, managing and monitoring the results of surgical treatment. Using the data obtained, the radiologist using the software performs segmentation (contouring) and three-dimensional reconstruction (building a three-dimensional surface model) of all anatomical structures that are of interest to the surgeon in the upcoming operation. Examples of such anatomical structures are neoplasms, blood vessels, skeleton bones, and the surface of a patient's body. Further, based on the obtained 3D-model, the surgeon plans the upcoming operation. At the stage of surgical navigation, the process of determining the coordinate transformation matrix between the coordinate system of the stereo camera and the coordinate system of the tomograph in which the patient underwent diagnostics takes place. Such a transformation is necessary because the coordinates of three-dimensional surface models based on the results of CT and / or MRI are specified in the coordinate system of the tomograph, and the position of the navigation pointer1 and the patient are specified in the coordinate system of the stereo camera. In the complex software, from all prepared three-dimensional surface models of anatomical structures, one model is selected that will be used for registration. Three key points are set on the surface of the selected
Хирургическая операция с использованием дополненной реальности осуществляется следующим образом. После выполнения регистрации, хирург использует навигационную указку 1 для поиска интересующих анатомических структур: точки доступа к ним, направления их расположения относительно точки доступа, расстояния до них, а также для ограничения области хирургического доступа (разъединения тканей). Примерами анатомических структур являются опухоли или гематомы мозга, поражённые аденомой паращитовидные железы, новообразования в канале трубчатых костей, травматические повреждения костей. Хирург перемещает указку 1 по поверхности тела (до начала хирургического доступа) или в операционном поле (в процессе хирургического доступа) и наклоняет её, наблюдая трёхмерную модель указки, линию продолжения указки и трёхмерные модели анатомии пациента на экране или в очках дополненной реальности. Для поиска анатомической структуры, ориентируясь на изображение на экране 6 или в очках дополненной реальности 5 (фиг.6), хирург устанавливает навигационную указку 1 так, чтобы интересующая его анатомическая структура находилась на линии продолжения указки, видит на экране 6 расстояние в миллиметрах до интересующей структуры. Переводя взгляд с экрана 6 на операционное поле и саму указку 1, хирург видит её направление и понимает, что интересующая его анатомическая структура находится в этом направлении, на глубине, соответствующей расстоянию, которое он видел на экране 6. Для ограничения области хирургического доступа, ориентируясь на изображение на экране 6 или в очках дополненной реальности 5, хирург перемещает навигационную указку 1 так, чтобы линия продолжения указки 1 двигалась вдоль контура интересующей его анатомической структуры. При этом указка 1 в руках хирурга двигается по линии проекции интересующей анатомической структуры на поверхность тела, и очерчивает область предстоящего хирургического доступа. Переводя взгляд с экрана 6 на операционное поле, наблюдая движение указки 1 в операционном поле, хирург видит границу области предстоящего хирургического доступа. Использование при операции дополненной реальности не меняет совокупности действий хирурга и последовательности их выполнения, но позволяет уменьшить количество и величину перемещений взгляда хирурга между монитором и операционным полем. При использовании камеры дополненной реальности, входящей в блок камер 3, хирург видит изображение операционного поля за трёхмерными моделями на экране 6, и, если такого изображения достаточно, не перемещать взгляд на операционное поле. При использовании очков дополненной реальности 5, хирург видит изображение моделей через прозрачные объединители очков 5, поверх изображения операционного поля, и может переводить взгляд с операционного поля на модели не поворачивая головы, а только фокусируя взгляд попеременно на операционном поле и на объединителях очков дополненной реальности 5. После определения точки и/или области хирургического доступа хирург приостанавливает использование навигации и выполняет операцию традиционным способом до того момента, когда для продолжения доступа ему становится необходимо уточнить направление или расстояния доступа, выбрать новую точку доступа или скорректировать область доступа. Таким образом, система дополненной реальности доступна хирургу на всём протяжении операции, может быть использована в любой момент, но потребность в её использовании не постоянна, а возникает периодически. При этом необходимость просмотра трёхмерных моделей анатомических структур в ходе операции и необходимость навигации с помощью указки 1 могут возникать независимо друг от друга.Surgery using augmented reality is as follows. After completing registration, the surgeon uses
Комплекс оборудования для подготовки и выполнения хирургических операций с использованием дополненной реальности используется следующим образом. Оборудование комплекса размещается в операционной. Базовый маркер системы координат 2 закрепляется к оборудованию операционной, неподвижному относительно операционного поля, например, к черепному зажиму или кронштейнам операционного стола. Хирург надевает очки дополненной реальности 5 и берёт в руки навигационную указку 1. Блок камер 3 размещается над операционным полем, а стереокамера 4 размещается так, чтобы в области её видимости находилось всё оборудование комплекса, оснащённое сферическими отражающими маркерами: навигационная указка 1, базовый маркер системы координат 2, очки дополненной реальности 5, блок камер 3. Конфигурация сферических отражающих маркеров у каждого устройства уникальна, что позволяет программному обеспечению отличать устройства друг от друга на изображениях со стереокамеры. Навигационная указка 1 является медицинским инструментом, для которого требуется регулярная предстерилизационная очистка и стерилизация. Размещение внутри указки камеры с необходимыми для её работы элементами питания и модулями беспроводной передачи данных требует обеспечения герметичности корпуса и увеличения его размеров, добавляя ограничение на время автономной работы. В результате усложняется проектирование и увеличивается стоимость устройства, а удобство использования снижается. По этим причинам в составе комплекса используется пассивная оптическая навигационная указка 1. Очки дополненной реальности 5, так же как и камера дополненной реальности, позволяют хирургу совместить просмотр трёхмерных моделей анатомии пациента и операционного поля. В отличие от камеры дополненной реальности, которая добавляет изображение операционного поля в окно просмотра трёхмерных моделей, очки дополненной реальности позволяют добавить изображение трёхмерных моделей в поле зрения хирурга, смотрящего на операционное поле. Очки дополненной реальности 5 (фиг. 6) состоят из оголовья и блока управления. На оголовье закреплены электронные модули формирования изображения и прозрачные объединители, выполняющие совмещение световых лучей, поступающих извне с лучами, формируемыми модулями очков дополненной реальности 5. Настройка яркости и цветопередачи изображения, формируемого модулями очков, возможна с помощью блока управления. Очки работают в стереоскопическом режиме. Очки 5 снабжены набором сферических отражающих маркеров, позволяющих программному обеспечению на основе изображения со стереокамеры 3 определить положение головы хирурга в системе координат стереокамеры. Матрица трансформации, полученная в результате регистрации, позволяет преобразовать координаты головы и направление взгляда хирурга из системы координат стереокамеры в систему координат томографа, в которой построены все трёхмерные модели анатомии пациента, и отобразить эти модели в очках дополненной реальности 5.A set of equipment for the preparation and execution of surgical operations using augmented reality is used as follows. The equipment of the complex is located in the operating room. The base marker of the coordinate
Предложенное техническое решение позволяет сократить время проведения операции за счёт ускорения поиска интересующих анатомических структур и уменьшить травматичность операции за счёт уменьшения области хирургического доступа до минимально необходимых размеров и за счёт поиска интересующих анатомических структур без повреждения тканей. В результате уменьшается количество осложнений и сокращается время на реабилитацию пациента после операции.The proposed technical solution allows to reduce the time of the operation by speeding up the search for anatomical structures of interest and reducing the invasiveness of the operation by reducing the area of surgical access to the minimum required size and by searching for the anatomical structures of interest without damaging the tissues. As a result, the number of complications decreases and the time for patient rehabilitation after surgery is reduced.
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019105661A RU2707369C1 (en) | 2019-02-27 | 2019-02-27 | Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019105661A RU2707369C1 (en) | 2019-02-27 | 2019-02-27 | Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2707369C1 true RU2707369C1 (en) | 2019-11-26 |
Family
ID=68652969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019105661A RU2707369C1 (en) | 2019-02-27 | 2019-02-27 | Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2707369C1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2716480C1 (en) * | 2019-08-21 | 2020-03-11 | Федеральное государственное бюджетное учреждение "Национальный медицинский исследовательский центр сердечно-сосудистой хирургии имени А.Н. Бакулева" Министерства здравоохранения Российской Федерации | Surgical set for training operations on heart and vessels in conditions of artificial blood circulation |
CN111242881A (en) * | 2020-01-07 | 2020-06-05 | 北京字节跳动网络技术有限公司 | Method, device, storage medium and electronic equipment for displaying special effects |
RU2736800C1 (en) * | 2020-06-23 | 2020-11-20 | Марк Феликсович Дорфман | Method for preparation and performing of surgical operation on small pelvis organs |
CN112487576A (en) * | 2020-11-26 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | Pipeline reverse modeling method |
RU2754288C1 (en) * | 2020-10-06 | 2021-08-31 | Владимир Михайлович Иванов | Method for preparing for and performing a surgical operation on the head using mixed reality |
CN113520619A (en) * | 2021-08-26 | 2021-10-22 | 重庆市妇幼保健院 | Marking element for registering three-dimensional medical image system and binocular vision system and assembling method thereof |
RU2757991C2 (en) * | 2020-07-06 | 2021-10-25 | Общество с ограниченной ответственностью "Толикети" | Method for automated control of a robotic operational exoscope |
CN114098797A (en) * | 2020-08-26 | 2022-03-01 | 通用电气精准医疗有限责任公司 | Method and system for providing anatomical orientation indicators |
RU2766396C1 (en) * | 2021-04-30 | 2022-03-15 | Александр Григорьевич ВИЛЛЕР | Percutaneous vascular puncture system and method |
CN115645044A (en) * | 2022-11-04 | 2023-01-31 | 福州大学 | Oral implant image superposition method based on no-marker |
RU2823108C1 (en) * | 2023-12-05 | 2024-07-18 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации | Spinal neurosurgery instrument set for use with surgical navigation system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150248793A1 (en) * | 2013-07-12 | 2015-09-03 | Magic Leap, Inc. | Method and system for facilitating surgery using an augmented reality system |
US20160191887A1 (en) * | 2014-12-30 | 2016-06-30 | Carlos Quiles Casas | Image-guided surgery with surface reconstruction and augmented reality visualization |
RU2625940C1 (en) * | 2016-04-23 | 2017-07-19 | Виталий Витальевич Аверьянов | Method of impacting on virtual objects of augmented reality |
US20180046874A1 (en) * | 2016-08-10 | 2018-02-15 | Usens, Inc. | System and method for marker based tracking |
US20180168740A1 (en) * | 2016-08-16 | 2018-06-21 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
-
2019
- 2019-02-27 RU RU2019105661A patent/RU2707369C1/en not_active IP Right Cessation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150248793A1 (en) * | 2013-07-12 | 2015-09-03 | Magic Leap, Inc. | Method and system for facilitating surgery using an augmented reality system |
US20160191887A1 (en) * | 2014-12-30 | 2016-06-30 | Carlos Quiles Casas | Image-guided surgery with surface reconstruction and augmented reality visualization |
RU2625940C1 (en) * | 2016-04-23 | 2017-07-19 | Виталий Витальевич Аверьянов | Method of impacting on virtual objects of augmented reality |
US20180046874A1 (en) * | 2016-08-10 | 2018-02-15 | Usens, Inc. | System and method for marker based tracking |
US20180168740A1 (en) * | 2016-08-16 | 2018-06-21 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
Non-Patent Citations (1)
Title |
---|
КОЛСАНОВ А.В. и др. Виртуальное моделирование операции на печени на основе данных компьютерной томографии. АННАЛЫ ХИРУРГИЧЕСКОЙ ГЕПАТОЛОГИИ, 2016, т.21, no.4, с.16-22. * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2716480C1 (en) * | 2019-08-21 | 2020-03-11 | Федеральное государственное бюджетное учреждение "Национальный медицинский исследовательский центр сердечно-сосудистой хирургии имени А.Н. Бакулева" Министерства здравоохранения Российской Федерации | Surgical set for training operations on heart and vessels in conditions of artificial blood circulation |
CN111242881A (en) * | 2020-01-07 | 2020-06-05 | 北京字节跳动网络技术有限公司 | Method, device, storage medium and electronic equipment for displaying special effects |
RU2736800C1 (en) * | 2020-06-23 | 2020-11-20 | Марк Феликсович Дорфман | Method for preparation and performing of surgical operation on small pelvis organs |
RU2757991C2 (en) * | 2020-07-06 | 2021-10-25 | Общество с ограниченной ответственностью "Толикети" | Method for automated control of a robotic operational exoscope |
CN114098797A (en) * | 2020-08-26 | 2022-03-01 | 通用电气精准医疗有限责任公司 | Method and system for providing anatomical orientation indicators |
CN114098797B (en) * | 2020-08-26 | 2024-05-14 | 通用电气精准医疗有限责任公司 | Method and system for providing anatomical orientation indicators |
RU2754288C1 (en) * | 2020-10-06 | 2021-08-31 | Владимир Михайлович Иванов | Method for preparing for and performing a surgical operation on the head using mixed reality |
CN112487576A (en) * | 2020-11-26 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | Pipeline reverse modeling method |
CN112487576B (en) * | 2020-11-26 | 2024-04-02 | 新拓三维技术(深圳)有限公司 | Pipeline reverse modeling method |
RU2766396C1 (en) * | 2021-04-30 | 2022-03-15 | Александр Григорьевич ВИЛЛЕР | Percutaneous vascular puncture system and method |
CN113520619A (en) * | 2021-08-26 | 2021-10-22 | 重庆市妇幼保健院 | Marking element for registering three-dimensional medical image system and binocular vision system and assembling method thereof |
CN115645044A (en) * | 2022-11-04 | 2023-01-31 | 福州大学 | Oral implant image superposition method based on no-marker |
RU2823108C1 (en) * | 2023-12-05 | 2024-07-18 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации | Spinal neurosurgery instrument set for use with surgical navigation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2707369C1 (en) | Method for preparing and performing a surgical operation using augmented reality and a complex of equipment for its implementation | |
US11883118B2 (en) | Using augmented reality in surgical navigation | |
KR102014355B1 (en) | Method and apparatus for calculating location information of surgical device | |
JP6400793B2 (en) | Generating image display | |
Bichlmeier et al. | The virtual mirror: a new interaction paradigm for augmented reality environments | |
Sielhorst et al. | Advanced medical displays: A literature review of augmented reality | |
Gavaghan et al. | A portable image overlay projection device for computer-aided open liver surgery | |
EP2951779B1 (en) | Three-dimensional image segmentation based on a two-dimensional image information | |
ES2292593T3 (en) | GUIDING SYSTEM | |
US20110105895A1 (en) | Guided surgery | |
JP5934070B2 (en) | Virtual endoscopic image generating apparatus, operating method thereof, and program | |
WO2023246521A1 (en) | Method, apparatus and electronic device for lesion localization based on mixed reality | |
Galloway Jr et al. | Image display and surgical visualization in interactive image-guided neurosurgery | |
Bichlmeier et al. | Laparoscopic virtual mirror for understanding vessel structure evaluation study by twelve surgeons | |
KR20230059159A (en) | Apparatus and method for positioning a patient's body and tracking the patient's position during surgery | |
RU2754288C1 (en) | Method for preparing for and performing a surgical operation on the head using mixed reality | |
EP3782529A1 (en) | Systems and methods for selectively varying resolutions | |
Hirai et al. | Image-guided neurosurgery system integrating AR-based navigation and open-MRI monitoring | |
Hawkes et al. | Three-dimensional multimodal imaging in image-guided interventions | |
CN115363751B (en) | Intraoperative anatomical structure indication method | |
Jing et al. | Navigating system for endoscopic sinus surgery based on augmented reality | |
JP7495216B2 (en) | Endoscopic surgery support device, endoscopic surgery support method, and program | |
Kersten-Oertel et al. | 20 Augmented Reality for Image-Guided Surgery | |
Giraldez et al. | Multimodal augmented reality system for surgical microscopy | |
Wang et al. | Tumor Displacement Prediction and Augmented Reality Visualization in Brain Tumor Resection Surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20210228 |