RU2732735C1 - Method for monitoring patient's position and breath using set of infrared depth sensors - Google Patents

Method for monitoring patient's position and breath using set of infrared depth sensors Download PDF

Info

Publication number
RU2732735C1
RU2732735C1 RU2019134415A RU2019134415A RU2732735C1 RU 2732735 C1 RU2732735 C1 RU 2732735C1 RU 2019134415 A RU2019134415 A RU 2019134415A RU 2019134415 A RU2019134415 A RU 2019134415A RU 2732735 C1 RU2732735 C1 RU 2732735C1
Authority
RU
Russia
Prior art keywords
patient
sensors
coordinate system
calibration
data
Prior art date
Application number
RU2019134415A
Other languages
Russian (ru)
Inventor
Павел Вячеславович Скрибцов
Михаил Алексеевич Червоненскис
Алина Андреевна Землевская
Тенгиз Константинович Лобжанидзе
Original Assignee
Акционерное общество "Научно-исследовательский институт технической физики и автоматизации" (АО "НИИТФА")
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Акционерное общество "Научно-исследовательский институт технической физики и автоматизации" (АО "НИИТФА") filed Critical Акционерное общество "Научно-исследовательский институт технической физики и автоматизации" (АО "НИИТФА")
Priority to RU2019134415A priority Critical patent/RU2732735C1/en
Application granted granted Critical
Publication of RU2732735C1 publication Critical patent/RU2732735C1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)

Abstract

FIELD: medicine.
SUBSTANCE: invention refers to medical equipment, namely to patient's breathing control systems in radiation therapy complexes, and can be used for monitoring of patient's position in other clinical conditions. Disclosed is a method which includes using a computer to perform the following actions: primary capture and preprocessing of video streams, self-testing, data visualization, calibrating infrared sensors and creating a three-dimensional coordinate system with X, Y, Z axes, calculating a three-dimensional representation of clouds of the patient's depth points with X, Y, Z coordinates. Performing the patient's area of interest selection of the patient's surface, calculating the mass centres of the plurality of cloud points of the region of interest and reconstructing the surface, phase calculation and indication of the patient's chest surface amplitude of upper and lower limits, patient's body surface registration, integration with the control system. Complex data are used from at least two infrared depth sensors, processing of which increases accuracy of measurements, calibration of infrared depth sensors is carried out using an ArUco marker object, wherein calibration occurs once in a specified time period without patient presence, patient's chest surface motion amplitude is calculated along the vertical axis Z of the three-dimensional coordinate system formed using an ArUco marker object and having a vertical axis Z perpendicular to the horizontal plane of the patient's table, an X axis extending along the patient's table, an Y axis running perpendicular to the longitudinal axis of the patient's X-table, the center of the coordinate system is determined by the position of the ArUco marker object, data are obtained in the form of angles of rotation and displacements for positioning the patient as a result of using the recording process.
EFFECT: invention provides higher accuracy of calculated respiratory phase and its interpolation indicating the upper and lower limits of the movement amplitude of the patient's chest surface along the vertical axis Z, perpendicular to the horizontal plane of the patient's desk of the coordinate system formed using the ArUco marker object, obtained angle of rotation and values of displacements, as a result of comparing the reference image with the current image of the patient's position for monitoring the patient's position, and more accurate determination of patient displacements by using data from at least two remote sensors.
1 cl, 5 dwg

Description

Изобретение относится к медицинской технике, а именно к системам контроля дыхания пациента в комплексах лучевой терапии, и может быть использовано для контроля положения пациента в других клинических условиях.The invention relates to medical equipment, namely to systems for monitoring the patient's breathing in radiation therapy complexes, and can be used to control the patient's position in other clinical conditions.

В качестве прототипа выбирается патент на изобретение US 2019209871 (А1) «Способ бесконтактного измерения и калибровки системы позиционирования пациента при радиотерапии в реальном времени». Способ включает вычисление трехмерного представления облака точек пациента с помощью камеры для получения точек глубины пациента, где направление Z соответствует направлению вдоль фокусной дистанции камеры, требующее предельных значений по оси Z, которые соответствуют нижней (Z-min) и верхней (Z-max) спецификации, вычисление ковариации облака точек и среднего значения облака точек для оптимизированного анализа компонентов принципа для вычисления топографии туловища пациента, определение центральной точки облака точек в качестве опорной области измерения и использование камеры для определения расстояния до пациента для установления угла между туловищем пациента и вектором, перпендикулярным камере, усреднение измерений глубины в опорных областях и компенсацию ошибки от параллакса в режиме реального времени во время калибровочного измерения или плана лучевой терапии.The patent for invention US 2019209871 (A1) "Method for non-contact measurement and calibration of patient positioning system during radiotherapy in real time" is chosen as a prototype. The method includes computing a three-dimensional representation of a patient's point cloud using a camera to obtain patient depth points, where the Z direction corresponds to the direction along the focal distance of the camera, requiring Z-axis limit values that correspond to the lower (Z-min) and upper (Z-max) specifications , calculating point cloud covariance and point cloud mean for optimized component analysis of the principle for calculating the topography of the patient's torso, determining the center point of the point cloud as a reference measurement area and using the camera to determine the distance to the patient to establish the angle between the patient's torso and the vector perpendicular to the camera , averaging depth measurements in reference areas and compensating for parallax errors in real time during a calibration measurement or a radiation therapy plan.

Техническим результатом является повышение точности рассчитанной фазы дыхания и ее интерполяция с указанием верхнего и нижнего пределов амплитуды движения поверхности грудной клетки пациента по вертикальной оси Z, перпендикулярной горизонтальной плоскости стола пациента системы координат, образованной с использованием маркерного объекта ArUco, получаемые угол поворота и величины смещений, в результате сопоставления референсного изображения с текущим изображением положения пациента для контроля положения пациента и повышение точности определения смещений пациента за счет использования данных не менее чем от двух дистанционных датчиков.The technical result is an increase in the accuracy of the calculated breathing phase and its interpolation with indication of the upper and lower limits of the amplitude of movement of the patient's chest surface along the vertical Z axis, perpendicular to the horizontal plane of the patient's table of the coordinate system formed using the ArUco marker object, the obtained rotation angle and displacement values, as a result of comparing the reference image with the current image of the patient's position to control the patient's position and increasing the accuracy of determining the patient's displacements by using data from at least two remote sensors.

Указанный технический результат достигается за счет применения не менее двух дистанционных датчиков, комплексирования данных не менее чем с двух дистанционных датчиков, а также за счет сопоставления референсного изображения с текущим изображением положения пациента.The specified technical result is achieved by using at least two remote sensors, combining data from at least two remote sensors, as well as by comparing the reference image with the current image of the patient's position.

На рис. 1 изображена структурная схема программно-аппаратного комплекса (ПАК), предназначенного для контроля положения и дыхания пациента и имеющего в своем составе 2 модуля инфракрасных датчиков глубины и компьютер с установленными программными модулями. Датчики и компьютер соединены между собой интерфейсом USB3.1 Gen 1.In fig. 1 shows a block diagram of a hardware-software complex (PAC) designed to control the position and breathing of a patient and which includes 2 modules of infrared depth sensors and a computer with installed software modules. The sensors and the computer are interconnected by a USB3.1 Gen 1 interface.

На рис. 2 показана схема калибровки с использованием маркерного объекта ArUco.In fig. 2 shows the calibration scheme using the ArUco marker object.

Маркерный объект ArUco, представляющий собой напечатанный бумажный лист с кодами ArUco, выкладывают в любое место поверхности стола пациента. После запуска и прохождения процесса калибровки инфракрасные датчики глубины начинают выдавать координаты относительно центра системы координат расположения маркерного объекта ArUco.The ArUco marker object, which is a printed paper sheet with ArUco codes, is placed anywhere on the patient table surface. After starting and passing the calibration process, infrared depth sensors begin to give coordinates relative to the center of the coordinate system of the location of the ArUco marker object.

На рис. 3 показаны синусообразная кривая дыхания пациента, выводящаяся в окно графического интерфейса пользователя программы, а также уровни верхнего и нижнего пределов. Данные уровни вычисляются на этапе обучения. Выход кривой за верхний или нижний пределы, а также изменение частоты колебаний сигнализируют об изменении состояния пациента (кашель, смех, поворот тела).In fig. 3 shows a sinusoidal patient respiration curve displayed in the program's GUI window, as well as the upper and lower limit levels. These levels are calculated at the training stage. The curve going beyond the upper or lower limits, as well as a change in the oscillation frequency, signal a change in the patient's condition (coughing, laughing, turning the body).

На рис. 4 показаны размещение пациента и выделяемая врачом область интереса пациента на карте глубин, формируемой инфракрасными датчиками.In fig. 4 shows the location of the patient and the area of interest of the patient highlighted by the physician on a depth map generated by infrared sensors.

На рис. 5 показано созданное облако точек контролируемой поверхности.In fig. 5 shows the created cloud of points of the controlled surface.

Для определения фазы дыхания пациента и контроля положения пациента используется программно-аппаратный комплекс (ПАК), имеющий в своем составе набор не менее чем из двух инфракрасных датчиков глубины.To determine the patient's breathing phase and control the patient's position, a hardware-software complex (PAK) is used, which includes a set of at least two infrared depth sensors.

ПАК имеет в своем составе следующие взаимодействующие программные модули:PAK includes the following interacting software modules:

- модуль калибровки массива, состоящего не менее чем из двух инфракрасных датчиков и настройки системы;- module for calibration of the array, consisting of at least two infrared sensors and system settings;

- модуль первичного захвата и предобработки данных;- module of primary data capture and preprocessing;

- модуль самотестирования;- self-testing module;

- модуль визуализации данных;- data visualization module;

- модуль комплексирования сигналов, получаемых не менее чем с двух инфракрасных датчиков, и реконструкции поверхности;- module for complexing signals received from at least two infrared sensors, and surface reconstruction;

- модуль расчета фазы цикла дыхания и пороговых пределов амплитуды;- module for calculating the phase of the breathing cycle and the threshold amplitude limits;

- модуль регистрации положения поверхности тела пациента;- module for recording the position of the patient's body surface;

- модуль интеграции с системой управления.- module for integration with the control system.

Программная реализация модулей ПАК выполнена на языке программирования С++ с использованием:The software implementation of the PAK modules is made in the C ++ programming language using:

- библиотеки алгоритмов компьютерного зрения OpenCV (версия 3.1.0) обработки изображений и численных алгоритмов общего назначения с открытым исходным кодом (Open Source Computer Vision Library, англ.);- libraries of computer vision algorithms OpenCV (version 3.1.0) of image processing and general purpose numerical algorithms with open source code (Open Source Computer Vision Library, English);

- спецификации OpenGL (версия 4.1), определяющей платформонезависимый (независимый от языка программирования) программный интерфейс для написания приложений, использующих двумерную и трехмерную компьютерную графику (Open Graphics Library, англ.);- the OpenGL specification (version 4.1), which defines a platform independent (programming language independent) programming interface for writing applications using two-dimensional and three-dimensional computer graphics (Open Graphics Library, English);

- наборов средств разработки.- development kits.

Модуль калибровкиCalibration module

Калибровка дистанционных датчиков осуществляется путем размещения на столе пациента шаблона с изображением ArUco-кода. Модуль калибровочной программы сравнивает измеренные дистанции до маркерных точек изображения ArUco-кода с эталонными и вносит поправки в калибровочный файл датчика, при этом калибровка происходит один раз в регламентированный период времени без присутствия пациента Процесс калибровки происходит не менее чем по 4 угловым точкам маркерного объекта. Текстовый калибровочный файл содержит значения смещений (в см., шкала 0.02) по трем векторам и матрицу с углами поворотов (в углах Эйлера) для каждого смещения.Remote sensors are calibrated by placing a template with an ArUco code on the patient table. The module of the calibration program compares the measured distances to the marker points of the ArUco-code image with the reference ones and makes corrections to the sensor calibration file, while the calibration occurs once in a specified period of time without the presence of the patient. The calibration process takes place at least 4 corner points of the marker object. The text calibration file contains the displacement values (in cm, scale 0.02) for three vectors and a matrix with rotation angles (in Euler angles) for each displacement.

Алгоритм калибровки имеет следующий порядок действий:The calibration algorithm has the following procedure:

1) Размещение калибровочного маркерного объекта (доска ArUco-маркеров) в выбранной области обзора дистанционных датчиков и фиксирование в неподвижном положении как маркерного объекта, так и дистанционных датчиков.1) Placement of the calibration marker object (ArUco marker board) in the selected field of view of the remote sensors and fixing both the marker object and the remote sensors in a fixed position.

2) Запуск процесса калибровки при входящих потоках данных от n датчиков, учитывающего внутренние аппаратные параметры датчиков, такие как дисторсия и фокусное расстояние. Результатом процесса калибровки являются калибровочные файлы для каждого датчика, используемые в течение всего процесса контроля положения пациента и содержащих матрицы значений углов поворота и вектора смещения.2) Starting the calibration process with incoming data streams from n sensors, taking into account the internal hardware parameters of the sensors, such as distortion and focal length. The result of the calibration process is the calibration files for each transducer, which are used throughout the entire patient position control process and contain matrices of rotation angles and displacement vectors.

Модуль первичного захвата и предобработки данныхPrimary data capture and preprocessing module

Предназначен для получения и обработки потоков данных не менее чем с двух датчиков, которые с помощью встроенного инфракрасного прожектора формируют на поверхности контролируемого объекта облако маркерных точек (рис. 5), инфракрасной видеокамерой создают изображения этих точек и затем определяют расстояния до них по их яркости. Для захвата оптического потока данных используется готовая протестированная и оптимизированная реализация алгоритмов из библиотеки технического зрения OpenCV.Designed to receive and process data streams from at least two sensors, which, using a built-in infrared illuminator, form a cloud of marker points on the surface of the controlled object (Fig. 5), create images of these points with an infrared video camera and then determine the distances to them by their brightness. To capture an optical data stream, a ready-tested and optimized implementation of algorithms from the OpenCV vision library is used.

Данный алгоритм имеет следующий порядок действий:This algorithm has the following procedure:

1) Захват потоков данных не менее чем с двух датчиков, содержащих набор изображений с маркерными точками. Захват осуществляется средствами комплекта средств разработки (SDK). При этом технические параметры датчиков определяются данными конфигурационных файлов.1) Capture data streams from at least two sensors containing a set of images with marker points. The capture is carried out by means of a development kit (SDK). In this case, the technical parameters of the sensors are determined by the data of the configuration files.

2) Формирование облаков маркерных точек из каждого маркерного пикселя соответствующего датчика. Используя данные, содержащиеся в калибровочном файле, вносят поправки в данные о координатах пикселей.2) Formation of marker point clouds from each marker pixel of the corresponding sensor. Using the data contained in the calibration file, the pixel coordinates are corrected.

3) Фильтрация поврежденных пикселей или пикселей, расстояние до которых не определилось. Такие пиксели перестают учитываться модулем.3) Filtration of damaged pixels or pixels, the distance to which is not determined. Such pixels are no longer counted by the module.

4) Фильтрация выбросов или пикселей, выходящих за границы определенного межквартильного размаха выборки, характеризующего степень разброса данных.4) Filtering outliers or pixels outside the boundaries of a certain interquartile range of the sample, which characterizes the degree of data scatter.

5) Приведение значений координат пикселей в миллиметры.5) Converting the pixel coordinate values to millimeters.

Модуль самотестированияSelf-test module

Предназначен для тестирования ПАК. В случае возникновения ошибок они записываются в файл ошибок.Designed for testing PAK. If errors occur, they are written to the error file.

Модуль визуализации данных Выполняет следующие функции:Data visualization module Performs the following functions:

- получения видеопотока данных и загрузки параметров;- receiving video data stream and loading parameters;

- ожидания кадра и перевода его в формат для вывода на экран;- waiting for a frame and translating it into a format for displaying on the screen;

- программных управляющих элементов (кнопок) графического интерфейса модуля;- software control elements (buttons) of the module's graphical interface;

- отсчета времени для воспроизводимого видео;- countdown for the video being played;

- выбора области интереса (ROI) не менее чем с двух инфракрасных датчиков. Модуль комплексирования- selection of the region of interest (ROI) from at least two infrared sensors. Integration module

Происходит процесс комплексирования сигналов не менее чем с двух инфракрасных датчиков и реконструкция поверхности пациента.There is a process of combining signals from at least two infrared sensors and reconstruction of the patient's surface.

Режим интеграции данных не менее чем с двух датчиков, осуществляемый ПО из библиотек технического зрения OpenCV и SDK, называется комплексированием данных, полученных с датчиков в соответствии с учетом калибровочных и конфигурационных файлов. Результатом комплексирования являются изображение трехмерного облака маркерных точек и так называемая карта расстояний, показывающая расстояния от каждого датчика до каждой соответствующей этому датчику маркерной точки.The mode of data integration from at least two sensors, carried out by software from the OpenCV and SDK technical vision libraries, is called the integration of data received from the sensors in accordance with the calibration and configuration files. The result of the integration is an image of a three-dimensional cloud of marker points and the so-called distance map, showing the distances from each sensor to each marker point corresponding to this sensor.

Алгоритм комплексирования сигналов датчиков и реконструкции поверхности имеет следующий порядок действий:The algorithm for combining sensor signals and surface reconstruction has the following procedure:

1) Получение видеопотоков данных не менее чем с двух датчиков и загрузка калибровочных и конфигурационных файлов датчиков.1) Receiving video data streams from at least two sensors and loading sensor calibration and configuration files.

2) Выбор области интереса поверхности тела пациента.2) Selection of the area of interest of the patient's body surface.

3) Получение изображений трехмерных облаков маркерных точек и осуществление преобразования из локальной системы координат каждого датчика в общую для всех датчиков систему координат ArUco.3) Obtaining images of three-dimensional clouds of marker points and carrying out the transformation from the local coordinate system of each sensor to the ArUco coordinate system common to all sensors.

Модуль расчета фазы цикла дыханияBreathing cycle phase calculation module

Для определения одномерной фазы цикла дыхания пациента и установки нижнего и верхнего пределов амплитуды используют программный модуль расчета фазы цикла дыхания, который при помощи интерполяционного полинома второго порядка и периода обучения рассчитывает фазу дыхания и временные метки. Данная амплитуда применяется после обучения для получения фазы дыхания. Для этого данный интервал делится на заданное число фаз (участков), и для текущего значения определяется, в какой интервал попало положение поверхности тела пациента.To determine the one-dimensional phase of the patient's breathing cycle and set the lower and upper amplitude limits, a software module for calculating the phase of the breathing cycle is used, which, using a second-order interpolation polynomial and a training period, calculates the breathing phase and time stamps. This amplitude is applied after training to obtain the breathing phase. To do this, this interval is divided into a specified number of phases (sections), and for the current value, it is determined in which interval the position of the patient's body surface falls.

В случае превышения значений порогов фазы цикла дыхания, установленных оператором, выдается сообщение об ошибке определения фазы цикла дыхания, что сигнализирует об изменении состояния пациента (кашель, смех, поворот тела и др.).If the values of the breathing cycle phase thresholds set by the operator are exceeded, an error message is displayed in determining the breathing cycle phase, which signals a change in the patient's condition (coughing, laughing, turning the body, etc.).

Для определения одномерной фазы цикла дыхания пациента применена полиноминальная функция второго порядка, оценивающая вектор состояния динамической системы с использованием ряда неполных и зашумленных измерений. [URL: https://ru.wikipedia.org/wiki//Целая_рациональная_функция]. Поступающая карта расстояний обрабатывается модулем, содержащим перечисленные алгоритмы. В результате при помощи разработанных функций получаются фаза дыхания и временные метки.To determine the one-dimensional phase of the patient's breathing cycle, a second-order polynomial function was used, which estimates the state vector of a dynamic system using a number of incomplete and noisy measurements. [URL: https://ru.wikipedia.org/wiki//Integral_rational_function]. The incoming distance map is processed by a module containing the listed algorithms. As a result, with the help of the developed functions, the breathing phase and time stamps are obtained.

При построении графика контроля дыхания осуществляется взаимодействие с другими модулями ПАК (с модулем визуализации - выбор области интереса пользователем ПАК, с модулем предварительной фильтрации и захвата - построение карты расстояний и определение центра масс облака точек в области интереса).When constructing a breath control graph, interaction with other PAK modules is carried out (with the visualization module - the selection of an area of interest by the PAK user, with the pre-filtering and capture module - building a distance map and determining the center of mass of the point cloud in the area of interest).

Период обучения составляет 30 с или 5-6 циклов дыхания человека.The training period is 30 s or 5-6 human breathing cycles.

Модуль регистрации положения поверхности тела пациентаPatient body surface position registration module

Происходит регистрация (сопоставление) референсного изображения с текущим изображением положения пациента и рассчитываются углы поворота и величины смещений, используемые для передвижения и поворота стола с пациентом в необходимое положение.The reference image is registered (compared) with the current image of the patient's position and the angles of rotation and displacement values are calculated, which are used to move and rotate the table with the patient to the required position.

С помощью модуля выполняют следующие функции:The module performs the following functions:

- Получают облака точек не менее чем с двух датчиков.- Obtain point clouds from at least two sensors.

- Комплексируют данные облаков точек не менее чем с двух датчиков, переводя их в систему координат маркерного объекта, и сохраняют комплексированные данные. (Эти данные будут считаться референсными.)- The data of the point clouds are combined from at least two sensors, translating them into the coordinate system of the marker object, and the integrated data is saved. (These data will be considered as reference.)

- Получают еще одно комплексированное облако точек с тем же объектом на изображении, но занимающим другое положение, и сохраняют в другой файл.- Another complex point cloud is obtained with the same object in the image, but occupying a different position, and saved to another file.

- С помощью итеративного алгоритма ближайших точек (англ. Iterative Closest Point - ICP) вычисляют поворот и смещение второго облака относительно первого. При этом на экран компьютера и в файл выводится найденное смещение по всем осям и погрешность совмещения в мм.- Using the iterative closest point algorithm (ICP), the rotation and displacement of the second cloud relative to the first are calculated. At the same time, the found displacement along all axes and the alignment error in mm are displayed on the computer screen and in the file.

Модуль интеграцииIntegration module

ПАК посредством стандартных протоколов связи и известного API интегрируют в систему управления радиотерапией.PAK is integrated into the radiotherapy control system by means of standard communication protocols and a well-known API.

Claims (1)

Способ контроля положения и дыхания пациента с применением набора инфракрасных датчиков глубины, включающий использование компьютера для выполнения следующих действий: первичного захвата и предобработки видеопотоков, самотестирования, визуализации данных, калибровки инфракрасных датчиков и создания трехмерной системы координат с осями X, Y, Z, вычисления трехмерного представления облаков точек глубины пациента с координатами X, Y, Z, отличающийся тем, что осуществляют выделение врачом области интереса поверхности пациента, вычисление центров масс множеств точек облаков области интереса и реконструкцию поверхности, расчет фазы и указание верхнего и нижнего пределов амплитуды движения поверхности грудной клетки пациента, регистрацию положения поверхности тела пациента, интеграцию с системой управления, а также тем, что используются комплексированные данные не менее чем от двух инфракрасных датчиков глубины, обработка которых повышает точность измерений, калибровка инфракрасных датчиков глубины происходит с помощью маркерного объекта ArUco, при этом калибровка происходит один раз в регламентированный период времени без присутствия пациента, выполняется расчет амплитуды движения поверхности грудной клетки пациента по вертикальной оси Z трехмерной системы координат, образованной с использованием маркерного объекта ArUco и имеющей вертикальную ось Z, перпендикулярную горизонтальной плоскости стола пациента, ось X, идущую вдоль стола пациента, ось Y, идущую перпендикулярно продольной оси стола пациента X, центр системы координат определяется положением маркерного объекта ArUco, получают данные в виде углов поворота и смещений для позиционирования пациента в результате использования процесса регистрации.A method for monitoring the position and respiration of a patient using a set of infrared depth sensors, including using a computer to perform the following actions: primary capture and preprocessing of video streams, self-testing, data visualization, calibration of infrared sensors and creation of a three-dimensional coordinate system with X, Y, Z axes, calculating three-dimensional representations of clouds of points of depth of the patient with coordinates X, Y, Z, characterized in that the doctor selects the area of interest of the patient's surface, calculates the centers of mass of the sets of cloud points of the region of interest and reconstructs the surface, calculates the phase and indicates the upper and lower limits of the amplitude of movement of the surface of the chest patient, registration of the position of the patient's body surface, integration with the control system, as well as the fact that integrated data from at least two infrared depth sensors are used, the processing of which increases the accuracy of measurements, calibration of infrared sensors Lubins are performed using the ArUco marker object, while the calibration occurs once in a regulated period of time without the presence of the patient, the amplitude of movement of the patient's chest surface along the vertical Z axis of a three-dimensional coordinate system formed using the ArUco marker object and having a vertical Z axis is calculated, perpendicular to the horizontal plane of the patient table, X-axis running along the patient table, Y-axis running perpendicular to the longitudinal axis of the patient table X, the center of the coordinate system is determined by the position of the ArUco marker object, data is obtained in the form of rotation angles and displacements for patient positioning as a result of using the registration process ...
RU2019134415A 2019-10-28 2019-10-28 Method for monitoring patient's position and breath using set of infrared depth sensors RU2732735C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2019134415A RU2732735C1 (en) 2019-10-28 2019-10-28 Method for monitoring patient's position and breath using set of infrared depth sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019134415A RU2732735C1 (en) 2019-10-28 2019-10-28 Method for monitoring patient's position and breath using set of infrared depth sensors

Publications (1)

Publication Number Publication Date
RU2732735C1 true RU2732735C1 (en) 2020-09-23

Family

ID=72922471

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019134415A RU2732735C1 (en) 2019-10-28 2019-10-28 Method for monitoring patient's position and breath using set of infrared depth sensors

Country Status (1)

Country Link
RU (1) RU2732735C1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170127980A1 (en) * 2015-11-05 2017-05-11 Google Inc. Using active ir sensor to monitor sleep
US20190209871A1 (en) * 2016-07-06 2019-07-11 Respiratory Innovations Pty Ltd A Realtime radiotherapy markerless calibration and measurement system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170127980A1 (en) * 2015-11-05 2017-05-11 Google Inc. Using active ir sensor to monitor sleep
US20190209871A1 (en) * 2016-07-06 2019-07-11 Respiratory Innovations Pty Ltd A Realtime radiotherapy markerless calibration and measurement system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H. SARMADI et al., Computer Methods and Programs in Biomedicine 180 (2019), pp. 1-10. Walther H.W. Schulze et al., Biomed. Eng.-Biomed. Tech. 2014; 59(6): 515-528. *

Similar Documents

Publication Publication Date Title
Prevost et al. 3D freehand ultrasound without external tracking using deep learning
US11373303B2 (en) Systems and methods for ultrasound imaging
EP3288465B1 (en) In-device fusion of optical and inertial positional tracking of ultrasound probes
CN104334081B (en) The motion layer of X ray CT imager decomposes calibration
US8705817B2 (en) Measurement of geometric quantities intrinsic to an anatomical system
US20150313566A1 (en) Determining the Spatial Position and Orientation of the Vertebrae in the Spinal Column
KR20180105703A (en) Spinal Arrangement Estimation Apparatus, Spinal Arrangement Estimation Method, and Spinal Arrangement Estimation Program
EP2439697A2 (en) Method for refining the calibration of an imaging system
CN109171793B (en) Angle detection and correction method, device, equipment and medium
US9713508B2 (en) Ultrasonic systems and methods for examining and treating spinal conditions
US10548564B2 (en) System and method for ultrasound imaging of regions containing bone structure
CN111292277A (en) Ultrasonic fusion imaging method and ultrasonic fusion imaging navigation system
WO2022109185A1 (en) Systems and methods for artificial intelligence based image analysis for placement of surgical appliance
US20160155247A1 (en) Systems and methods for tissue mapping
JP2016002251A (en) Image processing apparatus, image processing method, and program
CN105899145A (en) Image processing apparatus, image processing method, and storage medium
JP2015154914A (en) Image processor, and method and program for controlling image processor
KR102285337B1 (en) Calibration method and apparatus of x-ray apparatus
JP2006334319A (en) X-ray ct apparatus and method of preprocessing thereof, data preparation device and method thereof, and control program
RU2732735C1 (en) Method for monitoring patient's position and breath using set of infrared depth sensors
KR102479266B1 (en) Treatment system, calibration method, and program
US10991113B2 (en) Gyroscope-based system and method for assisting in tracking heat source on mechanical arm
Groisser et al. 3d reconstruction of scoliotic spines from stereoradiography and depth imaging
WO2014096835A1 (en) Improvements in and relating to ophthalmoscopes
US20210225022A1 (en) Size Measurement Using Angle-Constrained Radiographic Imaging

Legal Events

Date Code Title Description
PC41 Official registration of the transfer of exclusive right

Effective date: 20211215