RU2732735C1 - Method for monitoring patient's position and breath using set of infrared depth sensors - Google Patents
Method for monitoring patient's position and breath using set of infrared depth sensors Download PDFInfo
- Publication number
- RU2732735C1 RU2732735C1 RU2019134415A RU2019134415A RU2732735C1 RU 2732735 C1 RU2732735 C1 RU 2732735C1 RU 2019134415 A RU2019134415 A RU 2019134415A RU 2019134415 A RU2019134415 A RU 2019134415A RU 2732735 C1 RU2732735 C1 RU 2732735C1
- Authority
- RU
- Russia
- Prior art keywords
- patient
- sensors
- coordinate system
- calibration
- data
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N5/00—Radiation therapy
- A61N5/10—X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Processing (AREA)
Abstract
Description
Изобретение относится к медицинской технике, а именно к системам контроля дыхания пациента в комплексах лучевой терапии, и может быть использовано для контроля положения пациента в других клинических условиях.The invention relates to medical equipment, namely to systems for monitoring the patient's breathing in radiation therapy complexes, and can be used to control the patient's position in other clinical conditions.
В качестве прототипа выбирается патент на изобретение US 2019209871 (А1) «Способ бесконтактного измерения и калибровки системы позиционирования пациента при радиотерапии в реальном времени». Способ включает вычисление трехмерного представления облака точек пациента с помощью камеры для получения точек глубины пациента, где направление Z соответствует направлению вдоль фокусной дистанции камеры, требующее предельных значений по оси Z, которые соответствуют нижней (Z-min) и верхней (Z-max) спецификации, вычисление ковариации облака точек и среднего значения облака точек для оптимизированного анализа компонентов принципа для вычисления топографии туловища пациента, определение центральной точки облака точек в качестве опорной области измерения и использование камеры для определения расстояния до пациента для установления угла между туловищем пациента и вектором, перпендикулярным камере, усреднение измерений глубины в опорных областях и компенсацию ошибки от параллакса в режиме реального времени во время калибровочного измерения или плана лучевой терапии.The patent for invention US 2019209871 (A1) "Method for non-contact measurement and calibration of patient positioning system during radiotherapy in real time" is chosen as a prototype. The method includes computing a three-dimensional representation of a patient's point cloud using a camera to obtain patient depth points, where the Z direction corresponds to the direction along the focal distance of the camera, requiring Z-axis limit values that correspond to the lower (Z-min) and upper (Z-max) specifications , calculating point cloud covariance and point cloud mean for optimized component analysis of the principle for calculating the topography of the patient's torso, determining the center point of the point cloud as a reference measurement area and using the camera to determine the distance to the patient to establish the angle between the patient's torso and the vector perpendicular to the camera , averaging depth measurements in reference areas and compensating for parallax errors in real time during a calibration measurement or a radiation therapy plan.
Техническим результатом является повышение точности рассчитанной фазы дыхания и ее интерполяция с указанием верхнего и нижнего пределов амплитуды движения поверхности грудной клетки пациента по вертикальной оси Z, перпендикулярной горизонтальной плоскости стола пациента системы координат, образованной с использованием маркерного объекта ArUco, получаемые угол поворота и величины смещений, в результате сопоставления референсного изображения с текущим изображением положения пациента для контроля положения пациента и повышение точности определения смещений пациента за счет использования данных не менее чем от двух дистанционных датчиков.The technical result is an increase in the accuracy of the calculated breathing phase and its interpolation with indication of the upper and lower limits of the amplitude of movement of the patient's chest surface along the vertical Z axis, perpendicular to the horizontal plane of the patient's table of the coordinate system formed using the ArUco marker object, the obtained rotation angle and displacement values, as a result of comparing the reference image with the current image of the patient's position to control the patient's position and increasing the accuracy of determining the patient's displacements by using data from at least two remote sensors.
Указанный технический результат достигается за счет применения не менее двух дистанционных датчиков, комплексирования данных не менее чем с двух дистанционных датчиков, а также за счет сопоставления референсного изображения с текущим изображением положения пациента.The specified technical result is achieved by using at least two remote sensors, combining data from at least two remote sensors, as well as by comparing the reference image with the current image of the patient's position.
На рис. 1 изображена структурная схема программно-аппаратного комплекса (ПАК), предназначенного для контроля положения и дыхания пациента и имеющего в своем составе 2 модуля инфракрасных датчиков глубины и компьютер с установленными программными модулями. Датчики и компьютер соединены между собой интерфейсом USB3.1 Gen 1.In fig. 1 shows a block diagram of a hardware-software complex (PAC) designed to control the position and breathing of a patient and which includes 2 modules of infrared depth sensors and a computer with installed software modules. The sensors and the computer are interconnected by a USB3.1 Gen 1 interface.
На рис. 2 показана схема калибровки с использованием маркерного объекта ArUco.In fig. 2 shows the calibration scheme using the ArUco marker object.
Маркерный объект ArUco, представляющий собой напечатанный бумажный лист с кодами ArUco, выкладывают в любое место поверхности стола пациента. После запуска и прохождения процесса калибровки инфракрасные датчики глубины начинают выдавать координаты относительно центра системы координат расположения маркерного объекта ArUco.The ArUco marker object, which is a printed paper sheet with ArUco codes, is placed anywhere on the patient table surface. After starting and passing the calibration process, infrared depth sensors begin to give coordinates relative to the center of the coordinate system of the location of the ArUco marker object.
На рис. 3 показаны синусообразная кривая дыхания пациента, выводящаяся в окно графического интерфейса пользователя программы, а также уровни верхнего и нижнего пределов. Данные уровни вычисляются на этапе обучения. Выход кривой за верхний или нижний пределы, а также изменение частоты колебаний сигнализируют об изменении состояния пациента (кашель, смех, поворот тела).In fig. 3 shows a sinusoidal patient respiration curve displayed in the program's GUI window, as well as the upper and lower limit levels. These levels are calculated at the training stage. The curve going beyond the upper or lower limits, as well as a change in the oscillation frequency, signal a change in the patient's condition (coughing, laughing, turning the body).
На рис. 4 показаны размещение пациента и выделяемая врачом область интереса пациента на карте глубин, формируемой инфракрасными датчиками.In fig. 4 shows the location of the patient and the area of interest of the patient highlighted by the physician on a depth map generated by infrared sensors.
На рис. 5 показано созданное облако точек контролируемой поверхности.In fig. 5 shows the created cloud of points of the controlled surface.
Для определения фазы дыхания пациента и контроля положения пациента используется программно-аппаратный комплекс (ПАК), имеющий в своем составе набор не менее чем из двух инфракрасных датчиков глубины.To determine the patient's breathing phase and control the patient's position, a hardware-software complex (PAK) is used, which includes a set of at least two infrared depth sensors.
ПАК имеет в своем составе следующие взаимодействующие программные модули:PAK includes the following interacting software modules:
- модуль калибровки массива, состоящего не менее чем из двух инфракрасных датчиков и настройки системы;- module for calibration of the array, consisting of at least two infrared sensors and system settings;
- модуль первичного захвата и предобработки данных;- module of primary data capture and preprocessing;
- модуль самотестирования;- self-testing module;
- модуль визуализации данных;- data visualization module;
- модуль комплексирования сигналов, получаемых не менее чем с двух инфракрасных датчиков, и реконструкции поверхности;- module for complexing signals received from at least two infrared sensors, and surface reconstruction;
- модуль расчета фазы цикла дыхания и пороговых пределов амплитуды;- module for calculating the phase of the breathing cycle and the threshold amplitude limits;
- модуль регистрации положения поверхности тела пациента;- module for recording the position of the patient's body surface;
- модуль интеграции с системой управления.- module for integration with the control system.
Программная реализация модулей ПАК выполнена на языке программирования С++ с использованием:The software implementation of the PAK modules is made in the C ++ programming language using:
- библиотеки алгоритмов компьютерного зрения OpenCV (версия 3.1.0) обработки изображений и численных алгоритмов общего назначения с открытым исходным кодом (Open Source Computer Vision Library, англ.);- libraries of computer vision algorithms OpenCV (version 3.1.0) of image processing and general purpose numerical algorithms with open source code (Open Source Computer Vision Library, English);
- спецификации OpenGL (версия 4.1), определяющей платформонезависимый (независимый от языка программирования) программный интерфейс для написания приложений, использующих двумерную и трехмерную компьютерную графику (Open Graphics Library, англ.);- the OpenGL specification (version 4.1), which defines a platform independent (programming language independent) programming interface for writing applications using two-dimensional and three-dimensional computer graphics (Open Graphics Library, English);
- наборов средств разработки.- development kits.
Модуль калибровкиCalibration module
Калибровка дистанционных датчиков осуществляется путем размещения на столе пациента шаблона с изображением ArUco-кода. Модуль калибровочной программы сравнивает измеренные дистанции до маркерных точек изображения ArUco-кода с эталонными и вносит поправки в калибровочный файл датчика, при этом калибровка происходит один раз в регламентированный период времени без присутствия пациента Процесс калибровки происходит не менее чем по 4 угловым точкам маркерного объекта. Текстовый калибровочный файл содержит значения смещений (в см., шкала 0.02) по трем векторам и матрицу с углами поворотов (в углах Эйлера) для каждого смещения.Remote sensors are calibrated by placing a template with an ArUco code on the patient table. The module of the calibration program compares the measured distances to the marker points of the ArUco-code image with the reference ones and makes corrections to the sensor calibration file, while the calibration occurs once in a specified period of time without the presence of the patient. The calibration process takes place at least 4 corner points of the marker object. The text calibration file contains the displacement values (in cm, scale 0.02) for three vectors and a matrix with rotation angles (in Euler angles) for each displacement.
Алгоритм калибровки имеет следующий порядок действий:The calibration algorithm has the following procedure:
1) Размещение калибровочного маркерного объекта (доска ArUco-маркеров) в выбранной области обзора дистанционных датчиков и фиксирование в неподвижном положении как маркерного объекта, так и дистанционных датчиков.1) Placement of the calibration marker object (ArUco marker board) in the selected field of view of the remote sensors and fixing both the marker object and the remote sensors in a fixed position.
2) Запуск процесса калибровки при входящих потоках данных от n датчиков, учитывающего внутренние аппаратные параметры датчиков, такие как дисторсия и фокусное расстояние. Результатом процесса калибровки являются калибровочные файлы для каждого датчика, используемые в течение всего процесса контроля положения пациента и содержащих матрицы значений углов поворота и вектора смещения.2) Starting the calibration process with incoming data streams from n sensors, taking into account the internal hardware parameters of the sensors, such as distortion and focal length. The result of the calibration process is the calibration files for each transducer, which are used throughout the entire patient position control process and contain matrices of rotation angles and displacement vectors.
Модуль первичного захвата и предобработки данныхPrimary data capture and preprocessing module
Предназначен для получения и обработки потоков данных не менее чем с двух датчиков, которые с помощью встроенного инфракрасного прожектора формируют на поверхности контролируемого объекта облако маркерных точек (рис. 5), инфракрасной видеокамерой создают изображения этих точек и затем определяют расстояния до них по их яркости. Для захвата оптического потока данных используется готовая протестированная и оптимизированная реализация алгоритмов из библиотеки технического зрения OpenCV.Designed to receive and process data streams from at least two sensors, which, using a built-in infrared illuminator, form a cloud of marker points on the surface of the controlled object (Fig. 5), create images of these points with an infrared video camera and then determine the distances to them by their brightness. To capture an optical data stream, a ready-tested and optimized implementation of algorithms from the OpenCV vision library is used.
Данный алгоритм имеет следующий порядок действий:This algorithm has the following procedure:
1) Захват потоков данных не менее чем с двух датчиков, содержащих набор изображений с маркерными точками. Захват осуществляется средствами комплекта средств разработки (SDK). При этом технические параметры датчиков определяются данными конфигурационных файлов.1) Capture data streams from at least two sensors containing a set of images with marker points. The capture is carried out by means of a development kit (SDK). In this case, the technical parameters of the sensors are determined by the data of the configuration files.
2) Формирование облаков маркерных точек из каждого маркерного пикселя соответствующего датчика. Используя данные, содержащиеся в калибровочном файле, вносят поправки в данные о координатах пикселей.2) Formation of marker point clouds from each marker pixel of the corresponding sensor. Using the data contained in the calibration file, the pixel coordinates are corrected.
3) Фильтрация поврежденных пикселей или пикселей, расстояние до которых не определилось. Такие пиксели перестают учитываться модулем.3) Filtration of damaged pixels or pixels, the distance to which is not determined. Such pixels are no longer counted by the module.
4) Фильтрация выбросов или пикселей, выходящих за границы определенного межквартильного размаха выборки, характеризующего степень разброса данных.4) Filtering outliers or pixels outside the boundaries of a certain interquartile range of the sample, which characterizes the degree of data scatter.
5) Приведение значений координат пикселей в миллиметры.5) Converting the pixel coordinate values to millimeters.
Модуль самотестированияSelf-test module
Предназначен для тестирования ПАК. В случае возникновения ошибок они записываются в файл ошибок.Designed for testing PAK. If errors occur, they are written to the error file.
Модуль визуализации данных Выполняет следующие функции:Data visualization module Performs the following functions:
- получения видеопотока данных и загрузки параметров;- receiving video data stream and loading parameters;
- ожидания кадра и перевода его в формат для вывода на экран;- waiting for a frame and translating it into a format for displaying on the screen;
- программных управляющих элементов (кнопок) графического интерфейса модуля;- software control elements (buttons) of the module's graphical interface;
- отсчета времени для воспроизводимого видео;- countdown for the video being played;
- выбора области интереса (ROI) не менее чем с двух инфракрасных датчиков. Модуль комплексирования- selection of the region of interest (ROI) from at least two infrared sensors. Integration module
Происходит процесс комплексирования сигналов не менее чем с двух инфракрасных датчиков и реконструкция поверхности пациента.There is a process of combining signals from at least two infrared sensors and reconstruction of the patient's surface.
Режим интеграции данных не менее чем с двух датчиков, осуществляемый ПО из библиотек технического зрения OpenCV и SDK, называется комплексированием данных, полученных с датчиков в соответствии с учетом калибровочных и конфигурационных файлов. Результатом комплексирования являются изображение трехмерного облака маркерных точек и так называемая карта расстояний, показывающая расстояния от каждого датчика до каждой соответствующей этому датчику маркерной точки.The mode of data integration from at least two sensors, carried out by software from the OpenCV and SDK technical vision libraries, is called the integration of data received from the sensors in accordance with the calibration and configuration files. The result of the integration is an image of a three-dimensional cloud of marker points and the so-called distance map, showing the distances from each sensor to each marker point corresponding to this sensor.
Алгоритм комплексирования сигналов датчиков и реконструкции поверхности имеет следующий порядок действий:The algorithm for combining sensor signals and surface reconstruction has the following procedure:
1) Получение видеопотоков данных не менее чем с двух датчиков и загрузка калибровочных и конфигурационных файлов датчиков.1) Receiving video data streams from at least two sensors and loading sensor calibration and configuration files.
2) Выбор области интереса поверхности тела пациента.2) Selection of the area of interest of the patient's body surface.
3) Получение изображений трехмерных облаков маркерных точек и осуществление преобразования из локальной системы координат каждого датчика в общую для всех датчиков систему координат ArUco.3) Obtaining images of three-dimensional clouds of marker points and carrying out the transformation from the local coordinate system of each sensor to the ArUco coordinate system common to all sensors.
Модуль расчета фазы цикла дыханияBreathing cycle phase calculation module
Для определения одномерной фазы цикла дыхания пациента и установки нижнего и верхнего пределов амплитуды используют программный модуль расчета фазы цикла дыхания, который при помощи интерполяционного полинома второго порядка и периода обучения рассчитывает фазу дыхания и временные метки. Данная амплитуда применяется после обучения для получения фазы дыхания. Для этого данный интервал делится на заданное число фаз (участков), и для текущего значения определяется, в какой интервал попало положение поверхности тела пациента.To determine the one-dimensional phase of the patient's breathing cycle and set the lower and upper amplitude limits, a software module for calculating the phase of the breathing cycle is used, which, using a second-order interpolation polynomial and a training period, calculates the breathing phase and time stamps. This amplitude is applied after training to obtain the breathing phase. To do this, this interval is divided into a specified number of phases (sections), and for the current value, it is determined in which interval the position of the patient's body surface falls.
В случае превышения значений порогов фазы цикла дыхания, установленных оператором, выдается сообщение об ошибке определения фазы цикла дыхания, что сигнализирует об изменении состояния пациента (кашель, смех, поворот тела и др.).If the values of the breathing cycle phase thresholds set by the operator are exceeded, an error message is displayed in determining the breathing cycle phase, which signals a change in the patient's condition (coughing, laughing, turning the body, etc.).
Для определения одномерной фазы цикла дыхания пациента применена полиноминальная функция второго порядка, оценивающая вектор состояния динамической системы с использованием ряда неполных и зашумленных измерений. [URL: https://ru.wikipedia.org/wiki//Целая_рациональная_функция]. Поступающая карта расстояний обрабатывается модулем, содержащим перечисленные алгоритмы. В результате при помощи разработанных функций получаются фаза дыхания и временные метки.To determine the one-dimensional phase of the patient's breathing cycle, a second-order polynomial function was used, which estimates the state vector of a dynamic system using a number of incomplete and noisy measurements. [URL: https://ru.wikipedia.org/wiki//Integral_rational_function]. The incoming distance map is processed by a module containing the listed algorithms. As a result, with the help of the developed functions, the breathing phase and time stamps are obtained.
При построении графика контроля дыхания осуществляется взаимодействие с другими модулями ПАК (с модулем визуализации - выбор области интереса пользователем ПАК, с модулем предварительной фильтрации и захвата - построение карты расстояний и определение центра масс облака точек в области интереса).When constructing a breath control graph, interaction with other PAK modules is carried out (with the visualization module - the selection of an area of interest by the PAK user, with the pre-filtering and capture module - building a distance map and determining the center of mass of the point cloud in the area of interest).
Период обучения составляет 30 с или 5-6 циклов дыхания человека.The training period is 30 s or 5-6 human breathing cycles.
Модуль регистрации положения поверхности тела пациентаPatient body surface position registration module
Происходит регистрация (сопоставление) референсного изображения с текущим изображением положения пациента и рассчитываются углы поворота и величины смещений, используемые для передвижения и поворота стола с пациентом в необходимое положение.The reference image is registered (compared) with the current image of the patient's position and the angles of rotation and displacement values are calculated, which are used to move and rotate the table with the patient to the required position.
С помощью модуля выполняют следующие функции:The module performs the following functions:
- Получают облака точек не менее чем с двух датчиков.- Obtain point clouds from at least two sensors.
- Комплексируют данные облаков точек не менее чем с двух датчиков, переводя их в систему координат маркерного объекта, и сохраняют комплексированные данные. (Эти данные будут считаться референсными.)- The data of the point clouds are combined from at least two sensors, translating them into the coordinate system of the marker object, and the integrated data is saved. (These data will be considered as reference.)
- Получают еще одно комплексированное облако точек с тем же объектом на изображении, но занимающим другое положение, и сохраняют в другой файл.- Another complex point cloud is obtained with the same object in the image, but occupying a different position, and saved to another file.
- С помощью итеративного алгоритма ближайших точек (англ. Iterative Closest Point - ICP) вычисляют поворот и смещение второго облака относительно первого. При этом на экран компьютера и в файл выводится найденное смещение по всем осям и погрешность совмещения в мм.- Using the iterative closest point algorithm (ICP), the rotation and displacement of the second cloud relative to the first are calculated. At the same time, the found displacement along all axes and the alignment error in mm are displayed on the computer screen and in the file.
Модуль интеграцииIntegration module
ПАК посредством стандартных протоколов связи и известного API интегрируют в систему управления радиотерапией.PAK is integrated into the radiotherapy control system by means of standard communication protocols and a well-known API.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019134415A RU2732735C1 (en) | 2019-10-28 | 2019-10-28 | Method for monitoring patient's position and breath using set of infrared depth sensors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019134415A RU2732735C1 (en) | 2019-10-28 | 2019-10-28 | Method for monitoring patient's position and breath using set of infrared depth sensors |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2732735C1 true RU2732735C1 (en) | 2020-09-23 |
Family
ID=72922471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019134415A RU2732735C1 (en) | 2019-10-28 | 2019-10-28 | Method for monitoring patient's position and breath using set of infrared depth sensors |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2732735C1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170127980A1 (en) * | 2015-11-05 | 2017-05-11 | Google Inc. | Using active ir sensor to monitor sleep |
US20190209871A1 (en) * | 2016-07-06 | 2019-07-11 | Respiratory Innovations Pty Ltd | A Realtime radiotherapy markerless calibration and measurement system |
-
2019
- 2019-10-28 RU RU2019134415A patent/RU2732735C1/en active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170127980A1 (en) * | 2015-11-05 | 2017-05-11 | Google Inc. | Using active ir sensor to monitor sleep |
US20190209871A1 (en) * | 2016-07-06 | 2019-07-11 | Respiratory Innovations Pty Ltd | A Realtime radiotherapy markerless calibration and measurement system |
Non-Patent Citations (1)
Title |
---|
H. SARMADI et al., Computer Methods and Programs in Biomedicine 180 (2019), pp. 1-10. Walther H.W. Schulze et al., Biomed. Eng.-Biomed. Tech. 2014; 59(6): 515-528. * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Prevost et al. | 3D freehand ultrasound without external tracking using deep learning | |
US11373303B2 (en) | Systems and methods for ultrasound imaging | |
EP3288465B1 (en) | In-device fusion of optical and inertial positional tracking of ultrasound probes | |
CN104334081B (en) | The motion layer of X ray CT imager decomposes calibration | |
US8705817B2 (en) | Measurement of geometric quantities intrinsic to an anatomical system | |
US20150313566A1 (en) | Determining the Spatial Position and Orientation of the Vertebrae in the Spinal Column | |
KR20180105703A (en) | Spinal Arrangement Estimation Apparatus, Spinal Arrangement Estimation Method, and Spinal Arrangement Estimation Program | |
EP2439697A2 (en) | Method for refining the calibration of an imaging system | |
CN109171793B (en) | Angle detection and correction method, device, equipment and medium | |
US9713508B2 (en) | Ultrasonic systems and methods for examining and treating spinal conditions | |
US10548564B2 (en) | System and method for ultrasound imaging of regions containing bone structure | |
CN111292277A (en) | Ultrasonic fusion imaging method and ultrasonic fusion imaging navigation system | |
WO2022109185A1 (en) | Systems and methods for artificial intelligence based image analysis for placement of surgical appliance | |
US20160155247A1 (en) | Systems and methods for tissue mapping | |
JP2016002251A (en) | Image processing apparatus, image processing method, and program | |
CN105899145A (en) | Image processing apparatus, image processing method, and storage medium | |
JP2015154914A (en) | Image processor, and method and program for controlling image processor | |
KR102285337B1 (en) | Calibration method and apparatus of x-ray apparatus | |
JP2006334319A (en) | X-ray ct apparatus and method of preprocessing thereof, data preparation device and method thereof, and control program | |
RU2732735C1 (en) | Method for monitoring patient's position and breath using set of infrared depth sensors | |
KR102479266B1 (en) | Treatment system, calibration method, and program | |
US10991113B2 (en) | Gyroscope-based system and method for assisting in tracking heat source on mechanical arm | |
Groisser et al. | 3d reconstruction of scoliotic spines from stereoradiography and depth imaging | |
WO2014096835A1 (en) | Improvements in and relating to ophthalmoscopes | |
US20210225022A1 (en) | Size Measurement Using Angle-Constrained Radiographic Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PC41 | Official registration of the transfer of exclusive right |
Effective date: 20211215 |