RU2681348C1 - Method of three-dimensional visualization of the internal structure of the investigated object in real time - Google Patents
Method of three-dimensional visualization of the internal structure of the investigated object in real time Download PDFInfo
- Publication number
- RU2681348C1 RU2681348C1 RU2018114616A RU2018114616A RU2681348C1 RU 2681348 C1 RU2681348 C1 RU 2681348C1 RU 2018114616 A RU2018114616 A RU 2018114616A RU 2018114616 A RU2018114616 A RU 2018114616A RU 2681348 C1 RU2681348 C1 RU 2681348C1
- Authority
- RU
- Russia
- Prior art keywords
- images
- scanning
- voxel
- scan
- image
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
Abstract
Description
Изобретение относится к обработке данных изображения, а именно к визуализации трехмерного массива скалярных данных, и может быть использовано для решения задачи визуализации в реальном времени внутренней структуры «мутных» сред.The invention relates to the processing of image data, namely to visualization of a three-dimensional array of scalar data, and can be used to solve the problem of real-time visualization of the internal structure of "muddy" environments.
Известны два основных способа трехмерной визуализации по статье «Some techniques for shading machine renderings of solids», Proceeding AFIPS '68 (Spring) April 30-May 2, 1968, spring joint computer conference, Pages 37-45, автор Arthur Appel. Данные способы принято называть: «ray tracing» и «ray casting». Оба этих метода основываются на замерах расстояния до пересечения лучей с визуализируемой поверхностью. Недостатком этих методов для решения предложенной задачи является следующее. Эти методы являются способами визуализации векторных объектов и они требуют сложного дополнительного преобразования. Данные методы предназначены для визуализации поверхностей и плохо подходят для визуализации сложной внутренней структуры объекта. Для реализации данных методов в реальном времени требуется большая вычислительная мощность. Чаще всего для реализации данных методов используют специализированное многопроцессорное вычислительное устройство (графический процессор (GPU)).Two main methods of three-dimensional visualization are known in the article “Some techniques for shading machine renderings of solids”, Proceeding AFIPS '68 (Spring) April 30-May 2, 1968, spring joint computer conference, Pages 37-45, author Arthur Appel. These methods are commonly called: “ray tracing” and “ray casting”. Both of these methods are based on measuring the distance to the intersection of the rays with the visualized surface. The disadvantage of these methods for solving the proposed problem is the following. These methods are methods of visualizing vector objects and they require complex additional transformation. These methods are intended for visualization of surfaces and are poorly suited for visualizing the complex internal structure of an object. To implement these methods in real time, more computing power is required. Most often, a specialized multiprocessing computing device (graphics processor (GPU)) is used to implement these methods.
В качестве прототипа выбран способ трехмерной визуализации, основанный на методе «проекции максимальной интенсивности» (maximum intensity projection (MIP)), известный по патенту RU 2533055 (МПК G06T 15/08, G06T 19/20 от 27.09.2013 г.), который включает сканирование исследуемого объекта, фрагментацию всего объема полученных скалярных данных, необходимых для построения воксельного массива на множество вокселей таким образом, чтобы длина ребра куба вокселя была равна длине стороны квадрата пикселя, из совокупности которых в дальнейшем формируют изображение, возможный диапазон значений интенсивностей вокселей воксельного массива берут равным количеству цветов палитры, используемых для изображения пиксельного массива. Значение цвета каждого пикселя изображения определяют как максимальное значение среди вокселей, спроецированных в данный пиксель и умноженных на весовой коэффициент d\, который обратно пропорционален расстоянию от вокселя до плоскости построения изображения, и имеет значение от 0 до 1, границы воксельного массива визуализируют, используя алгоритм Брезенхэма, в виде отрезков толщиной в 1 пиксель, которые являются ортогональной проекцией ребер прямоугольного параллелепипеда, ограничивающего вексельный массив, при этом цвет пикселя этих отрезков определяют как максимально возможное значение интенсивности вокселя, умноженное на весовой коэффициент 6VAs a prototype, a three-dimensional visualization method was selected based on the maximum intensity projection (MIP) method, known according to patent RU 2533055 (IPC G06T 15/08, G06T 19/20 of 09/27/2013), which includes scanning the studied object, fragmenting the entire volume of the obtained scalar data necessary for constructing a voxel array into many voxels so that the length of the edge of the voxel cube is equal to the length of the side of the square of the pixel, from the totality of which they form an image, a possible range zones of values of voxel intensities of the voxel array are taken equal to the number of palette colors used to image the pixel array. The color value of each image pixel is determined as the maximum value among voxels projected into a given pixel and multiplied by a weight coefficient d \, which is inversely proportional to the distance from the voxel to the image plane, and has a value from 0 to 1, the boundaries of the voxel array are visualized using the algorithm Bresenham, in the form of segments with a thickness of 1 pixel, which are the orthogonal projection of the edges of the rectangular parallelepiped bounding the bill array, while the pixel color of these trezkov defined as the maximum possible value of the intensity voxel multiplied by a weighting factor 6V
Недостатком данного способа является то, что необходимо одномоментно обрабатывать весь трехмерный массив данных. Значит необходимо задействовать значительную часть имеющейся вычислительной мощности (процессорного времени). А это проблематично, так как основная вычислительная мощность используемой компьютерной системы задействована в реальном времени не для 3D-визуализации, а для решения задачи математического синтеза визуализируемых данных (для реализации томографических алгоритмов). Таким образом не обеспечивается интерактивность действий пользователя.The disadvantage of this method is that it is necessary to simultaneously process the entire three-dimensional array of data. So it is necessary to use a significant part of the available computing power (processor time). And this is problematic, since the main computing power of the computer system used is used in real time not for 3D visualization, but for solving the problem of mathematical synthesis of visualized data (for implementing tomographic algorithms). Thus, the interactivity of user actions is not ensured.
Задачей, на решение которой направлено данное изобретение, является разработка способа трехмерной визуализации внутренней структуры исследуемого объекта в реальном времени, который позволяет получать трехмерное изображение в процессе сканирования исследуемого объекта, предоставляя в реальном времени полную информацию об исследуемом объекте и позволяя пользователю корректировать свои действия с целью получения наиболее информативного изображения исследуемого объекта.The problem to which this invention is directed is the development of a method for three-dimensional visualization of the internal structure of the studied object in real time, which allows you to obtain a three-dimensional image in the process of scanning the studied object, providing real-time full information about the studied object and allowing the user to adjust their actions in order to obtaining the most informative image of the investigated object.
Технический результат достигается благодаря тому, что разработанный способ трехмерной визуализации внутренней структуры исследуемого объекта в реальном времени так же, как и способ, который является ближайшим аналогом, включает сканирование исследуемого объекта, фрагментацию всего объема полученных скалярных данных, необходимых для построения воксельного массива на множество вокселей таким образом, чтобы длина ребра куба вокселя была равна длине стороны квадрата пикселя, из совокупности которых в дальнейшем формируют изображение, возможный диапазон значений интенсивностей вокселей воксельного массива берут равным количеству цветов палитры, используемых для изображения пиксельного массива, значение цвета каждого пикселя изображения определяют как максимальное значение среди вокселей, спроецированных в данный пиксель и умноженных на весовой коэффициент, который обратно пропорционален расстоянию от вокселя до плоскости построения изображения, и имеет значение от 0 до 1, границы воксельного массива визуализируют, используя алгоритм Брезенхэма, в виде отрезков толщиной в 1 пиксель, которые являются ортогональной проекцией ребер прямоугольного параллелепипеда, ограничивающего воксельный массив, при этом цвет пикселя этих отрезков определяют как максимально возможное значение интенсивности вокселя, умноженное на весовой коэффициент.The technical result is achieved due to the fact that the developed method for three-dimensional visualization of the internal structure of the studied object in real time, as well as the method that is the closest analogue, includes scanning the studied object, fragmenting the entire volume of the obtained scalar data necessary for constructing a voxel array into many voxels so that the length of the edge of the voxel cube is equal to the length of the side of the square of the pixel, from the totality of which the image is further formed, the possible range of voxel intensities of the voxel array is taken to be equal to the number of palette colors used to image the pixel array, the color value of each image pixel is determined as the maximum value among voxels projected into a given pixel and multiplied by a weight coefficient that is inversely proportional to the distance from the voxel to the construction plane image, and has a value from 0 to 1, the boundaries of the voxel array are visualized using the Bresenham algorithm in the form of segments of
Новым в разработанном способе является то, что сканирование осуществляют электро-механической системой, которая перемещает зондирующий пучок по двум координатам вдоль поверхности исследуемого объекта таким образом, что каждый В-скан параллелен предыдущему, при формировании изображения используют прямую ортогональную проекцию, а ракурс наблюдения фиксируют таким образом, чтобы площади ортогональных проекций видимых граней прямоугольного параллелепипеда, ограничивающего воксельный массив, не отличались более чем в 2 раза, сканирование циклически повторяют параллельно боковой грани прямоугольного параллелепипеда, ограничивающего воксельный массив, в прямом, формируя первое множество изображений, и в обратном, формируя второе множество изображений, направлениях, при сканировании вначале получают прямую ортогональную проекцию первого В-скана - первого элемента первого множества изображений, для чего используют соответствующие весовые коэффициенты и заранее рассчитанную совокупность таблиц, содержащих координаты пикселей на плоскости визуализации, при этом в упомянутые пиксели проецируют соответствующие воксели В-скана при прямой ортогональной проекции с фиксированного ракурса наблюдения, затем формируют новый элемент первого множества изображений прямым проецированием прямой ортогональной проекции нового В-скана на предыдущий элемент первого множества изображений, нумеруют новый элемент первого множества изображений в порядке возрастания индекса, второе множество изображений формируют аналогично первому множеству изображений, однако во время сканирования в обратном направлении нумерацию элементов второго множества изображений производят в порядке убывания их индексов, при сканировании в прямом направлении изображение, выводимое на экран, формируют проецированием друг на друга нового элемента первого множества изображений и следующего за ним по индексу элемента второго множества изображений, при сканировании в обратном направлении изображение, выводимое на экран, формируют проецированием друг на друга нового элемента второго множества изображений и предшествующего ему по индексу элемента первого множества изображений.New in the developed method is that scanning is carried out by an electro-mechanical system that moves the probe beam along two coordinates along the surface of the object under study in such a way that each B-scan is parallel to the previous one, when forming an image, a direct orthogonal projection is used, and the observation angle is fixed so so that the areas of the orthogonal projections of the visible faces of the rectangular parallelepiped bounding the voxel array do not differ by more than 2 times, is scanned they are cyclically repeated parallel to the lateral face of the rectangular parallelepiped bounding the voxel array, in the forward, forming the first set of images, and in the opposite, forming the second set of images, in the directions, when scanning first get a direct orthogonal projection of the first B-scan - the first element of the first set of images, why use the appropriate weights and a pre-calculated set of tables containing the coordinates of the pixels on the visualization plane, while wrinkled pixels project the corresponding V-scan voxels in a direct orthogonal projection from a fixed viewing angle, then form a new element of the first set of images by directly projecting a direct orthogonal projection of the new B-scan onto the previous element of the first set of images, number the new element of the first set of images in index increasing order , the second plurality of images are formed similarly to the first plurality of images, however, during scanning in the opposite direction, the number The elements of the second set of images are produced in descending order of their indices, when scanning in the forward direction, the image displayed on the screen is formed by projecting onto each other a new element of the first set of images and the element of the second set of images following it by index, while scanning in the opposite direction displayed on the screen is formed by projecting onto each other a new element of the second set of images and the element of the first set of images preceding it by index races.
На фиг. 1 представлена проекция границ визуализируемого массива в заранее выбранном фиксированном ракурсе.In FIG. 1 shows the projection of the boundaries of the rendered array in a preselected fixed view.
На фиг. 2 представлено трехмерное изображение исследуемого объекта, полученное с помощью оптической когерентной томографии (ОКТ).In FIG. 2 presents a three-dimensional image of the investigated object obtained using optical coherence tomography (OCT).
Разработанный способ визуализации является способом предварительного просмотра в реальном времени результатов работы системы оптической когерентной томографии (ОКТ), предназначенной для исследования in vivo внутренней структуры наружных биотканей.The developed visualization method is a real-time preview method of the results of the operation of an optical coherent tomography (OCT) system designed for in vivo investigation of the internal structure of external biological tissues.
Электро-механическая система, состоящая из линз и зеркал, перемещает зондирующий пучок по двум координатам (X и Y) вдоль поверхности исследуемого объекта. Сначала происходит последовательное линейное инкрементирование (декрементирование) координаты X при зафиксированном значении координаты Y. Таким образом получают двумерное изображение плоского среза исследуемого объекта вдоль оси X - В-скан. Затем происходит инкрементирование (декрементирование) координаты Y. Каждый новый полученный В-скан параллелен предыдущему. Таким образом, формируют трехмерный скалярный массив данных, содержащий информацию о внутренней структуре исследуемого объекта, ограниченного прямоугольным параллелепипедом.An electro-mechanical system consisting of lenses and mirrors moves the probe beam in two coordinates (X and Y) along the surface of the object under study. First, a sequential linear increment (decrementation) of the X coordinate occurs at a fixed value of the Y coordinate. Thus, a two-dimensional image of a flat section of the object under study along the X axis is obtained - a B-scan. Then, the Y coordinate is incremented (decremented). Each new B-scan received is parallel to the previous one. Thus, a three-dimensional scalar data array is formed containing information about the internal structure of the object under study bounded by a rectangular parallelepiped.
Получение этих трехмерных данных осуществляют непрерывно. При достижении координатой Y максимального значения дальнейшее сканирование происходит в обратном направлении (вместо инкрементирования осуществляется декрементирование). При достижении координатой Y нулевого значения сканирование начинается снова в прямом направлении с инкрементированием координаты Y. Сканирование может быть остановлено после соответствующей команды пользователя по достижению координатой Y ближайшей границы. Кроме того, пользователю предоставлена возможность прервать сканирование немедленно. Сканирование можно возобновить, только, начиная с нулевой координаты Y.The receipt of these three-dimensional data is carried out continuously. When the Y coordinate reaches its maximum value, further scanning takes place in the opposite direction (decrementation is performed instead of incrementation). When the Y coordinate reaches zero, scanning starts again in the forward direction, incrementing the Y coordinate. Scanning can be stopped after the corresponding user command to reach the nearest border with the Y coordinate. In addition, the user is given the opportunity to interrupt the scan immediately. Scanning can only be resumed starting at zero coordinate Y.
Ракурс наблюдения фиксируют таким образом, чтобы площади ортогональных проекций видимых граней (площади параллелограммов ABCD, ADHE и CDHG) прямоугольного параллелепипеда ABCDEFGH, ограничивающего сканируемую область не отличались более чем в 2 раза (фиг. 1). При этом параллелограмм DCGH - это ортогональная проекция прямоугольного участка поверхности исследуемого объекта (плоскость XY). Параллелограмм A'B'C'D' обозначает ортогональную проекцию нового В-скана. Ортогональная проекция В-скана в начале сканирования (проекция первого В-скана) соответствует параллелограмму ABCD. «Дальняя» граница сканирования (при максимальном значении координаты Y) соответствует параллелограмму EFGH. Ортогональные проекции вертикальных ребер прямоугольного параллелепипеда ABCDEFGH вертикальны.The observation angle is fixed in such a way that the areas of orthogonal projections of visible faces (the areas of parallelograms ABCD, ADHE and CDHG) of the rectangular parallelepiped ABCDEFGH bounding the scanned area do not differ by more than 2 times (Fig. 1). In this case, the DCGH parallelogram is the orthogonal projection of a rectangular portion of the surface of the object under study (XY plane). The parallelogram A'B'C'D 'denotes the orthogonal projection of the new B-scan. The orthogonal projection of the B-scan at the beginning of the scan (the projection of the first B-scan) corresponds to the parallelogram ABCD. The “far” boundary of the scan (at the maximum value of the Y coordinate) corresponds to the parallelogram EFGH. The orthogonal projections of the vertical edges of the rectangular parallelepiped ABCDEFGH are vertical.
Первое множество изображений формируют в процессе сканирования при инкрементировании координаты Y. При декрементировании координаты Y формируют второе множество изображений.The first plurality of images are formed during scanning by incrementing the Y coordinate. When decrementing the Y coordinates, the second plurality of images is generated.
Визуализацию осуществляют в соответствии с принципами модифицированной MIP. При сканировании вначале формируют прямую ортогональную проекцию первого В-скана (параллелограмм ABCD), для чего используют соответствующие весовые коэффициенты и заранее рассчитанную совокупность таблиц, содержащих координаты пикселей на плоскости визуализации, в которые проецируют соответствующие воксели В-скана при прямой ортогональной проекции. Эта прямая ортогональная проекция первого В-скана будет первым элементом первого множества изображений.Visualization is carried out in accordance with the principles of the modified MIP. When scanning, first, a direct orthogonal projection of the first B-scan (parallelogram ABCD) is formed, for which the appropriate weighting factors and a pre-calculated set of tables containing the coordinates of the pixels on the visualization plane are projected into which the corresponding V-scan voxels are projected in a direct orthogonal projection. This direct orthogonal projection of the first B-scan will be the first element of the first set of images.
где di - весовой коэффициент, соответствующий затемнению вокселя при проецировании его на плоскость визуализации,where d i is the weight coefficient corresponding to the dimming of the voxel when projecting it onto the visualization plane,
Zi - количество вокселей от плоскости визуализации до соответствующего вокселя В-скана, повернутого на углы нутации и собственного вращения в визуализируемом объеме при выбранном ракурсе наблюдения,Z i - the number of voxels from the visualization plane to the corresponding V-scan voxel, rotated by nutation angles and proper rotation in the visualized volume at the selected observation angle,
Z -количество вокселей от плоскости визуализации до дальней границы визуализируемого объема при выбранном ракурсе наблюдения.Z is the number of voxels from the visualization plane to the far boundary of the visualized volume at the selected observation angle.
Первое множество изображений формируют в процессе сканирования при инкрементировании координаты Y. При получении каждого нового В-скана (A'B'C'D') визуализируют новое MIP-изображение. Это происходит следующим образом. Каждый новый элемент первого множества изображений формируют прямым проецированием прямой ортогональной проекции нового В-скана на предыдущий элемент первого множества изображений. Ортогональной проекцией нового элемента первого множества изображений будет являться многоугольник ABCC'D'A'. При этом нумеруют каждый новый элемент первого множества в порядке возрастания индекса.The first plurality of images is formed during scanning by incrementing the Y coordinate. Upon receipt of each new B-scan (A'B'C'D '), a new MIP image is visualized. This happens as follows. Each new element of the first set of images is formed by direct projection of the direct orthogonal projection of the new B-scan onto the previous element of the first set of images. The orthogonal projection of a new element of the first set of images will be the polygon ABCC'D'A '. At the same time, each new element of the first set is numbered in the increasing order of the index.
После достижения текущей проекцией В-скана положения EFGH начинают формирование элементов второго множества изображений. Второе множество изображений формируют в процессе сканирования при декрементировании координаты Y аналогично первому множеству изображений. Однако во время сканирования в обратном направлении нумерацию элементов второго множества изображений производят в порядке убывания их индексов.After the current projection of the B-scan reaches the position of the EFGH, the formation of the elements of the second set of images begins. The second set of images is formed during the scanning process when decrementing the Y coordinate is similar to the first set of images. However, during scanning in the opposite direction, the elements of the second set of images are numbered in descending order of their indices.
Для формирования изображения, выводимого на экран, при сканировании в прямом направлении в окно визуализации копируют новый элемент первого множества изображений и следующий за ним по индексу элемент второго множества изображений. Пиксели элементов первого и второго множества изображений, лежащие внутри границ проекции нового В-скана (параллелограмм A'B'C'D') попарно сравнивают в соответствии с правилом MIP и формируют изображение, которое выводят на экран.To form the image displayed on the screen, when scanning in the forward direction, a new element of the first set of images and the element of the second set of images following it by index are copied into the visualization window. The pixels of the elements of the first and second set of images lying inside the projection boundaries of the new B-scan (parallelogram A'B'C'D ') are compared in pairs in accordance with the MIP rule and form an image that is displayed on the screen.
При сканировании в обратном направлении изображение, выводимое на экран, формируют проецированием друг на друга нового элемента второго множества изображений и предшествующего ему по индексу элемента первого множества изображений. Пиксели элементов первого и второго множества изображений, лежащие внутри границ проекции нового В-скана (параллелограмма A'B'C'D') сравнивают и формируют изображение в соответствии с правилом MIP.When scanning in the opposite direction, the image displayed on the screen is formed by projecting onto each other a new element of the second set of images and the element of the first set of images preceding it by index. The pixels of the elements of the first and second set of images lying inside the projection boundaries of the new B-scan (parallelogram A'B'C'D ') are compared and form an image in accordance with the MIP rule.
На последнем этапе на сформированное изображение накладывают проекции границ визуализации, также с соблюдением принципов модифицированной MIP (с затемнением в глубину).At the last stage, projections of the boundaries of the visualization are superimposed on the formed image, also in compliance with the principles of the modified MIP (with darkening in depth).
Количество элементов в первом и во втором множестве изображений соответствует количеству В-сканов, из которых состоит полное трехмерное изображение. А обновление изображения в окне визуализации происходит со скоростью сканирования в направлении слева-направо и справа-налево, вплоть до остановки по команде пользователя.The number of elements in the first and second set of images corresponds to the number of B-scans that make up a full three-dimensional image. And the image is updated in the visualization window with the scanning speed from left to right and from right to left, up to a stop at the command of the user.
Для осуществления описанных манипуляций величина дополнительной загрузки CPU достаточно мала, чтобы не мешать параллельным вычислениям томографических алгоритмов.To carry out the described manipulations, the amount of additional CPU load is small enough not to interfere with parallel computations of tomographic algorithms.
В разработанном способе по сравнению со способом - прототипом затрачиваемое на визуализацию время, более чем на два порядка меньше. В разных моделях существующих ОКТ-систем полное время получения трехмерных данных (от нулевого значения координаты Y до ее максимального значения) варьируется от 5 до 25 секунд. В течение этого времени требуется обеспечить взаимную неподвижность сканирующей системы и исследуемого объекта. Учитывая, что исследуются живые объекты и в некоторых случаях используется ручной сканирующий зонд (он удерживается в руке пользователя), это довольно сложно. Поэтому очень важно предоставить пользователю в реальном времени наиболее полную информацию о текущих результатах его действий, для того чтобы он мог оперативно скорректировать положение сканирующего зонда, а также при необходимости прервать или остановить сканирование.In the developed method, compared with the prototype method, the time spent on visualization is more than two orders of magnitude less. In different models of existing OCT systems, the total time for obtaining three-dimensional data (from the zero value of the Y coordinate to its maximum value) varies from 5 to 25 seconds. During this time, it is required to ensure mutual immobility of the scanning system and the object under study. Considering that living objects are investigated and in some cases a manual scanning probe is used (it is held in the user's hand), this is quite difficult. Therefore, it is very important to provide the user in real time with the most complete information about the current results of his actions, so that he can quickly correct the position of the scanning probe, and also, if necessary, interrupt or stop scanning.
В разработанном способе кроме сокращения времени, затрачиваемого на визуализацию, дополнительная загрузка центрального процессора остается совершенно незначительной, что не препятствует параллельному исполнению в реальном времени томографических алгоритмов. Это достигают за счет использования прямой ортогональной проекции и фиксированного ракурса наблюдения. Кроме того, это достигают за счет хранения в оперативной памяти и последующего использования промежуточных результатов в виде двух множеств изображений.In the developed method, in addition to reducing the time spent on visualization, the additional load of the central processor remains completely insignificant, which does not impede the parallel execution of tomographic algorithms in real time. This is achieved through the use of direct orthogonal projection and a fixed viewing angle. In addition, this is achieved by storing in RAM and subsequent use of intermediate results in the form of two sets of images.
Таким образом, разработанный способ трехмерной визуализации внутренней структуры исследуемого объекта в реальном времени позволяет получить трехмерное изображение в процессе сканирования исследуемого объекта, предоставляя в реальном времени полную информацию об исследуемом объекте и позволяя пользователю корректировать свои действия с целью получения наиболее информативного изображения исследуемого объекта.Thus, the developed method for three-dimensional visualization of the internal structure of the studied object in real time allows you to get a three-dimensional image in the process of scanning the studied object, providing real-time full information about the studied object and allowing the user to adjust their actions in order to obtain the most informative image of the studied object.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018114616A RU2681348C1 (en) | 2018-04-19 | 2018-04-19 | Method of three-dimensional visualization of the internal structure of the investigated object in real time |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018114616A RU2681348C1 (en) | 2018-04-19 | 2018-04-19 | Method of three-dimensional visualization of the internal structure of the investigated object in real time |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2681348C1 true RU2681348C1 (en) | 2019-03-06 |
Family
ID=65632861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2018114616A RU2681348C1 (en) | 2018-04-19 | 2018-04-19 | Method of three-dimensional visualization of the internal structure of the investigated object in real time |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2681348C1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2237284C2 (en) * | 2001-11-27 | 2004-09-27 | Самсунг Электроникс Ко., Лтд. | Method for generating structure of assemblies, meant for presenting three-dimensional objects with use of images having depth |
US20070262988A1 (en) * | 2006-05-09 | 2007-11-15 | Pixar Animation Studios | Method and apparatus for using voxel mip maps and brick maps as geometric primitives in image rendering process |
US20080259080A1 (en) * | 2007-04-12 | 2008-10-23 | Fujifilm Corporation | Image processing method, apparatus, and program |
US20110267340A1 (en) * | 2010-04-29 | 2011-11-03 | Friedrich-Alexander-Universitaet Erlangen-Nuernberg | Method and apparatus for motion correction and image enhancement for optical coherence tomography |
RU2533055C1 (en) * | 2013-09-27 | 2014-11-20 | Общество С Ограниченной Ответственностью "Биомедицинские Технологии" | Method of optimising maximum intensity projection technique for rendering scalar three-dimensional data in static mode, in interactive mode and in real time |
RU2565521C2 (en) * | 2009-12-21 | 2015-10-20 | Конинклейке Филипс Электроникс Н.В. | Processing set of image data |
US20170119242A1 (en) * | 2015-10-28 | 2017-05-04 | Oregon Health & Science University | Systems and methods for retinal layer segmentation in oct imaging and oct angiography |
-
2018
- 2018-04-19 RU RU2018114616A patent/RU2681348C1/en active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2237284C2 (en) * | 2001-11-27 | 2004-09-27 | Самсунг Электроникс Ко., Лтд. | Method for generating structure of assemblies, meant for presenting three-dimensional objects with use of images having depth |
US20070262988A1 (en) * | 2006-05-09 | 2007-11-15 | Pixar Animation Studios | Method and apparatus for using voxel mip maps and brick maps as geometric primitives in image rendering process |
US20080259080A1 (en) * | 2007-04-12 | 2008-10-23 | Fujifilm Corporation | Image processing method, apparatus, and program |
RU2565521C2 (en) * | 2009-12-21 | 2015-10-20 | Конинклейке Филипс Электроникс Н.В. | Processing set of image data |
US20110267340A1 (en) * | 2010-04-29 | 2011-11-03 | Friedrich-Alexander-Universitaet Erlangen-Nuernberg | Method and apparatus for motion correction and image enhancement for optical coherence tomography |
RU2533055C1 (en) * | 2013-09-27 | 2014-11-20 | Общество С Ограниченной Ответственностью "Биомедицинские Технологии" | Method of optimising maximum intensity projection technique for rendering scalar three-dimensional data in static mode, in interactive mode and in real time |
US20170119242A1 (en) * | 2015-10-28 | 2017-05-04 | Oregon Health & Science University | Systems and methods for retinal layer segmentation in oct imaging and oct angiography |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4204670B2 (en) | Volume data representation system | |
CN1716317B (en) | Sliding texture volume rendering | |
Atherton et al. | Polygon shadow generation | |
EP0412748B1 (en) | Methods and apparatus for generating three-dimensional images | |
JP5866177B2 (en) | Image processing apparatus and image processing method | |
US20020094125A1 (en) | Method for fast rendering of photorealistic computer graphics images | |
DE69924699T2 (en) | Method for creating graphic objects represented as surface elements | |
US20020060679A1 (en) | Apparatus for and method of rendering 3D objects with parametric texture maps | |
Goodsell et al. | Rendering volumetric data in molecular systems | |
JP4885042B2 (en) | Image processing method, apparatus, and program | |
Chen et al. | Manipulation, display, and analysis of three-dimensional biological images | |
US7893938B2 (en) | Rendering anatomical structures with their nearby surrounding area | |
Frederick et al. | Conformal image warping | |
Chen et al. | Fast parallel algorithm for three-dimensional distance-driven model in iterative computed tomography reconstruction | |
Petkov et al. | Interactive visibility retargeting in vr using conformal visualization | |
RU2681348C1 (en) | Method of three-dimensional visualization of the internal structure of the investigated object in real time | |
JP4376944B2 (en) | Intermediate image generation method, apparatus, and program | |
Garcia et al. | CPU-based real-time surface and solid voxelization for incomplete point cloud | |
JP3341549B2 (en) | 3D shape data processing device | |
RU2681700C1 (en) | Method for three-dimensional imaging in real time | |
RU2533055C1 (en) | Method of optimising maximum intensity projection technique for rendering scalar three-dimensional data in static mode, in interactive mode and in real time | |
Danhof et al. | A virtual-reality 3d-laser-scan simulation | |
Belyaev et al. | Bump Mapping for Isosurface Volume Rendering | |
Cervin | Adaptive Hardware-accelerated Terrain Tessellation | |
Kim et al. | Ray-based data level comparisons of direct volume rendering algorithms |