RU2599277C1 - Computed tomography system for inspection and corresponding method - Google Patents

Computed tomography system for inspection and corresponding method Download PDF

Info

Publication number
RU2599277C1
RU2599277C1 RU2015125285/28A RU2015125285A RU2599277C1 RU 2599277 C1 RU2599277 C1 RU 2599277C1 RU 2015125285/28 A RU2015125285/28 A RU 2015125285/28A RU 2015125285 A RU2015125285 A RU 2015125285A RU 2599277 C1 RU2599277 C1 RU 2599277C1
Authority
RU
Russia
Prior art keywords
image
fti
survey
examination
subject
Prior art date
Application number
RU2015125285/28A
Other languages
Russian (ru)
Inventor
Чжицян ЧЭНЬ
Ли Чжан
Шо ВАН
Юньда СУНЬ
Цинпин ХУАН
Чжи ТАН
Original Assignee
Ньюктек Компани Лимитед
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ньюктек Компани Лимитед filed Critical Ньюктек Компани Лимитед
Application granted granted Critical
Publication of RU2599277C1 publication Critical patent/RU2599277C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • G01V5/20
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01V5/226
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Abstract

FIELD: safety.
SUBSTANCE: invention can be used for inspection of the object by computed tomography (CT). Core of the invention is that disclosed are a CT system for inspection and a corresponding method. Method involves: reading data of the examination for the investigated object; inserting at least one fictive three-dimensional (3D) image (FTI) of a dangerous object into the 3D examination image for the investigated object, which is obtained from the examination data; receiving a selection of at least one region on the 3D image of the examination, including the 3D FTI, or at least one region on a two-dimensional (2D) image of the examination, including the 2D FTI corresponding to the 3D FTI, herewith the 2D image of the examination is obtained from the 3D image of the examination or is obtained from the examination data; and output in response to the said selection a feedback on the 3D image of the examination, including at least one 3D FTI.
EFFECT: technical result is the possibility of quick marking a suspicious object on the CT-image determining by the feedback an image of the dangerous object.
16 cl, 21 dwg

Description

Перекрестная ссылка на родственную заявкуCross reference to related application

[0001] По настоящей заявке испрашивается приоритет на основании заявки на патент Китая №201410290133.7, поданной 25 июня 2014 г., озаглавленной "CT SYSTEM FOR SECURITY CHECK AND METHOD THEREOF", которая полностью включена в настоящий документ путем ссылки.[0001] This application claims priority based on Chinese Patent Application No. 201410290133.7, filed June 25, 2014, entitled "CT SYSTEM FOR SECURITY CHECK AND METHOD THEREOF", which is incorporated herein by reference in its entirety.

Область техники, к которой относится изобретениеFIELD OF THE INVENTION

[0002] Настоящее изобретение относится к досмотру, и в частности, к системе компьютерной томографии (КТ) для досмотра и к соответствующему способу.[0002] The present invention relates to an inspection, and in particular, to a computerized tomography (CT) system for inspection and to an appropriate method.

Уровень техникиState of the art

[0003] Мультиэнергетические рентгеновские системы досмотра принадлежат к новому типу систем досмотра, разработанному на основе моноэнергетических рентгеновских систем досмотра. Мультиэнергетическая рентгеновская система досмотра может обеспечивать не только форму и содержимое обследуемого предмета, но также информацию, отражающую эквивалентное атомное число обследуемого предмета, чтобы идентифицировать, является ли обследуемый предмет органическим веществом или неорганическим веществом, и отобразить обследуемый предмет различными цветами на цветном мониторе для удобства распознавания оператором.[0003] Multi-energy X-ray inspection systems belong to a new type of inspection system developed on the basis of monoenergy X-ray inspection systems. A multi-energy X-ray inspection system can provide not only the shape and contents of the subject, but also information reflecting the equivalent atomic number of the subject to identify whether the subject is an organic substance or inorganic substance, and display the subject in different colors on a color monitor for easy recognition the operator.

[0004] В области досмотра важной потребностью является проекция изображения опасного предмета (TIP). Так называемая TIP относится к тем изображениям опасных предметов, которые накапливаются заранее, вставляются в изображение, например, багажа или посылки, то есть вставляются фиктивные изображения опасных предметов (FTI). Это играет важную роль в обучении инспекторов по досмотру и оценке эффективности работы этих инспекторов. В отношении двумерных (2D) TIP для рентгеновских систем досмотра имеются отработанные решения и ряд применений. Однако в отношении трехмерных (3D) TIP для досмотра с помощью КТ в настоящее время не существует производителя, который обеспечил бы такие функциональные возможности.[0004] In the field of inspection, an important need is the projection of an image of a dangerous object (TIP). The so-called TIP refers to those images of dangerous objects that are accumulated in advance, inserted into the image, for example, baggage or parcels, that is, fictitious images of dangerous objects (FTI) are inserted. This plays an important role in training inspectors to inspect and evaluate the performance of these inspectors. With regard to two-dimensional (2D) TIP for X-ray inspection systems, there are proven solutions and a number of applications. However, with respect to three-dimensional (3D) TIPs for CT screening, there is currently no manufacturer that provides such functionality.

Раскрытие изобретенияDisclosure of invention

[0005] Учитывая одну или более технических проблем в уровне техники, настоящее изобретение предусматривает систему КТ для досмотра и соответствующий способ, с помощью которых пользователь может быстро отмечать подозрительный предмет на КТ-изображении и обеспечивать обратную связь в отношении того, включено ли FTI-изображение.[0005] Given one or more technical problems in the prior art, the present invention provides a CT scan system and an appropriate method by which a user can quickly mark a suspicious item in a CT image and provide feedback on whether an FTI image is included .

[0006] В соответствии с аспектом настоящего изобретения предложен способ досмотра в системе компьютерной томографии (КТ), содержащий этапы: считывания данных обследования для обследуемого предмета; вставки по меньшей мере одного трехмерного (3D) фиктивного изображения опасного предмета (FTI) в 3D-изображение обследования для обследуемого предмета, причем 3D-изображение обследования получают из данных обследования; приема выбора по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на двумерном (2D) изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, причем 2D-изображение обследования получают из 3D-изображения обследования или получают из данных обследования; и выдачи в ответ на упомянутый выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI.[0006] In accordance with an aspect of the present invention, there is provided a screening method in a computed tomography (CT) system, comprising the steps of: reading survey data for a subject to be examined; inserting at least one three-dimensional (3D) fictitious image of a dangerous object (FTI) into the 3D image of the examination for the subject being examined, wherein the 3D image of the examination is obtained from the survey data; receiving a selection of at least one region in the 3D image of the survey, including 3D FTI, or at least one region in the two-dimensional (2D) image of the survey, including a 2D FTI corresponding to 3D FTI, wherein the 2D image of the survey is obtained from 3D images of the survey or obtained from survey data; and issuing, in response to said selection of feedback, a 3D survey image including at least one 3D FTI.

[0007] В соответствии с некоторыми вариантами осуществления этап приема выбора по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, содержит: прием координат части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором.[0007] According to some embodiments, the step of receiving a selection of at least one area in a 3D survey image including 3D FTI, or at least one area in a 2D survey image including 2D FTI corresponding to 3D FTI , contains: receiving the coordinates of a portion of the 3D survey image or 2D survey image associated with the selection.

[0008] В соответствии с некоторыми вариантами осуществления этап выдачи в ответ на выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит по меньшей мере одно из: оценивания, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI; отображения диалога для подтверждения, что 3D-изображение обследования включает в себя по меньшей мере одно 3D FTI; выдачи текстового указания в интерфейсе для подтверждения, что 3D-изображение обследования включает в себя по меньшей мере одно 3D FTI; выделения части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором; отметки части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором; и заполнения части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором, конкретным цветом или узором.[0008] In accordance with some embodiments, the step of issuing in response to a feedback selection of a 3D survey image including at least one 3D FTI comprises at least one of: assessing whether at least one selected area at least one 3D FTI; displaying a dialog to confirm that the 3D image of the examination includes at least one 3D FTI; issuing a textual indication in the interface to confirm that the 3D image of the examination includes at least one 3D FTI; highlighting a portion of the 3D survey image or 2D survey image associated with the selection; marks of a portion of the 3D survey image or 2D survey image associated with the selection; and filling out a portion of the 3D survey image or 2D survey image associated with the selection, a specific color or pattern.

[0009] В соответствии с некоторыми вариантами осуществления вычисляется по меньшей мере один параметр пространственной характеристики обследуемого предмета в соответствии с данными обследования, и по меньшей мере одно 3D FTI вставляется в 3D-изображение обследования для обследуемого предмета на основании параметра пространственной характеристики.[0009] In accordance with some embodiments, at least one spatial parameter of the subject is calculated in accordance with the survey data, and at least one 3D FTI is inserted into the 3D image of the survey for the subject based on the spatial characteristic.

[0010] В соответствии с некоторыми вариантами осуществления параметр пространственной характеристики относится по меньшей мере к одному из положения, размера и ориентации вставляемого 3D FTI.[0010] According to some embodiments, the spatial characteristic parameter refers to at least one of the position, size, and orientation of the inserted 3D FTI.

[0011] В соответствии с некоторыми вариантами осуществления выбор по меньшей мере одной области содержит выбор части отображенного 3D-изображения обследования под некоторым углом обзора.[0011] In accordance with some embodiments, selecting at least one area comprises selecting a portion of the displayed 3D survey image at a certain viewing angle.

[0012] В соответствии с некоторыми вариантами осуществления при 3D-визуализации 3D-изображения обследования записывается информация об облаке точек, характеризующая обследуемый предмет, и этап выдачи в ответ на выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит: получение последовательности кластеров информации об облаке точек различных предметов в обследуемом предмете путем разделения; определение по меньшей мере одной выбранной области из последовательности кластеров информации об облаке точек разных предметов на основании заданного критерия; и оценивание, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.[0012] In accordance with some embodiments, when 3D visualizing a 3D image of an examination, information is provided about a point cloud characterizing the subject to be examined, and the step of issuing in response to a feedback selection of a 3D image of the examination including at least one 3D FTI, contains: obtaining a sequence of clusters of information about the cloud of points of various objects in the subject being examined by separation; determining at least one selected area from a sequence of clusters of information about a cloud of points of different objects based on a given criterion; and evaluating whether at least one selected area includes at least one 3D FTI.

[0013] В соответствии с некоторыми вариантами осуществления выбор по меньшей мере одной области содержит выбор части отображенного 3D-изображения обследования под множеством углов обзора.[0013] In accordance with some embodiments, selecting at least one area comprises selecting a portion of a displayed 3D survey image from a plurality of viewing angles.

[0014] В соответствии с некоторыми вариантами осуществления выбор по меньшей мере одной области содержит выбор части отображенного 3D-изображения обследования под двумя разными углами обзора, причем два разных угла обзора по существу ортогональны друг другу, прозрачные области удаляются из данных обследования, чтобы получить иерархический ограничивающий прямоугольник из непрозрачных областей в данных обследования, а затем визуализируется глубина сцены для иерархического ограничивающего прямоугольника, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне, и этап выдачи в ответ на выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит: выполнение поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне в соответствии с выбранной пользователем областью под первым углом обзора, чтобы сформировать первый ограничивающий прямоугольник; выполнение отслеживания лучей при сформированном первом ограничивающем прямоугольнике в качестве носителя текстуры; выполнение поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне в соответствии с выбранной пользователем областью под вторым углом обзора, по существу ортогональным первому углу обзора, чтобы сформировать второй ограничивающий прямоугольник; выполнение операции булева пересечения над первым ограничивающим прямоугольником и вторым ограничивающим прямоугольником в пространстве изображений, чтобы получить отмеченную область в 3D-пространстве в качестве по меньшей мере одной выбранной области; и оценивание, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.[0014] In accordance with some embodiments, selecting at least one area comprises selecting a portion of the displayed 3D survey image at two different viewing angles, the two different viewing angles being substantially orthogonal to each other, the transparent areas are removed from the survey data to obtain a hierarchical the bounding rectangle from opaque areas in the survey data, and then the scene depth for the hierarchical bounding rectangle is visualized to get a depth map of n the far side and the depth map on the back side, and the stage of issuing in response to the choice of feedback about the 3D image of the survey, which includes at least one 3D FTI, contains: performing a search, respectively, on the depth map on the front side and the depth map on the back side in accordance with a user-selected area at a first viewing angle to form a first bounding box; performing ray tracking when the first bounding box is formed as a texture carrier; performing a search, respectively, on the depth map on the front side and the depth map on the back side in accordance with a user-selected region at a second viewing angle substantially orthogonal to the first viewing angle to form a second bounding box; performing a Boolean intersection operation on the first bounding box and the second bounding box in the image space to obtain a marked area in 3D space as at least one selected area; and evaluating whether at least one selected area includes at least one 3D FTI.

[0015] В соответствии с некоторыми вариантами осуществления этап вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета содержит: разделение 3D-изображения обследования, чтобы получить множество фрагментов 3D-изображения обследуемого предмета; вычисление расстояний между множеством фрагментов 3D-изображения и их положений; и вставку 3D FTI на основании вычисленных расстояний и положений.[0015] According to some embodiments, the step of inserting at least one 3D FTI into the 3D image of the exam for the subject to be examined comprises: splitting the 3D image of the exam to obtain a plurality of fragments of a 3D image of the subject to be examined; calculating the distances between the multiple fragments of the 3D image and their positions; and inserting a 3D FTI based on calculated distances and positions.

[0016] В соответствии с некоторыми вариантами осуществления этап вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета содержит: определение прозрачных частей и непрозрачных частей в данных объема обследуемого предмета на основании значений непрозрачности вокселов; определение положений и размеров границ обследуемого предмета из непрозрачных частей в данных объема; определение возможных положений вставки в прозрачные области в диапазоне границ; и выбор по меньшей мере одного положения из возможных положений вставки в соответствии с заданным критерием, чтобы вставить по меньшей мере одно 3D FTI по меньшей мере в одно выбранное положение.[0016] In accordance with some embodiments, the step of inserting at least one 3D FTI into the 3D image of the exam for the subject contains: determining transparent parts and opaque parts in the volume data of the subject based on the voxel opacity values; determination of the positions and sizes of the boundaries of the inspected object from opaque parts in volume data; identification of possible insertion positions in transparent areas in the range of borders; and selecting at least one position from the possible insertion positions in accordance with a predetermined criterion in order to insert at least one 3D FTI in at least one selected position.

[0017] В соответствии с некоторыми вариантами осуществления этап вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета содержит: удаление фонового изображения из 2D-изображения обследования, чтобы получить основное 2D-изображение; определение 2D-положения вставки 2D FTI в основное 2D-изображение; определение положения 3D FTI на 3D-изображении обследования в направлении глубины в 2D-положении вставки; и вставку по меньшей мере одного 3D FTI в определенное положение.[0017] In accordance with some embodiments, the step of inserting at least one 3D FTI into a 3D survey image for the subject to be examined comprises: removing a background image from the 2D survey image to obtain a main 2D image; determination of the 2D position of the insert 2D FTI in the main 2D image; determining the position of the 3D FTI in the 3D image of the survey in the depth direction in the 2D position of the insert; and inserting at least one 3D FTI at a specific position.

[0018] В соответствии с некоторыми вариантами осуществления способ дополнительно содержит: вставку 2D FTI, соответствующего по меньшей мере одному 3D FTI, в 2D-изображение обследования для обследуемого предмета.[0018] According to some embodiments, the method further comprises: inserting a 2D FTI corresponding to at least one 3D FTI into the 2D image of the exam for the subject being examined.

[0019] В соответствии с дополнительным аспектом настоящего изобретения предложена система компьютерной томографии (КТ) для досмотра, содержащая: устройство КТ-сканирования, выполненное с возможностью получения данных обследования для обследуемого предмета; запоминающее устройство, выполненное с возможностью хранения данных обследования; устройство отображения, выполненное с возможностью отображения трехмерного (3D) изображения обследования и/или двумерного (2D) изображения обследования для обследуемого предмета, причем 3D-изображение обследования получают из данных обследования, а 2D-изображение обследования получают из 3D-изображения обследования или данных обследования; устройство обработки данных, выполненное с возможностью вставки по меньшей мере одного фиктивного 3D-изображения опасного предмета (FTI) в 3D-изображение обследования для обследуемого предмета; и устройство ввода, выполненное с возможностью приема выбора по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, причем устройство обработки данных дополнительно выполнено с возможностью выдачи в ответ на выбор, обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI.[0019] In accordance with an additional aspect of the present invention, there is provided a computerized tomography (CT) system for inspection, comprising: a CT scan device configured to obtain examination data for an object to be examined; a storage device configured to store survey data; a display device configured to display a three-dimensional (3D) image of the examination and / or two-dimensional (2D) image of the examination for the subject being examined, wherein the 3D image of the examination is obtained from the examination data, and the 2D image of the examination is obtained from the 3D image of the examination or examination data ; a data processing device configured to insert at least one fictitious 3D image of a dangerous object (FTI) into a 3D image of the examination for the subject being examined; and an input device configured to receive a selection of at least one region in the 3D survey image including 3D FTI, or at least one region in the 2D survey image including 2D FTI corresponding to 3D FTI, the device the data processing is further configured to provide, in response to a choice, feedback on the 3D image of the survey, which includes at least one 3D FTI.

[0020] В соответствии с некоторыми вариантами осуществления устройство обработки данных дополнительно выполнено с возможностью вычисления по меньшей мере одного параметра пространственной характеристики обследуемого предмета в соответствии с данными обследования и для вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета на основании параметра пространственной характеристики.[0020] According to some embodiments, the data processing device is further configured to calculate at least one spatial parameter of the subject to be examined in accordance with the survey data and to insert at least one 3D FTI into the 3D image of the survey for the subject based on spatial parameter parameter.

[0021] В соответствии с некоторыми вариантами осуществления параметр пространственной характеристики относится по меньшей мере к одному из положения, размера и ориентации вставляемого 3D FTI.[0021] According to some embodiments, the spatial characteristic parameter refers to at least one of the position, size, and orientation of the inserted 3D FTI.

[0022] В соответствии с дополнительным аспектом настоящего изобретения предложен способ отметки подозрительного предмета в системе КТ для досмотра, содержащий этапы: удаления прозрачных областей из данных КТ, полученных системой КТ для досмотра, чтобы получить иерархический ограничивающий прямоугольник из непрозрачных областей в данных КТ; визуализации глубины сцены для иерархического ограничивающего прямоугольника, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне; выполнения поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне, используя сделанные пользователем отметки, в направлении линии визирования, чтобы сформировать первый ограничивающий прямоугольник; выполнения отслеживания лучей при сформированном первом ограничивающем прямоугольнике в качестве носителя текстуры; выполнения поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне, используя сделанные пользователем отметки, в направлении, ортогональном направлению линии визирования, чтобы сформировать второй ограничивающий прямоугольник; выполнения операции булева пересечения над первым ограничивающим прямоугольником и вторым ограничивающим прямоугольником в пространстве изображений, чтобы получить отмеченную область в 3D-пространстве; и отображения отмеченной области в 3D-пространстве совместно с данными КТ.[0022] In accordance with a further aspect of the present invention, there is provided a method for marking a suspicious item in a CT scan system, comprising the steps of: removing transparent areas from CT data obtained by the CT scan system to obtain a hierarchical bounding box from opaque areas in CT data; visualizing the scene depth for the hierarchical bounding box to obtain a depth map on the front side and a depth map on the back side; performing a search, respectively, on the depth map on the front side and the depth map on the back side, using the marks made by the user, in the direction of the line of sight to form a first bounding box; performing ray tracking when the first bounding box is formed as a texture carrier; performing a search respectively on the depth map on the front side and the depth map on the back side, using the marks made by the user, in a direction orthogonal to the direction of the line of sight to form a second bounding box; performing a Boolean intersection operation on the first bounding box and the second bounding box in the image space to obtain a marked area in 3D space; and displaying the marked area in 3D space together with CT data.

[0023] В соответствии с некоторыми вариантами осуществления этап удаления прозрачных областей содержит: создание выборки данных КТ в направлении линии визирования; выполнение интегрирования объемной визуализации над сегментом между каждыми двумя выборочными точками, используя таблицу поиска для предварительного интегрирования на основании непрозрачности, чтобы получить непрозрачность, соответствующую тому сегменту; и удаление прозрачных областей путем подразделения, используя алгоритм кодирования октодерева, чтобы получить иерархический ограничивающий прямоугольник, соответствующий непрозрачным областям данных.[0023] In accordance with some embodiments, the step of removing transparent areas comprises: creating a CT data sample in the direction of the line of sight; performing volumetric visualization integration over a segment between each two sample points using a lookup table for preliminary integration based on opacity to obtain opacity corresponding to that segment; and removing transparent regions by subdivision using the octree encoding algorithm to obtain a hierarchical bounding box corresponding to opaque data regions.

[0024] В соответствии с некоторыми вариантами осуществления этап визуализации глубины сцены содержит: удаление сечения с относительно большим значением глубины, чтобы получить карту глубин на передней стороне; и удаление сечения с относительно малым значением глубины, чтобы получить карту глубин на задней стороне.[0024] According to some embodiments, the step of visualizing the depth of a scene comprises: removing a section with a relatively large depth value to obtain a depth map on the front side; and removing a cross section with a relatively small depth value to obtain a depth map on the back side.

[0025] В соответствии с некоторыми вариантами осуществления первый ограничивающий прямоугольник и второй ограничивающий прямоугольник являются ограничивающими прямоугольниками в любом направлении.[0025] According to some embodiments, the first bounding rectangle and the second bounding rectangle are bounding rectangles in any direction.

[0026] В соответствии с некоторыми вариантами осуществления отмеченная область в 3D-пространстве отображается совместно с данными КТ, используя основанную на ограниченности пространства функцию преобразования.[0026] In accordance with some embodiments, a marked area in 3D space is displayed together with CT data using a space-based transform function.

[0027] В соответствии с дополнительным аспектом настоящего изобретения предложено устройство для отметки подозрительного предмета в системе КТ для досмотра, содержащее: средство для удаления прозрачных областей из данных КТ, полученных системой КТ для досмотра, чтобы получить иерархический ограничивающий прямоугольник из непрозрачных областей в данных КТ; средство для визуализации глубины сцены для иерархического ограничивающего прямоугольника, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне; средство для выполнения поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне, используя сделанные пользователем отметки, в направлении линии визирования, чтобы сформировать первый ограничивающий прямоугольник; средство для выполнения отслеживания лучей при сформированном первом ограничивающем прямоугольнике в качестве носителя текстуры; средство для выполнения поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне, используя сделанные пользователем отметки, в направлении, ортогональном направлению линии визирования, чтобы сформировать второй ограничивающий прямоугольник; средство для выполнения операции булева пересечения над первым ограничивающим прямоугольником и вторым ограничивающим прямоугольником в пространстве изображений, чтобы получить отмеченную область в 3D-пространстве; и средство для отображения отмеченной области в 3D-пространстве совместно с данными КТ.[0027] In accordance with an additional aspect of the present invention, there is provided an apparatus for marking a suspicious item in a CT scan system, comprising: means for removing transparent areas from CT data obtained by the CT scan system to obtain a hierarchical bounding box from opaque areas in CT data ; means for visualizing a scene depth for a hierarchical bounding box to obtain a depth map on the front side and a depth map on the back side; means for performing a search, respectively, on the depth map on the front side and the depth map on the back side, using the marks made by the user, in the direction of the line of sight to form a first bounding box; means for performing ray tracking with the first bounding box formed as a texture carrier; means for performing a search, respectively, on the depth map on the front side and the depth map on the back side, using the marks made by the user, in a direction orthogonal to the direction of the line of sight to form a second bounding box; means for performing the Boolean intersection operation on the first bounding box and the second bounding box in the image space to obtain a marked area in 3D space; and means for displaying the marked area in 3D space in conjunction with CT data.

[0028] В соответствии с некоторыми вариантами осуществления средство для удаления прозрачных областей содержит: средство для создания выборки данных КТ в направлении линии визирования; средство для выполнения интегрирования объемной визуализации над сегментом между каждыми двумя выборочными точками, используя способ с таблицей поиска, чтобы получить непрозрачность, соответствующую тому сегменту; и средство для удаления прозрачных областей путем подразделения, используя алгоритм кодирования октодерева, чтобы получить иерархический ограничивающий прямоугольник.[0028] According to some embodiments, the means for removing transparent areas comprises: means for creating a CT data sample in the direction of the line of sight; means for performing the integration of volumetric visualization over the segment between each two sample points, using the method with the search table, to obtain the opacity corresponding to that segment; and means for removing transparent regions by subdivision using the octree encoding algorithm to obtain a hierarchical bounding box.

[0029] В соответствии с некоторыми вариантами осуществления средство для визуализации глубины сцены содержит: средство для удаления сечения с относительно большим значением глубины, чтобы получить карту глубин на передней стороне; и средство для удаления сечения с относительно малым значением глубины, чтобы получить карту глубин на задней стороне.[0029] According to some embodiments, the means for visualizing the depth of the scene comprises: means for removing a section with a relatively large depth value to obtain a depth map on the front side; and means for removing a cross section with a relatively small depth value to obtain a depth map on the back side.

[0030] С помощью вышеприведенного технического решения пользователю удобно быстро отмечать подозрительный предмет на КТ-изображении, и выдается обратная связь о том, присутствует ли FTI.[0030] Using the above technical solution, it is convenient for the user to quickly mark a suspicious item in the CT image, and feedback is provided on whether FTI is present.

Краткое описание чертежейBrief Description of the Drawings

[0031] Для лучшего понимания настоящего изобретения настоящее изобретение будет подробно описано в соответствии с прилагаемыми чертежами, на которых:[0031] For a better understanding of the present invention, the present invention will be described in detail in accordance with the accompanying drawings, in which:

[0032] Фиг. 1 - структурная схема, иллюстрирующая систему КТ для досмотра в соответствии с вариантом осуществления настоящего изобретения;[0032] FIG. 1 is a block diagram illustrating a CT examination system in accordance with an embodiment of the present invention;

[0033] Фиг. 2 - структурная блок-схема, иллюстрирующая компьютерное устройство обработки данных, показанное на фиг. 1;[0033] FIG. 2 is a structural block diagram illustrating a computer data processing device shown in FIG. one;

[0034] Фиг. 3 - структурная блок-схема, иллюстрирующая контроллер в соответствии с вариантом осуществления настоящего изобретения;[0034] FIG. 3 is a structural block diagram illustrating a controller in accordance with an embodiment of the present invention;

[0035] Фиг. 4A - блок-схема алгоритма, иллюстрирующая способ в системе досмотра в соответствии с вариантом осуществления настоящего изобретения;[0035] FIG. 4A is a flowchart illustrating a method in an inspection system in accordance with an embodiment of the present invention;

[0036] Фиг. 4B - блок-схема алгоритма, иллюстрирующая способ для отметки подозрительного предмета в системе КТ в соответствии с вариантом осуществления настоящего изобретения;[0036] FIG. 4B is a flowchart illustrating a method for marking a suspicious item in a CT system in accordance with an embodiment of the present invention;

[0037] Фиг. 5 - схематическое представление, иллюстрирующее алгоритм подразделения октодерева;[0037] FIG. 5 is a schematic diagram illustrating an octet division algorithm;

[0038] Фиг. 6 - схема, иллюстрирующая иерархический ограничивающий прямоугольник, полученный с использованием алгоритма подразделения октодерева в соответствии с вариантом осуществления настоящего изобретения;[0038] FIG. 6 is a diagram illustrating a hierarchical bounding box obtained using an octree division algorithm in accordance with an embodiment of the present invention;

[0039] Фиг. 7 - схема, иллюстрирующая карту глубин на передней стороне в соответствии с вариантом осуществления настоящего изобретения;[0039] FIG. 7 is a diagram illustrating a depth map on the front side in accordance with an embodiment of the present invention;

[0040] Фиг. 8 - схема, иллюстрирующая карту глубин на задней стороне в соответствии с вариантом осуществления настоящего изобретения;[0040] FIG. 8 is a diagram illustrating a depth map on the rear side in accordance with an embodiment of the present invention;

[0041] Фиг. 9 - схема, иллюстрирующая процесс отслеживания лучей в соответствии с вариантом осуществления настоящего изобретения;[0041] FIG. 9 is a diagram illustrating a ray tracking process in accordance with an embodiment of the present invention;

[0042] Фиг. 10 - схема, иллюстрирующая сделанные пользователем отметки в соответствии с вариантом осуществления настоящего изобретения;[0042] FIG. 10 is a diagram illustrating user-made marks in accordance with an embodiment of the present invention;

[0043] Фиг. 11 - схема, иллюстрирующая процесс поиска на передней стороне и задней стороне с использованием отметок от пользователя;[0043] FIG. 11 is a diagram illustrating a search process on a front side and a back side using marks from a user;

[0044] Фиг. 12 - схема, иллюстрирующая результат, полученный в результате поиска на передней стороне и задней стороне в соответствии с вариантом осуществления настоящего изобретения;[0044] FIG. 12 is a diagram illustrating a result of a search on the front side and the back side in accordance with an embodiment of the present invention;

[0045] Фиг. 13 - схема, иллюстрирующая ориентированный ограничивающий прямоугольник (OBB) со столбцами из отмеченных точек в соответствии с вариантом осуществления настоящего изобретения;[0045] FIG. 13 is a diagram illustrating an oriented bounding box (OBB) with columns of marked points in accordance with an embodiment of the present invention;

[0046] Фиг. 14 - схема, иллюстрирующая новый диапазон отслеживания лучей, обновленный на основании предыдущего результата отметки;[0046] FIG. 14 is a diagram illustrating a new ray tracking range updated based on a previous mark result;

[0047] Фиг. 15 - схема, иллюстрирующая результат от нанесения отметок во второй раз в ортогональном направлении в соответствии с вариантом осуществления настоящего изобретения;[0047] FIG. 15 is a diagram illustrating a result of marking a second time in the orthogonal direction in accordance with an embodiment of the present invention;

[0048] Фиг. 16 иллюстрирует результат, полученный в результате поиска на передней стороне и задней стороне с использованием отметок, сделанных во второй раз, в соответствии с вариантом осуществления настоящего изобретения;[0048] FIG. 16 illustrates a result of a search on the front side and the back side using marks made a second time in accordance with an embodiment of the present invention;

[0049] Фиг. 17 - схема, иллюстрирующая ограничивающий прямоугольник OBB со столбцами из отмеченных точек в соответствии с вариантом осуществления настоящего изобретения;[0049] FIG. 17 is a diagram illustrating a bounding box of an OBB with columns of marked points in accordance with an embodiment of the present invention;

[0050] Фиг. 18 - схема, иллюстрирующая процесс выполнения операции булева пересечения над двумя предметами в пространстве изображений в соответствии с вариантом осуществления настоящего изобретения;[0050] FIG. 18 is a diagram illustrating a process for performing a Boolean intersection operation on two objects in an image space in accordance with an embodiment of the present invention;

[0051] Фиг. 19 - схема, иллюстрирующая полученную в конечном счете отмеченную 3D-область подозрительного предмета в соответствии с вариантом осуществления настоящего изобретения; и[0051] FIG. 19 is a diagram illustrating the ultimately obtained marked 3D region of a suspicious object in accordance with an embodiment of the present invention; and

[0052] Фиг. 20 - схема, иллюстрирующая отображение отмеченного подозрительного предмета совместно с исходными данными в соответствии с вариантом осуществления настоящего изобретения.[0052] FIG. 20 is a diagram illustrating a display of a marked suspicious item in conjunction with the source data in accordance with an embodiment of the present invention.

Осуществление изобретенияThe implementation of the invention

[0053] Ниже будут подробно описываться конкретные варианты осуществления настоящего изобретения. Следует отметить, что описанные в этом документе варианты осуществления приведены только для иллюстрации, не ограничивая настоящее изобретение. Ниже в описании объясняется некоторое количество характерных подробностей для обеспечения лучшего понимания настоящего изобретения. Однако специалистам в данной области техники очевидно, что настоящее изобретение можно реализовать без этих характерных подробностей. В иных случаях известные структуры, материалы или способы не описаны подробно, чтобы не затруднять понимание идеи настоящего изобретения.[0053] Specific embodiments of the present invention will be described in detail below. It should be noted that the embodiments described herein are for illustration only, not limiting the present invention. The following description explains a number of characteristic details in order to provide a better understanding of the present invention. However, it will be apparent to those skilled in the art that the present invention can be practiced without these specific details. In other cases, known structures, materials or methods are not described in detail so as not to impede the understanding of the idea of the present invention.

[0054] По всему описанию изобретения упоминание понятий «один вариант осуществления», «вариант осуществления», «один пример» или «пример» означает, что конкретные признаки, структуры или свойства, описанные в сочетании с тем вариантом осуществления или примером, включены по меньшей мере в один вариант осуществления настоящего изобретения. Поэтому фраза «в одном варианте осуществления», «в варианте осуществления», «в одном примере» или «в примере» в различных местах по всему описанию изобретения не обязательно может относиться к одному и тому же варианту осуществления или примеру. Кроме того, конкретные признаки, структуры или свойства можно воплотить в одном или более вариантах осуществления или примерах в любой подходящей комбинации и/или подкомбинации. Кроме того, специалистам в данной области техники следует понимать, что используемый в этом документе термин «и/или» означает любую и все комбинации одного или более перечисленных элементов.[0054] Throughout the description of the invention, reference to the terms “one embodiment”, “embodiment”, “one example” or “example” means that specific features, structures or properties described in conjunction with that embodiment or example are included in in at least one embodiment of the present invention. Therefore, the phrase “in one embodiment”, “in an embodiment”, “in one example” or “in an example” in various places throughout the description of the invention may not necessarily refer to the same embodiment or example. In addition, specific features, structures, or properties may be embodied in one or more embodiments or examples in any suitable combination and / or subcombination. In addition, those skilled in the art should understand that the term “and / or” as used herein means any and all combinations of one or more of the listed elements.

[0055] Что касается невозможности быстрой вставки 3D FTI в уровне техники, в соответствии с вариантами осуществления настоящего изобретения считываются данные обследования для обследуемого предмета. По меньшей мере одно 3D FTI вставляется в 3D-изображение обследования для обследуемого предмета, причем 3D-изображение обследования получают из данных обследования. Принимается выбор по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, причем 2D-изображение обследования получают из 3D-изображения обследования или получают из данных обследования. В ответ на выбор выдается обратная связь о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI. С помощью вышеприведенного решения пользователю удобно быстро отмечать подозрительный предмет на КТ-изображении, и выдается обратная связь о том, присутствует ли FTI.[0055] Regarding the impossibility of quickly inserting 3D FTI in the prior art, in accordance with embodiments of the present invention, survey data for the subject being examined is read. At least one 3D FTI is inserted into the 3D image of the examination for the subject being examined, wherein the 3D image of the examination is obtained from the examination data. A selection is made of at least one region in the 3D image of the survey including 3D FTI, or at least one region in the 2D image of the survey including 2D FTI corresponding to 3D FTI, wherein the 2D image of the survey is obtained from 3D survey images or obtained from survey data. In response to the selection, feedback is provided about the 3D image of the survey, including at least one 3D FTI. Using the above solution, it is convenient for the user to quickly mark a suspicious item in the CT image, and feedback is given on whether FTI is present.

[0056] Фиг. 1 - структурная схема, иллюстрирующая систему КТ в соответствии с вариантом осуществления настоящего изобретения. Как показано на фиг. 1, устройство КТ в соответствии с настоящим вариантом осуществления содержит раму 20, перемещающий элемент 40, контроллер 50, компьютерное устройство 60 обработки данных или т.п. Рама 20 содержит источник 10 излучения для излучения рентгеновских лучей для обследования, например рентгеновский излучатель, и устройство 30 обнаружения и сбора. Перемещающий элемент 40 перемещает обследуемый багаж 70 для прохождения через область сканирования между источником 10 излучения и устройством 30 обнаружения и сбора в раме 20, в то время как рама 20 вращается вокруг направления движения обследуемого багажа 70. Таким образом, луч, излученный из источника 10 излучения, может проходить через обследуемый багаж 70, чтобы реализовать КТ-сканирование обследуемого багажа 70.[0056] FIG. 1 is a block diagram illustrating a CT system in accordance with an embodiment of the present invention. As shown in FIG. 1, a CT device in accordance with the present embodiment comprises a frame 20, a moving member 40, a controller 50, a computer processing device 60, or the like. The frame 20 comprises a radiation source 10 for emitting x-rays for examination, for example, an x-ray emitter, and a detection and acquisition device 30. The moving element 40 moves the examined baggage 70 to pass through the scanning area between the radiation source 10 and the detection and collection device 30 in the frame 20, while the frame 20 rotates around the direction of movement of the examined baggage 70. Thus, the beam emitted from the radiation source 10 , can pass through the examined baggage 70 to implement a CT scan of the examined baggage 70.

[0057] Устройство 30 обнаружения и сбора является, например, составным модулем со встроенными в него детектором и блоком сбора данных, например плоским детектором, для обнаружения лучей, проходящих через обследуемый предмет, чтобы получить аналоговый сигнал, и преобразования аналогового сигнала в цифровой сигнал, чтобы вывести данные проекции обследуемого багажа 70 относительно рентгеновских лучей. Контроллер 50 выполнен с возможностью управления различными частями всей системы для совместной работы. Компьютерное устройство 60 обработки данных выполнено с возможностью обработки данных, собранных блоком сбора данных, восстановления данных и вывода результата.[0057] The detection and acquisition device 30 is, for example, a composite module with an integrated detector and a data acquisition unit, for example a flat detector, for detecting rays passing through an object to be examined to obtain an analog signal, and converting the analog signal to a digital signal, to display the projection data of the examined baggage 70 relative to x-rays. The controller 50 is configured to control various parts of the entire system for collaboration. Computer device 60 data processing is configured to process data collected by the data collection unit, data recovery and output.

[0058] Как показано на фиг. 1, источник 10 излучения размещается на одной стороне обследуемого предмета, а устройство 30 обнаружения и сбора (включающее в себя детектор и блок сбора данных) размещается на другой стороне обследуемого багажа 70, чтобы получить многораскурсные данные проекции обследуемого багажа 70. Блок сбора данных содержит схему усиления и формирования данных, которая может работать в режиме интегратора электрического тока или в режиме счета импульсов. Устройство 30 обнаружения и сбора имеет кабель вывода данных, соединенный с контроллером 50 и компьютерным устройством 60 обработки данных, для сохранения собранных данных в компьютерном устройстве 60 обработки данных в соответствии с запускающей командой.[0058] As shown in FIG. 1, a radiation source 10 is placed on one side of the subject to be examined, and a detection and collection device 30 (including a detector and a data collection unit) is placed on the other side of the examined baggage 70 to obtain multi-projection projection data of the examined baggage 70. The data collection unit contains a circuit amplification and data generation, which can operate in the mode of an integrator of electric current or in the pulse counting mode. The detection and acquisition device 30 has a data output cable connected to the controller 50 and the computer data processing device 60 for storing the collected data in the computer data processing device 60 in accordance with the trigger command.

[0059] Фиг. 2 - структурная блок-схема, иллюстрирующая компьютерное устройство 60 обработки данных, показанное на фиг. 1. Как показано на фиг. 2, данные, собранные блоком сбора данных, сохраняются в запоминающем устройстве 61 посредством интерфейсного блока 68 и шины 64. В постоянном запоминающем устройстве 62 (ROM) хранится конфигурационная информация и программы компьютерного устройства обработки данных. Оперативное запоминающее устройство 63 (RAM) выполнено с возможностью временного хранения различных данных во время работы процессора 66. К тому же в запоминающем устройстве 61 также хранится компьютерная программа для обработки данных. Внутренняя шина 64 выполнена с возможностью соединения запоминающего устройства 61, ROM 62, RAM 63, устройства 65 ввода, процессора 66, устройства 67 отображения и интерфейсного блока 68, которые описаны выше.[0059] FIG. 2 is a structural block diagram illustrating the computer data processing apparatus 60 shown in FIG. 1. As shown in FIG. 2, the data collected by the data acquisition unit is stored in the storage device 61 through the interface unit 68 and the bus 64. The configuration information and programs of the computer data processing device are stored in the read-only memory 62 (ROM). The random access memory 63 (RAM) is configured to temporarily store various data during the operation of the processor 66. In addition, a computer program for processing data is also stored in the memory 61. The internal bus 64 is configured to connect a storage device 61, ROM 62, RAM 63, an input device 65, a processor 66, a display device 67, and an interface unit 68 as described above.

[0060] После того, как пользователь вводит команду операции посредством устройства 65 ввода, например клавиатуры, мыши или т.п., коды команд в компьютерной программе управляют процессором 66 для исполнения заданного алгоритма обработки данных, а после получения результата обработки данных - для отображения результата на устройстве 67 отображения, например жидкокристаллическом (LCD) дисплее или т.п., или вывода результата обработки сразу в твердой копии, например распечатке.[0060] After a user enters an operation command via an input device 65, for example, a keyboard, mouse, or the like, the instruction codes in a computer program control the processor 66 to execute a given data processing algorithm, and after receiving a data processing result, to display the result on the display device 67, such as a liquid crystal display (LCD) display or the like, or outputting the processing result immediately to a hard copy, such as a print.

[0061] Фиг. 3 - структурная блок-схема, показывающая контроллер в соответствии с вариантом осуществления настоящего изобретения. Как показано на фиг. 3, контроллер 50 содержит блок 51 управления, выполненный с возможностью управления источником 10 излучения, перемещающим элементом 40 и устройством 30 обнаружения и сбора в соответствии с командами от компьютера 60; блок 52 формирования запускающего сигнала, выполненный с возможностью формирования запускающей команды для запуска источника 10 излучения, устройства 30 обнаружения и сбора и перемещающего элемента 40 для работы под управлением блока управления; первое приводное устройство 53, выполненное с возможностью приведения в действие перемещающего элемента 40, чтобы перемещать обследуемый багаж 70 в соответствии с запускающей командой, сформированной блоком 52 формирования триггерного сигнала под управлением блока 51 управления; и второе приводное устройство 54, выполненное с возможностью приведения в действие рамы 20, чтобы вращаться в соответствии с запускающей командой, сформированной блоком 52 формирования триггерного сигнала под управлением блока 51 управления. Данные проекции, полученные устройством 30 обнаружения и сбора, сохраняются в компьютере 60 для восстановления томографических изображений, чтобы получить данные томографических изображений обследуемого багажа 70. Затем компьютер 60 получает DR-изображение обследуемого багажа 70 по меньшей мере под неким углом обзора из данных томографических изображений путем исполнения программного обеспечения и отображает DR-изображение вместе с восстановленным трехмерным изображением для удобства досмотра с помощью устройства распознавания изображений. В соответствии с другими вариантами осуществления вышеупомянутая система КТ-визуализации может быть системой двухэнергетической КТ, то есть источник 10 рентгеновского излучения в раме 20 может излучать два типа лучей, то есть жесткое излучение и мягкое излучение. После того, как устройство 30 обнаружения и сбора обнаруживает данные проекции на разных энергетических уровнях, компьютерное устройство 60 обработки данных реализует восстановление двухэнергетической КТ, чтобы получить эквивалентные атомные числа и данные о концентрации электронов у различных томографических изображений обследуемого багажа 70.[0061] FIG. 3 is a structural block diagram showing a controller in accordance with an embodiment of the present invention. As shown in FIG. 3, the controller 50 comprises a control unit 51 configured to control a radiation source 10, a moving member 40, and a detection and acquisition device 30 in accordance with commands from a computer 60; a trigger signal generating unit 52, configured to generate a trigger command to start a radiation source 10, a detection and acquisition device 30, and a moving member 40 for operation under control of a control unit; a first drive device 53 configured to actuate the moving member 40 to move the inspected baggage 70 in accordance with a trigger command generated by the trigger signal generating unit 52 under the control of the control unit 51; and a second drive device 54 configured to drive the frame 20 to rotate in accordance with the trigger command generated by the trigger signal generating unit 52 under the control of the control unit 51. The projection data obtained by the detection and collection device 30 is stored in a tomographic image recovery computer 60 to obtain tomographic images of the examined baggage 70. Then, the computer 60 obtains a DR image of the examined baggage 70 at least from a certain viewing angle from the tomographic image data by software execution and displays a DR image together with a reconstructed three-dimensional image for easy inspection using an image recognition device niy. In accordance with other embodiments, the aforementioned CT imaging system may be a dual energy CT system, that is, the x-ray source 10 in the frame 20 can emit two types of rays, i.e., hard radiation and soft radiation. After the detection and acquisition device 30 detects projection data at different energy levels, the computer data processing device 60 implements a dual energy CT reconstruction to obtain equivalent atomic numbers and electron concentration data from various tomographic images of the examined baggage 70.

[0062] Фиг. 4A - блок-схема алгоритма, иллюстрирующая способ в системе досмотра в соответствии с вариантом осуществления настоящего изобретения.[0062] FIG. 4A is a flowchart illustrating a method in an inspection system in accordance with an embodiment of the present invention.

[0063] Как показано на фиг. 4A, на этапе S401 считываются данные обследования для обследуемого предмета.[0063] As shown in FIG. 4A, in step S401, survey data for the subject being examined is read.

[0064] На этапе S402 по меньшей мере одно 3D FTI вставляется в 3D-изображение обследования для обследуемого предмета, причем 3D-изображение обследования получают из данных обследования. Например, устройство обработки данных выбирает одно или более 3D-изображений из базы данных FTI и вставляет одно или более 3D-изображений в 3D-изображение обследования для обследуемого предмета.[0064] In step S402, at least one 3D FTI is inserted into the 3D image of the examination for the subject being examined, wherein the 3D image of the examination is obtained from the examination data. For example, the data processing device selects one or more 3D images from the FTI database and inserts one or more 3D images into the 3D image of the examination for the subject being examined.

[0065] На этапе S403 принимается выбор по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, причем 2D-изображение обследования получают из 3D-изображения обследования или получают из данных обследования. Например, пользователь задействует устройство ввода для активации кнопки-флажка, чтобы выбрать некоторую область, или рисует окружность, чтобы она включала в себя некоторую область на изображении, отображенном на экране.[0065] In step S403, at least one area in the 3D survey image including 3D FTI is received, or at least one region in the 2D survey image including 2D FTI corresponding to 3D FTI, wherein 2D the image of the survey is obtained from a 3D image of the survey or obtained from the survey data. For example, a user uses an input device to activate a check box to select a certain area, or draws a circle so that it includes a certain area in the image displayed on the screen.

[0066] На этапе S404 в ответ на выбор выдается обратная связь о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI.[0066] In step S404, a 3D survey image including at least one 3D FTI is provided in response to a selection.

[0067] В некоторых вариантах осуществления этап приема выбора по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, содержит: прием координат части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором.[0067] In some embodiments, the step of receiving a selection of at least one area in a 3D survey image including a 3D FTI, or at least one area in a 2D survey image including a 2D FTI corresponding to a 3D FTI, comprises : Receiving the coordinates of a portion of a 3D survey image or 2D survey image associated with a selection.

[0068] В некоторых вариантах осуществления этап выдачи в ответ на выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит по меньшей мере одно из:[0068] In some embodiments, the step of issuing, in response to a feedback selection of a 3D survey image including at least one 3D FTI, comprises at least one of:

- оценивания, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI;assessing whether at least one selected area includes at least one 3D FTI;

- отображения диалога для подтверждения, что 3D-изображение обследования включает в себя по меньшей мере одно 3D FTI;- displaying a dialog to confirm that the 3D image of the examination includes at least one 3D FTI;

- выдачи текстового указания в интерфейсе для подтверждения, что 3D-изображение обследования включает в себя по меньшей мере одно 3D FTI;- issuing a textual instruction in the interface to confirm that the 3D image of the examination includes at least one 3D FTI;

- выделения части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором;- highlighting a portion of the 3D survey image or 2D survey image associated with the selection;

- отметки части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором; и- marks of a portion of the 3D survey image or 2D survey image associated with the selection; and

- заполнения части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с выбором, конкретным цветом или узором.- filling part of the 3D image of the survey or 2D image of the survey associated with the choice, a specific color or pattern.

[0069] Например, вычисляется по меньшей мере один параметр пространственной характеристики обследуемого предмета в соответствии с данными обследования, и по меньшей мере одно 3D FTI вставляется в 3D-изображение обследования для обследуемого предмета на основании параметра пространственной характеристики. В некоторых вариантах осуществления параметр пространственной характеристики относится по меньшей мере к одному из положения, размера и ориентации вставляемого 3D FTI. К тому же выбор по меньшей мере одной области содержит выбор части отображенного 3D-изображения обследования под некоторым углом обзора. Например, при 3D-визуализации 3D-изображения обследования записывается информация об облаке точек, характеризующая обследуемый предмет, и этап выдачи в ответ на выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит: получение последовательности кластеров информации об облаке точек разных предметов в обследуемом предмете путем разделения; определение по меньшей мере одной выбранной области из последовательности кластеров информации об облаке точек разных предметов на основании заданного критерия; и оценивание, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.[0069] For example, at least one spatial parameter of the subject to be examined is calculated in accordance with the survey data, and at least one 3D FTI is inserted into the 3D survey image for the subject to be examined based on the spatial characteristic. In some embodiments, the spatial parameter setting relates to at least one of the position, size, and orientation of the inserted 3D FTI. In addition, the selection of at least one area comprises the selection of a portion of the displayed 3D image of the examination at a certain viewing angle. For example, when 3D-visualizing a 3D image of an examination, information about a point cloud characterizing the object being examined is recorded, and the stage of issuing in response to a feedback selection about a 3D image of the examination, which includes at least one 3D FTI, contains: obtaining a sequence of clusters information about the point cloud of different objects in the subject being examined by separation; determining at least one selected area from a sequence of clusters of information about a cloud of points of different objects based on a given criterion; and evaluating whether at least one selected area includes at least one 3D FTI.

[0070] В других вариантах осуществления выбор по меньшей мере одной области содержит выбор части отображенного 3D-изображения обследования под множеством углами обзора. Например, выбор по меньшей мере одной области содержит выбор части отображенного 3D-изображения обследования под двумя разными углами обзора, причем два разных угла обзора по существу ортогональны друг другу. Здесь прозрачные области удаляются из данных обследования, чтобы получить иерархический ограничивающий прямоугольник из непрозрачных областей в данных обследования, а затем визуализируется глубина сцены для иерархического ограничивающего прямоугольника, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне. Этап выдачи в ответ на выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит: выполнение поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне в соответствии с выбранной пользователем областью под первым углом обзора, чтобы сформировать первый ограничивающий прямоугольник; выполнение отслеживания лучей при сформированном первом ограничивающем прямоугольнике в качестве носителя текстуры; выполнение поиска соответственно на карте глубин на передней стороне и карте глубин на задней стороне в соответствии с выбранной пользователем областью под вторым углом обзора, по существу ортогональным первому углу обзора, чтобы сформировать второй ограничивающий прямоугольник; выполнение операции булева пересечения над первым ограничивающим прямоугольником и вторым ограничивающим прямоугольником в пространстве изображений, чтобы получить отмеченную область в 3D-пространстве в качестве по меньшей мере одной выбранной области; и оценивание, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.[0070] In other embodiments, the selection of at least one area comprises selecting a portion of the displayed 3D survey image at multiple viewing angles. For example, selecting at least one region comprises selecting a portion of the displayed 3D survey image at two different viewing angles, the two different viewing angles being substantially orthogonal to each other. Here, the transparent areas are removed from the survey data to obtain a hierarchical bounding box from opaque areas in the survey data, and then the scene depth for the hierarchical bounding box is visualized to obtain a depth map on the front side and a depth map on the back side. The step of issuing in response to the selection of feedback about the 3D image of the survey, which includes at least one 3D FTI, comprises: performing a search respectively on the depth map on the front side and the depth map on the back side in accordance with the user-selected area at the first angle a view to form a first bounding box; performing ray tracking when the first bounding box is formed as a texture carrier; performing a search, respectively, on the depth map on the front side and the depth map on the back side in accordance with a user-selected region at a second viewing angle substantially orthogonal to the first viewing angle to form a second bounding box; performing a Boolean intersection operation on the first bounding box and the second bounding box in the image space to obtain a marked area in 3D space as at least one selected area; and evaluating whether at least one selected area includes at least one 3D FTI.

[0071] В некоторых вариантах осуществления этап вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета содержит: разделение 3D-изображения обследования, чтобы получить множество фрагментов 3D-изображения обследуемого предмета; вычисление расстояний между множеством фрагментов 3D-изображения и их положений; и вставку 3D FTI на основании вычисленных расстояний и положений.[0071] In some embodiments, the step of inserting at least one 3D FTI into the 3D image of the exam for the subject is comprising: splitting the 3D image of the exam to obtain a plurality of fragments of a 3D image of the subject; calculating the distances between the multiple fragments of the 3D image and their positions; and inserting a 3D FTI based on calculated distances and positions.

[0072] В других вариантах осуществления этап вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета содержит: определение прозрачных частей и непрозрачных частей в данных объема обследуемого предмета на основании значений непрозрачности вокселов; определение положений и размеров границ обследуемого предмета из непрозрачных частей в данных объема; определение возможных положений вставки в прозрачные области в диапазоне границ; и выбор по меньшей мере одного положения из возможных положений вставки в качестве по меньшей мере одной выбранной области в соответствии с заданным критерием; и оценивание, включает ли по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.[0072] In other embodiments, the step of inserting at least one 3D FTI into the 3D image of the exam for the subject contains: determining transparent parts and opaque parts in the volume data of the subject being examined based on the voxel opacity values; determination of the positions and sizes of the boundaries of the inspected object from opaque parts in volume data; identification of possible insertion positions in transparent areas in the range of borders; and selecting at least one position from the possible insertion positions as at least one selected area in accordance with a predetermined criterion; and evaluating whether at least one selected area includes at least one 3D FTI.

[0073] В других вариантах осуществления этап вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета содержит: удаление фонового изображения из 2D-изображения обследования, чтобы получить основное 2D-изображение; определение 2D-положения вставки 2D FTI в основное 2D-изображение; определение положения 3D FTI на 3D-изображении обследования в направлении глубины в 2D-положении вставки; и вставку по меньшей мере одного 3D FTI в определенное положение.[0073] In other embodiments, the step of inserting at least one 3D FTI into the 3D survey image for the subject to be examined comprises: removing a background image from the 2D survey image to obtain a main 2D image; determination of the 2D position of the insert 2D FTI in the main 2D image; determining the position of the 3D FTI in the 3D image of the survey in the depth direction in the 2D position of the insert; and inserting at least one 3D FTI at a specific position.

[0074] 3D FTI вставляются, как описано выше, но в некоторых вариантах осуществления настоящего изобретения 2D FTI, соответствующее по меньшей мере одному 3D FTI, можно вставить в 2D-изображение обследования для обследуемого предмета.[0074] 3D FTIs are inserted as described above, but in some embodiments of the present invention, a 2D FTI corresponding to at least one 3D FTI can be inserted into a 2D image of an examination for a subject.

[0075] Кроме того, в отношении проблемы в уровне техники некоторые варианты осуществления настоящего изобретения предлагают технологию быстрой отметки подозрительного предмета. После того, как из данных удаляются прозрачные области, новые положения падения и выхода отслеживаемого луча получаются и записываются в качестве карты глубин. На основании этого восстанавливается информация о глубине 2D-отметки в пространстве вокселов. Над двумя полученными геометрическими формами выполняется операция булева пересечения в пространстве изображений, чтобы в конечном счете получить отмеченную область в 3D-пространстве.[0075] In addition, with respect to a problem in the prior art, some embodiments of the present invention provide a quick marking technique for a suspicious item. After the transparent areas are removed from the data, new positions of incidence and exit of the tracked beam are obtained and recorded as a depth map. Based on this, information on the depth of the 2D mark in the voxel space is restored. Two obtained geometric shapes are subject to the operation of Boolean intersection in the image space in order to ultimately get the marked area in 3D space.

[0076] Например, в некоторых вариантах осуществления прежде всего удаляются прозрачные области, чтобы быстро получить компактный иерархический ограничивающий прямоугольник из непрозрачных областей в данных, а затем визуализируется сформированный выше иерархический ограничивающий прямоугольник, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне, которые являются уравненными положениями падения и выхода отслеживаемого луча. Далее выполняется первое считывание в направлении текущей линии визирования, и выполняется поиск на картах глубин на передней стороне и задней стороне, используя столбцы из отмеченных точек, чтобы сформировать ограничивающий прямоугольник, например ограничивающий прямоугольник OBB. Затем диапазон отслеживания лучей обновляется в соответствии со сформированным выше ограничивающим прямоугольником OBB, и второе считывание выполняется под ортогональным углом обзора, поворот на который автоматически происходит с текущего угла обзора, чтобы сформировать новый ограничивающий прямоугольник OBB. Над ограничивающими прямоугольниками OBB, которые получаются на двух предыдущих этапах, выполняется операция булева пересечения в пространстве изображений, чтобы получить окончательную отмеченную область. В конечном счете подозрительная область отображается совместно с исходными данными, используя основанную на ограниченности пространства функцию преобразования. С помощью раскрытого в этом документе способа отметки можно быстро и точно удалить прозрачные области из данных КТ, что дает пользователю возможность быстро завершить задачу отметки подозрительной области удобным образом.[0076] For example, in some embodiments, transparent regions are first removed to quickly obtain a compact hierarchical bounding rectangle from opaque regions in the data, and then the hierarchical bounding rectangle formed above is visualized to obtain a depth map on the front side and a depth map on the back side which are the equalized incidence and fall positions of the tracked beam. Next, a first reading is performed in the direction of the current line of sight, and a depth map is searched on the front side and back side, using columns from the marked points to form a bounding box, for example, a bounding box of OBB. Then, the beam tracking range is updated in accordance with the OBB bounding box formed above, and the second reading is performed at orthogonal viewing angle, which is automatically rotated from the current viewing angle to form a new OBB bounding box. Over the bounding rectangles of the OBB, which are obtained in the previous two steps, the operation of Boolean intersection in the image space is performed to get the final marked area. Ultimately, the suspect area is displayed in conjunction with the source data using the space-based transform function. Using the marking method disclosed in this document, you can quickly and accurately remove transparent areas from CT data, which allows the user to quickly complete the task of marking a suspicious area in a convenient way.

[0077] Фиг. 4B - блок-схема алгоритма, иллюстрирующая способ для отметки подозрительного предмета в системе КТ в соответствии с вариантом осуществления настоящего изобретения. После того, как устройство КТ получает данные КТ, прежде всего удаляются прозрачные области из данных КТ. После того, как из данных быстро удаляются прозрачные области, новые положения падения и выхода луча записываются в качестве карты глубин. В процессе считывания восстанавливается информация о глубине 2D-отметок в пространстве вокселов путем запроса информации о глубине в карте глубин в соответствии с 2D-отметками, и над двумя полученными геометрическими формами выполняется операция булева пересечения в пространстве изображений, чтобы в конечном счете получить отмеченную область в 3D-пространстве.[0077] FIG. 4B is a flowchart illustrating a method for marking a suspicious item in a CT system in accordance with an embodiment of the present invention. After the CT device receives the CT data, first of all, the transparent areas from the CT data are deleted. After transparent areas are quickly removed from the data, the new incidence and exit positions of the beam are recorded as a depth map. In the process of reading, information on the depth of 2D marks in the voxel space is restored by querying the depth information in the depth map in accordance with the 2D marks, and the operation of Boolean intersection in the image space is performed on the two obtained geometric shapes in order to ultimately obtain the marked region in 3D space.

[0078] На этапе S411 прозрачные области удаляются из данных КТ, полученных системой КТ для досмотра, на основании предварительного интегрирования, чтобы получить иерархический ограничивающий прямоугольник из непрозрачных областей в данных КТ.[0078] In step S411, the transparent areas are removed from the CT data obtained by the CT system for inspection based on preliminary integration to obtain a hierarchical bounding box from opaque areas in the CT data.

[0079] 1) Формирование таблицы поиска для предварительного интегрирования на основании непрозрачности[0079] 1) Forming a lookup table for pre-integration based on opacity

[0080] Поле 3D-данных, обработанное с помощью объемной визуализации, содержит дискретные данные, заданные в 3D-пространстве, и все поле данных представляется дискретной 3D-матрицей. Каждый небольшой прямоугольник в 3D-пространстве представляет собой скалярное значение, называемое вокселом. При практическом вычислении воксел может действовать как выборочная точка в поле 3D-данных, и выборочным скалярным значением является s. Для поля s(x) данных прежде всего нужно классифицировать данные объема, чтобы задать цвета и коэффициенты затухания. Интенсивность s данных объема отображается в цвет I(s) и коэффициент τ(s) затухания с помощью введения функции преобразования. В примере функция преобразования определяется данными об уровне серого и данными о материале от двухэнергетической КТ и также называется 2D-таблицей цветов.[0080] The 3D data field processed by volumetric visualization contains discrete data defined in 3D space, and the entire data field is represented by a discrete 3D matrix. Each small rectangle in 3D space represents a scalar value called a voxel. In practical calculations, a voxel can act as a sample point in the 3D data field, and s is the sample scalar value. For the data field s (x), you first need to classify the volume data to specify the colors and attenuation coefficients. The intensity s of the volume data is mapped to color I (s) and attenuation coefficient τ (s) by introducing a conversion function. In the example, the conversion function is determined by gray level data and material data from a dual-energy CT and is also called a 2D color table.

[0081] При объемной визуализации, когда выбирается 3D скалярное поле s(x), частота выборки Найквиста у функции непрозрачности τ(s(x)) равна максимальной частоте выборки Найквиста у τ(s), умноженной на частоту выборки Найквиста у скалярного значения s(x). Из-за нелинейных характеристик коэффициента затухания частота выборки Найквиста может резко повышаться. Чтобы решить проблему, что частота выборки резко повышается из-за нелинейных характеристик функции преобразования, используется способ предварительного интегрирования. После того, как используется способ предварительного интегрирования, можно быстро определить, представляет ли блок данных КТ, что блок является прозрачным.[0081] In bulk imaging, when a 3D scalar field s (x) is selected, the Nyquist sampling rate of the opacity function τ (s (x)) is equal to the maximum Nyquist sampling rate of τ (s) times the Nyquist sampling frequency of the scalar value s (x). Due to the non-linear characteristics of the attenuation coefficient, the Nyquist sampling rate can increase dramatically. To solve the problem that the sampling frequency rises sharply due to non-linear characteristics of the conversion function, a pre-integration method is used. After the pre-integration method is used, it can be quickly determined whether the CT data block represents that the block is transparent.

[0082] Предварительное интегрирование в основном содержит два этапа. Первым этапом является создание выборки непрерывного скалярного поля s(x) в направлении линии визирования. На этом этапе функция преобразования не влияет на частоту выборки. Вторым этапом является выполнение интегрирования объемной визуализации над сегментом между каждыми двумя выборочными точками посредством таблицы поиска.[0082] Pre-integration mainly consists of two steps. The first step is to create a sample of a continuous scalar field s (x) in the direction of the line of sight. At this point, the conversion function does not affect the sampling rate. The second step is to perform the integration of volumetric visualization over the segment between each two sample points using the search table.

[0083] После завершения создания выборки s(x) выполняется интегрирование объемной визуализации над каждым сегментом. Процесс интегрирования выполняется посредством таблицы поиска. В таблице поиска существует три параметра, включающие в себя начальную точку Sf=s(x(i·d)) сегмента, конечную точку Sb=s(x((i+1)·d)) сегмента и длину d сегмента. Предположим, что длина d сегмента является постоянной, и во время вычисления посредством таблицы поиска нужно учитывать только два параметра Sf и Sb.[0083] After the creation of the s (x) sample, the integration of volumetric visualization over each segment is performed. The integration process is performed through a lookup table. There are three parameters in the search table, including the starting point S f = s (x (i (d)) of the segment, the ending point S b = s (x ((i + 1) · d)) of the segment and the length d of the segment. Assume that the segment length d is constant, and only two parameters S f and S b need to be taken into account during the calculation using the lookup table.

[0084] Непрозрачность i-го сегмента можно представить в виде:[0084] The opacity of the i-th segment can be represented as:

Figure 00000001
Figure 00000001

[0085] В вышеприведенное уравнение для ускорения вводится функция интегрирования, и тогда непрозрачность αi=α(sf,sb) можно переписать в виде:[0085] An integration function is introduced into the above equation for acceleration, and then the opacity α i = α (s f , s b ) can be rewritten as:

Figure 00000002
Figure 00000002

где

Figure 00000003
Where
Figure 00000003

[0086] 2) Удаление прозрачной области на основании октодерева[0086] 2) Removing the transparent region based on the octree

[0087] Октодерево является древовидной структурой данных для описания 3D-пространства. Фиг. 5 - схематическое представление, иллюстрирующее алгоритм подразделения октодерева. Каждый узел октодерева представляет элемент объема в виде куба. Каждый узел имеет 8 подузлов, и сумма всех элементов объема, представленных 8 подузлами, равна объему родительского узла. Проиллюстрированное на фиг. 5 октодерево включает в себя 8 узлов: ulf, urf, ulb, urb, llf, lrf, llb и lrb. Когда пространственные данные подразделяются с использованием алгоритма кодирования октодерева, предположим, что представляемое тело V можно поместить в достаточно большой куб C, и тогда октодерево для тела V относительно куба C можно задать следующим рекурсивным способом. Каждый узел октодерева соответствует подкубу C, а корневой узел октодерева соответствует самому C. Если V=C, то октодерево V имеет только узел дерева; а если V≠C, то C разделяется поровну на 8 подкубов, причем каждый подкуб соответствует подузлу корневого узла. Если подкуб не совсем пуст или если не полностью занят телом V, то подкуб дополнительно разделяется поровну на 8 частей, и таким образом, соответствующий узел имеет 8 подузлов. Рекурсивные оценка и разделение осуществляются до тех пор, пока соответствующий узлу куб не станет совсем пустым, или не будет полностью занят телом V, или не получит размер, равный предопределенному размеру подкуба.[0087] The Octree is a tree data structure for describing 3D space. FIG. 5 is a schematic diagram illustrating an octave subdivision algorithm. Each octree node represents a volume element in the form of a cube. Each node has 8 subnodes, and the sum of all volume elements represented by 8 subnodes is equal to the volume of the parent node. Illustrated in FIG. The 5th octree tree includes 8 nodes: ulf, urf, ulb, urb, llf, lrf, llb and lrb. When spatial data is subdivided using the octree encoding algorithm, suppose that the represented body V can be placed in a sufficiently large cube C, and then the octree tree for the body V relative to the cube C can be defined in the following recursive way. Each octree node corresponds to a subcube C, and the root node of the octree corresponds to C. If V = C, then the octree V has only a tree node; and if V ≠ C, then C is divided equally into 8 subcubes, and each subcub corresponds to a subnode of the root node. If the subcube is not completely empty or if it is not completely occupied by body V, then the subcube is additionally divided equally into 8 parts, and thus the corresponding node has 8 subnodes. Recursive evaluation and separation are carried out until the cube corresponding to the node is completely empty, or completely occupied by body V, or has received a size equal to the predetermined size of the cube.

[0088] Данные объема подразделяются по уровням в соответствии с предопределенным размером листа. Когда проходят поле данных, статистически вычисляют максимум smax и минимум smin всех вокселов в субблоке, соответствующем листу, осевой ограничивающий прямоугольник, соответствующий подпрямоугольнику, и его значение объема. Затем узлы объединяются вверх по уровням для построения октодерева. Схема подразделения октодерева показана на фиг. 5.[0088] Volume data is subdivided into levels according to a predetermined sheet size. When the data field passes, the maximum s max and minimum s min of all voxels in the sub-block corresponding to the sheet, the axial bounding box corresponding to the sub-rectangle, and its volume value are statistically calculated. Then the nodes are combined up the levels to build an octree. The subdivision of the octree is shown in FIG. 5.

[0089] В соответствии с вариантом осуществления настоящего изобретения октодерево проходят для рекурсивного задания состояния видимости каждого узла на каждом уровне. Для узла, не являющегося листом, состояние может быть прозрачным, частично прозрачным или непрозрачным. Состояние узла определяется состояниями подузлов, включенных в этот узел. Если все подузлы прозрачные, то текущий узел является прозрачным; если все подузлы непрозрачные, то текущий узел является непрозрачным; а если часть подузлов прозрачная, то текущий узел является полупрозрачным. Для листа состояние может быть только прозрачным или непрозрачным. Состояние видимости листа получают путем запроса непрозрачности. В частности, когда строится октодерево, сохраняются минимальное и максимальное значения уровня серого (smin,smax) у каждого субблока, и непрозрачность α текущего субблока быстро получают с использованием вышеупомянутой функции α(sf,sb) запроса непрозрачности. Если α≥αε, то текущий лист непрозрачный, где αε является предопределенной пороговой величиной непрозрачности. Как показано на фиг. 6, проиллюстрированы оставшиеся непрозрачные части после того, как удаляются прозрачные блоки, причем большой кубический блок представляет размер, указанный исходными данными.[0089] According to an embodiment of the present invention, an octree is passed to recursively set the visibility state of each node at each level. For a node that is not a leaf, the state can be transparent, partially transparent, or opaque. The state of a node is determined by the states of the subnodes included in this node. If all subnodes are transparent, then the current node is transparent; if all subnodes are opaque, then the current node is opaque; and if part of the subnodes is transparent, then the current node is translucent. For a sheet, the state can only be transparent or opaque. The visibility state of a sheet is obtained by requesting opacity. In particular, when the octree is built, the minimum and maximum values of the gray level (s min , s max ) for each subunit are stored, and the opacity α of the current subunit is quickly obtained using the aforementioned opacity request function α (s f , s b ). If α≥α ε , then the current sheet is opaque, where α ε is a predetermined opacity threshold. As shown in FIG. 6, the remaining opaque parts are illustrated after the transparent blocks are removed, the large cubic block representing the size indicated by the source data.

[0090] На этапе S412 визуализируется глубина сцены для иерархического ограничивающего прямоугольника, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне. На этапе S413 выполняется поиск соответственно на карте глубин на передней стороне и карте глубин на задней стороне, используя сделанные пользователем отметки, в направлении линии визирования, чтобы сформировать первый ограничивающий прямоугольник. Фиг. 7 - схема, иллюстрирующая карту глубин на передней стороне в соответствии с вариантом осуществления настоящего изобретения. Фиг. 8 - схема, иллюстрирующая карту глубин на задней стороне в соответствии с вариантом осуществления настоящего изобретения.[0090] In step S412, the scene depth for the hierarchical bounding box is visualized to obtain a depth map on the front side and a depth map on the back side. At step S413, a search is performed respectively on the depth map on the front side and the depth map on the back side, using the marks made by the user, in the direction of the line of sight to form the first bounding box. FIG. 7 is a diagram illustrating a depth map on the front side according to an embodiment of the present invention. FIG. 8 is a diagram illustrating a depth map on the rear side in accordance with an embodiment of the present invention.

[0091] При объемной визуализации нужно использовать 3D-режим в качестве носителя объемной текстуры, а затем объемная текстура отображается в модель с помощью координат текстуры. Затем проводится луч из точки зрения в точку на модели. Луч, проходящий через пространство модели, эквивалентен лучу, проходящему через объемную текстуру. Таким образом, определение положений падения и выхода отслеживаемого луча превращается в проблему решения пересечения луча с носителем объемной текстуры. Как показано на фиг. 7, карту глубин на передней стороне получают путем визуализации карты глубин сцены для полученного выше иерархического ограничивающего прямоугольника и последующего удаления сечений с относительно большими значениями глубины из визуализированной карты глубин сцены, причем значение цвета каждого пикселя на карте глубин на передней стороне представляет расстояние от точки зрения до точки, ближайшей к точке зрения в некотором направлении. Как показано на фиг. 8, карту глубин на задней стороне получают путем визуализации карты глубин сцены для полученного выше иерархического ограничивающего прямоугольника и последующего удаления сечений с относительно малыми значениями глубины из визуализированной карты глубин сцены, причем значение цвета каждого пикселя на карте глубин на задней стороне представляет расстояние от точки зрения до точки, наиболее отдаленной от точки зрения в некотором направлении.[0091] For 3D rendering, you need to use 3D mode as the medium for the 3D texture, and then the 3D texture is mapped to the model using texture coordinates. Then a ray is drawn from point of view to point on the model. A ray passing through the model space is equivalent to a ray passing through a three-dimensional texture. Thus, the determination of the positions of the incidence and exit of the tracked beam becomes the problem of solving the intersection of the beam with the carrier volume texture. As shown in FIG. 7, a depth map on the front side is obtained by rendering a depth map of the scene for the hierarchical bounding box obtained above and then removing sections with relatively large depths from the rendered depth map of the scene, the color value of each pixel on the depth map on the front side representing the distance from the point of view to the point closest to the point of view in some direction. As shown in FIG. 8, a depth map on the back side is obtained by visualizing a depth map of the scene for the hierarchical bounding box obtained above and then removing sections with relatively small depths from the rendered depth map of the scene, the color value of each pixel on the depth map on the back side representing the distance from the point of view to the point farthest from the point of view in some direction.

[0092] Фиг. 9 - схема, иллюстрирующая процесс отслеживания лучей в соответствии с вариантом осуществления настоящего изобретения. Основной процесс отслеживания лучей выглядит следующим образом. В частности, луч излучается из каждого пикселя изображения в фиксированном направлении, а затем проходит через всю последовательность изображений. В этом процессе последовательность изображений выбирается и классифицируется для получения значений цвета. Значения цвета накапливаются в соответствии с моделью поглощения лучей до тех пор, пока луч не пройдет через всю последовательность изображений. Значение цвета, получаемое в конечном счете, является цветом визуализированного изображения. Проиллюстрированная на фиг. 9 плоскость отслеживания лучей является вышеупомянутым «изображением».[0092] FIG. 9 is a diagram illustrating a ray tracking process in accordance with an embodiment of the present invention. The basic ray tracking process is as follows. In particular, a beam is emitted from each pixel of the image in a fixed direction, and then passes through the entire sequence of images. In this process, a sequence of images is selected and classified to obtain color values. Color values are accumulated in accordance with the ray absorption model until the ray passes through the entire sequence of images. The color value ultimately obtained is the color of the rendered image. Illustrated in FIG. 9, the ray tracking plane is the aforementioned “image”.

[0093] В конечном счете с помощью отслеживания лучей получают 2D-изображение, и таким образом, нельзя восстановить информацию о глубине вокселов, через которые проходит отслеживаемый пиксельный луч. Чтобы завершить считывание областей в пространстве вокселов, как показано на фиг. 10, на плоскости отслеживания лучей отмечается подозрительная область, и отмеченный результат показан на фиг. 11. Чтобы восстановить информацию о глубине в пространстве вокселов из отмеченного результата, отмеченное событие дискретизируется на столбцы точек, и выполняется поиск соответственно на карте глубин на передней стороне и карте глубин на задней стороне, чтобы получить результат проекции отмеченной области на те карты глубин. Фиг. 12 - схема, иллюстрирующая процесс поиска на передней стороне и задней стороне с использованием отметок пользователя в соответствии с вариантом осуществления настоящего изобретения. В этом случае одна операция 2D-отметки на изображении на экране восстанавливается до 3D-отметок в пространстве вокселов.[0093] Ultimately, using the ray tracking, a 2D image is obtained, and thus, it is not possible to reconstruct the voxel depth information through which the monitored pixel ray passes. To complete the reading of the areas in the voxel space, as shown in FIG. 10, a suspicious area is marked on the beam tracking plane, and the noted result is shown in FIG. 11. To restore information about the depth in voxel space from the marked result, the marked event is discretized into columns of points, and a search is performed on the depth map on the front side and the depth map on the back, respectively, to obtain the result of the projection of the marked area onto those depth maps. FIG. 12 is a diagram illustrating a search process on the front side and the back side using user marks in accordance with an embodiment of the present invention. In this case, one 2D marking operation on the screen image is restored to 3D markings in voxel space.

[0094] После выполнения одной операции отметки диапазон подозрительной области все еще относительно большой. Чтобы дополнительно сократить подозрительную область, нужно вычислить иерархический ограничивающий прямоугольник OBB, соответствующий столбцам из отмеченных точек в пространстве вокселов.[0094] After performing one marking operation, the range of the suspicious area is still relatively large. To further reduce the suspicious area, you need to calculate the hierarchical bounding box OBB corresponding to the columns of the marked points in the voxel space.

[0095] Основополагающая идея способа с ограничивающим прямоугольником состоит в замене различных сложных геометрических форм простыми геометрическими формами. Прежде всего выполняется грубое обнаружение над ограничивающими прямоугольниками предмета. Только когда ограничивающие прямоугольники пересекаются, могут пересекаться геометрические формы, ограниченные ограничивающими прямоугольниками. Когда ограничивающие прямоугольники не пересекаются, геометрические формы, ограниченные ограничивающими прямоугольниками, должны не пересекаться. Таким образом, можно исключить большое количество геометрических форм и геометрических частей, которые не могут пересекаться, чтобы быстро найти геометрические части, которые пересекаются. Существует несколько видов ограничивающих прямоугольников, а именно выровненный по координатным осям ограничивающий прямоугольник (AABB), ограничивающая сфера, ограничивающий прямоугольник OBB в любом направлении и более общий ограничивающий прямоугольник k-dop. После того, как оценивается компактность огибающей и вычислительные затраты у различных ограничивающих прямоугольников, выбирается ограничивающий прямоугольник OBB для вычисления столбцов из отмеченных точек. Принципиальным моментом вычисления ограничивающего прямоугольника OBB является нахождение оптимального направления и определение минимального размера ограничивающего прямоугольника, который ограничивает предмет в том направлении. Положение и направление ограничивающего прямоугольника вычисляются с использованием статистики момента первого порядка (среднее значение) и момента второго порядка (ковариационная матрица). Предположим, что i-ой вершиной является pi, а количество вершин, ограниченных ограничивающим прямоугольником, равно n. Центральное положение ограничивающего прямоугольника выглядит следующим образом:[0095] The fundamental idea of the bounding box method is to replace various complex geometric shapes with simple geometric shapes. First of all, crude detection is performed over the bounding rectangles of an object. Only when bounding rectangles intersect can geometric shapes bounded by bounding rectangles intersect. When bounding rectangles do not intersect, geometric shapes bounded by bounding rectangles must not intersect. Thus, it is possible to exclude a large number of geometric shapes and geometric parts that cannot intersect in order to quickly find geometric parts that intersect. There are several types of bounding rectangles, namely the bounding rectangle (AABB) aligned with the coordinate axes, the bounding sphere, the bounding rectangle of the OBB in any direction, and the more general bounding box k-dop. After the envelope is compact and the computational cost of the various bounding boxes, the bounding box OBB is selected to calculate the columns from the marked points. The fundamental point in calculating the bounding box OBB is to find the optimal direction and determine the minimum size of the bounding box that bounds the object in that direction. The position and direction of the bounding box are calculated using statistics of the first-order moment (average value) and second-order moment (covariance matrix). Suppose that the ith vertex is p i and the number of vertices bounded by a bounding box is n. The center position of the bounding box is as follows:

Figure 00000004
Figure 00000004

[0096] Предположим, что ковариационная матрица представляется в виде:[0096] Assume that the covariance matrix is represented as:

Figure 00000005
Figure 00000005

[0097] Элементы ковариационной матрицы представляются в виде:[0097] Elements of the covariance matrix are represented as:

Figure 00000006
Figure 00000006

где

Figure 00000007
является вектором 3×1, а
Figure 00000008
.Where
Figure 00000007
is a 3 × 1 vector, and
Figure 00000008
.

[0098] Собственные векторы ковариационной матрицы решаются численным методом и объединяются. Так как C является вещественной симметричной матрицей, собственные векторы матрицы C ортогональны друг другу и могут использоваться в качестве осей направлений у ограничивающего прямоугольника. Вершины ограничиваемой геометрической формы проецируются на оси направлений, чтобы найти проективные интервалы на соответствующих осях направлений. Длины соответствующих проективных интервалов обычно представляют размер решаемого ограничивающего прямоугольника. Фиг. 13 - схема, иллюстрирующая ограничивающий прямоугольник OBB со столбцами из отмеченных точек в соответствии с вариантом осуществления настоящего изобретения.[0098] The eigenvectors of the covariance matrix are solved numerically and combined. Since C is a real symmetric matrix, the eigenvectors of the matrix C are orthogonal to each other and can be used as the direction axes of the bounding box. The vertices of the constrained geometric shape are projected on the direction axis to find projective intervals on the respective direction axes. The lengths of the corresponding projective intervals usually represent the size of the bounding box to be solved. FIG. 13 is a diagram illustrating a bounding box of an OBB with columns of marked points in accordance with an embodiment of the present invention.

[0099] На этапе S414 луч бросают при сформированном первом ограничивающем прямоугольнике в качестве носителя текстуры. На этапе S415 поиск выполняется соответственно на карте глубин на передней стороне и карте глубин на задней стороне, используя сделанные пользователем отметки, в направлении, ортогональном направлению линии визирования, чтобы сформировать второй ограничивающий прямоугольник.[0099] In step S414, the beam is cast when the first bounding box is formed as a texture carrier. In step S415, the search is performed respectively on the depth map on the front side and the depth map on the back side, using the marks made by the user in the direction orthogonal to the direction of the line of sight to form a second bounding box.

[00100] 1) Обновление диапазона отслеживания лучей[00100] 1) Updating the ray tracking range

[00101] Как показано на фиг. 14, после того, как определяется диапазон подозрительной области, из отображения удаляются части за пределами области, и луч бросают с использованием сформированного ограничивающего прямоугольника OBB в качестве нового носителя объемной текстуры.[00101] As shown in FIG. 14, after the range of the suspicious region is determined, parts outside the region are removed from the display, and the beam is cast using the formed bounding rectangle OBB as a new volumetric texture medium.

[00102] 2) Второе считывание после поворачивания угла обзора[00102] 2) The second reading after turning the viewing angle

[00103] Фиг. 15 - схема, иллюстрирующая результат от нанесения отметок во второй раз в ортогональном направлении в соответствии с вариантом осуществления настоящего изобретения. Фиг. 16 иллюстрирует результат, полученный в результате поиска на передней стороне и задней стороне с использованием отметок, сделанных во второй раз, в соответствии с вариантом осуществления настоящего изобретения. Фиг. 17 - схема, иллюстрирующая ограничивающий прямоугольник OBB со столбцами из отмеченных точек в соответствии с вариантом осуществления настоящего изобретения. На этапе S416 выполняется операция булева пересечения над первым ограничивающим прямоугольником и вторым ограничивающим прямоугольником в пространстве изображений, чтобы получить отмеченную область в 3D-пространстве. Фиг. 18 - схема, иллюстрирующая процесс выполнения операции булева пересечения над двумя предметами в пространстве изображений в соответствии с вариантом осуществления настоящего изобретения.[00103] FIG. 15 is a diagram illustrating a result of marking a second time in the orthogonal direction in accordance with an embodiment of the present invention. FIG. 16 illustrates a result of a search on the front side and the back side using marks made a second time in accordance with an embodiment of the present invention. FIG. 17 is a diagram illustrating a bounding box of an OBB with columns of marked points in accordance with an embodiment of the present invention. In step S416, a Boolean intersection operation is performed on the first bounding box and the second bounding box in the image space to obtain a marked area in 3D space. FIG. 18 is a diagram illustrating a process for performing a Boolean intersection operation on two objects in an image space in accordance with an embodiment of the present invention.

[00104] Чтобы ускорить получение пересеченной области между двумя ограничивающими прямоугольниками OBB, для вычисления используется метод Конструктивной блочной геометрии (CSG). Модель CSG можно визуализировать с использованием OpenGL в двух направлениях. В одном направлении модель CSG визуализируется на основании пространства предметов. В частности, модель CSG преобразуется непосредственно в набор многоугольников, а затем визуализируется с использованием OpenGL. Типичным способом для этого решения является преобразование модели CSG в модель контурного представления (B-rep). Однако преобразование модели приводит к низкой эффективности и неудобно для динамического изменения. В другом направлении модель CSG визуализируется на основании пространства изображений, которое используется в настоящем изобретении.[00104] In order to speed up the preparation of the intersected area between the two bounding rectangles of the OBB, the structural block geometry (CSG) method is used for calculation. The CSG model can be visualized using OpenGL in two ways. In one direction, the CSG model is visualized based on the space of objects. In particular, the CSG model is converted directly to a set of polygons, and then rendered using OpenGL. A typical way for this solution is to convert the CSG model to the outline representation model (B-rep). However, the transformation of the model leads to low efficiency and is inconvenient for dynamic change. In the other direction, the CSG model is rendered based on the image space that is used in the present invention.

[00105] Операция пересечения выполняется в пространстве изображений без изменения модели, и операция выполняется динамически для каждого кадра, чтобы решить, какую поверхность (поверхности) следует отобразить, а какую поверхность (поверхности) следует скрыть или удалить. Операция пересечения в CSG достигается с использованием буфера трафарета (шаблона) в OpenGL. В идее отслеживания лучей, когда поверхность предмета проецируется на экран, вычисляется количество пересечений пикселей на его поверхности по отношению к другим поверхностям.[00105] The intersection operation is performed in the image space without changing the model, and the operation is performed dynamically for each frame to decide which surface (s) should be displayed and which surface (s) should be hidden or deleted. The intersection operation in CSG is achieved using a stencil buffer (template) in OpenGL. In the idea of tracking rays, when the surface of an object is projected onto the screen, the number of intersections of pixels on its surface relative to other surfaces is calculated.

[00106] С помощью вышеупомянутых операций получено два куба. Поиск пересечений между двумя кубами по существу состоит в нахождении частей поверхности одного куба в объеме другого куба. В процессе поиска пересечений передняя поверхность и задняя поверхность любого заданного составляющего предмета визуализируются соответствующим образом в соответствующих каналах. В частности, в каждом процессе визуализации текущая поверхность сначала переводится в буфер глубины, а затем части текущей поверхности в других предметах определяются с использованием других предметов совместно с операцией плоскости трафарета.[00106] Using the above operations, two cubes are obtained. The search for intersections between two cubes essentially consists in finding parts of the surface of one cube in the volume of another cube. In the intersection search process, the front surface and the rear surface of any given constituent object are visualized accordingly in the respective channels. In particular, in each visualization process, the current surface is first transferred to the depth buffer, and then parts of the current surface in other objects are determined using other objects together with the operation of the stencil plane.

[00107] Здесь с использованием контроля четности оценивается, находится ли точка в заданном пространстве предмета. Теоретически с помощью контроля четности можно оценить, находится ли в заданном объеме какая-нибудь точка в пространстве. Однако, поскольку буфер глубины в OpenGL может хранить только одно значение глубины для каждого пикселя, процесс контроля четности при визуализации пересечения между предметом A и предметом B выглядит следующим образом. Прежде всего находятся и визуализируются части A в B, а затем находятся и визуализируются части B в A. В то же время визуализирована передняя сторона A в B. Чтобы получить переднюю сторону B в A, прежде всего повторно визуализируются пиксели в буфере глубины, которые закрываются передней стороной B. Причина в том, что все части A находятся в буфере глубины после вышеупомянутых операций, и части A за пределами B могут заслонять части B, которые должны быть видимыми. После того, как исправлены значения глубины у B в буфере глубины, части передней стороны B в A находятся и визуализируются аналогично вышеуказанному, и описание этого здесь будет пропущено. Фиг. 19 - схема, иллюстрирующая полученную в конечном счете отмеченную 3D-область подозрительного предмета в соответствии с вариантом осуществления настоящего изобретения.[00107] Here, using parity, it is judged whether a point is in a given space of an object. Theoretically, using parity, it is possible to evaluate whether any point in space is in a given volume. However, since the depth buffer in OpenGL can only store one depth value for each pixel, the process of parity when visualizing the intersection between subject A and subject B is as follows. First of all, parts A to B are found and visualized, and then parts B to A are found and visualized. At the same time, the front side of A is visualized B. To get the front side of B in A, first of all, the pixels in the depth buffer are re-rendered, which are closed front side B. The reason is that all parts A are in the depth buffer after the above operations, and parts A outside B can obscure parts B that should be visible. After the depth values of B are corrected in the depth buffer, parts of the front side of B in A are located and visualized in the same way as above, and a description of this will be omitted here. FIG. 19 is a diagram illustrating an ultimately obtained 3D region of a suspicious object in accordance with an embodiment of the present invention.

[00108] На этапе S417 отмеченная область в 3D-пространстве соединяется и отображается вместе с данными КТ. Например, после того, как получена считанная подозрительная область, нужно соединить подозрительную область с исходными данными и отобразить подозрительную область вместе с исходными данными с более высоким приоритетом видимости. Как видно из Фиг. 18, окончательная подозрительная область может не иметь правильной кубовидной формы. Здесь используется основанная на ограниченности пространства функция преобразования. Формируется одномерная текстура поиска в соответствии с размерностью данных объема, используя алгоритм построчного построения, и каждый тексел хранит информацию о том, находится ли соответствующее пространственное положение в ограничивающем прямоугольнике подозрительной области. Окончательный результат объединенной визуализации показан на фиг. 20.[00108] In step S417, the marked area in the 3D space is connected and displayed together with the CT data. For example, after a suspicious area has been read, you need to connect the suspicious area with the source data and display the suspicious area together with the source data with a higher priority of visibility. As can be seen from FIG. 18, the final suspicious area may not have a regular cuboid shape. A space-limited transform function is used here. A one-dimensional search texture is formed in accordance with the dimension of the volume data using the line-by-line construction algorithm, and each texel stores information about whether the corresponding spatial position is in the bounding box of the suspicious area. The final result of the combined visualization is shown in FIG. twenty.

[00109] К тому же, когда TIP вставляется в данные КТ, следует не только обеспечить то, что вставленная TIP находится в диапазоне границ, но и то, что вставленное изображение также не закрывает исходные предметы в границах. Кроме того, требование реального масштаба времени для алгоритма также является важным фактором, который нужно учитывать. В соответствии с некоторыми вариантами осуществления прозрачные области и непрозрачные области в данных объема определяются в соответствии с непрозрачностью, и части пустых областей границ, объемы которых отвечают требованиям, выбираются в качестве возможных положений вставки, и в конечном счете выбирается положение вставки с заданным уровнем маскирования в соответствии с расстоянием от положения до плоскости наблюдения и количеством предметов вокруг того положения.[00109] Moreover, when a TIP is inserted into the CT data, it is necessary not only to ensure that the inserted TIP is in the range of borders, but also that the inserted image also does not cover the original objects in the borders. In addition, the real-time requirement for the algorithm is also an important factor to consider. In accordance with some embodiments, transparent regions and opaque regions in the volume data are determined according to opacity, and portions of the empty boundary regions, the volumes of which meet the requirements, are selected as possible insertion positions, and finally, the insertion position with a given masking level in according to the distance from the position to the observation plane and the number of objects around that position.

[00110] Например, таблица поиска для предварительного интегрирования формируется на основании непрозрачности, чтобы быстро определить прозрачные области и непрозрачные области в данных объема. Затем непрозрачное октодерево строится для данных объема, чтобы определить положения и размеры границ в данных КТ. Затем прозрачное октодерево строится для данных объема, чтобы получить области в границах, доступные для вставки, причем прозрачное октодерево только статистически вычисляет прозрачные части в области данных и полностью исключает непрозрачные части. Части прозрачных областей, чьи объемы отвечают требованиям вставки, выбираются в качестве возможных положений вставки. Окончательное положение вставки определяется в соответствии с заданным уровнем маскирования вставки.[00110] For example, a pre-integration lookup table is generated based on opacity to quickly identify transparent areas and opaque areas in volume data. Then, an opaque octree is constructed for volume data to determine the position and size of the boundaries in the CT data. Then, the transparent octree is constructed for volume data to obtain the areas within the borders that are available for insertion, and the transparent octree only statistically calculates the transparent parts in the data area and completely eliminates the opaque parts. Parts of the transparent regions whose volumes meet the requirements of the insert are selected as possible insert positions. The final position of the insert is determined in accordance with the specified level of masking of the insert.

[00111] С помощью раскрытых в этом документе решений FTI можно быстро вставить в данные КТ, и можно обеспечить, что положение вставки находится в границах наряду с тем, что вставленное изображение не закрывает исходные предметы в границах. Уровень маскирования вставки может задаваться с помощью параметра (параметров), и у алгоритма можно обеспечить производительность реального масштаба времени.[00111] Using the FTI solutions disclosed herein, it is possible to quickly insert into CT data, and it can be ensured that the insertion position is within borders while the inserted image does not cover the original objects within the boundaries. The masking level of the insert can be set using the parameter (s), and the algorithm can provide real-time performance.

[00112] В вышеприведенном подробном описании изложены с использованием схем, блок-схем алгоритмов и/или примеров различные варианты осуществления способа и устройства для отметки подозрительного предмета в системе КТ для досмотра. В случае, если такая схема, блок-схема алгоритма и/или пример включает в себя одну или более функциональных возможностей и/или операций, специалисты в данной области техники поймут, что каждую функциональную возможность и/или операцию на схеме, блок-схеме алгоритма или в примере можно реализовать по отдельности и/или вместе посредством широкого диапазона структур, аппаратных средств, программного обеспечения, микропрограммного обеспечения или по существу любого их сочетания. В одном варианте осуществления несколько частей объекта изобретения, описанных в вариантах осуществления настоящего изобретения, можно реализовать посредством специализированной интегральной схемы (ASIC), программируемой пользователем вентильной матрицы (FPGA), цифрового процессора сигналов (DSP) или в других интегральных форматах. Однако специалисты в данной области техники примут во внимание, что некоторые аспекты раскрытых в этом документе вариантов осуществления можно полностью или частично реализовать равноценно в интегральных схемах, в виде одной или более компьютерных программ, работающих на одном или более компьютерах (например, в виде одной или более программ, работающих в одной или более компьютерных системах), в виде одной или более программ, работающих на одном или более процессорах (например, в виде одной или более программ, работающих на одном или более микропроцессорах), в виде микропрограммного обеспечения или по существу в виде любого их сочетания, и что проектирование схем и/или написание кодов для программного обеспечения и/или микропрограммного обеспечения было бы вполне по силам специалистам в данной области техники в связи с этим изобретением. К тому же специалисты в данной области техники примут во внимание, что механизмы описанного в этом документе предмета изобретения можно распространять в виде программного продукта в различных формах, и что иллюстративные варианты осуществления описанного в этом документе объекта изобретения применяются независимо от конкретных типов носителей сигналов, используемых для фактического осуществления распространения. Примеры носителей сигналов включают в себя, не ограничиваясь, записываемые носители, например дискету, накопитель на жестком диске, компакт-диск (CD), цифровой универсальный диск (DVD), цифровую магнитную ленту, память компьютера или т.п., и среды передачи, например цифровые и/или аналоговые средства связи (например, волоконно-оптический кабель, волновод, линию проводной связи, линию беспроводной связи или т.п.).[00112] In the foregoing detailed description, various embodiments of a method and apparatus for marking a suspicious item in a CT scan system are set forth using diagrams, flowcharts, and / or examples. If such a circuit, a flowchart of an algorithm and / or an example includes one or more functionalities and / or operations, those skilled in the art will understand that each functionality and / or operation in a flowchart, a flowchart of an algorithm or in the example, can be implemented individually and / or together through a wide range of structures, hardware, software, firmware, or essentially any combination thereof. In one embodiment, several parts of the subject matter described in the embodiments of the present invention can be implemented by application specific integrated circuit (ASIC), field programmable gate array (FPGA), digital signal processor (DSP), or other integrated formats. However, those skilled in the art will appreciate that some aspects of the embodiments disclosed herein may be fully or partially implemented equally in integrated circuits, in the form of one or more computer programs running on one or more computers (e.g., as one or more programs running on one or more computer systems), as one or more programs running on one or more processors (for example, as one or more programs running on one or more microprocessors), as firmware, or substantially in the form of any combination thereof, and that the circuit design and / or writing the code for the software and / or firmware would be quite capable of skill in the art in connection with this invention. In addition, those skilled in the art will appreciate that the mechanisms of the subject matter described in this document can be distributed in various forms as a software product, and that illustrative embodiments of the subject matter described herein are applied regardless of the particular types of signal carriers used for the actual implementation of the distribution. Examples of signal carriers include, but are not limited to, recordable media, such as a floppy disk, hard disk drive, compact disc (CD), digital versatile disk (DVD), digital magnetic tape, computer memory or the like, and transmission media for example, digital and / or analog communications (e.g., fiber optic cable, waveguide, wireline, wireless, or the like).

[00113] Хотя настоящее изобретение описано в отношении нескольких вариантов осуществления, специалистам в данной области техники очевидно, что термины используются для иллюстрации и объяснения, а не для ограничения. Раскрытую в этом документе технологию можно реализовать в различных формах без выхода за рамки сущности настоящего изобретения. Следует понимать, что варианты осуществления не ограничены вышеупомянутыми подробностями и должны широко интерпретироваться в рамках сущности и объема, определяемых нижеследующей формулой изобретения. Поэтому все модификации и альтернативы, входящие в объем формулы изобретения или ее эквивалентов, должны охватываться прилагаемой формулой изобретения.[00113] Although the present invention has been described with respect to several embodiments, it will be apparent to those skilled in the art that the terms are used to illustrate and explain, and not to limit. The technology disclosed in this document can be implemented in various forms without departing from the spirit of the present invention. It should be understood that the options for implementation are not limited to the above details and should be widely interpreted within the spirit and scope defined by the following claims. Therefore, all modifications and alternatives falling within the scope of the claims or their equivalents should be covered by the attached claims.

Claims (16)

1. Способ в системе компьютерной томографии (КТ) для досмотра, содержащий этапы, на которых:
считывают данные обследования для обследуемого предмета;
вставляют по меньшей мере одно фиктивное трехмерное (3D) изображение опасного предмета (FTI) в 3D-изображение обследования для обследуемого предмета, причем 3D-изображение обследования получают из данных обследования;
принимают выбор по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на двумерном (2D) изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, причем 2D-изображение обследования получают из 3D-изображения обследования или получают из данных обследования; и
выдают в ответ на упомянутый выбор обратную связь о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI.
1. A method in a computed tomography (CT) system for inspection, comprising the steps of:
read survey data for the subject;
insert at least one fictitious three-dimensional (3D) image of the dangerous object (FTI) into the 3D image of the examination for the subject being examined, wherein the 3D image of the examination is obtained from the survey data;
take a selection of at least one region in the 3D image of the survey, including 3D FTI, or at least one region in the two-dimensional (2D) image of the survey, including a 2D FTI corresponding to the 3D FTI, wherein the 2D image of the survey is obtained from 3D images of the survey or obtained from survey data; and
in response to said selection, feedback on the 3D image of the survey including at least one 3D FTI is provided.
2. Способ по п. 1, в котором этап, на котором принимают выбор по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI, содержит этап, на котором:
принимают координаты части 3D-изображения обследования или 2D-изображения обследования, ассоциированной с упомянутым выбором.
2. The method of claim 1, wherein the step is to select at least one area in the 3D image of the exam including 3D FTI, or at least one area in the 2D image of the exam including 2D FTI corresponding to 3D FTI, comprises the step of:
take the coordinates of the portion of the 3D survey image or 2D survey image associated with the selection.
3. Способ по п. 1, в котором этап, на котором выдают в ответ на упомянутый выбор обратную связь о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит по меньшей мере один из этапов, на которых:
оценивают, включает ли в себя по меньшей мере одна выбранная область по меньшей мере одно 3D FTI;
отображают диалог для подтверждения, что 3D-изображение обследования включает в себя по меньшей мере одно 3D FTI;
выдают текстовое указание в интерфейсе для подтверждения, что 3D-изображение обследования включает в себя по меньшей мере одно 3D FTI;
выделяют часть 3D-изображения обследования или 2D-изображения обследования, ассоциированную с выбором;
отмечают часть 3D-изображения обследования или 2D-изображения обследования, ассоциированную с выбором; и
заполняют часть 3D-изображения обследования или 2D-изображения обследования, ассоциированную с выбором, конкретным цветом или узором.
3. The method of claim 1, wherein the step of providing feedback on the 3D image of the survey including at least one 3D FTI in response to said selection comprises at least one of the steps of:
assessing whether at least one selected region includes at least one 3D FTI;
displaying a dialog to confirm that the 3D image of the examination includes at least one 3D FTI;
issuing a text indication in the interface to confirm that the 3D image of the examination includes at least one 3D FTI;
extracting a portion of the 3D survey image or 2D survey image associated with the selection;
marking the portion of the 3D survey image or 2D survey image associated with the selection; and
fill in the portion of the 3D survey image or 2D survey image associated with the selection, a specific color or pattern.
4. Способ по п. 1, в котором вычисляют по меньшей мере один параметр пространственной характеристики обследуемого предмета в соответствии с данными обследования, и по меньшей мере одно 3D FTI вставляют в 3D-изображение обследования для обследуемого предмета на основании параметра пространственной характеристики.4. The method according to claim 1, wherein at least one spatial parameter of the subject to be examined is calculated in accordance with the survey data, and at least one 3D FTI is inserted into the 3D image of the survey for the subject to be examined based on the spatial characteristic. 5. Способ по п. 4, в котором параметр пространственной характеристики относится по меньшей мере к одному из положения, размера и ориентации вставляемого 3D FTI.5. The method according to claim 4, wherein the spatial characteristic parameter refers to at least one of the position, size and orientation of the inserted 3D FTI. 6. Способ по п. 1, в котором выбор по меньшей мере одной области содержит этап, на котором выбирают часть отображенного 3D-изображения обследования под некоторым углом обзора.6. The method according to claim 1, wherein selecting at least one area comprises the step of selecting a portion of the displayed 3D survey image at a certain viewing angle. 7. Способ по п. 6, в котором при 3D-визуализации 3D-изображения обследования записывают информацию об облаке точек, характеризующую обследуемый предмет, и этап, на котором в ответ на упомянутый выбор выдают обратную связь о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит этапы, на которых:
получают последовательность кластеров информации об облаке точек для различных предметов в обследуемом предмете путем разделения;
определяют по меньшей мере одну выбранную область из последовательности кластеров информации об облаке точек для различных предметов на основании заданного критерия; и
оценивают, включает ли в себя по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.
7. The method according to claim 6, in which, when 3D-visualizing a 3D image of an examination, information about a point cloud characterizing the subject to be examined is recorded, and the stage at which feedback on the 3D image of the examination including at least one 3D FTI, comprises the steps of:
obtaining a sequence of clusters of information about a point cloud for various objects in the subject being examined by separation;
determining at least one selected region from a sequence of clusters of point cloud information for various objects based on a predetermined criterion; and
assessing whether at least one selected region includes at least one 3D FTI.
8. Способ по п. 1, в котором выбор по меньшей мере одной области содержит этап, на котором выбирают часть отображенного 3D-изображения обследования под множеством углов обзора.8. The method according to claim 1, wherein selecting at least one area comprises selecting a portion of the displayed 3D survey image from a plurality of viewing angles. 9. Способ по п. 8, в котором выбор по меньшей мере одной области содержит этап, на котором выбирают часть отображенного 3D-изображения обследования под двумя разными углами обзора, причем два разных угла обзора являются по существу ортогональными друг другу, прозрачные области удаляют из данных обследования, чтобы получить иерархический ограничивающий прямоугольник из непрозрачных областей в данных обследования, а затем визуализируют глубину сцены для иерархического ограничивающего прямоугольника, чтобы получить карту глубин на передней стороне и карту глубин на задней стороне, и этап, на котором в ответ на упомянутый выбор выдают обратную связь о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI, содержит этапы, на которых:
выполняют поиск, соответственно, на карте глубин на передней стороне и карте глубин на задней стороне в соответствии с выбранной пользователем областью под первым углом обзора, чтобы сформировать первый ограничивающий прямоугольник;
выполняют отслеживание лучей при сформированном первом ограничивающем прямоугольнике в качестве носителя текстуры;
выполняют поиск, соответственно, на карте глубин на передней стороне и карте глубин на задней стороне в соответствии с выбранной пользователем областью под вторым углом обзора, по существу ортогональным первому углу обзора, чтобы сформировать второй ограничивающий прямоугольник;
выполняют операцию булева пересечения над первым ограничивающим прямоугольником и вторым ограничивающим прямоугольником в пространстве изображений, чтобы получить отмеченную область в 3D-пространстве в качестве по меньшей мере одной выбранной области; и
оценивают, включает ли в себя по меньшей мере одна выбранная область по меньшей мере одно 3D FTI.
9. The method of claim 8, wherein selecting at least one area comprises selecting a portion of the displayed 3D survey image at two different viewing angles, the two different viewing angles being substantially orthogonal to each other, and the transparent areas are removed from survey data to obtain a hierarchical bounding box from opaque areas in the survey data, and then visualize the scene depth for the hierarchical bounding box to obtain a depth map on the front side and the depth map on the back side, and the step of in response to said selecting give feedback on the 3D-image survey includes at least one 3D FTI, comprising the steps of:
performing a search, respectively, on the depth map on the front side and the depth map on the back side in accordance with the region selected by the user at a first viewing angle to form a first bounding box;
performing ray tracking when the first bounding box is formed as a texture carrier;
searching, respectively, on a depth map on the front side and a depth map on the back side in accordance with a user-selected region at a second viewing angle substantially orthogonal to the first viewing angle to form a second bounding box;
performing a Boolean intersection operation on the first bounding box and the second bounding box in the image space to obtain the marked area in 3D space as at least one selected area; and
assessing whether at least one selected region includes at least one 3D FTI.
10. Способ по п. 1, в котором этап, на котором вставляют по меньшей мере одно 3D FTI в 3D-изображение обследования для обследуемого предмета, содержит этапы, на которых:
разделяют 3D-изображение обследования, чтобы получить множество фрагментов 3D-изображения обследуемого предмета;
вычисляют расстояния между множеством фрагментов 3D-изображения и их положения; и
вставляют 3D FTI на основании вычисленных расстояний и положений.
10. The method of claim 1, wherein the step of inserting at least one 3D FTI into the 3D image of the exam for the subject being examined comprises the steps of:
sharing a 3D image of the survey to obtain a plurality of fragments of a 3D image of the subject;
calculate the distance between the multiple fragments of the 3D image and their position; and
insert 3D FTI based on calculated distances and positions.
11. Способ по п. 1, в котором этап, на котором вставляют по меньшей мере одно 3D FTI в 3D-изображение обследования для обследуемого предмета, содержит этапы, на которых:
определяют прозрачные части и непрозрачные части в данных объема обследуемого предмета на основании значений непрозрачности вокселов;
определяют положения и размеры границ обследуемого предмета из непрозрачных частей в данных объема;
определяют возможные положения вставки в прозрачные области в диапазоне границ; и
выбирают по меньшей мере одно положение из возможных положений вставки в соответствии с заданным критерием, чтобы вставить по меньшей мере одно 3D FTI по меньшей мере в одно выбранное положение.
11. The method of claim 1, wherein the step of inserting at least one 3D FTI into the 3D image of the exam for the subject being examined comprises the steps of:
determining the transparent parts and the opaque parts in the volume data of the subject to be examined based on the opacity values of the voxels;
determine the position and size of the boundaries of the examined subject from opaque parts in the volume data;
determine the possible position of the insert in transparent areas in the range of borders; and
at least one position is selected from the possible insertion positions in accordance with a predetermined criterion in order to insert at least one 3D FTI in at least one selected position.
12. Способ по п. 1, в котором этап, на котором вставляют по меньшей мере одно 3D FTI в 3D-изображение обследования для обследуемого предмета, содержит этапы, на которых:
удаляют фоновое изображение из 2D-изображения обследования, чтобы получить основное 2D-изображение;
определяют 2D-положение вставки 2D FTI в основное 2D-изображение;
определяют положение 3D FTI на 3D-изображении обследования в направлении глубины в 2D-положении вставки; и
вставляют по меньшей мере одно 3D FTI в определенное положение.
12. The method of claim 1, wherein the step of inserting at least one 3D FTI into the 3D image of the examination for the subject being examined comprises the steps of:
removing the background image from the 2D survey image to obtain a basic 2D image;
determine the 2D position of the insert 2D FTI in the main 2D image;
determining the position of the 3D FTI in the 3D image of the survey in the depth direction in the 2D position of the insert; and
insert at least one 3D FTI at a specific position.
13. Способ по п. 1, дополнительно содержащий этап, на котором: вставляют 2D FTI, соответствующее по меньшей мере одному 3D FTI, в 2D-изображение обследования для обследуемого предмета.13. The method of claim 1, further comprising the step of: inserting a 2D FTI corresponding to at least one 3D FTI into the 2D image of the exam for the subject being examined. 14. Система компьютерной томографии (КТ) для досмотра, содержащая:
устройство КТ-сканирования, выполненное с возможностью получения данных обследования для обследуемого предмета;
запоминающее устройство, выполненное с возможностью хранения данных обследования;
устройство отображения, выполненное с возможностью отображения трехмерного (3D) изображения обследования и/или двумерного (2D) изображения обследования для обследуемого предмета, причем 3D-изображение обследования получают из данных обследования, а 2D-изображение обследования получают из 3D-изображения обследования или данных обследования;
устройство обработки данных, выполненное с возможностью вставки по меньшей мере одного фиктивного 3D-изображения опасного предмета (FTI) в 3D-изображение обследования для обследуемого предмета; и
устройство ввода, выполненное с возможностью приема выбора по меньшей мере одной области на 3D-изображении обследования, включающей в себя 3D FTI, или по меньшей мере одной области на 2D-изображении обследования, включающей в себя 2D FTI, соответствующее 3D FTI,
причем устройство обработки данных дополнительно выполнено с возможностью выдачи в ответ на упомянутый выбор обратной связи о 3D-изображении обследования, включающем в себя по меньшей мере одно 3D FTI.
14. System of computed tomography (CT) for inspection, containing:
CT scan device configured to obtain survey data for the subject being examined;
a storage device configured to store survey data;
a display device configured to display a three-dimensional (3D) image of the examination and / or two-dimensional (2D) image of the examination for the subject being examined, wherein the 3D image of the examination is obtained from the examination data and the 2D image of the examination is obtained from the 3D image of the examination or examination ;
a data processing device configured to insert at least one fictitious 3D image of a dangerous object (FTI) into a 3D image of the examination for the subject being examined; and
an input device configured to receive a selection of at least one area in a 3D survey image including 3D FTI, or at least one area in a 2D survey image including 2D FTI corresponding to 3D FTI,
moreover, the data processing device is further configured to provide, in response to said selection of feedback, a 3D survey image including at least one 3D FTI.
15. Система КТ для досмотра по п. 14, в которой устройство обработки данных дополнительно выполнено с возможностью вычисления по меньшей мере одного параметра пространственной характеристики обследуемого предмета в соответствии с данными обследования и для вставки по меньшей мере одного 3D FTI в 3D-изображение обследования для обследуемого предмета на основании параметра пространственной характеристики.15. The CT scan system according to claim 14, wherein the data processing device is further configured to calculate at least one spatial parameter of the subject to be examined in accordance with the survey data and to insert at least one 3D FTI into the 3D survey image for the subject being examined based on the spatial characteristic parameter. 16. Система КТ для досмотра по п. 14, в которой параметр пространственной характеристики относится по меньшей мере к одному из положения, размера и ориентации вставляемого 3D FTI. 16. A CT scan system according to claim 14, wherein the spatial characteristic parameter refers to at least one of the position, size and orientation of the inserted 3D FTI.
RU2015125285/28A 2014-06-25 2015-06-25 Computed tomography system for inspection and corresponding method RU2599277C1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410290133 2014-06-25
CN201410290133.7 2014-06-25

Publications (1)

Publication Number Publication Date
RU2599277C1 true RU2599277C1 (en) 2016-10-10

Family

ID=53502458

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2015125285/28A RU2599277C1 (en) 2014-06-25 2015-06-25 Computed tomography system for inspection and corresponding method

Country Status (10)

Country Link
US (2) US9786070B2 (en)
EP (1) EP2960869B1 (en)
JP (1) JP6017631B2 (en)
KR (1) KR101838839B1 (en)
CN (3) CN105785462B (en)
AU (1) AU2015281530B2 (en)
HK (1) HK1218157A1 (en)
PL (1) PL2960869T3 (en)
RU (1) RU2599277C1 (en)
WO (2) WO2015196992A1 (en)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105785462B (en) * 2014-06-25 2019-02-22 同方威视技术股份有限公司 Mesh calibration method and safety check CT system in a kind of positioning three-dimensional CT image
JP6763301B2 (en) * 2014-09-02 2020-09-30 株式会社ニコン Inspection equipment, inspection methods, inspection processing programs and structure manufacturing methods
EP3112852A4 (en) * 2014-12-18 2017-10-11 Nuctech Company Limited Method for positioning target in three-dimensional ct image and security check system
CN105787919B (en) 2014-12-23 2019-04-30 清华大学 A kind of operating method and device of safety check CT 3-D image
KR102377626B1 (en) * 2015-03-27 2022-03-24 주식회사바텍 System of processing X-ray image and method of using the same
EP3156942A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Scene labeling of rgb-d data with interactive option
EP3223247A1 (en) * 2016-03-24 2017-09-27 Ecole Nationale de l'Aviation Civile Boolean object management in 3d display
MA44842A (en) * 2016-05-06 2021-05-26 L3 Security & Detection Systems Inc SYSTEMS AND METHODS FOR GENERATING PROJECTION IMAGES
CN106296535A (en) * 2016-08-02 2017-01-04 重庆微标科技股份有限公司 Realize hand baggage safety check information and associate the method and system reviewed with identity information
US10726608B2 (en) * 2016-11-23 2020-07-28 3D Systems, Inc. System and method for real-time rendering of complex data
EP3565259A1 (en) * 2016-12-28 2019-11-06 Panasonic Intellectual Property Corporation of America Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device
JP6969149B2 (en) * 2017-05-10 2021-11-24 富士フイルムビジネスイノベーション株式会社 3D shape data editing device and 3D shape data editing program
WO2019028721A1 (en) * 2017-08-10 2019-02-14 哈尔滨工业大学 Method for use in item recognition, apparatus, device, and security system
CN107833209B (en) * 2017-10-27 2020-05-26 浙江大华技术股份有限公司 X-ray image detection method and device, electronic equipment and storage medium
CN108051459A (en) * 2017-12-07 2018-05-18 齐鲁工业大学 A kind of Micro-CT scanning Multi-example test processing method
CN108295467B (en) * 2018-02-06 2021-06-22 网易(杭州)网络有限公司 Image presentation method and device, storage medium, processor and terminal
KR102026085B1 (en) * 2018-02-22 2019-09-27 서울대학교산학협력단 Method and apparatus for surface completion in ct data
CN108459801B (en) * 2018-02-28 2020-09-11 北京航星机器制造有限公司 Method and system for highlighting target in three-dimensional CT image
CN110210368B (en) * 2019-05-28 2023-07-18 东北大学 Dangerous goods image injection method based on security inspection image
CN113906474A (en) * 2019-06-28 2022-01-07 西门子(中国)有限公司 Point cloud model cutting method, device and system
CN110579496B (en) * 2019-08-15 2024-03-29 公安部第一研究所 Dangerous goods image rapid insertion method and system of security inspection CT system
WO2021131103A1 (en) * 2019-12-24 2021-07-01 ヌヴォトンテクノロジージャパン株式会社 Distance image processing device and distance image processing method
CN114930813B (en) * 2020-01-08 2024-03-26 Lg电子株式会社 Point cloud data transmitting device, point cloud data transmitting method, point cloud data receiving device and point cloud data receiving method
CN111551569B (en) * 2020-04-28 2021-01-08 合肥格泉智能科技有限公司 International express image checking system based on X-ray machine
KR102227531B1 (en) * 2020-07-06 2021-03-15 주식회사 딥노이드 Image processing apparatus and method for x-ray search apparatus
CN112581467B (en) * 2020-12-25 2023-11-07 北京航星机器制造有限公司 Intelligent security inspection method based on suspected dangerous goods evaluation
US20220230366A1 (en) * 2021-01-20 2022-07-21 Battelle Memorial Institute X-ray baggage and parcel inspection system with efficient third-party image processing
WO2022182490A2 (en) * 2021-02-03 2022-09-01 Battelle Memorial Institute Techniques for generating synthetic three-dimensional representations of threats disposed within a volume of a bag
DE102021202511A1 (en) 2021-03-15 2022-09-15 Smiths Detection Germany Gmbh Method for generating three-dimensional training data for a recognition device for recognizing alarm objects in luggage
CN112950664B (en) * 2021-03-31 2023-04-07 北京航星机器制造有限公司 Target object positioning and labeling method and device based on sliding profile
CN112907670B (en) * 2021-03-31 2022-10-14 北京航星机器制造有限公司 Target object positioning and labeling method and device based on profile
CN113781426B (en) * 2021-09-07 2024-02-13 海深智能科技(上海)有限公司 Intelligent security inspection method for identifying liquid components
CN116453063B (en) * 2023-06-12 2023-09-05 中广核贝谷科技有限公司 Target detection and recognition method and system based on fusion of DR image and projection image

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2334973C1 (en) * 2005-11-21 2008-09-27 Тсинхуа Юниверсити System and method for image reengineering by means of scanning by rectilinear trajectory
RU2396551C1 (en) * 2006-05-08 2010-08-10 Цингхуа Унивесити Method of inspecting cargo through spiral scanning
US20110058646A1 (en) * 2009-06-05 2011-03-10 Michel Herranz Transportation container inspection system and method
US20110227910A1 (en) * 2008-03-27 2011-09-22 Analogic Corporation Method of and system for three-dimensional workstation for security and medical applications
RU2462702C2 (en) * 2007-09-05 2012-09-27 Смитс Хайманн Гмбх Method for improving ability to recognise materials in x-ray inspection system, and x-ray inspection system
RU2467355C1 (en) * 2008-10-24 2012-11-20 Кэнон Кабусики Кайся Apparatus for obtaining x-ray images and method of obtaining x-ray images

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076184A (en) * 1999-09-03 2001-03-23 Ge Yokogawa Medical Systems Ltd Method and device for three-dimensional display
US6721387B1 (en) * 2001-06-13 2004-04-13 Analogic Corporation Method of and system for reducing metal artifacts in images generated by x-ray scanning devices
US20030023592A1 (en) * 2001-07-27 2003-01-30 Rapiscan Security Products (Usa), Inc. Method and system for certifying operators of x-ray inspection systems
US7012256B1 (en) * 2001-12-21 2006-03-14 National Recovery Technologies, Inc. Computer assisted bag screening system
GB0525593D0 (en) * 2005-12-16 2006-01-25 Cxr Ltd X-ray tomography inspection systems
US20050281464A1 (en) * 2004-06-17 2005-12-22 Fuji Photo Film Co., Ltd. Particular image area partitioning apparatus and method, and program for causing computer to perform particular image area partitioning processing
EP1997068B1 (en) * 2004-08-17 2018-12-26 Alan Penn & Associates, Inc. Method and system for discriminating image representations of classes of objects
US7764819B2 (en) * 2006-01-25 2010-07-27 Siemens Medical Solutions Usa, Inc. System and method for local pulmonary structure classification for computer-aided nodule detection
WO2007131328A1 (en) * 2006-05-11 2007-11-22 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
US20080123895A1 (en) * 2006-11-27 2008-05-29 Todd Gable Method and system for fast volume cropping of three-dimensional image data
US20080175456A1 (en) * 2007-01-18 2008-07-24 Dimitrios Ioannou Methods for explosive detection with multiresolution computed tomography data
US20080253653A1 (en) * 2007-04-12 2008-10-16 Todd Gable Systems and methods for improving visibility of scanned images
CN103064125B (en) 2007-06-21 2016-01-20 瑞皮斯坎系统股份有限公司 For improving the system and method for the people screening guided
US7978191B2 (en) * 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
CN201145672Y (en) * 2007-10-30 2008-11-05 清华大学 Checking system, CT apparatus and detecting device
EP2235684B1 (en) * 2008-01-25 2018-12-26 Analogic Corporation Image combining
US8600149B2 (en) * 2008-08-25 2013-12-03 Telesecurity Sciences, Inc. Method and system for electronic inspection of baggage and cargo
GB0817487D0 (en) 2008-09-24 2008-10-29 Durham Scient Crystals Ltd Radiographic data interpretation
GB2477680B (en) 2008-10-30 2015-05-20 Analogic Corp Detecting concealed threats
US8180139B2 (en) * 2009-03-26 2012-05-15 Morpho Detection, Inc. Method and system for inspection of containers
JP4471032B1 (en) * 2009-03-27 2010-06-02 システム・プロダクト株式会社 X-ray image composition apparatus, method and program
US20100266204A1 (en) * 2009-04-17 2010-10-21 Reveal Imaging Technologies, Inc. Method and system for threat image projection
WO2011046511A1 (en) 2009-10-13 2011-04-21 Agency For Science, Technology And Research A method and system for segmenting a liver object in an image
CN102222352B (en) * 2010-04-16 2014-07-23 株式会社日立医疗器械 Image processing method and image processing apparatus
CN101943761B (en) 2010-09-12 2012-09-05 上海英迈吉东影图像设备有限公司 Detection method of X-ray
US9042661B2 (en) * 2010-09-30 2015-05-26 Analogic Corporation Object classification using two-dimensional projection
CN202221578U (en) * 2010-10-26 2012-05-16 同方威视技术股份有限公司 Self-adaptive feedback image security inspection rectification system
CN102567960B (en) * 2010-12-31 2017-03-01 同方威视技术股份有限公司 A kind of image enchancing method for safety check system
US20140010437A1 (en) * 2011-03-22 2014-01-09 Ram C. Naidu Compound object separation
WO2013142072A2 (en) 2012-03-20 2013-09-26 Siemens Corporation Luggage visualization and virtual unpacking
CN103713329B (en) 2012-09-29 2016-12-21 清华大学 CT imaging positions method and the equipment of object
CN103901489B (en) 2012-12-27 2017-07-21 清华大学 Check method, display methods and the equipment of object
CN103900503B (en) 2012-12-27 2016-12-28 清华大学 Extract the method for shape facility, safety detection method and equipment
JP5684351B2 (en) * 2013-09-17 2015-03-11 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
JP5800039B2 (en) * 2014-01-22 2015-10-28 三菱プレシジョン株式会社 Biological data model creation method and apparatus
CN105785462B (en) * 2014-06-25 2019-02-22 同方威视技术股份有限公司 Mesh calibration method and safety check CT system in a kind of positioning three-dimensional CT image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2334973C1 (en) * 2005-11-21 2008-09-27 Тсинхуа Юниверсити System and method for image reengineering by means of scanning by rectilinear trajectory
RU2396551C1 (en) * 2006-05-08 2010-08-10 Цингхуа Унивесити Method of inspecting cargo through spiral scanning
RU2462702C2 (en) * 2007-09-05 2012-09-27 Смитс Хайманн Гмбх Method for improving ability to recognise materials in x-ray inspection system, and x-ray inspection system
US20110227910A1 (en) * 2008-03-27 2011-09-22 Analogic Corporation Method of and system for three-dimensional workstation for security and medical applications
RU2467355C1 (en) * 2008-10-24 2012-11-20 Кэнон Кабусики Кайся Apparatus for obtaining x-ray images and method of obtaining x-ray images
US20110058646A1 (en) * 2009-06-05 2011-03-10 Michel Herranz Transportation container inspection system and method

Also Published As

Publication number Publication date
EP2960869A3 (en) 2016-04-06
CN105785462B (en) 2019-02-22
AU2015281530B2 (en) 2017-07-20
CN105785462A (en) 2016-07-20
US20170276823A1 (en) 2017-09-28
AU2015281530A1 (en) 2016-09-22
EP2960869A2 (en) 2015-12-30
CN105784731B (en) 2019-02-22
US9786070B2 (en) 2017-10-10
KR20160132096A (en) 2016-11-16
KR101838839B1 (en) 2018-03-14
EP2960869B1 (en) 2018-10-03
CN105223212B (en) 2019-02-22
CN105223212A (en) 2016-01-06
US10297050B2 (en) 2019-05-21
US20160012647A1 (en) 2016-01-14
JP2016008966A (en) 2016-01-18
HK1218157A1 (en) 2017-02-03
CN105784731A (en) 2016-07-20
WO2015196992A1 (en) 2015-12-30
JP6017631B2 (en) 2016-11-02
WO2016095799A1 (en) 2016-06-23
PL2960869T3 (en) 2019-04-30

Similar Documents

Publication Publication Date Title
RU2599277C1 (en) Computed tomography system for inspection and corresponding method
CN102222352B (en) Image processing method and image processing apparatus
CN109584349B (en) Method and apparatus for rendering material properties
CN101604458A (en) The method that is used for the computer aided diagnosis results of display of pre-rendered
Truong-Hong et al. Octree-based, automatic building facade generation from LiDAR data
CN103456002A (en) Methods and system for displaying segmented images
CN103903303A (en) Three-dimensional model establishing method and device
US9978184B2 (en) Methods and apparatuses for marking target in 3D image
CN102859552A (en) Image data segmentation
CN102132322A (en) Apparatus for determining modification of size of object
CN105723423A (en) Volumetric image data visualization
EP3112852A1 (en) Method for positioning target in three-dimensional ct image and security check system
Tan et al. Design of 3D visualization system based on VTK utilizing marching cubes and ray casting algorithm
EP3112909B1 (en) Method for positioning target in three-dimensional ct image and security check ct system
Meike et al. Real-time resampling of medical images based on deformed tetrahedral structures for needle insertion vr-simulation
Kreylos et al. Point-based computing on scanned terrain with LidarViewer
Westerteiger Virtual Reality Methods for Research in the Geosciences
Min et al. OctoMap-RT: Fast Probabilistic Volumetric Mapping Using Ray-Tracing GPUs
US20220343586A1 (en) Method and system for optimizing distance estimation
Stotko et al. Improved 3D reconstruction using combined weighting strategies
Hrženjak et al. Visualization of Three-Dimensional Ultrasound Data
Höllt Visual workflows for oil and gas exploration
Svensson Image analysis and interactive visualization techniques for electron microscopy tomograms
Silva et al. Optimizing Combined Volume and Surface Data Ray Casting.
Xu et al. 3D Reconstruction of Solid Rocket Motor Based on CT Images