RU2431196C1 - Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения - Google Patents

Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения Download PDF

Info

Publication number
RU2431196C1
RU2431196C1 RU2010112306/08A RU2010112306A RU2431196C1 RU 2431196 C1 RU2431196 C1 RU 2431196C1 RU 2010112306/08 A RU2010112306/08 A RU 2010112306/08A RU 2010112306 A RU2010112306 A RU 2010112306A RU 2431196 C1 RU2431196 C1 RU 2431196C1
Authority
RU
Russia
Prior art keywords
image
neural network
calculated
interest
brightness
Prior art date
Application number
RU2010112306/08A
Other languages
English (en)
Inventor
Руслан Николаевич Косарев (RU)
Руслан Николаевич Косарев
Original Assignee
Закрытое Акционерное Общество "Импульс"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to RU2010112306/08A priority Critical patent/RU2431196C1/ru
Application filed by Закрытое Акционерное Общество "Импульс" filed Critical Закрытое Акционерное Общество "Импульс"
Priority to EA201100630A priority patent/EA015959B1/ru
Priority to UAA201108309A priority patent/UA105196C2/ru
Priority to JP2012508421A priority patent/JP2012512730A/ja
Priority to CN201080014862.XA priority patent/CN102365652B/zh
Priority to EP10805543A priority patent/EP2555158A1/en
Priority to KR1020117013497A priority patent/KR101232010B1/ko
Priority to PCT/RU2010/000611 priority patent/WO2011122977A1/ru
Priority to US13/239,824 priority patent/US8433121B2/en
Application granted granted Critical
Publication of RU2431196C1 publication Critical patent/RU2431196C1/ru
Priority to US13/850,385 priority patent/US8873826B2/en
Priority to JP2013252244A priority patent/JP2014064941A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Изобретение относится к средствам обработки цифровых рентгеновских изображений. Техническим результатом является повышение скорости обработки цифрового изображения. Способ заключается в следующем: получают изображение, вычисляют его гистограмму, преобразуют значения гистограммы во входные аргументы нейронной сети и вычисляют выходное значение нейронной сети. В качестве входных аргументов нейронной сети используют нормированные к единице значения гистограммы, вычисленные с заданным интервалом группировки. Уровень яркости вычисляют как линейную функцию от выходного значения нейронной сети. Обучение нейронной сети проводят с использованием обучающего множества, вычисленного по заданной базе изображений, в качестве множества целевых значений используют уровни яркости, вычисленные для каждого изображения по зоне интереса и масштабированные к области значений функции активации нейрона выходного слоя нейронной сети. 5 з.п ф-лы, 5 ил.

Description

Изобретение относится к способам обработки цифровых медицинских рентгеновских изображений, а именно к вычислению уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения.
Медицинское рентгеновское изображение, помимо изображения проекций органов пациента, как правило, содержит изображения проекций частей прибора (коллиматора) и воздуха. Под зоной интереса обычно понимают такую часть изображения, в которой присутствует изображение только проекций органов пациента. Необходимость правильно определить уровень яркости возникает, например, в следующих случаях:
1) при визуализации цифрового изображения на экране монитора;
2) для контроля экспозиции при съемке серии изображений.
Визуализация изображения с правильными уровнями яркости и контраста способствует лучшему пониманию рентгеновского изображения и, соответственно, правильной постановке диагноза. При съемке серии последовательных изображений на рентгеновском аппарате, зная уровень яркости в зоне интереса предыдущего изображения, можно правильно выставить время экспозиции цифрового детектора для съемки следующего изображения. Правильно подобранная экспозиция позволяет получать изображения существенно лучшего качества без затемненных и/или засвеченных областей с оптимальным отношением сигнал-шум в зоне интереса. Стандартная частота съемки серии изображений составляет 30 кадров в секунду, поэтому чрезвычайно важно определять уровень яркости достаточно быстро, чтобы успевать регулировать время экспозиции и/или характеристики излучения рентгеновской трубки. Также необходимо, чтобы способ вычисления уровня яркости являлся устойчивым при вычислениях на серии последовательных изображений.
Известен способ [1, стр.32] определения уровня яркости изображения. Уровень яркости в этом способе вычисляют как среднее значение минимальной и максимальной яркостей
Level=(Valueα+Value1-α)/2
Valueα есть квантиль уровня α яркости пикселей по всему изображению. Параметр α выбирают достаточно малым, как правило, не более 0,01. Этот способ не обеспечивает необходимую точность вычисления уровня яркости при наличии на изображении областей с изображениями воздуха и/или коллиматора.
Наиболее близким техническим решением, выбранным в качестве прототипа, является способ определения уровня яркости, описанный в [2, стр.6]. Способ по прототипу заключается в том, что после считывания цифрового изображения в оперативную память устройства проводят следующие вычисления.
1) Вычисляют гистограмму изображения с интервалом группировки, равным единице.
2) Определяют уровень яркости A, при котором пиксели с меньшей яркостью считают пикселями фона.
3) Анализируют гистограмму на интервале с яркостью пикселей, больших A. Вычисляют яркость MVP, которая соответствует максимальному значению гистограммы в указанном интервале.
4) Выбирают первоначальные значения для визуализации изображения: уровень окна WL0=MVP (window level) и ширина окна WW0=2×(MVP-A) (window width).
5) Вычисляют параметр ΔWW=WW0/2.
6) Используя нейронную сеть, для каждой пары значений (WL0±ΔWW, WW0±ΔWW) вычисляют индекс качества
Figure 00000001
.
7) Применяя итерационную процедуру (hill climbing method), определяют такую пару (WLc, WWc), при которой индекс качества Qc имеет максимальное значение. Во время итерационной процедуры параметр ΔWW корректируется.
Индекс качества вычисляют с помощью искусственной нейронной сети прямого распространения, далее - нейронной сети, с одним скрытым слоем и с одним нейроном в выходном слое с сигмоидальными функциями активации нейронов. Уровень окна и ширина окна (WLc, WWc), соответствующие максимальному индексу качества Qc, считают оптимальными параметрами для визуализации изображения.
Для обучения используют одно или несколько изображений, для которых опытным оператором устанавливают желаемые значения уровня окна и ширины окна (WLG, WWG). Далее составляют таблицу из 25-ти значений
(WLG±ΔWWG/2±ΔWWG/4, WWG±ΔWWG/2±ΔWWG/4)↔Qi,
ΔWWG=WWG/2;
Qi - заданные значения индекса качества.
Для каждой пары (WLi, WWi) вычисляют входные аргументы нейронной сети (пять или более аргументов). Индекс качества Qi, соответствующий паре (WLi, WWi), используют в качестве целевого значения. Таким образом, отмечая желаемые параметры уровня окна и ширины окна на заданном наборе изображений, оператор получает данные для обучения нейронной сети, после чего проводит ее обучение.
Недостатки способа по прототипу заключаются в следующем.
1) В применении к задаче контроля экспозиции, когда необходимо определить только уровень яркости, способ предоставляет избыточную информацию.
2) В способе не контролируется устойчивость алгоритма при вычислениях на серии последовательных изображений, что важно для контроля экспозиции при съемке серии изображений.
Задача изобретения заключается в определении уровня яркости, соответствующей среднему значению яркости в зоне интереса медицинского рентгеновского изображения.
Технический результат заявляемого способа заключается в вычислении уровня яркости в зоне интереса медицинского рентгеновского изображения. При этом способ является устойчивым при вычислениях на серии последовательных изображений. Дополнительным техническим результатом заявляемого способа является простота аппаратной реализации и высокая скорость исполнения алгоритма.
Технический результат в способе определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения, включающем получение изображения, вычисление гистограммы изображения, преобразование значений гистограммы во входные аргументы нейронной сети и вычисление уровня яркости с использованием искусственной нейронной сети, достигается тем, что значения гистограммы вычисляют с заданным интервалом группировки, нормируют к единице и используют в качестве входных аргументов нейронной сети, уровень яркости вычисляют как линейную функцию от выходного значения нейронной сети, а обучение нейронной сети проводят с использованием обучающего множества, вычисленного по заданной базе изображений, в качестве множества целевых значений используют уровни яркости, вычисленные для каждого изображения по зоне интереса и масштабированные к области значений функции активации нейрона выходного слоя нейронной сети.
В качестве нейронной сети используют искусственную нейронную сеть прямого распространения с одним скрытым слоем и выходным слоем из одного нейрона с сигмоидальными функциями активации нейронов.
Интервал группировки для вычисления значений гистограммы полагают равным отношению квантиля распределения яркости пикселей изображения, с уровнем, близким к единице, к числу входных аргументов нейронной сети.
Уровень яркости в зоне интереса изображения вычисляют как среднее значение яркости пикселей, принадлежащих зоне интереса.
Значения гистограммы вычисляют по всем пикселям изображения.
Значения гистограммы вычисляют по пикселям, принадлежащим кругу, центр которого совпадает с центром изображения, а его диаметр равен минимальной стороне изображения.
В основе алгоритма лежит экспериментально установленный факт существования статистической зависимости между гистограммой изображения и уровнем яркости в зоне интереса.
Особенность заявляемого способа заключается в следующем.
1) В качестве входных аргументов нейронной сети используют нормированные к единице значения гистограммы изображения, вычисленной с заданным интервалом группировки.
2) Уровень яркости вычисляют как линейную функцию от выходного значения нейронной сети.
3) Обучение нейронной сети проводят с использованием обучающего множества, вычисленного по заданной базе изображений, в качестве множества целевых значений используют уровни яркости, вычисленные для каждого изображения по зоне интереса и масштабированные к области значений функции активации нейрона выходного слоя нейронной сети.
Для идентификации статистической зависимости между гистограммой и уровнем яркости используют искусственную нейронную сеть прямого распространения [3, стр.55]. Выделим основные этапы в осуществлении способа.
1) Сбор и классификация базы данных из медицинских рентгеновских изображений.
2) Построение множества обучающих примеров - множества входных аргументов нейронной сети и множества целевых значений.
3) Выбор функции ошибки и алгоритма обучения нейронной сети.
4) Обучение набора нейронных сетей с различной архитектурой, с различным числом входов, слоев и нейронов.
5) Выбор нейронной сети, с наименьшим числом параметров, наилучшим образом подходящей для решения задачи.
Осуществление способа определения уровня яркости поясняется следующими чертежами.
На фиг.1 представлен пример цифрового медицинского рентгеновского изображения с одного из рентгеновских аппаратов.
На фиг.2 изображена зона интереса, соответствующая изображению на фиг.1.
На фиг.3 представлен пример гистограммы 16-разрядного изображения. По горизонтали идет шкала яркости, а по вертикали - количество пикселей с данной яркостью. Вертикальными линиями показано разбиение интервала [0, Bright] на 32 части. Значение Bright определено как квантиль яркости изображения с уровнем α=0,999.
На фиг.4 представлена типичная гистограмма относительной ошибки для обучающей выборки
Error=100×(Level'/Level-1),
Level' - уровень яркости, вычисленный с помощью заявляемого способа;
Level - уровень яркости, вычисленный по зоне интереса.
На фиг.5 представлена типичная гистограмма относительной ошибки для тестовой выборки.
Этап подготовки базы данных изображений заключается в классификации изображений по типам органов и в построении для каждого изображения бинарного изображения с зоной интереса. Построение бинарного изображения с зоной интереса можно сделать с помощью специализированного программного обеспечения или вручную, обозначая на изображении зону интереса в любом стандартном редакторе. На первом этапе организуют базу данных, которая состоит из множества пар {image, Roi}, где Image-исходное изображение и Roi-изображение соответствующей зоны интереса. В нашем случае было собрано и обработано около десяти тысяч изображений.
Перейдем ко второму этапу - к этапу построения множества обучающих примеров. Для каждой пары {Image, Roi} вычисляют гистограмму изображения Hist, с интервалом группировки, равным единице, и уровень яркости по зоне интереса Level. В качестве уровня яркости выбирают среднее значение яркости пикселей по всем пикселям зоны интереса
Figure 00000002
Level - уровень яркости в зоне интереса;
pk - значение яркости k-того пикселя;
M - количество пикселей в зоне интереса.
В результате таких вычислений для каждой пары изображений {Image, Roi} получают пару гистограммы и уровня яркости {Hist, Level}.
Гистограмму можно вычислять как по всему изображению, так и по заранее выбранной области. Как правило, пациента при съемке располагают так, чтобы изображение проекций снимаемых органов приходилось на центр цифровой матрицы. Поэтому во втором варианте вычисления гистограммы в качестве такой области можно выбрать окружность, центр которой совпадает с центром изображения, а диаметр, например, равен наименьшей стороне изображения.
Перейдем к вычислению для каждой пары {Hist, Level} входных аргументов Input и целевого значения Target. Входные аргументы и целевые значения, образующие множество обучающих примеров, должны удовлетворять следующим условиям:
1) Пары {Input, Target} должны быть инвариантными относительно умножения изображения на константу и не зависеть от размера изображения (с поправкой на дискретность яркости пикселей).
2) Целевые значения Target должны лежать в области значений функции активации нейрона выходного слоя.
Затем необходимо обеспечить инвариантность пар {input,Target} относительно умножения изображения на константу следующим образом. Для гистограммы Hist определяют интервал яркости [0, Bright] такой, что верхний предел Bright есть квантиль уровня α яркости пикселей изображения. Разделим интервал [0, Bright] на S равных интервалов и вычислим Inputi как сумму значений гистограммы Histk, принадлежащих интервалу I,
Figure 00000003
Inputi - значение входного аргумента с индексом i;
Histk - значение гистограммы Hist с индексом k.
В итоге значения Inputi нормируют к единице
Figure 00000004
Число S определяет количество входов нейронной сети и подбирается путем численных экспериментов вместе с параметром α. Входные аргументы Input есть нормированные к единице значения гистограммы, вычисленной с интервалом группировки, равным отношению Bright/S. Далее для каждого Level вычисляют отношение Target'=Level/Bright. Вычисленные таким образом пары {Input, Target'} инвариантны относительно умножения изображения на константу и не зависят от размера изображения.
Перейдем к построению множества целевых значений. В качестве функций активации нейронов используют сигмоидальную функцию
Figure 00000005
область значений которой есть интервал [0, 1], поэтому множество целевых значений Target' также необходимо привести к этому интервалу. Для этого используют линейное преобразование
Figure 00000006
Приведем выражение для вычисления уровня Level по выходному значению нейронной сети Output
Level=Bright×(C1×Output+С2)
C1=max{Target'}-min{Target'};
С2=min{Target'}.
Уровень яркости вычисляют как линейную функцию от выходного значения нейронной сети.
В качестве функций ошибки нейронной сети используют следующие два варианта. Первый вариант есть среднеквадратичная ошибка с регуляризацией
Figure 00000007
Второй вариант - средневзвешенная квадратичная ошибка с регуляризацией
Figure 00000008
Ratio - параметр регуляризации;
Wi - вес, соответствующий обучающей паре {Input, Target} с индексом i;
N - количество обучающих пар, участвующих в вычислении ошибки;
Figure 00000009
- сумма квадратов всех параметров нейронной сети.
Первое слагаемое в этих выражениях определяет точность обучения нейронной сети, а второе слагаемое, регуляризующий член, обеспечивает устойчивость нейронной сети. Веса Wi вычисляют по формуле
Figure 00000010
т.е. парам с большим значением
Figure 00000011
соответствует меньший вес Wi.
Для обучения нейронной сети используют стандартный алгоритм обучения - метод сопряженного градиента с обратным распространением ошибки [4, стр.525]. Параметр регуляризации Ratio подбирают таким образом, чтобы исключить случайные выбросы более 0,5 процента при многократном вычислении уровня Level при вращении изображения. В нашем случае этот параметр оказался равным Ratio=0,9999.
Чтобы обойти проблему переобучения, используют стандартный прием, в котором множество обучающих примеров {Input, Target} делится на две части. Одну из них используют для обучения нейронной сети, а вторую для ее тестирования. Как мы писали выше, после сбора базы данных изображений проводят их классификацию по типу органов. Далее разделяют множество обучающих примеров на две выборки в соотношении 80 и 20 процентов таким образом, чтобы 80 процентов каждой группы изображений попали в обучающую выборку, а оставшиеся 20 процентов в выборку для тестирования.
Численные эксперименты показали, что для решения поставленной задачи оказалось возможным использовать нейронную сеть прямого распространения с одним скрытым слоем, с числом входов от 30 до 60 и числом нейронов от 5 до 10 в скрытом слое. Параметр α можно выбрать из интервала от 0,98 до 0,9999. Для реализации заявляемого способа определения уровня яркости в конкретном аппарате была выбрана нейронная сеть с наименьшим количеством параметров при прочих равных условиях.
Источники информации
1) Р.Гонсалес, Р.Вудс, С.Эддинс. Цифровая обработка изображений в среде MATLAB. Техносфера, 2006.
2) Патент EP 0409206 B1, опубл. 01.10.1997.
3) Саймон Хайкин, Нейронные сети. Полный курс. И.Д.Вильямс, 2006.
4) Moller, Neural Networks, vol.6, 1993.

Claims (6)

1. Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения, заключающийся в том, что получают названное изображение, вычисляют его гистограмму, преобразуют значения гистограммы во входные аргументы нейронной сети и вычисляют уровень яркости с использованием искусственной нейронной сети, отличающийся тем, что значения гистограммы вычисляют с заданным интервалом группировки, нормируют к единице и используют в качестве входных аргументов нейронной сети, уровень яркости вычисляют как линейную функцию от выходного значения нейронной сети, а обучение нейронной сети проводят с использованием обучающего множества, вычисленного по заданной базе изображений, в качестве множества целевых значений используют уровни яркости, вычисленные для каждого изображения по зоне интереса и масштабированные к области значений функции активации нейрона выходного слоя нейронной сети.
2. Способ по п.1, отличающийся тем, что в качестве нейронной сети используют искусственную нейронную сеть прямого распространения с одним скрытым слоем и выходным слоем из одного нейрона с сигмоидальными функциями активации нейронов.
3. Способ по п.2, отличающийся тем, что интервал группировки для вычисления значений гистограммы полагают равным отношению квантиля распределения яркости пикселей изображения с уровнем, близким к единице, к числу входных аргументов нейронной сети.
4. Способ по п.1, отличающийся тем, что уровень яркости в зоне интереса изображения вычисляют как среднее значение яркости пикселей, принадлежащих зоне интереса.
5. Способ по п.1, отличающийся тем, что значения гистограммы вычисляют по всем пикселям изображения.
6. Способ по п.1, отличающийся тем, что значения гистограммы вычисляют по пикселям, принадлежащим кругу, центр которого совпадает с центром изображения, а его диаметр равен минимальной стороне изображения.
RU2010112306/08A 2010-03-31 2010-03-31 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения RU2431196C1 (ru)

Priority Applications (11)

Application Number Priority Date Filing Date Title
RU2010112306/08A RU2431196C1 (ru) 2010-03-31 2010-03-31 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения
UAA201108309A UA105196C2 (ru) 2010-03-31 2010-10-21 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения
JP2012508421A JP2012512730A (ja) 2010-03-31 2010-10-21 医療用途のデジタルx線画像の対象領域における明るさレベルを計算する方法
CN201080014862.XA CN102365652B (zh) 2010-03-31 2010-10-21 医疗用数字x射线图像关注区域亮度水平计算方法
EA201100630A EA015959B1 (ru) 2010-03-31 2010-10-21 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения
EP10805543A EP2555158A1 (en) 2010-03-31 2010-10-21 Method for brightness level calculation in the area of interest of a digital x-ray image for medical applications
KR1020117013497A KR101232010B1 (ko) 2010-03-31 2010-10-21 의료 어플리케이션을 위한 디지털 엑스레이 이미지의 관심 영역에서 밝기 레벨을 계산하기 위한 방법
PCT/RU2010/000611 WO2011122977A1 (ru) 2010-03-31 2010-10-21 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения
US13/239,824 US8433121B2 (en) 2010-03-31 2011-09-22 Method for brightness level calculation in the area of interest of the digital X-ray image for medical applications
US13/850,385 US8873826B2 (en) 2010-03-31 2013-03-26 Method for brightness level calculation of the digital x-ray image for medical applications
JP2013252244A JP2014064941A (ja) 2010-03-31 2013-12-05 医療用途のデジタルx線画像の明るさレベルを計算する方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2010112306/08A RU2431196C1 (ru) 2010-03-31 2010-03-31 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения

Publications (1)

Publication Number Publication Date
RU2431196C1 true RU2431196C1 (ru) 2011-10-10

Family

ID=43587279

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2010112306/08A RU2431196C1 (ru) 2010-03-31 2010-03-31 Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения

Country Status (9)

Country Link
US (2) US8433121B2 (ru)
EP (1) EP2555158A1 (ru)
JP (2) JP2012512730A (ru)
KR (1) KR101232010B1 (ru)
CN (1) CN102365652B (ru)
EA (1) EA015959B1 (ru)
RU (1) RU2431196C1 (ru)
UA (1) UA105196C2 (ru)
WO (1) WO2011122977A1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2635850C2 (ru) * 2012-11-29 2017-11-16 Контролрад Системс Инк. Система уменьшения интенсивности рентгеновского излучения
RU2731649C1 (ru) * 2019-11-28 2020-09-07 федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ФГБОУ ВО ОмГМУ Минздрава России) Способ оценки степени влияния экспериментальной ишемии на нервную ткань головного мозга белых крыс при окрашивании препаратов гематоксилином и эозином

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068327B2 (en) * 2013-09-18 2018-09-04 Siemens Medical Solutions Usa, Inc. Method and system for statistical modeling of data using a quadratic likelihood functional
KR102216440B1 (ko) * 2013-12-04 2021-02-18 삼성전자주식회사 엑스선 영상 생성 장치 및 방법
US10625304B2 (en) 2017-04-26 2020-04-21 UHV Technologies, Inc. Recycling coins from scrap
US11969764B2 (en) 2016-07-18 2024-04-30 Sortera Technologies, Inc. Sorting of plastics
US11278937B2 (en) 2015-07-16 2022-03-22 Sortera Alloys, Inc. Multiple stage sorting
US10722922B2 (en) 2015-07-16 2020-07-28 UHV Technologies, Inc. Sorting cast and wrought aluminum
US11964304B2 (en) 2015-07-16 2024-04-23 Sortera Technologies, Inc. Sorting between metal alloys
US9916525B2 (en) * 2015-10-13 2018-03-13 Siemens Healthcare Gmbh Learning-based framework for personalized image quality evaluation and optimization
JP6993334B2 (ja) * 2015-11-29 2022-01-13 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション
WO2018200866A1 (en) 2017-04-26 2018-11-01 UHV Technologies, Inc. Material sorting using a vision system
EP3714467A4 (en) 2017-11-22 2021-09-15 Arterys Inc. CONTENT-BASED IMAGE RECOVERY FOR LESION ANALYSIS
CN110059642B (zh) * 2019-04-23 2020-07-31 北京海益同展信息科技有限公司 人脸图像筛选方法与装置
CN112329788A (zh) * 2020-09-29 2021-02-05 北京空间飞行器总体设计部 一种基于直方图统计的bp神经网络目标检测方法
KR102545714B1 (ko) * 2020-10-07 2023-06-21 주식회사 오큐라이트 인공 신경망을 이용한 의료 영상의 가시화 파라미터 예측 장치 및 방법
US11707246B2 (en) 2020-10-14 2023-07-25 Canon Medical Systems Corporation Method and apparatus for automatic determination of object and background region of interest for real-time automatic dose rate control in dynamic imaging systems
CN112347972A (zh) * 2020-11-18 2021-02-09 合肥湛达智能科技有限公司 一种基于深度学习的高动态感兴趣区域图像处理方法
US11723619B2 (en) 2021-03-19 2023-08-15 Canon Medical Systems Corporation System and method for indication and selection of region of interest for x-ray dose adjustment

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305204A (en) 1989-07-19 1994-04-19 Kabushiki Kaisha Toshiba Digital image display apparatus with automatic window level and window width adjustment
JP2937389B2 (ja) * 1990-03-16 1999-08-23 株式会社東芝 画像表示方法
JP2739386B2 (ja) * 1990-10-15 1998-04-15 富士写真フイルム株式会社 放射線画像読取条件及び/又は画像処理条件決定方法および装置
JPH0464180A (ja) * 1990-07-04 1992-02-28 Toshiba Corp ディジタル画像表示装置
JP2616520B2 (ja) * 1991-08-30 1997-06-04 株式会社島津製作所 医療用画像表示装置
US5963662A (en) * 1996-08-07 1999-10-05 Georgia Tech Research Corporation Inspection system and method for bond detection and validation of surface mount devices
JP2002541639A (ja) 1999-04-02 2002-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 輝度制御システムを有するx線検査装置
US6757434B2 (en) * 2002-11-12 2004-06-29 Nokia Corporation Region-of-interest tracking method and device for wavelet-based video coding
US7218763B2 (en) * 2003-02-27 2007-05-15 Eastman Kodak Company Method for automated window-level settings for magnetic resonance images
DE102005010076A1 (de) * 2005-03-04 2006-09-07 Siemens Ag Bildbearbeitungsverfahren für ein digitales medizinisches Untersuchungsbild und zugehörige Untersuchungseinrichtung
DE102005047539A1 (de) 2005-09-30 2007-04-05 Siemens Ag Bildverarbeitungsverfahren zur Fensterung und/oder Dosisregelung für medizinische Diagnostikeinrichtungen
CN101030256B (zh) * 2006-02-28 2010-05-12 东软集团股份有限公司 车辆图像分割方法和装置
JP2007301181A (ja) * 2006-05-11 2007-11-22 Ge Medical Systems Global Technology Co Llc 超音波診断装置および画像表示方法
US20090112618A1 (en) * 2007-10-01 2009-04-30 Johnson Christopher D Systems and methods for viewing biometrical information and dynamically adapting schedule and process interdependencies with clinical process decisioning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2635850C2 (ru) * 2012-11-29 2017-11-16 Контролрад Системс Инк. Система уменьшения интенсивности рентгеновского излучения
RU2731649C1 (ru) * 2019-11-28 2020-09-07 федеральное государственное бюджетное образовательное учреждение высшего образования "Омский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ФГБОУ ВО ОмГМУ Минздрава России) Способ оценки степени влияния экспериментальной ишемии на нервную ткань головного мозга белых крыс при окрашивании препаратов гематоксилином и эозином

Also Published As

Publication number Publication date
EP2555158A1 (en) 2013-02-06
US8873826B2 (en) 2014-10-28
US8433121B2 (en) 2013-04-30
US20120014586A1 (en) 2012-01-19
CN102365652B (zh) 2014-05-21
KR20110116119A (ko) 2011-10-25
JP2014064941A (ja) 2014-04-17
JP2012512730A (ja) 2012-06-07
EA201100630A1 (ru) 2011-10-31
UA105196C2 (ru) 2014-04-25
EA015959B1 (ru) 2011-12-30
KR101232010B1 (ko) 2013-02-08
CN102365652A (zh) 2012-02-29
WO2011122977A1 (ru) 2011-10-06
US20130230229A1 (en) 2013-09-05

Similar Documents

Publication Publication Date Title
RU2431196C1 (ru) Способ определения уровня яркости в зоне интереса цифрового медицинского рентгеновского изображения
US8270695B2 (en) Diagnostic image processing with automatic self image quality validation
Liu et al. A framework of wound segmentation based on deep convolutional networks
JPH09179843A (ja) 乳房x線画像における群生した微小石灰質化部のコンピュータ検出のためのシフト不変人工ニューラルネットワーク
Chen et al. MSLPNet: multi-scale location perception network for dental panoramic X-ray image segmentation
CN112614133B (zh) 一种无锚点框的三维肺结节检测模型训练方法及装置
CN112085113B (zh) 一种重症肿瘤影像识别系统及方法
CN110021019B (zh) 一种aga临床图像的ai辅助毛发的粗细分布分析方法
EP3971830B1 (en) Pneumonia sign segmentation method and apparatus, medium and electronic device
CN113269737B (zh) 一种眼底视网膜动静脉血管直径计算方法及系统
Du et al. Real-time lesion detection of cardiac coronary artery using deep neural networks
Li et al. Image segmentation based on improved unet
Swiderska-Chadaj et al. Convolutional neural networks for lymphocyte detection in immunohistochemically stained whole-slide images
US20220319002A1 (en) Tumor cell isolines
Dovganich et al. Automatic quality control in lung X-ray imaging with deep learning
Soni et al. Automatic Pulmonary Cancer Detection using Prewitt & Morphological Dilation
CN113011514B (zh) 基于双线性池化应用于ct影像的颅内出血亚类型分类算法
CN114419401A (zh) 白细胞检测识别方法、装置、计算机存储介质及电子设备
Titisari et al. Enhancing Breast Cancer Detection: Optimizing YOLOv8's Performance Through Hyperparameter Tuning
CN110334582A (zh) 智能识别和记录内镜黏膜下剥离术摘除息肉视频的方法
Kretz Development of model observers for quantitative assessment of mammography image quality
Korürek et al. Retrospective correction of near field effect of X-ray source in radiographic images by using genetic algorithms
US20230233171A1 (en) Real-time monitored computed tomography (ct) reconstruction for reducing radiation dose
Li et al. Dental detection and classification of yolov3-spp based on convolutional block attention module
CN112862804B (zh) 一种眼底视网膜血管图像处理系统及方法

Legal Events

Date Code Title Description
PD4A Correction of name of patent owner
MM4A The patent is invalid due to non-payment of fees

Effective date: 20210401