RU2686566C2 - Способ для детектирования и классифицирования событий сцены - Google Patents
Способ для детектирования и классифицирования событий сцены Download PDFInfo
- Publication number
- RU2686566C2 RU2686566C2 RU2016135936A RU2016135936A RU2686566C2 RU 2686566 C2 RU2686566 C2 RU 2686566C2 RU 2016135936 A RU2016135936 A RU 2016135936A RU 2016135936 A RU2016135936 A RU 2016135936A RU 2686566 C2 RU2686566 C2 RU 2686566C2
- Authority
- RU
- Russia
- Prior art keywords
- swir
- visnir
- images
- event
- scene
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 19
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000005286 illumination Methods 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims abstract description 15
- 230000008859 change Effects 0.000 claims abstract description 10
- 230000001360 synchronised effect Effects 0.000 claims abstract description 8
- 230000004044 response Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 19
- 230000000694 effects Effects 0.000 abstract description 4
- 239000000126 substance Substances 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 8
- 230000003595 spectral effect Effects 0.000 description 7
- 235000019557 luminance Nutrition 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000010354 integration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010304 firing Methods 0.000 description 3
- 231100000518 lethal Toxicity 0.000 description 3
- 230000001665 lethal effect Effects 0.000 description 3
- 230000003472 neutralizing effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004083 survival effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/147—Indirect aiming means based on detection of a firing weapon
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/0219—Electrical interface; User interface
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/0242—Control or determination of height or angle information of sensors or receivers; Goniophotometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/04—Optical or mechanical part supplementary adjustable parts
- G01J1/0488—Optical or mechanical part supplementary adjustable parts with spectral filtering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
- G01J1/4228—Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0066—Radiation pyrometry, e.g. infrared or optical thermometry for hot spots detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/02—Constructional details
- G01J5/025—Interfacing a pyrometer to an external device or network; User interface
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/02—Constructional details
- G01J5/0275—Control or determination of height or distance or angle information for sensors or receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/60—Radiation pyrometry, e.g. infrared or optical thermometry using determination of colour temperature
- G01J5/602—Radiation pyrometry, e.g. infrared or optical thermometry using determination of colour temperature using selective, monochromatic or bandpass filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J2005/0077—Imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
- Image Processing (AREA)
- Radiation Pyrometers (AREA)
Abstract
Изобретение относится к области детектирования и классифицирования событий сцены. Технический результат – обеспечение надежного распознавания событий сцены. Достижение результата обеспечивается посредством однозрачковой системы формирования изображения, снабженной VisNIR-детектором в диапазоне длин волн 0,6–1,1 мкм и SWIR-детектором. При этом выполняют этап получения синхронизированных VisNIR и SWIR последовательных двумерных изображений, этап отображения VisNIR-изображений и этап обработки этих изображений, который состоит в сравнении SWIR-изображений для определения, для каждого пиксела, изменения в освещенности от одного SWIR-изображения к другому и пикового значения этих SWIR-освещенностей. 3 н. и 4 з.п. ф-лы, 7 ил.
Description
Область техники, к которой относится данное изобретение, является областью классификации событий в наблюдаемой сцене. Эта классификация событий относится к детектированию угроз перед стрельбой или после стрельбы для самозащиты или дополнительной защиты транспортных средств, плавательных средств, летательных аппаратов, таких как вертолеты или самолеты, или же военных или гражданских объектов инфраструктуры.
Эти платформы подвержены воздействию различных типов угроз, которые могут исходить со всех направлений в пределах 360° по азимуту вокруг платформы или в областях с телесным углом 2π стерадиан или более (сверх-полусферических), для наземных платформ, или же 4π стерадиан для надземных платформ. Этими угрозами являются: стрельба боеприпасами, лазерная подсветка, боевые прицельные системы, люди, которые их используют (стрелки), или возможные платформы, в которые они встроены.
Некоторые системы типа «Soft Kill» («Поражение выведением из строя») (нейтрализация угрозы перед стрельбой) или «Hard Kill» («Поражение с физическим уничтожением») (нейтрализация угрозы после стрельбы), которые объединяют функции детектирования угроз, средства реакции, защиты, или выживания транспортного средства или его экипажа, и ответных действий, нуждаются в функциях детектирования в режиме реального времени с очень короткими периодами времени реакции.
В настоящее время существует очень малое количество доступных видов оборудования, которые соответствуют разнообразию таких угроз. Однако, существуют:
- детекторы начала обстрела (или «HFI», что является сокращением от «Hostile Fire Indicator» («Индикатор вражеского обстрела»)), которые основаны на акустических решениях, или радиолокации, или инфракрасном диапазоне 2 или MWIR (среднем инфракрасном диапазоне 3 мкм – 5 мкм) или UV (Ultra Violet (ультрафиолетовом диапазоне)), или же на комбинации этих технологий;
- детекторы снайперов на основе акустических решений, для детектирования дульной волны и сверхзвуковой волны боеприпаса, или для детектирования, посредством эффекта «кошачьего глаза» (детекторы нацеленных оптических систем (Pointed-Optics Detector - POD), их средств прицеливания;
- детекторы пусков ракет (Missile Departure Detector – MDD) или датчики предупреждения об обнаружении ракет (Missile Warning Sensor - MWS) на основе радиолокации, UV или MWIR детектирования;
- детекторы предупреждения о лазерном облучении (Laser Warning Detector - LWD), на основе оптического детектирования на основе длин волн лазеров, используемых для военных применений.
Эти типы приемников иногда встречаются на дорогостоящих самолетах, таких как самолет-истребитель. На бронированных транспортных средствах, они встречаются реже, в силу стоимостей единицы продукции такого оборудования и стоимости встраивания его в систему защиты, по сравнению со стоимостью платформы.
LWD или MDD присутствуют на рынке более 20 лет и не нашли никакого фактического применения на наземных транспортных средствах.
Некоторые компании предлагают оборудование с различными уровнями технологического развития, для детектирования пусков ракет или обстрела, на основе технологий объединения N камер – например, 4, причем каждая из них покрывает азимутальный сектор 90°, для обеспечения покрытия 360°. Эти сети из N распределенных и синхронизированных камер, тем не менее, образуют решения, которые при встраивании являются дорогостоящими и сложными и, фактически, являются нерентабельными. Фактически, в настоящее время, большинство бронированных транспортных средств не имеют средств защиты, кроме своей брони. Действительно, существующие решения наземной сферы действия являются неудовлетворительными, конкретно, вследствие стоимости и сложности компоновки полной системы защиты. Действительно, бесполезно детектировать угрозы, если неизвестно, как реагировать таким образом, чтобы обеспечить, чтобы угроза или ее эффекты были нейтрализованы, для обеспечения, таким образом, выживания экипажа или платформы, или же, для обеспечения того, чтобы выполнение задачи было продолжено.
Задача данного изобретения состоит в устранении этих недостатков.
Более конкретно, предметом данного изобретения является способ для детектирования и классифицирования событий типа угроз стрельбы в сцене, посредством однозрачковой системы формирования изображения, установленной на мобильной платформе и снабженной несколькими детекторами, включающими в себя детектор в диапазоне длин волн 0,6 мкм – 1,1 мкм, называемый детектором видимого и ближнего инфракрасного диапазона (Visible Near InfraRed – VisNIR), и детектор в диапазоне длин волн 0,9 мкм – 1,7 мкм, или диапазоне 1, называемый детектором коротковолнового инфракрасного диапазона (Short Wave InfraRed – SWIR), связанными с блоком обработки, который содержит этап получения последовательных двумерных изображений сцены, которые поступают от VisNIR-детектора и называются VisNIR-изображениями, и последовательных двумерных изображений сцены, которые поступают от SWIR-детектора и синхронизированы с VisNIR-изображениями и называются SWIR-изображениями, этап отображения VisNIR-изображений, и этап обработки VisNIR-изображений и SWIR-изображений посредством блока обработки. Он, главным образом, отличается тем, что этот этап обработки изображений содержит следующие подэтапы:
- сравнение последовательных SWIR-изображений для определения, для каждого пиксела (x1,y1) и смежных пикселов, изменения в освещенности от одного SWIR-изображения к другому, и пикового значения e1(t) этих так называемых SWIR-освещенностей,
если это изменение в SWIR-освещенности является большим, чем заданный порог освещенности, то тогда это изменение в SWIR-освещенности, во время которого она является большей, чем упомянутый порог, назначают в качестве признака события i, и событие связывают с упомянутым пикселом (x1,y1) или с барицентром рассматриваемых пикселов, и:
- определяют дату ti события i,
- определяют временную форму и длительность δti признака события i,
- определяют координаты пиксела (x2,y2) и смежных пикселов, соответствующих пикселу (x1,y1) или барицентру, в VisNIR-изображениях, синхронизированных с SWIR-изображениями, и для этого пиксела (x2,y2) и этих смежных пикселов:
○ вычисляют изменение в освещенности от одного VisNIR-изображения к другому и пиковое значение e2(t) этих так называемых VisNIR-освещенностей, и сравнивают эти изменения в SWIR- и VisNIR-освещенностях и их пиковые значения e1(t) и e2(t) для оценки температуры события на основе заданной справочной таблицы,
▪ если сцена является дневной сценой, и температура является большей, чем температурный порог, то тогда событие является ложным предупредительным сигналом (= событие отклоняют), и предыдущие этапы повторяют с другим пикселом,
▪ в противном случае:
○ на основе измерений угловых скоростей элементов сцены и скорости платформы, и VisNIR-изображений, оценивают расстояние Ri соответствующей точки сцены, для вычисления интенсивности Ii события i на основе SWIR- и VisNIR-освещенностей этого пиксела и на основе этого расстояния Ri,
○ общую энергию Ei события оценивают на основе временной формы признака события и интенсивности Ii,
- событие i классифицируют в зависимости от его длительности δti, его температуры Ti, его интенсивности Ii и его энергии Ei,
- предыдущие этапы повторяют для другого пиксела SWIR-изображений.
Посредством этого способа, VisNIR-детектор обеспечивает возможность обеспечения основной функции высокоразрешающего дневного и ночного видения, вместе с дополнительными функциями, для детектирования, определения углового положения и классификации событий (или угроз), или для отклонения ложных предупредительных сигналов, посредством совместного использования одного (или нескольких) детектора (детекторов) SWIR-типа, возможно, многоспектрального, и посредством определения атрибутов длительности, температуры и интенсивности этих событий.
Когда событие связано с несколькими смежными пикселами, например, более чем с 4*4 пикселами, то тогда определяют яркость события в SWIR-диапазоне, и событие также классифицируют в зависимости его яркости в SWIR-области.
В видимом и ближнем инфракрасном диапазоне, также можно измерить видимую яркость, связанную с событием. Эти две яркости, SWIR и VisNIR, обеспечивают возможность оценки температуры события (уже оцененной, как указано выше) с большей точностью. Кроме того, при оценке расстояния до события, можно оценить его амплитуду, его интенсивность и его общую энергию.
Предпочтительно, событие вставляют в отображаемое VisNIR-изображение, необязательно, вместе с соответствующим расстоянием. Оно может быть вставлено в дополненную реальность посредством вставки символа, например, цветного перекрестья с соответствующими данными. Эта информация о расстоянии обеспечивает более надежное выполнение классификации детектированной угрозы, и обеспечивает возможность оценки степени угрозы или степени приоритета, и оценки того, находимся ли мы в диапазоне смертельного поражения этой угрозы, и, необязательно, совершения подходящих ответных действий, автоматических или управляемых оператором (перемещение, маскировка посредством отстрела дымовых гранат, ответные действия для нейтрализации угрожающей огневой точки, ответные действия для нейтрализации боеприпаса, например).
Согласно одной характеристике данного изобретения, блок обработки связан с системой управления событиями, и способ детектирования и классифицирования, дополнительно, предусматривает этап запуска этой системы управления на основе классифицированного события и расстояния до него.
Предметом данного изобретения также является компьютерный программный продукт, причем упомянутая компьютерная программа содержит кодовые команды, обеспечивающие возможность выполнения этапов способа, описанного выше, когда упомянутая программа исполняется на компьютере.
Предметом данного изобретения также является система для детектирования и классифицирования событий сцены, которая содержит:
- систему для однозрачкового формирования изображения сцены, установленную на мобильной платформе и снабженную несколькими детекторами, включающими в себя детектор видимого и ближнего инфракрасного диапазона и SWIR-детектор,
- блок обработки, связанный с детекторами,
- средство для оценки расстояний между точками сцены и системой формирования изображения,
- устройство отображения, связанное с блоком обработки,
которая отличается тем, что блок обработки содержит средство для реализации способа детектирования и классификации, описанного выше.
Другие характеристики и преимущества данного изобретения станут понятны после прочтения нижеследующего подробного описания, выполненного посредством неограничивающего примера, со ссылкой на приложенные чертежи, в которых:
Фиг. 1 схематично представляет иллюстративную систему, используемую для реализации способа согласно данному изобретению,
Фиг. 2 представляет иллюстративную последовательность этапов способа согласно данному изобретению,
Фигуры 3 являются примерами изображений, полученных посредством SWIR-детектора (фиг. 3А), посредством VisNIR-детектора без вставки (фиг. 3b) и со вставкой (фиг. 3с) детектированного события на SWIR-изображении, вместе с расстоянием, связанным с этим событием,
Фиг. 4 представляет иллюстративное увеличенное SWIR-изображение решенного события,
Фиг. 5 показывает пример классификации угрозы, определенной в зависимости от ее атрибутов.
Во всех фигурах, одинаковые элементы обозначены одинаковыми ссылочными позициями.
Способ детектирования и классифицирования, согласно данному изобретению, реализован посредством однозрачковой системы формирования изображения, показанной на фиг. 1, содержащей оптическую систему 10, выполненную с возможностью обеспечения по меньшей мере двух фокальных плоскостей, в одном случае, с детектором 22 видимого и ближнего инфракрасного диапазона (0,6 мкм – 1,1 мкм или же 0,4 мкм – 1,1 мкм, включающих в себя видимый диапазон), и, в другом случае, с детектором 21 Диапазона 1 или SWIR (0,9 мкм – 1,7 мкм). Эта оптическая система, предпочтительно, выполнена с возможностью образования на каждом детекторе панорамного изображения сцены, подлежащей наблюдению; она содержит передний модуль 11 с полусферическим или даже большим полем, за ним следуют оптические элементы 12 для формирования изображений, дихроичный разделитель 13 и, на каждом спектральном канале, адаптирующая оптическая система 14 и 15. Например, используют катадиоптрическую комбинацию (зеркала и диоптры, выполненные из стекла), поскольку она может функционировать в очень широком спектральном диапазоне: видимом, ближнем инфракрасном (Near IR - NIR) и Диапазоне 1 (SWIR). Использование оптической системы, которая является общей для двух детекторов, обеспечивает возможность предотвращения эффекта параллакса на изображениях, поступающих от этих детекторов.
SWIR матричный детектор 21, который выполнен, например, на основе InGaAs, обычно имеет формат матрицы 320 строк * 256 столбцов с промежутком 30 мкм и частотой изображений 400 Гц, или 640 строк * 512 столбцов с промежутком 15 мкм и частотой изображений 300 Гц, что соответствует текущему состоянию уровня техники. Этот детектор обычно имеет пространственное разрешение 4 mrd для пиксела с форматом 640*512. Могут быть предусмотрены большие форматы. Однако, выполнение требований по частоте изображений и временному отклику для классификации угроз, которые являются, обычно, очень короткими (длительностью обычно <100 мс) нуждается в частотах получения, равных или больших, чем 200 Гц или даже 1000 Гц, если необходимо классифицировать малые калибры. Детектор включает в себя свою схему считывания и мультиплексирования, называемую интегральной схемой считывания (Read Out Integrated Circuit, сокращенно ROIC).
Пикселы снабжены одним или несколькими подходящими фильтрами, такими как:
- Единственный фильтр над всей матрицей пикселов 211, который одновременно обеспечивает пропускание узкого диапазона около 1,064 мкм и широкого диапазона выше 1,4 мкм вплоть до граничной длины волны детектора, например, 1,7 мкм или выше.
- Несколько разных фильтров, каждый из которых подходит для пиксела, например, при разбиении 2*2, с наличием:
○ поддиапазона для детектирования признаков начала взрыва (1.4-1.7 мкм)
○ узких диапазонов, настроенных на лазерные спектральные линии (1.06 мкм, 1.5 мкм, …)
Схема считывания или ROIC связана с электронными схемами 210 определения близости (или E-prox) детектора; в ROIC и/или E-prox встроены конкретные функции, такие как, например:
- высокочастотное считывание с частотой выше 200 Гц или с периодом менее 5 мс, и временем интегрирования без нерабочего времени; время интегрирования равно или очень близко к периоду получения кадров изображения.
- расширенный динамический диапазон (режим HDR (high dynamic range)), который может быть достигнут различными способами: двойным интегрированием, корневым или логарифмическим нелинейным откликом, например, сбросом перед обратным отсчетом насыщения …
CMOS кремниевый детектор используют, например, в качестве детектора 22 видимого диапазона. Он имеет высокое пространственное разрешение (например, 1 mrd на 1 пиксел) и функционирует на частоте 25 Гц или более, обычно между 25 Гц и 100 Гц. 4T или 5T CMOS матрица 221 (с 4 или 5 транзисторами в каждом пикселе), с низким шумом, усилением и постолбцовым параллельным аналого-цифровым преобразованием, такая как s-CMOS (научная CMOS) матрица, может быть приведена в качестве примера такого детектора. CMOS детектор 221 включает в себя свою схему считывания и мультиплексирования (или ROIC), которая связана с электронными схемами 220 определения близости (или E-prox) детектора. Эти электронные схемы определения близости, связанные с ROIC, выполняют операции аналого-цифрового преобразования и восстановления сигнала (коррекции неоднородности (Non Uniformity Correction – NUC), для обеспечения возможности использования изображений, приобретенных с максимальной производительностью, в дневное и ночное время. Они связаны с устройством 40 отображения, для обеспечения функции наблюдения сцены для оператора. Видимое изображение 42 отображают, но не обязательно отображают SWIR-изображение 41.
Эти детекторы 22, 21 связаны с блоком 50 обработки видимого изображения 42 и SWIR-изображения 41, полученных, соответственно, двумя детекторами, который может реализовать следующие этапы, описанные в сочетании с фиг. 1 и последовательностью этапов фиг. 2. Угрозы (или события) характеризуются оптическими признаками на полученных изображениях. Согласно данному изобретению, событие детектируют, и, затем, определяют четыре атрибута, на основе которых эти оптические признаки будут классифицированы.
Все угрозы характеризуются очень короткими оптическими признаками, которые, таким образом, оператору очень трудно различить на глаз при наблюдении экрана или даже при прямом наблюдении, вследствие спектральной области излучения; таким образом, они должны быть детектированы посредством автоматической обработки.
Временные профили признаков, а именно, их длительность, и, возможно, время нарастания и профиль спада, образуют первый атрибут, который получают следующим образом.
Событие сначала детектируют с помощью средства 51 детектирования, и некоторые его характеристики оценивают следующим образом. Изображения сцены, подлежащей наблюдению, называемые SWIR-изображениями 41, получают последовательно посредством SWIR-детектора. Изображения этой сцены, называемые VisNIR-изображениями 42, получают одновременно посредством детектора видимого диапазона, причем эти SWIR-изображения и VisNIR-изображения синхронизированы во времени друг с другом посредством электронных схем 30 для управления и синхронизации детекторов, и, затем, их сохраняют в памяти в целях классификации. Эта синхронизация может быть обеспечена в результате получения изображений с одинаковой частотой для обоих детекторов, но обычно эти частоты являются разными, как было упомянуто выше.
SWIR-изображения 41 сравнивают друг с другом для определения для каждого пиксела (xi1, yi1) изменения в SWIR-освещенности. Освещенность ei1 задана посредством сигнала, интегрируемого в пикселе, на котором формируется изображение угрозы. Если это изменение в освещенности является большим, чем заданный порог, или порог, который может быть адаптирован согласно признакам пространственно-временного фона, то тогда считают, что оно представляет SWIR-признак события: событие i детектируют, как показано на фиг. 3а. Этот порог освещенности является обычно от 2 до 10 раз большим, чем изменение в среднеквадратическом отклонении фона, согласно вероятностям детектирования и частотам ложных предупредительных сигналов, необходимых на данном этапе. Освещенность ei1 в Вт/м2 определяют, таким образом, в спектральном диапазоне приема, определенном SWIR-детектором, его оптической системой 15 и его возможными фильтрами.
Также определяют длительность δti в секундах, а именно, длительность, в течение которой это изменение в освещенности является большим, чем этот порог. Эта длительность δti, таким образом, образует первый атрибут для классификации события (этап А).
На основе этого детектирования события, выполненного в SWIR-области, можно будет измерить, на основе VisNIR-изображений 42, уровень потока, собираемый синхронно в том же поле зрения. Выполняют следующее.
Средство 53 используют для определения координат пиксела (xi2, yi2), соответствующих этому событию в VisNIR-изображениях 42, синхронизированных с упомянутыми SWIR-изображениями. Когда размеры SWIR-изображений и VisNIR-изображений являются одинаковыми, координаты пиксела в видимых изображениях являются идентичными координатам пиксела в SWIR-изображениях; таким образом, мы имеем xi1=xi2 и yi1=yi2. Если VisNIR-изображения имеют большее разрешение, чем SWIR-изображения, вследствие того, что пространственное разрешение VisNIR-детектора является большим, чем пространственное разрешение SWIR-детектора, как в примере на фигурах 3, то координаты VisNIR-пикселов определяют в соответствии с SWIR-пикселом, на основе которого выполнено детектирование. Эта операция определения соответствия для VisNIR и SWIR пикселов может быть выполнена при изготовлении, после встраивания матриц детекторов в оптическую систему. Если детектирование выполнено на основе смежных SWIR-пикселов, то определяют положение его барицентра, и определяют положение VisNIR-пикселов, соответствующих положению этого барицентра. Посредством измерения пикового сигнала в VisNIR-диапазоне или посредством суммирования вклада смежных пикселов, освещенных событием, определяют VisNIR-освещенность события ei2 в Вт/м2 в спектральном диапазоне данного приемника. Может случиться, что событие не сможет быть детектировано на VisNIR-канале. В этом случае, освещенность ei2 равна нулю или не может быть определена вследствие того, что ее амплитуда является слишком низкой относительно шума или погрешности.
Для этого пиксела вычисляют отношение ei2/ei1. Это отношение VisNIR-освещенности к SWIR-освещенности обеспечивает возможность оценки температуры Ti (в K) события (этап В), с помощью средства 54 для вычисления атрибутов. Эта температура является вторым атрибутом оптического признака. Для этой цели, используют заданную таблицу, которая обеспечивает возможность установления соответствия между этими отношениями освещенностей и соответствующей температурой черного тела или серого тела, с использованием, например, закона Планка, вклад от которых интегрируют для двух спектральных диапазонов, SWIR и VisNIR, в зависимости от температуры. Цифровой сигнал, поступающий из двух каналов, калибруют в Вт/м2 для обеспечения измерений в этих единицах. Альтернативно, детекторы могут быть откалиброваны посредством измерения сигнала, который они выдают при прицеливании в калибровочное черное тело в лаборатории.
Эту температуру обычно используют для отклонения источника ложных предупредительных сигналов, состоящего из Солнца или его модуляций или его рассеяния облаками, или же его отражения зеркалами, металлическими контурами (такими как окна или дорожные указатели), или же отражений от воды. Действительно, на мобильной платформе, эти солнечные отражения могут генерировать пространственно-временные признаки в SWIR-области, которые очень близки к признакам искомых боеприпасов. Солнце или его отражения, температура абсолютно черного тела которых составляет, приблизительно, 5800К, будут генерировать интенсивный признак на более короткой длине волны (в видимом и ближнем инфракрасном диапазоне), который гораздо сильнее, чем признаки, связанные с пиротехническими признаками начала взрывов, имеющих температуру абсолютно черного тела менее чем 2000К. Детектирование интенсивных признаков в видимом или ближнем инфракрасном диапазоне, таким образом, обеспечивает возможность нейтрализации возможных детектирований в SWIR на основе пикселов, покрывающих то же самое мгновенное поле зрения. Уровень потока, собранный на детекторе видимого диапазона, обеспечивает возможность, посредством температуры, подтвердить или отклонить детектирование события: для дневной сцены, если температура является большей, чем порог (например, 5000К), то тогда это событие является ложным предупредительным сигналом, в противном случае, это событие подтверждают (этап С). Подтвержденное событие может быть, дополнительно, вставлено в видимое изображение для привлечения внимания оператора.
Этот температурный атрибут, предпочтительно, определяют посредством блока обработки параллельно с первым атрибутом (длительностью).
Вся боевая техника, от которой эти угрозы исходят, характеризуется диапазонами Р смертельного поражения или эффективности, за пределами которых угроза больше не является эффективной. Они находятся в классе 100м, для RPG или противотанковых ракет ближнего действия, и в классе 500м-8км для противотанковых ракет, в зависимости от их типа, или боеприпаса, в зависимости от их калибра и их заряда.
Согласно данному изобретению, блок обработки содержит средство 52 для оценки расстояния Ri точки видимого изображения 42 (точка объекта сцены – система формирования изображения).
Систему формирования изображения устанавливают на борту платформы, например, наземной платформы. Посредством установления направлений по углу возвышения и азимуту в системе координат VisNIR-детектора, и посредством установления его положения в соответствии с высотой и ориентацией относительно платформы, или, что еще лучше, относительно земли (с использованием информации относительно соответствующего положения платформы относительно земли), можно оценить расстояние точек изображения от земли в зависимости от их видимого возвышения, предполагая, что земля является горизонтальной и плоской, или, что еще лучше, с использованием цифровой модели местности (digital terrain model - DTM), картированной посредством GPS-положения транспортного средства и посредством данных, поступающих от изображений, поставляемых детектором видимого диапазона, обеспечивающих профиль горизонта, или посредством определения местоположения ориентиров в поле изображения. Когда платформа зафиксирована на инфраструктуре, можно, во время ее установления, образовать пары всех точек видимого изображения наземной сцены и расстояний до них. Когда платформа является мобильной, угловые скорости характеристических точек сцены могут быть измерены между последовательными VisNIR-изображениями с хорошей точностью, с учетом углового разрешения системы формирования изображения. Это поле угловых скоростей во всей сцене называют оптическим потоком. Это обеспечивает возможность измерения поворота или поворотов поля и направления вектора скорости платформы (после деротации поля), для которого оптический поток равен нулю. Широкое покрытие углового поля панорамной системы формирования изображения обеспечивает возможность обеспечения того, чтобы направление вектора скорости платформы находилось в поле наблюдения и совпадало с пикселом. Посредством установления скорости платформы, информации, поставляемой ее поведением и ее поступательным движением, или с использованием информации от инерциального блока, или же информации, измеренной с использованием наземного оптического потока ближнего действия, измерения угловой скорости элементов сцены и измерения углового отклонения между пикселом, совпадающим с вектором скорости платформы, и направлением, связанным с изображением элемента сцены, угловая скорость которого оценена, может быть оценено расстояние R до него.
Как показано на фиг. 3с, расстояние Ri, связанное с событием i, может быть отображено в режиме реального времени на видимом изображении 42; событие i может быть вставлено на видимое изображение с использованием, например, заданного символа, такого как цветное перекрестье. SWIR-изображение 41, показанное на фиг. 3а, обычно не отображают.
На основе этого расстояния и видимой освещенности, полученной для этого события, средство 54 используют для вычисления его интенсивности Ii (в Вт/ср), причем она является третьим атрибутом (этап D). Действительно, следует напомнить, что амплитуда SWIR-освещенности зависит от расстояния R по закону 1/R2 и от атмосферного ослабления Tatm, что обеспечит коэффициент передачи, который зависит от расстояния R. Мы имеем:
Ii=(1/Tatm)eiRi 2.
В SWIR-изображениях 41, оптические признаки источников являются либо разрешенными (расширенными на несколько пикселов), либо неразрешенными (изображение источника сформировано на единственном пикселе), либо, в промежуточной ситуации, являются едва расширенными относительно мгновенного поля зрения, определяемого размером пиксела, фокальной длиной оптической системы и ее функции передачи модуляции (Modulation Transfer Function – MTF) в диапазоне 1.
Когда признак является пространственно разрешенным, как показано в примере фиг. 3 или 4, освещенность ei1, соответствующая амплитуде пикового сигнала, видимого на пикселе, определяют посредством яркости признака в течение времени интегрирования (этап Е), и получают с помощью средства 54. Это значение образует четвертый атрибут для классификации угрозы. Этот атрибут является очень надежным, поскольку он не зависит от расстояния R по закону 1/R2, как в случае освещенности, обеспечиваемой неразрешенным источником. В этом случае, яркость Li в Вт/ср/м2 события задают посредством пиковой освещенности, видимой на пикселе, через соотношение:
Li=ei1/[Tatm(IFOV)2],
причем IFOV является телесным углом мгновенного поля зрения детектора. Альтернативно, средняя яркость может быть задана посредством интегрирования сигнала ei1, собранного смежными пикселами, на которых сформировано изображение источника, деленного на телесный угол Ω в стерадианах, под которым видно разрешенное событие. Поскольку принятая освещенность зависит от расстояния R (закон 1/R2), она не образует атрибута для классифицирования угрозы. Только барицентр этого признака имеет значение, обеспечивая определение углового местоположения в соответствии с возвышением и азимутом в системе координат SWIR-детектора, или в системе координат платформы, поскольку известно движение формирователя относительно шасси, если система формирования изображения установлена на элементе, шарнирно соединенным с платформой (турель, «поворотно-наклонная» платформа). Это событие, затем, классифицируют как «разрешенное», в зависимости от его длительности, его температуры, его интенсивности и его яркости.
Наконец, интенсивность события или его яркость, связанные с его амплитудой и с его длительностью, обеспечивают возможность оценки энергии Ei (в Дж) события (этап F), которая может быть связана с оценкой диапазона угрозы и ее боеприпаса. Их вычисляют с помощью средства 54.
Когда событие i является разрешенным, мы имеем: Ei=Li Ω Ri 2 4 π δti.
Когда событие i является неразрешенным, мы имеем: Ei=Ii 4π δti.
Эти четыре (если признак является неразрешенным) или пять (если признак является разрешенным) атрибутов обеспечивают возможность надежной классификации угрозы с помощью средства 55. Когда событие было подтверждено на основе его температуры, или же не было предположено, что оно является ложным предупредительным сигналом, его, затем, классифицируют на основе его длительности, его температуры, его интенсивности, его энергии и, возможно, его яркости и заданных классов, как показано в таблице на фиг. 5. Эти этапы повторяют для каждого другого пиксела SWIR-изображения.
Посредством связи классификации угрозы и оценки расстояния и энергии события, можно решить, находится или нет система формирования изображения или наблюдатель в зоне Р смертельного поражения угрозы и, таким образом, предпринять, при необходимости и возможности, подходящие ответные действия в режиме реального времени. Эти ответные действия могут быть запущены автоматически с помощью средства 56 блока обработки, как показано на фиг. 1, или вручную оператором.
Этот способ детектирования и классифицирования может быть, конкретно, реализован на основе компьютерного программного продукта, причем эта компьютерная программа содержит кодовые команды, обеспечивающие возможность выполнения этапов этого способа. Ее записывают на носителе, считываемом компьютером, а также используют для синхронизации SWIR-изображений и видимых изображений. Этот носитель может быть электронным, магнитным, оптическим, электромагнитным, или может быть средой передачи инфракрасного типа. Такими носителями являются, например, полупроводниковые устройства памяти (память с произвольным доступом (Random Access Memory - RAM), постоянное запоминающее устройство (Read-Only Memory - ROM)), ленты, магнитные или оптические дискеты или диски (постоянное запоминающее устройство на компакт-диске (Compact Disk – Read Only Memory - CD-ROM), перезаписываемый компакт-диск (Compact Disk – Read/Write - CD-R/W) и DVD).
Claims (29)
1. Способ для детектирования и классифицирования событий типа угроз стрельбы в сцене посредством однозрачковой системы формирования изображения, установленной на мобильной платформе и снабженной несколькими детекторами, включающими в себя детектор в диапазоне длин волн 0,6–1,1 мкм, называемый VisNIR-детектором (22), и детектор в диапазоне длин волн 0,9–1,7 мкм, называемый SWIR-детектором (21), связанными с блоком (50) обработки, который содержит этап получения последовательных двумерных изображений сцены, которые поступают от VisNIR-детектора и называются VisNIR-изображениями (42), и последовательных двумерных изображений сцены, которые поступают от SWIR-детектора и синхронизированы с VisNIR-изображениями и называются SWIR-изображениями (41), этап отображения VisNIR-изображений и этап обработки VisNIR-изображений и SWIR-изображений посредством блока обработки, отличающийся тем, что этот этап обработки изображений содержит следующие подэтапы:
- сравнение последовательных SWIR-изображений для определения, для каждого пиксела (x1,y1) и смежных пикселов, изменения в освещенности от одного SWIR-изображения к другому и пикового значения e1(t) этих так называемых SWIR-освещенностей,
если это изменение в SWIR-освещенности является большим, чем заданный порог освещенности, то тогда изменение в SWIR-освещенности, во время которого превышен упомянутый порог, назначают в качестве признака события i, и событие связывают с упомянутым пикселом (x1,y1) или с барицентром рассматриваемых пикселов, и этап обработки изображений дополнительно содержит подэтапы:
- определение даты ti события i,
- определение (этап А) временной формы и длительности δti признака события,
- определение координат пиксела (x2,y2) и смежных пикселов, соответствующих пикселу (x1,y1) или барицентру в VisNIR-изображениях, синхронизированных с SWIR-изображениями, и для этого пиксела (x2,y2) и этих смежных пикселов:
○ вычисляют изменение в освещенности от одного VisNIR-изображения к другому VisNIR-изображению и пиковое значение e2(t) этих так называемых VisNIR-освещенностей, и сравнивают эти изменения в SWIR- и VisNIR-освещенностях и их пиковые значения e1(t) и e2(t), для оценки температуры события на основе заданной справочной таблицы (этап В),
▪ если сцена является дневной сценой и температура является большей, чем температурный порог, то тогда событие является ложным предупредительным сигналом (этап С), и предыдущие этапы повторяют с другим пикселом,
▪ в противном случае:
○ оценивают расстояние Ri соответствующей точки сцены в режиме реального времени на основе измерений угловых скоростей элементов сцены, скорости платформы и VisNIR-изображений,
○ вычисляют интенсивность Ii события i на основе SWIR- и VisNIR-освещенностей этого пиксела и на основе этого расстояния Ri (этап D),
○ оценивают общую энергию Ei события на основе временной формы признака и интенсивности Ii (этап F),
- классифицируют событие i в зависимости от его длительности δti, его температуры Ti, его интенсивности Ii и его энергии Ei,
- оценка диапазона Pi эффективности события на основе его классификации,
- сравнение диапазона Pi эффективности с расстоянием Ri,
○ если расстояние Ri является меньшим, чем диапазон Pi эффективности, то тогда, по возможности, запуск подходящих ответных действий в режиме реального времени,
- предыдущие этапы повторяют для другого пиксела SWIR-изображений.
2. Способ для классифицирования событий сцены по предшествующему пункту, отличающийся тем, что, если событие связано со смежными пикселами, то тогда определяют (этап Е) яркость набора этих событий, и этот набор событий также классифицируют в зависимости от его яркости.
3. Способ для классифицирования событий сцены по п. 1, отличающийся тем, что событие вставляют в отображаемое VisNIR-изображение (42).
4. Способ для классифицирования событий сцены по предшествующему пункту, отличающийся тем, что расстояние, связанное с событием, отображают на отображаемом VisNIR-изображении (42).
5. Способ для классифицирования событий сцены по одному из предшествующих пунктов, отличающийся тем, что ответные действия запускают автоматически или вручную оператором.
6. Система для детектирования и классифицирования событий сцены, которая содержит:
- систему для однозрачкового формирования изображения сцены, установленную на мобильной платформе и снабженную несколькими детекторами, включающими в себя VisNIR-детектор (22) и SWIR-детектор (21),
- блок (50) обработки, связанный с детекторами,
- средство для оценки расстояния между точками сцены и системой формирования изображения,
- систему управления событиями, связанную с блоком обработки и выполненную с возможностью запуска, на основе классифицированного события и расстояния до него,
- устройство (40) отображения, связанное с блоком обработки,
отличающаяся тем, что блок обработки содержит средство для реализации способа детектирования и классифицирования по одному из пп. 1-5.
7. Система для детектирования и классифицирования по предшествующему пункту, отличающаяся тем, что средство для реализации способа детектирования и классифицирования является компьютерной программой, содержащей кодовые команды, обеспечивающие возможность выполнения этапов способа по любому из пп. 1-5, когда упомянутая программа исполняется на компьютере.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1400350 | 2014-02-07 | ||
FR1400350A FR3017480B1 (fr) | 2014-02-07 | 2014-02-07 | Procede de detection et de classification d'evenements d'une scene |
PCT/EP2015/052430 WO2015118075A1 (fr) | 2014-02-07 | 2015-02-05 | Procede de detection et de classification d'evenements d'une scene |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2016135936A RU2016135936A (ru) | 2018-03-13 |
RU2016135936A3 RU2016135936A3 (ru) | 2018-09-17 |
RU2686566C2 true RU2686566C2 (ru) | 2019-04-29 |
Family
ID=51518802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016135936A RU2686566C2 (ru) | 2014-02-07 | 2015-02-05 | Способ для детектирования и классифицирования событий сцены |
Country Status (10)
Country | Link |
---|---|
US (1) | US9953226B2 (ru) |
EP (1) | EP3103062B1 (ru) |
JP (1) | JP6449894B2 (ru) |
CA (1) | CA2938227C (ru) |
DK (1) | DK3103062T3 (ru) |
FI (1) | FI3103062T3 (ru) |
FR (1) | FR3017480B1 (ru) |
IL (1) | IL246633B (ru) |
RU (1) | RU2686566C2 (ru) |
WO (1) | WO2015118075A1 (ru) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3017480B1 (fr) * | 2014-02-07 | 2017-09-08 | Thales Sa | Procede de detection et de classification d'evenements d'une scene |
US9626569B2 (en) * | 2014-11-06 | 2017-04-18 | Bae Systems Information And Electronics Systems Integration Inc. | Filtered image data recovery using lookback |
FR3033649B1 (fr) * | 2015-03-12 | 2018-06-15 | Sagem Defense Securite | Equipement aeroporte de detection de tirs et d'aide au pilotage |
FR3042041B1 (fr) * | 2015-10-02 | 2020-03-20 | Mbda France | Procede et dispositif pour determiner la distance entre un recepteur aerien et un emetteur terrestre |
KR102630227B1 (ko) * | 2016-07-21 | 2024-01-29 | 한화비전 주식회사 | 감시 데이터 제공 시스템 및 방법 |
JP6774603B2 (ja) * | 2017-03-06 | 2020-10-28 | 株式会社Jvcケンウッド | レーザ光照射検出装置、レーザ光照射検出方法、レーザ光照射検出システム |
CN110782481B (zh) * | 2019-10-18 | 2023-09-05 | 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) | 无人艇智能决策方法及系统 |
CN112712702B (zh) * | 2019-10-24 | 2022-08-26 | 杭州海康威视系统技术有限公司 | 违法事件去重方法、装置、电子设备及机器可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6178141B1 (en) * | 1996-11-20 | 2001-01-23 | Gte Internetworking Incorporated | Acoustic counter-sniper system |
US7778006B2 (en) * | 2006-04-28 | 2010-08-17 | Orica Explosives Technology Pty Ltd. | Wireless electronic booster, and methods of blasting |
WO2012034963A1 (fr) * | 2010-09-14 | 2012-03-22 | Thales | Systeme optronique a vision supra hemispherique |
RU2475853C2 (ru) * | 2007-02-08 | 2013-02-20 | Бихейвиэрл Рикогнишн Системз, Инк. | Система распознавания поведения |
RU2494566C2 (ru) * | 2009-04-30 | 2013-09-27 | Сони Корпорейшн | Устройство и способ управления отображением |
US8547441B2 (en) * | 2002-06-21 | 2013-10-01 | The Trustees Of Columbia University In The City Of New York | System and methods for de-blurring motion blurred images |
US20130266210A1 (en) * | 2012-04-04 | 2013-10-10 | Canon Kabushiki Kaisha | Determining a depth map from images of a scene |
US8642961B2 (en) * | 2005-11-08 | 2014-02-04 | General Atomics | Apparatus and methods for use in flash detection |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5233541A (en) * | 1990-08-10 | 1993-08-03 | Kaman Aerospace Corporation | Automatic target detection process |
US5930202A (en) * | 1996-11-20 | 1999-07-27 | Gte Internetworking Incorporated | Acoustic counter-sniper system |
US5970024A (en) * | 1997-04-30 | 1999-10-19 | Smith; Thomas | Acousto-optic weapon location system and method |
GB2340222B (en) * | 1998-07-14 | 2000-07-26 | Infrared Integrated Syst Ltd | Multi-array sensor and method of identifying events using same |
JP2001194092A (ja) * | 2000-01-05 | 2001-07-17 | Mitsubishi Electric Corp | 射場安全監視装置 |
US8585567B2 (en) * | 2007-12-11 | 2013-11-19 | Tokitae Llc | Systems, devices, and methods including paramagnetic oscillation, rotation and translation of hemozoin asymmetric nanoparticles in response to multi-harmonic optical detection of the presence of hemozoin |
US8385997B2 (en) * | 2007-12-11 | 2013-02-26 | Tokitae Llc | Spectroscopic detection of malaria via the eye |
US9044141B2 (en) * | 2010-02-10 | 2015-06-02 | Tokitae Llc | Systems, devices, and methods including a dark-field reflected-illumination apparatus |
US9692991B2 (en) * | 2011-11-04 | 2017-06-27 | Qualcomm Incorporated | Multispectral imaging system |
FR3017480B1 (fr) * | 2014-02-07 | 2017-09-08 | Thales Sa | Procede de detection et de classification d'evenements d'une scene |
IL231111A (en) * | 2014-02-24 | 2016-06-30 | Ori Afek | Flash detection |
-
2014
- 2014-02-07 FR FR1400350A patent/FR3017480B1/fr active Active
-
2015
- 2015-02-05 RU RU2016135936A patent/RU2686566C2/ru active
- 2015-02-05 WO PCT/EP2015/052430 patent/WO2015118075A1/fr active Application Filing
- 2015-02-05 FI FIEP15705929.6T patent/FI3103062T3/fi active
- 2015-02-05 CA CA2938227A patent/CA2938227C/en active Active
- 2015-02-05 EP EP15705929.6A patent/EP3103062B1/fr active Active
- 2015-02-05 JP JP2016545990A patent/JP6449894B2/ja active Active
- 2015-02-05 DK DK15705929.6T patent/DK3103062T3/da active
- 2015-02-05 US US15/110,937 patent/US9953226B2/en active Active
-
2016
- 2016-07-06 IL IL246633A patent/IL246633B/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6178141B1 (en) * | 1996-11-20 | 2001-01-23 | Gte Internetworking Incorporated | Acoustic counter-sniper system |
US8547441B2 (en) * | 2002-06-21 | 2013-10-01 | The Trustees Of Columbia University In The City Of New York | System and methods for de-blurring motion blurred images |
US8642961B2 (en) * | 2005-11-08 | 2014-02-04 | General Atomics | Apparatus and methods for use in flash detection |
US7778006B2 (en) * | 2006-04-28 | 2010-08-17 | Orica Explosives Technology Pty Ltd. | Wireless electronic booster, and methods of blasting |
RU2475853C2 (ru) * | 2007-02-08 | 2013-02-20 | Бихейвиэрл Рикогнишн Системз, Инк. | Система распознавания поведения |
RU2494566C2 (ru) * | 2009-04-30 | 2013-09-27 | Сони Корпорейшн | Устройство и способ управления отображением |
WO2012034963A1 (fr) * | 2010-09-14 | 2012-03-22 | Thales | Systeme optronique a vision supra hemispherique |
US20130266210A1 (en) * | 2012-04-04 | 2013-10-10 | Canon Kabushiki Kaisha | Determining a depth map from images of a scene |
Also Published As
Publication number | Publication date |
---|---|
FI3103062T3 (fi) | 2024-02-08 |
EP3103062A1 (fr) | 2016-12-14 |
US20160335504A1 (en) | 2016-11-17 |
CA2938227C (en) | 2022-11-08 |
RU2016135936A3 (ru) | 2018-09-17 |
JP2017516049A (ja) | 2017-06-15 |
FR3017480A1 (fr) | 2015-08-14 |
DK3103062T3 (da) | 2024-02-26 |
IL246633B (en) | 2019-03-31 |
US9953226B2 (en) | 2018-04-24 |
RU2016135936A (ru) | 2018-03-13 |
EP3103062B1 (fr) | 2023-11-29 |
FR3017480B1 (fr) | 2017-09-08 |
JP6449894B2 (ja) | 2019-01-09 |
WO2015118075A1 (fr) | 2015-08-13 |
CA2938227A1 (en) | 2015-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2686566C2 (ru) | Способ для детектирования и классифицирования событий сцены | |
US8642961B2 (en) | Apparatus and methods for use in flash detection | |
US9360370B2 (en) | System, method, and computer program product for indicating hostile fire | |
US6877691B2 (en) | High altitude stripping for threat discrimination | |
US9196041B2 (en) | System, method, and computer program product for indicating hostile fire | |
US9103628B1 (en) | System, method, and computer program product for hostile fire strike indication | |
US8537222B2 (en) | Method and system for finding a manpads launcher position | |
US20140086454A1 (en) | Electro-optical radar augmentation system and method | |
AU2014282795B2 (en) | Threat warning system integrating flash event and transmitted laser detection | |
US20130235211A1 (en) | Multifunctional Bispectral Imaging Method and Device | |
US10209343B1 (en) | Weapon fire detection and localization system for electro-optical sensors | |
Larochelle et al. | Two generations of Canadian active imaging systems: ALBEDOS and ELVISS | |
de Jong | IRST and its perspective | |
JP2022059581A (ja) | アクティブ防護システム、及びアクティブ防護システムを動作させる方法 | |
RU2373482C2 (ru) | Способ защиты бронетанковой техники | |
Nadav et al. | Uncooled infrared sensor technology for hostile fire indication systems | |
US7880870B1 (en) | Linear array sensors for target detection including hydrocarbon events such as gun, mortar, RPG missile and artillery firings | |
WO2013108253A1 (en) | A system and method for detecting launched missiles | |
Smiljanic | UAV-based Detection of Landmines and Unexploded Ordnance (UXO) | |
RU2726026C1 (ru) | Способ формирования мишенной позиции в экспресс-режиме при ограниченном времени подлета противокорабельных ракет с комбинированными ГСН, включающий комплекс известных устройств для его осуществления и визуализации | |
Dulski et al. | Application of infrared uncooled cameras in surveillance systems | |
van Dorp et al. | TActical sensor network TEst bed (TASTE) | |
de Jong | Infrared activities in the Netherlands |