RU2696009C1 - Способ позиционирования подвижного объекта на основе видеоизображений - Google Patents

Способ позиционирования подвижного объекта на основе видеоизображений Download PDF

Info

Publication number
RU2696009C1
RU2696009C1 RU2018137374A RU2018137374A RU2696009C1 RU 2696009 C1 RU2696009 C1 RU 2696009C1 RU 2018137374 A RU2018137374 A RU 2018137374A RU 2018137374 A RU2018137374 A RU 2018137374A RU 2696009 C1 RU2696009 C1 RU 2696009C1
Authority
RU
Russia
Prior art keywords
video
display coordinates
screen
video image
parameters
Prior art date
Application number
RU2018137374A
Other languages
English (en)
Inventor
Игорь Евгеньевич Монвиж-Монтвид
Сергей Иванович Ермиков
Original Assignee
Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств" filed Critical Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств"
Priority to RU2018137374A priority Critical patent/RU2696009C1/ru
Application granted granted Critical
Publication of RU2696009C1 publication Critical patent/RU2696009C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/04Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

Изобретение относится к области навигационных систем и может быть использовано для позиционирования наземных подвижных объектов на основе видеоинформации, получаемой от двух и более пространственно разнесенных видеокамер. Достигаемый технический результат – повышение точности позиционирования подвижного объекта, уменьшение времени его захвата, получение возможности отслеживания трасс сразу нескольких объектов и облегчение работы операторов за счет преимущественно автоматического отслеживания ранее зафиксированных видеоизображений объектов. Указанный результат достигается за счет того, что операторы при появлении потенциально опасного объекта проводят его засечку на видеокамере, фиксируя видеоизображение выделенной под объект клавишей и отмечая объект с помощью манипулятора «мышь», запуская при этом автоматическую процедуру отслеживания объекта и получения его дисплейных координат, заключающуюся в том, что сначала на основе анализа области засечки определяют характерные идентифицирующие признаки объекта, а затем по характерным признакам проводят отслеживание объекта в видеопотоке и находят его дисплейные координаты, с помощью которых определяют углы направления на объект и навигационные параметры объекта. При этом на экран ПЭВМ оператора на расчетные дисплейные координаты проекции объекта накладывают условные знаки с номером соответствующего объекта. Расчет местоположения и параметров вектора скорости начинают проводить сразу после ручных засечек объекта обоими операторами. При этом в случае визуального рассогласования на экране ПЭВМ расчетной проекции объекта с его видеоизображением оператор повторяет ручную засечку объекта, по которой корректируют его навигационные параметры. 3 з.п. ф-лы, 2 ил.

Description

Изобретение относится к области навигационных систем и может быть использовано для позиционирования наземных подвижных объектов на основе информации, получаемой от двух и более пространственно разнесенных видеокамер.
За последние годы резко возросла опасность диверсионной и террористической деятельности с использованием скоростных наземных средств передвижения. Для пресечения передвижения представляющих опасность подвижных объектов необходимо вовремя отслеживать во времени навигационные параметры этого объекта, его местоположение и скорость. Задача осложняется тем, что во многих случаях на пересеченной местности с большим числом препятствий и в городских условиях, где присутствуют и другие подвижные объекты, единственно надежным способом обнаружения опасного объекта являются видеонаблюдения, причем действовать ответственному персоналу приходится в экстремальной ситуации и очень быстро.
Давно известны радиолокационные методы позиционирования подвижных объектов, в которых используются радиотехнические средства и методы. При активной радиолокации по пассивным целям сигналы, излучаемые антенной передающего устройства радиолокационной станции (РЛС), фокусируются и направляются на цель. Приемное устройство той же либо другой РЛС принимает отраженные волны и преобразует их так, что выходное устройство с помощью опорных сигналов извлекает содержащуюся в отраженном сигнале информацию: наличие цели, ее дальность, направление, скорость и др. По времени запаздывания отраженного сигнала относительно излученного определяют наклонную дальность цели, а по его амплитудным и фазовым характеристикам - его направление (пеленг). Повторные измерения позволяют определить скорость цели по приращениям направления и дальности, либо по изменению частоты принимаемых сигналов (доплеровского сдвига). Радиолокационные методы с использованием одной либо нескольких РЛС активно применяют там, где это допустимо, но в сложных наземных условиях бывает невозможно идентифицировать подвижную цель среди множества других подвижных объектов, поэтому приходится искать другие методы.
Для позиционирования удаленного объекта могут использоваться дальномерно-угломерные приборы (ДУП), снабженные дальномером (как правило, лазерным) и средствами для измерения вертикальных и горизонтальных углов. Направив луч прибора на позиционируемый объект, можно получить с его помощью сферические координаты объекта по отношению к точке наблюдения, где располагается ДУП: наклонную дальность, магнитный азимут и угол места. Для определения собственных координат (привязки к местности) ДУП оснащают спутниковым навигационным приемником (ГЛОНАСС), либо подключают к приборам, его содержащим. На основе сферических координат и местоположения ДУП находят координаты объекта. ДУП удобен для позиционирования статичных объектов, но попасть лучом на подвижный объект, да еще в экстремальной ситуации практически невозможно.
Наиболее близким к предлагаемому способу (прототипом) является способ позиционирования, изложенный в патенте RU №2656361, С1 "Способ позиционирования подвижного объекта", авторов: Монвиж-Монтвида И.Е., Ермикова С.И.
В этом способе позиционирования подвижного объекта, основанном на многократном периодическом определении углов на объект с двух позиций, заключающимся в том, что для определения углов используют видеоизображения от двух разнесенных видеокамер, местоположение и направление оптических осей которых известно, при этом каждый из операторов, ответственных за свою точку наблюдения, заметив на экране своего ПЭВМ опасный объект, начинает периодическую процедуру фиксации (остановки) изображения выделенной клавишей (например, клавишей «пробел») и засечки объекта на изображении (определения его дисплейных координат) с помощью манипулятора «мышь». Расчет местоположения и параметров вектора скорости производят на основе трех последних замеров от одной из точек наблюдения и одного замера от другой точки, при этом применяют интерполирование трассы объекта при предположении постоянства вектора скорости на интервале 3-х замеров.
Эффективность изложенного способа позиционирования напрямую зависит от реакции операторов, ответственных за точки наблюдения, что порождает ряд проблем. Прежде всего, это скорость «захвата» объекта в экстремальной ситуации. Для первичного определения его навигационных параметров одному из операторов требуется провести не менее 3-х засечек. Если отвести на одну засечку (нажатие выделенной клавиши и отметки на экране объекта с помощью манипулятора «мышь») 2 секунды, то высокоскоростной объект может за 6 секунд до своего «захвата» проехать более 160 метров, что в определенных условиях может оказаться критичным. Другая проблема возникает в ситуациях, когда изложенный способ предполагают использовать не только в целях немедленного пресечения движения, но и для наблюдения объектов достаточно длительное время. Проведение засечек в течение даже нескольких минут сильно утомляет операторов, что влияет на скорость реакции, а, следовательно, и точность позиционирования. Наконец, третья проблема возникает в ситуации, когда необходимо одновременно отслеживать два, а то и три потенциально опасных объекта (например, при одновременной атаке на 2-х грузовиках). Отследить в реальном времени более одного объекта с помощью изложенного способа практически невозможно.
Чтобы свести к минимуму человеческий фактор и решить либо снизить остроту поставленных проблем желательно там, где это возможно использовать автоматическое отслеживание подвижного объекта в видеопотоке.
Отслеживание объекта сводится к определению его места (дисплейных координат) на кадрах видеопотока, для чего либо изначально надо знать признаки объекта, по которым можно его идентифицировать, либо получить эти признаки при анализе заданной области экрана. По этим признакам осуществляется «захват объекта» и его дальнейшее отслеживание на последующих кадрах.
Для пояснения дадим общее описание этапов одного из типичных способов отслеживания объектов в видеопотоке. На первом этапе после ручной засечки объекта анализируют цветовые характеристики области вокруг координат места засечки, определяют контур и особые точки объекта либо его части, выделяют характерные, идентифицирующие объект признаки, за дисплейные координаты принимают центр тяжести полученной фигуры. В дальнейшем на каждом из последующих кадров, начиная поиск с местоположения объекта на предыдущем кадре, по характерным признакам находят новое, наиболее вероятное положение объекта, корректируют его идентифицирующие признаки и вычисляют дисплейные координаты.
Известно множество способов отслеживания объектов в видеопотоке. Многочисленные алгоритмы: Лукаса-Канаде, Виолы-Джонса, непрерывно адаптирующего сдвига и др. позволяют осуществить «захват» указанного объекта и отследить его в видеопотоке, причем на достаточно большом удалении (более 100 метров) и с частотой более 10 кадров/сек (А.Н. Алферов, Н.А. Демин. Захват и отслеживание удаленных объектов в видеопотоке. Инженерный журнал: наука и инновации. 2013. Вып. 11). Выбор оптимального алгоритма зависит от многих факторов, куда входят особенности местности, объектов, используемой аппаратуры. Ни один из алгоритмов не дает гарантии от ошибок, но существенно помочь в решении поставленных проблем они могут.
Целью изобретения является повышение точности позиционирования подвижного объекта, уменьшение времени его захвата, получение возможности отслеживания трасс сразу нескольких объектов и облегчение работы операторов за счет преимущественно автоматического отслеживания ранее зафиксированных видеоизображений объектов.
Для достижения цели предложен способ позиционирования подвижного объекта, основанный на многократном периодическом определении углов на объект с двух позиций, заключающийся в том, что для определения углов используют видеоизображения от двух разнесенных видеокамер, местоположение и направление оптических осей которых известно, при этом каждый из операторов, ответственных за свою точку наблюдения, заметив на экране своего ПЭВМ впервые появившийся опасный объект проводит его ручную засечку, фиксируя изображение выделенной для этого объекта реальной либо виртуальной (под «мышь») клавишей, например, клавишей с номером наблюдаемого объекта «1», «2» и т.д., и отмечая объект на изображении с помощью манипулятора «мышь». После ручной засечки запускают автоматическую процедуру периодического определения дисплейных координат объекта и направления от задействованной точки наблюдения на объект. Информацию о времени засечки, направлении, номере точки наблюдения, типе засечки, автоматической либо ручной, и номере позиционируемого объекта передают на командный пункт, на котором производят определение местоположения и параметров вектора скорости.
На экран ПЭВМ оператора на расчетные дисплейные координаты проекции объекта накладывают условные знаки с номером соответствующего объекта. Расчет местоположения и параметров вектора скорости начинают проводить сразу после ручных засечек объекта обоими операторами. При визуальном рассогласовании на экране ПЭВМ расчетной проекции объекта с его видеоизображением оператор повторяет ручную засечку объекта, по которой корректируют его навигационные параметры.
В штатном режиме ручная процедура засечки объекта оператором проводится только на начальной стадии, после чего дисплейные координаты объекта (его проекции) начинают определяться автоматически. Ввиду того, что автоматическая процедура обновления информации значительно короче ручной (более 10 кадров/сек.) и информация, поступающая от обоих операторов, практически синхронизирована, первичные навигационные параметры объекта с использованием автоматических засечек можно получить сразу после
ручных замеров и время «захвата» объекта резко сокращается. По той же причине, за счет исключения интерполяции и увеличения частоты нахождения навигационных параметров объекта, повышается и точность их определения. Работа операторов после первичной засечки объекта сводится к наблюдению за совпадением получаемого в автоматическом режиме и выводимого на экран расчетного положения проекции объекта с его видеоизображением и, лишь в случае их рассогласования, операторы повторяют процедуру ручной засечки. Благодаря облегчению работы операторов появляется возможность отслеживать одновременно несколько объектов.
Схема получения исходной информации представлена на фиг. 1:
1. Каждая из 2-х точек наблюдения (ТН) оснащена поворотными платформами с видеокамерами, которые транслируют изображения на операторский пункт. Скорости вращения видеокамер, а так же их количество выбирают, исходя из величины и особенностей контролируемой зоны, характеристик видеокамер и потенциально опасных объектов;
2. Каждый из операторов, ответственных за свою точку наблюдения, наблюдает обстановку на экранах ПЭВМ своего АРМ.
3. Заметив на экране потенциально опасный объект, оператор проводит его засечку нажатием выделенной под номер объекта клавиши фиксирует изображение и с помощью манипулятора «мышь» отмечает объект, автоматически возвращая при этом экран в режим реального просмотра.
4. Используя дисплейные координаты засечки, одним из известных способов осуществляют автоматический «захват» и отслеживание объекта в видеопотоке, например, с помощью алгоритма Лукаса-Канаде. На экран выводят последнюю расчетную позицию проекции объекта с указанием его номера. Формируют тип автоматической засечки с самым низким приоритетом.
5. При визуальном рассогласовании на экране ПЭВМ расчетной проекции объекта с его видеоизображением оператор повторяет засечку соответствующего объекта, формируя тип ручной засечки с более высоким приоритетом.
6. По отклонению от визирной линии видеокамеры дисплейных координат объекта и по направлению оптической оси самой видеокамеры автоматически определяют на расчетный момент направление (азимут) от задействованной точки наблюдения на объект.Информацию о времени проведения расчета (t), полученного угла направления на объект (α(t)), типе засечки (р), номере точки наблюдения
Figure 00000001
и номере объекта (No): (t, α(t), р,
Figure 00000002
, No) передают на командный пункт (КП).
7. По каждому из наблюдаемых объектов, после первых ручных засечек на обеих ТН, периодически вычисляют и визуализируют на экране КП координаты и параметры вектора скорости.
Расчет навигационных параметров (фиг. 2) производят на горизонтальной плоскости в выбранной декартовой системе координат «восток-север». Исходными данными для i-го расчета на момент ti служат координаты 2-х ТН: O(х,у), О111), азимуты от обеих ТН: α(ti), α1(ti) и, начиная со 2-го определения, расчетные координаты на предшествующий расчетный момент ti-l: X(ti-l), Y(ti-l).
Выходными параметрами являются координаты объекта М(ti) на момент ti: X(ti), Y(ti), модуль и направление вектора скорости
Figure 00000003
.
Расчет навигационных параметров производят в следующем порядке.
1) Используя координаты ТН находят базу - расстояние между точками наблюдения d(O,Ol) и угол наклона базы - δ:
Figure 00000004
2) Зная d(O,O1), α(ti), α1(ti), используя теорему синусов для треугольника с вершинами О, M(ti), О1, находят d(O, M(ti)):
Figure 00000005
3) Находят искомые координаты объекта в точке (M(ti)) на момент
Figure 00000006
4) Начиная со 2-го расчетного значения, из предположения постоянства скорости между расчетными моментами времени, определяют параметры вектора скорости:
Figure 00000007
Величину расчетного интервала выбирают, исходя из обстановки и скорости объекта. К примеру, для машин, двигающихся со скоростью более 60 км/час, интервал выбирают 0.5 секунды и менее, а для более медленных объектов 1-3 секунды.
Изображения объектов выводят на электронную карту КП.
8. При поступлении на КП уже после начала отслеживания объекта данных с типом ручной засечки (свидетельство о сбое автоматического отслеживания), корректируют навигационные параметры объекта, используя при вычислении скорости в формулах (4) вместо и соответствующих координат X(ti-1), Y(ti-1) более ранние значения на глубину предполагаемой реакции оператора (предположительно 3-4 секунды).
Достигаемым техническим результатом предлагаемого способа позиционирования является повышение точности позиционирования подвижного объекта, уменьшение времени его захвата, получение возможности отслеживания трасс сразу нескольких объектов и облегчение работы операторов за счет преимущественно автоматического отслеживания ранее зафиксированных видеоизображений объектов.

Claims (4)

1. Способ позиционирования подвижного объекта, основанный на многократном определении углов на объект с двух позиций, заключающийся в том, что для определения углов используются видеоизображения от двух разнесенных видеокамер, местоположение и направление оптических осей которых известно, в котором каждый из операторов, ответственных за свою точку наблюдения на соответствующей позиции, определив на экране персональной электронной вычислительной машины (ПЭВМ) своего автоматизированного рабочего места (АРМ) потенциально опасный объект, осуществляет фиксацию видеоизображения путем его остановки выделенной клавишей, засечку объекта на видеоизображении с помощью манипулятора «мышь» и определение его дисплейных координат, автоматически возвращая экран в режим реального просмотра, затем по отклонению от визирной линии видеокамеры зафиксированных дисплейных координат объекта и по направлению оптической оси самой видеокамеры определяют на момент засечки направление от задействованной точки наблюдения на объект, информацию о времени засечки, направлении и номере точки наблюдения передают на командный пункт, на котором производят определение местоположения и параметров вектора скорости, отличающийся тем, что после первой засечки оператором объекта на видеоизображении запускают автоматическую процедуру периодического определения дисплейных координат объекта, заключающуюся в том, что сначала на основе анализа области засечки определяют характерные идентифицирующие признаки объекта, а затем по характерным признакам проводят отслеживание объекта в видеопотоке и получают его дисплейные координаты и на их основе направление от задействованной точки наблюдения на объект, информацию о времени засечки, направлении, номере точки наблюдения, типе засечки, автоматической либо ручной, и номере позиционируемого объекта передают на командный пункт, а определение местоположения и параметров вектора скорости производят на основе синхронных с точностью смены кадров в видеопотоке замеров от обеих точек наблюдения.
2. Способ по п. 1, отличающийся тем, что при засечке каждого нового объекта для остановки видеоизображения перед началом фиксации с помощью «мыши» самого объекта используют для его идентификации свою реальную либо виртуальную выделенную клавишу.
3. Способ по п. 1, отличающийся тем, что на экран ПЭВМ оператора на расчетные дисплейные координаты проекции объекта накладывают условные знаки с номером соответствующего объекта.
4. Способ по п. 1, отличающийся тем, что только при визуальном рассогласовании на экране ПЭВМ расчетной проекции объекта с его видеоизображением оператор повторяет ручную засечку объекта, по которой корректируют навигационные параметры объекта.
RU2018137374A 2018-10-22 2018-10-22 Способ позиционирования подвижного объекта на основе видеоизображений RU2696009C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2018137374A RU2696009C1 (ru) 2018-10-22 2018-10-22 Способ позиционирования подвижного объекта на основе видеоизображений

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018137374A RU2696009C1 (ru) 2018-10-22 2018-10-22 Способ позиционирования подвижного объекта на основе видеоизображений

Publications (1)

Publication Number Publication Date
RU2696009C1 true RU2696009C1 (ru) 2019-07-30

Family

ID=67586831

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018137374A RU2696009C1 (ru) 2018-10-22 2018-10-22 Способ позиционирования подвижного объекта на основе видеоизображений

Country Status (1)

Country Link
RU (1) RU2696009C1 (ru)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6977676B1 (en) * 1998-07-08 2005-12-20 Canon Kabushiki Kaisha Camera control system
EA013955B1 (ru) * 2008-10-23 2010-08-30 Закрытое Акционерное Общество "Голлард" Система и способ видеомониторинга
WO2011100480A1 (en) * 2010-02-10 2011-08-18 Brian Lamb Automatic motion tracking, event detection and video image capture and tagging
US8749609B2 (en) * 2009-09-03 2014-06-10 Samsung Electronics Co., Ltd. Apparatus, system and method for video call
RU2625097C1 (ru) * 2016-05-05 2017-07-11 Закрытое акционерное общество "ИНТЕГРА-С" Система видеонаблюдения и способ формирования видеоизображения
RU2653305C2 (ru) * 2012-07-17 2018-05-07 Самсунг Электроникс Ко., Лтд. Система и способ предоставления изображения
RU2667115C1 (ru) * 2017-09-26 2018-09-14 Федеральное государственное казенное военное образовательное учреждение высшего образования "ВОЕННАЯ АКАДЕМИЯ МАТЕРИАЛЬНО-ТЕХНИЧЕСКОГО ОБЕСПЕЧЕНИЯ имени генерала армии А.В. Хрулева" Способ позиционирования объекта засечкой азимута с первого измерительного пункта и угла места с дальностью - со второго

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6977676B1 (en) * 1998-07-08 2005-12-20 Canon Kabushiki Kaisha Camera control system
EA013955B1 (ru) * 2008-10-23 2010-08-30 Закрытое Акционерное Общество "Голлард" Система и способ видеомониторинга
US8749609B2 (en) * 2009-09-03 2014-06-10 Samsung Electronics Co., Ltd. Apparatus, system and method for video call
WO2011100480A1 (en) * 2010-02-10 2011-08-18 Brian Lamb Automatic motion tracking, event detection and video image capture and tagging
RU2653305C2 (ru) * 2012-07-17 2018-05-07 Самсунг Электроникс Ко., Лтд. Система и способ предоставления изображения
RU2625097C1 (ru) * 2016-05-05 2017-07-11 Закрытое акционерное общество "ИНТЕГРА-С" Система видеонаблюдения и способ формирования видеоизображения
RU2667115C1 (ru) * 2017-09-26 2018-09-14 Федеральное государственное казенное военное образовательное учреждение высшего образования "ВОЕННАЯ АКАДЕМИЯ МАТЕРИАЛЬНО-ТЕХНИЧЕСКОГО ОБЕСПЕЧЕНИЯ имени генерала армии А.В. Хрулева" Способ позиционирования объекта засечкой азимута с первого измерительного пункта и угла места с дальностью - со второго

Similar Documents

Publication Publication Date Title
US10641900B2 (en) Low latency intra-frame motion estimation based on clusters of ladar pulses
US10378905B2 (en) Auxiliary berthing method and system for vessel
EP1441318B1 (en) Security system
US11187790B2 (en) Laser scanning system, laser scanning method, movable laser scanning system, and program
US20150241560A1 (en) Apparatus and method for providing traffic control service
CN108447075B (zh) 一种无人机监测系统及其监测方法
US11598878B2 (en) Vision-cued random-access lidar system and method for localization and navigation
RU2696009C1 (ru) Способ позиционирования подвижного объекта на основе видеоизображений
RU2523446C2 (ru) Способ автоматизированного определение координат беспилотных летательных аппаратов
JP3985371B2 (ja) 監視装置
Sweet et al. Image processing and fusion for landing guidance
Vivet et al. A mobile ground-based radar sensor for detection and tracking of moving objects
CN113895482B (zh) 基于轨旁设备的列车测速方法及装置
RU126846U1 (ru) Устройство пеленгации и определения координат беспилотных летательных аппаратов
Roberts et al. Inertial navigation sensor integrated motion analysis for autonomous vehicle navigation
NL2024773B1 (en) Method and System for Locating a Light Source
RU2656361C1 (ru) Способ позиционирования подвижного объекта
Wathen et al. Real-time 3D change detection of IEDs
de Rochechouart et al. Drone tracking based on the fusion of staring radar and camera data: An experimental study
CN114078084A (zh) 一种基于坐标映射实现目标定位及跟踪的方法
KR20210130412A (ko) 드론시스템을 이용한 원격 좌표측정 시스템
JPS59160785A (ja) 移動目標追尾方式
RU2706250C1 (ru) Способ навигации наземного транспортного средства
US20230324552A1 (en) Lidar technology-based method and device for adaptively tracking an object
CN210166499U (zh) 光电智能可视导航雷达