RU2722599C1 - Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information - Google Patents

Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information Download PDF

Info

Publication number
RU2722599C1
RU2722599C1 RU2019129492A RU2019129492A RU2722599C1 RU 2722599 C1 RU2722599 C1 RU 2722599C1 RU 2019129492 A RU2019129492 A RU 2019129492A RU 2019129492 A RU2019129492 A RU 2019129492A RU 2722599 C1 RU2722599 C1 RU 2722599C1
Authority
RU
Russia
Prior art keywords
uav
coordinates
correction
current
information
Prior art date
Application number
RU2019129492A
Other languages
Russian (ru)
Inventor
Владимир Юрьевич Лупанчук
Сергей Николаевич Куканков
Владимир Михайлович Гончаров
Original Assignee
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ КАЗЕННОЕ ВОЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ "Военная академия Ракетных войск стратегического назначения имени Петра Великого" МИНИСТЕРСТВА ОБОРОНЫ РОССИЙСКОЙ ФЕДЕРАЦИИ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ КАЗЕННОЕ ВОЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ "Военная академия Ракетных войск стратегического назначения имени Петра Великого" МИНИСТЕРСТВА ОБОРОНЫ РОССИЙСКОЙ ФЕДЕРАЦИИ filed Critical ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ КАЗЕННОЕ ВОЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ "Военная академия Ракетных войск стратегического назначения имени Петра Великого" МИНИСТЕРСТВА ОБОРОНЫ РОССИЙСКОЙ ФЕДЕРАЦИИ
Priority to RU2019129492A priority Critical patent/RU2722599C1/en
Application granted granted Critical
Publication of RU2722599C1 publication Critical patent/RU2722599C1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C19/00Aircraft control not otherwise provided for
    • B64C19/02Conjoint controls
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

FIELD: aviation.SUBSTANCE: invention relates to an unmanned aerial vehicle (UAV) positioning method in off-line state. For this purpose, current coordinates of information-measuring devices are continuously determined by low-precision strapdown inertial navigation system (SINS) of UAV. Periodical correction of current position based on signals of satellite navigation (SSN) is performed. Validation of SSN data is performed. In automatic mode, regions or objects of observation are fixed based on information of optoelectronic system. Corrections for current coordinates of the latter are generated. At the pre-start preparation stage, the period of forming the data areas of the strap-down inertial system is calculated. In flight, processing, geo-spatial referencing and storing images on UAV are stored.EFFECT: higher accuracy of drone positioning in autonomous mode.1 cl, 1 dwg

Description

Изобретение относится к области навигации подвижных технических систем и может быть использовано в автономных системах навигации беспилотных летательных аппаратов (БПЛА) малой дальности, в которых требуется определение с высокой точностью абсолютных координат местоположения в условиях полного (частичного) отсутствия сигналов от спутниковых навигационных систем.The invention relates to the field of navigation of mobile technical systems and can be used in autonomous navigation systems for unmanned aerial vehicles (UAVs) of short range, which require the determination with high accuracy of the absolute coordinates of the location in the conditions of complete (partial) absence of signals from satellite navigation systems.

Пилотажно-навигационная система БПЛА рассматривается как комплексная навигационная система (КНС), имеющая в своем составе бесплатформенную инерциальную навигационную систему (БИНС), работающую непрерывно при измерении текущего ускорения (акселерометры), горизонтального и вертикального углов (гироскопы), и приемник потребителя спутникового сигнала от группировки глобальной навигационной системы ГЛОНАСС, периодически корректирующего текущую навигационную информацию от БИНСThe UAV flight and navigation system is considered as an integrated navigation system (SPS), which includes a strapdown inertial navigation system (SINS) that operates continuously when measuring current acceleration (accelerometers), horizontal and vertical angles (gyroscopes), and a satellite receiver of a satellite signal from GLONASS global navigation system groupings, periodically adjusting current navigation information from SINS

Спутниковые навигационные системы (GPS, ГЛОНАСС, GALILEO, BEIDOU) обеспечивают необходимую точность определения местоположения на поверхности Земли, ввиду влияния различных факторов они также имеют недостатки:Satellite navigation systems (GPS, GLONASS, GALILEO, BEIDOU) provide the necessary accuracy of determining the location on the Earth's surface, due to the influence of various factors, they also have disadvantages:

- возникновение ошибки, вызываемой «многолучевостью», которая обусловлена многократными переотражениями сигнала со спутника от окружающих предметов и поверхностей до того, как он попадает в приемник.- the occurrence of an error caused by "multipath", which is caused by repeated reflections of the signal from the satellite from surrounding objects and surfaces before it enters the receiver.

- помехи от близко расположенных мощных источников радиоизлучений: локаторов, теле- и радиопередающих станций и т.п.- interference from closely located powerful sources of radio emissions: locators, television and radio transmitting stations, etc.

- плохое качество или полное отсутствие спутникового сигнала, вызванное неудачным геометрическим взаимным расположением БПЛА и навигационных спутников.- poor quality or complete absence of a satellite signal caused by the unsuccessful geometric relative position of the UAV and navigation satellites.

- блокировка, связанная с применением специальных комплексов радиоэлектронной борьбы или умышленная подмена навигационного поля (GPS-спуфинг).- blocking associated with the use of special electronic warfare systems or intentional substitution of the navigation field (GPS spoofing).

В качестве дополнительных измерителей для коррекции БИНС на борту БПЛА могут использоваться измерители, основанные на различных физических принципах определения параметров движения.As additional meters for correcting SINS on board an UAV, meters based on various physical principles for determining motion parameters can be used.

Известна навигационная система (НС) основанная на визуальной навигации БПЛА. Существуют три основных подхода для решения задачи определения параметров движения объекта:Known navigation system (NS) based on the visual navigation of UAVs. There are three main approaches to solving the problem of determining the parameters of the movement of an object:

1. Определение параметров движения и ориентации путем отслеживания перемещения в кадре изображений характерных (особых) точек местности, при заблаговременно подготовленной информации. После идентификации точек на каждом снимке точное определение параметров движения позволяет определить текущее местоположение подвижной технической системы. Наиболее сложной проблемой остается детектирование особых точек и их соотнесение с набором характерных признаков.1. Determining the parameters of movement and orientation by tracking the movement in the frame of images of characteristic (special) points of the area, with information prepared in advance. After identifying the points in each image, an accurate determination of the motion parameters allows you to determine the current location of the mobile technical system. The most difficult problem remains the detection of singular points and their correlation with a set of characteristic features.

2. Подход «ego motion» позволяет оценивать относительное движение камеры по отношению к предыдущему ее положению. Источником данных являются видеокадры. Оценив параметры движения и начальные условия, можно путем интегрирования вычислить траекторию движения камеры. Важным достоинством этого метода (в отличие от предыдущего) является отсутствие необходимости выявления особых точек на местности. Проблемной стороной является нарастание ошибки в процессе интегрирования. Таким образом, имеется аналог «дрейфа» оценки местоположения, и точность оценивания ухудшается с течением времени (или с ростом пройденного пути).2. The “ego motion” approach allows you to evaluate the relative movement of the camera in relation to its previous position. The data source is video frames. Having estimated the motion parameters and initial conditions, it is possible by integration to calculate the trajectory of the camera. An important advantage of this method (in contrast to the previous one) is the absence of the need to identify special points on the ground. The problem side is the growth of errors in the integration process. Thus, there is an analogue of the “drift” of the position estimation, and the accuracy of the estimation deteriorates over time (or with the growth of the distance traveled).

Два изложенных подхода объединяет необходимость анализа последовательных изображений.The two approaches outlined are combined by the need for sequential image analysis.

3. Третий подход позволяет компенсировать эффект «дрейфа», применяя дополнительный алгоритм прямого оценивания местоположения. Применяются данные цифрового рельефа местности (ЦРМ), позволяющую через матрицу высот над уровнем моря дискретно определять координаты местоположения.3. The third approach allows you to compensate for the effect of "drift", using an additional algorithm for direct estimation of location. The digital terrain data (DTM) is used, which allows to discretely determine the coordinates of the location through the matrix of heights above sea level.

Применяемые методы позволяют комплексировать данные ЦРМ и видовые данные, полученные с камеры объекта для оценки положения и ориентации объекта, минуя стадию восстановления рельефа по видеоданным [1].The methods used make it possible to complex the CRM data and the species data obtained from the object’s camera to assess the position and orientation of the object, bypassing the relief reconstruction stage from the video data [1].

Известна система автономной посадки беспилотного летающего аппарата (БПЛА) на движущееся судно, (RU №110070, 2011 г.), содержащая телевизионную систему самонаведения, связанную с системой управления движением БПЛА, и судовое посадочное оборудование, в состав которого входят захватное приспособление, установленное на выносном конце поворотной кран-балки, и световые маяки, отличающаяся тем, что в состав судового посадочного оборудования входят, по меньшей мере, три световых маяка, первый из которых установлен на кронштейне, стойка которого расположена за пределами зоны тормозного пути БПЛА и отнесена вдоль борта судна вперед относительно стойки кран-балки, на которой установлены второй и третий световые маяки, причем второй и третий световые маяки образуют основание равностороннего треугольника, вершиной которого является проекция первого светового маяка на вертикальную плоскость, проходящую через второй и третий световые маяки при установке кран-балки перпендикулярно борту судна, а в геометрическом центре этого треугольника расположена точка прицеливания, на которую БПЛА наводится посредством телевизионной системы самонаведения, которая содержит телевизионную камеру, блок управления полем зрения, выход которого соединен с управляющим входом телевизионной камеры, блок обработки видеосигнала, блок определения направления на точку прицеливания, блок определения дальности, блок определения параметров качки, блок памяти и блок коррекции направления на точку прицеливания, при этом выход блока определения дальности и выход блока определения направления на точку прицеливания, на котором формируется текущее значение угла поворота линии визирования точки прицеливания, соединены с соответствующими входами блока коррекции направления на точку прицеливания и блока определения параметров качки, выходы которого по сигналам текущих значений амплитуды и периода качки и выход блока определения направления на точку прицеливания, на котором формируется текущее значение угла наклона линии визирования точки прицеливания, соединены с соответствующими входами блока коррекции направления на точку прицеливания, входы которого по сигналам текущих значений углов рысканья и тангажа БПЛА соединены с соответствующими выходами навигационного устройства, входящего в состав системы управления движением БПЛА, которая содержит также блок расчета углов атаки и скольжения, блок определения модуля скорости и блок формирования сигналов управления положением БПЛА, выходы которого через блок рулевых приводов связаны с соответствующими входами блока рулей БПЛА, при этом входы блока формирования сигналов управления положением БПЛА, на которые поступают скорректированные значения углов поворота и наклона линии визирования точки прицеливания, соединены с соответствующими выходами блока коррекции направления на точку прицеливания, входы, на которые поступают значения коэффициентов передачи контуров управления по углам рысканья, тангажа и крена и значения коэффициентов передачи контуров управления скоростями рысканья, тангажа и крена, соединены с соответствующими выходами блока памяти, входы, на которые поступают текущие значения углов рысканья, тангажа и крена и текущие значения угловых скоростей рысканья, тангажа и крена БПЛА, соединены с соответствующими выходами навигационного устройства, а входы, на которые поступают текущие значения углов атаки и скольжения, соединены с выходами блока расчета углов атаки и скольжения, входы блока расчета модуля скорости соединены с выходами навигационного устройства, на которых формируются текущие значения продольной, вертикальной и боковой составляющих скорости БПЛА, а его выход соединен с соответствующими входами блока коррекции направления на точку прицеливания и блока расчета углов атаки и скольжения, входы которого по сигналам вертикальной и боковой составляющих скорости БПЛА соединены с выходами навигационного устройства, выход телевизионной камеры, на котором формируется текущее значение угла зрения телевизионной камеры в горизонтальной плоскости, соединен с соответствующими входами блока определения направления на точку прицеливания и блока определения дальности, выход, на котором формируется текущее значение угла зрения телевизионной камеры в вертикальной плоскости, соединен с соответствующим входом блока определения направления на точку прицеливания, а выходы телевизионной камеры, на которых формируются сигнал синхронизации по строкам и значение амплитуды опрашиваемого элемента разрешения, соединены с соответствующими входами блока обработки видеосигнала, выходы блока обработки видеосигнала, на которых формируются текущие значения вертикальной и горизонтальной координат первого, второго и третьего маяков, соединены с соответствующими входами блока определения направления на точку прицеливания, кроме этого, выход блока обработки видеосигнала, на котором формируется текущее значение вертикальной координаты первого маяка, соединен с соответствующим входом блока управления полем зрения, а выходы, на которых формируются текущие значения горизонтальных координат второго и третьего маяков, соединены с соответствующими входами блока определения дальности и блока управления полем зрения, выходы блока памяти, на которых формируются значения количества элементов разрешения по горизонтали и вертикали между центром кадра и каждым из маяков в случае, когда положение центра треугольника, образованного первым, вторым и третьим световыми маяками, совпадает с центром кадра телевизионной камеры, соединены с соответствующими входами блока определения направления на точку прицеливания, выходы, на которых формируются значения величин среднего квадратичного отклонения амплитуды шума и вероятности ложной тревоги, соединены с соответствующими входами блока обработки видеосигнала, выходы блока памяти, на которых формируются значения количества элементов разрешения в строке и столбце телевизионной камеры, соединены с соответствующими входами блока обработки видеосигнала и блока управления полем зрения, выход, на котором формируется значение коэффициента передачи контура управления полем зрения, соединен с соответствующим входом блока управления полем зрения, а выходы, на которых формируются значение расстояния вдоль кран-балки между вторым и третьим световыми маяками и значение количества элементов разрешения в строке телевизионной камеры, соединены с соответствующими входами блока определения дальности [2].A known system for autonomous landing of an unmanned aerial vehicle (UAV) on a moving vessel (RU No. 110070, 2011), containing a television homing system associated with the UAV motion control system, and ship landing equipment, which includes a gripping device mounted on remote end of the rotary crane-beam, and light beacons, characterized in that the structure of the ship's landing equipment includes at least three light beacons, the first of which is mounted on an arm, the rack of which is located outside the UAV stopping distance and is carried along the side the vessel forward relative to the crane beam, on which the second and third light beams are installed, the second and third light beacons form the base of an equilateral triangle, the apex of which is the projection of the first light beacon on a vertical plane passing through the second and third light beacons when installing the crane beams perpendicular to the side of the ship, and in the geometric center of this triangle is the aiming point at which the UAV is guided by a television homing system that contains a television camera, a field of view control unit, the output of which is connected to the control input of the television camera, a video signal processing unit, a direction determination unit for the aiming point, a range determination unit , a unit for determining the pitching parameters, a memory unit and a block for correcting the direction to the aiming point, while the output of the ranging unit and the output of the unit for determining the direction to the aiming point, on which the current value of the angle of rotation of the line of sight of the aiming point is formed, are connected to the corresponding inputs of the direction correction unit to the aiming point and the block for determining the pitching parameters, the outputs of which according to the signals of the current values of the amplitude and the period of the pitching and the output of the block determining the direction to the aiming point, on which the current value of the angle and sighting of the aiming point, connected to the corresponding inputs of the direction correction unit to the aiming point, the inputs of which are signals from the current values of the yaw angle and pitch of the UAV connected to the corresponding outputs of the navigation device, which is part of the UAV's motion control system, which also contains a block for calculating the angle of attack and the slip module for determining the speed module and the block for generating UAV position control signals, the outputs of which through the block of steering drives are connected to the corresponding inputs of the UAV rudder block, while the inputs of the UAV block for generating signals for controlling the position of the UAV receive the correct values for the rotation angles and tilt of the line of sight aiming, connected to the corresponding outputs of the direction correction block to the aiming point, the inputs to which the values of the transmission coefficients of the control loops along the yaw, pitch and roll angles and the values of the transmission coefficients of the control loops yaw, pitch and roll speeds are connected to the corresponding outputs of the memory unit, inputs to which the current yaw, pitch and roll angles and current values of the yaw, pitch and roll angular speeds of the UAV are connected to the corresponding outputs of the navigation device, and the inputs, which receive the current values of the angle of attack and slip are connected to the outputs of the block for calculating the angle of attack and slip, the inputs of the block for calculating the speed module are connected to the outputs of the navigation device, which form the current values of the longitudinal, vertical and lateral components of the speed of the UAV, and its output is connected to the corresponding inputs of the direction correction unit for the aiming point and the unit for calculating the angle of attack and slip, whose inputs are connected to the outputs of the navigation device by the signals of the vertical and lateral components of the UAV speed, the output of the television camera, which forms the current value of the angle of view of the television camera in horizontal ntal plane, connected to the corresponding inputs of the direction determining unit to the aiming point and the range determination unit, the output on which the current value of the angle of view of the television camera in the vertical plane is formed is connected to the corresponding input of the direction determining unit to the aiming point, and the outputs of the television camera to of which the synchronization signal is generated in rows and the amplitude value of the interrogated resolution element is connected to the corresponding inputs of the video processing unit, the outputs of the video processing unit, on which the current values of the vertical and horizontal coordinates of the first, second and third beacons are formed, are connected to the corresponding inputs of the direction determination unit the aiming point, in addition, the output of the video signal processing unit, on which the current value of the vertical coordinate of the first beacon is generated, is connected to the corresponding input of the field of view control unit, and the outputs, on which current values of the horizontal coordinates of the second and third beacons are generated, connected to the corresponding inputs of the range-determining unit and the field of view control unit, the outputs of the memory unit, on which the number of horizontal and vertical resolution elements are formed between the center of the frame and each of the beacons in the case where the center of the triangle formed by the first, second and third light beacons coincides with the center of the frame of the television camera, connected to the corresponding inputs of the unit for determining the direction to the aiming point, the outputs on which the values of the mean square deviation of the noise amplitude and the probability of false alarm are formed are connected to the corresponding the inputs of the video signal processing unit, the outputs of the memory block, on which the values of the number of resolution elements are generated in the row and column of the television camera, are connected to the corresponding inputs of the video signal processing unit and the field of view control unit, output, to which generates the value of the transmission coefficient of the control field of view, connected to the corresponding input of the control unit of the field of view, and the outputs on which the value of the distance along the crane beam between the second and third light beacons and the value of the number of resolution elements in the line of the television camera are connected the inputs of the range determination unit [2].

Известный БПЛА предназначен для выполнения узкой специфической задачи - его посадки на судно, на котором оборудованы специальные маяки - ориентиры для обеспечения автосопровождения в точку приземления, и приспособления для торможения.The well-known UAV is designed to perform a narrow specific task - landing it on a ship on which special beacons are equipped - landmarks to ensure auto tracking to the touchdown point, and braking devices.

Недостаток данной системы автосопровождения заключается в том, что для получения необходимой точности позиционирования, необходимы специальные маячки и другие приспособления, что ограничивает радиус его применения.The disadvantage of this auto tracking system is that in order to obtain the necessary positioning accuracy, special beacons and other devices are needed, which limits the radius of its application.

Известен беспилотный летательный аппарат для мониторинга протяженных объектов (RU №137016, 2014 г.) включающий планер, силовую установку, систему автоматического и дистанционного управления полетом летательного аппарата и работой его систем, бортовую систему диагностики состояния протяженных объектов, оборудован универсальной гиростабилизированной платформой с возможностью одновременного размещения на ней по меньшей мере одного датчика прибора, выбранного из группы фото- или видеосъемка, а также тепловизора и газоанализатора, причем планер включает сменный фюзеляж и крыло [3].Known unmanned aerial vehicle for monitoring extended objects (RU No. 137016, 2014) including a glider, a power plant, an automatic and remote control system for the flight of the aircraft and the operation of its systems, an on-board diagnostic system for the condition of extended objects, is equipped with a universal gyro-stabilized platform with the possibility of simultaneous placing on it at least one sensor of the device selected from the group of photo or video, as well as a thermal imager and gas analyzer, and the glider includes a removable fuselage and wing [3].

Недостатками данной системы являются необходимость непрерывного излучения электромагнитной энергии на протяжении всего полета, следовательно, незащищенность от возможных организованных помех, а также отсутствие признаков локальной идентификации протяженных объектов, и как следствие, неудовлетворительная точность наведения БПЛА, определяемая лишь данными системы ГЛОНАСС/GPS.The disadvantages of this system are the need for continuous emission of electromagnetic energy throughout the flight, therefore, the insecurity from possible organized interference, as well as the absence of signs of local identification of extended objects, and as a result, the unsatisfactory accuracy of UAV guidance, determined only by the GLONASS / GPS system data.

Наиболее близким по технической сущности к заявленному изобретению является система управления беспилотным летательным аппаратом (RU155323, 2015 г.). содержащая систему автоматического и дистанционного управления полетом летательного аппарата, включающую в себя спутниковую навигационную систему беспилотного летательного аппарата, приемник сигналов дистанционного управления, блок коррекции сигналов управления, а также автопилот для управления аэродинамической поверхностью беспилотного летательного аппарата, и оптико-электронную систему, состоящую из гиростабилизированной платформы с размещенными на ней датчиками изображения, работающими в видимом и инфракрасном диапазонах излучения, связанными с передатчиком информации, в нее введена система автоматического распознавания и автосопровождения объектов наблюдения, включающая блок эталонного изображения, блок распознавания по эталону, блок препарирования изображения, блок принятия решения, блок автосопровождения и координатной поправки, формирователь экранной информации, при этом выход блока эталонного изображения соединен с первым входом блока распознавания по эталону, второй вход которого подключен к выходу блока препарирования изображения, выход блока распознавания по эталону соединен с входом блока принятия решения, первый выход которого подключен к входу блока автосопровождения и координатной поправки, а второй выход соединен с первым входом блока препарирования изображения, второй вход которого подключен к выходу оптико-электронной системы, к первому входу формирователя экранной информации и к второму входу блока автосопровождения и координатной поправки, первый выход которого соединен с вторым входом формирователя экранной информации, выход которого подключен к входу передатчика информации, второй выход блока авто сопровождения и координатной поправки соединен с входом блока коррекции сигналов управления [4].The closest in technical essence to the claimed invention is a control system for an unmanned aerial vehicle (RU155323, 2015). comprising an automatic and remote flight control system of an aircraft, including a satellite navigation system of an unmanned aerial vehicle, a remote control signal receiver, a correction signal control unit, and an autopilot for controlling the aerodynamic surface of an unmanned aerial vehicle, and an optoelectronic system consisting of a gyro-stabilized platforms with image sensors located on it, operating in the visible and infrared ranges of radiation associated with the information transmitter, a system for automatic recognition and auto tracking of observation objects, including a block of a reference image, a block for recognizing a reference, an image preparation block, a decision block, an auto tracking and coordinate correction unit, a screen information shaper, wherein the output of the reference image block is connected to the first input of the recognition unit by the standard, the second input of which it is connected to the output of the image preparation unit, the output of the recognition unit by reference is connected to the input of the decision unit, the first output of which is connected to the input of the auto tracking unit and coordinate correction, and the second output is connected to the first input of the image preparation unit, the second input of which is connected to the optical output -electronic system, to the first input of the screen information generator and to the second input of the auto tracking and coordinate correction unit, the first output of which is connected to the second input of the screen information generator, the output of which is connected to the input of the information transmitter, the second output of the auto tracking unit and coordinate correction is connected to the input block correction of control signals [4].

Недостатками прототипа являются:The disadvantages of the prototype are:

- обязательная заблаговременная подготовка актуальной информации, в виде изображений охраняемой местности или объектов ориентиров;- Mandatory advance preparation of relevant information in the form of images of protected areas or landmarks;

- отсутствие решения в случаях подмены или выхода из строя приемника спутникового сигнала до зоны вероятной организованной помехи линии радиосвязи и как следствие непопадание БПЛА в область эталонных изображений охраняемой местности или объектов ориентиров, ввиду нарастающих ошибок в определении координат;- the lack of a solution in cases of substitution or failure of the satellite signal receiver to the zone of likely organized interference of the radio link and, as a result, the UAV not falling into the area of the reference images of the protected area or landmarks, due to growing errors in determining the coordinates;

- не учтена продолжительность времени, затрачиваемого на сравнение изображений, в случае большого количества заложенных эталонных изображений охраняемой местности или объектов ориентиров.- the length of time spent on comparing the images is not taken into account in the case of a large number of embedded reference images of the protected area or landmarks.

Целью настоящего изобретения является создание способа коррекции малоточной БИНС автономного БПЛА, малой дальности и ближнего радиуса действия с использованием интеллектуальной системы геопространственной информации (ИСГИ), позволяющей проводить коррекцию БИНС в отсутствии заблаговременно подготовленных эталонных изображений при полном или частичном отсутствии сигналов от СНС с учетом продолжительности времени, затрачиваемого на сравнение эталонных изображений с текущими.The aim of the present invention is to provide a method for correcting low-current SINS of an autonomous UAV, short-range and short-range using an intelligent geospatial information system (ISGI), which allows correcting SINS in the absence of prepared reference images in advance with the complete or partial absence of signals from the SNA, taking into account the length of time spent comparing reference images with current ones.

Требуемый технический результат достигается тем, что при способе коррекции бесплатформенной инерциальной навигационной системы беспилотного летательного аппарата малой дальности с использованием интеллектуальной системы геопространственной информации, заключающегося в автоматическом обнаружении области или объекта наблюдения, получении достоверного результата автоматического опознавания, автосопровождении объекта и формировании коррекционных координатных коэффициентов за счет получения рассогласования относительно текущих координат опознанного изображения, дополнительно приводится интеллектуальный процесс обработки изображений, заключающийся в расчете периода формирования областей коррекции для создания эталонного изображения при полете в точку разворота и обосновании высоты обратного полета с помощью рассчитанных коэффициентов характеризующих разреженность общих точек подстилающей поверхности и фактическую долю общности эталонного изображения от текущего.The required technical result is achieved by the fact that with the correction method of the strapdown inertial navigation system of a short-range unmanned aerial vehicle using an intelligent geospatial information system, which consists in automatically detecting an area or object of observation, obtaining a reliable result of automatic recognition, auto tracking of the object and forming correction coordinate coefficients due to to obtain a mismatch with respect to the current coordinates of the recognized image, an intelligent image processing process is additionally presented, consisting in calculating the period of formation of correction areas for creating a reference image when flying to a pivot point and justifying the height of the return flight using the calculated coefficients characterizing the sparseness of the common points of the underlying surface and the actual share of commonality reference image from the current.

Сущность изобретения поясняется функциональной схемой, где на фиг. 1 изображены:The invention is illustrated by a functional diagram, where in FIG. 1 are shown:

1 - система автоматического и дистанционного управления полетом;1 - automatic and remote flight control system;

2 - интеллектуальная система геопространственной информации;2 - an intelligent system of geospatial information;

3 - оптико-электронная система (ОЭС);3 - optoelectronic system (ECO);

4 - передатчик информации;4 - information transmitter;

5 - блок коррекции сигналов управления;5 - block correction of control signals;

6 - блок определения достоверных координат;6 - block determining reliable coordinates;

7 - приемник сигналов дистанционного управления;7 - receiver of remote control signals;

8 - автопилот;8 - autopilot;

9 - баровысотомер;9 - bar altimeter;

10 - магнитометр;10 - magnetometer;

11 - инерциальная навигационная система;11 - inertial navigation system;

12 - спутниковая навигационная система;12 - satellite navigation system;

13 - мультиплексор;13 - multiplexer;

14 - хронограф;14 - chronograph;

15 - блок автосопровождения и координатной поправки;15 - block auto tracking and coordinate correction;

16 - блок препарирования информации;16 - block preparation of information;

17 - блок принятия решения;17 - decision block;

18 - блок распознавания по эталону;18 - recognition unit by reference;

19 - блок создания эталонного изображения;19 is a block creating a reference image;

20 - блок хранения эталонных изображений.20 - block storage of reference images.

Изобретение работает следующим образом: в процессе штатного полета происходит выполнение алгоритма формирования областей коррекции в ИСГИ. Для реализации алгоритма, на этапе предпусковой подготовки рассчитывается период формирования областей коррекции ΔTфок.The invention works as follows: in the process of regular flight, the algorithm for the formation of correction areas in the ISGI is executed. To implement the algorithm, at the start-up stage, the period of formation of the correction areas ΔT foc is calculated.

Время на расчетную траекторию определяется по формуле:Time for the calculated trajectory is determined by the formula:

Figure 00000001
Figure 00000001

где t - длина расчетной траектории по времени, КТ - количество периодов создания областей коррекции, tдоп - допустимое время прямолинейного полета с момента наступления нештатной ситуации, Rпов - радиус поворота БПЛА, Vпов - скорость полета БПЛА при совершении поворота.where t pt is the length of the calculated trajectory in time, K T is the number of periods of creation of correction areas, t add is the permissible time of a straight flight from the moment of an emergency, R pov is the UAV turning radius, V pv is the UAV flight speed when making a turn.

Выражение

Figure 00000002
в уравнении (1) представляет время, затрачиваемое на совершение маневра по развороту БПЛА и определяется из формулы по нахождению длины окружности, в данном случае ее половины. Решая, уравнение (1) относительно ΔТфок, получим:Expression
Figure 00000002
in equation (1) represents the time taken to complete a maneuver to turn the UAV and is determined from the formula for finding the circumference, in this case half of it. Solving equation (1) with respect to ΔТ foc , we obtain:

Figure 00000003
Figure 00000003

Расчет периода формирования областей коррекции является обязательным условием для функционирования алгоритма формирования областей коррекции в блоке формирования области коррекции 19.The calculation of the period of formation of the correction areas is a prerequisite for the functioning of the algorithm for the formation of correction areas in the block for the formation of the correction area 19.

Система автоматического и дистанционного управления полетом 2 обеспечивает взаимосвязь БПЛА с наземным пунктом управления через передатчика информации 4. Для этого мультиплексор 13 формирует информацию от ОЭС 7 и блока определения достоверных координат 6. Координаты БПЛА определяются спутниковой СНС 12 и в блоке 6, благодаря избыточности получаемой информации от баровысотомера 9, магнитометра 10 и БИНС 11 проверяются на достоверность. На наземном пункте управления оператор, наблюдая за изображением с геопространственной привязкой, может вносить изменения в траекторию полета через приемник сигналов дистанционного управления 7.The automatic and remote flight control system 2 ensures the UAV is interconnected with the ground control point through the information transmitter 4. For this, the multiplexer 13 generates information from the OES 7 and the reliable coordinates determination unit 6. The UAV coordinates are determined by the satellite SNA 12 and in block 6, due to the redundancy of the information received from the barometer 9, magnetometer 10 and SINS 11 are checked for reliability. At the ground control point, the operator, observing the image with geospatial reference, can make changes to the flight path through the receiver of remote control signals 7.

Тем временем, в полете ИСГИ 2 с периодом формирования областей коррекции ΔТфок проводит обработку серии последовательных изображений с ОЭС 3. Предварительно обработанное изображение с выхода блока препарирования информации 16 подается на вход блока создания эталонного изображения, где происходит геопространственная привязка снимка по информации с блока 6. Обработанное изображение сохраняется в блоке хранения эталонных изображений 20.Meanwhile, in flight ISGI 2 with a period? T formation areas correction processing jib carries a series of sequential images with the ECO 3. The pre-processed image information with the preparation unit 16 output is input to the unit creating the reference image, where the image of the binding geospatial information block 6 The processed image is stored in the storage unit of the reference image 20.

В случае потери сигнала со спутниками, выхода из строя СНС или определении подмены навигационного поля блоком определения достоверных координат 6 отключается контур сохранения эталонного изображения. Для навигации БПЛА используются области коррекции, сформированные во время полета в штатном режиме или заблаговременно подготовленные эталонные изображения блока 20.In the case of loss of a signal with satellites, failure of the SNA or the determination of the replacement of the navigation field by the reliable coordinates determining unit 6, the reference image storage loop is disabled. For UAV navigation, correction areas are used that are formed during flight in the normal mode or pre-prepared reference images of block 20.

По причине нарастания погрешностей БИНС существует возможность того, что при неизменной высоте, БПЛА не пересечет реперную область и не сможет провести коррекцию. Для формирования необходимых условий захвата участков местности текущими изображениями ОЭС в блоке коррекции сигналов управления 5 применяется алгоритм расчета высоты полета БПЛА.Due to the increase in SINS errors, there is the possibility that, at a constant height, the UAV will not cross the reference area and will not be able to carry out correction. To form the necessary conditions for the capture of terrain by current ECO images in the control signal correction block 5, an algorithm for calculating the UAV flight altitude is used.

Формируются исходные данные: XS, YS, ZS - координаты точки старта, XF, YF, HF - координаты точки F начала маневра по развороту,

Figure 00000004
- координаты геометрических центров областей коррекции, Ii - изображение областей коррекции с геопространственной привязкой, tкрит - расчетная длительность полета БПЛА в отсутствии спутникового сигнала, в течение которого требуется коррекция ИНС,
Figure 00000005
- координаты угловых точек периметра области коррекции,
Figure 00000006
- коэффициент, характеризующий долю от всей площади для каждой области коррекции, необходимой для определения минимального количества общих точек, позволяющих провести коррекцию,
Figure 00000007
- высота, на которой были получены изображения каждой области коррекции.Initial data is generated: X S , Y S , Z S - coordinates of the start point, X F , Y F , H F - coordinates of the point F of the start of the turn maneuver,
Figure 00000004
are the coordinates of the geometric centers of the correction areas, I i is the image of the correction areas with geospatial reference, t crit is the estimated UAV flight duration in the absence of a satellite signal, during which the ANN correction is required,
Figure 00000005
- coordinates of the corner points of the perimeter of the correction area,
Figure 00000006
- coefficient characterizing the proportion of the total area for each correction area necessary to determine the minimum number of common points that allow for correction,
Figure 00000007
- the height at which images of each correction area were obtained.

Проводится расчет координат точки окончания маневра для прямолинейного полета к следующей точке маршрута.The coordinates of the maneuver end point for a straight flight to the next route point are calculated.

Определяется максимальное отклонение от области коррекции. Максимальная погрешность рассчитывается по техническим характеристикам БИНС за время полета до области коррекции.The maximum deviation from the correction area is determined. The maximum error is calculated according to the technical characteristics of the SINS during the flight to the correction area.

Достаточная максимальная высота Н2 определяется по формуле:A sufficient maximum height of H 2 is determined by the formula:

Figure 00000008
Figure 00000008

где H2mах - достаточная максимальная высота полета над областью коррекции, м; H1 - высота создания изображений области коррекции, м; К1 минимальная доля эталонного изображения, необходимая для проведения коррекции, %; К2 - минимальная доля общности эталонного изображения от текущего, %.where H 2max - sufficient maximum altitude above the correction area, m; H 1 - the height of the image creation of the correction area, m; To 1 the minimum share of the reference image necessary for the correction,%; K 2 - the minimum share of the common reference image from the current,%.

Коэффициент К1 характеризует разреженность общих точек подстилающей поверхности с высоты H1. Минимальное количество общих точек μ, необходимое для проведения коррекции с высоты Н2 принимает значение равное μ=3. Для каждой области коррекции рассчитывается минимальная площадь, которая должна попасть в объектив ОЭС с высоты и иметь три общие точки, при любом случайном направлении пересечения.The coefficient K 1 characterizes the sparseness of the common points of the underlying surface from a height of H 1 . The minimum number of common points μ required for the correction from a height of H 2 takes a value equal to μ = 3. For each correction area, the minimum area is calculated, which should fall into the ECO lens from a height and have three common points, for any random direction of intersection.

От датчиков ОЭС 3 изображение поступает на входы блока препарирования информации 16, блока автосопровождения и координатной поправки 15 и хронограф 15. Предварительно обработанное изображение с выхода блока 16 подается на один из входов блока распознавания по эталону 18, на другой вход подается эталонное изображение, хранящееся в блоке хранения эталонных изображений 20. В целях сокращения времени сопоставления эталонного изображения с текущим, используется грубая информация инерциальной навигационной системы 11, которая поступает на один из входов блока 20 и задает определенный диапазон для перебора эталонных изображений.From the sensors of the OES 3, the image is fed to the inputs of the information preparation unit 16, the auto tracking unit and the coordinate correction 15 and the chronograph 15. The pre-processed image from the output of the unit 16 is fed to one of the inputs of the recognition unit by reference 18, and the reference image stored in storage unit of reference images 20. In order to reduce the time of comparison of the reference image with the current one, crude information of the inertial navigation system 11 is used, which is fed to one of the inputs of the block 20 and sets a certain range for enumerating the reference images.

В блоке 18 определяется степень сходства текущего изображения с эталоном, и результат передается в блок принятия решения 17. В случае неудовлетворительного результата, т.е. оценка сходства ниже установленного критерия, соответствующий сигнал передается в блок 16 для внесения изменений в алгоритм предобработки текущего изображения. Это может быть изменение масштаба, поворот изображения, контурное или двухуровневое представление изображения, переключение спектрального диапазона с видимого на инфракрасный и наоборот, и др. В случае удовлетворительной оценки идентификации, необходимый сигнал поступает на вход блока 15, в котором производится захват и автосопровождение идентифицированного объекта, определение новых координат в поле зрения оптического средства. Одновременно с сигналом блока 15 в блок 5 коррекции сигналов управления поступает сигнал с хронографа 14. В блоке 5 происходит учет времени, потребовавшегося на идентификацию изображения и формируется сигнал коррекции для БИНС 11 относительно текущих координат опознанного изображения. Процесс анализа сходства изображения и принятия решения повторяется в каждом последующем кадре видеопоследовательности.In block 18, the degree of similarity of the current image with the standard is determined, and the result is transmitted to decision block 17. In the case of an unsatisfactory result, i.e. assessment of similarity below the established criterion, the corresponding signal is transmitted to block 16 for making changes to the preprocessing algorithm of the current image. This can be zooming, image rotation, a contour or two-level representation of the image, switching the spectral range from visible to infrared and vice versa, etc. In the case of a satisfactory identification assessment, the necessary signal is input to block 15, in which the identified object is captured and auto-tracked , determination of new coordinates in the field of view of the optical means. Simultaneously with the signal of block 15, a signal from the chronograph 14 is received in block 5 of the correction of control signals 14. In block 5, the time taken to identify the image is taken into account and a correction signal is generated for SINS 11 relative to the current coordinates of the recognized image. The process of image similarity analysis and decision making is repeated in each subsequent frame of the video sequence.

Таким образом, в предлагаемом новом способе помимо перечисленных в ближайшем аналоге, используются следующие дополнительные действия:Thus, in the proposed new method, in addition to those listed in the closest analogue, the following additional steps are used:

1. На этапе заблаговременной подготовки информации рассчитывается период формирования областей коррекции.1. At the stage of advance preparation of information, the period of formation of correction areas is calculated.

2. В штатном полете БПЛА с периодом формирования областей коррекции создаются изображения с геопространственной привязкой.2. In a regular UAV flight with a period of formation of correction areas, images with geospatial reference are created.

3. Проводится интеллектуальная обработка изображений. Рассчитываются коэффициенты, характеризующие разреженность общих точек подстилающей поверхности и фактическую долю общности эталонного изображения от текущего, необходимые для определения достаточной высоты полета БПЛА.3. Intelligent image processing. Coefficients are calculated that characterize the sparseness of the common points of the underlying surface and the actual fraction of the commonness of the reference image from the current, necessary to determine the sufficient UAV flight altitude.

Сравнительный анализ существенных признаков существующих способов определения параметров навигации БПЛА и настоящего способа показывает, что предложенный способ, основанный на использовании дополнительных операций, связанных с формированием периода областей коррекции, интеллектуальной обработкой изображений и расчетом высотных коэффициентов отличается тем, что за счет обработки избыточной информации обеспечивается более точное определение текущих навигационных параметров в отсутствии сигналов от СНС.A comparative analysis of the essential features of existing methods for determining UAV navigation parameters and the present method shows that the proposed method, based on the use of additional operations related to the formation of a period of correction areas, intelligent image processing and calculation of altitude coefficients, differs in that more information is provided by processing more information accurate determination of current navigation parameters in the absence of signals from the SNA.

Таким образом, достигается технический результат изобретения -повышение точности позиционирования БПЛА в автономном режиме, при использовании малогабаритных навигационных чувствительных элементов, вследствие обнуления нарастающих ошибок БИНС.Thus, the technical result of the invention is achieved — an increase in the accuracy of UAV positioning in the autonomous mode when using small-sized navigation sensitive elements, due to zeroing the growing SINS errors.

Источники информации:Sources of information:

1. Kupervasser О. Yu., Voronov V.V. Correction of inertial navigation system's errors by the help of video-based navigator based on Digital Terrarium Map.1. Kupervasser O. Yu., Voronov V.V. Correction of inertial navigation system's errors by the help of video-based navigator based on Digital Terrarium Map.

2. Полезная модель RU №110070, МПК B64F 1/18; B64C 13/18; П05 В 1. 10, опубликовано: 10.11.2011.2. Utility model RU No. 110070, IPC B64F 1/18; B64C 13/18; P05 B 1. 10, published: 11/10/2011.

3. Полезная модель RU №137016, МПК B64D 43/00, опубликовано: 27.01.2014.3. Utility model RU No. 137016, IPC B64D 43/00, published: 01/27/2014.

4. Полезная модель RU №155323, МПК B64D 43/00, опубликовано: 27.09.2015.4. Utility model RU No. 155323, IPC B64D 43/00, published: 09/27/2015.

Claims (1)

Способ позиционирования беспилотного летательного аппарата (БПЛА) в автономном режиме, заключающийся в том, что непрерывно определяют текущие координаты информационно-измерительными устройствами малоточной бесплатформенной инерциальной навигационной системой (БИНС) БПЛА, проводят периодическую коррекцию текущего положения по сигналам спутниковой навигации (СНС), осуществляют проверку данных СНС на достоверность, в автоматическом режиме фиксируют области или объекты наблюдения по информации оптико-электронной системы, формируют коррекционные поправки для текущих координат БПЛА, отличающийся тем, что на этапе предпусковой подготовки рассчитывают период формирования областей коррекции данных бесплатформенной инерциальной системы, в процессе полета производят обработку, геопространственную привязку и сохраняют изображения на борту БПЛА, формируют исходные данные: координаты точки старта XS, YS, ZS, координаты точки начала маневра по развороту XF, YF, HF, координаты геометрических центров областей коррекции
Figure 00000009
, максимальную высоту полета H2mах, минимальное количество общих точек коррекции μ, минимальную долю эталонного изображения К1, минимальную долю общности изображений К2, производят расчет координат точки окончания маневра для прямолинейного полета к следующей точке маршрута, для навигации определяют степень сходства текущего изображения с эталоном, производят захват и автосопровождение идентифицированного объекта, формируют сигнал коррекции для БИНС относительно текущих координат, производят определение новых координат, повторяют процесс анализа сходства и принятия решения для каждого последующего кадра.
A method for positioning an unmanned aerial vehicle (UAV) in stand-alone mode, which consists in continuously determining the current coordinates with information-measuring devices of a low-precision strapdown inertial navigation system (SINS) of the UAV, periodically adjusting the current position using satellite navigation signals (SNA), and checking SNA data for reliability, automatically record areas or objects of observation according to the information of the optoelectronic system, form corrective corrections for the current coordinates of the UAV, characterized in that at the start-up stage, the period of formation of the data correction areas of the strapdown inertial system is calculated, during the flight processing, geospatial reference and save the images on board the UAV, form the initial data: the coordinates of the start point X S , Y S , Z S , the coordinates of the start point of the maneuver on the turn X F , Y F , H F , the coordinates of the geometric their centers of correction areas
Figure 00000009
, the maximum flight altitude H 2max , the minimum number of common correction points μ, the minimum share of the reference image K 1 , the minimum share of the images K 2 , calculate the coordinates of the end point of the maneuver for a straight flight to the next route point, for navigation determine the degree of similarity of the current image with as a standard, they capture and auto-track the identified object, generate a correction signal for SINS relative to the current coordinates, determine the new coordinates, repeat the process of analyzing the similarity and making decisions for each subsequent frame.
RU2019129492A 2019-09-19 2019-09-19 Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information RU2722599C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2019129492A RU2722599C1 (en) 2019-09-19 2019-09-19 Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019129492A RU2722599C1 (en) 2019-09-19 2019-09-19 Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information

Publications (1)

Publication Number Publication Date
RU2722599C1 true RU2722599C1 (en) 2020-06-02

Family

ID=71067599

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019129492A RU2722599C1 (en) 2019-09-19 2019-09-19 Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information

Country Status (1)

Country Link
RU (1) RU2722599C1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2790076C1 (en) * 2022-01-27 2023-02-14 Акционерное общество Московский научно-производственный комплекс "Авионика" имени О.В. Успенского (АО МНПК "Авионика") Method for correcting the orientation angles of platformless ins on a sliding interval

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2591029C1 (en) * 2015-02-13 2016-07-10 Российская Федерация, от имени которой выступает Министерство промышленности и торговли Российской Федерации (Минпромторг России) Method of improved image of underlying surface producing on (ac) aircraft
RU164139U1 (en) * 2015-12-22 2016-08-20 Общество с ограниченной ответственностью "ПАВЛИН Технологии" INTELLIGENT AUTOMOTIVE CONTROL SYSTEM FOR UNMANNED AIRCRAFT
RU2615033C1 (en) * 2015-10-06 2017-04-03 Акционерное Общество "Конструкторское Бюро "Луч" Strapdown inertial vertical on "rough" sensitive elements
US9817682B2 (en) * 2015-05-18 2017-11-14 Goodrich Corporation System architecture for machine vision on moving platforms
CN109815798A (en) * 2018-12-17 2019-05-28 广东电网有限责任公司 Unmanned plane image processing method and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2591029C1 (en) * 2015-02-13 2016-07-10 Российская Федерация, от имени которой выступает Министерство промышленности и торговли Российской Федерации (Минпромторг России) Method of improved image of underlying surface producing on (ac) aircraft
US9817682B2 (en) * 2015-05-18 2017-11-14 Goodrich Corporation System architecture for machine vision on moving platforms
RU2615033C1 (en) * 2015-10-06 2017-04-03 Акционерное Общество "Конструкторское Бюро "Луч" Strapdown inertial vertical on "rough" sensitive elements
RU164139U1 (en) * 2015-12-22 2016-08-20 Общество с ограниченной ответственностью "ПАВЛИН Технологии" INTELLIGENT AUTOMOTIVE CONTROL SYSTEM FOR UNMANNED AIRCRAFT
CN109815798A (en) * 2018-12-17 2019-05-28 广东电网有限责任公司 Unmanned plane image processing method and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2790076C1 (en) * 2022-01-27 2023-02-14 Акционерное общество Московский научно-производственный комплекс "Авионика" имени О.В. Успенского (АО МНПК "Авионика") Method for correcting the orientation angles of platformless ins on a sliding interval

Similar Documents

Publication Publication Date Title
CN108227751B (en) Landing method and system of unmanned aerial vehicle
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
CN107741229B (en) Photoelectric/radar/inertia combined carrier-based aircraft landing guiding method
CN106526551B (en) A kind of radar antenna dynamic performance testing system and method
RU2666479C1 (en) Method of providing the automatic landing of the flying apparatus
CN107783106B (en) Data fusion method between unmanned aerial vehicle and barrier
EP2118713B1 (en) Precision approach control
WO2017116841A1 (en) Unmanned aerial vehicle inspection system
US10969493B2 (en) Data processing device, data processing method, and data processing program
CN108255190B (en) Accurate landing method based on multiple sensors and tethered unmanned aerial vehicle using same
CN110221625B (en) Autonomous landing guiding method for precise position of unmanned aerial vehicle
CN202600150U (en) Intelligent low-altitude remote sensing surveying and mapping system
CN105242682B (en) Target drone target signature measurement system
US10410529B2 (en) Automatic assistance method for landing an aircraft
KR20150000053A (en) Method and Apparatus for Guiding Unmanned Aerial Vehicle and Method and Apparatus for Controlling Unmanned Aerial Vehicle
US11490005B2 (en) Overhead line image capturing system and overhead line image capturing method
CN109597432B (en) Unmanned aerial vehicle take-off and landing monitoring method and system based on vehicle-mounted camera unit
CN105843249A (en) Unmanned aerial vehicle automatic navigation system based on Pixhawk flight control and navigation method thereof
US10146230B2 (en) Control device, optical device, and control method for tracking unmanned aerial vehicle, and system and program therefor
Kong et al. A ground-based multi-sensor system for autonomous landing of a fixed wing UAV
GB2522327A (en) Determining routes for aircraft
RU2722599C1 (en) Method for correcting strapdown inertial navigation system of unmanned aerial vehicle of short range using intelligent system of geospatial information
CN116430901A (en) Unmanned aerial vehicle return control method and system based on mobile parking apron
CN114964209B (en) Autonomous navigation method and system for long-endurance unmanned aerial vehicle based on infrared array imaging
CN106354149B (en) Unmanned aerial vehicle flight control method and device