PL239972B1 - Sposób klasyfikacji tła w lotniczym wizyjnym systemie antykolizyjnym - Google Patents
Sposób klasyfikacji tła w lotniczym wizyjnym systemie antykolizyjnym Download PDFInfo
- Publication number
- PL239972B1 PL239972B1 PL431687A PL43168719A PL239972B1 PL 239972 B1 PL239972 B1 PL 239972B1 PL 431687 A PL431687 A PL 431687A PL 43168719 A PL43168719 A PL 43168719A PL 239972 B1 PL239972 B1 PL 239972B1
- Authority
- PL
- Poland
- Prior art keywords
- horizon
- objects
- background
- determined
- camera
- Prior art date
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Description
PL 239 972 B1
Opis wynalazku
Przedmiotem wynalazku jest sposób klasyfikacji tła, na którym lokalizowane są obiekty wykryte przez lotniczy wizyjny system antykolizyjny.
Lotnicze wizyjne systemy antykolizyjne wykorzystują do obserwacji otoczenia statku powietrznego pojedynczą kamerę lub zespoły kamer. Znane są również rozwiązania, w których do detekcji intruzów w przestrzeni powietrznej wykorzystuje się układy kamer stereowizyjnych. Ze względu na różnorodność otoczenia i zmienność warunków atmosferycznych, w których może znajdować się statek powietrzny, uzyskiwany obraz obiektów, mogących stanowić potencjalne zagrożenie, jest niepowtarzalny. Automatyczna detekcja statków powietrznych i ptaków na tle jednolitego zachmurzenia, czystego nieba, czy też gładkiej powierzchni wody jest zwykle bardzo skuteczna. Znacznie większym problemem jest wykrycie obiektu lecącego na małej wysokości, na tle zróżnicowanej powierzchni ziemi. W takich sytuacjach układy automatycznej analizy obrazu mogą również znacznie częściej powodować generowanie fałszywych alarmów. Przedstawiony wynalazek umożliwia klasyfikację tła, na którym został zlokalizowany potencjalny intruz. Określenie rodzaju tła może służyć wewnętrznym układom diagnostyki systemu antykolizyjnego, jak również informacja taka może być dostarczana bezpośrednio do układów wskazań operatora statku powietrznego.
Przedmiotem wynalazku jest sposób klasyfikacji obiektów wykrytych przez lotniczy wizyjny system antykolizyjny wyposażony w co najmniej jedną kamerę, obejmujący kroki:
a) wyznaczania obiektów, które przemieszczają się względem tła na obrazie z kamery,
b) wyznaczania linii horyzontu topograficznego na obrazie uzyskanym z kamery obserwacyjnej na podstawie horyzontu prawdziwego i modelu rzeźby terenu,
c) rozdzielenia obiektów wyznaczonych w kroku a) na dwie grupy: grupę obiektów nad horyzontem topograficznym wyznaczonym w kroku b) oraz grupę obiektów pod horyzontem topograficznym wyznaczonym w kroku b).
Korzystnie linię horyzontu prawdziwego wyznacza się korzystając z pomiarów realizowanych przez układ odniesienia i kursu i/lub układ nawigacji i/lub dokonując analizy obrazu z kamery.
Korzystnie dla obiektów sklasyfikowanych jako leżące nad horyzontem na podstawie przetwarzania obrazu z kamery obserwacyjnej i/lub informacji o położeniu obiektów nad horyzontem, określa się na jakim rodzaju tła obiekt został wykryty, np. na tle czystego nieba, nieba zachmurzonego częściowo lub całkowicie.
Korzystnie dla obiektów sklasyfikowanych jako leżące pod horyzontem określa na jakim rodzaju tła obiekt został wykryty, np. na tle powierzchni wody, na tle lądu pokrytego lasem, na tle łąk, na tle terenu miejskiego, przy czym do określenia rodzaju tła korzysta się z modelu pokrycia powierzchni terenu, korzystnie także ze wszystkich lub wybranych źródeł informacji spośród: modelu rzeźby terenu, układu odniesienia i kursu, układu nawigacji.
Korzystnie w zależności od określonego rodzaju tła wyznacza się stopień skuteczności wykrycia intruza.
Realizacja sposobu według wynalazku jest możliwa dzięki zastosowaniu układu do klasyfikacji obiektów wykrytych przez lotniczy wizyjny system antykolizyjny, obejmującego oprogramowane urządzenie przystosowane do realizacji sposobu według wynalazku.
Taki układ zostanie teraz przedstawiony w przykładzie wykonania z odniesieniem do schematu z Fig. 1.
W przedstawionym przykładzie realizacji wynalazku strumień danych z kamery obserwacyjnej (A) trafia bezpośrednio na wejścia czterech bloków:
• Detektora obiektów ruchomych (F), • Detektora horyzontu prawdziwego (G), • Detektora horyzontu topograficznego (H), • Klasyfikatora obszaru powierzchni nieba za obiektem (K).
Blok detektora obiektów ruchomych (F) ma za zadanie wyznaczyć fragmenty obrazu (obiekty), które przemieszczają się względem tła. Detektor horyzontu prawdziwego (G) wyznacza na uzyskanym obrazie linię (lub krzywą w przypadku występowania dystorsji obrazu) opisującą granicę pomiędzy przestrzenią nieba i modelowaną powierzchnią ziemi (elipsoidy). Blok ten dokonuje obliczeń korzystając z pomiarów realizowanych przez układ odniesienia i kursu (B) oraz układ nawigacji (C), jak również dokonując analizy obrazu z kamery (A). Detektor horyzontu topograficznego (H) nanosi na uzyskany z kamery obserwacyjnej (A) obraz rzeczywistej linii horyzontu, z dokładnością do numerycznego modelu
Claims (5)
- PL 239 972 B1 rzeźby terenu (D), którym dysponuje. W oparciu o dane dostarczone z bloków detektora horyzontu topograficznego (H) i detektora obiektów ruchomych (F) separator obiektów ruchomych (I) dokonuje rozdziału obiektów na dwie grupy. Tworzone są w ten sposób dwie bazy danych obiektów:• Baza obiektów nad horyzontem (J1), • Baza obiektów pod horyzontem (J2).Obiekty sklasyfikowane jako leżące nad horyzontem trafiają do bloku klasyfikatora obszaru powierzchni nieba za obiektem (K). Blok ten w trakcie bezpośredniego przetwarzania obrazu z kamery obserwacyjnej (A), na podstawie informacji o położeniu obiektów nad horyzontem (J1), zwraca szczegółową informację o położeniu obiektu (np. na tle czystego nieba, nieba zachmurzonego częściowo lub całkowicie). Szczegółowy wynik klasyfikacji obiektów znajdujących się nad linią horyzontu zwracany jest na wyjściu W1.Obiekty sklasyfikowane jako leżące pod horyzontem podlegają dalszej klasyfikacji z wyk orzystaniem numerycznego modelu pokrycia powierzchni terenu (E). Na tej podstawie możliwe jest określenie, czy obiekt taki został wykryty na tle np. powierzchni wody, czy też lądu pokrytego lasem, łąkami lub na tle terenu miejskiego. Klasyfikator obszaru powierzchni ziemi za obiektem (L) wymaga doprowadzenia informacji z układu odniesienia i kursu (B), układu nawigacji (C) oraz numerycznego modelu rzeźby terenu (D) i modelu pokrycia powierzchni terenu (E). Szczegółowy wynik klasyfikacji obiektów znajdujących się pod linią horyzontu zwracany jest na wyjściu W2.Zastrzeżenia patentowe1. Sposób klasyfikacji obiektów wykrytych przez lotniczy wizyjny system antykolizyjny wyposażony w co najmniej jedną kamerę, znamienny tym, że obejmuje kroki:a) wyznaczania obiektów, które przemieszczają się względem tła na obrazie z kamery (A),b) wyznaczania linii horyzontu topograficznego na obrazie uzyskanym z kamery obserwacyjnej (A) na podstawie horyzontu prawdziwego i modelu rzeźby terenu (D),c) rozdzielenia obiektów wyznaczonych w kroku a) na dwie grupy: grupę obiektów nad horyzontem topograficznym wyznaczonym w kroku b) oraz grupę obiektów pod horyzontem topograficznym wyznaczonym w kroku b).
- 2. Sposób według zastrz. 1, znamienny tym, że linię horyzontu prawdziwego wyznacza się korzystając z pomiarów realizowanych przez układ odniesienia i kursu (B) i/lub układ nawigacji (C) i/lub dokonując analizy obrazu z kamery (A).
- 3. Sposób według zastrz. 1 albo 2, znamienny tym, że dla obiektów sklasyfikowanych jako leżące nad horyzontem, na podstawie przetwarzania obrazu z kamery obserwacyjnej (A) i/lub informacji o położeniu obiektów nad horyzontem (J1), określa się na jakim rodzaju tła obiekt został wykryty, np. na tle czystego nieba, nieba zachmurzonego częściowo lub całkowicie.
- 4. Sposób według zastrz. 1 albo 2 albo 3, znamienny tym, że dla obiektów sklasyfikowanych jako leżące pod horyzontem określa na jakim rodzaju tła obiekt został wykryty, np. na tle powierzchni wody, na tle lądu pokrytego lasem, na tle łąk, na tle terenu miejskiego, przy czym do określenia rodzaju tła korzysta się z modelu pokrycia powierzchni terenu (E), korzystnie także ze wszystkich lub wybranych źródeł informacji spośród: modelu rzeźby terenu (D), układu odniesienia i kursu (B), układu nawigacji (C).
- 5. Sposób według zastrz. 3 albo 4, znamienny tym, że w zależności od określonego rodzaju tła wyznacza się stopień skuteczności wykrycia intruza.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PL431687A PL239972B1 (pl) | 2019-10-31 | 2019-10-31 | Sposób klasyfikacji tła w lotniczym wizyjnym systemie antykolizyjnym |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PL431687A PL239972B1 (pl) | 2019-10-31 | 2019-10-31 | Sposób klasyfikacji tła w lotniczym wizyjnym systemie antykolizyjnym |
Publications (2)
Publication Number | Publication Date |
---|---|
PL431687A1 PL431687A1 (pl) | 2021-05-04 |
PL239972B1 true PL239972B1 (pl) | 2022-01-31 |
Family
ID=75723240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PL431687A PL239972B1 (pl) | 2019-10-31 | 2019-10-31 | Sposób klasyfikacji tła w lotniczym wizyjnym systemie antykolizyjnym |
Country Status (1)
Country | Link |
---|---|
PL (1) | PL239972B1 (pl) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023111189A1 (fr) * | 2021-12-16 | 2023-06-22 | Thales | Procédé de détection d'un objet dans l'environnement d'un aéronef, système et programme d'ordinateur associés |
-
2019
- 2019-10-31 PL PL431687A patent/PL239972B1/pl unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023111189A1 (fr) * | 2021-12-16 | 2023-06-22 | Thales | Procédé de détection d'un objet dans l'environnement d'un aéronef, système et programme d'ordinateur associés |
FR3131046A1 (fr) * | 2021-12-16 | 2023-06-23 | Thales | Procédé de détection d’un objet dans l’environnement d’un aéronef, système et programme d’ordinateur associés |
Also Published As
Publication number | Publication date |
---|---|
PL431687A1 (pl) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101933216B1 (ko) | 드론과 공간정보를 이용한 하천지형정보 생성 방법 | |
Zeybek et al. | Point cloud filtering on UAV based point cloud | |
EP2850455B1 (en) | Point cloud visualization of acceptable helicopter landing zones based on 4d lidar | |
Rudol et al. | Human body detection and geolocalization for UAV search and rescue missions using color and thermal imagery | |
US9819925B2 (en) | Stereo vision for sensing vehicles operating environment | |
JP2017015598A (ja) | 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム | |
EP2941735A1 (en) | Image processing | |
Mejias et al. | A multi-layered approach for site detection in UAS emergency landing scenarios using geometry-based image segmentation | |
Ahmadi et al. | A simple method for detecting and tracking vehicles and vessels from high resolution spaceborne videos | |
Al-Sheary et al. | Crowd monitoring system using unmanned aerial vehicle (UAV) | |
JP2022042146A (ja) | データ処理装置、データ処理方法およびデータ処理用プログラム | |
Nagarani et al. | Unmanned Aerial vehicle’s runway landing system with efficient target detection by using morphological fusion for military surveillance system | |
CN106295695A (zh) | 一种飞机起降过程自动追踪拍摄方法及装置 | |
CN112381041A (zh) | 一种用于输电线路的树木识别方法、装置及终端设备 | |
Schleiss et al. | VPAIR--Aerial Visual Place Recognition and Localization in Large-scale Outdoor Environments | |
Kaya et al. | Car detection from very high-resolution UAV images using deep learning algorithms | |
PL239972B1 (pl) | Sposób klasyfikacji tła w lotniczym wizyjnym systemie antykolizyjnym | |
Chandana et al. | Autonomous drones based forest surveillance using Faster R-CNN | |
Tahar et al. | Individual tree crown detection using UAV orthomosaic | |
CN107885231A (zh) | 一种基于可见光图像识别的无人机捕获方法及系统 | |
Roberts et al. | Inertial navigation sensor integrated motion analysis for autonomous vehicle navigation | |
Govada et al. | Road deformation detection | |
EP3906502A1 (en) | A method to measure visibility from point cloud data | |
EP2752788A1 (en) | Fusion of multi-spectral and range image data | |
Djenaliev et al. | Unmanned Aerial Systems for Building Footprint Extraction in Urban Area. |