IT201900007815A1 - Metodo per il rilevamento di oggetti in movimento - Google Patents

Metodo per il rilevamento di oggetti in movimento Download PDF

Info

Publication number
IT201900007815A1
IT201900007815A1 IT102019000007815A IT201900007815A IT201900007815A1 IT 201900007815 A1 IT201900007815 A1 IT 201900007815A1 IT 102019000007815 A IT102019000007815 A IT 102019000007815A IT 201900007815 A IT201900007815 A IT 201900007815A IT 201900007815 A1 IT201900007815 A1 IT 201900007815A1
Authority
IT
Italy
Prior art keywords
image
bounding box
pixels
diff
deformed
Prior art date
Application number
IT102019000007815A
Other languages
English (en)
Inventor
Fabio Masci
Original Assignee
The Edge Company S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by The Edge Company S R L filed Critical The Edge Company S R L
Priority to IT102019000007815A priority Critical patent/IT201900007815A1/it
Priority to EP20736460.5A priority patent/EP3977408A1/en
Priority to US17/616,326 priority patent/US20220327716A1/en
Priority to PCT/IT2020/050138 priority patent/WO2020245856A1/en
Priority to CN202080041150.0A priority patent/CN113994381A/zh
Publication of IT201900007815A1 publication Critical patent/IT201900007815A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

DESCRIZIONE
annessa alla domanda di brevetto per invenzione industriale dal titolo:
"METODO PER IL RILEVAMENTO DI OGGETTI IN MOVIMENTO"
TESTO DELLA DESCRIZIONE
La presente invenzione si riferisce ad un metodo per il rilevamento di oggetti in movimento.
Attualmente sono noti diversi metodi per rilevare oggetti in movimento che utilizzano algoritmi cosiddetti di “motion detection”. Tali algoritmi si basano su tecniche di visione artificiale, partendo da video acquisiti da telecamere.
Le telecamere sono usualmente fisse. Possono variare l’inquadratura, ma non possono essere avvicinate all’oggetto. Per avvicinarsi a o seguire un oggetto in movimento è possibile utilizzare un drone, ovvero un velivolo di piccole dimensioni radiocomandato da terra.
I droni hanno oggi svariate applicazioni: sicurezza e tracciamento, monitoraggio ambientale e architettonico, telerilevamento, ovvero una tecnica pensata per raccogliere dati qualitativi e quantitativi su un determinato territorio, sulla base dell’analisi della radiazione elettromagnetica emessa o riflessa, e riprese video. Le riprese video in particolare permettono di rilevare gli oggetti che si muovo in prossimità del drone.
Un'applicazione di interesse nel rilevamento di oggetti in movimento risulta quella relativa al rilevamento e monitoraggio automatico di volatili in uno spazio o in un'area, ad esempio il monitoraggio dell’avifauna intorno agli aeroporti per aumentare la sicurezza dei voli.
Usualmente l’attività di monitoraggio della eventuale presenza di volatili in uno spazio o area di osservazione viene eseguita mediante l’osservazione di tale spazio da parte di personale dotato di sistemi di avvistamento quali cannocchiali o binocoli. Tali metodi non consentono di automatizzare completamente l’attività di rilevamento della presenza di tali volatili nello spazio di osservazione. Inoltre, l’osservazione effettuata dal personale sul campo risulta essere molto soggettiva, e condizionata da parametri quali la preparazione e il livello di conoscenza del personale stesso.
Attualmente esistono anche dei sistemi radar per il rilevamento dei volatili. Tali sistemi radar richiedono personale altamente specializzato per l’interpretazione delle informazioni e per la manutenzione e presentano pertanto costi molto elevati.
Recentemente sono stato sviluppati metodi di monitoraggio basati su tecniche di visione artificiale, in cui i volatili vengono rilevati all’interno di video acquisiti da una o più telecamere disposte in prossimità dello spazio di osservazione. Esistono attualmente algoritmi di visione artificiale per rilevare oggetti in movimento che utilizzano la tecnica dell’optical flow (o flusso ottico), impiegata principalmente per il calcolo della stima del moto tra due frame consecutivi in un video.
I metodi che si basano su questi algoritmi noti, tuttavia, hanno dei limiti. Tali metodi ad esempio non riescono a rilevare oggetti in movimento di dimensioni piccole rispetto a quelli che possono essere invece degli artefatti dell'immagine dovuti alla compressione del video. Inoltre, tali metodi non sono in grado di gestire in modo ottimale i video acquisiti da una telecamera in movimento, come ad esempio una telecamera associata ad un drone. Infatti la maggior parte dei metodi basati su optical flow per la detection, prevede di elaborare un modello del background (che non si muove), rispetto all'oggetto in foreground (che invece si muove). Nel caso di un dispositivo in moto, sia il background che il foreground si muovono e quindi risulta molto difficile, se non impossibile, ricreare il modello del background per effettuare la detection, soprattutto se l'oggetto è molto piccolo.
Scopo della presente invenzione è quello di migliorare il rilevamento di oggetti in movimento all’interno di filmati, rendendolo più affidabile.
Ulteriore scopo della presente invenzione è permettere il rilevamento anche a partire da un filmato acquisito da un dispositivo, come una telecamera, in movimento.
L'invenzione raggiunge tali scopi grazie ad un metodo per il rilevamento di oggetti in movimento avente le caratteristiche definite nella rivendicazione 1. Il metodo permette di individuare in modo affidabile gli oggetti effettivamente in movimento, anche se sono piccoli. Inoltre, non comporta la necessità di ricreare un modello del background. Gli oggetti in movimento possono essere rilevati da una telecamera anche essa in movimento, che quindi può avvicinarsi all’oggetto rendendo più affidabile il rilevamento.
Vantaggiosamente, viene applicato un filtro passa basso per eliminare le alte frequenze presenti nella immagine ottenuta dalla differenza tra la prima immagine e la seconda immagine deformata e/o viene applicata a questa immagine una sogliatura per evidenziare i pixel che si differenziano tra la seconda immagine deformata e la prima immagine.
In una realizzazione preferita, per ogni bounding box non scartata vengono estratti due profili lungo gli assi di riferimento X e Y, viene controllato l’allineamento tra i due profili e viene scartata la bounding box in cui i profili non sono allineati.
Queste fasi permettono di limitare i “falsi positivi”, ovvero di classificare come oggetti di interesse, ad esempio volatili, elementi in movimento che potrebbero non esserlo, ad esempio le fronde di un albero.
Ulteriori vantaggi e caratteristiche della presente invenzione saranno maggiormente evidenti nella descrizione dettagliata che segue, fatta con riferimento ai disegni allegati, che ne rappresentano un esempio non limitativo di esecuzione, in cui:
la figura 1 illustra uno schema di una realizzazione preferita del metodo secondo la presente invenzione;
la figura 2 illustra una immagine su cui è applicato il rilevamento di vertici e angoli;
la figura 3 illustra due immagini successive in cui vengono individuati punti corrispondenti;
la figura 4 illustra una immagine risultante dall’applicazione di una sogliatura; la figura 5 illustra un’immagine su cui vengono applicate bounding box;
la figura 6 illustra l’estrazione di profili da due bounding box.
Nella figura 1 è rappresentato lo schema di una realizzazione preferita del metodo secondo la presente invenzione.
Il metodo di rilevamento di oggetti in movimento prevede che venga realizzato un filmato (o video) di uno spazio di osservazione.
Secondo l’invenzione il metodo di rilevamento comprende la fase 1 di estrarre almeno una prima immagine (f1) e almeno una seconda immagine (f2) dal filmato.
Le immagini (frame) che compongono il video sono a colori, costituite da pixel. In particolare la risoluzione è di 1280x720 pixel con framerate variabile tra i 24 e i 60 frame/secondo.
Preferibilmente la seconda immagine (f2) è consecutiva rispetto alla prima immagine (f1).
La fase 2 prevede di rilevare una serie di punti corrispondenti a vertici e angoli presenti nella prima immagine (f1) e nella seconda immagine (f2).
Vantaggiosamente il rilevamento dei punti viene effettuato applicando l’algoritmo FAST (Features from accelerated segment test ) per il rilevamento (detection) di angoli.
La Figura 2 rappresenta l’applicazione dell’algoritmo FAST ad un frame, in cui ogni cerchio corrisponde ad un punto di interesse.
Nella fase 3 a partire dai punti individuati, vengono estratti dei vettori di caratteristiche (feature vector), cioè vettori numerici n-dimensionali di caratteristiche dell’oggetto, in particolare uno per ogni punto individuato. Vantaggiosamente viene utilizzato il descrittore BRISK (Binary Robust Invariant Scalable Keypoints), che è invariante alla scala ed alla rotazione, una proprietà che è adatta al caso in cui la scena può subire variazioni di scala e rotazione dovute al movimento del dispositivo di ripresa, ad esempio una telecamera installata su un drone.
Nella fase 4 vengono individuati punti corrispondenti nella prima immagine (f1) e nella seconda immagine (f2). Viene fatto un matching, ad esempio utilizzando l’algoritmo KNN k-nearest neighbors tra i punti e i descrittori estratti dai due frame (f1), (f2) in modo da individuare punti corrispondenti nelle due scene. Nella Figura 3 è rappresentata la corrispondenza individuata tra i punti di due frame consecutivi, in cui ogni punto individuato in un frame è collegato da un segmento con il corrispettivo punto nel frame successivo.
Una volta individuate le corrispondenze, queste vengono utilizzate nella fase 5 per stimare l’omografia, ovvero la trasformazione geometrica che consente di effettuare una registrazione tra la prima immagine (f1) e la seconda immagine (f2), cioè allineare/sovrapporre le due immagini che inquadrano la stessa scena da due punti di vista diversi.
La fase 6 prevede di applicare digitalmente una deformazione (warping) della seconda immagine (f2) in base all'omografia per ottenere una seconda immagine deformata (f2_w).
Nella fase 7 viene calcolata la differenza tra i singoli pixel tra la seconda immagine deformata (f2_w) e la prima immagine (f1) per individuare i pixel che variano.
Viene quindi ottenuta una terza immagine (diff) dal confronto tra la seconda immagine deformata (f2_w) e la prima immagine (f1).
Preferibilmente all’immagine (diff) ottenuta dalla differenza tra la seconda immagine deformata (f2_w) e la prima immagine (f1), nella fase 8 viene applicato un filtro passa basso (LP) per eliminare le alte frequenze presenti nell’immagine che possono essere causate da artefatti dovuti alla compressione dell’immagine.
In una forma realizzativa preferita, nella fase 9 viene effettuata una sogliatura (thresholding) per evidenziare i pixel che si differenziano tra i due frame.
La sogliatura è un processo di segmentazione dell’immagine che a partire da un'immagine a livelli di grigio, restituisce un'immagine binaria in bianco e nero.
Vantaggiosamente viene applicato il metodo Otsu di sogliatura automatica dell’istogramma delle immagini (TH), che rappresenta in modo grafico la distribuzione tonale di un'immagine digitale. Tale metodo presume che nell'immagine da sogliare siano presenti due sole classi e quindi calcola la soglia ottima per separare queste due classi minimizzando la varianza intra classe.
La Figura 4 mostra l’immagine risultante dalla sogliatura, in cui in nero sono rappresentati i pixel che maggiormente si differenziano nella scena, in bianco invece quelli che non cambiano.
Le fasi 8 e 9 possono essere assenti, può essere presente una sola delle due, o possono essere presenti entrambe.
Secondo l’invenzione, nella fase 10 (Finding Contours) sulla terza immagine (diff) o sulla immagine ottenuta dalla sogliatura o dall’applicazione del filtro vengono individuati tutti i contorni (bounding box) relativi a gruppi di pixel contigui tra loro. La Figura 5 mostra l’immagine in cui dei rettangoli (bounding box) sono stampati sui contorni individuati.
Secondo l’invenzione, nella fase 11 viene calcolato il flusso ottico (optical flow) a partire dalla prima immagine (f1) e dalla seconda immagine deformata (f2w). La fase 11 può essere contemporanea, precedente o successiva alle fasi 8-10.
In una realizzazione vantaggiosa, il flusso ottico viene calcolato utilizzando il metodo Farnebäck. Tale metodo è descritto nell’articolo di Gunnar Farnebäck "Two-Frame Motion Estimation Based on Polynomial Expansion”.
Dal flusso ottico viene estratta una matrice corrispondente all'intensità del flusso ottico.
La matrice estratta può essere visualizzata in un’immagine in cui diversi colori indicano l’intensità del flusso ottico.
In una realizzazione vantaggiosa viene prevista una fase 12 in cui per ogni bounding box (bb) estratta, viene controllata l’area del rettangolo e il rapporto tra i lati per assicurarsi che l’elemento individuato non sia troppo piccolo o troppo grande e che la disposizione dei pixel non sia troppo allungata.
Se tale condizione non è verificata, la bounding box (bb) viene scartata.
Secondo l’invenzione, nella fase 13 per ogni bounding box (bb) applicata alla terza immagine (diff), viene verificato che l'intensità del flusso ottico (corrispondente all’intensità del movimento) di un gruppo di pixel rilevato (che potrebbe essere un oggetto di interesse) sia maggiore dell'intensità media dei pixel circostanti (cioè che si muova in modo diverso rispetto ad elementi dello sfondo, che potrebbe anche essere in movimento). Se l’intensità del flusso ottico del gruppo di pixel contigui, corrispondente all’intensità del movimento del possibile oggetto di interesse, non è maggiore dell’intensità media dei pixel circostanti, la bounding box (bb) viene scartata.
Nella fase 14 per ogni bounding box (bb) viene applicato un blob detector per individuare la presenza di blob all’interno della singola bounding box (bb) che fa parte della terza immagine (diff), ovvero di punti e/o regioni nell’immagine che differiscono in proprietà come luminosità o colore comparati con l'ambiente.
Nella fase 15, se non è presente nessun blob, la bounding box (bb) viene scartata.
Preferibilmente la bounding box (bb) viene scartata anche nel caso in cui siano presenti più di un blob, considerando valida per il rilevamento la bounding box (bb) in cui è presente un solo blob.
Secondo una realizzazione vantaggiosa, viene prevista una fase 16 in cui per ogni bounding box (bb) non scartata vengono estratti due profili lungo gli assi di riferimento X e Y. Questo viene fatto sommando il valore dei pixel lungo i due assi dell’immagine. Si controlla quindi nella fase 17 che i due profili siano ben allineati, per verificare che il blob sia convesso. Se i profili non sono allineati, la bounding box (bb) viene scartata.
La Figura 6 mostra due esempi di estrazione dei profili, il primo a sinistra in cui i due profili non sono allineati e quindi la bounding box (bb) viene scartata e quello a destra dove invece il controllo dei profili ha dato esito positivo e quindi la bounding box (bb) viene considerata come detection valida.
La bounding box (bb) che non viene scartata viene considerata come rilevamento (detecion) valido.
Il metodo secondo la presente invenzione permette quindi di rilevare determinati oggetti in movimento, anche piccoli.
Inoltre, poiché può essere implementato a partire da un video acquisito da una telecamera in movimento, permette di utilizzare filmati ripresi in prossimità dell’oggetto in movimento e quindi di rilevare gli elementi effettivamente di interesse.

Claims (12)

  1. RIVENDICAZIONI 1. Metodo di rilevamento di oggetti in movimento comprendente le fasi di: -estrarre almeno una prima immagine (f1) e almeno una seconda immagine (f2) da un filmato di uno spazio di osservazione; -rilevare punti corrispondenti a vertici e angoli presenti nella prima immagine (f1) e nella seconda immagine (f2); -a partire dai punti individuati, estrarre almeno un vettore di caratteristiche, in particolare estrarre un vettore di caratteristiche per ogni punto individuato; -individuare punti corrispondenti nella prima immagine (f1) e nella seconda immagine (f2); -determinare l’omografia per effettuare una registrazione tra la prima immagine (f1) e la seconda immagine (f2); -applicare una deformazione (warping) della seconda immagine (f2) in base all'omografia per ottenere una seconda immagine deformata (f2_w); -calcolare la differenza tra i singoli pixel tra la seconda immagine deformata (f2_w) e la prima immagine (f1) per individuare i pixel che variano; -ottenere una terza immagine (diff) dal confronto tra la seconda immagine deformata (f2_w) e la prima immagine (f1); -individuare sulla terza immagine (diff) una bounding box (bb) per ogni gruppo di pixel contigui tra loro; -calcolare il flusso ottico a partire dalla prima immagine (f1) e dalla seconda immagine deformata (f2w); -estrarre dal flusso ottico una matrice (mag) corrispondente all'intensità del flusso ottico; -per ogni bounding box (bb) applicata alla terza immagine (diff), verificare che l'intensità del flusso ottico di un gruppo di pixel rilevato sia maggiore dell'intensità media dei pixel circostanti; -scartare la bounding box (bb) se l’intensità del flusso ottico dell’oggetto non è maggiore dell’intensità media dei pixel circostanti ; -per ogni bounding box (bb) applicata alla terza immagine (diff) utilizzare un blob detector; -scartare la bounding box (bb) se non presenta blob; e -assegnare il rilevamento di un oggetto alle bounding box (bb) non scartate.
  2. 2. Metodo secondo la rivendicazione 1, caratterizzato dal fatto che la seconda immagine (f2) è consecutiva rispetto alla prima immagine (f1).
  3. 3. Metodo secondo la rivendicazione 1 o 2, caratterizzato dal fatto che nella fase di individuare punti corrispondenti nella prima immagine (f1) e nella seconda immagine (f2), ogni punto individuato nella prima immagine (f1) è collegato da un segmento con il corrispettivo punto nella seconda immagine (f2).
  4. 4. Metodo secondo la rivendicazione 1 o 2 o 3, caratterizzato dal fatto che prima di individuare una bounding box (bb) viene applicato un filtro passa basso per eliminare le alte frequenze presenti nella terza immagine (diff).
  5. 5. Metodo secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che prima di individuare una bounding box (bb) viene applicata alla terza immagine (diff) una sogliatura per evidenziare i pixel che si differenziano tra la seconda immagine deformata (f2_w) e la prima immagine (f1).
  6. 6. Metodo secondo la rivendicazione 5, caratterizzato dal fatto che viene utilizzato il metodo otsu di sogliatura automatica dell'istogramma delle immagini.
  7. 7. Metodo secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che il flusso ottico viene calcolato con il metodo Farnebäck.
  8. 8. Metodo secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che per ogni bounding box (bb) viene controllata l'area del rettangolo e il rapporto tra i lati.
  9. 9. Metodo secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto di scartare una bounding box (bb) se presenta più di un blob.
  10. 10. Metodo secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che dopo aver utilizzato il blob detector, per ogni bounding box (bb) non scartata vengono estratti due profili lungo rispettivi assi di riferimento (X, Y), viene controllato l’allineamento tra i due profili e viene scartata la bounding box (bb) in cui i profili non sono allineati.
  11. 11. Metodo secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che il filmato viene realizzato da un dispositivo in movimento.
  12. 12. Programma per elaboratore, caratterizzato dal fatto di comprendere istruzioni per l'esecuzione delle fasi del metodo secondo una qualsiasi delle rivendicazioni precedenti.
IT102019000007815A 2019-06-03 2019-06-03 Metodo per il rilevamento di oggetti in movimento IT201900007815A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT102019000007815A IT201900007815A1 (it) 2019-06-03 2019-06-03 Metodo per il rilevamento di oggetti in movimento
EP20736460.5A EP3977408A1 (en) 2019-06-03 2020-06-01 Method of detecting moving objects
US17/616,326 US20220327716A1 (en) 2019-06-03 2020-06-01 Method of detecting moving objects
PCT/IT2020/050138 WO2020245856A1 (en) 2019-06-03 2020-06-01 Method of detecting moving objects
CN202080041150.0A CN113994381A (zh) 2019-06-03 2020-06-01 检测移动物体的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102019000007815A IT201900007815A1 (it) 2019-06-03 2019-06-03 Metodo per il rilevamento di oggetti in movimento

Publications (1)

Publication Number Publication Date
IT201900007815A1 true IT201900007815A1 (it) 2020-12-03

Family

ID=67998671

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102019000007815A IT201900007815A1 (it) 2019-06-03 2019-06-03 Metodo per il rilevamento di oggetti in movimento

Country Status (5)

Country Link
US (1) US20220327716A1 (it)
EP (1) EP3977408A1 (it)
CN (1) CN113994381A (it)
IT (1) IT201900007815A1 (it)
WO (1) WO2020245856A1 (it)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11176682B2 (en) * 2019-11-27 2021-11-16 Nvidia Corporation Enhanced optical flow estimation using a varied scan order
CN113327269A (zh) * 2021-05-21 2021-08-31 哈尔滨理工大学 一种无标记颈椎运动检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110052003A1 (en) * 2009-09-01 2011-03-03 Wesley Kenneth Cobb Foreground object detection in a video surveillance system
US20190057588A1 (en) * 2017-08-17 2019-02-21 Bossa Nova Robotics Ip, Inc. Robust Motion Filtering for Real-time Video Surveillance

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
US9390514B2 (en) * 2011-06-09 2016-07-12 The Hong Kong University Of Science And Technology Image based tracking
US9141866B2 (en) * 2013-01-30 2015-09-22 International Business Machines Corporation Summarizing salient events in unmanned aerial videos
US9177224B1 (en) * 2013-03-14 2015-11-03 Amazon Technologies, Inc. Object recognition and tracking
WO2016050290A1 (en) * 2014-10-01 2016-04-07 Metaio Gmbh Method and system for determining at least one property related to at least part of a real environment
US9373174B2 (en) * 2014-10-21 2016-06-21 The United States Of America As Represented By The Secretary Of The Air Force Cloud based video detection and tracking system
US10002435B2 (en) * 2016-01-29 2018-06-19 Google Llc Detecting motion in images
US10402671B2 (en) * 2016-03-28 2019-09-03 General Dynamics Mission Systems, Inc. System and methods for automatic solar panel recognition and defect detection using infrared imaging
US9972158B2 (en) * 2016-10-01 2018-05-15 Cantaloupe Systems, Inc. Method and device of automatically determining a planogram in vending
US10453204B2 (en) * 2016-12-06 2019-10-22 Adobe Inc. Image alignment for burst mode images
CN111344716A (zh) * 2017-11-14 2020-06-26 奇跃公司 经由单应性变换适应的全卷积兴趣点检测和描述
CN109190581B (zh) * 2018-09-17 2023-05-30 金陵科技学院 图像序列目标检测识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110052003A1 (en) * 2009-09-01 2011-03-03 Wesley Kenneth Cobb Foreground object detection in a video surveillance system
US20190057588A1 (en) * 2017-08-17 2019-02-21 Bossa Nova Robotics Ip, Inc. Robust Motion Filtering for Real-time Video Surveillance

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Feature Matching + Homography to find a known object", 12 January 2019 (2019-01-12), http://amroamroamro.github.io/mexopencv/opencv/feature_homography_demo.html, XP055651162, Retrieved from the Internet <URL:https://web.archive.org/web/20190112142812/http://amroamroamro.github.io/mexopencv/opencv/feature_homography_demo.html> [retrieved on 20191210] *
LEZKI HAZAL ET AL: "Joint Exploitation of Features and Optical Flow for Real-Time Moving Object Detection on Drones", 29 January 2019, ROBOCUP 2008: ROBOCUP 2008: ROBOT SOCCER WORLD CUP XII; [LECTURE NOTES IN COMPUTER SCIENCE; LECT.NOTES COMPUTER], SPRINGER INTERNATIONAL PUBLISHING, CHAM, PAGE(S) 100 - 116, ISBN: 978-3-319-10403-4, XP047501663 *

Also Published As

Publication number Publication date
EP3977408A1 (en) 2022-04-06
WO2020245856A1 (en) 2020-12-10
CN113994381A (zh) 2022-01-28
US20220327716A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
US10496880B2 (en) Method and apparatus for comparing objects in images
US10503981B2 (en) Method and apparatus for determining similarity of objects in images
Zhi et al. Deep material-aware cross-spectral stereo matching
CN111462128B (zh) 一种基于多模态光谱图像的像素级图像分割系统及方法
Tiwari et al. A computer vision based framework for visual gun detection using SURF
US20180173940A1 (en) System and method for matching an object in captured images
US10579901B2 (en) Method, system and apparatus for comparing objects in images
Gálai et al. Feature selection for Lidar-based gait recognition
KR101021994B1 (ko) 물체 검출방법
Zhao et al. Early smoke detection of forest fire video using CS Adaboost algorithm
US10861172B2 (en) Sensors and methods for monitoring flying objects
IT201900007815A1 (it) Metodo per il rilevamento di oggetti in movimento
Tiwari et al. A survey on shadow detection and removal in images and video sequences
CN118015435B (zh) 基于移动计算平台的实时人脸抓拍方法及系统
CN104318216B (zh) 视频监控中跨盲区行人目标的识别匹配方法
Miller et al. Person tracking in UAV video
US20200394802A1 (en) Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool
Selvaraju et al. Support Vector Machine based Remote Sensing using Satellite Data Image
Benedek et al. Lidar-based gait analysis in people tracking and 4D visualization
RU2809945C2 (ru) Способ обнаружения движущихся объектов
Wronkowicz Vision diagnostics of power transmission lines: approach to recognition of insulators
KR101954404B1 (ko) 가변 문턱값을 이용한 반그림자 차량번호판 인식률 개선방법 및 그 방법을 위한 cctv 시스템
Jelača et al. Real-time vehicle matching for multi-camera tunnel surveillance
Campbell-West et al. Independent moving object detection using a colour background model
Jelaca et al. Image projection clues for improved real-time vehicle tracking in tunnels