IT201700021559A1 - Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti - Google Patents
Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondentiInfo
- Publication number
- IT201700021559A1 IT201700021559A1 IT102017000021559A IT201700021559A IT201700021559A1 IT 201700021559 A1 IT201700021559 A1 IT 201700021559A1 IT 102017000021559 A IT102017000021559 A IT 102017000021559A IT 201700021559 A IT201700021559 A IT 201700021559A IT 201700021559 A1 IT201700021559 A1 IT 201700021559A1
- Authority
- IT
- Italy
- Prior art keywords
- image
- laser light
- light beam
- map
- pixel
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000001514 detection method Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 13
- 238000003709 image segmentation Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000033001 locomotion Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000010339 dilation Effects 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 17
- 241001465754 Metazoa Species 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 108091008695 photoreceptors Proteins 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/484—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4868—Controlling received signal intensity or exposure of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)
Description
“Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti”
TESTO DI DESCRIZIONE
Campo tecnico
La descrizione riguarda il controllo di fasci laser. Una o più forme di realizzazione possono agevolare la protezione di oggetti foto-danneggiabili, ad esempio l'occhio umano, dal fascio di un sistema laser, ad esempio un sistema LIDAR, per esempio in applicazioni automobilistiche.
Stato dell’arte tecnologica
I sistemi LIDAR stanno sempre più giocando un ruolo in alcuni settori quali, ad esempio, il campo automobilistico.
Il fatto di facilitare la protezione degli occhi o di altri oggetti danneggiabili può, quindi, rappresentare una caratteristica interessante, quando si utilizzano ad esempio Sistemi LIDAR: veicoli e automobili sono spesso in stretta vicinanza con esseri viventi (ad esempio gli umani ed animali) che possono essere colpiti da un fascio LIDAR.
Un approccio comune per agevolare la protezione è basato sul mantenimento di un livello di potenza "sicuro per l’occhio". Questo può prevenire un’esposizione indesiderata di esseri viventi, con lo svantaggio di sacrificare intervallo di rilevamento: la distanza più lontana possibile rilevabile da un LIDAR è correlata alla potenza del fascio (ad esempio, il picco). Esempi di possibili relazioni distanza-potenza sono dati nella seguente tabella.
Distanza[m] 115 75 33 10 3,3
Potenza di 180 76 15 1,36 0,15
picco [W]
Un altro approccio comune può comportare la sostituzione di luce visibile, ad esempio con una lunghezza d'onda di circa 600 nm (1 nm = 10<-9>m), con luce nonvisibile, ad esempio con lunghezze d'onda di circa 1500 nm (nm= 10<-9>m). Queste lunghezze d'onda più lunghe possono avere il vantaggio di essere non-focalizzabili dall'occhio, il che può essere efficace nel prevenire qualsiasi danno, pur avendo lo svantaggio di utilizzare fotorecettori appropriati per tali lunghezze d'onda, che sono meno sensibili.
Per riassumere, gli approcci comuni, ad esempio in sistemi LIDAR, possono non essere in grado di fornire un intervallo elevato ed una precisione elevata, a causa di un compromesso intrinseco tra la potenza utilizzata, per eseguire la scansione della scena, e la precisione della della profondità stimata.
Inoltre, un approccio di rilevamento passivo per rilevare la comparsa di un oggetto sensibile può essere in grado di rilevare la presenza degli oggetti, solo dopo che essi sono stati esposti a un fascio di potenza elevata), misurando la potenza assorbita. Un approccio passivo può così essere intrinsecamente non in grado di affrontare il problema tecnico di proteggere, ad esempio un occhio umano, prima dell'esposizione a possibili situazioni indesiderate.
Scopo e sommario
Uno scopo di una o più forme di realizzazione è pertanto quello di agevolare la fornitura di sicurezza, superando gli inconvenienti delineati in quanto precede, ad esempio senza sacrificare l’intervallo di rilevamento/precisione.
Secondo una o più forme di realizzazione, un tale scopo può essere raggiunto mediante un procedimento avente le caratteristiche indicate nelle rivendicazioni che seguono.
Una o più forme di realizzazione possono includere un corrispondente dispositivo (ad esempio un dispositivo LIDAR), una corrispondente apparecchiatura corrispondente (ad esempio un sistema ADAS comprendente un tale dispositivo), nonché un prodotto informatico caricabile nella memoria di almeno un modulo di elaborazione (ad esempio, un computer) e comprendente porzioni di codice software per eseguire le fasi del metodo, quando il prodotto è eseguito su almeno un modulo di elaborazione. Come qui utilizzato, il riferimento ad un tale prodotto programma per computer è inteso equivalente al riferimento ad un mezzo leggibile al computer, contenente istruzioni per controllare il sistema di elaborazione, al fine di coordinare l'implementazione del metodo secondo una o più forme di realizzazione. Il riferimento ad "almeno un elaboratore" è diretto a mettere in luce la possibilità per una o più forme di realizzazione di essere implementate in forma modulare e/o distribuita.
Le rivendicazioni sono una parte integrante della descrizione dell'invenzione come qui fornita.
Una o più forme di realizzazione possono basarsi su un controllo laser, sulla base di informazioni visive, ad esempio un sistema accoppiato ad una fotocamera ed equipaggiato con uno strumento di elaborazione di immagini moderatamente potente.
Una o più forme di attuazione possono comportare di pre-analizzare una regione circostante e quindi di regolare (deflettendo e/o modulando la potenza di) un fascio laser, di conseguenza.
In una o più forme di realizzazione, per preservare la precisione, si può utilizzare una segmentazione di immagine precisa a livello di pixel ed un approccio di classificazione.
In una o più forme di realizzazione, il controllo del fascio si può basare sull'ambiente come acquisito, ad esempio, da una fotocamera.
Una o più forme di realizzazione possono essere applicate a vari contesti, in cui si possono rilevare aree fotosensibili ed un fascio laser può essere regolato di conseguenza.
Breve descrizione delle diverse viste dei disegni Una o più forme di realizzazione saranno ora descritte, a titolo puramente esemplificativo, con riferimento alle figure allegate, in cui:
- la Figura 1 è un diagramma a blocchi esemplificativo di una o più forme di realizzazione,
- le Figure 2 e 3 sono elaborazione di immagini esemplificativa, secondo una o più forme di realizzazione, e
- la Figura 4 è un diagramma a blocchi esemplificativo di una o più forme di realizzazione.
Descrizione dettagliata
Nella descrizione che segue si illustrano uno o più dettagli specifici, volti a fornire una comprensione approfondita di esempi di forme di realizzazione di questa descrizione. Le forme di realizzazione possono essere ottenute senza uno o più dei dettagli specifici oppure con altri metodi, componenti, materiali, ecc. In altri casi, strutture, materiali od operazioni note non sono né illustrate né descritte in dettaglio, così che certi aspetti delle forme di realizzazione non saranno oscurati.
Il riferimento a "una realizzazione" oppure "una (numero uno) forma di realizzazione” nel quadro della presente descrizione, è volto ad indicare che una particolare configurazione, struttura o caratteristica, descritta in relazione alla forma di realizzazione, è compresa in almeno una forma di realizzazione. Pertanto, frasi come "in una forma di realizzazione" o "in una (numero uno) forma di realizzazione”, che possono essere presenti in uno o più punti della presente descrizione, non si riferiscono necessariamente ad una ed alla medesima forma di realizzazione. Inoltre, particolari conformazioni, strutture o caratteristiche possono essere combinate in qualsiasi modo adeguato in una o più forme di realizzazione.
I riferimenti qui utilizzati sono forniti solo per comodità e, quindi, non definiscono l’entità della protezione o la portata delle forme di realizzazione.
Per tutta questa descrizione, si farà riferimento a vari documenti riproducendo tra parentesi quadre (es. [X]) un numero che identifica il documento in un elenco di documenti citati, che compare alla fine della descrizione.
In una o più forme di realizzazione, come esemplificato in Figura 1, l'apparecchiatura 10 può includere un dispositivo di elaborazione di immagini 100, che riceve un'immagine (ad esempio da un ambiente circostante di un veicolo a motore, non visibile nelle figure) da una o più fotocamere C.
In una o più forme di realizzazione, il dispositivo di elaborazione di immagini 100 può includere vari moduli di elaborazione come, ad esempio, un modulo di segmentazione di immagine 102, un modulo di rilevamento di un oggetto 104 ed un modulo etichettatore specifico per il dominio 106.
In una o più forme di realizzazione, questi moduli possono cooperare come discusso nel seguito, nella produzione di una mappa di occupazione di pixel 108, come funzione di un flusso ottico 110.
Le mappe di occupazione sono uno strumento utilizzato, ad esempio in robotica probabilistica, al fine di rappresentare una mappa (3D) di un ambiente come un campo uniformemente distanziato di variabili casuali binarie (ad esempio, come stime a posteriori approssimative per queste variabili casuali) che rappresentano la presenza di un ostacolo in corrispondenza di una posizione nell'ambiente.
In una o più forme di realizzazione, una mappa di occupazione di pixel come la 108 può fornire una mappa(2D) nello spazio dei pixel di una fotocamera, rappresentativa della zona circostante (ad esempio la zona circostante un’automobile) come un campo di variabili casuali binarie, indicante la presenza di un oggetto sensibile alla luce laser(ad esempio gli occhi di un pedone o un animale che passeggia con il pedone).
Il riferimento 200 indica un sistema di azionamento 200, che, in una o più forme di realizzazione, può includere, ad esempio, un controllore di fascio 202 (ad esempio, funzionante in un spazio LIDAR), un deflettore di fascio 204 ed un adattatore di potenza 206, volto a controllare un sistema laser 300 (ad esempio, un sistema LIDAR).
In una o più forme di realizzazione il sistema laser 300 può includere - in modo di per sé noto - una sorgente laser (possibilmente includente una matrice di generatori di luce laser), un modulo fotorecettore ed un modulo di calcolo per calcolare la distanza dagli oggetti, per riprodurre l'ambiente circostante.
In una o più forme di realizzazione, la mappa di occupazione di pixel 108 può essere fornita come uscita del dispositivo di elaborazione di immagini 100, per essere sfruttata dal sistema di azionamento 200 che (ad esempio, quando la traiettoria del fascio è in prossimità di aree sensibili, identificate nella mappa di occupazione di pixel 108) può agire su un fascio emesso dal sistema laser 300, ad esempio deflettendo il fascio mediante il deflettore di fascio 204 e/o attenuando la potenza del fascio, ad esempio mediante il modulatore di potenza 206.
Come indicato, le regioni sensibili destinate ad essere evitate nella mappa di occupazione di pixel 108 possono includere regioni, nelle immagini, situate in corrispondenza di un oggetto (ad esempio un essere umano oppure un animale) che può risentire negativamente della radiazione del sistema laser.
Solo per fare un esempio non limitativo riguardante il settore automobilistico, un tale oggetto può essere la testa (ad esempio, gli occhi) di uno o più pedoni che camminano sulle strisce pedonali davanti ad un’autovettura equipaggiata con un’apparecchiatura ADAS basata su LIDAR.
Si noterà che una o più forme di realizzazione possono fornire protezione, indipendentemente dal fatto che tali soggetti siano alti o bassi (ad esempio, bambini). Inoltre, la protezione può estendersi ad animali, ad esempio ad animali che passeggiano nelle vicinanze di un pedone.
Si apprezzerà tuttavia che, sebbene siano qui presentate come entità distinte, per semplicità e facilità d’illustrazione, in una o più forme di realizzazione alcune delle entità C, 100, 200, 300 possono essere incorporate in entità integrate, ad esempio con il dispositivo di elaborazione d’immagini 100 e/o il sistema di azionamento 200 integrati, rispettivamente, con la fotocamera C e con il sistema laser 300.
In una o più forme di realizzazione, la fotocamera C può essere utilizzata con una risoluzione acceleratore/adattatore di Grafica Video (VGA) di (640 x 480 pixel) o anche maggiore.
In una o più forme di realizzazione, la fotocamera (video) C può mostrare una velocità di frame elevata, ad esempio 30-60 fps (frame al secondo), al fine di minimizzare la latenza di rilevamento, cioè il ritardo tra la cattura di un'immagine ed il rilevamento delle regioni sensibili.
In una o più forme di realizzazione il dispositivo di elaborazione d’immagini 100 può ricevere come ingresso un’immagine ottenuta dalla fotocamera C e generare come uscita una voce nella mappa di occupazione di pixel 108.
In una o più forme di realizzazione, la mappa di occupazione di pixel 108 può includere un'immagine binaria, che memorizza le informazioni sull'ambiente circostante, e le regioni sensibili (ad esempio 1=sensibile, 0=non sensibile) possono essere generate sulla base di uno o più dei seguenti approcci:
- una segmentazione semantica d’immagine (ad esempio, il modulo 102),
- un rilevamento di oggetto (ad esempio, il modulo 104) per mezzo di una procedura di riconoscimento del livello di pixel, ed
- una segmentazione specifica del dominio (ad esempio, il modulo 106).
Ciascuno dei moduli precedenti (che può operare sulla base di principi noti nell'arte) può produrre una mappa di occupazione parziale, che può contribuire alla mappa di occupazione finale 108.
Una o più forme di realizzazione possono sfruttare solo uno dei moduli di rilevamento o dei sottosistemi 102, 104, 106 oppure, in alternativa, una loro combinazione parziale.
Ad esempio, in una o più forme di realizzazione, un operatore OR può essere applicato alle mappe di occupazione parziale, a partire dai moduli 102, 104, 106, per ottenere la mappa di occupazione di pixel finale 108. Pertanto, in varie forme di realizzazione un valore 1 (ad esempio, evitare) può essere presente nella mappa di occupazione finale 108 se almeno una delle mappe parziali mostra lo stesso valore.
In una o più forme di realizzazione, un altro approccio può essere di implementare vari sottosistemi/moduli in una disposizione a cascata: ad esempio, una tale possibile disposizione a cascata può includere segmentazione di immagine 102 (che restituisce informazioni su - dove - ad esempio, le persone si trovano) e rilevamento di oggetto 104 (riconoscendo, ad esempio, un'area in cui una faccia si può trovare nelle regioni già ottenute).
In un tale caso esemplificativo, le due mappe di occupazione parziale possono essere gestite come se fossero alimentate ad un operatore AND, in modo tale che la mappa di occupazione di pixel 108 corrisponderà all'ultima mappa di occupazione parziale nella cascata.
Questo approccio può essere più efficiente, in quanto il rilevamento di oggetto in cascata (ad esempio, il modulo 104) può essere eseguito solo su una regione precedentemente selezionata (ad esempio, nel modulo 102). Inoltre, questo approccio può essere più accurato poiché esso può ridurre il numero di falsi positivi (ad esempio, una presenza di un volto quando non si rileva alcuna persona).
Un altro esempio di una tale elaborazione a cascata può includere:
- segmentazione d’immagine (ad empio in corrispondenza di 102), che fornisce informazioni sulla presenza di persone,
- rilevamento di oggetto (ad esempio, in corrispondenza di 104), che riconosce la presenza di un volto, e
- una segmentazione d’immagine più specifica (ad esempio, eseguita ancora in corrispondenza di 102), come ad esempio un classificatore oculare.
In una semplice implementazione di una o più forme di realizzazione, regioni sensibili che racchiudono un oggetto rilevato possono includere una forma rettangolare, che si trova attorno all'oggetto sensibile.
In approcci più complessi, in una o più forme di realizzazione, il dispositivo di elaborazione d’immagini 100 può sfruttare Modelli cosiddetti di Active Appearance (si veda, ad esempio [2]), che sono in grado di eseguire un adattamento attorno alla forma dell'oggetto, come ad esempio il rilevamento di punti di riferimento facciali (si veda, ad esempio [3]), che possono restituire un insieme di punti attorno agli occhi ed alla bocca, che possono essere utilizzati per generare una mappa di occupazione ragionevolmente precisa 108.
Una o più forme di realizzazione possono sfruttare un approccio di segmentazione specifica del dominio (ad esempio, il modulo 106), includente ad esempio, un algoritmo di segmentazione della pelle (si veda, ad esempio, [4]), del tipo usato nell’identificazione, in modo affidabile, di mani e volti in immagini. Come nei casi precedentemente discussi, una mappa di occupazione parziale può essere generata, rilevando ad esempio regioni di pelle/non di pelle e selezionando etichette sensibili.
In una o più forme di realizzazione, il modulo 102 nel dispositivo di elaborazione di immagini 100 può includere procedure di segmentazione veloci ed accurate (di qualsiasi tipo noto, si veda ad esempio [1]), che possono anche essere personalizzate per un'applicazione corrente: queste procedure possono essere configurate per rilevare non solo volti, ma anche, ad esempio, elementi specifici in un volto, come gli occhi.
Per esempio, un tale procedura di segmentazione (semantica) di immagine può ricevere come ingresso un'immagine dalla fotocamera C e restituire un'immagine di uscita con etichette selezionate 0...L, dove L è il numero di oggetti che la segmentazione può riconoscere.
Solo a titolo di esempio esemplificativo, L=4 può essere 1=sky, 2=strada, 3=persona, 4=albero, 0=non noto (quando una classe non può essere assegnata con sicurezza).
Come ulteriore esempio esplicativo, un insieme di una o più di tali etichette av={L1, ..., Lk}, ad esempio persona e/o cane, può essere identificato come sensibile ed una mappa di occupazione di pixel parziale può essere impostata ad esempio a uno, nelle regioni corrispondenti a queste etichette sensibili, che ricadono all’interno dell’insieme di etichette Av.
Naturalmente, quelli qui forniti sono semplici esempi di un possibile flusso del processo di segmentazione dell'immagine, con le classi adatte ad essere più specifiche, ad esempio parti del corpo in cui le aree sensibili sono riconosciute essere gli occhi.
Una o più forme di realizzazione possono quindi comprendere la generazione di una mappa di occupazione di pixel 108 che fornisce informazioni sulla classe di un oggetto e l’affidabilità della predizione calcolata.
Ad esempio, una o più forme di realizzazione possono non essere limitate a mappe di occupazione parziale o di pixel 108 che sono "binarie" (cioè, 1 = evitare; 0 = non evitare). In una o più forme di realizzazione il dispositivo di elaborazione d’immagini 100 può generare una sorta di mappa di occupazione di pixel 108 "fuzzy”, che indica ad esempio un livello del possibile effetto negativo o anche mantiene un’informazione su altre caratteristiche operative che possono essere utilizzate dal sistema di azionamento 200.
Una o più forme di realizzazione possono trarre vantaggio dall'efficienza della fase di elaborazione di immagine, ad esempio mediante elaborazione, nel sistema 100, comparabile con (ed opzionalmente più veloce di) la velocità alla quale il fascio del sistema laser 300 scansiona l'ambiente circostante.
In una o più forme di realizzazione, ciò può essere ottenuto mediante tecniche che sono note nell’arte, come Reti Neurali di Convoluzione(CNN) per il riconoscimento di oggetti e la segmentazione di immagini, che possono raggiungere una velocità di 30-40 miliardi di operazioni per frame (circa 1 TPOS - Tera Operazioni Al Secondo).
Una o più forme di realizzazione possono adottare piattaforme ad elevate prestazioni, come già proposto per Sistemi Avanzati di Assistenza alla Guida (ADAS): NVIDIA, che promuove una piattaforma PX2 che lavora a 24 TOPS, e Mobileye, che promuove una piattaforma EyeQ5 che lavora a 12 TOPS, possono essere esemplificative di tali piattaforme.
In una o più forme di realizzazione, la coerenza temporale è un fattore che può essere considerato nella regolazione del fascio 200.
Il dispositivo di elaborazione d’immagini 100 può mostrare una latenza intrinseca dovuta alla velocità fissa alla quale l'immagine viene acquisita e/o alla velocità con la quale ciascun pixel può essere elaborato. Una tale latenza può non essere eliminata, anche quando si considera un possibile scenario ideale di elaborazione che avvenga simultaneamente alla lettura dei pixel dell’immagine, in quanto l'elaborazione sarà vincolata dalla velocità di lettura dei pixel. Inoltre, il fascio laser può effettuare la scansione della scena alla propria velocità indipendente, così che la deflessione possa avvenire ad esempio decine di millisecondi dopo che la mappa di occupazione 108 sia stata generata. La mappa di occupazione 108 può pertanto risultare obsoleta dopo quel periodo di tempo e può non rispecchiare in modo soddisfacente la posizione attuale di un oggetto da proteggere.
In una o più forme di realizzazione, quel problema può essere risolto utilizzando un’occupazione di pixel attuale, come base per il calcolo di una mappa di occupazione successiva.
In una o più forme di realizzazione, un tale approccio può essere implementato tramite un flusso ottico della scena, ad esempio stimato da coppie di frame, come rappresentato dal blocco 110 in Figura 1.
In una o più forme di realizzazione, la posizione di un oggetto, al momento della scansione LIDAR, può essere stimata estrapolando la mappa di occupazione 108' dalla mappa di occupazione di pixel 108 al momento dell'acquisizione del frame, utilizzando un campo denso di vettori di movimento.
Modalità di calcolo di flusso ottico sono state attualmente considerate, per l'uso in sistemi ADAS (Sistemi Avanzati di Assistenza alla Guida).
A titolo di spiegazione esemplificativa di un possibile funzionamento di tali modalità eventualmente utilizzate in una o più forme di realizzazione, una mappa di occupazione di pixel 108 può essere rappresentata da un’ellisse di pixel come illustrato in Figura 2.
Una mappa di occupazione 108’ stimata (ad esempio, estrapolata), illustrata con una seconda ellisse di pixel, può rappresentare una possibile variazione della mappa dopo un ritardo stimato tra l’istante in cui la mappa di occupazione 108 è generata e l’istante il cui la regione può essere esposta al fascio laser.
Un vettore di movimento stimato (ad esempio V(x,y) -in pixel al secondo) può essere calcolato per ciascun pixel, con il vettore eventualmente variabile sensibilmente da un pixel all'altro. Un ritardo stimato Δt può essere usato unitamente al vettore di movimento stimato, per calcolare la mappa di occupazione estrapolata 108' a partire dalla mappa di occupazione 108: ad esempio, la mappa di occupazione 108 può essere spostata di, ad esempio, v(x,y) * Δt pixel, dando luogo alla mappa di occupazione estrapolata 108'.
Il movimento di pixel, come descritto in precedenza, è esemplificato in Figura 2 mediante frecce 18. Le frecce partono in corrispondenza di un pixel, nella mappa di occupazione 108, e puntano ad un pixel corrispondente alla stessa caratteristica nella mappa di occupazione estrapolata 108'.
In una o più forme di realizzazione, si può considerare un certo grado d’incertezza, ad esempio usando un operatore morfologico di dilatazione 18', con raggio pari alla deviazione standard della stima, ad es. 5 pixel, cioè la deviazione standard riguarda l'incertezza di estrapolazione, ad esempio utilizzando la deviazione standard media dei vettori di movimento, in un intorno di un pixel. Come esemplificato in Figura 3, l’operazione di dilatazione può utilizzare l’operatore morfologico di dilatazione 18' per sondare ed espandere i confini della mappa di occupazione estrapolata 108', per calcolare una mappa di occupazione finale 108'', tenendo conti di incertezze.
In una o più forme di realizzazione, un tale flusso ottico 110 può fornire un meccanismo di retroazione, con la mappa di occupazione finale 108'' dipendente dalla mappa di occupazione 108 calcolata in precedenza e dai vettori di movimento della scena.
In una o più forme di realizzazione, la mappa di occupazione di pixel finale, ad esempio 108'', 108' oppure 108, è convertita dal controllore di fascio 202, per calcolare una mappa dello spazio che viene utilizzata per modificare (ad esempio, tramite i moduli 204, 206) il fascio del sistema laser 300 che scansiona l'ambiente circostante.
Ad esempio, in condizioni di funzionamento normale, tale fascio esegue la scansione dell'ambiente circostante linea per linea con una frequenza elevata, nella direzione orizzontale, ed una frequenza inferiore, nella direzione verticale. Il fascio emesso può essere riflesso in corrispondenza dell’oggetto "target" e tale riflessione può essere misurata, mediante un fotorecettore, ad esempio un FotoDiodo a Valanga (APD).
Il ritardo tra l'emissione di un impulso luminoso ed il rilevamento di una corrispondente "eco" da un oggetto target, mediante un fotorecettore, può essere utilizzato per stimare la distanza dell'oggetto, per mezzo di un approccio TOF - Tempo Di Volo. Tale approccio è ben noto nell’arte ed è calcolato come una funzione di velocità (della luce), distanza e tempo.
In una o più forme di realizzazione il deflettore di fascio 204 può implementare due diversi tipi di controlli:
- un primo, che può essere utilizzato in condizioni normali di funzionamento TOF,
- un secondo, che può essere utilizzato nel caso in cui venga rilevata una regione sensibile, al fine di evitare l'esposizione della regione al fascio laser.
In una o più forme di realizzazione, questi due tipi differenti di controlli possono essere implementati tramite diverse unità di deflessione di fascio, ad esempio una per i movimenti di scansione "normale" ed una per un’operazione "evitare". Un tale approccio può agevolare il disaccoppiamento del funzionamento TOF del sistema 300, rispetto all'altro controllo o agli altri controlli di deflessione del fascio.
In una o più forme di realizzazione, questi due diversi tipi di controlli possono ricorrere a diverse tecniche di deflessione del fascio.
Ad esempio in una o più forme di realizzazione, basate su una matrice ottica in fase (si veda, ad esempio, [5]), una matrice LIDAR può essere implementata su un Circuito Integrato Fotonico (PIC) con un angolo di deflessione massimo di, ad esempio, 51°. Mentre nelle implementazioni convenzionali la frequenza di "sintonizzazione" associata può essere, ad esempio, 100 Hz, sono note modalità nell’arte (si veda, ad esempio, [6]) con frequenze di funzionamento nell’intervallo di ad esempio 40 MHz, che è ben nell’intervallo di funzionamento delle forme di realizzazione qui esemplificate. Un altro possibile approccio (si veda, ad esempio [7]) può includere un laser passivo ed uno stadio di amplificazione della luce integrati nello stesso chip, generando un sistema completamente integrato con una frequenza di sintonizzazione elevata (50 MHz). Altre soluzioni possono ammettere frequenze di sintonizzazione nell’intervallo di 60 GHz, per mezzo di dispositivi al silicio adeguatamente progettati.
Inoltre, in una o più forme di realizzazione, specchi o prismi girevoli possono essere utilizzati per creare un fascio di deflessione, che può essere controllato da un Sistema Micro-ElettroMeccanico (MEMS) o da un Modulatore Acusto-Ottico (AOM).
In una o più forme di realizzazione, un modello a guida d'onda può essere usato come fascio di deflessione, in cui la deviazione è controllata dalla luce di polarizzazione, ad esempio tramite un materiale birifrangente (si veda, ad esempio, [8]).
Una o più forme di realizzazione possono utilizzare un singolo fascio invece di una matrice di laser, per molti vantaggi ad esempio consumo energetico inferiore, regolazione adattabile e la capacità di controllare, in corrispondenza di ciascuna fase, la direzione del fascio.
Per riassumere, una vasta gamma di modalità di scansione del raggio laser, attualmente disponibili nell’arte, può conformarsi ai requisiti di funzionamento di una o più forme di realizzazione.
Ancora a titolo di riferimento esemplificativo, in un'applicazione con risoluzione di 2 megapixel e 30 fps di velocità di scansione, ciascuna linea può essere scansionata con almeno una frequenza di 30 kHz e ciascun pixel viene scansionato con una frequenza di 60 MHz.
Inoltre, si può ragionevolmente assumere che le aree sensibili non saranno limitate alla dimensione di un pixel, ma possono includere ad esempio decine di pixel o più, così che la frequenza in corrispondenza della quale avviene l'esposizione sarà di circa 6 MHz. La specifica per la velocità di risposta del fascio di deflessione è, pertanto, 6 MHz (o superiore) che è pienamente compatibile con le varie implementazioni discusse sopra.
Una o più forme di realizzazione, come esemplificate in Figura 4, possono essere implementate per l’uso in Sistemi Avanzati di Assistenza alla Guida (ADAS), che tipicamente si basano sull'uso di più fotocamere a grandangolo sincronizzate Ca, Cb,..., Cn e/o sulla sintesi di una vista a 360°, cioè una vista in tutte le direzioni che circondano, ad esempio, l’automobile. Tali sistemi possono essere in grado di coprire la totalità dei possibili punti ciechi di, ad esempio, un conducente.
In una o più forme di realizzazione, ad esempio in sistemi a grandangolo, più di una fotocamera Ca, Cb, ..., Cn può fornire immagini al dispositivo di elaborazione di immagini 100. In una o più forme di realizzazione, l’elaborazione d’immagini può essere eseguita su viste sintetizzate, basate su spazi normalizzati ottenuti dalla proiezione normale 112a,..., 112n delle immagini acquisite dalle diverse fotocamere Ca, Cb,..., Cn.
In una o più forme di realizzazione, per esempio in sistemi a grandangolo, più ingressi di fotocamera possono essere fusi insieme e diverse unità LIDAR possono essere controllate da uno medesimo pixel della mappa di occupazione 108.
L’attesa della sintesi di una vista ad alta risoluzione accurata può influenzare la latenza in modo non desiderato; in una o più forme di realizzazione, ad esempio una volta che le fotocamere sono calibrate, possono essere disponibili una mappa da una fotocamera ed uno spazio di pixel normalizzato, da applicare prima che un intero frame venga acquisito; inoltre, le reti neurali convoluzionali (CNN), che possono essere utilizzate per la segmentazione, possono comportare convoluzioni locali per calcolare una mappa di segmentazione e pertanto, per poter funzionare, non richiedono che un’intera immagine sia disponibile.
In una o più forme di realizzazione, la mappa di occupazione di pixel 108 può pilotare più sistemi laser 300a, 300b, ..., 300n. A scopo di chiarezza e di semplicità, questi sono esemplificati per essere in numero uguale a quello delle fotocamere rappresentate nel sistema 10; tuttavia in una o più forme di realizzazione il numero di sistemi laser 300 può essere diverso dal numero di fotocamere C.
In Figura 4, numeri di riferimento 202, 204 e 300 indicano ancora controllori di fascio, deflettori di fascio e sistemi laser come quelli incontrati in Figura 1, rendendo così non necessario spiegare ulteriormente la loro natura. In Figura 4 la lettera in pedice mette in evidenza la presenza di più di un sistema laser con un controllo associato.
Le tecnologie LIDAR basate su fotonica integrata possono presentare un intervallo angolare limitato (ad esempio 50°); una o più forme di realizzazione possono quindi utilizzare più unità LIDAR con copertura sovrapposta, con una mappa dei pixel proiettati nello spazio di lavoro di ciascuna unità separata (si vedano, ad esempio, nei diagrammi delle Figure 2 e 3).
Ancora, come già notato in precedenza, in una o più forme di realizzazione, i singoli blocchi come esemplificati nelle Figure, possono essere sia suddivisi oppure integrati come risulta più conveniente, in vista dell’applicazione prevista.
In una o più forme di realizzazione, un metodo può includere:
- ricevere (ad esempio, 100) almeno una immagine (ad esempio, C) di un ambiente attorno ad una sorgente di fascio di luce laser (es. 300), come un sistema LIDAR in un sistema ADAS in un veicolo a motore,
- elaborare (ad esempio, 102, 104, 106) l’almeno una immagine, rilevando in essa la presenza di almeno una regione sensibile alla luce laser (ad esempio gli occhi di un essere umano o di un animale) e calcolare una mappa di occupazione di pixel (ad esempio, 108) indicativa della posizione di detta almeno una regione nell’almeno un'immagine, e
- controllare (ad esempio, 200) la sorgente del fascio di luce laser in funzione di detta mappa di occupazione di pixel.
In una o più forme di realizzazione, controllare la sorgente del fascio di luce laser, come funzione di detta mappa di occupazione di pixel, può includere almeno uno tra:
- deflettere (ad esempio, 204) il fascio di luce laser in allontanamento da detta almeno una regione sensibile alla luce laser, e/o
- ridurre (ad esempio, 206) l’intensità del fascio di luce laser diretto verso detta almeno una regione sensibile alla luce laser.
In una o più forme di realizzazione, calcolare detta mappa di occupazione di pixel può includere di applicare, all'almeno una immagine, almeno una tra:
- segmentazione semantica d’immagine (ad esempio, 102), e/o
- rilevamento di oggetto (ad esempio, 104), e/o
- segmentazione specifica del dominio (ad esempio, 106).
In una o più forme di realizzazione, calcolare detta mappa di occupazione di pixel può includere:
- i) calcolare una pluralità di mappe di occupazione parziale (ad esempio, 102, 104, 106) applicando all'almeno una immagine una tra:
- segmentazione semantica d’immagine, e/o
- rilevamento di oggetto, e/o
- segmentazione specifica del dominio,
- ii) calcolare detta mappa di occupazione di pixel come combinazione di mappe di occupazione parziale, da detta pluralità di mappa di occupazione parziale.
Una o più forme di realizzazione possono includere: - calcolare dette mappe di occupazione parziale come mappe binarie,
- calcolare detta mappa di occupazione di pixel come una combinazione logica (ad esempio OR oppure AND) di dette mappe di occupazione parziale, da detta pluralità di mappe di occupazione parziale.
Una o più forme di realizzazione possono includere: - ricevere una sequenza temporale di immagini di detto ambiente attorno ad una sorgente di fascio di luce laser, - applicare una stima di vettore di movimento (ad esempio 18) ad una mappa di occupazione di pixel per un'immagine in detta sequenza, per calcolare una mappa di occupazione stimata (ad esempio, 108'; 108" nelle Figure 2 e 3) per un’immagine successiva in detta sequenza.
Una o più forme di realizzazione possono includere di applicare, a detta mappa di occupazione stimata, un operatore di dilatazione (ad esempio, 18').
Una o più forme di realizzazione possono includere: - ricevere immagini dell'ambiente attorno alla sorgente di fascio di luce laser, da una pluralità di sorgenti d’immagine (ad esempio fotocamere Ca, Cb, ..., Cn),
- proiettare in uno spazio normalizzato (ad esempio, 112a, ..., 112n) le immagini da detta pluralità di sorgenti di immagine, e
- calcolare detta mappa di occupazione di pixel dalle immagini proiettate in detto spazio normalizzato.
Un dispositivo secondo una o più forme di realizzazione può includere:
- un ricevitore per ricevere almeno un’immagine di un ambiente attorno ad una sorgente di fascio di luce laser, - un elaboratore accoppiato al ricevitore, per rilevare la presenza di almeno una regione sensibile alla luce laser, nell’almeno un’immagine, e calcolare una mappa di occupazione di pixel indicativa della posizione di detta regione nell’almeno un'immagine, e
- un controllore per controllare la sorgente del fascio di luce laser, in funzione di detta mappa di occupazione di pixel,
in cui il dispositivo è configurato per funzionare con il metodo di una o più forme di realizzazione.
Apparecchiatura secondo una o più forme di realizzazione, può includere:
- almeno un dispositivo di cattura d’immagine (ad esempio, una fotocamera C) per catturare almeno un’immagine di un ambiente attorno ad una sorgente di fascio di luce laser, e
- un dispositivo secondo una o più forme di realizzazione, il dispositivo accoppiato all’almeno un dispositivo di cattura dell’immagine, in cui il ricevitore nel dispositivo riceve detta almeno un’immagine dall’almeno un dispositivo di cattura dell’immagine (C).
Apparecchiatura secondo una o più forme di realizzazione, può inoltre includere detta sorgente di fascio di luce laser accoppiata a detto dispositivo, in cui la sorgente di fascio di luce laser è controllata da detto controllore, in funzione di detta mappa di occupazione di pixel.
In una o più forme di realizzazione:
- la sorgente di fascio di luce laser può includere una sorgente LIDAR, e/o
- il controllore può include almeno un deflettore di fascio selettivamente controllabile (ad esempio, "normale"/"da evitare") per eseguire la scansione di detto ambiente attorno alla sorgente di fascio di luce laser e per deflettere il fascio di luce laser in allontanamento da detta almeno una regione sensibile alla luce laser.
ELENCO DEI DOCUMENTI CITATI
[1] Paszke, A., Chaurasia, A., Kim, S., & Culurciello, E. (2016). ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation. Arxiv. Computer Vision and Pattern Recognition. Recuperato da http://arxiv.org/abs/1606.02147
[2] Cootes, T. (2001). Active Appearance Models. Pattern Analysis and Machine Intelligence, 23(6), 681–685.
[3] X. Zhu e D. Ramanan, “Face detection, pose estimation, and landmark localization in the wild” 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, RI, 2012, pagg. 2879-2886.
[4] P. Kakumanu, S. Makrogiannis, N. Bourbakis, “A survey of skin-color modeling and detection methods” Pattern Recognition, Volume 40, Numero 3, Marzo 2007, Pagine 1106-1122.
[5] M. R. Watts, “Towards an Integrated Photonic LIDAR Chip” in Imaging and Applied Optics 2015, OSA Technical Digest (online) (Optical Society of America, 2015), paper AIW4C.1.
[6] W. Ronny Huang, Juan Montoya, Jan E. Kansky, Shawn M. Redmond, George W. Turner, ed Antonio Sanchez-Rubio, “High speed, high power one-dimensional beam steering from a 6-element optical phased array” Opt. Express 20, 17311-17318 (2012)
[7] J. C. Hulme, J. K. Doylend, M. J. R. Heck, J. D. Peters, M. L. Davenport, J. T. Bovington, L. A. Coldren, and J. E. Bowers “Fully integrated hybrid silicon freespace beam steering source with 32 channel phased array” in SPIE OPTO. International Society for Optics and Photonics, San Francisco (CA), Febbraio 2014.
[8] S. Slussarenko, A. Alberucci, C. P. Jisha, B. Piccirillo, E. Santamato, G. Assanto e L. Marrucci “Guiding light via geometric phases”, Nature Photonics vol. 10, 571-575 (2016).
Fatti salvi i principi di base, i dettagli e le forme di realizzazione possono variare, anche in modo significativo, rispetto a quanto è stato divulgato a solo titolo d’esempio, senza discostarsi dalla portata di protezione.
La portata della protezione è definita dalle annesse rivendicazioni.
Claims (13)
- RIVENDICAZIONI 1. Procedimento includente: - ricevere (100) almeno un’immagine (C) di un ambiente attorno ad una sorgente di fascio di luce laser (300), - elaborare (100; 102, 104, 106) l’almeno un’immagine, rilevando in essa la presenza di almeno una regione sensibile alla luce laser e calcolare una mappa di occupazione di pixel (108), indicativa della posizione di detta almeno una regione nell’almeno un'immagine, e - controllare (200) la sorgente del fascio di luce laser (300) come funzione di detta mappa di occupazione di pixel (108).
- 2. Procedimento della rivendicazione 1, in cui controllare (200) la sorgente del fascio di luce laser (300), come funzione di detta mappa di occupazione di pixel (108), include almeno uno tra: - deflettere (204) il fascio di luce laser in allontanamento da detta almeno una regione sensibile alla luce laser, e/o - ridurre (206) l’intensità del fascio di luce laser diretto verso detta almeno una regione sensibile alla luce laser.
- 3. Procedimento della rivendicazione 1 o della rivendicazione 2, in cui calcolare detta mappa di occupazione di pixel (108) include applicare all'almeno una immagine (C) almeno una tra: - segmentazione semantica di immagine (102), e/o - rilevamento di oggetto (104), e/o - segmentazione specifica del dominio (106).
- 4. Procedimento di qualsiasi delle rivendicazioni da 1 a 3, in cui calcolare detta mappa di occupazione di pixel (108) include: - i) calcolare una pluralità di mappe di occupazione parziale (102, 104, 106) applicando all'almeno un’immagine (C) una tra: - segmentazione semantica d’immagine (102), e/o - rilevamento di oggetto (104), e/o - segmentazione specifica del dominio (106), - ii) calcolare detta mappa di occupazione di pixel (108) come combinazione di mappe di occupazione parziale (102, 104, 106), da detta pluralità di mappe di occupazione parziale (102, 104, 106).
- 5. Procedimento della rivendicazione 4, includente: - calcolare dette mappe di occupazione parziale (102, 104, 106) come mappe binarie, - calcolare detta mappa di occupazione di pixel (108) come una combinazione logica di dette mappe di occupazione parziale (102, 104, 106), da detta pluralità di mappe di occupazione parziale (102, 104, 106).
- 6. Procedimento di qualsiasi delle precedenti rivendicazioni, includente: - ricevere (100) una sequenza temporale d’immagini (C) di detto ambiente attorno ad una sorgente di fascio di luce laser (300), - applicare una stima di vettore di movimento (18) ad una mappa di occupazione di pixel (108) per un'immagine in detta sequenza, per calcolare una mappa di occupazione stimata (108'; 108") per un’immagine successiva in detta sequenza.
- 7. Procedimento della rivendicazione 6, includente applicare a detta mappa di occupazione stimata (108') un operatore morfologico di dilatazione (18').
- 8. Procedimento di qualsiasi delle precedenti rivendicazioni, includente: - ricevere (100) immagini (C) dell'ambiente attorno alla sorgente di fascio di luce laser (300), da una pluralità di sorgenti d’immagine (Ca, Cb, ..., Cn), - proiettare in uno spazio normalizzato (112a, ..., 112n) le immagini da detta pluralità di sorgenti di immagine (Ca, Cb,..., Cn), e - calcolare detta mappa di occupazione di pixel (108) dalle immagini proiettate in detto spazio normalizzato (112a, ..., 112n).
- 9. Dispositivo includente: - un ricevitore (100) per ricevere almeno un’immagine (C) di un ambiente attorno ad una sorgente di fascio di luce laser (300), - un elaboratore (100; 102, 104, 106) accoppiato al ricevitore (100), per rilevare la presenza di almeno una regione sensibile alla luce laser, nell’almeno un’immagine, e calcolare una mappa di occupazione di pixel (108), indicativa della posizione di detta regione nell’almeno un'immagine, e - un controllore (200) per controllare la sorgente del fascio di luce laser (300) come funzione di detta mappa di occupazione di pixel (108), in cui il dispositivo è configurato per funzionare con il metodo di qualsiasi delle rivendicazioni da 1 a 8.
- 10. Apparecchiatura, includente: - almeno un dispositivo di cattura d’immagine (C) per catturare almeno una immagine di un ambiente attorno ad una sorgente di fascio di luce laser (300), e - un dispositivo secondo la rivendicazione 9, il dispositivo accoppiato all’almeno un dispositivo di cattura d’immagine (C), in cui il ricevitore (100) nel dispositivo riceve detta almeno una immagine (C) dall’almeno un dispositivo di cattura d’immagine (C).
- 11. Apparecchiatura della rivendicazione 10, l’apparecchiatura includendo inoltre detta sorgente di fascio di luce laser (300) accoppiata a detto dispositivo, in cui la sorgente di fascio di luce laser (300) è controllata da detto controllore (200) in funzione di detta mappa di occupazione di pixel (108).
- 12. Apparecchiatura della rivendicazione 11, in cui: - la sorgente di fascio di luce laser (300) include una sorgente LIDAR, e/o - il controllore (200) include almeno un deflettore di fascio (204) selettivamente controllabile per eseguire la scansione di detto ambiente attorno alla sorgente di fascio di luce laser (300) e per deflettere il fascio di luce laser in allontanamento da detta almeno una regione sensibile alla luce laser.
- 13. Prodotto informatico, caricabile nella memoria di almeno un sistema di elaborazione (1000) e includente una porzione di codice software per eseguire il metodo di qualsiasi delle rivendicazioni da 1 a 8, quando il prodotto è eseguito su almeno un sistema di elaborazione.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102017000021559A IT201700021559A1 (it) | 2017-02-27 | 2017-02-27 | Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti |
US15/692,689 US10330779B2 (en) | 2017-02-27 | 2017-08-31 | Laser beam control method, corresponding device, apparatus and computer program product |
CN201710821323.0A CN108508450B (zh) | 2017-02-27 | 2017-09-13 | 激光束控制方法、对应的设备、装置以及计算机程序产品 |
EP17191314.8A EP3367132B1 (en) | 2017-02-27 | 2017-09-15 | A laser beam control method, corresponding device, apparatus and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102017000021559A IT201700021559A1 (it) | 2017-02-27 | 2017-02-27 | Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti |
Publications (1)
Publication Number | Publication Date |
---|---|
IT201700021559A1 true IT201700021559A1 (it) | 2018-08-27 |
Family
ID=59101622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT102017000021559A IT201700021559A1 (it) | 2017-02-27 | 2017-02-27 | Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti |
Country Status (4)
Country | Link |
---|---|
US (1) | US10330779B2 (it) |
EP (1) | EP3367132B1 (it) |
CN (1) | CN108508450B (it) |
IT (1) | IT201700021559A1 (it) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11450103B2 (en) | 2020-10-05 | 2022-09-20 | Crazing Lab, Inc. | Vision based light detection and ranging system using dynamic vision sensor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005048191A2 (en) * | 2003-11-12 | 2005-05-26 | British Telecommunications Public Limited Company | Object detection in images |
US20160006914A1 (en) * | 2012-07-15 | 2016-01-07 | 2R1Y | Interactive Illumination for Gesture and/or Object Recognition |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7663502B2 (en) * | 1992-05-05 | 2010-02-16 | Intelligent Technologies International, Inc. | Asset system control arrangement and method |
CA2359269A1 (en) * | 2001-10-17 | 2003-04-17 | Biodentity Systems Corporation | Face imaging system for recordal and automated identity confirmation |
US7026600B2 (en) * | 2004-02-26 | 2006-04-11 | Rosemount Aerospace Inc. | System and method of identifying an object in a laser beam illuminated scene based on material types |
CN101277429B (zh) * | 2007-03-27 | 2011-09-07 | 中国科学院自动化研究所 | 监控中多路视频信息融合处理与显示的方法和系统 |
US8290208B2 (en) * | 2009-01-12 | 2012-10-16 | Eastman Kodak Company | Enhanced safety during laser projection |
US8952628B1 (en) * | 2009-11-05 | 2015-02-10 | Musco Corporation | Apparatus, system and method for providing intermittent uplighting |
EP2469301A1 (en) * | 2010-12-23 | 2012-06-27 | André Borowski | Methods and devices for generating a representation of a 3D scene at very high speed |
US9275472B2 (en) * | 2011-11-18 | 2016-03-01 | Disney Enterprises, Inc. | Real-time player detection from a single calibrated camera |
US8698896B2 (en) * | 2012-08-06 | 2014-04-15 | Cloudparc, Inc. | Controlling vehicle use of parking spaces and parking violations within the parking spaces using multiple cameras |
US20150070489A1 (en) * | 2013-09-11 | 2015-03-12 | Microsoft Corporation | Optical modules for use with depth cameras |
US9959628B2 (en) * | 2014-11-21 | 2018-05-01 | Christopher M. MUTTI | Imaging system for object recognition and assessment |
CN105301870B (zh) * | 2015-12-04 | 2018-06-05 | 蒋涛 | 一种人眼安全激光照明夜视系统 |
US9823118B2 (en) * | 2015-12-26 | 2017-11-21 | Intel Corporation | Low power, high resolution solid state LIDAR circuit |
EP3223034B1 (en) * | 2016-03-16 | 2022-07-20 | Ricoh Company, Ltd. | Object detection apparatus and moveable apparatus |
US10451740B2 (en) * | 2016-04-26 | 2019-10-22 | Cepton Technologies, Inc. | Scanning lidar systems for three-dimensional sensing |
CN105974426A (zh) * | 2016-05-20 | 2016-09-28 | 深圳展景世纪科技有限公司 | 一种基于光线发射设备的护眼方法及装置 |
-
2017
- 2017-02-27 IT IT102017000021559A patent/IT201700021559A1/it unknown
- 2017-08-31 US US15/692,689 patent/US10330779B2/en active Active
- 2017-09-13 CN CN201710821323.0A patent/CN108508450B/zh active Active
- 2017-09-15 EP EP17191314.8A patent/EP3367132B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005048191A2 (en) * | 2003-11-12 | 2005-05-26 | British Telecommunications Public Limited Company | Object detection in images |
US20160006914A1 (en) * | 2012-07-15 | 2016-01-07 | 2R1Y | Interactive Illumination for Gesture and/or Object Recognition |
Also Published As
Publication number | Publication date |
---|---|
EP3367132A1 (en) | 2018-08-29 |
US10330779B2 (en) | 2019-06-25 |
US20180246188A1 (en) | 2018-08-30 |
CN108508450A (zh) | 2018-09-07 |
EP3367132B1 (en) | 2024-04-24 |
CN108508450B (zh) | 2022-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7057097B2 (ja) | 距離計測装置、距離計測システム、撮像装置、移動体、距離計測装置の制御方法およびプログラム | |
US10419741B2 (en) | Systems and methods for compression of three dimensional depth sensing | |
US7684590B2 (en) | Method of recognizing and/or tracking objects | |
JP6459659B2 (ja) | 画像処理装置、画像処理方法、運転支援システム、プログラム | |
CN112805585A (zh) | 改进的3d感测 | |
CN107914707A (zh) | 碰撞预警方法、系统、车载后视镜及存储介质 | |
KR102151815B1 (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
TWI787963B (zh) | 利用動態視覺感測器之基於視覺的光達系統 | |
TWI820194B (zh) | 電子機器及固體攝像裝置 | |
WO2018074085A1 (ja) | 測距装置、および、測距装置の制御方法 | |
US20180299666A1 (en) | Scanning Laser Devices with Reduced Exit Pupil Disparity | |
JP2020112495A (ja) | 受光装置および測距装置 | |
KR101868293B1 (ko) | 차량용 라이다 장치 | |
IT201700021559A1 (it) | Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti | |
JP2022154179A (ja) | 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム | |
CN110865467B (zh) | 一种基于激光诱导的可交互体三维显示装置及其控制方法 | |
US20210356589A1 (en) | Measurement apparatus, distance measurement apparatus, and measurement method | |
AU2017298227B2 (en) | Interactive projection system | |
WO2022215371A1 (ja) | 情報処理装置及び情報処理方法 | |
KR102235127B1 (ko) | 멀티모달 영상의 적응적 융합 방법 및 그 장치 | |
WO2023013776A1 (ja) | ゲーティングカメラ、車両用センシングシステム、車両用灯具 | |
TW202215294A (zh) | 利用多視野之基於視覺的光達系統 | |
CN116755109A (zh) | 控制激光雷达的方法、装置及车辆 |