IT201800005381A1 - Procedimento di misura dell'illuminazione, sistema, prodotto informatico ed uso corrispondenti - Google Patents
Procedimento di misura dell'illuminazione, sistema, prodotto informatico ed uso corrispondenti Download PDFInfo
- Publication number
- IT201800005381A1 IT201800005381A1 IT102018000005381A IT201800005381A IT201800005381A1 IT 201800005381 A1 IT201800005381 A1 IT 201800005381A1 IT 102018000005381 A IT102018000005381 A IT 102018000005381A IT 201800005381 A IT201800005381 A IT 201800005381A IT 201800005381 A1 IT201800005381 A1 IT 201800005381A1
- Authority
- IT
- Italy
- Prior art keywords
- values
- environment
- lighting
- image
- scene
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000005259 measurement Methods 0.000 title description 23
- 238000005286 illumination Methods 0.000 claims description 46
- 239000013598 vector Substances 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 10
- 241000251468 Actinopterygii Species 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 238000002310 reflectometry Methods 0.000 description 15
- 239000000463 material Substances 0.000 description 7
- 230000007774 longterm Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 238000009472 formulation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/0228—Control of working procedures; Failure detection; Spectral bandwidth calculation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/0266—Field-of-view determination; Aiming or pointing of a photometer; Adjusting alignment; Encoding angular position; Size of the measurement area; Position tracking; Photodetection involving different fields of view for a single detector
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
- G01J1/4204—Photometry, e.g. photographic exposure meter using electric radiation detectors with determination of ambient light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/586—Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/11—Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
- G01J2001/4247—Photometry, e.g. photographic exposure meter using electric radiation detectors for testing lamps or other light sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Sustainable Development (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Image Generation (AREA)
- Indicating And Signalling Devices For Elevators (AREA)
Description
DESCRIZIONE dell’invenzione industriale dal titolo:
“Procedimento di misura dell’illuminazione, sistema, prodotto informatico ed uso corrispondenti”
TESTO DELLA DESCRIZIONE
Campo tecnico
La descrizione è relativa alle tecniche di illuminazione.
Una o più forme di attuazione possono essere applicate ai sistemi di illuminazione “intelligente” (“smart lighting”) per illuminare per es. un ambiente al chiuso misurando la sua illuminazione.
In tutta questa descrizione, si farà riferimento a vari documenti riportando tra parentesi quadrate un numero (per es. [X]) che identifica il documento in un ELENCO DEI DOCUMENTI CITATI che compare alla fine della descrizione.
Sfondo tecnologico
Valutare e misurare i cambiamenti di illuminazione spaziale ideale di ambienti luminosi al chiuso può svolgere un ruolo significativo nella pratica dell’illuminazione. La distribuzione di illuminamento spaziale sulle superfici degli oggetti e sulle superfici di emissione di luce è sovente non uniforme. Il livello di non uniformità può variare drasticamente da una superficie a un’altra e anche da una sotto-area a un’altra sotto-area di una stessa superficie. Un’illuminazione non uniforme delle superfici può essere sorgente di fastidio per gli osservatori, nella misura in cui ciò può ostacolare un adattamento appropriato degli occhi.
Perciò, il fatto di essere in grado di misurare e di valutare una distribuzione di illuminamento non uniforme e i suoi cambiamenti nello spazio e nel tempo è uno scopo desiderabile da perseguire. Per i light planner, questo può comportare la capacità di modellare la distribuzione di illuminazione di una scena simulando il flusso luminoso che deriva sia da sorgenti di luce installate sia dalla emittanza di luce cumulativa di elementi superficiali attraverso la scena.
Sono così desiderabili procedimenti non complicati per misurare procedimenti non complicati per misurare l’illuminamento luminoso attraverso una scena, per es. al fine di verificare i risultati ottenuti per mezzo di un certo dispositivo di illuminazione.
Procedimenti correnti per misurare e valutare l’illuminamento/luminanza (livello di intensità di luce) spaziale e temporale nello spazio e nel tempo possono comprendere, per es.:
- una misurazione diretta con luxmetri tradizionali, - misurazioni basate su fotocamera che determinano la luminanza e l’emittanza di una scena,
- l’uso di certi strumenti di progettazione illuminotecnica tradizionali basati sono S/W come Dialux, Relux e altri, come discusso in seguito.
Una misurazione diretta (per es., una misurazione nel senso dei punti con luxmetri tradizionali attraverso la scena) può soffrire di una bassa risoluzione spaziale in aree limitate con accesso diretto.
Questo è particolarmente inopportuno e costoso in grandi spazi architetturali con un’illuminazione diurna variabile nel corso del tempo.
L’uscita da una fotocamera (i pixel di un’immagine) possono essere calibrati facendo riferimento a una certa sorgente di luce nota. Ciascun valore di pixel in un intervallo noto può essere mappato su un corrispondente valore di intensità di luce, che può quindi essere usato per ricavare una emittanza spaziale di una superficie di una scena lambertiana.
In base alla conoscenza di una corrispondente mappa di albedo (riflettività), l’intensità di illuminazione di ingresso prevalente E [lm/m<2>] - indicata anche come l’illuminamento di ingresso per una superficie elementare -può essere ricavata direttamente dalla risposta di pixel della fotocamera come:
Vale a dire, considerando il valore di albedo lambertiano
dove:
R = intensità di uscita (emittanza, eccitanza) di un elemento superficiale;
E = intensità di illuminazione di ingresso (illuminamento di ingresso, densità di flusso di ingresso) su un elemento superficiale nella scena;
Lpixel = flusso luminoso visibile misurato dell’elemento superficiale osservato nella scena (si ipotizza una calibrazione della risposta della fotocamera);
ρ = coefficiente di albedo lambertiano dell’elemento superficiale nella scena (mappa di albedo = mappa diffusa).
L’albedo indica la potenza riflettente di un corpo, espressa come un rapporto tra la luce riflessa e la quantità totale che cade sulla superficie.
Quando sono usati strumenti tradizionali di progettazione illuminotecnica basati su S/W come Dialux [1], Relux [2] e altri, l’intensità di illuminazione spaziale attraverso la superficie della scena può essere determinata considerando l’inter-illuminazione mutua degli elementi superficiali.
Certi parametri, come i valori di albedo della superficie della scena, possono essere ottenuti come valori sperimentali (per es., valori tabellari da librerie di dati).
I valori di riflettività basati su tabella della superficie di una scena possono così essere considerati come un’ipotesi ad hoc per descrivere la scena.
Inoltre, si può considerare che la geometria e il posizionamento delle sorgenti di luce così come l’intensità di illuminazione della scena siano noti.
Scopo e sintesi
Uno scopo di una o più forme di attuazione è di contribuire a fornire perfezionamenti ulteriori nell’area della tecnologia discussa in precedenza superando vari inconvenienti delle soluzioni discusse in precedenza.
Secondo una o più forme di attuazione, tale scopo può essere raggiunto per mezzo di un procedimento come esposto nelle rivendicazioni che seguono.
Una o più forme di attuazione possono essere relative a un sistema corrispondente.
Una o più forme di attuazione possono essere relative a un prodotto informatico caricabile nella memoria di almeno un modulo di elaborazione (vale a dire, un elaboratore o computer) e comprendente porzioni di codice software per eseguire le fasi del procedimento quando il prodotto è eseguito su almeno un modulo di elaborazione.
Come usato qui, un riferimento a un tale prodotto informatico intende essere equivalente a un riferimento a mezzi leggibili da elaboratore contenenti istruzioni per controllare il sistema di elaborazione al fine di coordinare l’implementazione del procedimento secondo una o più forme di attuazione.
Un riferimento ad “almeno un elaboratore” intende evidenziare la possibilità che una o più forme di attuazione siano implementate in forma modulare e/o distribuita.
Una o più forme di attuazione possono essere relative a un possibile uso di un procedimento come qui descritto.
Le rivendicazioni sono parte integrante della descrizione qui fornita con riferimento a una o più forme di attuazione.
Una o più forme di attuazione possono fornire un procedimento di basso costo, conveniente ed efficace (per es., basato su una fotocamera) per determinare valori di albedo (mappa di albedo) attraverso una scena.
Per esempio, i valori di albedo ρ possono essere recuperati se è nota l’illuminazione basata su un’apparecchiatura per illuminazione. Altrimenti, se i valori di albedo ρ sono noti, può essere recuperata l’illuminazione basata sull’apparecchiatura per illuminazione.
Una o più forme di attuazione possono fornire fattori di forma geometrici che possono essere usati per strumenti tradizionali di simulazione della luce come quelli basati, per es., sul tracciamento dei raggi e/o sulla radiosità.
Una o più forme di attuazione facilitano una misurazione dei valori di illuminazione risultanti attraverso la scena per una verifica. In una o più forme di attuazione, questo può avvenire attraverso un modello di radiosità vincolato secondo l’ipotesi che i valori di pixel non elaborati (“raw”) possono anche essere usati come una stima preliminare dei valori di illuminazione come misurati.
Per esempio, secondo l’ipotesi di una fotocamera calibrata e secondo l’ipotesi di una scena lambertiana, i valori di pixel dalla fotocamera forniscono, nel caso ideale, i valori di illuminazione esatti sopra la scena.
La designazione “tracciamento dei raggi” (ray tracing) si applica a tecniche che possono generare immagini da computer quasi foto-realistiche. Sono attualmente disponibili una varietà di strumenti software (sia gratuiti sia commerciali) per generare immagini corrispondenti.
Similmente, la “radiosità” (radiosity) indica l’energia luminosa ceduta da una superficie.
La quantità di luce emessa da una superficie può essere specificata come un parametro in un modello, dove è specificata anche la riflettività della superficie.
Per esempio, la quantità di luce emessa da un elemento superficiale (patch) dipende dal suo valore di albedo ρ e dalla quantità della sua illuminazione incidente, che è la somma dell’illuminazione diretta dalle apparecchiature per illuminazione e dell’illuminazione indiretta dai patch superficiali adiacenti degli oggetti ambientali.
La quantità di luce incidente che colpisce la superficie può essere calcolata sommando la quantità di energia a cui contribuiscono altre superfici.
Vari procedimenti di renderizzazione (“rendering”) usati nella grafica su computer possono essere basati sulla radiosità al fine di analizzare la luce riflessa da superfici diffuse.
La luce in un dato punto può essere modellata come comprendente componenti diffuse, speculari e ambientali, con la possibilità di fare ricorso per semplicità a un modello ideale che tratta soltanto la componente ambientale diffusa (scena lambertiana), mantenendo nel contempo la possibilità di considerare anche le componenti speculari e ambientali.
Queste componenti possono essere combinate per determinare l’illuminazione o il colore di un punto.
Le immagini risultanti da un renderizzatore (“renderer”) di luminosità possono presentare ombre soft, graduali. La radiosità può essere usata, per es., per renderizzare immagini (al chiuso) di edifici con risultati realistici per scene che includono superfici riflettenti diffuse.
Inoltre, usando una fotocamera, una o più forme di attuazione possono coprire aree più grandi con una risoluzione spaziale (molto) più elevata in confronto a una tradizionale misurazione della luce manuale.
Una o più forme di attuazione facilitano una misurazione in tempo reale (“real-time”) dell’illuminazione attraverso una scena anche in assenza di una conoscenza precedente dell’ambiente.
Una o più forme di attuazione possono essere automatizzate rendendo inutile fare affidamento sull’esperienza di personale tecnico dedicato.
In una o più forme di attuazione, sorgenti di luce multiple e/o tipi multipli di sorgenti di luce (naturale/artificiale) possono essere affrontati simultaneamente.
In quei casi in cui è acquisita una geometria completa e una mappa di riflettanza della scena, esiste la possibilità, almeno teoricamente, di fornire informazioni anche per quelle aree, per es., di una stanza che i sensori della fotocamera non “vedono”.
Una o più forme di attuazione possono considerare (soltanto) la parte visibile della scena, come la parte in cui i fattori di forma e i corrispondenti valori di albedo possono essere misurati.
Breve descrizione delle figure
Una o più forme di attuazione saranno ora descritte, a puro titolo di esempio, con riferimento alle figure annesse, nelle quali:
- la Figura 1 è un esempio di uno spazio (per es., un ambiente al chiuso) in cui sono applicate una o più forme di attuazione,
- la Figura 2 è un esempio di una vista che può essere prodotta in una o più forme di attuazione,
- la Figura 3 è un esempio di una certa elaborazione che può essere implementata in forme di attuazione, e
- la Figura 4 è un esempio di una pipeline di elaborazione che può essere implementata in una o più forme di attuazione.
Descrizione dettagliata di esempi di forme di attuazione
In seguito, sono illustrati uno o più dettagli specifici, allo scopo di fornire una comprensione approfondita di esempi di forme di attuazione.
Le forme di attuazione possono essere ottenute senza uno o più dei dettagli specifici o con altri procedimenti, componenti, materiali, ecc.
In altri casi, operazioni, materiali o strutture note non sono illustrate o descritte in dettaglio in modo tale che certi aspetti delle forme di attuazione non saranno resi poco chiari.
Un riferimento a “una forma di attuazione” nel quadro della presente descrizione intende indicare che una particolare configurazione, struttura, o caratteristica descritta con riferimento alla forma di attuazione è compresa in almeno una forma di attuazione.
Per cui, le frasi come “in una forma di attuazione” che possono essere presenti in uno o più punti della presente descrizione non fanno necessariamente riferimento proprio alla stessa forma di attuazione. Inoltre, particolari conformazioni, strutture o caratteristiche possono essere combinate in un modo adeguato qualsiasi in una o più forme di attuazione.
I riferimenti usati qui sono forniti semplicemente per convenienza e quindi non definiscono l’ambito di protezione o l’ambito delle forme di attuazione.
Una o più forme di attuazione possono essere basate sul riconoscimento che tradizionali misurazioni di illuminamento ottenute da punti discreti multipli possono non riflettere cambiamenti spaziali di livelli di luce con un grado di risoluzione desiderato.
Questo può essere relativo al fatto che soluzioni di misurazione di illuminamento tradizionali basate su luxmetri sono limitate (soltanto) a certe aree di installazione (misurazioni nel senso dei punti).
Questi procedimenti basati su misuratori tradizionali per una misurazione del livello di luce implicano immutabilmente limitazioni nell’interpretazione dei cambiamenti spaziali di un ambiente luminoso in grandi spazi architetturali e/o ambienti luminosi esposti a una luce diurna variabile.
È da notare che una misurazione basata su fotocamera dell’illuminamento di una superficie in relazione a una emittanza convertita direttamente di una superficie può rappresentare un’alternativa che vale la pena esaminare.
L’intensità di pixel da un sensore di una fotocamera è una misura relativa della luce riflessa da una superficie (luminanza) che è la luminosità visibile dell’elemento superficiale dell’oggetto.
Una tale luminosità visibile può dipendere da una varietà di componenti relative ai materiali dell’oggetto (degli oggetti) e dalle sue proprietà di riflettenza. Inoltre, tale luminosità visibile può dipendere dalla geometria dell’ambiente (per es., stanza) e da come la luce si propaga nell’ambiente ed è influenzata infine dalla quantità di luce che raggiunge la data superficie (flusso luminoso).
La conoscenza di questi parametri caratteristici dell’ambiente facilita lo sviluppo di un procedimento per calcolare rapporti di illuminamento spaziale degli elementi superficiali coinvolti e per fornire una stima affidabile dell’uniformità di illuminazione globale attraverso una scena anche quando è usata l’ipotesi restrittiva di superfici lambertiane.
A tal fine, un certo numero di parametri caratteristici dell’ambiente possono essere raccolti in anticipo.
Questi possono comprendere:
- posizione e potenza di illuminazione rispetto alle sorgenti di illuminazione (per es., apparecchiature per illuminazione);
- mappa di albedo della superficie della scena;
- layout geometrico della superficie della scena; questo facilita la determinazione dei fattori di forma geometrici della scena per calcolare l’influenza sul livello di illuminazione degli elementi superficiali, che possono derivare principalmente da un’illuminazione diretta delle apparecchiature per illuminazione e possono anche essere dovuti a una inter-radiazione mutua da superficie a superficie.
Questi parametri della scena possono essere usati sia per simulare l’illuminazione con strumenti di progettazione illuminotecnica comuni (come gli strumenti di radiosità o di tracciamento dei raggi) sia per verificare i risultati misurando i valori di illuminazione attraverso la scena in seguito.
Come rappresentato come esempio nella Figura 1, una o più forme di attuazione possono comprendere un’unità di elaborazione 10 (per es., una piattaforma embedded) accoppiata - in un modo noto qualsiasi a tale scopo - con un insieme di sensori (per es., un sensore di fotocamera RGB e un sensore di fotocamera di profondità in 3D) indicati collettivamente con 12.
In una o più forme di attuazione, l’insieme di sensori 12 può essere installato, per es., in una posizione “elevata” in un ambiente (per es., una stanza A) da illuminare, per es., tramite apparecchiature per illuminazione L, che facilita l’ottenimento di una vista dall’alto in prospettiva dell’ambiente.
La Figura 2 è un esempio di tale vista (per es., a “occhio di pesce”).
In una o più forme di attuazione come rappresentato come esempio nelle Figure 1 e 2, esiste così la possibilità di fornire un’osservazione a lungo termine basata su fotocamera dell’ambiente (vale a dire, della “scena”) A, per es., usando un sensore di fotocamera RGB 12a nell’insieme 12.
In una o più forme di attuazione, la posizione e l’intensità delle sorgenti di luce (per es. apparecchiature per illuminazione) L possono così essere ricavate (rilevate). Questo può avvenire, per es., come descritto in [3], o facendo ricorso ad altre soluzioni alternative note.
Similmente, considerando il layout geometrico da un sensore di profondità in 3D 12b eventualmente incluso nell’insieme 12, può anche essere ricavata una corrispondente mappa di albedo della scena A. Questo può avvenire di nuovo, per es., come descritto in [3], o facendo ricorso ad altre soluzioni alternative note.
Considerando il layout geometrico da una fotocamera di profondità in 3D possono anche essere ricavati i corrispondenti fattori di forma della scena, ottenendo così un insieme di caratteristiche preziose per un modello di radiosità.
Come discusso precedentemente, la radiosità è un modello di illuminazione (globale) usato comunemente nel campo della computer grafica per rappresentare tecniche di renderizzazione fotorealistica.
L’ingresso del modello di radiosità classico consiste di un elenco dei patch (per es., per semplicità possono essere considerati come esempio dei triangoli) che hanno:
- una radiosità auto-emessa (media) epsi,
- una riflettività (media) ρi
da cui possono essere calcolate radiosità totali (medie) ri.
Vale a dire, l’ingresso in un modello di radiosità classico tradizionale può comprendere tre parametri principali per un elenco dei patch (triangoli, tetraedro, etc.) in cui può essere “distribuita” un’intera scena.
Inoltre, una rappresentazione/interazione geometrica mutua può essere estratta come una matrice quadrata chiamata matrice di fattore di forma, insieme al loro fattore di riflettività (albedo) e di auto-emittanza.
Questo può avvenire secondo dispositivi che sono noti di per sé, rendendo così superfluo fornire qui una descrizione più dettagliata.
Una possibile formulazione matematica può essere come segue:
o, nella notazione M
dove
- R(x) o M(x) è la radiosità, vale a dire, la potenza (totale) per area unitaria che lascia la superficie del patch; - Eps(x) è la potenza emessa per area unitaria che lascia la superficie del patch dovuta a una auto-radiazione che sarà causata a causa di elementi superficiali auto-luminescenti (“self-glowing”);
- ρ(x) è la riflettività di albedo lambertiano del punto; - S indica che la variabile di integrazione x' corre sull’intera superficie (visibile) nella scena;
- θx e θx' sono gli angoli della normale in x e x' alla loro linea di giunzione (che è una geometria semplice per descrivere l’adiacenza dei patch rispetto all’interilluminazione).
Come noto per gli esperti nella tecnica R(x), o M(x) sono notazioni differenti che possono essere usate per rappresentare la stessa variabile (cioè, la radiosità). In seguito, saranno fornite formule in entrambe le notazioni.
Per esempio, una notazione discreta a livello delle componenti vettoriali può essere fornita come:
o, nell’annotazione M
<dove la sommatoria >Σ <si estende da j=1 a n sull’intero >
numero di elementi superficiali.
Nelle formule precedenti, δij è il simbolo di Dirac con 1 per i uguale a j, altrimenti 0: questo significa che un certo patch i non può essere inter-illuminato da sé stesso, così tutti i termini con i=j sono saltati o annullati nella sommatoria, per mezzo di un termine di cancellazione (1-δij), vale a dire:
o, nell’annotazione M:
Inoltre, ri e rj sono le radiosità rispettivamente nei patch i e j, e lo scalare epsi si riferisce all’autoemittanza del patch i.
Per esempio:
- se si ha a che fare con una sorgente di luce, questo valore può essere impostato a 1 (dove 1 corrisponde all’intensità luminosa massima della sorgente di luce) o all’intensità luminosa effettiva della sorgente di luce se questa è nota;
- altrimenti, se il patch non appartiene a una sorgente di luce, il valore può essere impostato a 0.
In aggiunta, ρi è la riflettività isotropica del patch i e fij è rappresentativo dei fattori di forma, per es., tra il patch i e il patch j.
Sono disponibili vari approcci numerici per calcolare i fattori di forma fij. Di questi, un procedimento basato sul tracciamento dei raggi può rappresentare una buona scelta, per es., grazie a un’applicabilità più generale e all’efficienza [4, 5].
In maggior dettaglio, i fattori di forma possono essere calcolati campionando in modo uniforme i raggi all’interno di un disco unitario (cioè, la proiezione ortogonale di una sfera unitaria), per cui ciascun punto sul disco unitario definisce perciò la direzione di un raggio nello spazio. Perciò, i fattori di forma fij possono essere calcolati come il rapporto:
dove kj sta per il numero di raggi emessi dal patch i che raggiunge il patch j, e ki è il numero totale di raggi emessi dalla faccetta i.
I fattori di forma possono codificare due aspetti principali:
- visibilità, vale a dire se i due patch sono visibili l’uno dall’altro; per es., questo valore è uguale a zero se non c’è alcuna linea ottica (“line-of-sight”) tra loro;
- distanza e orientamento, che è indicativo (“codifica”) quanto bene i due patch si vedono l’un l’altro; per es., bassi valori corrispondono a patch molto lontani con una linea ottica obliqua, mentre alti valori si riferiscono a patch vicini fronto-paralleli.
I fattori di forma possono essere vincolati inoltre ad essere strettamente non negativi e a soddisfare la relazione di reciprocità aifij = ajfji, dove a è l’area di ciascun patch (fji non è una relazione simmetrica se i patch non hanno una stessa dimensione). Infine, se la scena è chiusa, i fattori di forma fij tra un patch i e tutti gli altri patch j nella scena assommano a uno, mentre se la scena è aperta la somma è minore di uno.
La formulazione della radiosità precedente può dare origine a un insieme di equazioni lineari che possono essere risolte attraverso la soluzione della matrice di radiosità come:
Qui, F è una matrice quadrata n×n che descrive la geometria dell’intera scena A in associazione alle proprietà di riflettività del materiale ρ, che è un vettore di dimensione n.
Quindi, il vettore r di dimensione n contiene le radiosità associate in ciascun patch e il vettore di autoemissione eps contiene valori non zero nei patch corrispondenti a sorgenti di luce attive.
Si noterà che in tutta questa descrizione la notazione vettoriale non è usata espressamente per semplicità.
Una o più forme di attuazione possono basarsi sul concetto di fare ricorso a un modello di radiosità al fine di facilitare una modellizzazione dell’efficacia di sorgenti di luce L in uno spazio renderizzando l’impressione visiva in un certo punto di vista.
Per esempio, si può considerare un ambiente al chiuso da illuminare del tipo illustrato nella Figura 1.
In generale, ci si può aspettare che sia:
- illuminato da differenti sorgenti di illuminazione sia artificiali (per es., apparecchiature per illuminazione L) sia naturali (per es., finestre esposte alla luce diurna),
- “popolato” (per es., arredato) con differenti materiali e oggetti (con differenti proprietà fotometriche), e
- orientato in un modo casuale.
Come discusso precedentemente, in alto nell’ambiente A (per es., sul suo soffitto, possibilmente al centro) può essere installato un sistema sensore 12 che comprende, per es.:
- una semplice fotocamera RGB (eventualmente con lenti a occhio di pesce), indicata con 12a, e
- un sensore di misurazione della profondità, per es. Tempo di Volo (ToF, “Time of Flight”) o Lidar, indicato con 12b, questo essendo anche detto comunemente sistema RGB-D.
Questo ambiente (ambiente A) può così essere sottoposto a una sorveglianza (monitoraggio) nel corso del tempo registrando le sue immagini fornite da un sistema di fotocamera come discusso precedentemente, per es. da una prospettiva di vista dall’alto come rappresentato come esempio nella Figura 2.
L’uscita del sistema di fotocamera 12a, 12b, per es. un’immagine RGB (per es., a occhio di pesce) - da 12a - e informazioni di profondità come una nuvola di punti e una mappa di distanza - da 12b - sono esempi di informazioni che possono essere raccolte in una o più forme di attuazione.
Giusto a titolo di riferimento (per es., per facilità di visualizzazione) si può considerare che tali informazioni rappresentino una sorta di modello CAD parziale della nuvola di punti, che può essere usato per ulteriori atti di elaborazione come discusso in seguito.
In una o più forme di attuazione, le viste dai due sensori (per es., fotocamera RGB 12a e sensore di misurazione della profondità 12b) possono essere preallineate e sincronizzate.
Questo facilita una mappatura dell’immagine RGB sulle informazioni di profondità come rappresentato schematicamente come esempio nella Figura 3.
Tale figura rappresenta, a titolo di esempio, l’intensità di pixel dell’immagine RGB mappate su un modello 3D (informazioni di profondità) di un ambiente A come rappresentato come esempio nelle Figure 1 e 2.
Una o più forme di attuazione possono fare ricorso a tale scopo ad altri dispositivi come, per es., una soluzione PnP automatica come descritto in [6].
Un allineamento punto-punto (PnP, Point-to-Point) è indicativo di come un punto da una vista è adattato con lo stesso punto in un’altra vista.
La relativa uscita - vale a dire, immagini e una rappresentazione geometrica (parziale) - può essere elaborata nell’unità embedded (o basata su server/cloud) 10 accoppiata al sistema sensore 12 in base a un modello di radiosità al fine di fornire una misurazione/valutazione dei cambiamenti di illuminamento spaziali e/o temporali nell’ambiente A come visto dal sistema sensore 12 (si veda per es. la Figura 2).
Una tale misurazione/valutazione dei cambiamenti di illuminamento/luminanza spaziali e temporali in un ambiente (per es., al chiuso) A come rilevato rende possibile mappare valori di pixel su rispettivi valori di lux corrispondenti.
La procedura può essere ripetuta nel corso del tempo, per es. rispetto a frame sincronizzati nel tempo presi dai due sensori di fotocamera 12a (RGB) e 12b (profondità) per ottenere una rappresentazione (parziale) dell’ambiente (scena) A.
In una o più forme di attuazione, i parametri dall’osservazione di lungo termine basata su fotocamera della scena possono fornire un insieme (completo) di elementi di informazioni. Ciò può essere usato, in modo simile a quanto avviene in un software di progettazione illuminotecnica tradizionale, per simulare l’intensità di illuminazione prevalente attraverso una scena.
Una o più forme di attuazione possono così comportare l’acquisizione di componenti fisici di una scena A che possono essere usati nel fornire un modello di radiosità basato (esclusivamente) su un insieme di osservazioni da parte di sensori di fotocamera 12a, 12b.
Una volta che è stata determinata l’intensità luminosa, le misurazioni dell’intensità luminosa attraverso la scena possono essere usate per applicazioni relative alla configurazione e/o alla messa in esercizio (“commissioning”) dell’illuminazione e alla gestione di sistemi di smart lighting.
Per esempio, la conoscenza dei valori dell’intensità luminosa (illuminazione) (per es. ad alta risoluzione) attraverso una scena A può essere utile per i progettisti illuminotecnici e i light planner. Inoltre, una misurazione in tempo reale dell’intensità luminosa (valori di illuminazione) ad alta risoluzione attraverso una scena può essere sfruttata nel ricavare un monitoraggio rappresentativo come ingresso per cicli di regolazione della gestione della luce.
Una o più forme di attuazione possono basarsi su una procedura che tiene conto delle informazioni fornite da un sistema di fotocamera RGB-D (per es. 12a, 12b) e le elabora per fornire misurazioni spaziali e temporali in tempo reale dell’illuminazione di una scena.
In una prima forma di attuazione possibile, i valori di pixel misurati dell’immagine presa dalla scena con un sistema di fotocamera calibrata 12 come discusso precedentemente possono essere usati direttamente per calcolare un valore di illuminazione prevalente attraverso la scena come L=L(x,t).
Qui, L(x,t) è un vettore monodimensionale (che ha una dimensione N = m x n, dove m, n sono le dimensioni dell’immagine catturata) indicativo dei valori di luminanza misurati attraverso la scena, che rappresenta così un’immagine della scena A catturata da un sistema di fotocamera calibrata (per es., 12).
Secondo l’ipotesi (ragionevole) di una scena lambertiana, i valori di luminanza misurati possono essere convertiti direttamente nei valori di emittanza R(x,t) o M(x,t) corrispondenti delle aree superficiali attraverso la scena come:
o, nella notazione M
dove M(x,t) o R(x,t) è un altro vettore monodimensionale che ha una dimensione n rappresentativo dei valori di emittanza misurati attraverso la scena A, che rappresenta l’emittanza dei patch superficiali attraverso la scena.
I valori di albedo ρ(x) delle superfici attraverso la scena che sono acquisiti da una precedente osservazione a lungo termine della scena possono essere sottoposti a un algoritmo di una procedura di scomposizione intrinseca (come descritto, per es., in [7]) o altre tecniche (come descritto, per es. in [8]), in modo tale che ρ(x,t) sia un vettore monodimensionale della dimensione n, possono essere espressi come un vettore di componenti invertite 1/ρ(xi,t), per es.:
dove ρinv(x,t) è un vettore monodimensionale (di dimensione n) dei valori invertiti dei valori di albedo acquisiti dei patch attraverso la scena.
In base alla conoscenza dei valori di albedo invertiti ρinv(x,t) dei patch attraverso la scena, l’illuminazione prevalente E(x,t) attraverso la scena può essere ricavata come un semplice prodotto scalare di vettori, per es. come:
o, nella notazione M
dove E(x,t) è un vettore monodimensionale di dimensione n, che rappresenta i valori di illuminazione delle superfici attraverso la scena.
Per chiarezza, si noterà che E(x,t) è l’illuminazione incidente sul patch superficiale e non è relativa a E(x) o Eps(x) come la potenza emessa per area unitaria che lascia la superficie del patch come discusso precedentemente.
Si apprezzerà che un prodotto scalare di vettori moltiplica le componenti mutue e mantiene la dimensione del vettore.
L’intera catena di formule, il concetto della misurazione in tempo reale basata su fotocamera dell’illuminazione attraverso la scena può essere riassunto come:
Questo significa che con l’osservazione (misurazione) della scena con una fotocamera calibrata (misurazione della L(x,t) reale) conoscendo l'albedo ρ dei patch della scena, può essere ricavata l’illuminazione incidente E(x,t) reale (netta) in [lm/m<2>].
In una o più forme di attuazione, una soluzione come quella descritta in precedenza può essere ottenuta considerando un modello di radiosità discusso precedentemente.
Sostanzialmente, il modello di radiosità corrisponde alla conoscenza dei valori di albedo ρ e dei fattori di forma fij e della posizione reale e dell’intensità luminosa delle sorgenti di luce.
Di conseguenza, conoscendo il modello di radiosità è anche possibile scomporre le illuminazioni nette E(x,t) misurate nelle loro componenti come la somma di un’illuminazione diretta dalle apparecchiature per illuminazione Ed(x,t) e di quella incidente proveniente dall’inter-riflessione mutua come:
In una o più forme di attuazione, questo può avvenire secondo una pipeline di elaborazione (che può essere implementata nell’unità 10) corrispondente al diagramma logico rappresentato nella Figura 4.
Nel diagramma della Figura 4, il blocco 100 indica dati di ingresso RGB-D che possono essere acquisiti come discusso precedentemente (sistema di fotocamera 12a, 12b).
In una o più forme di attuazione come rappresentato come esempio nella Figura 4, tali dati possono essere forniti a un insieme di moduli/blocchi di elaborazione 102 come discusso in seguito.
In una o più forme di attuazione come rappresentato come esempio nella Figura 4, i risultati degli atti di calcolo effettuati nei moduli 102 sono forniti, insieme a dati RGB-D 100 a un modulo/blocco 104 ulteriore, configurato per risolvere un modello di radiosità vincolato (con l’aiuto di una fotocamera).
Come risultato, il modulo/blocco 104 può fornire una mappatura 106 di valori di radiosità su valori di illuminamento atti a essere forniti a un’entità di “utente” 108.
Uno strumento di progetto/controllo/planning per illuminotecnica come usato attualmente dai progettisti illuminotecnici e dai light planner e/o un’unità controllore configurata per controllare (possibilmente in tempo reale) l’azione di illuminazione delle apparecchiature per illuminazione L che illumina la scena A può essere un esempio di una tale entità di utente 108.
Si apprezzerà che configurare i moduli/blocchi indicati collettivamente come 102 al fine di effettuare gli atti di elaborazione discussi in seguito comporta di applicare, per es., strumenti software che sono noti di per sé, rendendo così superfluo fornire qui una descrizione più dettagliata.
Per esempio, un modello di radiosità può essere considerato come un raffinamento della soluzione discussa precedentemente, nella misura in cui questo può non dipendere da un sistema di fotocamera precalibrata e può anche affrontare il caso di un ingresso rumoroso considerando giusto l’ingresso non elaborato da un sistema di fotocamera.
Per esempio, una o più forme di attuazione possono basarsi sulla disponibilità, per es., di intensità di pixel di immagini RGB mappate su informazioni di profondità (modello in 3D) come presentato, per es., nella Figura 3.
Si può tentare di estrarre le informazioni relative per la soluzione della matrice di radiosità come discusso precedentemente.
Tali informazioni possono comprendere (in base a un modello di radiosità):
- le proprietà di riflettività dei materiali/oggetti della scena, ρ
- i fattori di forma, fij
- la posizione e l’identificazione delle sorgenti di luce (per es., L) nello spazio, un vettore e (detto talvolta vettore ed = illuminazione diretta).
Come indicato, questi elementi possono essere estratti in base a procedimenti con l’aiuto di una fotocamera proposti in letteratura e sono adatti per un calcolo in tempo reale del modello di radiosità.
A tal fine, i moduli/blocchi indicati collettivamente come 102 nella Figura 4 possono essere configurati per comprendere:
- un primo modulo 102a per calcolare la riflettenza, - un secondo modulo 102b per calcolare fattori di forma,
- un terzo modulo 102c per calcolare l’intensità luminosa e le posizioni nello spazio di sorgenti di luce in un ambiente A.
In una o più forme di attuazione, tecniche tradizionali di scomposizione intrinseca come descritto in [7], [8] e [3] possono essere applicate nel primo modulo 102a al fine di determinare le proprietà di riflettività dei materiali/oggetti della scena con procedimenti basati su fotocamera.
In una o più forme di attuazione, può essere considerata l’estrazione dei fattori di forma geometrici degli elementi superficiali nella scena, come effettuata nel secondo modulo 102b che può essere basata su dati in 3D da un rilevatore del Tempo di Volo (ToF) o un Lidar.
In una o più forme di attuazione, il terzo modulo 102c può estrarre la posizione e l’identificazione delle sorgenti di luce nello spazio da date immagini della scena come descritto, per es., in [3], dove le posizioni delle sorgenti di luce sono state determinate valutando osservazioni a lungo termine della scena con la conoscenza della riflettività lambertiana e della geometria delle scene.
Secondo le circostanze, si può fare l’ipotesi (sensibile) che i pixel dell’immagine in formato non elaborato corrispondano a una stima rumorosa dei valori di radiosità effettivi (si veda, per es., [9]).
Per tale motivo, una o più forme di attuazione possono non usare un calcolo semplice e diretto dell’illuminamento considerandoli giusto come la luminanza nella formulazione di ipotesi lambertiana, e questo può condurre a calcolare l’illuminamento con un errore più elevato, che può essere accettabile per certe applicazioni.
In una o più forme di attuazione, in base a tali informazioni, il blocco 104 può risolvere la matrice di radiosità in base a una stima di radiosità vincolata definendo, per es., una funzione di costo come:
dove:
- g è un sotto-vettore di r che contiene le informazioni dei pixel non elaborati per le superfici che sono visibili dal sistema di fotocamera, e
- Dρ sono le proprietà di riflettività corrispondenti alle superfici visibili.
In altre parole, si può calcolare una soluzione ottimizzata r considerando le informazioni dei pixel non elaborate prese dalle immagini.
I valori di radiosità (esistenza di radiante) calcolati possono quindi essere messi in relazione a ritroso con l’illuminamento considerando l’ipotesi lambertiana come presentata nell’equazione precedente, dove L(x,t) è sostituita ora dai valori di radiosità calcolati R(x,t) o M(x,t).
Perciò, l’equazione discussa precedentemente è formata come:
<o, nella notazione M>
che può facilitare una misurazione densa dell’illuminazione attraverso la scena.
Di conseguenza, l’osservazione basata su fotocamera della scena facilita la fornitura dei parametri coinvolti nel calcolo dell’illuminamento attraverso una scena applicando il concetto di radiosità allo stato dell’arte per la renderizzazione di una scena.
La Figura 4 è un esempio di una rappresentazione di una pipeline che facilita una determinazione (in una risoluzione spaziale elevata della scena) dell’illuminamento in un ambiente A calcolando i parametri da fornire come ingresso al modello di radiosità, cioè:
1) i valori di riflettenza della scena,
2) i fattori di forma geometrici dall’ingresso in 3D della scena, e
3) la posizione reale e l’intensità luminosa delle sorgenti di luce.
Questi tre parametri (insieme alle intensità dei pixel effettive) possono essere usati al fine di risolvere la formulazione della radiosità in modo efficiente per calcolare i valori di illuminamento prevalenti.
In una o più forme di attuazione, i valori di pixel misurati dell’immagine presa (in 12) dalla scena A sono usati considerando il modello di radiosità come una versione perfezionata della forma di attuazione discussa precedentemente per calcolare il valore di illuminazione attraverso la scena dovuto soltanto all’illuminazione diretta da sorgenti di luce.
La catena di strumenti di formule basata sul modello di radiosità per descrivere l’illuminazione globale può assumere la forma:
o, nella notazione R
vale a dire:
<o, nella not> <azione M>
che corrisponde alla formula vista precedentemente,
dove:
- M(x,t) o R(x,t) è l’emittanza del patch a (x,t)
- Eps(x,t) è l’emittanza del patch a (x,t), dovuta all’autoemittanza per un’illuminazione diretta
- ρ(x) è la riflettività di albedo lambertiana del patch stesso
- p (una notazione abbreviata per la variabile di integrazione superficiale xp=xpatch) indica la variabile di integrazione attraverso l’intera superficie nella scena - θ e θp sono gli angoli delle normali in x e xp=p alla loro linea di congiunzione.
Inoltre, l’integrale indicato si riferisce alla raccolta attraverso l’intera superficie visibile della scena.
In una notazione discreta, il termine all’interno dell’integrale può essere scritto come una matrice quadrata <F(p,x,t) >
o, nella notazione R
dove:
- δpx è il simbolo di Dirac con valore 1 per p differente da x altrimenti 0, per facilitare il fatto di evitare di includere il patch a (x,t), e
- Fpx rappresenta i fattori di forma come una matrice quadrata di dimensione n x n che porta le informazioni circa l’allineamento geometrico dei patch, così come i valori di albedo dei patch.
Le informazioni circa l’allineamento geometrico dei patch sono recuperate, per es., da una nuvola di punti di una fotocamera di profondità (per es., tempo di volo come ToF, Lidar, ecc.) che osserva la scena come discusso precedentemente, mentre i valori di albedo dei patch sono recuperati dall’osservazione della scena a lungo termine secondo il procedimento di scomposizione dell’immagine come già menzionato in precedenza.
In una o più forme di attuazione, al fine di facilitare una soluzione per l’auto-emittanza, cioè Eps(x,t), la formula può essere scritta come
o, nella notazione R
che può essere condensata usando la matrice identità I come:
o, nella notazione R
Il fatto di cambiare la notazione da (x,p) a (i,j) conduce a una notazione d i matrice tradizionale come:
o, nella notazione R
Questo facilita il fatto di fare riferimento a una rappresentazione matriciale pura senza indici come una moltiplicazione tra matrice e vettore standard:
o, nella notazione R
dove:
- (I-F) rappresenta una matrice quadrata di dimensione n x n sotto forma di una matrice di trasferimento ottico,
- Eps e M, R rappresentano ciascuno un vettore monodimensionale di dimensione n.
In una o più forme di attuazione, Eps può essere calcolato in base al modello di radiosità descritto precedentemente.
Per una scena lambertiana, si trova che Eps corrisponda direttamente al valore di albedo ρ con una sua illuminazione diretta come:
in modo corrispondente
Siccome M o R corrispondono direttamente all’emittanza visibile, la luminanza visibile L per una scena lambertiana è:
perciò, la formula precedente può essere scritta come
vale a dire:
Questo facilita l’estrazione dell’illuminazione attraverso la stanza dovuta soltanto all’illuminazione dalla sorgente di luce senza considerare le interriflessioni mutue che si verificano nell’ambiente A.
In una o più forme di attuazione, al fine di facilitare una soluzione per la radiosità, cioè M o R, ricavando dall’equazione (2) la formula è da scrivere come:
o, nella notazione R
In una o più forme di attuazione, al fine di facilitare l’ottenimento di una soluzione per la riflettività o l’albedo, cioè ρ, la formula precedente può essere scritta come:
<O, nella notazione R>
Di conseguenza, a seconda di quali entità possono essere considerate note, queste formule possono essere risolte al fine di trovare le entità incognite.
Per esempio, in una o più forme di attuazione, si può calcolare esplicitamente una mappa di ombreggiatura, che è il resto dell’illuminazione totale E(x,t) e dell’illuminazione diretta Ed(x,t) da apparecchiature per illuminazione, per es., come:
dove
- (Lρinv) è un prodotto scalare di vettori (non un prodotto scalare)
- F*(Lρinv) è un prodotto di vettore e matrice standard - S(x,t) è un vettore monodimensionale di dimensione n, in modo tale che S rappresenti esplicitamente la mappa di ombreggiatura misurata della scena.
ELENCO DEI DOCUMENTI CITATI
[1] DIALux software - https://www.dial.de/en/dialux/. Acceduti: 2017-11-16
[2] Relux software - https://relux.com/en/. Acceduti: 2017-11-16
[3] Domanda di Brevetto PCT PCT/IB2017/056246
[4] B. Beckers, et al.: “Fast and accurate view factor generation”, FICUP, An International Conference on Urban Physics, 09 2016
[5] L. Masset, et al.: “Partition of the circle in cells of equal area and shape”, Technical report, Structural Dynamics Research Group, Aerospace and Mechanical Engineering Department, University of Liege, ‘Institut de Mécanique et Genie Civil’ (B52/3), 2011.
[6] M. Chandraker, et al.: “On the duality of forward and inverse light transport”. IEEE Trans. Pattern Anal. Mach. Intell., 33(10):2122–2128, ottobre 2011
[7] Jian Shi, et al.: “Efficient intrinsic image decomposition for RGBD images”, in Proceedings of the 21st ACM Symposium on Virtual Reality Software and Technology (VRST '15), Stephen N. Spencer (Ed.). ACM, New York, NY, Stati Uniti d’America, 17-25. DOI: https://doi.org/10.1145/2821592.2821601
[8] Samuel Boivin: “Fitting complex materials from a Single Image”, ACM SIGGRAPH 2002 Course Notes #39, “Acquiring Material Models Using Inverse Rendering” Steve Marschner e Ravi Ramamoorthi
[9] S. Boivin, et al.: “Advanced Computer Graphics and Vision Collaboration Techniques for Image-Based Rendering”, Imaging and Vision Systems: Assessment and Applications, Jacques Blanc-Talon e Dan Popescu, Section 4.
Un procedimento secondo una o più forme di attuazione può così comprendere:
- catturare (per es., in 12) almeno un’immagine di un ambiente (per es., A) illuminato (per es., L),
- estrarre (per es., in 10) da detta almeno un’immagine catturata valori di emittanza di luce, M(x,t) o R(x,t), così come valori di albedo ρ(x) di aree superficiali attraverso l’ambiente,
- calcolare valori di illuminazione E(x,t) di aree superficiali attraverso l’ambiente in funzione di detti valori di emittanza e di detti valori di albedo ρ(x).
Una o più forme di attuazione possono comprendere:
- calcolare da detta almeno un’immagine di un ambiente illuminato valori di luminanza misurati L(x,t) di aree superficiali attraverso l’ambiente,
- convertire i valori di luminanza misurati L(x,t) in valori di emittanza corrispondenti di aree superficiali attraverso l’ambiente.
Una o più forme di attuazione possono comprendere:
- disporre detti valori di emittanza in un vettore, - calcolare un vettore dei valori invertiti dei valori di albedo acquisiti,
- calcolare detti valori di illuminazione E(x,t) come un prodotto scalare di vettori di detto vettore di valori di emittanza e di detto vettore dei valori invertiti dei valori di albedo acquisiti.
Una o più forme di attuazione, in cui catturare detta almeno un’immagine di un ambiente illuminato comprende di acquisire informazioni di profondità dell’immagine dell’ambiente illuminato, può comprendere:
- estrarre da detta almeno un’immagine che comprende informazioni di profondità dell’ambiente illuminato:
- a) informazioni di riflettenza (per es., 120a) di detto ambiente,
- b) fattori di forma (per es., 120b) di detto ambiente, e
- c) informazioni di posizione e di intensità di illuminazione (per es., 120c) di sorgenti di luce che illuminano detto ambiente,
- generare, in funzione di dette informazioni di riflettenza, di detti fattori di forma e di dette informazioni di posizione e di intensità di illuminazione, un modello di radiosità di detto ambiente,
- risolvere (per es., in 104) detto modello di radiosità per produrre valori di radiosità di aree superficiali attraverso detto ambiente, e
- mappare (per es., 106) detti valori di radiosità su valori di illuminazione di aree superficiali attraverso detto ambiente.
Una o più forme di attuazione possono comprendere di risolvere detto modello di radiosità risolvendo la matrice di radiosità in base a una stima di radiosità vincolata.
In una o più forme di attuazione, convertire i valori di luminanza misurati L(x,t) in valori di emittanza corrispondenti può comprendere di sostituire detti valori di luminanza misurati L(x,t) con detti valori di radiosità.
Una o più forme di attuazione possono comprendere:
- estrarre da detta almeno un’immagine che comprende informazioni di profondità dell’ambiente illuminato informazioni di visibilità indicative della presenza o dell’assenza di visibilità in linea ottica tra coppie di aree superficiali attraverso detto ambiente; e
- includere dette informazioni di visibilità in detto modello di radiosità di detto ambiente (A).
Un sistema di illuminazione secondo una o più forme di attuazione può comprendere:
- un insieme di dispositivi di illuminazione per illuminare un ambiente,
- un dispositivo di cattura di immagini configurato per catturare almeno un’immagine di un ambiente illuminato, - un’unità di elaborazione di segnale accoppiata al dispositivo di cattura di immagini e configurata per:
- a) calcolare valori di illuminazione E(x,t) di aree superficiali attraverso l’ambiente con il procedimento secondo una o più forme di attuazione, e
- b) coordinare il funzionamento di detto insieme di dispositivi di illuminazione in funzione dei valori di illuminazione E(x,t) calcolati.
In una o più forme di attuazione, il dispositivo di cattura di immagini può comprendere:
- un primo sensore di immagine configurato per catturare un’immagine, preferibilmente un’immagine a occhio di pesce e/o a colori dell’ambiente illuminato, e
- un sensore di profondità dell’immagine sensibile a informazioni di profondità dell’ambiente illuminato.
Una o più forme di attuazione possono comprendere un prodotto informatico, caricabile in almeno un modulo di elaborazione (per es., 10) e comprendente porzioni di codice software per effettuare le fasi del procedimento secondo una o più forme di attuazione.
Una o più forme di attuazione possono comportare l’uso del procedimento secondo una o più forme di attuazione nel calcolare valori di illuminazione E(x,t) di aree superficiali attraverso un ambiente per l’applicazione di una messa in esercizio dell’illuminazione in esso.
Una o più forme di attuazione possono comportare l’uso del procedimento secondo una o più forme di attuazione nel calcolare valori di illuminazione E(x,t) di aree superficiali attraverso un ambiente per l’applicazione di una regolazione e gestione della luce in base a standard di illuminazione o a scenari predefiniti.
Una o più forme di attuazione possono comportare l’uso del procedimento secondo una o più forme di attuazione nel calcolare valori di illuminazione E(x,t) di aree superficiali attraverso un ambiente per l’applicazione di smart lighting e ambienti di qualità in cui si vive e si lavora.
Fermi restando i principi di fondo, i dettagli e le forme di attuazione possono variare, anche in modo apprezzabile, rispetto a quanto è stato descritto, puramente a titolo di esempio, senza uscire dall’ambito di protezione.
L’ambito di protezione è definito dalle rivendicazioni annesse.
A tale riguardo, si apprezzerà che in tutta questa descrizione sono state usate per chiarezza sia la notazione M, per es., M(x,t), sia la notazione R, per es. R(x,t), essendo inteso che, a meno che sia indicato altrimenti, queste notazioni intendono riferirsi alle stesse entità fisiche.
ELENCO DEI SIMBOLI DI RIFERIMENTO
Sorgenti/dispositivi di illuminazione L Ambiente A Unità di elaborazione 10 Insieme di sensori 12 Sensore di fotocamera RGB 12a Sensore di fotocamera di profondità in 3D 12b Informazioni di riflettenza 120a Fattori di forma 120b Informazioni di posizione e di intensità
di illuminazione 120c Modulo/blocco 104 Mappatura 106
Claims (13)
- RIVENDICAZIONI 1. Procedimento, comprendente: - catturare (12) almeno un’immagine di un ambiente (A) illuminato (L), - estrarre (10) da detta almeno un’immagine catturata valori di emittanza di luce, M(x,t) o R(x,t), così come valori di albedo ρ(x) di aree superficiali attraverso l’ambiente (A), - calcolare (10) valori di illuminazione E(x,t) di aree superficiali attraverso l’ambiente (A) in funzione di detti valori di emittanza e di detti valori di albedo ρ(x).
- 2. Procedimento secondo la rivendicazione 1, comprendente: - calcolare (10) da detta almeno un’immagine di un ambiente (A) illuminato (L) valori di luminanza misurati L(x,t) di aree superficiali attraverso l’ambiente (A), - convertire i valori di luminanza misurati L(x,t) in valori di emittanza corrispondenti di aree superficiali attraverso l’ambiente (A).
- 3. Procedimento secondo la rivendicazione 2, comprendente: - disporre detti valori di emittanza in un vettore, - calcolare un vettore dei valori invertiti dei valori di albedo acquisiti, - calcolare detti valori di illuminazione E(x,t) come un prodotto scalare di vettori di detto vettore di valori di emittanza e di detto vettore dei valori invertiti dei valori di albedo acquisiti.
- 4. Procedimento secondo la rivendicazione 1, in cui catturare (12a) detta almeno un’immagine di un ambiente (A) illuminato (L) comprende di acquisire informazioni di profondità dell’immagine (12b) dell’ambiente (A) illuminato (L), e in cui il procedimento comprende: - estrarre da detta almeno un’immagine che comprende informazioni di profondità (12b) dell’ambiente (A) illuminato (L): - a) informazioni di riflettenza (120a) di detto ambiente (A), - b) fattori di forma (120b) di detto ambiente (A), e - c) informazioni di posizione e di intensità di illuminazione (120c) di sorgenti di luce (L) che illuminano detto ambiente (A), - generare, in funzione di dette informazioni di riflettenza (120a), detti fattori di forma (120b) e dette informazioni di posizione e di intensità di illuminazione (120c), un modello di radiosità di detto ambiente (A), - risolvere (104) detto modello di radiosità per produrre valori di radiosità di aree superficiali attraverso detto ambiente (A), e - mappare (106) detti valori di radiosità su valori di illuminazione di aree superficiali attraverso detto ambiente (A).
- 5. Procedimento secondo la rivendicazione 4, comprendente di risolvere (104) detto modello di radiosità risolvendo la matrice di radiosità in base a una stima di radiosità vincolata.
- 6. Procedimento secondo la rivendicazione 4 o la rivendicazione 5, presa in combinazione con la rivendicazione 2, in cui convertire i valori di luminanza misurati L(x,t) in valori di emittanza corrispondenti comprende di sostituire detti valori di luminanza misurati L(x,t) con detti valori di radiosità.
- 7. Procedimento secondo una qualsiasi delle rivendicazioni da 4 a 6, comprendente: - estrarre da detta almeno un’immagine che comprende informazioni di profondità (12b) dell’ambiente (A) illuminato (L) informazioni di visibilità indicative della presenza o dell’assenza di visibilità in linea ottica tra coppie di aree superficiali attraverso detto ambiente (A); e - includere dette informazioni di visibilità in detto modello di radiosità di detto ambiente (A).
- 8. Sistema di illuminazione comprendente: - un insieme di dispositivi di illuminazione (L) per illuminare un ambiente (A), - un dispositivo di cattura di immagini (12) configurato per catturare almeno un’immagine di un ambiente (A) illuminato (L), - un’unità di elaborazione di segnale (10) accoppiata al dispositivo di cattura di immagini (12) e configurata per: - a) calcolare (10) valori di illuminazione E(x,t) di aree superficiali attraverso l’ambiente (A) con il procedimento secondo una qualsiasi delle rivendicazioni da 1 a 7, e - b) coordinare il funzionamento di detto insieme di dispositivi di illuminazione (L) in funzione dei valori di illuminazione E(x,t) calcolati.
- 9. Sistema di illuminazione secondo la rivendicazione 8, in cui il dispositivo di cattura di immagini (12) comprende: - un primo sensore di immagine (12a) configurato per catturare un’immagine, preferibilmente un’immagine a occhio di pesce e/o a colori dell’ambiente (A) illuminato (L), e - un sensore di profondità dell’immagine (12b) sensibile a informazioni di profondità dell’ambiente (A) illuminato (L).
- 10. Prodotto informatico, caricabile in almeno un modulo di elaborazione (10) e comprendente porzioni di codice software per effettuare le fasi del procedimento secondo una qualsiasi delle rivendicazioni da 1 a 7.
- 11. Uso del procedimento secondo una qualsiasi delle rivendicazioni da 1 a 7 nel calcolare (10) valori di illuminazione E(x,t) di aree superficiali attraverso un ambiente (A) per l’applicazione di una messa in esercizio dell’illuminazione in esso.
- 12. Uso del procedimento secondo una qualsiasi delle rivendicazioni da 1 a 7 nel calcolare (10) valori di illuminazione E(x,t) di aree superficiali attraverso un ambiente (A) per l’applicazione di una regolazione e gestione della luce in base a standard di illuminazione o scenari predefiniti.
- 13. Uso del procedimento secondo una qualsiasi delle rivendicazioni da 1 a 7 nel calcolare (10) valori di illuminazione E(x,t) di aree superficiali attraverso un ambiente (A) per l’applicazione di smart lighting e ambienti di qualità in cui si vive e si lavora.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000005381A IT201800005381A1 (it) | 2018-05-15 | 2018-05-15 | Procedimento di misura dell'illuminazione, sistema, prodotto informatico ed uso corrispondenti |
EP19730215.1A EP3794910B1 (en) | 2018-05-15 | 2019-05-06 | A method of measuring illumination, corresponding system, computer program product and use |
US17/055,134 US20210199498A1 (en) | 2018-05-15 | 2019-05-06 | A method of measuring illumination, corresponding system, computer program product and use |
PCT/IB2019/053669 WO2019220256A1 (en) | 2018-05-15 | 2019-05-06 | A method of measuring illumination, corresponding system, computer program product and use |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000005381A IT201800005381A1 (it) | 2018-05-15 | 2018-05-15 | Procedimento di misura dell'illuminazione, sistema, prodotto informatico ed uso corrispondenti |
Publications (1)
Publication Number | Publication Date |
---|---|
IT201800005381A1 true IT201800005381A1 (it) | 2019-11-15 |
Family
ID=62875257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT102018000005381A IT201800005381A1 (it) | 2018-05-15 | 2018-05-15 | Procedimento di misura dell'illuminazione, sistema, prodotto informatico ed uso corrispondenti |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210199498A1 (it) |
EP (1) | EP3794910B1 (it) |
IT (1) | IT201800005381A1 (it) |
WO (1) | WO2019220256A1 (it) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021018901A1 (en) * | 2019-08-01 | 2021-02-04 | Signify Holding B.V. | A device and method for implementing a connected lighting system |
CN111854939B (zh) * | 2020-07-24 | 2023-02-03 | 深圳市明学光电股份有限公司 | 一种用于led软灯条的在线检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016112430A1 (en) * | 2015-01-14 | 2016-07-21 | The University Of Sydney | Hyperspectral imager method and apparatus |
WO2018069827A1 (en) * | 2016-10-13 | 2018-04-19 | Osram Gmbh | A method of identifying light sources, corresponding system and computer program product |
-
2018
- 2018-05-15 IT IT102018000005381A patent/IT201800005381A1/it unknown
-
2019
- 2019-05-06 WO PCT/IB2019/053669 patent/WO2019220256A1/en unknown
- 2019-05-06 EP EP19730215.1A patent/EP3794910B1/en active Active
- 2019-05-06 US US17/055,134 patent/US20210199498A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016112430A1 (en) * | 2015-01-14 | 2016-07-21 | The University Of Sydney | Hyperspectral imager method and apparatus |
WO2018069827A1 (en) * | 2016-10-13 | 2018-04-19 | Osram Gmbh | A method of identifying light sources, corresponding system and computer program product |
Non-Patent Citations (1)
Title |
---|
DANIEL MAURER ET AL: "Combining Shape from Shading and Stereo: A Joint Variational Method for Estimating Depth, Illumination and Albedo", INTERNATIONAL JOURNAL OF COMPUTER VISION., vol. 126, no. 12, 27 March 2018 (2018-03-27), US, pages 1342 - 1366, XP055552217, ISSN: 0920-5691, DOI: 10.1007/s11263-018-1079-1 * |
Also Published As
Publication number | Publication date |
---|---|
EP3794910A1 (en) | 2021-03-24 |
WO2019220256A1 (en) | 2019-11-21 |
US20210199498A1 (en) | 2021-07-01 |
EP3794910B1 (en) | 2022-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9953430B1 (en) | Methods for detecting luminary fixtures | |
JP6039008B2 (ja) | 着色評価装置及び着色評価方法 | |
CN105847786B (zh) | 用于确定色彩变换参数的系统和方法 | |
US20140218511A1 (en) | High-Throughput and High Resolution Method for Measuring the Color Uniformity of a Light Spot | |
CN106576414A (zh) | 占用感测智能照明系统 | |
CN107228625B (zh) | 三维重建方法、装置及设备 | |
CN108364292B (zh) | 一种基于多幅视角图像的光照估计方法 | |
RU2013101791A (ru) | Получение пространственных топографических изображений следов от инструмента с использованием нелинейного фотометрического стереоспособа | |
BR112016020894B1 (pt) | Sistema e método implantado por processador para determinar espessuras de revestimento e meio legível por computador | |
CA2826092C (en) | Camera assembly for the extraction of image depth discontinuity and method of use | |
JP2024009912A (ja) | 検査システム及び検査方法 | |
JP5076055B2 (ja) | 画像の照明検出 | |
Nam et al. | Multispectral photometric stereo for acquiring high-fidelity surface normals | |
IT201800005381A1 (it) | Procedimento di misura dell'illuminazione, sistema, prodotto informatico ed uso corrispondenti | |
JP2015068813A (ja) | メタリック感の評価方法及び評価装置 | |
Kim et al. | Semi-automated luminance map re-projection via high dynamic range imaging and indoor space 3-D reconstruction | |
CN107392955B (zh) | 一种基于亮度的景深估算装置及方法 | |
Quéau et al. | Microgeometry capture and RGB albedo estimation by photometric stereo without demosaicing | |
KR101630856B1 (ko) | 다분광 포토메트릭 스테레오 시스템 그리고 이의 동작 방법 | |
Bringier et al. | Photometric reconstruction of a dynamic textured surface from just one color image acquisition | |
Hirai et al. | Measuring spectral reflectance and 3D shape using multi-primary image projector | |
JP2017183903A (ja) | 空間映像再現装置、方法、及びプログラム | |
CN107784171B (zh) | 一种空间模型构建方法 | |
Sitnik et al. | Processing paths from integrating multimodal 3D measurement of shape, color and BRDF | |
Brembilla et al. | Real world complexity in reflectance value measurement for climate-based daylight modelling |