ITUB20159701A1 - ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD - Google Patents

ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD Download PDF

Info

Publication number
ITUB20159701A1
ITUB20159701A1 ITUB2015A009701A ITUB20159701A ITUB20159701A1 IT UB20159701 A1 ITUB20159701 A1 IT UB20159701A1 IT UB2015A009701 A ITUB2015A009701 A IT UB2015A009701A IT UB20159701 A ITUB20159701 A IT UB20159701A IT UB20159701 A1 ITUB20159701 A1 IT UB20159701A1
Authority
IT
Italy
Prior art keywords
user
view
station
processing station
vpn
Prior art date
Application number
ITUB2015A009701A
Other languages
Italian (it)
Inventor
Massimiliano Bianchetti
Original Assignee
Massimiliano Bianchetti
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Massimiliano Bianchetti filed Critical Massimiliano Bianchetti
Priority to ITUB2015A009701A priority Critical patent/ITUB20159701A1/en
Publication of ITUB20159701A1 publication Critical patent/ITUB20159701A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Description

"APPARECCHIATURA DI AUSILIO ALLA PROGETTAZIONE DI AMBIENTI E METODO DI PROGETTAZIONE DI AMBIENTI" "EQUIPMENT TO AID TO THE DESIGN OF ENVIRONMENTS AND METHOD OF DESIGN OF ENVIRONMENTS"

La presente invenzione è relativa a un'apparecchiatura di ausilio alla progettazione di ambienti e a un metodo di progettazione di ambienti. The present invention relates to an apparatus for the design of environments and to a method for the design of environments.

Come è noto, nel settore della progettazione edile e di architettura, e in particolare nella progettazione di interni, è fondamentale poter offrire una visualizzazione il più possibile realistica e accurata del risultato previsto di ciascun progetto, per assistere le scelte e verificare la rispondenza alle richieste del committente. Questo è specialmente importante nella realizzazione di opere complesse, ma l'esigenza è comunque sentita nella progettazione di architettura a qualsiasi livello. Nel tempo, sono stati perciò sviluppati numerosi strumenti di ausilio alla progettazione che consentono accuratezza e flessibilità nella visualizzazione. As is known, in the field of building and architectural design, and in particular in interior design, it is essential to be able to offer a visualization as realistic and accurate as possible of the expected result of each project, to assist in the choices and verify compliance with requests. of the client. This is especially important in the realization of complex works, but the need is nevertheless felt in the design of architecture at any level. Over time, numerous design aid tools have therefore been developed that allow for accuracy and flexibility in visualization.

Gli strumenti meno sofisticati consentono di semplicemente di visualizzare immagini statiche di un ambiente ottenute da modelli tridimensionali attraverso tecniche di rendering. Strumenti di questo tipo sono leggeri dal punto di vista della potenza di calcolo richiesta e permettono di realizzare alcune modifiche e varianti in breve tempo. Tuttavia, i risultati offerti sono molto limitati per quanto riguarda il miglioramento della percezione dell'esito del progetto. The less sophisticated tools allow you to simply display static images of an environment obtained from three-dimensional models through rendering techniques. Instruments of this type are light in terms of the required computing power and allow some modifications and variations to be made in a short time. However, the results offered are very limited in terms of improving the perception of the project outcome.

Strumenti più evoluti consentono di effettuare le cosiddette visite virtuali. In pratica, su una stazione di elaborazione viene definito un modello tridimensionale completo di un ambiente complesso, come può essere un appartamento, un ufficio o anche l'interno un intero edificio. Viene inoltre definito un punto di vista all'interno dell'ambiente e la scena osservata dal punto di vista scelto viene visualizzata su uno schermo. Interfacce convenzionali, quali una tastiera fisica o virtuale e un mouse o altro dispositivo di puntamento, permettono all'utente di modificare il punto di vista. In pratica, il punto di vista può essere spostato e ruotato liberamente all'interno dell'intero ambiente e la scena osservata e visualizzata sullo schermo viene continuamente aggiornata di conseguenza. In questo modo, l'utente ha la possibilità di visitare in modo virtuale l'ambiente risultante dal progetto e rappresentato dal modello tridimensionale. More advanced tools allow you to make so-called virtual visits. In practice, a complete three-dimensional model of a complex environment is defined on a processing station, such as an apartment, an office or even the interior of an entire building. A point of view within the environment is also defined and the scene observed from the chosen point of view is displayed on a screen. Conventional interfaces, such as a physical or virtual keyboard and a mouse or other pointing device, allow the user to change the point of view. In practice, the point of view can be moved and rotated freely within the entire environment and the scene observed and displayed on the screen is continuously updated accordingly. In this way, the user has the possibility to visit the environment resulting from the project and represented by the three-dimensional model in a virtual way.

In questo modo, la percezione del risultato del progetto è più completa rispetto alla semplice visualizzazione di immagini statiche. L'utente resta però sostanzialmente estraneo all'ambiente rappresentato, senza avere la possibilità di valutare in modo realistico gli spazi in rapporto alla propria presenza. In this way, the perception of the project result is more complete than simply viewing static images. However, the user remains substantially extraneous to the environment represented, without having the possibility of evaluating the spaces in a realistic way in relation to their presence.

Scopo della presente invenzione è quindi fornire un'apparecchiatura di ausilio alla progettazione di ambienti e un metodo di progettazione di ambienti che permettano di superare o almeno attenuare le limitazioni descritte. The object of the present invention is therefore to provide an apparatus to aid in the design of environments and a method for designing environments that allow to overcome or at least mitigate the limitations described.

Secondo la presente invenzione vengono forniti un'apparecchiatura di ausilio alla progettazione di ambienti e un metodo di progettazione di ambienti come definiti rispettivamente nelle rivendicazioni 1 e 14. According to the present invention, an apparatus to aid the design of environments and a method of designing environments are provided as defined in claims 1 and 14 respectively.

La presente invenzione verrà ora descritta con riferimento ai disegni annessi, che ne illustrano alcuni esempi di attuazione non limitativi, in cui: The present invention will now be described with reference to the attached drawings, which illustrate some non-limiting examples of implementation, in which:

- la figura 1 è uno schema a blocchi semplificato di un'apparecchiatura di ausilio alla progettazione di ambienti in accordo a una forma di realizzazione della presente invenzione; - figure 1 is a simplified block diagram of an apparatus to aid the design of environments according to an embodiment of the present invention;

- la figura 2 è una vista prospettica semplificata di una parte dell'apparecchiatura di figura 1; Figure 2 is a simplified perspective view of a part of the apparatus of Figure 1;

- la figura 3 è una vista in pianta dall'alto schematica che illustra la disposizione di componenti dell'apparecchiatura di figura 1; Figure 3 is a schematic top plan view illustrating the arrangement of components of the apparatus of Figure 1;

- la figura 4 illustra un modello umano utilizzato dall'apparecchiatura di figura 1; Figure 4 illustrates a human model used by the apparatus of Figure 1;

- la figura 5 è una vista in pianta dall'alto semplificata di un ulteriore componente dell'apparecchiatura di figura 1; Figure 5 is a simplified top plan view of a further component of the apparatus of Figure 1;

- la figura 6 è uno schema a blocchi semplificato di un'apparecchiatura di ausilio alla progettazione di ambienti in accordo a una diversa forma di realizzazione della presente invenzione; e - figure 6 is a simplified block diagram of an apparatus to aid the design of environments according to a different embodiment of the present invention; And

- la figura 7 illustra modelli umani utilizzati dall'apparecchiatura di figura 6. - figure 7 illustrates human models used by the apparatus of figure 6.

Con riferimento alla figura 1, un'apparecchiatura di ausilio alla progettazione di ambienti, in particolare per la progettazione di interni, è indicata nel suo complesso con il numero 1, Con il termine ''ambiente", si intende qui e nel seguito indicare generalmente uno spazio di pertinenza di un edificio o di altra struttura abitabile (ad esempio imbarcazioni), in particolare spazi interni, spazi aperti o esterni, quali terrazzi o verande, e spazi adiacenti all'edificio, ad esempio giardini. With reference to Figure 1, an equipment to aid in the design of environments, in particular for interior design, is indicated as a whole with the number 1, The term "environment" here and hereinafter generally refers to a space belonging to a building or other habitable structure (for example boats), in particular internal spaces, open or external spaces, such as terraces or verandas, and spaces adjacent to the building, for example gardens.

L'apparecchiatura 1 comprende una stazione ("workstation") di progettazione 2, un sistema di acquisizione di immagini 3, una stazione di tracciamento ("tracking") 4, una stazione di elaborazione grafica 5 e almeno un visore per realtà virtuale immersiva o visore IVR ("Immersive Virtual Reality") 7. The apparatus 1 comprises a design station ("workstation") 2, an image acquisition system 3, a "tracking" station 4, a graphics processing station 5 and at least one immersive virtual reality viewer or IVR ("Immersive Virtual Reality") viewer 7.

La stazione di progettazione 2, la stazione di tracciamento 4 e la stazione di elaborazione grafica 5 possono vantaggiosamente (ma non necessariamente) essere realizzate da sistemi a calcolatore distinti, per avere a disposizione complessivamente una maggiore capacità di elaborazione. The design station 2, the tracing station 4 and the graphic processing station 5 can advantageously (but not necessarily) be implemented by separate computer systems, in order to have a greater overall processing capacity available.

La stazione di progettazione 2 è provvista di uno strumento di progettazione grafica tridimensionale 8 e di un convertitore 10. The design station 2 is equipped with a three-dimensional graphic design tool 8 and a converter 10.

Lo strumento di progettazione grafica tridimensionale 8 permette di progettare ambienti e di produrre modelli tridimensionali nativi M3DN degli ambienti progettati. The three-dimensional graphic design tool 8 allows you to design environments and produce native M3DN three-dimensional models of the designed environments.

I modelli tridimensionali nativi M3DN sono resi disponibili come file in un qualsiasi formato grafico tridimensionale utilizzabile su calcolatore. The M3DN native three-dimensional models are made available as files in any three-dimensional graphic format that can be used on a computer.

II convertitore 10 converte i modelli tridimensionali nativi M3DN in modelli tridimensionali semplificati M3DS, che in una forma di realizzazione dell'invenzione possono essere direttamente utilizzati dalla stazione di elaborazione grafica 5 per generare immagini di realtà virtuale per il visore IVR 7 . In una forma di realizzazione, i modelli tridimensionali semplificati M3DS sono in un formato direttamente eseguibile dalla stazione di elaborazione grafica 5. The converter 10 converts the M3DN native three-dimensional models into M3DS simplified three-dimensional models, which in an embodiment of the invention can be directly used by the graphics processing station 5 to generate virtual reality images for the IVR viewer 7. In one embodiment, the M3DS simplified three-dimensional models are in a format directly executable by the graphics processing station 5.

Con riferimento anche alla figura 2, il sistema di acquisizione di immagini 3 comprende una pluralità di dispositivi di videoripresa, ad esempio videocamere 13, collocati in rispettivi punti di ripresa su una struttura di supporto 15 e organizzati in modo da inquadrare un'area di simulazione A, ad esempio quadrata o rettangolare con lati fra 4 m e 6 m. La struttura di supporto 15 può essere definita da pareti 16 mobili, che delimitano uno spazio sostanzialmente parallelepipedo attorno all'area di simulazione A. Le pareti 16 possono avere superficie uniforme, per agevolare l'elaborazione delle immagini. In una forma di realizzazione, il sistema di acquisizione di immagini 3 comprende dodici videocamere 13 disposte su due livelli, ad esempio a 1,5 m e 3 m di altezza. Delle sei videocamere 13 di ciascun livello (figura 3), quattro sono disposte attorno ai vertici dell'area di simulazione A, a coppie diagonalmente opposte, e due sono disposte alla metà di lati opposti dell'area di simulazione A. With reference also to Figure 2, the image acquisition system 3 comprises a plurality of video recording devices, for example video cameras 13, located at respective shooting points on a support structure 15 and organized so as to frame a simulation area A, for example square or rectangular with sides between 4 m and 6 m. The support structure 15 can be defined by movable walls 16, which delimit a substantially parallelepiped space around the simulation area A. The walls 16 can have a uniform surface, to facilitate image processing. In one embodiment, the image acquisition system 3 comprises twelve video cameras 13 arranged on two levels, for example at 1.5 m and 3 m in height. Of the six cameras 13 of each level (Figure 3), four are arranged around the vertices of simulation area A, in diagonally opposite pairs, and two are arranged in the middle of opposite sides of simulation area A.

Con riferimento nuovamente alla figura 1, la stazione di tracciamento 4 comprende un'interfaccia di acquisizione 18 e un'unità di elaborazione 20. L'interfaccia di acquisizione 18 riceve le uscite delle videocamere 13 in formato di rispettivi flussi di dati video VS1, ..., VSK e, se necessario, sincronizza e allinea temporalmente i dati in ingresso a istanti di campionamento. Referring again to Figure 1, the tracking station 4 comprises an acquisition interface 18 and a processing unit 20. The acquisition interface 18 receives the outputs of the video cameras 13 in the format of respective video data streams VS1,. .., VSK and, if necessary, synchronize and temporally align the input data to sampling instants.

L'unità di elaborazione 20 è accoppiata all'interfaccia di acquisizione 18 per ricevere i dati riallineati ed è configurata per determinare la posizione di elementi di riferimento presenti nell'area di simulazione. La posizione è definita da tre coordinate spaziali e gli elementi di riferimento possono essere elementi riflettenti 21 indossati da utenti presenti nell'area di simulazione A durante l'utilizzo dell'apparecchiatura 1. Gli elementi riflettenti 21 possono essere indossati ad esempio sugli arti e sul capo. Ulteriori elementi di riferimento fissi possono essere disposti attorno e all'interno dell'area di simulazione e su parti della struttura di supporto 15. The processing unit 20 is coupled to the acquisition interface 18 to receive the realigned data and is configured to determine the position of reference elements present in the simulation area. The position is defined by three spatial coordinates and the reference elements can be reflective elements 21 worn by users present in the simulation area A while using the equipment 1. The reflective elements 21 can be worn for example on the limbs and on the head. Further fixed reference elements can be arranged around and within the simulation area and on parts of the support structure 15.

In una fase di inizializzazione, è possibile associare all'utente gli elementi riflettenti 21 indossati per facilitare il riconoscimento rispetto agli altri elementi riflettenti 21 sin dal principio dell'elaborazione. In an initialization step, it is possible to associate the user with the reflective elements 21 worn to facilitate recognition with respect to the other reflective elements 21 from the beginning of processing.

L'unità di elaborazione 20 è configurata per determinare la posizione di ciascun elemento riflettente 21 indossato dall'utente utilizzando l'insieme delle immagini fornite dalle videocamere 13. In una forma di realizzazione, ad esempio, a ciascun istante di campionamento, l'unità di elaborazione 20 estrae coordinate grezze di ciascun elemento riflettente 21 indossato dall'utente dalle immagini riallineate ricevute da ciascuna videocamera 13. Quindi, per ciascun elemento riflettente 21 l'unità di elaborazione 20 determina una posizione corretta, ad esempio come media delle corrispondenti posizioni grezze ricavate dalle immagini provenienti dalle videocamere 13. A ciascun istante di campionamento, l'unità di elaborazione 20 fornisce alla stazione di elaborazione grafica 5 un vettore posizione VP, contenente le posizioni corrette degli elementi riflettenti 21 indossati dall'utente. The processing unit 20 is configured to determine the position of each reflective element 21 worn by the user using the set of images provided by the video cameras 13. In an embodiment, for example, at each sampling instant, the unit processing unit 20 extracts raw coordinates of each reflective element 21 worn by the user from the realigned images received by each video camera 13. Then, for each reflective element 21 the processing unit 20 determines a correct position, for example as an average of the corresponding raw positions obtained from the images coming from the video cameras 13. At each sampling instant, the processing unit 20 supplies the graphic processing station 5 with a position vector VP, containing the correct positions of the reflective elements 21 worn by the user.

La stazione di elaborazione grafica 5 è accoppiata alla stazione di progettazione 2, alla stazione di tracciamento 4 e al visore IVR 7. The graphic processing station 5 is coupled to the design station 2, the tracing station 4 and the IVR viewer 7.

La stazione di elaborazione grafica 5 carica un modello tridimensionale semplificato M3DS dell'ambiente da rappresentare dalla stazione di progettazione 2. Il caricamento può avvenire attraverso una connessione diretta o attraverso un supporto dati rimovibile. The graphic processing station 5 loads a simplified three-dimensional M3DS model of the environment to be represented by the design station 2. The loading can take place through a direct connection or through a removable data carrier.

Dalla stazione di tracciamento 4, la stazione di elaborazione grafica 5 riceve la successione dei vettori posizione VP. From the tracking station 4, the graphic processing station 5 receives the succession of the position vectors VP.

Il visore IVR 7 può essere dotato di un sensore di movimento 22, ad esempio un accelerometro o un giroscopio microelettromeccanico, che fornisce alla stazione di elaborazione grafica 5 un segnale di movimento SM. Il segnale di movimento SM, in aggiunta a uno o più elementi riflettenti 21 indossati dall'utente sul capo o direttamente sul visore IVR 7, permette di affinare il rilevamento della direzione di osservazione dell'utente, in modo da determinare e tracciare con precisione il punto di vista istantaneo dell'utente stesso. The IVR viewer 7 can be equipped with a motion sensor 22, for example an accelerometer or a microelectromechanical gyroscope, which supplies the graphics processing station 5 with a motion signal SM. The SM movement signal, in addition to one or more reflective elements 21 worn by the user on the head or directly on the IVR viewer 7, allows to refine the detection of the user's direction of observation, in order to accurately determine and track the instant point of view of the user himself.

La stazione di elaborazione grafica 5 è configurata per determinare il punto di vista istantaneo dell'utente in base ai vettori posizione VP e al segnale di movimento SM fornito dal visore IVR 7. In alcune forme di realizzazione, tuttavia, il punto di vista dell'utente può essere determinato a partire dai soli vettori posizione VP, senza l'ausilio del segnale di movimento SM. The graphics processing station 5 is configured to determine the instantaneous point of view of the user based on the position vectors VP and the motion signal SM provided by the IVR viewer 7. In some embodiments, however, the point of view of the user can be determined starting from the position vectors VP only, without the aid of the movement signal SM.

Per la corretta determinazione del punto di vista istantaneo dell'utente, la stazione di elaborazione grafica 5 può utilizzare relazioni e vincoli fra gli elementi riflettenti 21 definiti nella fase di inizializzazione . In particolare, i vincoli possono riguardare il fatto che le distanze fra alcune coppie di elementi riflettenti 21 possono essere fisse in virtù del posizionamento. Ad esempio, è possibile disporre due elementi riflettenti 21 su ciascun segmento di gambe e braccia dell'utente oppure singoli elementi riflettenti 21 su articolazioni consecutive di uno stesso arto (spalla-gomito-polso oppure anca-ginocchio-caviglia) . For the correct determination of the instantaneous point of view of the user, the graphic processing station 5 can use relations and constraints between the reflecting elements 21 defined in the initialization step. In particular, the constraints may relate to the fact that the distances between some pairs of reflecting elements 21 can be fixed by virtue of the positioning. For example, it is possible to arrange two reflecting elements 21 on each leg and arm segment of the user or single reflecting elements 21 on consecutive joints of the same limb (shoulder-elbow-wrist or hip-knee-ankle).

Una volta determinato il punto di vista istantaneo dell'utente, la stazione di elaborazione grafica 5 ricava una corrispondente scena osservata dal modello tridimensionale semplificato M3DS in uso e produce un'immagine stereoscopica IMG visualizzabile dal visore IVR 7. Once the user's instant point of view has been determined, the graphic processing station 5 derives a corresponding observed scene from the M3DS simplified three-dimensional model in use and produces a stereoscopic IMG image that can be viewed by the IVR 7 viewer.

Con riferimento alla figura 4, in una forma di realizzazione, la stazione di elaborazione grafica 5 definisce, in base alle coordinate degli elementi riflettenti 21 indossati durante la fase di inizializzazione, un modello umano 25, detto anche avatar, che viene integrato nella scena osservabile. A questo scopo, la stazione di elaborazione grafica 5 determina la posizione del modello umano 25 (che corrisponde alla posizione dell'utente nell'area di simulazione A) a partire dai vettori posizione VP e sovrappone 1'immagine tridimensionale del modello umano 25 alla scena ricavata dal modello tridimensionale semplificato M3DS in funzione del punto di vista istantaneo calcolato. È così possibile visualizzare la presenza dell'utente nell'ambiente rappresentato dal modello tridimensionale semplificato 21 nel visore IVR 7. With reference to Figure 4, in one embodiment, the graphic processing station 5 defines, on the basis of the coordinates of the reflective elements 21 worn during the initialization phase, a human model 25, also called avatar, which is integrated into the observable scene . For this purpose, the graphic processing station 5 determines the position of the human model 25 (which corresponds to the user's position in the simulation area A) starting from the position vectors VP and superimposes the three-dimensional image of the human model 25 on the scene. obtained from the simplified three-dimensional model M3DS as a function of the instantaneous point of view calculated. It is thus possible to visualize the presence of the user in the environment represented by the simplified three-dimensional model 21 in the IVR viewer 7.

Il visore IVR 7, illustrato in modo semplificato in figura 5, è un qualsiasi visore per realtà virtuale immersiva, capace cioè di visualizzare una scena tridimensionale virtuale all'utente, escludendo la visione dell'ambiente reale circostante. In particolare, il visore IVR 7 comprende una maschera 27 provvista di un involucro 28 opaco, che impedisce la visione dell'ambiente circostante una volta indossata la maschera 27. All'interno dell'involucro 28 sono alloggiati un processore grafico 30, accoppiato in comunicazione alla stazione di elaborazione grafica 5 per ricevere le immagini stereoscopiche IMG, e una coppia di schermi 32 appaiati, ciascuno configurato per visualizzare una rispettiva porzione delle immagini stereoscopiche IMG in modo da dare all'utente l'impressione della tridimensionalità. Sistemi ottici 33 permettono la corretta messa a fuoco dei due schermi 32. Il sensore di movimento 22, non mostrato, è collegato rigidamente all'involucro 28. The IVR viewer 7, illustrated in a simplified way in Figure 5, is any viewer for immersive virtual reality, i.e. capable of displaying a virtual three-dimensional scene to the user, excluding the view of the real surrounding environment. In particular, the IVR viewer 7 comprises a mask 27 provided with an opaque casing 28, which prevents the surrounding environment from being seen once the mask 27 is worn. A graphic processor 30, coupled in communication, is housed inside the casing 28. to the graphic processing station 5 to receive the stereoscopic images IMG, and a pair of paired screens 32, each configured to display a respective portion of the stereoscopic images IMG so as to give the user the impression of three-dimensionality. Optical systems 33 allow correct focusing of the two screens 32. The motion sensor 22, not shown, is rigidly connected to the casing 28.

L'apparecchiatura 1 consente all'utente di avere una percezione estremamente realistica del risultato del progetto rappresentato mediante il modello tridimensionale semplificato. L'apparecchiatura 1 infatti non solo consente di effettuare una visita virtuale completa dell'ambiente progettato, ma offre anche l'impressione essere effettivamente presente nell'ambiente rappresentato e di muoversi attraverso di esso in modo del tutto naturale. The apparatus 1 allows the user to have an extremely realistic perception of the result of the project represented by means of the simplified three-dimensional model. In fact, the device 1 not only allows a complete virtual visit of the designed environment to be carried out, but also offers the impression of actually being present in the environment represented and of moving through it in a completely natural way.

L'utente ha quindi la possibilità di osservare l'ambiente progettato dall'interno e di percepire la propria presenza in rapporto agli spazi circostanti. The user therefore has the opportunity to observe the designed environment from the inside and to perceive his own presence in relation to the surrounding spaces.

In una forma di realizzazione, illustrata in figura 6, un'apparecchiatura 100 comprende una stazione di progettazione 102, un sistema di acquisizione di immagini 103, una stazione di tracciamento ("tracking") 104, una stazione di elaborazione grafica 105 e una pluralità di visori IVR 107. In one embodiment, illustrated in Figure 6, an apparatus 100 comprises a design station 102, an image acquisition system 103, a "tracking" station 104, a graphics processing station 105 and a plurality of IVR viewers 107.

La stazione di progettazione 102 e il sistema di acquisizione di immagini 103 sono sostanzialmente del tipo già descritto con riferimento alle figure 1 e 2. La stazione di tracciamento 104 comprende un'interfaccia di acquisizione 118, sostanzialmente come già descritto, e un'unità di elaborazione 120. The design station 102 and the image acquisition system 103 are substantially of the type already described with reference to Figures 1 and 2. The tracking station 104 comprises an acquisition interface 118, substantially as already described, and a processing 120.

L'unità di elaborazione 120 è accoppiata all'interfaccia di acquisizione 118 per ricevere i dati riallineati ed è configurata per determinare la posizione di gruppi di elementi riflettenti 121.1, ..., 121.N (si veda anche la figura 7), ciascun gruppo di elementi riflettenti 121.1, ..., 121.N essendo indossato da un rispettivo utente presenti nell'area di simulazione A durante l'utilizzo dell'apparecchiatura 100. In una fase di inizializzazione, i gruppi di elementi riflettenti 121.1, ..., 121.N vengono identificati e associati al rispettivo utente, in modo che i dati relativi a ciascun gruppo e ciascun utente siano riconosciuti e trattati separatamente dall'unità di elaborazione 120. I gruppi di elementi riflettenti 121.1, 121.N vengono inoltre associati ai visori IVR 107 indossati dai rispettivi utenti. The processing unit 120 is coupled to the acquisition interface 118 to receive the realigned data and is configured to determine the position of groups of reflective elements 121.1, ..., 121.N (see also Figure 7), each group of reflective elements 121.1, ..., 121.N being worn by a respective user present in the simulation area A while using the apparatus 100. In an initialization phase, the groups of reflective elements 121.1, .. ., 121.N are identified and associated with the respective user, so that the data relating to each group and each user are recognized and treated separately by the processing unit 120. The groups of reflective elements 121.1, 121.N are also associated to the IVR 107 viewers worn by the respective users.

L'unità di elaborazione 120 è configurata per determinare la posizione di ciascun elemento riflettente 121.1, ..., 121.N di ciascun gruppo dall'insieme dei flussi di dati video VS1, ..., VSK ricevuti dal sistema di acquisizione immagini 103. L'unità di elaborazione estrae coordinate corrette per ciascun elemento riflettente 121.1, ..., 121.N e, a ciascun istante di campionamento, fornisce alla stazione di elaborazione grafica 105 un vettore posizione VP1, ..., VPN per ciascun gruppo di elementi riflettenti 121,1, ..., 121.N (N indicando il numero di gruppi di elementi riflettenti 121.1, ..., 121.N). Ogni vettore posizione VP1, ..., VPN contiene le posizioni corrette degli elementi riflettenti 121,1, ..., 121.N del rispettivo gruppo e associati a un rispettivo utente presente nell'area di simulazione A. The processing unit 120 is configured to determine the position of each reflective element 121.1, ..., 121.N of each group from the set of video data streams VS1, ..., VSK received by the image acquisition system 103 . The processing unit extracts correct coordinates for each reflective element 121.1, ..., 121.N and, at each sampling instant, supplies the graphic processing station 105 with a position vector VP1, ..., VPN for each group of reflective elements 121,1, ..., 121.N (N indicating the number of groups of reflecting elements 121.1, ..., 121.N). Each position vector VP1, ..., VPN contains the correct positions of the reflective elements 121,1, ..., 121.N of the respective group and associated with a respective user present in simulation area A.

La stazione di elaborazione grafica 105 è accoppiata alla stazione di progettazione 102, alla stazione di tracciamento 104 e ai visori IVR 107. The graphic processing station 105 is coupled to the design station 102, the tracking station 104 and the IVR viewers 107.

La stazione di elaborazione grafica 105 carica un modello tridimensionale semplificato M3DS dell'ambiente da rappresentare dalla stazione di progettazione 102. The graphics processing station 105 loads a simplified three-dimensional M3DS model of the environment to be represented by the design station 102.

Dalla stazione di tracciamento 104, la stazione di elaborazione grafica 105 riceve la successione dei vettori posizione VP1, VPN. From the tracking station 104, the graphics processing station 105 receives the succession of the position vectors VP1, VPN.

I visori IVR 107 possono essere dotati di rispettivi sensori di movimento 22, che forniscono alla stazione di elaborazione grafica 105 segnali di movimento SMI, ..., SMN. The IVR viewers 107 can be equipped with respective motion sensors 22, which supply motion signals SMI, ..., SMN to the graphic processing station 105.

La stazione di elaborazione grafica 105 è configurata per determinare il punto di vista istantaneo di ciascun utente presente nell'area di simulazione A in base ai rispettivi vettori posizione VP1, ..., VPN e ai segnali di movimento SMI, ..., SMN forniti dai visori IVR 107. The graphic processing station 105 is configured to determine the instantaneous point of view of each user present in the simulation area A on the basis of the respective position vectors VP1, ..., VPN and the motion signals SMI, ..., SMN provided by IVR 107 viewers.

Anche in questo caso, per la corretta determinazione dei punti di vista istantanei degli utenti, la stazione di elaborazione grafica 105 può utilizzare relazioni e vincoli fra gli elementi riflettenti 121.1, ..., 121.N di ciascun gruppo, i quali possono essere definiti nella fase di inizializzazione . Also in this case, for the correct determination of the instantaneous points of view of the users, the graphic processing station 105 can use relations and constraints between the reflecting elements 121.1, ..., 121.N of each group, which can be defined in the initialization phase.

Una volta determinato il punto di vista istantaneo di ciascun utente, la stazione di elaborazione grafica 105 ricava una corrispondente scena osservata dal modello tridimensionale semplificato M3DS in uso e produce una rispettiva immagine stereoscopica IMG1, ..., IMGN visualizzabile dai visori IVR 107. Once the instantaneous point of view of each user has been determined, the graphic processing station 105 obtains a corresponding observed scene from the simplified three-dimensional M3DS model in use and produces a respective stereoscopic image IMG1, ..., IMGN viewable by the IVR 107 viewers.

Con riferimento alla figura 7, in una forma di realizzazione, la stazione di elaborazione grafica 105 definisce, in base alle coordinate degli elementi riflettenti 121.1, ..., 121.N di ciascun gruppo identificato durante la fase di inizializzazione, un modello umano 125.1, ..., 125.N per ciascun utente, che viene integrato nella scena osservabile. A questo scopo, la stazione di elaborazione grafica 105 determina la posizione di ciascun modello umano 125,1, ..., 125.N a partire dai rispettivi vettori posizione VP1, ..., VPN e sovrappone l'immagine tridimensionale dei modelli umani 125.1, ..., 125,N alla scena ricavata dal modello tridimensionale semplificato M3DS in funzione del punto di vista istantaneo calcolato per ciascun utente. Le immagini stereoscopiche IMG1, ..., IMGN vengono determinate in base al punto di vista di ciascun utente e inviate al rispettivo visore IVR 107. In pratica, nelle immagini stereoscopiche IMG1, ..., IMGN vengono rappresentati i modelli umani 125.1, ..., 125.N associati ad altri utenti e visibili nella scena osservabile punto di vista del corrispondente utente. In questo modo, la percezione dell'ambiente progettato viene arricchita dalla rappresentazione di più utenti contemporaneamente presenti. With reference to Figure 7, in an embodiment, the graphic processing station 105 defines, based on the coordinates of the reflecting elements 121.1, ..., 121.N of each group identified during the initialization phase, a human model 125.1 , ..., 125.N for each user, which is integrated into the observable scene. For this purpose, the graphics processing station 105 determines the position of each human model 125,1, ..., 125.N from the respective position vectors VP1, ..., VPN and superimposes the three-dimensional image of the human models 125.1, ..., 125, N to the scene obtained from the simplified three-dimensional model M3DS as a function of the instantaneous point of view calculated for each user. The stereoscopic images IMG1, ..., IMGN are determined according to the point of view of each user and sent to the respective viewer IVR 107. In practice, in the stereoscopic images IMG1, ..., IMGN human models 125.1, are represented. .., 125.N associated with other users and visible in the observable scene from the point of view of the corresponding user. In this way, the perception of the designed environment is enriched by the representation of several users present at the same time.

In una forma di realizzazione non illustrata, la stazione di tracciamento identifica la posizione dell'utente isolando la sua sagoma nelle immagini fornite dalle videocamere mediante algoritmi di riconoscimento umano, rendendo superfluo indossare elementi di riferimento riflettenti. Vantaggiosamente, l'area di simulazione presenta aspetto uniforme (superficie omogenea per tonalità e condizioni di illuminazione). In questo modo, la stazione di tracciamento può utilizzare algoritmi di riconoscimento umano relativamente semplici, perché il contesto è privo di elementi di disturbo che potrebbero causare incertezza nell'identificazione di porzioni di immagine. In an embodiment not shown, the tracking station identifies the user's position by isolating his shape in the images provided by the video cameras by means of human recognition algorithms, making it unnecessary to wear reflective reference elements. Advantageously, the simulation area has a uniform appearance (homogeneous surface for shades and lighting conditions). In this way, the tracking station can use relatively simple human recognition algorithms, because the context is free of disturbing elements that could cause uncertainty in identifying portions of the image.

Risulta infine evidente che all'apparecchiatura e al metodo descritti possono essere apportate modifiche e varianti, senza uscire dall'ambito della presente invenzione, come definito nelle rivendicazioni allegate. Finally, it is evident that modifications and variations can be made to the described apparatus and method, without departing from the scope of the present invention, as defined in the attached claims.

In particolare, il numero di sistemi a calcolatore utilizzati per implementare la stazione di progettazione, la stazione di tracciamento e la stazione di elaborazione grafica può essere vantaggiosamente selezionato in base alla potenza di calcolo complessivamente richiesta e disponibile su singole macchine. È perciò possibile implementare tutte le stazioni su un unico sistema a calcolatore, così come utilizzare più sistemi a calcolatore per implementare ad esempio la stazione di elaborazione grafica. Ad esempio, la stazione di elaborazione grafica potrebbe comprendere un sistema a calcolatore per ciascun visore IVR utilizzato. In particular, the number of computer systems used to implement the design station, the tracing station and the graphic processing station can be advantageously selected on the basis of the overall computing power required and available on individual machines. It is therefore possible to implement all the stations on a single computer system, as well as to use several computer systems to implement, for example, the graphics processing station. For example, the graphics processing station could comprise a computer system for each IVR viewer used.

Claims (14)

RIVENDICAZIONI 1. Apparecchiatura di ausilio alla progettazione di ambienti comprendente: un sistema di acquisizione immagini (3; 103), includente una pluralità di dispositivi di videoripresa (13) collocati in rispettivi punti di ripresa in modo da inquadrare un' area di simulazione (A) e fornenti rispettivi dati video (VS1, ..., VSK); una stazione di tracciamento (4; 104), ricevente i dati video (VS1, ..., VSK) e configurata per determinare una posizione (VP; VP1, ..., VPN) di un utente nell'area di simulazione (A) dai dati video (VS1, VSK) ricevuti; una stazione di elaborazione grafica (5; 105), contenente un modello tridimensionale (M3DS) di un progetto di ambiente e configurata per determinare un punto di vista dell'utente rispetto al modello tridimensionale (M3DS) in funzione della posizione (VP; VP1, ..., VPN) dell'utente determinata dalla stazione di tracciamento (4; 104) e per generare immagini stereoscopiche (IMG; IMG1, ..., IMGN) rappresentative di una scena del modello tridimensionale (M3DS) osservabile dal punto di vista dell'utente determinato; e un visore per realtà virtuale immersiva (7; 107), configurato per visualizzare le immagini stereoscopiche (IMG; IMG1, ..., IMGN) all'utente. CLAIMS 1. Equipment to aid in the design of environments comprising: an image acquisition system (3; 103), including a plurality of video recording devices (13) placed in respective shooting points so as to frame a simulation area (A) and supplying respective video data (VS1, ... , VSK); a tracking station (4; 104), receiving video data (VS1, ..., VSK) and configured to determine a position (VP; VP1, ..., VPN) of a user in the simulation area (A ) from the video data (VS1, VSK) received; a graphic processing station (5; 105), containing a three-dimensional model (M3DS) of an environment project and configured to determine a user's point of view with respect to the three-dimensional model (M3DS) as a function of the position (VP; VP1, ..., VPN) of the user determined by the tracking station (4; 104) and to generate stereoscopic images (IMG; IMG1, ..., IMGN) representative of a scene of the three-dimensional model (M3DS) observable from the point of view of the specific user; And an immersive virtual reality viewer (7; 107), configured to display stereoscopic images (IMG; IMG1, ..., IMGN) to the user. 2. Apparecchiatura secondo la rivendicazione 1, in cui la stazione di tracciamento (4; 104) comprende un'interfaccia di acquisizione (18) configurata per ricevere i dati video (VS1, VSK) e per sincronizzare e allineare temporalmente i dati video (VS1, VSK) a istanti di campionamento. Apparatus according to claim 1, wherein the tracking station (4; 104) comprises an acquisition interface (18) configured to receive video data (VS1, VSK) and to synchronize and time align video data (VS1 , VSK) at sampling instants. 3. Apparecchiatura secondo la rivendicazione 1 o 2, comprendente una pluralità di elementi di riferimento (21; 121.1, ..., 121.N) indossabili dall'utente e in cui la stazione di tracciamento (4; 104) comprende un'unità di elaborazione (20) configurata per determinare posizioni degli elementi di riferimento (21; 121.1, ..., 121.N) dai dati video (VS1, ..., VSK) quando l'utente è nell'area di simulazione (A) e per fornire una successione di vettori posizioni (VP; VP1, ..., VPN) indicativi delle posizioni degli elementi di riferimento (21; 121.1, ..., 121,N) a istanti di campionamento. Apparatus according to claim 1 or 2, comprising a plurality of reference elements (21; 121.1, ..., 121.N) wearable by the user and in which the tracking station (4; 104) comprises a unit processing (20) configured to determine positions of the reference elements (21; 121.1, ..., 121.N) from the video data (VS1, ..., VSK) when the user is in the simulation area (A ) and to provide a succession of position vectors (VP; VP1, ..., VPN) indicative of the positions of the reference elements (21; 121.1, ..., 121, N) at sampling instants. 4. Apparecchiatura secondo la rivendicazione 3, in cui la stazione di elaborazione grafica (5; 105) è configurata per definire un modello umano (25; 125.1, ..., 125.N) e una posizione del modello umano (25; 125.1, ..., 125.N) rispetto al modello tridimensionale (M3DS), in base ai vettori posizioni (VP; VP1, ..., VPN). The apparatus according to claim 3, wherein the graphics processing station (5; 105) is configured to define a human model (25; 125.1, ..., 125.N) and a position of the human model (25; 125.1 , ..., 125.N) with respect to the three-dimensional model (M3DS), based on the position vectors (VP; VP1, ..., VPN). 5. Apparecchiatura secondo la rivendicazione 4, in cui la stazione di elaborazione grafica (5; 105) è configurata per integrare il modello umano (25; 125.1, 125.N) nella scena osservabile in funzione del punto di vista dell'utente determinato. Apparatus according to claim 4, wherein the graphic processing station (5; 105) is configured to integrate the human model (25; 125.1, 125.N) into the observable scene according to the point of view of the determined user. 6. Apparecchiatura secondo la rivendicazione 4 o 5, in cui la stazione di elaborazione grafica (5; 105) è configurata per sovrapporre un'immagine tridimensionale del modello umano (25; 125.1, ..., 125,N) alla scena osservabile ricavata dal modello tridimensionale (M3DS) in funzione del punto di vista dell'utente determinato, 6. Apparatus according to claim 4 or 5, wherein the graphic processing station (5; 105) is configured to superimpose a three-dimensional image of the human model (25; 125.1, ..., 125, N) on the observable scene obtained from the three-dimensional model (M3DS) according to the point of view of the determined user, 7. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 3 a 6, in cui il visore per realtà virtuale immersiva (7; 107) comprende un sensore di movimento (22; 122), fornente alla stazione di elaborazione grafica (5; 105) un segnale di movimento (SM; SMI, ..., SMN) indicativo di movimenti del visore per realtà virtuale immersiva (7; 107) e in cui la stazione di elaborazione grafica (5; 105) è configurata per determinare il punto di vista dell'utente in funzione del segnale di movimento (SM; SMI, ..., SMN). 7. Apparatus according to any one of claims 3 to 6, wherein the immersive virtual reality viewer (7; 107) comprises a motion sensor (22; 122), providing the graphics processing station (5; 105) with a signal of movement (SM; SMI, ..., SMN) indicative of movements of the viewer for immersive virtual reality (7; 107) and in which the graphic processing station (5; 105) is configured to determine the point of view of the user according to the movement signal (SM; SMI, ..., SMN). 8. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 3 a 7, comprendente una pluralità di gruppi di elementi riflettenti (121.1, ..., 121.N), ciascun gruppo di elementi riflettenti (121.1, ..., 121.N) essendo indossabile da un rispettivo utente, e in cui l'unità di elaborazione (120) è configurata per determinare posizioni dei gruppi di elementi riflettenti (121.1, ..., 121.N) dai dati video (VS1, VSK) quando gli utenti sono nell'area di simulazione (A). 8. Apparatus according to any one of claims 3 to 7, comprising a plurality of groups of reflecting elements (121.1, ..., 121.N), each group of reflecting elements (121.1, ..., 121.N) being wearable by a respective user, and wherein the processing unit (120) is configured to determine positions of groups of reflective elements (121.1, ..., 121.N) from the video data (VS1, VSK) when users are in the simulation area (A). 9. Apparecchiatura secondo la rivendicazione 8, in cui l'unità di elaborazione (120) è configurata per fornire alla stazione di elaborazione grafica (105) un vettore posizione (VP1, VPN) per ciascun gruppo di elementi riflettenti (121.1, ..., 121.N), ogni vettore posizione (VP1, ..., VPN) essendo indicativo delle posizioni degli elementi di riferimento (121.1, ..., 121.N) del rispettivo gruppo di elementi di riferimento (121.1, ..., 121.N) agli istanti di campionamento . The apparatus according to claim 8, wherein the processing unit (120) is configured to provide the graphics processing station (105) with a position vector (VP1, VPN) for each group of reflective elements (121.1, ... , 121.N), each position vector (VP1, ..., VPN) being indicative of the positions of the reference elements (121.1, ..., 121.N) of the respective group of reference elements (121.1, ... , 121.N) at the sampling instants. 10. Apparecchiatura secondo la rivendicazione 9, in cui la stazione di elaborazione grafica (105) è configurata per determinare un punto di vista di ciascun utente presente nell'area di simulazione (A) in base ai rispettivi vettori posizione (VP1, ..., VPN). Apparatus according to claim 9, wherein the graphics processing station (105) is configured to determine a point of view of each user present in the simulation area (A) based on the respective position vectors (VP1, ... , VPN). 11. Apparecchiatura secondo la rivendicazione 10, comprendente una pluralità di visori per realtà virtuale immersiva (107) e in cui la stazione di elaborazione grafica (105) è configurata per produrre una rispettiva immagine stereoscopica (IMG1, ..., IMGN) dal modello tridimensionale (112) per ciascun punto di vista determinato e per fornire a ciascun visore per realtà virtuale immersiva (107) una rispettiva immagine stereoscopica (IMG1, IMGN) . 11. Apparatus according to claim 10, comprising a plurality of immersive virtual reality viewers (107) and in which the graphics processing station (105) is configured to produce a respective stereoscopic image (IMG1, ..., IMGN) from the model three-dimensional (112) for each determined point of view and to provide each immersive virtual reality viewer (107) with a respective stereoscopic image (IMG1, IMGN). 12. Apparecchiatura secondo una qualsiasi delle rivendicazioni precedenti, comprendente una stazione di progettazione (2) provvista di uno strumento di progettazione grafica tridimensionale (8), configurato per progettare ambienti e produrre modelli tridimensionali nativi (M3DN) degli ambienti progettati, e di un convertitore (10), configurato per generare il modello tridimensionale (12) da un rispettivo modello tridimensionale nativo (M3DN). Apparatus according to any one of the preceding claims, comprising a design station (2) provided with a three-dimensional graphic design tool (8), configured to design environments and produce native three-dimensional models (M3DN) of the designed environments, and a converter (10), configured to generate the three-dimensional model (12) from a respective native three-dimensional model (M3DN). 13. Apparecchiatura secondo una qualsiasi delle rivendicazioni precedenti, in cui il sistema di acquisizione immagini (3) comprende una struttura di supporto (15) e un primo gruppo di dispositivi di videoripresa (13), fissati alla struttura di supporto (15) attorno all'area di simulazione (A) a un primo livello, e un secondo gruppo di dispositivi di videoripresa (13), fissati alla struttura di supporto (15) attorno all'area di simulazione (A) a un secondo livello. 13. Apparatus according to any one of the preceding claims, wherein the image acquisition system (3) comprises a support structure (15) and a first group of video recording devices (13), fixed to the support structure (15) around the simulation area (A) at a first level, and a second group of video recording devices (13), fixed to the support structure (15) around the simulation area (A) at a second level. 14. Metodo di progettazione di ambienti comprendente: riprendere un utente in un'area di simulazione (A) da una pluralità di punti di ripresa; generare dati video (VS1, ..., VSK) corrispondenti a rispettivi punti di ripresa; tracciare una posizione (VP; VP1, ..., VPN) dell'utente nell'area di simulazione (A) mediante i dati video (VS1, VSK) ; determinare un punto di vista dell'utente rispetto al un modello tridimensionale (M3DS) di un progetto di ambiente, in funzione della posizione (VP; VP1, VPN) dell' utente; generare immagini stereoscopiche (IMG; IMG1, IMGN) rappresentative di una scena del modello tridimensionale (M3DS) osservabile dal punto di vista dell'utente determinato; visualizzare le immagini stereoscopiche (IMG; IMG1, IMGN) all'utente attraverso un visore per realtà virtuale immersiva (7; 107).An environment design method comprising: filming a user in a simulation area (A) from a plurality of shooting points; generate video data (VS1, ..., VSK) corresponding to respective shooting points; trace a position (VP; VP1, ..., VPN) of the user in the simulation area (A) using the video data (VS1, VSK); determining a user's point of view with respect to a three-dimensional model (M3DS) of an environment project, as a function of the user's position (VP; VP1, VPN); generate stereoscopic images (IMG; IMG1, IMGN) representative of a scene of the three-dimensional model (M3DS) observable from the point of view of the determined user; view stereoscopic images (IMG; IMG1, IMGN) to the user through an immersive virtual reality viewer (7; 107).
ITUB2015A009701A 2015-12-23 2015-12-23 ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD ITUB20159701A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ITUB2015A009701A ITUB20159701A1 (en) 2015-12-23 2015-12-23 ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITUB2015A009701A ITUB20159701A1 (en) 2015-12-23 2015-12-23 ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD

Publications (1)

Publication Number Publication Date
ITUB20159701A1 true ITUB20159701A1 (en) 2017-06-23

Family

ID=55795073

Family Applications (1)

Application Number Title Priority Date Filing Date
ITUB2015A009701A ITUB20159701A1 (en) 2015-12-23 2015-12-23 ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD

Country Status (1)

Country Link
IT (1) ITUB20159701A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020080094A1 (en) * 2000-12-22 2002-06-27 Frank Biocca Teleportal face-to-face system
US20050081161A1 (en) * 2003-10-10 2005-04-14 Macinnes Cathryn Three-dimensional interior design system
US20150248504A1 (en) * 2014-03-01 2015-09-03 Benjamin F. GLUNZ Method and system for creating composite 3d models for building information modeling (bim)

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020080094A1 (en) * 2000-12-22 2002-06-27 Frank Biocca Teleportal face-to-face system
US20050081161A1 (en) * 2003-10-10 2005-04-14 Macinnes Cathryn Three-dimensional interior design system
US20150248504A1 (en) * 2014-03-01 2015-09-03 Benjamin F. GLUNZ Method and system for creating composite 3d models for building information modeling (bim)

Similar Documents

Publication Publication Date Title
JP7068562B2 (en) Techniques for recording augmented reality data
Diaz et al. Designing for depth perceptions in augmented reality
JP7096450B2 (en) Mixed reality system with color virtual content warping and how to use it to generate virtual content
JP6101793B2 (en) System and method for managing spatiotemporal uncertainty
JP7046189B2 (en) How to calibrate an augmented reality device
JP4739002B2 (en) Image processing method and image processing apparatus
CN106101689B (en) The method that using mobile phone monocular cam virtual reality glasses are carried out with augmented reality
CN105704479B (en) The method and system and display equipment of the measurement human eye interpupillary distance of 3D display system
CN109584295A (en) The method, apparatus and system of automatic marking are carried out to target object in image
US20180338137A1 (en) LED-Based Integral Imaging Display System as Well as Its Control Method and Device
CN109146965A (en) Information processing unit and computer program
WO2016204914A1 (en) Complementary augmented reality
CN104484033A (en) BIM based virtual reality displaying method and system
CN101520902A (en) System and method for low cost motion capture and demonstration
US9734622B2 (en) 3D digital painting
CN107248194A (en) A kind of CAE data three-dimensionals based on cloud computing show exchange method
ITTO20111150A1 (en) PERFECT THREE-DIMENSIONAL STEREOSCOPIC REPRESENTATION OF VIRTUAL ITEMS FOR A MOVING OBSERVER
CN111062869B (en) Multi-channel correction splicing method for curved curtain
WO2017065348A1 (en) Collaboration method using head mounted display
US11262588B2 (en) Spectator view of virtual and physical objects
Caarls et al. Augmented reality for art, design and cultural heritage—system design and evaluation
Saggio et al. Augmented reality for restoration/reconstruction of artefacts with artistic or historical value
Nicolini et al. A framework for the study of vision in active observers
US20070298396A1 (en) Computer executable dynamic presentation system for simulating human meridian points and method thereof
ITUB20159701A1 (en) ASSISTIVE EQUIPMENT FOR THE DESIGN OF ENVIRONMENTS AND ENVIRONMENTAL DESIGN METHOD