WO2020221948A1 - Sistema y método de iluminación inteligente - Google Patents
Sistema y método de iluminación inteligente Download PDFInfo
- Publication number
- WO2020221948A1 WO2020221948A1 PCT/ES2020/070274 ES2020070274W WO2020221948A1 WO 2020221948 A1 WO2020221948 A1 WO 2020221948A1 ES 2020070274 W ES2020070274 W ES 2020070274W WO 2020221948 A1 WO2020221948 A1 WO 2020221948A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- area
- image
- luminaires
- interest
- intelligent lighting
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Definitions
- the present invention consists of an intelligent lighting system that allows the level of night lighting in a certain area to be adjusted according to the real light needs due to the presence of pedestrians.
- the invention provides a solution to the problem of human detection in the area through an advanced and highly scalable method that allows the provision of additional services and develops the concept of smart cities.
- the invention is included within the different types of lighting systems and devices, especially for use or application in outdoor work environments and, therefore, it can be deployed in cities, roads, industrial estates or other types of areas that are required. manage, while these systems and devices are associated with learning processes for intelligent management.
- An intelligent lighting system consists of an interconnected system consisting mainly of sensors, actuators and a control method in order to manage the light intensity of the area.
- the sensors are responsible for reading the conditions of interest
- the actuators are made up of luminaires and light-emitting devices
- the control method determines the amount of light required at each moment.
- the fundamental characteristic that differentiates them is the method of controlling the luminosity and sensing used, which has important implications in the efficiency of operation and in the services that they can offer. This aspect also conditions its deployment in urban contexts, the cost of installation and the ability to create scalable solutions for larger environments.
- the 'intelligent' concept is associated with particular aspects, such as: the on / off control by voice, as disclosed for example in document US9717132; provide an energy backup to the luminaire so that it can continue to provide light after a blackout, as disclosed for example in document US8770771; the collection of various information from the environment through numerous sensors installed in the luminaire itself, as disclosed for example in document CN 107515579; or to the interconnection of the luminaires with each other and with some central element.
- the most basic systems consist of connecting the luminaires to a network to allow their monitoring, remote switching on and off. In this sense, they take advantage of the new functionalities and communication technologies provided by the Internet of Things paradigm, with numerous examples of dissemination, for example, US9313863.
- One more step in smart lighting management is to set different light intensities depending on the time zone.
- the idea is that, at times with less influx of vehicles and pedestrians on the streets, the level of light is lower, obtaining energy savings.
- GB2538796 stands out.
- this lighting concept must provide light only when it is needed, that is, only when there are pedestrians in the area (street, square, park, etc.), remaining the rest of the time in a state with a lower brightness level.
- This type of control requires methods that detect the human presence in the area to indicate the level of intensity to the luminaires. To date, only methods based on the use of sensors are known.
- the most widely used detection method is based on infrared technology.
- This type of sensor can detect movement in a close range.
- the Intelligent lighting systems that use it propose to integrate this type of sensors in the luminaire itself, so that it detects if light is necessary around it and can communicate it to nearby luminaires to provide light throughout the area, in this sense they are known documents where this typology of technology is disclosed, for example, in document US9635740.
- These presence detectors can also be placed in strategic areas of the street to cover entire areas with several luminaires, for example, as disclosed by Abdullah A. et al., "Smart Street Light Using Intensity Controller", International Conference on Computer and Communication Engineering (ICCCE), https://doi.Org/10.1109/ICCCE.2018.8539321.
- image and video capture means are being included to detect human presence and implement control methods.
- the use of cameras to activate a microphone with which the user can control the luminaire is known, for example, as disclosed in document US10034356.
- the cameras are placed in the luminaires themselves, focusing with a wide angle on the ground and detecting people from above.
- the images taken by the cameras are used to detect movement in the analysis areas. From this movement, the presence of pedestrians or vehicles in the area is inferred and the lights are controlled, knowing what was disclosed by Gagliardi G. et al., “A smart city adaptive lighting system”, Third International Conference on Fog and Mobile Edge Computing ( FMEC), https://doi.org/10.1109/FMEC.2018.8364076.
- Zenithal cameras only cover a small area around the luminaires, while motion detection By means of imaging, it loses recognition precision, generates multiple false positive situations and has a limited capacity to offer additional services.
- dimmable lighting service using networked luminaires.
- the dimming or ignition off software can depend on several aspects: night time slot, occurrence of an event such as emergencies or based on human presence sensors.
- commercial systems do not use image detection and analysis, but rather use infrared human detection methods, knowing for example what was disclosed by Silverspringnet, “Smart Street Lights & Sensors”. Https: // www . silverspringnet. com / sol utions / sma rt-cities / sma rt-cities-street- lights /
- the present invention provides a main novel aspect with respect to existing intelligent lighting systems by using image and video acquisition devices to detect human presence in areas of interest, and that said acquisition is not limited to a small area around the area where the camera is located.
- image and video acquisition devices to detect human presence in areas of interest, and that said acquisition is not limited to a small area around the area where the camera is located.
- the presence of citizens in the area and the eventual need for corresponding lighting is detected.
- existing cameras and currently installed in cities can be used;
- new ones can be deployed to complement its coverage or reach new areas of interest.
- This novelty gives the present invention a fundamental advantage over existing systems. This technique greatly exceeds the detection capabilities of current systems and provides a tool to offer additional services through advanced image analysis.
- the potential value-added services that the system can offer is citizen security, traffic control and intelligent signaling or detection of obstacles on the road, something that is not possible to achieve with known systems, either infrared sensors (those generally commercialized), or another type of sensor-based system.
- the present invention also provides a solution to the drawbacks associated with the computational cost of advanced image processing that are required for the provision of intelligent control and new value-added services.
- the present invention makes it possible to overcome drawbacks related to:
- the proposed system does not need to place acquisition sensors in each luminaire since the cameras can cover large areas with numerous luminaires.
- the system supports the use of image and video cameras already installed for other functions, such as security cameras or traffic control.
- the proposed system allows the execution of complex image analysis methods by using a distributed computing architecture based on remote processing elements and mobile computing techniques in the cloud.
- the digital image computing methodology allows the execution of other advanced computer vision algorithms for the provision of a wide range of advanced services for the city.
- the distinctive technical characteristic of the invention is that the pedestrian detection process is done through a system based on the analysis of digital images from video surveillance cameras and not through sensors arranged in each luminaire.
- any expert in the field of intelligent lighting systems who today uses conventional cameras for this purpose would encounter an insurmountable technical problem, which is that the volume of processing necessary to carry out the detection in a city with multiple cameras far exceeds current capabilities (bandwidth, local and cloud processing, etc.). This problem would be detected in the initial stage of image processing, and to date no solution has been found. For this reason, all known intelligent lighting systems are not based on video surveillance cameras despite their many advantages and low cost.
- the present invention is an advance in human detection methods through artificial vision, its computational requirements and the infrastructure necessary to implement this functionality of intelligent lighting management in urban environments.
- the intelligent lighting system object of this patent is a system that allows the execution of a method with advanced image analysis algorithms with which intelligent lighting management is achieved on an arbitrary amount of connected cameras.
- the system comprises:
- Each luminaire includes means for receiving wireless signals and a configurator processor module to offer a variable brightness level of at least 3 levels of light and consumption:
- - level 0 luminaire off there is no consumption or light emission
- level 1 luminaire switched on with a low consumption and light emission level
- level 2 luminaire on with a maximum level of consumption and light emission. With higher levels of graduation, a more detailed control can be established.
- a preferred value for level 1 is 20% brightness of the maximum.
- a plurality of image acquisition devices which can be located in the plurality of luminaires, and are oriented to focus on the area of interest. These acquisition devices or sensors can be image or video cameras.
- At least one computational platform for distributive processing of the Cloudlet type can eventually be deployed depending on the processing capacities of the acquisition devices, in which each platform comprises processing means and capacity of a cloud, and in which the interconnection of several cloudets allows the group to work to offer the service. of a cloud within a coverage area.
- This infrastructure offers flexible processing depending on the needs of each moment through an on-demand service model.
- the communication mechanisms between the different elements are carried out by means of a local area connection (LAN - Local Area Network) such as Wifi, Wimax, LTE or similar; and remote connection through the internet (WAN - Wide Area Network).
- LAN Local Area Network
- WAN Wide Area Network
- the luminaires, the acquisition devices and the Cloudlets are interconnected in the same local network, while access to the remote server is done through the Internet.
- the system receives several inputs and produces several outputs in turn:
- the inputs correspond to the images at a given moment from each of the connected acquisition devices.
- the resolution of each of the images may be different depending on the characteristics of each camera.
- the proposed system is compatible with images of various resolutions with a minimum resolution that allows detecting a human presence in it.
- the outputs correspond to the brightness level signals of each of the luminaires that are in the area of interest.
- the system also supports other control configurations, such as an ignition output for each luminaire and a timer that indicates how long it must remain at that level, or a single ignition output that affects all luminaires. luminaires in the same area.
- the system runs cyclically and periodically throughout the intelligent control period of the area of interest.
- the general operating scheme of the system is as follows: • During the day, the luminaires are configured with zero intensity (level 0), that is, they are off.
- the intensity of the lights depends on the presence of pedestrians in the area of interest. If there are no pedestrians, the luminaires are placed with a low intensity (level 1) and, if there are pedestrians, they are placed with a normal intensity (level 2).
- a human presence detection device is required in the area.
- This device consists of one or more image or video acquisition cameras. With a frequency of preferably one second, an image or frame is taken from each camera which is analyzed for human presence in the image. This process is carried out by a method consisting of the following stages: a) Image capture. The image or frame is captured through the acquisition device.
- Image filtering At this stage, various image filtering operations are carried out to improve its subsequent processing.
- Characteristics are extracted from each of the candidate areas, such as: textures, color, borders, etc.
- Descriptors are created for each area based on the characteristics identified.
- Light control stage that determines the level of light for the luminaires around the areas of interest in which humans have been detected.
- stages cannot be carried out by systems based on infrared sensors, ultrasound or even overhead cameras.
- the elements of the previously described system are required, or it would require a new interconnection methodology between different machines that would require processes in disjoint stages according to the process of each machine or device.
- This execution scheme causes a successive decrease in the volume of input data at each stage and achieves a drastic reduction in the sending of information through the Internet.
- This feature of the proposed system enables the design of distributed architectures for stage processing and enables highly scalable application deployments in smart cities.
- Another collateral benefit of this system is that other smart management applications can be implemented under the same infrastructure and, therefore, facilitate the provision of new advanced value-added services for the city.
- Figure 1 shows a diagram of the intelligent lighting system, with its corresponding inputs and outputs.
- Figure 2 shows a general diagram of the intelligent lighting system and the components that comprise it.
- FIG. 3 shows the scheme of the method to implement the system
- the smart lighting system receives one or more inputs and produces one or more outputs.
- the scheme of the system (S) object of the present invention is described in Figure 1.
- the inputs it has are the following:
- Each level of illumination is sent to one of the luminaires in the area of interest. It is also possible to send a single signal with the lighting level for the entire area.
- the elements included in the intelligent lighting system of the present invention are shown in Figure 2.
- Said system comprises the following component components:
- Platforms for remote computing processing (7) in the cloud or Cloud Computing Data processing centers hosted in the cloud and accessible via the Internet. This platform also houses a behavior database that records the history of detections made in all the monitored areas of the city.
- the acquisition devices (4) take the images (1) of the area of interest with a constant periodicity. These images (1) are processed using the joint and distributed computing capacities of the devices themselves (4), sent to the eventual intermediate platforms (5) Cloudlet and to the remote processing platforms (7) accessible through the Internet.
- the frequency of taking images by the acquisition devices can be high during the day, when there is no need for artificial light control, or very low at night to provide greater comfort.
- each image is carried out according to a segmented processing scheme formed by the following stages and which can be seen in Figure 3: a) Image capture.
- This stage consists of capturing an image (1) by the acquisition devices (4) or cameras that are focusing on the analysis area where the luminaires (3) to be controlled are located. In the case of video cameras, a frame will be taken at the preset frequency. As a result, an image (1) is obtained for each camera with its corresponding resolution.
- This stage consists of the image filtering process (1), which includes, among others, the actions of eliminating noise, improving its contrast, or increasing the brightness of darker areas.
- the filtered image (1A) is obtained under optimal conditions for subsequent analysis.
- a preliminary analysis of the filtered image (1 A) is carried out to detect movement and signs of human figures, such as, for example, the presence of vertical figures with a certain height and volume depending on the perspective and their position on the horizon. In this process, not only motion detection is used (as is the case with other existing methods) since, in that case, if the figure remains stopped, it would be considered that there is no one and the luminosity could be reduced.
- the result of this stage is a set of areas of interest (1 B) within each image.
- Characteristics extraction Characteristics are extracted from each of the areas (1 B) identified in the previous process, such as, for example: textures, color, borders, etc. As a result, a data structure is obtained for each area of the candidate image (1C).
- This stage creates a set of descriptors for each area of interest.
- the set of descriptors (1 D) defines all aspects of the characteristics identified in the previous stage: the type of texture, the color, the type of border, the type of line, length, volume, etc.
- Intelligent classifiers are applied using computer tools, preferably Deep Learning techniques, to determine if there is a human figure in each candidate area.
- advanced classification techniques can be applied to characterize the type of human figure detected, its age, and even sex.
- this technique can be generalized to identify other objects of interest such as vehicles, animals, etc.
- a numerical value is obtained for each area of interest with the probability that there is a human figure in it (1 E). I know considers that it exists, for the purposes of intelligent control, when a value greater than 40% is obtained.
- the method object of the present invention not only lights the luminaire that directly illuminates the place where the human is, but also the surrounding and subsequent luminaires to create a feeling of comfort and provide an illuminated horizon of passage. To do this, at this stage, the possible movement and direction of pedestrians through the analysis area is analyzed. As a result, the set of affected luminaires (1 F) is obtained.
- This stage is limited to indicating the light level for the luminaires around the areas of interest in which humans have been detected and the sending of illumination level signals (2) to the luminaires (3) in the control zone .
- the result of this stage can be of different types. It can be a vector that indicates individually the light level of each luminaire, or it can be a single value that jointly indicates the light level of all the luminaires in the area.
- the previous stages are executed in the different components of the architecture previously described.
- the execution options for the different tasks are as follows:
- the image capture task (1) is always executed on the acquisition devices (4).
- the image filtering task (b), that is, obtaining the filtered images (1 A) can be executed on the acquisition device itself (5), on an intermediate computing platform (5) like Cloudlet or on a server or remote platform (7). It is preferably carried out in the acquisition devices (5) since they incorporate filtering functions to the images they capture. If this is not possible, the image can be transmitted to the Cloudlet for processing, or even to the remote platform (7).
- the task of selecting candidate areas (c) can also be executed on the acquisition device itself (4) or on the intermediate computing platform (5) type Cloudlet or on the server or remote platform (7).
- it is carried out in the acquisition devices (4) since they comprise programs that execute algorithms on the images they capture. If this is not possible, the image can be transmitted to the intermediate computational platform (5) for processing.
- the characteristics extraction (d) and descriptor generation (e) tasks are executed in the intermediate computing platform (5) type Cloudlet or on the server or remote platform (7) type Cloud Computing.
- the characteristics extraction (d) and descriptor generation (e) tasks are executed in the intermediate computing platform (5) type Cloudlet or on the server or remote platform (7) type Cloud Computing.
- the classification (f) and behavior and predictive analysis (g) tasks are executed on the remote Cloud Computing server (7).
- the computational cost they require and the joint analysis with that of other images make it necessary to process them centrally in specialized data centers.
- the light control task (h) is also carried out from a centralized control located in the cloud that sends a signal (2) individually or in groups to the luminaires (3).
- This centralized control enables the development of dashboards and user administration interfaces.
- having centralized information allows the development of applications to analyze the dynamics of the city.
- the steps of image capture (a), image filtering (b) and selection of candidate areas (c) are carried out in the acquisition devices (4); the stages of extraction of characteristics (d) and generation of descriptors (e) are carried out in the intermediate computational platforms (5); and the stages of classification (f), behavior and predictive analysis (g) and light control (h) are carried out in the remote processing platforms (7).
- the image capture step (a) is carried out in the acquisition devices (4); the steps of filtering the image (b), selection of candidate areas (c), extraction of characteristics (d) and generation of descriptors (e) are carried out in the intermediate computational platforms (5); and the stages of classification (f), behavior and predictive analysis (g) and light control (h) are carried out in the remote processing platforms (7).
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
Sistema y método de iluminación inteligente, con el que se controla el nivel de intensidad de luz de las luminarias de una zona de interés según la presencia humana en dicha zona, en el que el sistema comprende una pluralidad de luminarias distribuidas por la zona de interés, una pluralidad de dispositivos de adquisición de imágenes de la zona de interés, al menos una plataforma computacional intermedia de procesamiento distributivo del tipo Cloudlet, y una plataforma de procesamiento remoto centralizada de computación en la nube del tipo Cloud Computing desde donde se envía una señal de manera individualizada o grupal a las luminarias con el nivel de luminosidad a emitir; y donde el método comprende unas etapas que van desde la captura inicial de la imagen en la zona de interés, hasta el control de luz y envío de la señal con el nivel de luminosidad a emitir.
Description
DESCRIPCIÓN
SISTEMA Y METODO DE ILUMINACIÓN INTELIGENTE OBJETO DE LA INVENCIÓN
La presente invención consiste en un sistema de iluminación inteligente que permite graduar el nivel de iluminación nocturna de una determinada zona en función de las necesidades reales de luz por la presencia de peatones.
La invención proporciona una solución al problema de detección humana en la zona mediante un método avanzado y altamente escalable que permite la provisión de servicios adicionales y desarrollar el concepto de ciudades inteligentes.
La invención se encuentra comprendida dentro de los diferentes tipos de sistemas y aparatos de iluminación, especialmente de uso o aplicación en entornos de trabajo exteriores y, por tanto, que se puede desplegar en ciudades, carreteras, polígonos u otro tipo de áreas que se requiera gestionar, a la vez que estos sistemas y aparatos están asociados a procesos de aprendizaje para gestión inteligente.
ESTADO DE LA TÉCNICA
Un sistema de iluminación inteligente consiste en un sistema interconectado formado principalmente por sensores, actuadores y un método de control con el objetivo de gestionar la intensidad luminosa de zona. Los sensores se encargan de leer las condiciones de interés, los actuadores están formados por luminarias y dispositivos emisores de luz, y el método de control determina la cantidad de luz necesaria en cada momento.
Estos sistemas de iluminación inteligente han ganado una reciente popularidad debido a la mayor conciencia ciudadana por el ahorro energético y los espacios sostenibles. Esta tendencia está en la línea del desarrollo del concepto de ciudad inteligente orientado a promover un uso eficiente de los recursos y de mejorar la calidad de vida de los ciudadanos.
Con este objetivo de reducir el consumo energético, los sistemas de iluminación urbanos se han ido modernizando desde las lámparas de sodio hacia las modernas y más eficientes luminarias con tecnología LED. Para llevar a cabo el siguiente paso de proporcionar la luz
necesaria sólo cuando haga falta se conocen diferentes propuestas e implementaciones tanto desde el ámbito científico como en el industrial.
La característica fundamental que las diferencia es el método de control de la luminosidad y de sensorización utilizado, lo cual tiene importantes implicaciones en la eficacia de funcionamiento y en los servicios que pueden ofrecer. Este aspecto condiciona así mismo su despliegue en contextos urbanos, el coste de instalación y la capacidad de crear soluciones escalables para entornos más amplios.
No obstante, hay propuestas en las que el concepto‘inteligente’ se asocia a aspectos particulares, como puede ser: el control de encendido/apagado por voz, tal como es divulgado por ejemplo en el documento US9717132; dotar de un respaldo energético a la luminaria para que pueda seguir proporcionando luz tras un apagón, tal como es divulgado por ejemplo en el documento US8770771 ; la recogida de información diversa del entorno a través de numerosos sensores instalados en la propia luminaria, tal como es divulgado por ejemplo en el documento CN 107515579; o a la propia interconexión de las luminarias entre sí y con algún elemento central. En este caso, los sistemas más básicos consisten en conectar las luminarias a una red para permitir su monitorización, encendido y apagado remoto. En este sentido, aprovechan las nuevas funcionalidades y tecnologías de comunicación que proporciona el paradigma de Internet de las Cosas, habiendo numerosos ejemplos de divulgación, por ejemplo, el US9313863.
Un paso más en la gestión inteligente de la iluminación consiste en establecer diferentes intensidades de luz según la franja horaria. La idea es que, en los momentos con menos afluencia de vehículos y peatones en las calles, el nivel de luz es menor, obteniendo un ahorro energético. Se destaca por ejemplo lo divulgado en el documento GB2538796.
Sin embargo, para proporcionar un servicio“inteligente” este concepto de iluminación debe proporcionar luz sólo cuando se necesite, es decir, sólo cuando haya peatones en la zona (calle, plaza, parque, etc.), quedando el resto del tiempo en un estado con un nivel de luminosidad menor. Este tipo de control requiere de métodos que detecten la presencia humana en la zona para indicar a las luminarias su nivel de intensidad. Hasta la fecha solo se conocen métodos basados en la utilización de sensores.
En este conjunto, el método de detección más utilizado está basado en tecnología de infrarrojos. Este tipo de sensores puede detectar movimiento en un rango cercano. Los
sistemas de iluminación inteligente que lo utilizan proponen integrar este tipo de sensores en la propia luminaria, de modo que se detecte si es necesaria luz a su alrededor y pueda comunicarlo a las luminarias cercanas para proporcionar luz en toda la zona, en este sentido se conocen documentos donde se divulga esta tipología de tecnología, por ejemplo, en el documento US9635740. Estos detectores de presencia se pueden colocar también en zonas estratégicas de la calle para abarcar zonas completas con varias luminarias, por ejemplo, según lo divulgado por Abdullah A. et al., “Smart Street Light Using Intensity Controller”, International Conference on Computer and Communication Engineering (ICCCE), https://doi.Org/10.1109/ICCCE.2018.8539321. Se conocen otros trabajos parecidos donde se proponen utilizan sensores radar por ultrasonidos o de movimiento para detectar la presencia de vehículos, por ejemplo, lo divulgado por Bandla S. et al,“Smart Street Lighting with Reduced Sensors for Sustainable and Efficient Smart Cities”, Second International Conference on Advances in Electronics, Computers and Communications (ICAECC). https://doi.org/10.1109/lCAECC.2018.8479432.
Finalmente, y en otro orden de cosas, se están incluyendo medios de captación de imagen y video para detectar la presencia humana e implementar los métodos de control. Se conoce el uso de cámaras para activar un micrófono con el que el usuario puede controlar la luminaria, por ejemplo, lo divulgado en el documento US10034356. Hay otros ejemplos, que utilizan la cámara para detectar directamente la presencia humana en las zonas de análisis. En esta línea, existen propuestas recientes de sistemas que proponen la instalación de múltiples sensores en las luminarias que incluyen cámaras cenitales para la detección de presencia. En este sentido se conoce lo divulgado por Llido Escriva D.M. et ai, “Smart Outdoor Light Desktop Central Management System”, IEEE Intelligent Transportation Systems Magazine, 10(2): 58-68. https://doi.org/10.1109/MITS.2018.2806643. En este caso, las cámaras se colocan en las propias luminarias enfocando con gran angular el suelo y detectando a las personas desde arriba. En otros casos, las imágenes tomadas por las cámaras son utilizadas para detectar movimiento en las zonas de análisis. De este movimiento, se infiere la presencia de peatones o vehículos en el área y controlar las luminarias, conociéndose lo divulgado por Gagliardi G. et al., “A smart city adaptive lighting system”, Third International Conference on Fog and Mobile Edge Computing (FMEC), https://doi.org/10.1109/FMEC.2018.8364076.
Todos estos métodos anteriores, y otros semejantes, están basados en análisis de imagen y presentan claros problemas de escalabilidad y eficacia. Las cámaras cenitales sólo abarcan un área pequeña alrededor de las luminarias, mientras que la detección de movimiento
mediante imagen pierde precisión en el reconocimiento, genera múltiples situaciones de falsos positivos y tiene una limitada capacidad de ofrecer servicios adicionales.
Las soluciones comerciales de iluminación ofrecen fundamentalmente un servicio de iluminación regulable mediante luminarias conectadas en red. El software de regulación de intensidad o de encendido apagado puede depender de varios aspectos: franja horaria nocturna, ocurrencia de algún evento como emergencias o en función de sensores de presencia humana. Cara a un correcto funcionamiento del sistema, los sistemas comerciales no utilizan detección y análisis de imágenes, sino que utilizan métodos de detección humana por infrarrojos, conociéndose por ejemplo lo divulgado por Silverspringnet, “Smart Street Lights & Sensors". https://www. silverspringnet. com/sol utions/sma rt-cities/sma rt-cities-street- lights/
Habida cuenta de la tecnología conocida, se puede decir que las aplicaciones de iluminación inteligente son una reciente tendencia que surge como resultado de la creciente conciencia de la población sobre el cambio climático y el ahorro energético. Estas aplicaciones tratan de usar los avances de la tecnología y el análisis de datos para optimizar los sistemas de iluminación nocturna y proporcionar la luz adecuada sólo cuando se necesite. Como resultado, se obtienen ciudades más sostenibles y confortables con un control apropiado del consumo y de la contaminación lumínica.
La presente invención aporta un aspecto novedoso principal respecto a los sistemas de iluminación inteligente existentes al utilizar dispositivos de adquisición de imagen y vídeo para detectar la presencia humana en las zonas de interés, y que dicha adquisición no sea limitativa a un área pequeña alrededor de la zona donde se ubica la cámara. Mediante el análisis de las imágenes digitales se detecta la presencia de ciudadanos en la zona y la eventual necesidad de alumbrado correspondiente. Para ello, se pueden utilizar las cámaras existentes y actualmente instaladas en ciudades; además, se pueden desplegar otras nuevas para complementar su cobertura o alcanzar a nuevas zonas de interés.
Esta novedad le confiere a la presente invención una ventaja fundamental respecto a los sistemas existentes. Con esta técnica se superan ampliamente las capacidades de detección de los sistemas actuales y se proporciona una herramienta para ofrecer servicios adicionales mediante el análisis avanzado de las imágenes. Entre los servicios potenciales de valor añadido que puede ofrecer el sistema se encuentra la seguridad ciudadana, control de tráfico y señalización inteligente o detección de obstáculos en la calzada, algo que no es
posible lograr con los sistemas conocidos, ya sea de sensores infrarrojos (los que generalmente se comercializan), u otro tipo de sistema basado en sensores. Además, la presente invención aporta también una solución a los inconvenientes asociados al coste computacional del procesamiento avanzado de imágenes que se requieren para la provisión del control inteligente y de los nuevos servicios de valor añadido.
Por tanto, la presente invención permite superar inconvenientes relativos a:
- la eficacia de funcionamiento: la utilización de cámaras digitales para detectar la presencia humana en las zonas de interés mejora ampliamente las capacidades de detección de los métodos por infrarrojos, ultrasonidos o cámaras cenitales.
- coste de instalación: el sistema propuesto no necesita colocar sensores de adquisición en cada luminaria ya que las cámaras pueden abarcar amplias zonas con numerosas luminarias. Además, el sistema admite la utilización de cámaras de imagen y video ya instaladas para otras funciones, como por ejemplo las cámaras de seguridad o del control de tráfico.
- análisis avanzado de vídeo e imágenes digitales: el sistema propuesto permite la ejecución de complejos métodos de análisis de imagen al utilizar una arquitectura de computación distribuida basada en elementos de procesamiento remotos y en técnicas de computación móvil en la nube.
- los servicios de valor añadido: la metodología de computación de imágenes digitales permite la ejecución de otros algoritmos avanzados de visión por computador para la provisión de un amplio abanico de servicios avanzados para la ciudad.
Por tanto, la característica técnica distintiva de la invención es que el proceso de detección de peatones se hace mediante un sistema basado en el análisis de imágenes digitales a partir de cámaras de videovigilancia y no a través de sensores dispuestos en cada luminaria. En este sentido, cualquier experto en la materia de sistemas de iluminación inteligente que a día de hoy usase las convencionales cámaras para este fin se encontraría con un problema técnico insalvable, que es que el volumen de procesamiento necesario para llevar a cabo la detección en una ciudad con varias cámaras sobrepasa en mucho las capacidades actuales (de ancho de banda, de procesamiento local y en la nube, etc.). Este problema sería detectado en la etapa inicial del procesamiento de imagen, y hasta la fecha no se le ha dado solución. Por este motivo, todos los sistemas de iluminación inteligente conocidos no se basan en cámaras de videovigilancia a pesar de sus numerosas ventajas y bajo coste. En la presente invención se expone una solución que solventa este problema, y para llevarlo a cabo que consiste en la partición del procesamiento en etapas disjuntas y su procesamiento
distribuido en varias capas; y para ello es a su vez esencial y no evidente el desarrollo del sistema aquí desarrollado, el cual es inherente al procedimiento que se usa para llevarlo a cabo.
Teniendo en cuenta todos los aspectos anteriores, es decir, tanto la problemática de gestionar la necesidad de alumbrado teniendo en cuenta la presencia de ciudadanos en dicha zona, como de las soluciones existentes en la actualidad, en las que no se conocen la utilización de un sistema de análisis de las imágenes digitales para la detección de la presencia de ciudadanos en dicha zona, se considera que la presente invención es un avance en los métodos de detección humana mediante visión artificial, sus requerimientos computacionales y la infraestructura necesaria para implementar esta funcionalidad de gestión de la iluminación inteligente en entornos urbanos.
DESCRIPCIÓN DEL INVENTO
El sistema de iluminación inteligente objeto de esta patente es un sistema con el que se permite la ejecución de un método con algoritmos avanzados de análisis de imagen con el que se consigue la gestión de iluminación inteligente sobre una cantidad arbitraria de cámaras conectadas.
El sistema comprende:
- una pluralidad de luminarias distribuidas por la zona de interés. Cada luminaria comprende medios de recepción de señales inalámbricas y un módulo de procesador configurador para ofrecer un nivel de luminosidad variable de, al menos, 3 niveles de luz y consumo:
- nivel 0: luminaria apagada no hay consumo ni emisión de luz;
- nivel 1 : luminaria encendida con un nivel bajo de consumo y de emisión de luz;
- nivel 2: luminaria encendida con un nivel máximo de consumo y de emisión de luz. Con mayores niveles de graduación se puede establecer un control más pormenorizado. Un valor preferente para el nivel 1 es el 20% de luminosidad respecto del máximo.
- una pluralidad de dispositivos de adquisición de imagen, que pueden estar ubicados en la pluralidad de luminarias, y están orientadas para enfocar la zona de interés. Estos dispositivos de adquisición o sensores pueden ser cámaras de imagen o de video.
- al menos una plataforma computacional de procesamiento distributivo del tipo Cloudlet. Estas plataformas se pueden desplegar eventualmente dependiendo de las capacidades de procesamiento de los dispositivos de adquisición, en el que cada plataforma comprende medios de procesamiento y capacidad de una nube, y en el que la interconexión de varios cloudet permite trabajar al conjunto para ofrecer el servicio de una nube dentro de una zona de cobertura.
- al menos una plataforma de procesamiento remoto de computación en la nube. Esta infraestructura ofrece un procesamiento flexible dependiendo de las necesidades de cada momento mediante un modelo de servicio bajo demanda.
Los mecanismos de comunicación entre los diferentes elementos se realizan mediante conexión de área local (LAN - Local Area Network) tipo Wifi, Wimax, LTE o similares; y conexión remota a través de internet (WAN - Wide Area Network). En una realización preferente de la invención, las luminarias, los dispositivos de adquisición y los Cloudlet están interconectados en la misma red local, mientras que el acceso al servidor remoto se realiza a través de Internet.
El sistema recibe varias entradas y produce a su vez varias salidas:
• Las entradas corresponden con las imágenes en un momento dado de cada uno de los dispositivos de adquisición conectados. La resolución dé cada una de las imágenes puede ser diferente dependiendo de las características de cada cámara. El sistema propuesto es compatible con imágenes de varias resoluciones con una resolución mínima que permita detectar una presencia humana en la misma.
• Las salidas corresponden con señales de nivel de luminosidad de cada una de las luminarias que se encuentran en la zona de interés. No obstante, el sistema también admite otras configuraciones de control como, por ejemplo, una salida de encendido para cada luminaria y un temporizador que indique durante cuánto tiempo debe permanecer en ese nivel, o bien, una sola salida de encendido que afecte a todas las luminarias de la misma zona.
El sistema se ejecuta de forma cíclica y periódica durante todo el periodo de control inteligente de la zona de interés.
El esquema de funcionamiento general del sistema es el siguiente:
• Durante el día, las luminarias se configuran con una intensidad nula (nivel 0), es decir, están apagadas.
• Durante la noche, la intensidad de las luminarias depende de la presencia de peatones en la zona de interés. Si no hay peatones, las luminarias se colocan con una intensidad baja (nivel 1) y, si hay peatones, se colocan con una intensidad normal (nivel 2).
Para poder establecer el modo de funcionamiento durante la noche, es necesario un dispositivo de detección de presencia humana en la zona. Ese dispositivo está formado por una o varias cámaras de adquisición de imagen o de video. Con una frecuencia de preferentemente un segundo, se toma una imagen o fotograma de cada cámara que es analizada en busca de presencia humana en la imagen. Este proceso se lleva a cabo por un método formado por las siguientes etapas: a) Captura de la imagen. Se captura la imagen o fotograma a través del dispositivo de adquisición.
b) Filtrado de la imagen: En esta etapa se realizan varias operaciones de filtrado de la imagen para mejorar su procesamiento posterior.
c) Selección de áreas candidatas: Se seleccionan las áreas de la imagen candidatas a contener figuras humanas. Si no hay ninguna área con movimiento, el proceso de detección humana termina aquí con resultado negativo.
d) Extracción de características: Se extraen características de cada una de las áreas candidatas como, por ejemplo: texturas, color, bordes, etc.
e) Generación de descriptores: Se crean unos descriptores de cada zona en función de las características identificadas.
f) Clasificación: Se determina si en cada área candidata existe una figura humana o no. g) Comportamiento y análisis predictivo: se determina las luminarias sobre las que se debe actuar.
h) Control de luz: etapa que determina el nivel de luz para las luminarias en torno a las áreas de interés en las que se han detectado humanos.
Estas etapas no pueden ser llevadas a cabo por sistemas basados en sensores infrarrojos, ultrasonidos o incluso cámaras cenitales. Para llevarse a cabo estas etapas se requiere de los elementos del sistema previamente descritos, o bien, requeriría de una metodología nueva de interconexión entre diferentes máquinas que requeriría de procesos en etapas disjuntas según el propio proceso de cada máquina o dispositivo.
Este esquema de ejecución provoca la disminución sucesiva del volumen de datos de entrada en cada etapa y consigue una reducción drástica en el envío de información a través de Internet. Esta característica del sistema propuesto habilita el diseño de arquitecturas distribuidas para el procesamiento de las etapas y permite despliegues altamente escalables de aplicación en ciudades inteligentes.
Otro beneficio colateral de este sistema es que otras aplicaciones de gestión inteligente pueden implementarse bajo la misma infraestructura y facilitar, por tanto, la provisión de nuevos servicios avanzados de valor añadido para la ciudad.
Para finalizar, se ha de tener en cuenta que, a lo largo de la descripción y las reivindicaciones, el término “comprende” y sus variantes no pretenden excluir otras características técnicas o elementos adicionales.
BREVE DESCRIPCIÓN DE LAS FIGURAS
Con el objeto de completar la descripción y de ayudar a una mejor comprensión de las características del invento, se presenta una figura, en donde con carácter ilustrativo y no limitativo se representa lo siguiente:
En la Figura 1 se muestra un esquema del sistema de iluminación inteligente, con sus entradas y salidas correspondientes.
En la Figura 2 se muestra un esquema general del sistema de iluminación inteligente y de los componentes que lo forman.
En la Figura 3 se muestra el esquema del método para implementar el sistema
de iluminación inteligente basado en la detección humana en imágenes digitales.
En la Figura 4 se puede observar un esquema con los posibles procesamientos de las etapas del método.
DESCRICPIÓN DETALLADA DE MODOS DE REALIZACIÓN
Como se ha descrito anteriormente, el sistema de iluminación inteligente recibe una o varias entradas y produce una o varias salidas. El esquema del sistema (S) objeto de la presente invención se describe en la Figura 1. Las entradas que tiene son las siguientes:
• Conjunto de imágenes de entrada (1). Cada imagen proviene de una de las cámaras orientadas hacia la zona de interés a controlar.
• Conjunto de señales (2) de niveles de iluminación. Cada nivel de iluminación se envía a una de las luminarias de la zona de interés. También se puede enviar una sola señal con el nivel de iluminación para toda la zona.
En una realización preferente de la invención, los elementos comprendidos en el sistema de iluminación inteligente de la presente invención se muestran en la Figura 2. Dicho sistema comprende los siguientes componentes componentes:
• Conjunto de luminarias (3) que se encuentran en la zona de interés a controlar. Estas luminarias comprenden el modo de funcionamiento de luminosidad variable con al menos 3 niveles de luz.
• Conjunto de dispositivos de adquisición (4) de imágenes o cámaras enfocando la zona de interés. Las cámaras pueden enfocar desde diferentes ángulos y pueden ser de captura de imagen o vídeo con diferentes capacidades de procesamiento.
• Conjunto de plataformas de cómputo intermedio (5). Estas plataformas, también denominadas Cloudlet, son pequeños centros de datos o estaciones de trabajo que pueden disponerse, en caso necesario, para ejecutar algunas de las tareas de la detección humana.
• Internet (6), o la infraestructura existente de acceso a Internet.
• Plataformas de procesamiento remoto de computación (7) en la nube o Cloud Computing. Centros de procesamiento de datos alojados en la nube y accesibles a través de Internet. En esta plataforma se ubica también una base de datos de comportamiento que registra el histórico de detecciones realizadas en todas las zonas monitorizadas de la ciudad.
Según el esquema descrito en la Figura 2, los dispositivos de adquisición (4) toman las imágenes (1) de la zona de interés con una periodicidad constante. Estas imágenes (1) son procesadas utilizando forma conjunta y distribuida las capacidades de cómputo de los propios dispositivos (4), envidas a las eventuales plataformas intermedias (5) Cloudlet y a las plataformas de procesamiento remoto (7) accesibles a través de Internet. La periodicidad de toma de imágenes por los dispositivos de adquisición puede ser alta durante el día,
cuando no hay necesidad de control de luz artificial, o muy baja durante la noche para proporcionar un mayor confort.
El proceso de análisis de cada imagen se realiza según un esquema de procesamiento segmentado formado por las siguientes etapas y que se puede observar en la Figura 3: a) Captura de la imagen. Esta etapa consiste en capturar una imagen (1) por los dispositivos de adquisición (4) o cámaras que están enfocando la zona de análisis donde se encuentran las luminarias (3) a controlar. En el caso de cámaras de video, se tomará un fotograma con la frecuencia prefijada. Como resultado se obtiene una imagen (1) por cada cámara con su resolución correspondiente.
b) Filtrado de la imagen. Esta etapa consiste en el proceso de filtrado de la imagen (1), que comprende entre otras las acciones de eliminar ruido, mejorar su contraste, o aumentar el brillo de zonas más oscuras. Como resultado, se obtiene la imagen filtrada (1 A) en condiciones óptimas para el análisis posterior.
c) Selección de áreas candidatas. Se realiza un análisis preliminar de la imagen filtrada (1 A) para detectar movimiento e indicios de figuras humanas como, por ejemplo, presencia de figuras verticales con determinada altura y volumen según la perspectiva y su posición en el horizonte. En este proceso, no sólo se usa la detección de movimiento (como ocurre con otros métodos existentes) ya que, en ese caso, de quedarse la figura parada se consideraría que no hay nadie y podría reducirse la luminosidad. El resultado de esta etapa es un conjunto de áreas de interés (1 B) en el interior de cada imagen. d) Extracción de características. Se extraen características de cada una de las áreas (1 B) identificadas en el proceso anterior, como, por ejemplo: texturas, color, bordes, etc. Como resultado se obtiene una estructura de datos de cada área de la imagen candidata (1C).
e) Generación de descriptores. Esta etapa crea un conjunto de descriptores de cada área de interés. El conjunto de descriptores (1 D) define todos los aspectos de las características identificadas en la etapa anterior: el tipo de textura, el color, el tipo de borde, el tipo de línea, longitud, volumen, etc.
f) Clasificación. Se aplican clasificadores inteligentes mediante herramientas informáticas, preferentemente técnicas de Deep Learning, para determinar si en cada área candidata existe una figura humana. En esta etapa se pueden aplicar técnicas de clasificación avanzada para caracterizar el tipo de figura humana detectado, su edad, e incluso sexo. Así mismo, esta técnica se puede generalizar para identificar otros objetos de interés como vehículos, animales, etc. Como resultado, se obtiene un valor numérico por cada área de interés con la probabilidad de que en ella exista una figura humana (1 E). Se
considera que existe, a efectos del control inteligente, cuando se obtiene un valor superior al 40%.
g) Comportamiento y análisis predictivo. El método objeto de la presente invención no sólo enciende la luminaria que alumbra directamente el lugar donde se encuentra el humano, sino las luminarias de su alrededor y siguientes para crear una sensación de confort y prestar un horizonte de paso iluminado. Para ello, en esta etapa, se analiza el posible movimiento y dirección de los peatones por el área de análisis. Como resultado se obtiene el conjunto de luminarias afectadas (1 F).
h) Control de luz. Esta etapa se limita a indicar el nivel de luz para las luminarias en torno a las áreas de interés en las que se han detectado humanos y el envío de señales de niveles de iluminación (2) a las luminarias (3) de la zona de control. El resultado de esta etapa puede ser de diferentes tipos. Puede ser un vector que indique de forma individualizada el nivel de luz de cada luminaria, o puede ser un único valor que indique de forma conjunta el nivel de luz de todas las luminarias de la zona.
Las etapas anteriores se ejecutan en los diferentes componentes de la arquitectura descritos previamente. Las opciones de ejecución de las diferentes tareas son las siguientes:
La tarea de captura de imagen (1) se ejecuta siempre en los dispositivos de adquisición (4).
La tarea de filtrado de imagen (b), es decir, obtención de las imágenes filtradas (1 A) se puede ejecutar en el propio dispositivo de adquisición (5), en plataforma computacional intermedia (5) tipo Cloudlet o en servidor o plataforma remota (7). De forma preferente se realiza en los dispositivos de adquisición (5) ya que incorporan funciones de filtrado a las imágenes que capturan. En caso de no ser posible, se puede transmitir la imagen al Cloudlet para su procesamiento, o incluso a la plataforma remota (7).
La tarea de selección de áreas candidatas (c) se puede ejecutar también en el propio dispositivo de adquisición (4) o en la plataforma computacional intermedia (5) tipo Cloudlet o en el servidor o plataforma remota (7). De manera preferente, se realiza en los dispositivos de adquisición (4) dado que comprenden programas que ejecutar algoritmos sobre las imágenes que capturan. En caso de no ser posible, se puede transmitir la imagen a la plataforma computacional intermedia (5) para su procesamiento.
Las tareas de extracción de características (d) y de generación de descriptores (e) se ejecutan en la plataforma computacional intermedia (5) tipo Cloudlet o en el servidor o
plataforma remota (7) tipo Cloud Computing. Al trabajar con fragmentos de la imagen filtrada (1A), el ancho de banda necesario y la cantidad de datos a transmitir a través de Internet (6) se reduce considerablemente.
Las tareas de clasificación (f) y de comportamiento y análisis predictivo (g) se ejecutan en el servidor remoto Cloud Computing (7). El coste computacional que requieren y el análisis conjunto con el de otras imágenes hacen necesario su procesamiento centralizado en centros de datos especializados.
Finalmente, la tarea de control de luz (h) se realiza también desde un control centralizado ubicado en la nube que envía una señal (2) de manera individualizada o grupal a las luminarias (3). Este control centralizado permite el desarrollo de cuadros de mando e interfaces de administración de usuario. Así mismo, disponer de la información centralizada permite el desarrollo de aplicaciones de análisis de las dinámicas de la ciudad.
A modo de resumen, en la Figura 4 se puede observar un esquema con los posibles procesamientos donde se puede ver que:
- las etapas de captura de la imagen (a), filtrado de la imagen (b) y selección de áreas candidatas (c) se realizan en los dispositivos de adquisición (4); las etapas de extracción de características (d) y generación de descriptores (e) se realizan en las plataformas computacionales intermedias (5); y las etapas de clasificación (f), comportamiento y análisis predictivo (g) y control de luz (h) se realiza en las plataformas de procesamiento remoto (7).
- la etapa de captura de la imagen (a) se realiza en los dispositivos de adquisición (4); las etapas de filtrado de la imagen (b), selección de áreas candidatas (c), extracción de características (d) y generación de descriptores (e) se realizan en las plataformas computacionales intermedias (5); y las etapas de clasificación (f), comportamiento y análisis predictivo (g) y control de luz (h) se realiza en las plataformas de procesamiento remoto (7).
- la etapa de captura de la imagen (a) se realiza en los dispositivos de adquisición
(4); y las etapas de filtrado de la imagen (b), selección de áreas candidatas (c), extracción de características (d) y generación de descriptores (e), clasificación (f), comportamiento y análisis predictivo (g) y control de luz (h) se realizan en las plataformas de procesamiento remoto (7) habiendo pasado previamente por las plataformas computacionales intermedias
(5).
Claims
1.- Sistema de iluminación inteligente, con el que se controla el nivel de intensidad de luz de unas luminarias ubicadas en una zona de interés según la presencia humana en dicha zona, que se caracteriza por que comprende:
- una pluralidad de luminarias (3) distribuidas por la zona de interés; que comprenden medios de recepción de señales inalámbricas y un módulo de procesador configurado para emitir luz a diferentes niveles de luminosidad;
- una pluralidad de dispositivos de adquisición (4) de imagen, que toman las imágenes (1) de la zona de interés con una periodicidad constante;
- al menos una plataforma computacional intermedia (5) de procesamiento distributivo del tipo Cloudlet, en conexión con los dispositivos de adquisición (4), que comprenden medios de procesamiento; y
- al menos una plataforma de procesamiento remoto (8) centralizada de computación en la nube del tipo Cloud Computing, en conexión con las plataformas tipo Cloudlet, que consiste en un centro de procesamiento centralizado de datos alojados en la nube y accesible a través de Internet (7); y desde donde se envía una señal (2) de manera individualizada o grupal a las luminarias (3) con el nivel de luminosidad a emitir.
2.- Sistema de iluminación inteligente, según la reivindicación 1 , donde las luminarias (3) disponen de al menos 3 niveles de luminosidad variable.
3.- Sistema de iluminación inteligente, según la reivindicación 1 , donde los dispositivos de adquisición (4) son cámaras de imagen o de video.
4 - Sistema de iluminación inteligente, según la reivindicación 1 , donde los dispositivos de adquisición toman las imágenes con la frecuencia de 1 segundo.
5.- Sistema de iluminación inteligente, según la reivindicación 1 , donde las luminarias (3), los dispositivos de adquisición (4) y las plataformas intermedias (5) están interconectados inalámbrica en una misma red local LAN - Local Area Network.
6.- Método de iluminación inteligente, con el que se controla el nivel de intensidad de luz de unas luminarias ubicadas en una zona de interés según la presencia humana en dicha zona, y que se lleva a cabo con un sistema según cualquiera de las reivindicaciones anteriores, donde el método comprende las siguientes etapas:
a) Captura de una imagen, donde unos dispositivos de adquisición (4) capturan una imagen (1) de la zona de interés;
b) Filtrado de la imagen, donde se obtiene una imagen filtrada (1A) a partir de la imagen (1) inicialmente tomada;
c) Selección de áreas candidatas, donde se realiza un análisis preliminar de la imagen filtrada (1A) donde detecta movimiento e indicios de figuras humanas, resultando un conjunto de áreas de interés (1 B) en el interior de cada imagen;
d) Extracción de características, donde se extraen características de cada una de las áreas (1 B) identificadas en el proceso anterior, y se obtiene una estructura de datos de cada área de la imagen candidata (1C).
e) Generación de descriptores, donde se crea un conjunto de descriptores (1 D) que definen todos los aspectos de las características identificadas en la etapa anterior;
f) Clasificación, donde se aplican clasificadores inteligentes mediante herramientas informáticas para determinar si en cada área candidata existe una figura humana, obteniéndose un valor numérico por cada área de interés con la probabilidad de que en ella exista una figura humana (1 E);
g) Comportamiento y análisis predictivo, mediante herramientas informáticas que analizan el posible movimiento y dirección de los peatones por el área de análisis, y se define el conjunto de luminarias afectadas (1 F) en la zona de control;
h) Control de luz, donde se indicar el nivel de luz para las luminarias en torno a las áreas de interés en las que se han detectado humanos y envía las señales de niveles de iluminación (2) a las luminarias (3) ubicadas de la zona de control.
7.- Método de iluminación inteligente, según la reivindicación 6, donde en la etapa de clasificación (f) se aplican técnicas de Deep Learning.
8.- Método de iluminación inteligente, según la reivindicación 6, donde en la etapa de clasificación (f) la probabilidad de que en ella exista una figura humana requiere de un valor superior al 40%.
9.- Método de iluminación inteligente, según la reivindicación 6, donde en la etapa de control de luz (h), la señal (2) con el nivel de luz se emite de forma individualizada a cada luminaria (3) o de forma conjunta a las luminarias afectadas (1 F) de la zona de control.
10.- Método de iluminación inteligente, según la reivindicación 6, donde en las etapas de captura de la imagen (a), filtrado de la imagen (b) y selección de áreas candidatas (c) se
realiza en los dispositivos de adquisición (4); las etapas de extracción de características (d) y generación de descriptores (e) se realizan en unas plataformas computacionales intermedias (5); y las etapas de clasificación (f), comportamiento y análisis predictivo (g) y control de luz (h) se realiza en unas plataformas de procesamiento remoto (8).
11.- Método de iluminación inteligente, según la reivindicación 6, donde en la etapa de captura de la imagen (a) se realiza en los dispositivos de adquisición (4); las etapas de filtrado de la imagen (b), selección de áreas candidatas (c), extracción de características (d) y generación de descriptores (e) se realizan en unas plataformas computacionales intermedias (5); y las etapas de clasificación (f), comportamiento y análisis predictivo (g) y control de luz (h) se realiza en unas plataformas de procesamiento remoto (8).
12.- Método de iluminación inteligente, según la reivindicación 6, donde en la etapa de captura de la imagen (a) se realiza en los dispositivos de adquisición (4); y las etapas de filtrado de la imagen (b), selección de áreas candidatas (c), extracción de características (d) y generación de descriptores (e), clasificación (f), comportamiento y análisis predictivo (g) y control de luz (h) se realizan en unas plataformas de procesamiento remoto (8).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201930387A ES2797534A1 (es) | 2019-04-30 | 2019-04-30 | Sistema y metodo de iluminacion inteligente |
ESP201930387 | 2019-04-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020221948A1 true WO2020221948A1 (es) | 2020-11-05 |
Family
ID=73028781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/ES2020/070274 WO2020221948A1 (es) | 2019-04-30 | 2020-04-28 | Sistema y método de iluminación inteligente |
Country Status (2)
Country | Link |
---|---|
ES (1) | ES2797534A1 (es) |
WO (1) | WO2020221948A1 (es) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006038169A1 (en) * | 2004-10-05 | 2006-04-13 | Koninklijke Philips Electronics N.V. | Interactive lighting system |
US20140112537A1 (en) * | 2011-06-10 | 2014-04-24 | Flir Systems, Inc. | Systems and methods for intelligent monitoring of thoroughfares using thermal imaging |
CN106211518A (zh) * | 2016-08-26 | 2016-12-07 | 特斯联(北京)科技有限公司 | 一种智能城市照明方法及系统 |
WO2019067631A1 (en) * | 2017-09-27 | 2019-04-04 | Johnson Controls Technology Company | BUILDING MANAGEMENT SYSTEM WITH INTELLIGENT ENTITIES, TIMELINE, INBOUND FLOW GENERATION, CLOUD CONTROL AND ID AND INSURANCE MANAGEMENT SERVICES |
-
2019
- 2019-04-30 ES ES201930387A patent/ES2797534A1/es active Pending
-
2020
- 2020-04-28 WO PCT/ES2020/070274 patent/WO2020221948A1/es active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006038169A1 (en) * | 2004-10-05 | 2006-04-13 | Koninklijke Philips Electronics N.V. | Interactive lighting system |
US20140112537A1 (en) * | 2011-06-10 | 2014-04-24 | Flir Systems, Inc. | Systems and methods for intelligent monitoring of thoroughfares using thermal imaging |
CN106211518A (zh) * | 2016-08-26 | 2016-12-07 | 特斯联(北京)科技有限公司 | 一种智能城市照明方法及系统 |
WO2019067631A1 (en) * | 2017-09-27 | 2019-04-04 | Johnson Controls Technology Company | BUILDING MANAGEMENT SYSTEM WITH INTELLIGENT ENTITIES, TIMELINE, INBOUND FLOW GENERATION, CLOUD CONTROL AND ID AND INSURANCE MANAGEMENT SERVICES |
Non-Patent Citations (1)
Title |
---|
FERNANDO VARGAS VARGAS: "Cloudlet for the Internet of Things", DEGREE PROJECT IN ELECTRICAL ENGINEERING. KTH STOCKHOLM, 2016, pages 20 - 31, XP055757790, Retrieved from the Internet <URL:http://kth.diva-portal.org/smash/record.jsf?pid=diva2%3A956399&dswid=2972> * |
Also Published As
Publication number | Publication date |
---|---|
ES2797534A1 (es) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12008794B2 (en) | Systems and methods for intelligent video surveillance | |
US10032371B2 (en) | Notification of bicycle detection for cyclists at a traffic intersection | |
US20170042003A1 (en) | Intelligent lighting and sensor system and method of implementation | |
EP3039947B1 (en) | Sensor network with adaptive detection settings based on the status information from neighboring luminaries and/or connected devices | |
CN105306796A (zh) | 具有定期红外照明和全局快门cmos传感器的夜视设备 | |
EP3007520A1 (en) | Device for controlling brightness of lighting device | |
Maheswari et al. | Intelligent Headlights for Adapting Beam Patterns with Raspberry Pi and Convolutional Neural Networks | |
KR101344034B1 (ko) | 보행자 인식기반 사고방지 시스템 및 그 제어 방법 | |
US20190008019A1 (en) | Method of controlling a light intensity of a light source in a light network | |
JP2008165743A (ja) | 昼夜画像識別方法及び装置 | |
KR20210012777A (ko) | 다중센서 기반 객체 감지를 통한 스마트 조명 시스템 | |
JP2016537792A (ja) | 拡張現実を支援するためのシステム及び方法 | |
KR102362304B1 (ko) | 사고 감지 및 2차 사고 방지를 위한 교통사고 알림 시스템 | |
Sgouropoulos et al. | Counting and tracking people in a smart room: An IoT approach | |
US20240284571A1 (en) | Detection and illumination of dark zones via collaborative lighting | |
US11641453B2 (en) | Server, on-board device, vehicle, non-transitory storage medium storing program, and method for providing information | |
KR101479178B1 (ko) | 가로등을 대체할 수 있는 cctv용 지능형 카메라장치 | |
Hasan et al. | Simultaneous traffic sign recognition and real-time communication using dual camera in ITS | |
KR20150119585A (ko) | 객체 인식을 이용한 조명 제어 시스템 및 조명 제어 방법 | |
CN109844825B (zh) | 存在检测系统和方法 | |
WO2020221948A1 (es) | Sistema y método de iluminación inteligente | |
ES1279744U (es) | Sistema de iluminacion inteligente | |
KR102007162B1 (ko) | 360° 전방위 cctv 카메라와 클라우딩 시스템을 활용한 통합 지능형 주차 관제 시스템 및 방법 | |
KR20210012282A (ko) | 다기능 가로등 장치 및 운용방법 | |
KR20230152410A (ko) | 다중 카메라 및 이동 카메라를 이용한 영상 분석 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20799147 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20799147 Country of ref document: EP Kind code of ref document: A1 |