ES2939537T3 - Protección de la fuente de luz ultravioleta (UV) en un dispositivo móvil - Google Patents
Protección de la fuente de luz ultravioleta (UV) en un dispositivo móvil Download PDFInfo
- Publication number
- ES2939537T3 ES2939537T3 ES20163352T ES20163352T ES2939537T3 ES 2939537 T3 ES2939537 T3 ES 2939537T3 ES 20163352 T ES20163352 T ES 20163352T ES 20163352 T ES20163352 T ES 20163352T ES 2939537 T3 ES2939537 T3 ES 2939537T3
- Authority
- ES
- Spain
- Prior art keywords
- sensor
- mobile robot
- light source
- drive system
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 10
- 230000003116 impacting effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 description 11
- 238000004590 computer program Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000001681 protective effect Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 244000005700 microbiome Species 0.000 description 2
- 241000894006 Bacteria Species 0.000 description 1
- 208000035473 Communicable disease Diseases 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2/00—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
- A61L2/02—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
- A61L2/08—Radiation
- A61L2/10—Ultraviolet radiation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2202/00—Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
- A61L2202/10—Apparatus features
- A61L2202/11—Apparatus for generating biocidal substances, e.g. vaporisers, UV lamps
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2202/00—Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
- A61L2202/10—Apparatus features
- A61L2202/14—Means for controlling sterilisation processes, data processing, presentation and storage means, e.g. sensors, controllers, programs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2202/00—Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
- A61L2202/10—Apparatus features
- A61L2202/16—Mobile applications, e.g. portable devices, trailers, devices mounted on vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Computing Systems (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Pens And Brushes (AREA)
- Heating, Cooling, Or Curing Plastics Or The Like In General (AREA)
- Orthopedics, Nursing, And Contraception (AREA)
Abstract
Las implementaciones del objeto divulgado proporcionan un dispositivo de un robot móvil que puede incluir un motor para impulsar un sistema de accionamiento para mover el robot móvil en un área y una fuente de luz para generar luz ultravioleta. El dispositivo puede incluir al menos un primer sensor para determinar al menos una orientación del robot móvil, una ubicación del robot móvil y/o cuándo la fuente de luz está dentro de una distancia predeterminada de un objeto en el área. El dispositivo puede incluir un controlador, acoplado comunicativamente al sistema de accionamiento, la fuente de luz y al menos un primer sensor para controlar el sistema de accionamiento para detener o mover el robot móvil antes de que la fuente de luz esté dentro de la distancia predeterminada del objeto basado en al menos una señal recibida desde el al menos un primer sensor. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Protección de la fuente de luz ultravioleta (UV) en un dispositivo móvil
Antecedentes
Los dispositivos móviles, tales como los robots móviles, pueden ser operados para cambiar de dirección después de golpear una superficie, como una pared. Algunos robots móviles pueden detectar seres humanos en una trayectoria de dirección determinada y cambiar la trayectoria determinada.
El documento WO 2004/082899 A2 se refiere limpiadores robóticos.
Breve sumario
Los aspectos de la presente invención se definen en las reivindicaciones adjuntas. Según un primer aspecto, se proporciona un dispositivo de acuerdo con la reivindicación 1. Las características opcionales preferentes se definen en las reivindicaciones dependientes.
De acuerdo con una implementación de la materia objeto divulgada, un dispositivo puede ser un robot móvil que puede incluir un motor para accionar un sistema de accionamiento para mover el robot móvil en una zona, y una fuente de luz para emitir luz ultravioleta. El dispositivo puede incluir al menos un primer sensor para determinar al menos una de una orientación del robot móvil, una ubicación del robot móvil, y / o cuando la fuente de luz está dentro de una distancia predeterminada de un objeto en la zona. El dispositivo puede incluir un controlador, acoplado comunicativamente al sistema de accionamiento, la fuente de luz, y al al menos un primer sensor para controlar el sistema de accionamiento con el fin de detener o mover el robot móvil antes de que la fuente de luz esté dentro de la distancia predeterminada del objeto basado en al menos una señal recibida desde el al menos un primer sensor.
Características, ventajas e implementaciones adicionales de la materia objeto divulgada pueden ser expuestas o resultar aparentes a partir de la toma en consideración de la descripción detallada, dibujos y reivindicaciones siguientes. Además, debe entenderse que tanto el resumen anterior como la siguiente descripción detallada son ilustrativos y tienen por objeto proporcionar explicaciones adicionales sin limitar el alcance de las reivindicaciones.
Breve descripción de los dibujos
Los dibujos adjuntos, que se incluyen para proporcionar una mayor comprensión de la materia objeto divulgada, se incorporan y forman parte de la presente memoria. Los dibujos también ilustran implementaciones de la materia objeto divulgada y, junto con la descripción detallada, sirven para explicar los principios de las implementaciones de la materia objeto divulgada. No se realiza intento alguno de mostrar los detalles estructurales con más detalle del necesario para una ofrecer una comprensión fundamental de la materia objeto divulgada y de las diversas formas en que puede llevarse a la práctica.
Las FIGS. 1-3 muestran una pluralidad de vistas externas de un robot móvil que tiene sensores para proteger una fuente de luz ultravioleta (UV) según implementaciones de la materia objeto divulgada.
La FIG. 4 muestra un ejemplo de configuración del robot móvil de las FIGS. 1-3 según una realización de la materia objeto divulgada.
La FIG. 5 muestra una configuración de red que puede incluir una pluralidad de robots móviles según implementaciones de la materia objeto divulgada.
Descripción detallada
En implementaciones de la materia objeto divulgada, un robot móvil puede emitir luz ultravioleta (UV) desde una fuente de luz UV. La luz UV emitida por la fuente de luz puede utilizarse para desinfectar un objeto, al menos una parte de una habitación, una zona predeterminada o similares. El robot móvil puede utilizarse como parte de un ciclo de limpieza regular de una habitación, edificio o similar, y puede prevenir y/o reducir la propagación de enfermedades infecciosas, virus, bacterias y otros tipos de microorganismos orgánicos nocivos en el medio ambiente, al descomponer su estructura de a Dn con luz UV. El robot móvil puede reducir los errores humanos en la limpieza de una zona, habitación, edificio o similar mediante el seguimiento de la ubicación y/o la intensidad (por ejemplo, la potencia óptica de la luz UV) de la luz irradiada, y determinar qué zonas pueden necesitar ser irradiadas y/o limpiadas.
El robot móvil puede ser operado manual, autónomamente, y/o puede recibir señales de control para controlar el movimiento del robot móvil con una habitación, edificio, zona, o similar cuando opera en un modo de teleoperación. La fuente de luz UV del robot móvil puede estar protegida por uno o más sensores dispuestos en el robot móvil. Los sensores pueden impedir que el robot móvil se desplace a un lugar en el que haya uno o varios objetos que puedan dañar la fuente de luz UV. Los uno o más sensores pueden estar acoplados comunicativamente a un controlador,
que puede controlar el movimiento del robot móvil basándose en las señales recibidas de los uno o más sensores. Esto difiere de los robots móviles tradicionales, que pueden evitar objetos y/o personas para evitar dañar los objetos o dañar a las personas. Es decir, las implementaciones de la materia objeto divulgada proporcionan sensores para detectar obstáculos que potencialmente puedan dañar el robot móvil, como su fuente de luz UV.
Aunque puede utilizarse un escudo protector para cubrir y/o encerrar al menos parcialmente la fuente de luz UV, la magnitud de la luz UV (es decir, la potencia óptica de la luz UV) puede deformar físicamente el escudo protector con el tiempo, y/o el escudo protector puede atenuar la cantidad de luz UV que puede irradiar una zona predeterminada, lo que puede ser perjudicial para evitar la propagación de microorganismos orgánicos nocivos.
Las FIGS. 1-3 muestran una pluralidad de vistas externas de un robot móvil 100 con sensores para proteger una fuente de luz ultravioleta (UV) según implementaciones de la materia objeto divulgada. El robot móvil 100 puede incluir al menos un primer sensor 102 (mostrado como sensor 102a y 102b en la FIG. 2), una fuente de luz 104 para emitir luz ultravioleta, al menos un segundo sensor 106, un sistema de accionamiento 108, una interfaz de usuario 110 y/o un botón de parada 112. Un controlador (por ejemplo, el controlador 114 mostrado en la FIG. 4 y descrito más adelante) puede estar acoplado comunicativamente al al menos un primer sensor 102, la fuente de luz 104, el al menos un segundo sensor 106, el sistema de accionamiento 108, la interfaz de usuario 110 y el botón de parada 112, puede controlar las operaciones del robot móvil 100.
El al menos un primer sensor 102 (incluyendo los sensores 102a, 102b mostrados en la FIG. 2) puede determinar al menos una de entre una orientación del robot móvil 100 (por ejemplo, una dirección en la que está orientado un lado frontal y/o un primer lado de un robot), una ubicación del robot móvil 100 (por ejemplo, una ubicación del robot móvil 100 en una zona), y/o cuando la fuente de luz 104 está dentro de una distancia predeterminada de un objeto 113 (que puede incluir 113a, 113b) en la zona. En algunas implementaciones, el al menos un primer sensor 102 puede tener un campo de visión de 70 grados en diagonal. El al menos un sensor 102 puede tener una distancia de detección de 0,2 - 4 metros. Como se muestra en las FIGS. 1-3, el al menos un primer sensor 102 puede estar dispuesto sobre la fuente de luz 104.
El al menos un primer sensor 102 puede incluir un primer sensor lateral dispuesto en un primer lado del robot móvil 100 y un segundo sensor lateral que puede estar dispuesto en un segundo lado del dispositivo. Por ejemplo, como se muestra en la FIG. 2, el sensor 102a puede estar dispuesto en un primer lado (por ejemplo, un lado frontal) del robot móvil 100, y el sensor 102b puede estar dispuesto en un segundo lado (por ejemplo, un lado trasero) del robot móvil 100. Aunque los sensores en dos lados del robot se muestran en la FIG. 2, puede haber una pluralidad de sensores dispuestos en diferentes lados del robot móvil 102 para evitar que un objeto dañe la fuente de luz 104. En algunas realizaciones, el sensor 102a y/o el sensor 102b pueden estar dispuestos sobre la fuente de luz 104.
La fuente de luz 104 puede ser una o más bombillas, una o más lámparas y/o una matriz de diodos emisores de luz (LED) o diodos emisores de luz orgánicos (OLED) para emitir luz UV (por ejemplo, luz con una longitud de onda de 10 nm - 400 nm). La intensidad (es decir, la potencia óptica de salida) puede ser controlada por el controlador 114, que también puede encender o apagar una parte o la totalidad de los dispositivos (por ejemplo, bombillas, lámparas, LED, OLED) de la fuente de luz 104.
El al menos un segundo sensor 106 puede estar acoplado comunicativamente al controlador 114 mostrado en la FIG. 4, y el controlador 114 puede controlar el sistema de accionamiento 108 para detener y/o mover el robot móvil 100 antes de que la fuente de luz 104 se encuentre dentro de la distancia predeterminada de un objeto 113 (por ejemplo, al menos una parte del objeto 113a, 113b) basándose en al menos una señal recibida del al menos un primer sensor 102 y/o una señal recibida del al menos un segundo sensor 106. Como se muestra en la FIG. 1, la fuente de luz 104 puede estar dispuesta sobre el al menos un segundo sensor 106. En algunas realizaciones, el al menos un segundo sensor 106 puede estar orientado en una dirección hacia la fuente de luz 104. Por ejemplo, el al menos un primer sensor 102 puede estar dispuesto de modo que tenga una dirección de detección aproximadamente paralela a una superficie sobre la que se desplaza el robot móvil (por ejemplo, el suelo, el piso o similares) y/o hacia la superficie (por ejemplo, una dirección de detección descendente), y el al menos un segundo sensor 106 puede tener una dirección de detección orientada hacia arriba desde la superficie (por ejemplo, en dirección ascendente) hacia la fuente de luz 104.
En algunas implementaciones, el al menos un segundo sensor 106 puede ser un sensor de tiempo de vuelo, un sensor ultrasónico, un sensor bidimensional de detección y telemetría por luz (LiDAR), un sensor LiDAR tridimensional, y/o un sensor de radar (detección y telemetría por radio), o similares. El al menos un segundo sensor 106 puede tener un campo de visión de 20-27 grados. En algunas implementaciones, el al menos un segundo sensor 106 puede tener una distancia de detección de 0,05 - 4 metros.
El robot móvil 100 puede incluir un motor para accionar el sistema de accionamiento 108 para mover el robot móvil en una zona, tal como una habitación, un edificio, o similar. El sistema de accionamiento 108 puede incluir ruedas, que pueden ser ajustables para que el sistema de accionamiento 108 pueda controlar la dirección del robot móvil 100.
En algunas implementaciones, el robot móvil 100 puede incluir una base con el sistema de accionamiento 108, y al menos un primer sensor 102 puede estar dispuesto en la base. En esta implementación, el al menos un primer sensor 102 puede ser un sensor LiDAR (Detección y Telemetría por Luz) bidimensional, un sensor LiDAR tridimensional, cámaras tridimensionales, o similares.
El controlador 114 puede controlar y/o operar el robot móvil 100 en un modo de operación que puede ser un modo manual, un modo autónomo, y/o un modo de teleoperación. En el modo manual, el controlador 114 puede recibir una o más señales de control de la interfaz de usuario 110 y/o del botón de parada 112. Por ejemplo, un usuario puede controlar el movimiento, la dirección y/o detener el movimiento del robot móvil 100 realizando una o más selecciones en la interfaz de usuario 110. El botón de parada 112 puede ser un botón de parada de emergencia (ESTOP) que puede detener todas las operaciones y/o el movimiento del robot móvil 100 cuando se selecciona. En algunas implementaciones, el controlador 114 puede recibir al menos una señal de control a través de una interfaz de red 116 (mostrada en la FIG. 4) cuando se opera en el modo de teleoperación. Por ejemplo, la interfaz de red puede recibir señales de control a través de la red 130 desde el servidor 140, la base de datos 150 y/o la plataforma remota 160, como se describe más adelante en relación con la FIG. 5.
En algunas implementaciones, el al menos un primer sensor 102 puede ser un sensor de tiempo de vuelo, un sensor de visión estereoscópica, un sensor LiDAR bidimensional, un sensor LiDAR tridimensional, o similares. Por ejemplo, mientras el robot móvil 100 se mueve en una dirección, el al menos un primer sensor 102 puede detectar una geometría de uno o más objetos (por ejemplo, el objeto 113, que tiene porciones 113a y/o 113b) que pueden estar en la trayectoria del robot móvil 100. La salida del al menos un primer sensor 102 puede ser, por ejemplo, una nube de puntos de uno o más objetos en la trayectoria del robot móvil 100. En este ejemplo, puede que no haya nada (por ejemplo, ningún objeto) en la trayectoria del robot móvil 100 hasta el rango de detección del al menos un primer sensor 102, que puede ser de aproximadamente 4 metros. Cuando el al menos un primer sensor 102 puede determinar que uno o más objetos (por ejemplo, el objeto 113) se encuentran en la trayectoria del robot móvil 100, el controlador 114 puede reducir una velocidad máxima permitida del robot móvil 100 por seguridad, con el fin de reducir y/o eliminar que la fuente de luz 104 impacte con el uno o más objetos que puedan dañar la fuente de luz 104. Por ejemplo, cuando el controlador 114 está operando el robot móvil 100 en el modo autónomo, el controlador 114 puede determinar si la trayectoria deseada (es decir, una trayectoria planificada) puede hacer que el robot móvil impacte con uno o más objetos (por ejemplo, el objeto 113). Cuando el controlador 114 está operando el robot móvil 100 en los modos manual o teleoperado, el controlador 114 puede recibir un comando de usuario a través de la interfaz de usuario 110, el botón de parada 112, y/o a través de la interfaz de red 116. Si la trayectoria deseada puede terminar en una colisión, o puede situar al robot móvil 100 a una distancia predeterminada de un objeto que puede causar una colisión, el controlador 114 puede cambiar la trayectoria de movimiento, o detener el movimiento, del robot móvil 100 controlando el sistema de accionamiento 108.
Cuando el al menos un primer sensor 102 es un sensor de visión estereoscópica, las imágenes de dos sensores (es decir, cuando los dos sensores pueden formar parte del sensor de visión estereoscópica del al menos un primer sensor 102) dentro de una distancia conocida entre sí pueden capturarse en un punto predeterminado en el tiempo, y/o a intervalos de tiempo predeterminados con un obturador global. El obturador global puede configurarse de modo que los dos sensores del sensor de visión estereoscópica puedan capturar imágenes casi simultáneamente. Una o más características pueden determinarse a partir de las imágenes capturadas, y compararse entre sí para determinar las partes que coinciden. Como la distancia focal de los dos sensores del sensor de visión estereoscópica y la distancia entre los dos sensores (por ejemplo, aproximadamente 6 cm) pueden almacenarse en la memoria 118 y/o en el almacenamiento fijo 120 (mostrados en la FIG. 4), el controlador 114 y/o el al menos un primer sensor 102 pueden utilizar las imágenes capturadas y los valores almacenados para determinar la distancia desde el al menos un primer sensor 102 al objeto 113. En algunas implementaciones, el al menos un sensor 102 puede incluir al menos un láser, LED, y/o OLED, para irradiar uno o más puntos en superficies de objetos, cuando los objetos pueden estar sin características de identificación (por ejemplo, paredes en blanco).
En algunas implementaciones, la protección de la fuente de luz 104 puede incrementarse utilizando el al menos un segundo sensor 106 que puede estar dispuesto debajo de la fuente de luz 104. El al menos un segundo sensor 106 puede configurarse de modo que una trayectoria de detección se dirija hacia la fuente de luz 104 (por ejemplo, una trayectoria ascendente que puede estar en ángulo con respecto a la superficie sobre la que puede desplazarse el robot móvil 100). En algunas realizaciones, el al menos un segundo sensor 106 puede estar dispuesto por encima de la fuente de luz 104. En otra realización, el al menos un segundo sensor 106 puede incluir un sensor que está dispuesto por encima de la fuente de luz 104, y otro sensor que está dispuesto por debajo de la fuente de luz 104.
Por ejemplo, el al menos un segundo sensor 106 puede ser un sensor de tiempo de vuelo (TOF). Al menos un fotón de luz puede ser emitido por el al menos un segundo sensor 106, y puede ser transmitido a través del aire. Cuando el al menos un fotón de luz irradia el objeto 113, una porción de la luz puede ser reflejada por el objeto 113 puede regresar a una porción receptora del al menos un segundo sensor 106. El al menos un segundo sensor 106 puede calcular el tiempo transcurrido entre el envío del al menos un fotón de luz y la recepción del reflejo, y multiplicar este valor por la velocidad de la luz en el aire, para determinar la distancia entre el al menos un segundo sensor 106 y el objeto 113. Típicamente, la distancia calculada puede ser mayor que la distancia entre el objeto 113 y la fuente de luz 104. La distancia puede variar de un lugar a otro, por ejemplo, debido a las diferentes alturas de los techos (por
ejemplo, que pueden reflejar los uno o más fotones de luz de manera diferente). Cuando la distancia determinada es menor que la distancia a la ubicación del al menos un segundo sensor, el controlador 114 puede detener el sistema de accionamiento 108 y/o cambiar la dirección del robot móvil 100. Esta determinación por parte del controlador 114 puede basarse en la dirección actual del robot móvil 100, la orientación del robot móvil 100, la ubicación del al menos un segundo sensor 106, y/o la dimensión física del robot móvil 100. El al menos un segundo sensor 106 puede detener el robot móvil 100 transmitiendo una señal al controlador 114 para cambiar la dirección de la trayectoria del robot móvil 100 cuando funciona en modo autónomo. En otra realización, el al menos un segundo sensor 106 puede proporcionar una señal de control al sistema de accionamiento 108 para detener el movimiento del robot móvil 100.
La FIG. 4 muestra componentes de ejemplo del robot móvil 100 adecuados para proporcionar las implementaciones de la materia objeto divulgada. El robot móvil 100 puede incluir un bus 122 que interconecta componentes principales del robot móvil 100, tales como el sistema de accionamiento 108, una interfaz de red 116 operable para comunicarse con uno o más dispositivos remotos a través de una conexión de red adecuada, el controlador 114, una memoria 118 tal como memoria de acceso aleatorio (RAM), memoria de sólo lectura (ROM), flash RAM, o similares, el botón de parada 112, la fuente de luz 104, el al menos un primer sensor 102, una interfaz de usuario 110 que puede incluir uno o más controladores y dispositivos de entrada de usuario asociados como un teclado, una pantalla táctil y similares, un almacenamiento fijo 120 como un disco duro, un almacenamiento flash y similares, y el al menos un segundo sensor 106.
El bus 122 permite la comunicación de datos entre el controlador 114 y uno o más componentes de memoria, que pueden incluir RAM, ROM y otras memorias, como se ha indicado anteriormente. Normalmente, la RAM es la memoria principal en la que se cargan el sistema operativo y los programas de aplicación. Un componente de memoria ROM o flash puede contener, entre otros códigos, el sistema básico de entrada-salida (BIOS) que controla el funcionamiento básico del hardware, como la interacción con los componentes periféricos. Las aplicaciones residentes en el robot móvil 100 generalmente se almacenan y se accede a ellas a través de un medio legible por ordenador (por ejemplo, el almacenamiento fijo 120), como una unidad de estado sólido, una unidad de disco duro, una unidad óptica, una unidad de estado sólido u otro medio de almacenamiento.
La interfaz de red 116 puede proporcionar una conexión directa a un servidor remoto (por ejemplo, el servidor 140, la base de datos 150, y/o la plataforma remota 160 mostrada en la FIG. 5) a través de una conexión por cable o inalámbrica (por ejemplo, la red 130 mostrada en la FIG. 5). La interfaz de red 116 puede proporcionar dicha conexión utilizando cualquier técnica y protocolo adecuados, como comprenderá fácilmente un experto en la materia, incluyendo telefonía móvil digital, WiFi, Bluetooth (R), campo cercano y similares. Por ejemplo, la interfaz de red 116 puede permitir que el robot móvil 100 se comunique con otros ordenadores a través de una o más redes de comunicación locales, de área amplia o de otro tipo, como se describe con más detalle a continuación. El robot móvil puede transmitir datos a través de la interfaz de red al servidor remoto que pueden incluir una ruta de operación, las superficies y/o zonas irradiadas con luz UV, y similares.
Muchos dispositivos o componentes adicionales (no mostrados) pueden ser conectados de manera similar. Por el contrario, todos los componentes mostrados en la FIG. 4 no necesita estar presente para poner en práctica la presente divulgación. Los componentes pueden interconectarse de formas distintas a la mostrada. El código para implementar la presente divulgación puede almacenarse en medios de almacenamiento legibles por ordenador, como uno o más de entre la memoria 118, el almacenamiento fijo 120, o en una ubicación de almacenamiento remoto.
La FIG. 5 muestra un ejemplo de disposición de red según una implementación de la materia objeto divulgada. El robot móvil 100 descrito anteriormente, y/o un robot móvil 200 similar pueden conectarse a otros dispositivos a través de la red 130. La red 130 puede ser una red local, una red de área amplia, Internet o cualquier otra red o redes de comunicación adecuadas, y puede implementarse en cualquier plataforma adecuada, incluidas redes cableadas y/o inalámbricas. El robot móvil 100 y/o el robot móvil 200 pueden comunicarse entre sí, y/o pueden comunicarse con uno o más dispositivos remotos, como el servidor 140, la base de datos 150, y/o la plataforma remota 160. Los dispositivos remotos pueden ser directamente accesibles por el robot móvil 100, 200 o uno o más dispositivos pueden proporcionar acceso intermedio, como cuando un servidor 140 proporciona acceso a los recursos almacenados en una base de datos 150. El robot móvil 100, 200 puede acceder a la plataforma remota 160 o a los servicios proporcionados por la plataforma remota 160, como los acuerdos y servicios de computación en la nube. La plataforma remota 160 puede incluir uno o más servidores 140 y/o bases de datos 150.
Más generalmente, varias implementaciones de la materia objeto actualmente divulgada pueden incluir o ser incorporadas en la forma de procesos implementados por ordenador y aparatos para poner en práctica dichos procesos. Las implementaciones también se pueden plasmar en forma de un producto de programa informático que tenga un código de programa informático que contenga instrucciones plasmadas en medios no transitorios y/o tangibles, como unidades de estado sólido, DVD, CD-ROM, discos duros, unidades USB (bus serie universal) o cualquier otro medio de almacenamiento legible por máquina, de forma que cuando el código de programa informático se carga en un ordenador y es ejecutado por éste, el ordenador se convierte en un aparato para poner en práctica las implementaciones de la materia objeto divulgada. Las implementaciones también se pueden plasmar en forma de código de programa informático, por ejemplo, ya sea almacenado en un medio de almacenamiento,
cargado en y/o ejecutado por un ordenador, o transmitido a través de algún medio de transmisión, como por cableado eléctrico, a través de fibra óptica, o a través de radiación electromagnética, de tal manera que cuando el código de programa informático se cargue en, y sea ejecutado por, un ordenador, el ordenador se convierta en un aparato para poner en práctica implementaciones de la materia objeto divulgada. Cuando se implementen en un microprocesador de propósito general, los segmentos del código del programa informático configuran el microprocesador para crear circuitos lógicos específicos.
En algunas configuraciones, un conjunto de instrucciones legibles por ordenador almacenadas en un medio de almacenamiento legible por ordenador puede ser implementado por un procesador de propósito general, que pueda transformar el procesador de propósito general o un dispositivo que contenga el procesador de propósito general en un dispositivo de propósito especial, configurado para implementar o llevar a cabo las instrucciones. Las implementaciones pueden incluir el uso de hardware que tenga un procesador, como un microprocesador de propósito general y/o un Circuito Integrado de Aplicación Específica (ASIC) que incorpore todas o parte de las técnicas según las implementaciones de la materia objeto divulgada en hardware y/o firmware. El procesador puede estar acoplado a una memoria, como RAM, ROM, memoria flash, un disco duro o cualquier otro dispositivo capaz de almacenar información electrónica. La memoria puede almacenar instrucciones adaptadas para ser ejecutadas por el procesador para realizar las técnicas de acuerdo con las implementaciones de la materia objeto divulgada.
Claims (14)
1. Un dispositivo que comprende:
un robot móvil (100) que incluye:
un motor para accionar un sistema de accionamiento (108) para mover el robot móvil en una zona; una fuente de luz (104) para emitir luz ultravioleta, estando la fuente de luz dispuesta en la parte superior del sistema de accionamiento;
al menos un primer sensor (102, 106) para determinar al menos uno de entre un grupo que consiste en: una orientación del robot móvil, una ubicación del robot móvil, y cuando la fuente de luz está dentro de una distancia predeterminada de un objeto en la zona; y caracterizado por:
el al menos un primer sensor (102, 106) está dispuesto por encima de la fuente de luz (104);
un controlador (114), acoplado comunicativamente al sistema de accionamiento, la fuente de luz, y el al menos un primer sensor para controlar el sistema de accionamiento con el fin de detener o mover el robot móvil para evitar que la fuente de luz impacte con el objeto basándose en al menos una señal recibida del al menos un primer sensor.
2. El dispositivo de la reivindicación 1, en el que el al menos un primer sensor (102, 106) tiene un campo de visión de 70 grados en diagonal.
3. El dispositivo de la reivindicación 1, en el que el al menos un primer sensor (102, 106) tiene una distancia de detección de 0,2-4 metros.
4. El dispositivo de la reivindicación 1, en el que el al menos un primer sensor (102, 106) comprende un primer sensor lateral dispuesto en un primer lado del dispositivo y el segundo sensor lateral está dispuesto en un segundo lado del dispositivo.
5. El dispositivo de la reivindicación 4, en el que el primer sensor lateral y el segundo sensor lateral están dispuestos sobre la fuente de luz (104).
6. El dispositivo de la reivindicación 1, que comprende además:
al menos un segundo sensor (102, 106) que está acoplado comunicativamente al controlador,
en el que el controlador controla el sistema de accionamiento para detener o mover el robot móvil antes de que la fuente de luz se encuentre dentro de la distancia predeterminada del objeto basándose en al menos uno seleccionado de entre un grupo que consiste en: la señal recibida del al menos un primer sensor y una señal recibida del al menos un segundo sensor.
7. El dispositivo de la reivindicación 6, en el que la fuente de luz (104) está dispuesta sobre el al menos un segundo sensor.
8. El dispositivo de la reivindicación 7, en el que el al menos un segundo sensor está orientado en una dirección hacia la fuente de luz (104).
9. El dispositivo de la reivindicación 6, en el que el al menos un segundo sensor (102, 106) se selecciona de un grupo que consiste en: un sensor de tiempo de vuelo, un sensor ultrasónico, un sensor bidimensional de detección y telemetría por luz (LiDAR), un sensor LídAr tridimensional y un sensor de radar (detección y alcance de radio).
10. El dispositivo de la reivindicación 6, en el que el al menos un segundo sensor (102, 106) tiene un campo de visión de 20-27 grados.
11. El dispositivo de la reivindicación 6, en el que el al menos un segundo sensor (102, 106) tiene una distancia de detección de 0,05 - 4 metros.
12. El dispositivo de la reivindicación 1, en el que el robot móvil incluye una base con el sistema de accionamiento, y el al menos un primer sensor se selecciona de un grupo que consiste en: un sensor bidimensional de detección y alcance de luz (LiDAR), un sensor LiDAR tridimensional, y cámaras tridimensionales, en el que el segundo sensor (102, 106) está dispuesto en la base.
13. El dispositivo de la reivindicación 1, en el que el controlador (114) opera el robot móvil en un modo de operación seleccionado de entre al menos uno del grupo que consiste en: un modo manual, un modo autónomo y un modo de teleoperación.
14. El dispositivo de la reivindicación 13, en el que el controlador (114) recibe al menos una señal de control de una interfaz de usuario cuando funciona en el modo manual, o de una interfaz de comunicaciones cuando funciona en el modo de teleoperación, en el que la interfaz de usuario y la interfaz de comunicaciones están acopladas comunicativamente al controlador.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20163352.6A EP3882732B1 (en) | 2020-03-16 | 2020-03-16 | Protection of ultraviolet (uv) light source on mobile device |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2939537T3 true ES2939537T3 (es) | 2023-04-24 |
Family
ID=69844694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20163352T Active ES2939537T3 (es) | 2020-03-16 | 2020-03-16 | Protección de la fuente de luz ultravioleta (UV) en un dispositivo móvil |
Country Status (4)
Country | Link |
---|---|
US (2) | US11609570B2 (es) |
EP (1) | EP3882732B1 (es) |
DK (1) | DK3882732T3 (es) |
ES (1) | ES2939537T3 (es) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3903836A1 (en) * | 2020-04-27 | 2021-11-03 | Carnegie Robotics, LLC | A method and a system of disinfecting a room |
USD1021055S1 (en) * | 2020-09-25 | 2024-04-02 | Xenex Disinfection Services Inc. | Oval cap assembly for a lighting apparatus |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6911177B2 (en) * | 2000-09-19 | 2005-06-28 | Jeffrey L. Deal | Ultraviolet area sterilizer and method of area sterilization using ultraviolet radiation |
US20040236468A1 (en) * | 2003-03-14 | 2004-11-25 | Taylor Charles E. | Robot vacuum with remote control mode |
US20080056933A1 (en) * | 2006-08-29 | 2008-03-06 | Moore Barrett H | Self-Propelled Sterilization Robot and Method |
US8779391B2 (en) * | 2011-03-03 | 2014-07-15 | Teckni-Corp | Sterilization system with ultraviolet emitter for eradicating biological contaminants |
WO2012142427A1 (en) * | 2011-04-15 | 2012-10-18 | Trapani Samuel Richard | Room sterilization method and system |
US10010633B2 (en) * | 2011-04-15 | 2018-07-03 | Steriliz, Llc | Room sterilization method and system |
EP2809358B1 (en) * | 2012-01-31 | 2022-07-13 | Surfacide, LLC | Hard surface disinfection system and method |
US10195298B2 (en) * | 2013-02-27 | 2019-02-05 | Arthur Kreitenberg | Internal sanitizing and communicating |
US20160271803A1 (en) * | 2013-05-03 | 2016-09-22 | Michael Stewart | Robotic disinfection system |
US10485887B2 (en) * | 2015-04-12 | 2019-11-26 | Angelica Holdings Llc | Targeted surface disinfection system with pulsed UV light |
CA3050002A1 (en) * | 2017-01-12 | 2018-07-19 | UD Innovations, LLC | Portable uv-c disinfection apparatus, method, and system |
CN208641335U (zh) | 2017-08-21 | 2019-03-26 | 西安富康空气净化设备工程有限公司 | 一种移动式高能氙光消毒机 |
US10365364B1 (en) | 2018-05-18 | 2019-07-30 | Zendar Inc. | Systems and methods for detecting objects |
CN209529745U (zh) | 2018-08-23 | 2019-10-25 | 上海钛米机器人科技有限公司 | 自主移动消毒装置 |
-
2020
- 2020-03-16 ES ES20163352T patent/ES2939537T3/es active Active
- 2020-03-16 EP EP20163352.6A patent/EP3882732B1/en active Active
- 2020-03-16 DK DK20163352.6T patent/DK3882732T3/da active
- 2020-03-31 US US16/836,740 patent/US11609570B2/en active Active
-
2023
- 2023-02-17 US US18/111,200 patent/US20230205211A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3882732A1 (en) | 2021-09-22 |
US20230205211A1 (en) | 2023-06-29 |
US11609570B2 (en) | 2023-03-21 |
US20210286363A1 (en) | 2021-09-16 |
EP3882732B1 (en) | 2023-02-15 |
DK3882732T3 (da) | 2023-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2939537T3 (es) | Protección de la fuente de luz ultravioleta (UV) en un dispositivo móvil | |
EP3888696B1 (en) | Method of plotting ultraviolet (uv) radiation for disinfection | |
ES2936794T3 (es) | Robots de servicio móviles accionados a distancia | |
ES2727617T3 (es) | Procedimiento para la localización y el modelado simultáneos de mapas | |
CN1241080C (zh) | 用于机器人的定位和制约的方法及系统 | |
US11701442B2 (en) | Method of autonomous mobile disinfection | |
US11235469B2 (en) | Robot controller and robot system | |
KR102637851B1 (ko) | 청소 로봇 | |
US11602845B2 (en) | Method of detecting human and/or animal motion and performing mobile disinfection | |
ES2887901T3 (es) | Método para accionar un dispositivo de limpieza que se mueve automáticamente y dispositivo de limpieza de este tipo | |
EP4059524A1 (en) | Method of self-disinfection of mobile robot | |
CN207384215U (zh) | 扫地机器人 | |
US10094533B2 (en) | Marking device for lawn mower | |
TWI729733B (zh) | 對移動裝置上的紫外光源的保護 | |
US12093047B2 (en) | Obstacle avoidance method and apparatus, and warehousing robot | |
CN113406950A (zh) | 对移动装置上的紫外光源的保护 | |
EP4295867A1 (en) | Systems and methods of autonomous mobile disinfection with minimal input | |
US20230110302A1 (en) | Methods of sensor exposure validation | |
CN212845948U (zh) | 一种用于避开障碍物的传感器及扫地机 | |
ES2915648T3 (es) | Procedimiento de guiado automático para aparato autopropulsado | |
ITPD20130123A1 (it) | Dispositivo per il rilevamento e la neutralizzazione di insetti volanti |