ES2936794T3 - Robots de servicio móviles accionados a distancia - Google Patents

Robots de servicio móviles accionados a distancia Download PDF

Info

Publication number
ES2936794T3
ES2936794T3 ES20175546T ES20175546T ES2936794T3 ES 2936794 T3 ES2936794 T3 ES 2936794T3 ES 20175546 T ES20175546 T ES 20175546T ES 20175546 T ES20175546 T ES 20175546T ES 2936794 T3 ES2936794 T3 ES 2936794T3
Authority
ES
Spain
Prior art keywords
mobile robot
controller
sensor
area
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20175546T
Other languages
English (en)
Inventor
Thomas Rubaek
Efraim Vitzrabin
John Erland Østergaard
Claus Risager
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UVD Robots ApS
Original Assignee
UVD Robots ApS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UVD Robots ApS filed Critical UVD Robots ApS
Application granted granted Critical
Publication of ES2936794T3 publication Critical patent/ES2936794T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • A61L2/08Radiation
    • A61L2/10Ultraviolet radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/24Apparatus using programmed or automatic operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/11Apparatus for generating biocidal substances, e.g. vaporisers, UV lamps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/14Means for controlling sterilisation processes, data processing, presentation and storage means, e.g. sensors, controllers, programs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/16Mobile applications, e.g. portable devices, trailers, devices mounted on vehicles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/20Targets to be treated
    • A61L2202/25Rooms in buildings, passenger compartments

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Las implementaciones del objeto divulgado proporcionan un robot móvil que incluye un motor para impulsar un sistema de accionamiento para mover el robot móvil en un área, una fuente de luz para emitir luz ultravioleta (UV), al menos un sensor, una interfaz de comunicaciones para recibir al menos una señal a través de una red de comunicaciones, y un primer controlador para controlar el sistema de accionamiento, la fuente de luz, el al menos un sensor y la interfaz de comunicaciones. Las operaciones del robot móvil pueden controlarse basándose en parte en la al menos una señal recibida a través de la red de comunicaciones desde un segundo controlador que está en una ubicación remota del área donde está operando el robot móvil. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Robots de servicio móviles accionados a distancia
Antecedentes
Los dispositivos móviles, como los robots móviles, pueden ser operados para desinfectar zonas interiores, como una habitación que tiene superficies contaminadas con bacterias, virus u otros patógenos. Normalmente, estos dispositivos no prestan servicios adicionales a las personas que operan en tales zonas.
El documento US 2020/029774 A1 se refiere a un vehículo robótico para gestionar el comportamiento de limpieza de un robot de limpieza.
El documento US 2018/232134 A1 se refiere a una GUI para dispositivos robóticos de limpieza de suelos.
El documento US 2018/299899 A1 se refiere a robots de limpieza que recopilan datos.
Breve sumario
Los aspectos de la invención se definen en las reivindicaciones adjuntas. Según un primer aspecto, se proporciona un dispositivo de acuerdo con la reivindicación 1. Las características opcionales preferentes se definen en las reivindicaciones dependientes.
Según una implementación de la materia divulgada, un dispositivo que incluye un robot móvil puede tener un motor para accionar un sistema de accionamiento para mover el robot móvil en una zona, una fuente de luz para emitir luz ultravioleta (UV), al menos un sensor, una interfaz de comunicaciones para recibir al menos una señal a través de una red de comunicaciones, y un primer controlador para controlar el sistema de accionamiento, la fuente de luz, el al menos un sensor y la interfaz de comunicaciones. Las operaciones del robot móvil pueden controlarse en base en parte en la al menos una señal recibida a través de la red de comunicaciones desde un segundo controlador que se encuentra en una ubicación remota de la zona en la que opera el robot móvil. El segundo controlador determina si hay un ser humano dentro de la zona en base en una señal de salida recibida a través de la red de comunicaciones desde el robot móvil, y transmite una señal de control al robot móvil para controlar la fuente de luz para que emita luz UV cuando se determina que el ser humano no está dentro de la zona.
Características, ventajas e implementaciones adicionales de la materia divulgada pueden ser implícitas o aparentes a partir de la toma en consideración de la siguiente descripción detallada, dibujos y reivindicaciones. Además, debe entenderse que tanto el resumen anterior como la siguiente descripción detallada son ilustrativos y tienen por objeto proporcionar explicaciones adicionales, sin limitar el alcance de las reivindicaciones.
Breve descripción de los dibujos
Los dibujos adjuntos, que se incluyen para proporcionar una mayor comprensión de la materia divulgada, se incorporan y forman parte de la presente memoria. Los dibujos también ilustran implementaciones de la materia divulgada y junto con la descripción detallada sirven para explicar los principios de las implementaciones de la materia divulgada. No se intenta mostrar los detalles estructurales con más detalle del necesario para una comprensión fundamental de la materia divulgada y de las diversas formas en que puede llevarse a la práctica.
Las FIGS. 1 - 3 muestran una pluralidad de vistas externas de un robot móvil que tiene sensores para detectar superficies y objetos en una zona, y una fuente de luz para emitir luz UV según implementaciones de la materia divulgada.
La FIG. 4 muestra un ejemplo de trayectoria del robot móvil para aplicar una dosis de luz ultravioleta en una zona según una realización de la materia divulgada.
La FIG. 5 muestra un ejemplo de configuración del robot móvil de las FIGS. 1 - 4 según una realización de la materia divulgada.
La FIG. 6 muestra una configuración de red que puede incluir una plataforma remota con una interfaz para controlar uno o más robots móviles en una ubicación remota según implementaciones de la materia divulgada.
Descripción detallada
Implementaciones de la materia divulgada proporcionan un robot móvil con una fuente de luz que puede emitir luz ultravioleta (UV) para desinfectar una zona predeterminada. El robot móvil puede utilizarse como parte de un ciclo de limpieza regular de una zona interior (por ejemplo, una habitación, un edificio, un avión, una escuela o similar) y/o una zona exterior, y puede prevenir y/o reducir la propagación de enfermedades infecciosas, virus, bacterias y otros tipos de microorganismos orgánicos nocivos en el medio ambiente mediante la descomposición de su estructura de ADN con luz UV. El robot móvil puede incluir al menos un sensor para detectar objetos, superficies y/o si hay seres humanos en la zona. El robot móvil puede incluir un micrófono para detectar el sonido dentro de la zona, y puede incluir un altavoz para emitir notificaciones (por ejemplo, el estado operativo del robot móvil, el estado de la operación de desinfección, y similares), instrucciones, o similares. La operación del robot móvil puede ser controlada por un primer controlador incluido con el robot móvil, y/o puede ser controlada por un segundo controlador ubicado remotamente que está acoplado comunicativamente al robot móvil. El segundo controlador puede ser operado por un usuario en base a señales transmitidas desde el robot móvil que incluyen señales de sensores (por ejemplo, que pueden incluir imágenes y/o vídeo), señales de micrófono, y similares. El usuario del segundo controlador puede acceder y/o manejar las funciones del robot móvil a través de una red de comunicaciones, que puede incluir puntos de acceso locales a la zona y/o al robot móvil, y/o puntos de acceso remotos.
El segundo controlador puede recibir señales del al menos un sensor y/o micrófono del robot móvil, y puede determinar si hay un ser humano dentro de la zona. Cuando se determina que no hay ningún ser humano en la zona, el segundo controlador puede controlar el funcionamiento de la fuente de luz del robot móvil para que emita luz UV con el fin de desinfectar la zona.
Cuando el robot móvil incluye un micrófono, el sonido recibido por el micrófono puede ser transmitido al segundo controlador a través de una señal, y el usuario del segundo controlador puede oír cualquier sonido cerca del robot móvil. Por ejemplo, si el usuario oye sonidos que pueden ser de un ser humano, el usuario del segundo controlador puede controlar la fuente de luz del robot móvil para que deje de emitir luz UV.
Si hay al menos un altavoz en el robot, el usuario puede proporcionar señales desde el segundo controlador al robot móvil para ser emitidas por el altavoz, donde las señales pueden incluir notificaciones, instrucciones, alertas, o similares. En algunas implementaciones, el segundo controlador puede incluir un micrófono, y el discurso del usuario recibido por el micrófono puede ser transmitido como una señal al robot móvil, que puede emitir la señal a través del altavoz. En algunas implementaciones, el usuario del segundo controlador puede proporcionar instrucciones de uso, funcionamiento, reparación o similares a una o más personas cercanas al altavoz del robot móvil.
En algunas implementaciones, el robot móvil y/o el segundo controlador pueden cartografiar la zona. El al menos un sensor del robot móvil puede detectar superficies, objetos y similares que puedan estar dentro de la zona, y el robot móvil y/o el segundo controlador pueden generar un mapa de la zona en base a las señales recibidas del al menos un sensor.
Las FIGS. 1 - 6 muestran implementaciones de la materia divulgada que incluyen un robot móvil (por ejemplo, el robot móvil 100 mostrado en las FIGS. 1 - 6) que tiene un motor para accionar un sistema de accionamiento (por ejemplo, el sistema de accionamiento 108 mostrado en la FIG. 5) para mover el robot móvil en una zona (por ejemplo, la zona 300 mostrada en la FIG. 4). El robot móvil puede incluir una fuente de luz (por ejemplo, la fuente de luz 104 mostrada en las FIGS. 1, 3 y 5) para emitir luz ultravioleta (UV). El robot móvil puede incluir al menos un sensor (por ejemplo, el sensor 102, 102a, 102b, 106 mostrado en las FIGS. 1 - 3 y 5).
El robot móvil puede incluir una interfaz de comunicaciones (por ejemplo, la interfaz de red 116 mostrada en la FIG.
5) para recibir al menos una señal a través de una red de comunicaciones (por ejemplo, la red 130 mostrada en la FIG. 6). Un primer controlador (por ejemplo, el controlador 114 mostrado en la FIG. 5) puede controlar el sistema de accionamiento (por ejemplo, el sistema de accionamiento 108 mostrado en la FIG. 5), la fuente de luz (por ejemplo, la fuente de luz 104 mostrada en las FIGS. 1, 3, y 5), el al menos un sensor (por ejemplo, el sensor 102, 102a, 102b, 106 mostrado en las FIGS. 1 - 3 y 5), y/o la interfaz de comunicaciones (por ejemplo, la interfaz de red 116 mostrada en la FIG. 5) del robot móvil. Las operaciones del robot móvil pueden ser controladas en base en parte en la al menos una señal recibida a través de la red de comunicaciones (por ejemplo, la red 130 mostrada en la FIG. 6) desde un segundo controlador (por ejemplo, el servidor 140 y/o la plataforma remota 160 mostrados en la FIG. 6) que se encuentra en un lugar alejado de la zona (por ejemplo, la zona 300 mostrada en la FIG. 4) donde opera el robot móvil.
El segundo controlador puede incluir una interfaz de usuario (por ejemplo, la interfaz de usuario 161 mostrada en la FIG. 6) mostrar al menos una imagen captada por el al menos un sensor que se transmite al segundo controlador por la interfaz de comunicaciones a través de la red de comunicaciones. El usuario puede controlar el movimiento y/u otras operaciones del robot móvil en base a imágenes, vídeo y/u otros datos de sensores que se transmiten desde el robot móvil al segundo controlador. Por ejemplo, el usuario puede controlar el robot móvil para que se desplace por la zona y la desinfecte emitiendo luz ultravioleta cuando los sensores no detecten la presencia de personas en la zona. En algunas implementaciones, el segundo controlador puede incluir un micrófono, y el discurso del usuario recibido por el micrófono puede ser transmitido como una señal al robot móvil, que puede emitir la señal a través del altavoz. El usuario del segundo controlador puede proporcionar instrucciones de uso, funcionamiento, reparación o similares a una o más personas cercanas al altavoz del robot móvil.
En algunas implementaciones, el robot móvil puede incluir al menos un micrófono (por ejemplo, el micrófono 103 mostrado en las FIGS. 1 - 3 y 5), acoplado comunicativamente a un primer controlador (por ejemplo, el controlador 114 mostrado en la FIG. 5), para captar el sonido en la zona (por ejemplo, la zona 300 mostrada en la FIG. 4). La interfaz de comunicaciones puede transmitir una señal que incluya el sonido capturado al segundo controlador (por ejemplo, el servidor 140 y/o la plataforma remota 160 mostrados en la FIG. 5). La al menos una señal recibida por el robot móvil para controlar las operaciones del robot móvil puede basarse en la señal que incluye el sonido capturado. Es decir, el sonido capturado puede transmitirse al segundo controlador, y el segundo controlador puede controlar el robot móvil en base al sonido capturado mediante una señal de control. Por ejemplo, el sonido transmitido desde el robot móvil al segundo controlador puede utilizarse para determinar si hay un ser humano o no dentro de la zona. Si se determina que hay una persona en la zona, el usuario del segundo controlador puede detener la emisión de luz UV desde la fuente de luz del robot. En otro ejemplo, el usuario del segundo controlador puede proporcionar instrucciones, notificaciones y similares a una o más personas que se determine que están cerca del robot móvil en base al sonido recibido por el micrófono.
El robot móvil puede incluir al menos un altavoz (por ejemplo, el altavoz 107 mostrado en la FIG. 5), acoplado comunicativamente al primer controlador (por ejemplo, el controlador 114 mostrado en la FIG. 5), para emitir una notificación basada en la al menos una señal recibida del segundo controlador (por ejemplo, el servidor 140 y/o la plataforma remota 160 mostrados en la FIG. 5). El al menos un altavoz puede emitir una notificación (por ejemplo, una notificación de estado, como un estado de desinfección de la zona, un estado operativo del robot móvil, o similares), instrucciones para operar el robot móvil, instrucciones para instalar el robot móvil dentro de la zona, una notificación o instrucciones para proporcionar mantenimiento al robot móvil, una notificación o instrucciones para solucionar un problema operativo con el robot móvil, y una notificación de un incidente operativo del robot móvil que se incluyen con la al menos una señal recibida en la interfaz de comunicaciones a través de la red de comunicaciones.
La interfaz de comunicaciones del robot móvil puede transmitir al menos una señal de salida, que puede incluir señales de salida del al menos un sensor, un mapa generado de la zona, y/o un estado operativo del robot móvil en base a una solicitud incluida en la al menos una señal recibida por la interfaz de comunicaciones.
En algunas implementaciones, el segundo controlador (por ejemplo, el servidor 140 y/o la plataforma remota 160 mostrados en la FIG. 5) puede determinar si un ser humano se encuentra dentro de la zona (por ejemplo, la zona 300 mostrada en la FIG. 4) en función de una señal de salida recibida a través de la red de comunicaciones desde el robot móvil. El segundo controlador puede transmitir una señal de control al robot móvil para controlar que la fuente de luz emita luz UV cuando se determine que el ser humano no se encuentra dentro de la zona. Es decir, cuando se determina que el ser humano no está dentro de la zona (por ejemplo, en base a las señales de los sensores 102, 106 y/o el micrófono 103), el segundo controlador puede controlar la fuente de luz 104 para que emita luz UV para desinfectar la zona. Si se determina que hay una persona en la zona, el controlador puede prohibir que la fuente de luz emita luz UV para evitar que la persona resulte herida.
En algunas implementaciones, la interfaz de comunicaciones del robot móvil puede emitir una señal de notificación al segundo controlador. La señal de notificación puede emitirse cuando el robot móvil es incapaz de moverse debido a un obstáculo (por ejemplo, un objeto, una superficie y/u otro objeto inanimado) en la zona, el robot móvil recibe una selección de una interfaz de usuario para solicitar asistencia, la zona es diferente de un mapa de la zona utilizado para mover el robot móvil dentro de la zona, y/o cuando el robot móvil es incapaz de determinar su ubicación dentro de la zona.
En algunas implementaciones, el primer controlador y/o el segundo controlador pueden generar un mapa en base a objetos y/o superficies detectadas por el al menos un sensor mientras el robot móvil se mueve dentro de la zona. Al menos uno de los dos controladores anota los objetos en el mapa generado. El mapa generado puede incluir habitaciones, puertas, camas, sillas, mesas, equipos, escaleras, ascensores, objetos y similares en la zona que son detectados por el al menos un sensor del robot móvil.
En algunas implementaciones, el segundo controlador puede controlar el robot móvil utilizando la al menos una señal para realizar al menos una de las acciones siguientes: desplegar el robot móvil en la zona, instalar el robot en la zona, desinfectar la zona emitiendo la luz UV y/o controlar el robot móvil para gestionar un incidente operativo. La disposición del robot móvil que puede ser controlada remotamente por un usuario del segundo controlador, tal y como se ha descrito, puede utilizarse, por ejemplo, cuando se instala el robot móvil en un hospital, centro de asistencia, tienda, almacén, instalación de fabricación, edificio de oficinas u otro entorno de trabajo, espacio de actuación, museo, instalación pública, avión u otro vehículo de transporte, u otro entorno. En este ejemplo, el personal técnico puede desembalar el robot móvil y activarlo para su funcionamiento en al menos una zona del hospital, centro de asistencia, tienda, almacén, instalación de fabricación, edificio de oficinas u otro entorno de trabajo, espacio de actuación, museo, instalación pública, avión u otro vehículo de transporte, u otro entorno. El usuario del segundo controlador puede conectar comunicativamente el segundo controlador al robot móvil para realizar operaciones de inicialización y/o instalación del robot móvil.
En otro ejemplo, el robot móvil y el segundo controlador pueden utilizarse para cartografiar el hospital, centro de atención, tienda, almacén, instalación de fabricación, edificio de oficinas u otro entorno de trabajo, u otro entorno. El al menos un sensor del robot móvil puede utilizarse para detectar objetos, superficies, características y similares a medida que el robot móvil se desplaza por la zona y puede generar un mapa de la zona. En algunas implementaciones, el robot móvil y el segundo controlador pueden utilizarse para generar el mapa. El usuario del segundo controlador puede anotar uno o más objetos, como habitaciones, puertas, ascensores, escaleras, zonas de acceso restringido y similares en el mapa generado.
En otro ejemplo, el robot móvil y el segundo controlador pueden utilizarse para entrenar a uno o más usuarios del robot móvil. Las instrucciones para manejar el robot pueden ser proporcionadas por el segundo controlador y pueden ser emitidas por el altavoz del robot móvil. En algunas implementaciones, un tercer controlador acoplado comunicativamente al robot móvil, y el usuario del segundo controlador pueden guiar y/o asistir al usuario a ser entrenado en el tercer controlador con la operación del robot móvil. Por ejemplo, el usuario del segundo controlador puede guiar al usuario del tercer controlador en el control del robot móvil para desinfectar una parte de una zona utilizando luz UV.
En otro ejemplo, en lugar de que el usuario toque el robot móvil (por ejemplo, para evitar la propagación de gérmenes, virus o similares) para realizar selecciones (por ejemplo, desde la interfaz de usuario 110 mostrada en la FIG. 5) con respecto a su funcionamiento, el usuario puede conectarse comunicativamente con el robot móvil a través de una red de comunicaciones desde el segundo controlador para controlar el funcionamiento del robot móvil. En algunas implementaciones, el usuario puede controlar (por ejemplo, manualmente) el robot móvil a través del segundo controlador para controlar el movimiento del robot móvil dentro de una zona, y / o puede controlar la fuente de luz del robot móvil para emitir luz UV para desinfectar la zona. El usuario puede controlar el movimiento del robot móvil para guiarlo entre obstáculos, como los detectados por el al menos un sensor del robot móvil.
En otro ejemplo, cuando el robot móvil está operando autónomamente y se queda atascado (por ejemplo, no puede moverse dentro de la zona), el robot móvil puede transmitir una notificación al segundo controlador, donde un usuario del segundo controlador puede ayudar al robot móvil a moverse dentro de la zona.
En otro ejemplo, el robot móvil puede desplegarse dentro de una zona (por ejemplo, un hospital, un centro de atención, una tienda, un almacén, una instalación de fabricación, un edificio de oficinas u otro entorno de trabajo, u otro entorno), y el usuario del segundo controlador puede operar el robot dentro de la zona para proporcionar un servicio de desinfección controlando el robot móvil.
Las FIGS. 1 - 3 muestran una pluralidad de vistas externas de un robot móvil 100 que incluye sensores para detectar superficies y objetos en una zona, y una fuente de luz para emitir UV para desinfectar el aire, los objetos y/o las superficies en la zona según las implementaciones de la materia divulgada. El robot móvil 100 puede incluir al menos un sensor 102 (mostrado como sensor 102a y 102b en la FIG. 2), una fuente de luz 104 para emitir luz ultravioleta, al menos un sensor 106, un sistema de accionamiento 108, una interfaz de usuario 110 y/o un botón de parada 112. Un controlador (por ejemplo, el controlador 114 mostrado en la FIG. 5 y descrito más adelante) puede estar acoplado comunicativamente al al menos un primer sensor 102, la fuente de luz 104, el al menos un segundo sensor 106, el sistema de accionamiento 108, la interfaz de usuario 110 y el botón de parada 112, puede controlar las operaciones del robot móvil 100. En algunas implementaciones, el robot móvil puede ser controlado por la plataforma remota 160 a través de la red 130, como se muestra en la FIG. 6.
El al menos un primer sensor 102 (incluyendo los sensores 102a, 102b mostrados en la FIG. 2) puede determinar al menos una de las siguientes orientaciones del robot móvil 100 (p. ej., una dirección hacia la que está orientado un lado frontal y/o un primer lado de un robot), una ubicación del robot móvil 100 (p. ej., una ubicación del robot móvil 100 en una zona), y/o cuándo la fuente de luz 104 se encuentra dentro de una distancia predeterminada de una superficie y/o un objeto en la zona. En algunas implementaciones, el primer sensor 102 puede detectar aire, una superficie y/u objetos que pueden desinfectarse con luz UV de la fuente de luz 104.
En algunas implementaciones, el al menos un primer sensor 102 puede tener un campo de visión de 70 grados en diagonal. El al menos un sensor 102 puede tener una distancia de detección de 0,2 - 4 metros. Como se muestra en las FIGS. 1 - 3, el al menos un primer sensor 102 puede estar dispuesto sobre la fuente de luz 104.
El al menos un primer sensor 102 puede incluir un primer sensor lateral dispuesto en un primer lado del robot móvil 100 y un segundo sensor lateral que puede estar dispuesto en un segundo lado del dispositivo. Por ejemplo, como se muestra en la FIG. 2, el sensor 102a puede estar dispuesto en un primer lado (por ejemplo, un lado frontal) del robot móvil 100, y el sensor 102b puede estar dispuesto en un segundo lado (por ejemplo, un lado trasero) del robot móvil 100. Aunque los sensores en dos lados del robot se muestran en la FIG. 2, puede haber una pluralidad de sensores dispuestos en diferentes lados del robot móvil 102 para al menos detectar superficies y/u objetos. En algunas implementaciones, el sensor 102a y/o el sensor 102b pueden estar dispuestos sobre la fuente de luz 104. La fuente de luz 104 puede ser una o más bombillas, una o más lámparas y/o una matriz de diodos emisores de luz (LED) o diodos emisores de luz orgánicos (OLED) para emitir luz UV (por ejemplo, luz con una longitud de onda de 10 nm - 400 nm). La dosificación de la luz UV (por ejemplo, intensidad, duración, potencia óptica de salida o similares) puede ser controlada por el controlador 114, que también puede encender o apagar una parte o la totalidad de los dispositivos (por ejemplo, bombillas, lámparas, LED, OLED) de la fuente de luz 104. La fuente de luz puede controlarse para que emita luz UV cuando el robot móvil se encuentre dentro de una zona, cuando el robot móvil se desplace dentro de la zona, antes de la cartografía de la zona, durante la cartografía de la zona y/o después de la cartografía de la zona.
El sensor 106 puede ser acoplado comunicativamente al controlador 114 mostrado en la FIG. 5, y puede utilizarse para detectar aire, superficies y/u objetos que pueden ser cartografiados y/o desinfectados con luz UV procedente de la fuente de luz 104. En algunas implementaciones, el sensor 106 puede determinar al menos una de una orientación del robot móvil 100 (por ejemplo, una dirección hacia la que está orientado un lado frontal y/o un primer lado de un robot), una ubicación del robot móvil 100 (por ejemplo, una ubicación del robot móvil 100 en una zona ), y/o cuando la fuente de luz 104 está dentro de una distancia predeterminada de una superficie y/u objeto en la zona (por ejemplo, el fregadero 308, la cama 312, el soporte IV de 4 ganchos 314, o similares de la zona 300 mostrada en la FIG. 4).
En algunas realizaciones, el sensor 102, 106 puede ser un sensor de imagen, un sensor térmico, un sensor de tiempo de tránsito, un sensor ultrasónico, un sensor LiDAR (Light Detection and Ranging) bidimensional (2D), un sensor LiDAR tridimensional (3D), y/o un sensor de radar (radio detección determinación de distancias), un sensor de visión estereoscópica, una cámara tridimensional 3D, una cámara de luz estructurada, o similares. El sensor 106 puede tener un campo de visión de 20 - 27 grados. En algunas implementaciones, el sensor 106 puede tener una distancia de detección de 0,05 - 4 metros.
El robot móvil 100 puede incluir un motor para accionar el sistema de accionamiento 108 para mover el robot móvil en una zona, como una habitación, un edificio o similar. El sistema de accionamiento 108 puede incluir ruedas, que pueden ser ajustables para que el sistema de accionamiento 108 pueda controlar la dirección del robot móvil 100. En algunas implementaciones, el robot móvil 100 puede incluir una base con el sistema de accionamiento 108, y el sensor 102, 106 puede estar dispuesto en la base.
El controlador 114 puede controlar y/o operar el robot móvil 100 en un modo de operación que puede ser un modo manual, un modo autónomo, y/o un modo de teleoperación. En el modo manual, el controlador 114 puede recibir una o más señales de control de la interfaz de usuario 110 y/o del botón de parada 112. Por ejemplo, un usuario puede controlar el movimiento, la dirección y/o detener el movimiento del robot móvil 100 realizando una o más selecciones en la interfaz de usuario 110. El botón de parada 112 puede ser un botón de parada de emergencia (ESTOP) que puede detener todas las operaciones y/o el movimiento del robot móvil 100 cuando se selecciona. En algunas implementaciones, el controlador 114 puede recibir al menos una señal de control a través de una interfaz de red 116 (mostrada en la FIG. 5) cuando se opera en el modo de teleoperación. Por ejemplo, la interfaz de red puede recibir señales de control a través de la red 130 desde el servidor 140, y/o la plataforma remota 160, como se describe más adelante en relación con la FIG. 6.
En algunas implementaciones, cuando el robot móvil 100 se mueve en una dirección, el sensor 102, 106 puede detectar una geometría de una o más superficies y/u objetos (por ejemplo, el lavabo 308, la cama 312, el soporte IV de 4 ganchos 314, y/u otros objetos y/u otras superficies de la zona 300 mostrada en la FIG. 4). La salida del al menos un primer sensor 102 puede ser, por ejemplo, una nube de puntos de uno o más objetos en la trayectoria del robot móvil 100. Cuando el sensor 102 y/o el sensor 106 es un sensor de visión estereoscópica, las imágenes de dos sensores (es decir, cuando los dos sensores pueden formar parte del sensor de visión estereoscópica del sensor 102 y/o del sensor 106) a una distancia conocida entre sí pueden capturarse en un momento predeterminado, y/o a intervalos de tiempo predeterminados con un obturador global. El obturador global puede configurarse de modo que los dos sensores del sensor de visión estereoscópica puedan capturar imágenes casi simultáneamente. Una o más características pueden determinarse a partir de las imágenes capturadas, y compararse entre sí para determinar las partes que coinciden. Como la distancia focal de los dos sensores del sensor de visión estereoscópica y la distancia entre los dos sensores (por ejemplo, unos 6 cm) pueden almacenarse en la memoria 118 y/o en el almacenamiento fijo 120 (mostrados en la FIG. 5), el controlador 114 y/o el al menos un primer sensor 102 pueden utilizar las imágenes capturadas y los valores almacenados para determinar la distancia desde el sensor 102, 106 a las superficies y/u objetos, y puede ser utilizada por el procesador para emitir luz UV desde la fuente de luz. En algunas implementaciones, el sensor 102, 106 puede incluir al menos un láser, LED, y/o OLED, para irradiar uno o más puntos en superficies de objetos, cuando los objetos pueden estar sin características de identificación (por ejemplo, paredes en blanco).
Al detectar la superficie y/o el objeto, el sensor 102, 106 puede ser un sensor de tiempo de vuelo (TOF). Al menos un fotón de luz puede ser emitido por el sensor 102, 106, y puede ser transmitido a través del aire. Cuando el al menos un fotón de luz irradia sobre una superficie y/o un objeto, una porción de la luz puede ser reflejada por la superficie y/o el objeto puede retornar a una porción receptora del sensor 102, 106. El sensor 106 puede calcular el tiempo transcurrido entre el envío del al menos un fotón de luz y la recepción del reflejo, y multiplicar este valor por la velocidad de la luz en el aire, para determinar la distancia entre el sensor 102, 106 y la superficie y/o el objeto. Esto puede utilizarse para generar el mapa de la zona en la que opera el robot móvil.
La FIG. 5 muestra componentes de ejemplo del robot móvil 100 adecuados para proporcionar las implementaciones de la materia divulgada. El robot móvil 100 puede incluir un bus 122 que interconecta los principales componentes del robot móvil 100, como el sistema de accionamiento 108, una interfaz de red 116 operable para comunicarse con uno o más dispositivos remotos a través de una conexión de red adecuada, el controlador 114, una memoria 118 como una memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM), una memoria RAM flash o similar, el botón de parada 112 la fuente de luz 104, el al menos un primer sensor 102, una interfaz de usuario 110 que puede incluir uno o más controladores y dispositivos de entrada de usuario asociados como un teclado, una pantalla táctil y similares, un almacenamiento fijo 120 como un disco duro, un almacenamiento flash y similares, y el sensor 106, un micrófono 103 y/o un altavoz 107 para emitir una notificación de audio y/u otra información.
El bus 122 permite la comunicación de datos entre el controlador 114 y uno o más componentes de memoria, que pueden incluir RAM, ROM y otras memorias, como se ha indicado anteriormente. Normalmente, la RAM es la memoria principal en la que se cargan el sistema operativo y los programas de aplicación. Un componente de memoria ROM o flash puede contener, entre otros códigos, el sistema básico de entrada - salida (BIOS) que controla el funcionamiento básico del hardware, como la interacción con los componentes periféricos. Las aplicaciones residentes en el robot móvil 100 generalmente se almacenan y se accede a ellas a través de un medio legible por ordenador (por ejemplo, el almacenamiento fijo 120), como una unidad de estado sólido, una unidad de disco duro, una unidad óptica, una unidad de estado sólido u otro medio de almacenamiento.
La interfaz de red 116 puede proporcionar una conexión directa a un servidor remoto (por ejemplo, el servidor 140, la base de datos 150, y/o la plataforma remota 160 mostrada en la FIG. 13) a través de una conexión por cable o inalámbrica (por ejemplo, la red 130 mostrada en la FIG. 13). La interfaz de red 116 puede proporcionar dicha conexión utilizando cualquier técnica y protocolo adecuados, como comprenderá fácilmente un experto en la materia, incluyendo telefonía móvil digital, WiFi, Bluetooth(R), campo cercano y similares. Por ejemplo, la interfaz de red 116 puede permitir que el robot móvil 100 se comunique con otros ordenadores a través de una o más redes de comunicación locales, de área amplia o de otro tipo, como se describe con más detalle a continuación. El robot móvil puede transmitir datos a través de la interfaz de red al servidor remoto que pueden incluir una ruta de operación, las superficies y/o zonas irradiadas con luz UV, y similares.
Muchos otros dispositivos o componentes (no mostrados) pueden conectarse de manera similar. Por el contrario, todos los componentes mostrados en la FIG. 5 no necesita estar presente para poner en práctica la presente divulgación. Los componentes pueden interconectarse de formas distintas a la mostrada. El código para implementar la presente divulgación puede almacenarse en medios de almacenamiento legibles por ordenador, como uno o más de la memoria 118, el almacenamiento fijo 120, o en una ubicación de almacenamiento remoto.
La FIG. 6 muestra un ejemplo de disposición de red según una implementación de la materia divulgada. El robot móvil 100 descrito anteriormente, y/o un robot móvil 200 similar pueden conectarse a otros dispositivos a través de la red 130. La red 130 puede ser una red local, una red de área amplia, Internet o cualquier otra red o redes de comunicación adecuadas, y puede implementarse en cualquier plataforma adecuada, incluidas redes cableadas y/o inalámbricas. El robot móvil 100 y/o el robot móvil 200 pueden comunicarse entre sí, y/o pueden comunicarse con uno o más dispositivos remotos, como el servidor 140, la base de datos 150, y/o la plataforma remota 160. Los dispositivos remotos pueden ser directamente accesibles por el robot móvil 100, 200 o uno o más dispositivos pueden proporcionar acceso intermediario, como cuando un servidor 140 proporciona acceso a los recursos almacenados en una base de datos 150. El robot móvil 100, 200 puede acceder a la plataforma remota 160 o a los servicios proporcionados por la plataforma remota 160, como los acuerdos y servicios de computación en la nube. La plataforma remota 160 puede incluir uno o más servidores 140 y/o bases de datos 150.
Más generalmente, varias implementaciones de la materia actualmente divulgada pueden incluir o ser incorporadas en la forma de procesos implementados por ordenador y aparatos para poner en práctica dichos procesos. Las implementaciones también se pueden plasmar en forma de un producto de programa informático que tenga un código de programa informático que contenga instrucciones plasmadas en medios no transitorios y/o tangibles, como unidades de estado sólido, DVD, CD-ROM, discos duros, unidades USB (bus serie universal) o cualquier otro medio de almacenamiento legible por máquina, de modo que cuando el código de programa informático se carga en un ordenador y es ejecutado por éste, el ordenador se convierte en un aparato para poner en práctica implementaciones de la materia divulgada. Las implementaciones también se pueden plasmar en forma de código de programa informático, por ejemplo, ya sea almacenado en un medio de almacenamiento, cargado en y/o ejecutado por un ordenador, o transmitido a través de algún medio de transmisión, como por cableado eléctrico, a través de fibra óptica, o a través de radiación electromagnética, de tal manera que cuando el código de programa informático se carga en y es ejecutado por un ordenador, el ordenador se convierte en un aparato para poner en práctica implementaciones de la materia divulgada. Cuando se implementan en un microprocesador de propósito general, los segmentos del código del programa informático configuran el microprocesador para crear circuitos lógicos específicos.
En algunas configuraciones, un conjunto de instrucciones legibles por ordenador almacenadas en un medio de almacenamiento legible por ordenador puede ser implementado por un procesador de propósito general, que puede transformar el procesador de propósito general o un dispositivo que contenga el procesador de propósito general en un dispositivo de propósito especial configurado para implementar o llevar a cabo las instrucciones. Las implementaciones pueden incluir el uso de hardware que tenga un procesador, como un microprocesador de propósito general y/o un Circuito Integrado de Aplicación Específica (ASIC) que incorpore todas o parte de las técnicas según las implementaciones de la materia divulgada en hardware y/o firmware. El procesador puede estar acoplado a una memoria, como RAM, ROM, memoria flash, un disco duro o cualquier otro dispositivo capaz de almacenar información electrónica. La memoria puede almacenar instrucciones adaptadas para ser ejecutadas por el procesador para realizar las técnicas de acuerdo con las implementaciones de la materia divulgada.
La descripción anterior, con fines explicativos, se ha descrito con referencia a implementaciones específicas. No obstante, las explicaciones anteriores no pretenden ser exhaustivas ni limitar las aplicaciones de la materia divulgada a las formas precisas descritas. Son posibles muchas modificaciones y variaciones a la vista de las enseñanzas anteriores. Las implementaciones se eligieron y describieron con el fin de explicar los principios de las implementaciones de la materia divulgada y sus aplicaciones prácticas, para permitir así a otros expertos en la materia utilizar dichas implementaciones, así como diversas implementaciones con diversas modificaciones que puedan ser adecuadas para el uso particular contemplado.

Claims (13)

REIVINDICACIONES
1. Un dispositivo que comprende:
un robot móvil (100) que incluye:
un motor configurado para accionar un sistema de accionamiento (108) para mover el robot móvil en una zona;
una fuente de luz (104) configurada para emitir luz ultravioleta (UV);
al menos un sensor (102);
una interfaz de comunicaciones (116) configurada para recibir al menos una señal a través de una red de comunicaciones; y
un primer controlador (114) configurado para controlar el sistema de accionamiento, la fuente de luz, el al menos un sensor y la interfaz de comunicaciones,
en el que las operaciones del robot móvil se controlan en base en parte en la al menos una señal recibida a través de la red de comunicaciones desde un segundo controlador (140, 160) que se encuentra en una ubicación alejada de la zona en la que opera el robot móvil; y caracterizado por el hecho de que: el segundo controlador determina si hay un ser humano dentro de la zona en base a una señal de salida recibida a través de la red de comunicaciones desde el robot móvil, y el segundo controlador transmite una señal de control al robot móvil para controlar la fuente de luz para que emita luz UV cuando se determina que el ser humano no se encuentra dentro de la zona.
2. El dispositivo de la reivindicación 1, en el que el segundo controlador (140, 160) incluye una interfaz de usuario configurada para mostrar al menos una imagen capturada por el al menos un sensor que se transmite al segundo controlador por la interfaz de comunicaciones a través de la red de comunicaciones.
3. El dispositivo de la reivindicación 1, en el que el robot móvil (100) comprende adicionalmente:
al menos un micrófono, acoplado comunicativamente al primer controlador, configurado para captar sonido en la zona,
en el que la interfaz de comunicaciones transmite una señal que incluye el sonido capturado al segundo controlador.
4. El dispositivo de la reivindicación 3, en el que la al menos una señal recibida por el robot móvil (100) para controlar las operaciones del robot móvil se basa en la señal que incluye el sonido capturado.
5. El dispositivo de la reivindicación 1, en el que el robot móvil (100) comprende adicionalmente: al menos un altavoz, acoplado comunicativamente al primer controlador, configurado para emitir una notificación en base a la al menos una señal recibida del segundo controlador.
6. El dispositivo de la reivindicación 5, en el que el al menos un altavoz (107) emite al menos uno de entre el grupo que consiste en: una notificación; un estado de desinfección de la zona ; instrucciones para operar el robot móvil; instrucciones para instalar el robot móvil dentro de la zona ; una notificación o instrucciones para proporcionar mantenimiento al robot móvil; una notificación o instrucciones para solucionar un problema operativo con el robot móvil; y una notificación para un incidente operativo del robot móvil que se incluyen con la al menos una señal recibida en la interfaz de comunicaciones a través de la red de comunicaciones.
7. El dispositivo de la reivindicación 1, en el que la interfaz de comunicaciones (116) transmite al menos una señal de salida seleccionada del grupo que consiste en: señales de salida del al menos un sensor, un mapa generado de la zona, y un estado operativo del robot móvil en base a una solicitud incluida en la al menos una señal recibida por la interfaz de comunicaciones.
8. El dispositivo de la reivindicación 1, en el que la interfaz de comunicaciones (116) emite una señal de notificación al segundo controlador cuando al menos uno seleccionado del grupo que consiste en: el robot móvil es incapaz de moverse debido a un obstáculo en la zona, el robot móvil recibe una selección de una interfaz de usuario para solicitar asistencia, la zona es diferente de un mapa de la zona utilizado para mover el robot móvil dentro de la zona, y cuando el robot móvil es incapaz de determinar su ubicación dentro de la zona.
9. El dispositivo de la reivindicación 1, en el que el al menos un sensor (106) es: un sensor de imagen, un sensor térmico, un sensor de tiempo de vuelo, un sensor ultrasónico, un sensor bidimensional de detección y alcance de luz (LiDAR), un sensor LiDAR tridimensional y un sensor de radar (detección y alcance de radio).
10. El dispositivo de la reivindicación 1, en el que al menos uno seleccionado del grupo que consiste en: el primer controlador (114), y el segundo controlador (140, 160) genera un mapa en base a objetos y superficies detectados por el al menos un sensor a medida que el robot móvil se mueve dentro de la zona.
11. El dispositivo de la reivindicación 10, en el que el al menos uno seleccionado de entre el grupo que consiste en: el primer controlador (114), y el segundo controlador (140, 160) anota los objetos en el mapa generado.
12. El dispositivo de la reivindicación 10, en el que el mapa generado incluye al menos uno de entre el grupo que consiste en: habitaciones, puertas, camas, sillas, mesas, equipos, escaleras, ascensores y objetos en la zona que son detectados por el al menos un sensor.
13. El dispositivo de la reivindicación 1, en el que el segundo controlador (140, 160) controla el robot móvil utilizando la al menos una señal para realizar al menos uno seleccionado de entre el grupo que consiste en: desplegar el robot móvil en la zona, instalar el robot en la zona, desinfectar la zona mediante la emisión de la luz UV, y controlar el robot móvil para manejar un incidente de operación.
ES20175546T 2020-05-15 2020-05-19 Robots de servicio móviles accionados a distancia Active ES2936794T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US16/874,976 US11687075B2 (en) 2020-05-15 2020-05-15 Remotely operated mobile service robots

Publications (1)

Publication Number Publication Date
ES2936794T3 true ES2936794T3 (es) 2023-03-22

Family

ID=70779560

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20175546T Active ES2936794T3 (es) 2020-05-15 2020-05-19 Robots de servicio móviles accionados a distancia

Country Status (6)

Country Link
US (1) US11687075B2 (es)
EP (1) EP3909488B1 (es)
CN (1) CN113664840A (es)
DK (1) DK3909488T3 (es)
ES (1) ES2936794T3 (es)
TW (1) TWI742677B (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP1712443S (ja) * 2021-01-08 2022-04-12 医療目的を除く表面殺菌用紫外線ロボット
USD1019727S1 (en) * 2022-03-10 2024-03-26 Case Lab Co., Ltd. Disinfection robot

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2578525A1 (en) * 2004-08-27 2006-03-09 Sharper Image Corporation Robot cleaner with improved vacuum unit
US10195298B2 (en) * 2013-02-27 2019-02-05 Arthur Kreitenberg Internal sanitizing and communicating
US10406253B2 (en) 2013-02-27 2019-09-10 Arthur Kreitenberg Sanitizing surfaces associated with aircraft areas
KR20150073616A (ko) * 2013-12-23 2015-07-01 서울바이오시스 주식회사 자외선 발광 다이오드가 구비된 로봇 물걸레 청소기
TWM506608U (zh) 2015-05-14 2015-08-11 Mediland Entpr Corp 可自動移動之消毒裝置
US10496262B1 (en) 2015-09-30 2019-12-03 AI Incorporated Robotic floor-cleaning system manager
JP7073336B2 (ja) * 2016-08-05 2022-05-23 ロブアート ゲーエムベーハー 自律移動ロボットを制御する方法
US20180299899A1 (en) * 2017-04-13 2018-10-18 Neato Robotics, Inc. Localized collection of ambient data
US11185207B2 (en) 2018-07-24 2021-11-30 Qualcomm Incorporated Managing cleaning robot behavior

Also Published As

Publication number Publication date
DK3909488T3 (da) 2023-02-20
TWI742677B (zh) 2021-10-11
CN113664840A (zh) 2021-11-19
US11687075B2 (en) 2023-06-27
TW202144022A (zh) 2021-12-01
EP3909488B1 (en) 2022-11-30
US20210356958A1 (en) 2021-11-18
EP3909488A1 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
US11511423B2 (en) Method of plotting ultraviolet (UV) radiation for disinfection
ES2936794T3 (es) Robots de servicio móviles accionados a distancia
US10852730B2 (en) Systems and methods for robotic mobile platforms
TWI791996B (zh) 控制移動機器人的方法
US20210299296A1 (en) Disinfection and sterilization apparatus and method, and disinfection and sterilization control apparatus
TW202142272A (zh) 自主移動消毒方法
US10517975B2 (en) Light source apparatus and method of using the same
US20220288249A1 (en) Method of self-disinfection of mobile robot
US20230205211A1 (en) Protection of ultraviolet (uv) light source on mobile device
ES2961527T3 (es) Robot de desinfección de desplazamiento automático para desinfectar superficies
TWI729733B (zh) 對移動裝置上的紫外光源的保護
EP4295867A1 (en) Systems and methods of autonomous mobile disinfection with minimal input
US20230110302A1 (en) Methods of sensor exposure validation
CN113406950A (zh) 对移动装置上的紫外光源的保护
CN114071619B (zh) 连接至通信网络和切换网络连接性的方法