ES2870503T3 - Método para crear un mapa del entorno para un dispositivo de procesamiento desplazable automáticamente - Google Patents
Método para crear un mapa del entorno para un dispositivo de procesamiento desplazable automáticamente Download PDFInfo
- Publication number
- ES2870503T3 ES2870503T3 ES17700152T ES17700152T ES2870503T3 ES 2870503 T3 ES2870503 T3 ES 2870503T3 ES 17700152 T ES17700152 T ES 17700152T ES 17700152 T ES17700152 T ES 17700152T ES 2870503 T3 ES2870503 T3 ES 2870503T3
- Authority
- ES
- Spain
- Prior art keywords
- additional sensor
- treatment apparatus
- obstacle
- obstacles
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 128
- 238000004140 cleaning Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 6
- 239000000428 dust Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/009—Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Mechanical Engineering (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Procedimiento para la creación de un mapa del entorno para un aparato (1) de tratamiento, en particular, robot de limpieza, desplazable automáticamente, detectando un dispositivo (2) de detección del aparato (1) de tratamiento obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento y creándose un mapa del entorno del aparato (1) de tratamiento mediante los datos de obstáculo detectados de los obstáculos (3, 4, 5), detectando al menos un sensor (6) adicional obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento, haciéndose variar la distancia del sensor (6) adicional con respecto al aparato (1) de tratamiento y combinándose los datos de obstáculo detectados por el sensor (6) adicional con los datos de obstáculo detectados por el dispositivo (2) de detección del aparato (1) de tratamiento en el mapa del entorno, caracterizado por que se mide una distancia (a) entre el dispositivo (2) de detección del aparato (1) de tratamiento y el sensor (6) adicional, midiéndose la distancia (a) por el sensor (6) adicional, mientras el sensor (6) adicional se desplaza partiendo del lugar del dispositivo (2) de detección a una posición deseada.
Description
DESCRIPCIÓN
Método para crear un mapa del entorno para un dispositivo de procesamiento desplazable automáticamente Ámbito de la técnica
La invención se refiere a un procedimiento para la creación de un mapa del entorno para un aparato de tratamiento, en particular, un robot de limpieza, desplazable automáticamente, detectando un dispositivo de detección del aparato de tratamiento obstáculos en el entorno del aparato de tratamiento y creándose un mapa del entorno del aparato de tratamiento mediante los datos de obstáculo detectados de los obstáculos, detectando al menos un sensor (6) adicional obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento, haciéndose variar la distancia del sensor (6) adicional con respecto al aparato (1) de tratamiento y combinándose los datos de obstáculo detectados por el sensor (6) adicional con los datos de obstáculo detectados por el dispositivo (2) de detección del aparato (1) de tratamiento en el mapa del entorno.
Además, la invención se refiere a un sistema para la creación de un mapa del entorno para un aparato de tratamiento, en particular, un robot de limpieza, desplazable automáticamente, dicho sistema presenta un aparato de tratamiento con un dispositivo de detección para la detección de obstáculos en el entorno del aparato de tratamiento, así como al menos un sensor (6) adicional distanciable con respecto al aparato (1) de tratamiento para la detección de obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento, presentando el sistema un dispositivo de procesamiento de datos, el cual presenta una conexión de comunicaciones al dispositivo (2) de detección y al sensor (6) adicional y el cual está configurado para combinar los datos de obstáculo detectados por el sensor (6) adicional con los datos de obstáculo detectados por el dispositivo (2) de detección a un mapa del entorno común.
Estado de la técnica
Los procedimientos para la creación de un mapa del entorno para un aparato de tratamiento desplazable automáticamente son conocidos.
El documento US 2007/188615 A1, da a conocer un sistema de monitorización de al menos una cámara fija y un aparato desplazable automáticamente con una cámara móvil, los cuales están conectados entre sí a través de una red de comunicaciones. Cuando una cámara fija determina una anomalía del entorno, el aparato desplazable automáticamente se desplaza a ese lugar. Para este fin, obtiene una ruta y capta él mismo una imagen del entorno en esa zona. A partir de las imágenes se calcula el lugar de la anomalía y se representa en el mapa.
Los documentos DE 102008014912 A1 y DE 102011 000250 A1, dan a conocer un aparato de recolección de polvo de suelo desplazable automáticamente con una identificación de obstáculos, la cual presenta un sistema de triangulación óptico con una fuente de luz y una unidad de recepción. Al transitar por un espacio, el sistema de triangulación mide la distancia a un obstáculo, la cual puede servir como base para la creación de un mapa del entorno. En función de una distancia medida a un obstáculo, el aparato de recolección de polvo de suelo puede reaccionar mediante movimientos de maniobra y de evitación para no colisionar con el obstáculo.
El sistema de triangulación mide obstáculos en un plano de detección asociado al dispositivo de triangulación, el cual está esencialmente predefinido por la trayectoria de rayos desde la fuente de luz a la unidad de recepción. Este plano de detección puede, dado el caso, también ensancharse en relación a una dirección vertical, de modo que el plano de detección comprende un determinado rango de altura.
Los obstáculos medidos por el dispositivo de detección en el plano de detección, son difíciles de indicar para un usuario del aparato de tratamiento en un mapa del entorno, dado que el dispositivo de detección detecta, por ejemplo, las patas de una silla como obstáculos separados y no la silla en su conjunto.
Resumen de la invención
Es por ello misión de la invención, crear un mapa del entorno para el entorno del aparato de tratamiento, el cual se pueda leer de forma óptima, en particular, intuitiva, para un usuario.
Para la solución de esta misión, la invención propone que se mida una distancia entre el dispositivo de detección del aparato de tratamiento y el sensor adicional, midiéndose la distancia desde el sensor adicional, mientras el sensor adicional se desplaza partiendo del lugar del dispositivo de detección a una posición deseada.
De acuerdo con la invención, se mide una distancia entre el dispositivo de detección del aparato de tratamiento y el sensor adicional. Mediante el importe de esta distancia y, dado el caso, también de una información de dirección
espacial entre el aparato de tratamiento y el sensor adicional, se pueden relacionar entre sí los datos de obstáculo del dispositivo de detección y del sensor adicional. Una posición determinada por medio del dispositivo de detección dentro del espacio puede, por lo tanto, asociarse a una posición del espacio medida por medio del sensor adicional, de modo que se pueden combinar entre sí diferentes datos de obstáculo de uno y del mismo obstáculo. Por ejemplo, una combinación de una información acerca de cuatro patas de silla y una información acerca de una superficie de asiento, resulta en una silla con una con una posición definida dentro del espacio. La distancia entre el dispositivo de detección y el sensor adicional se mide por el sensor adicional, mientras que el sensor adicional se desplaza partiendo del lugar del dispositivo de detección a una posición deseada, determinándose la distancia, en particular, por medio de un sensor de aceleración del sensor adicional. Antes de la instalación del sensor adicional en una posición deseada dentro del espacio o, alternativamente, también antes de cada una de las mediciones por medio del sensor adicional, el sensor adicional se desplaza partiendo desde el dispositivo de detección del aparato de tratamiento a la posición deseada, midiéndose la distancia y, de manera ventajosa, también la dirección espacial, del desplazamiento. Por ejemplo, el aparato de tratamiento puede presentar una aceptación para el sensor adicional, en la cual está dispuesto habitualmente el sensor adicional en el aparato de tratamiento y desde la cual se libera el sensor adicional para la creación de un mapa del entorno y se desplaza a la posición deseada. Igualmente, el aparato de tratamiento también puede presentar una aceptación para varios sensores adicionales, los cuales pueden desplazarse independiente uno de otro. Alternativamente, el sensor adicional, sin embargo, también puede ser un sensor externo, el cual básicamente no está acoplado con el aparato de tratamiento. Un sensor adicional de este tipo se desplaza entonces, en primer lugar, hacia el dispositivo de detección del aparato de tratamiento. A continuación, se inicia la medición de distancia y el sensor adicional se desplaza desde el dispositivo de detección a la posición deseada dentro del espacio.
La creación del mapa del entorno no tiene lugar solo mediante los datos de obstáculo captados de los obstáculos por el dispositivo de detección del aparato de tratamiento, sino, adicionalmente, también mediante datos de obstáculo detectados por un sensor adicional. Mediante la combinación de los datos de obstáculo del sensor adicional y los datos de obstáculo del dispositivo de detección del aparato de tratamiento, se puede crear el mapa del entorno a partir de una mayor pluralidad de datos de obstáculo e, igualmente, también diferentes tipos de datos de obstáculo. De esta manera, el respectivo obstáculo puede representarse en el mapa del entorno de una manera, la cual corresponde lo más realista posible a la percepción óptica de un usuario del aparato de tratamiento. Por ejemplo, el dispositivo de detección del aparato de tratamiento detecta, como hasta ahora, las partes de obstáculo individuales de un obstáculo en el plano de detección del dispositivo de detección, es decir, por ejemplo, las patas de una silla, mientras que el sensor adicional detecta el obstáculo, concretamente, la silla, en su conjunto (por ejemplo, como imagen en perspectiva), de modo que una combinación de los datos de obstáculo en conjunto conduce a una representación cercana a la realidad del obstáculo en el mapa del entorno. En este caso, puede entonces entrar en aplicación solo un sensor adicional o varios sensores adicionales, los cuales, en particular, trabajan al mismo tiempo. En caso de utilización de solo un sensor adicional, éste puede hacerse variar, por ejemplo, para detecciones consecutivas en relación a su distancia con respecto a los obstáculos y/o al aparato de tratamiento y/o en relación a su perspectiva. La variación puede, en este caso, realizarse, por ejemplo, mediante un desplazamiento del sensor adicional o mediante un desplazamiento del aparato de tratamiento. Por ejemplo, también pueden estar dispuestos varios sensores adicionales fijos dentro de un espacio, en el cual se desplaza el aparato de tratamiento.
Se propone que el sensor adicional detecte los obstáculos desde una perspectiva, en particular, en una vista en planta sobre los obstáculos, que se desvía de la perspectiva del dispositivo de detección del aparato de tratamiento. Mediante la detección de los obstáculos desde diferentes perspectivas, se pueden recopilar diferentes datos de los obstáculos, los cuales, en combinación, posibilitan una representación cercana a la realidad del obstáculo en el mapa del entorno. Desde una primera perspectiva, por ejemplo, la perspectiva del dispositivo de detección del aparato de tratamiento, se identifican, por ejemplo, cuatro obstáculos individuales, los cuales forman juntos las esquinas de un rectángulo. Desde una segunda perspectiva, por ejemplo, la perspectiva del sensor adicional, en la zona de superficie entre los obstáculos solo individuales detectados por el dispositivo de detección, se detecta además una superficie cerrada (por ejemplo, superficie de asiento), la cual, en caso de una combinación de los datos de obstáculo, permite concluir una silla o al menos un taburete. En el mapa del entorno se puede representar, correspondientemente, una silla o bien un taburete, de modo que el usuario puede identificar en el mapa del entorno, sin consideraciones adicionales, una silla y, también, otros muebles y, por ejemplo, puede conducir el aparato de tratamiento justo a ese punto para una limpieza puntual.
Como perspectiva para el sensor adicional es, en particular, adecuada una vista en planta sobre los obstáculos, dado que aquí pueden identificarse zonas de superficie cerradas, las cuales el dispositivo de detección del aparato de tratamiento no puede percibir en su plano de detección. En particular, desde la perspectiva del sensor adicional, también puede determinarse una altura de un obstáculo, la cual indica una información acerca de si el aparato de tratamiento puede pasar por debajo de ese obstáculo o no. De manera particularmente ventajosa, se detecta el área a ser cartografiada, por ejemplo, un espacio de una vivienda, desde diferentes perspectivas, bien al montarse un
sensor adicional de forma temporalmente consecutiva en diferentes posiciones o varios sensores adicionales están dispuestos fijos y, de manera ventajosa, detectan al mismo tiempo. Los datos de obstáculo desde las diferentes perspectivas pueden, a continuación, combinarse junto con los datos de obstáculo captados por el aparato de tratamiento a un mapa virtual del entorno, el cual posibilita, tanto un tratamiento mejor posible del área mediante el aparato de tratamiento, en particular, también debajo de obstáculo, al igual que también posibilita una orientación óptima del usuario en el mapa del entorno.
Además, se propone que el sensor adicional capte datos de imagen del entorno del aparato de tratamiento. El sensor adicional presenta, en este caso, de manera ventajosa, un chip de cámara como, por ejemplo, un chip de CCD o un chip de CMOS. Los datos de obstáculo pueden, por lo tanto, captarse directamente como datos de imagen, en particular, también como datos de RGB que incluyen informaciones cromáticas, los cuales, de manera particularmente ventajosa, se puede integrar en el mapa del entorno del aparato de tratamiento. De esta manera, al mismo tiempo también se hace posible combinar los datos de obstáculo del dispositivo de detección con los datos de imagen del sensor adicional para, por ejemplo, representar en la imagen el tamaño y/o el color del aparato de tratamiento y/o de los obstáculos. Además, el tamaño reproducido se puede comparar, por ejemplo, también con las dimensiones conocidas del aparato de tratamiento para poder estimar mejor a partir de ello el tamaño, en particular, la altura, de obstáculos.
De acuerdo con una segunda variante, se propone que se mida la distancia por medio del dispositivo de detección del aparato de tratamiento, en particular, por medio de un sensor de distancia láser, de manera particularmente preferida, por medio de un dispositivo de medición por triangulación. Siempre que en el caso del dispositivo de detección del aparato de tratamiento se trate de uno el cual solo mide dentro de un único plano de detección, el usuario puede inclinar manualmente aparato de tratamiento y/o el dispositivo de detección para la medición de la distancia hacia el sensor adicional, hasta que el sensor adicional se encuentre en el plano de detección del dispositivo de detección. El ángulo de inclinación del aparato de tratamiento o bien del dispositivo de detección da un indicio acerca de la orientación espacial del sensor adicional. Alternativamente, la distancia puede medirse, sin embargo, sin otras medidas, cuando el sensor adicional de por sí está dispuesto en el plano de detección del dispositivo de detección, dado que el plano de detección, por ejemplo, presenta una extensión también en dirección vertical.
De acuerdo con otra variante, puede estar previsto que la distancia entre el dispositivo de detección y el sensor adicional se determine mediante un tamaño del aparato de tratamiento en una imagen captada por medio del sensor adicional. Dado que las dimensiones del aparato de tratamiento son conocidas, se puede determinar la distancia mediante el tamaño representado del aparato de tratamiento en la imagen captada por el sensor adicional. Además, se pueden determinar o, al menos estimar, también otras longitudes de trayecto dentro de la imagen a través de las dimensiones conocidas del aparato de tratamiento, por ejemplo, distancias entre obstáculos y similares.
Se propone que el sensor adicional se disponga, en relación a una dirección vertical, en un plano por encima de un plano de detección del dispositivo de detección del aparato de tratamiento, en particular, en una pared o un techo de un espacio. Por ejemplo, la perspectiva del sensor adicional corresponde a una perspectiva aérea sobre los obstáculos dispuestos en el espacio. En combinaciones con el plano de detección cercano al suelo del dispositivo de detección del aparato de tratamiento resulta, por lo tanto, una pluralidad de datos de obstáculo desde diferentes perspectivas de detección, los cuales conducen a una información completa acerca de los obstáculos incluidos en el espacio. En particular, estos pueden ser, por un lado, datos de obstáculo, los cuales son necesarios para pasar por debajo de un obstáculo mediante el aparato de tratamiento, y, por otro lado, datos de obstáculo, los cuales posibilitan, en particular, a un usuario del aparato de tratamiento, la localización de obstáculos, en particular, muebles dentro del mapa del entorno.
Se propone que el sensor adicional detecte uno o varios de los siguientes datos de obstáculo: cantidad de obstáculos, posición absoluta y/o relativa de un obstáculo, tamaño de un obstáculo, forma de un obstáculo, color de un obstáculo. Los diferentes datos de obstáculo son adecuados, en este caso, para hacer identificable de la manera mejor posible para el usuario el tipo de los obstáculos. En particular, la forma y color fieles a la realidad del obstáculo dan al usuario una información directamente comprensible acerca del obstáculo, la cual no debe evaluar mediante una transformación mental. El tamaño del obstáculo puede determinarse, por ejemplo, mediante el tamaño del aparato de tratamiento en la imagen del sensor adicional. Además, también se puede relacionar una posición relativa de un obstáculo de esta manera a otro obstáculo u otros puntos característicos dentro del espacio. El conocimiento acerca de la cantidad de obstáculos desempeña, por ejemplo, un papel cuando el aparato de tratamiento detecta una pluralidad de obstáculos en relación a su plano de detección, los cuales se representan, al menos parcialmente en la zona de detección del sensor adicional, como partes de obstáculo de uno y del mismo obstáculo. De esta manera, por medio del dispositivo de detección del aparato de tratamiento se pueden asociar patas de silla detectadas a una única silla, la cual es reconocible como tal en la zona de detección del sensor adicional, por ejemplo, en una vista en planta.
Por último, junto al procedimiento descrito anteriormente para la creación de un mapa del entorno para un aparato de tratamiento desplazable automáticamente, se propone también un sistema para la creación de un mapa del entorno para un aparato de tratamiento desplazable automáticamente, dicho sistema presenta un aparato de tratamiento con un dispositivo de detección para la detección de obstáculos en el entorno del aparato de tratamiento, así como al menos un sensor adicional distanciable con respecto al aparato de tratamiento para la detección de obstáculos en el entorno del aparato de tratamiento, presentando el sistema un dispositivo de procesamiento de datos, el cual presenta conexiones de comunicaciones al dispositivo de detección y al sensor adicional y el cual está configurado para combinar los datos de obstáculo detectados por el sensor adicional con datos de obstáculo detectados por el dispositivo de detección a un mapa del entorno común, estando el sensor adicional configurado para medir una distancia entre el dispositivo de detección del aparato de tratamiento y el sensor adicional, mientras el sensor adicional, partiendo desde un lugar del dispositivo de detección, se desplaza a una posición deseada. El dispositivo de detección del aparato de tratamiento sirve, en este caso, como hasta ahora, para la creación de un plano del área a ser cartografiada, detectándose obstáculos en el plano de detección del dispositivo de detección. El dispositivo de detección puede ser, por ejemplo, un sensor de distancia láser, en particular, un sensor de medición por triangulación. El sistema dispone, además del dispositivo de detección del aparato de tratamiento, adicionalmente, de uno o varios sensores adicionales, por ejemplo, una o varias cámaras. El sensor adicional puede, por ejemplo, por medio de una aceptación dispuesta en el aparato de tratamiento, estar fijado al aparato de tratamiento y separarse del aparato de tratamiento para la creación de un mapa del entorno. Además, el sensor adicional puede ser, sin embargo, también un sensor externo, para el cual el aparato de tratamiento no presenta una aceptación. El sensor adicional dispone, preferiblemente, de un sensor de aceleración. Con ayuda del cual se puede medir una distancia (incluidos importe y dirección) entre el dispositivo de detección y el lugar de montaje del sensor adicional. El sensor adicional dispone, preferiblemente, de un dispositivo de comunicaciones, con ayuda del cual se transmiten los datos de obstáculo y, también, la información acerca de la distancia medida, a un dispositivo de evaluación. El dispositivo de evaluación puede estar configurado en el aparato de tratamiento o, también, en otro aparato como, por ejemplo, un PC, una computadora portátil o similares.
Breve descripción de los dibujos
A continuación, la invención se explica más en detalle mediante ejemplos de realización. Muestran:
la Fig. 1, un área del espacio con un aparato de tratamiento y varios obstáculos,
la Fig. 2, un área del espacio con datos de obstáculo acerca de los obstáculos detectados en un plano de detección del aparato de tratamiento,
la Fig. 3, un sistema con un aparato de tratamiento y un sensor adicional,
la Fig. 4, el área del espacio representada en la Figura 1 con el aparato de tratamiento y el sensor adicional, la Fig. 5, el área del espacio con los obstáculos, detectados por el sensor adicional, y el aparato de procesamiento.
Descripción de las formas de realización
La Figura 1 muestra un área del espacio a ser cartografiada, aquí, por ejemplo, una parte de una cocina. Un aparato 1 de tratamiento, el cual aquí está configurado como robot aspirador desplazable automáticamente, se desplaza en el área del espacio y ejerce, en este caso, una tarea de limpieza. El aparato 1 de tratamiento dispone de un dispositivo 2 de detección, el cual está configurado, por ejemplo, como dispositivo de medición por triangulación. El dispositivo 2 de detección está configurado y concebido, en este caso, en particular, de modo que pueden realizarse mediciones dentro de un plano 8 de detección a través de una región angular de 360 grados, es decir, alrededor del aparato de tratamiento. El plano 8 de detección se encuentra aquí, por ejemplo, aprox. 10 cm por encima del plano de la superficie a ser limpiada, sobre la cual se desplaza el aparato 1 de tratamiento. La carcasa del aparato 1 de tratamiento presenta una abertura 20 asociada al dispositivo 2 de detección, a través de la cual puede salir o bien entrar un rayo de luz utilizado para la medición. El dispositivo de medición por triangulación funciona, de modo que el rayo de luz emitido por el láser del dispositivo de medición por triangulación sale a través de la abertura 20 fuera del aparato 1 de tratamiento y escanea el área del espacio a ser cartografiada a través de la región angular de 360 grados. Cuando el rayo de luz incide en un obstáculo 3, 4, 5, al menos una proporción se reflecta e incide en un sensor del dispositivo 2 de detección, por ejemplo, un chipo de CCD o de CMOS. En función de la distancia entre el dispositivo 2 de detección y el obstáculo 3, 4, 5 que reflecta el rayo de luz, la proporción reflectada de vuelta incide en otra posición en el chip. Mediante esta posición se puede determinar la distancia del obstáculo 3, 4, 5.
Junto al dispositivo 2 de detección, el aparato 1 de tratamiento dispone de un sensor 6 adicional, el cual, por ejemplo, se mantiene a través de una aceptación (no representada) en el aparato 1 de tratamiento. Aquí, el sensor 6 adicional está colocado, por ejemplo, sobre el aparato 1 de tratamiento, concretamente, en dirección vertical por encima del dispositivo 2 de detección. El sensor 6 adicional presenta un chip de CCD o de CMOS y dispone de un dispositivo de comunicaciones inalámbrico, a través del cual se pueden transmitir datos de obstáculo captados por el sensor 6 adicional a un dispositivo de evaluación. Aquí, el dispositivo de evaluación está dispuesto (no representado), por ejemplo, en el aparato 1 de tratamiento.
Además, el aparato 1 de tratamiento dispone, de manera habitual, de ruedas 19 para el desplazamiento automático del aparato 1 de tratamiento a través del área del espacio a ser cartografiada. Los cepillos 18 sirven, en este caso, para la asistencia del efecto de limpieza.
En el área del espacio representada, están dispuestos varios obstáculos 3, 4, 5, concretamente, dos sillas y una mesa. Los obstáculos 3, 4, 5 dispone de varias partes 9 a 14 de obstáculo, las cuales se extienden en el plano 8 de detección del dispositivo 2 de detección del aparato 1 de tratamiento, así como aéreas 15, 16, 17 de superficie de obstáculo, las cuales se encuentran fuera (concretamente, por encima) del plano 8 de detección del dispositivo 2 de detección.
La Figura 2 muestra los obstáculos 3, 4, 5 de una manera, como se detectan mediante el dispositivo 2 de detección del aparato 1 de tratamiento en el plano 8 de detección. Dado que de los obstáculos 3, 4, 5 únicamente se adentran las partes 9 a 14 de obstáculo en el plano 8 de detección, también pueden detectarse solo éstas. Las áreas 15, 16, 17 de superficie de obstáculo que se encuentran fuera del plano 8 de detección, por el contrario, no se perciben por el dispositivo 2 de detección. Únicamente las partes 9 a 14 de obstáculo se adentran en el plano 8 de detección del dispositivo 2 de detección. Éstas se detectan como arcos semicirculares a causa del ángulo de medición variable del dispositivo 2 de detección. Las partes 9 a 14 de obstáculo representadas son aquí las patas de los obstáculos 3, 4, 5, concretamente, patas de sillas y patas de mesa. En la Figura 2, el aparato 1 de tratamiento está representado únicamente con carácter informativo. Esto, por supuesto, no se detecta por el dispositivo 2 de detección y, por ello, está representado en trazos. Los datos de obstáculo obtenidos por medio del dispositivo 2 de detección, incluyen informaciones acerca del tamaño y la posición de las partes 9 a 14 de obstáculo en el plano 8 de detección. Los datos de obstáculo, sin embargo, no incluyen información acerca de parámetros fuera del plano 8 de detección, por ejemplo, otro modelado de los obstáculos 3, 4, 5 o bien de las partes 9 a 14 de obstáculo, en particular, en dirección que se encuentra perpendicular con respecto al plano 8 de detección. Además, tampoco es conocido si todas o algunas de las partes 9 a 14 de obstáculo pertenecen al mismo obstáculo 3, 4, 5 o, cada una de las partes 9 a 14 de obstáculo, define un obstáculo 3, 4, 5 separado.
La Figura 3 muestra un sistema de acuerdo con la invención con del aparato 1 de tratamiento y el sensor 6 adicional. Aquí, el sensor 6 adicional está desplazado desde la posición de partida en el aparato 1 de tratamiento (representado en trazos) a una posición deseada dentro del área del espacio, aquí, por ejemplo, en una zona de transición entre una pared y un techo de un espacio. En esta posición, el sensor 6 adicional está dispuesto en un plano 7 del área del espacio, el cual se encuentra paralelo con respecto al plano 8 de detección. El área de detección del sensor 6 adicional, sin embargo, no está limitada al plano 7. Más bien, el sensor 6 adicional, configurado como cámara, presenta un área de detección espacial, el cual corresponde a una vista en planta sobre los obstáculos 3, 4, 5. En la posición representada, el sensor 6 adicional presenta una distancia a con respecto al dispositivo 2 de detección del aparato 1 de tratamiento. Esta distancia a presenta componentes en tres direcciones espaciales del área del espacio a ser cartografiada. La medición de la distancia a tiene lugar por medio de un sensor de aceleración asociado al sensor 6 adicional. Mientras un usuario del aparato 1 de tratamiento desplaza el sensor 6 adicional desde la posición representada en trazos en el aparato 1 de tratamiento a la posición en la pared/techo del área del espacio, el sensor de movimiento mide la dirección y el importe de la distancia a con respecto al dispositivo 2 de detección. Por lo tanto, la posición del sensor 6 adicional con respecto al aparato 1 de tratamiento es conocida. Además, también se puede determinar la posición absoluta del sensor 6 adicional en el área del espacio a ser cartografiada, cuando, de manera correspondiente, es conocida la posición del aparato 1 de tratamiento en el área del espacio.
La Figura 4 muestra esquemáticamente el área de detección del sensor 6 adicional en el área del espacio a ser cartografiada. Se puede reconocer que el sensor 6 adicional dispone de un área de detección tridimensional, la cual capta los obstáculos 3, 4, 5 dispuestos en el área del espacio desde la derecha arriba (en relación a la representación). En esta área de detección está dispuesto también el aparato 1 de tratamiento. Se puede reconocer que el área de detección del sensor 6 adicional y el plano 8 de detección del dispositivo 2 de detección se superponen. El sensor 6 adicional detecta, sin embargo, también zonas parciales de los obstáculos 3, 4, 5, las cuales no se extienden en el plano 8 de detección o cortan éste. A estos cuentan, por ejemplo, las aéreas 15, 16, 17 de superficie de obstáculo, la cuales están dispuestas esencialmente paralelas con respecto al plano 8 de detección.
En el caso de estas aéreas 15, 16, 17 de superficie de obstáculo, se trata de superficies de asiento de los obstáculos 3, 5 y un tablero de mesa del obstáculo 4. Además, el sensor 6 adicional capta también al menos algunas de las partes 9 a 14 de obstáculo, las cuales no están tapadas por las aéreas 15, 16, 17 de superficie de obstáculo. Por lo tanto, el sensor 6 adicional detecta, en general, otros datos de obstáculo que el dispositivo 2 de detección del aparato 1 de tratamiento. En combinación, resulta una abundancia de diferentes datos de obstáculo, las cuales, en general, aportan a un mapa del entorno del área del espacio más preciso y más fácil de leer mediante el usuario.
La Figura 5 muestra la perspectiva del sensor 6 adicional en el área del espacio seccionada por el área de detección. El área de detección incluye, por un lado, el aparato 1 de tratamiento y, por otro lado, el obstáculo 3, 4, 5. Mediante la perspectiva del sensor 6 adicional, el aparato 1 de tratamiento y los obstáculos 3, 4, 5 están correspondientemente distorsionados. Además, solo son identificables aquellas partes 9 a 14 de obstáculo debajo de las aéreas 15, 16, 17 de superficie de obstáculo, las cuales apuntan en dirección del sensor 6 adicional y no están tapadas por los obstáculos 3, 4, 5. El sensor 6 adicional detecta, como es evidente a partir de la Figura 5, adicionalmente la cantidad de obstáculos 3, 4, 5 dentro del área del espacio detectada, la forma de los obstáculos 3, 4, 5 al menos distorsionada en perspectiva y, en el caso de un sensor cromático, también el color de los obstáculos 3, 4, 5. Las posiciones absolutas y relativas de los obstáculos 3, 4, 5, las distancias de los obstáculos 3, 4, 5, la posición del aparato 1 de tratamiento y las distancias de los obstáculos 3, 4, 5 al aparato 1 de tratamiento, a causa de la distorsión en perspectiva, no se pueden determinar directamente. Sin embargo, se hace posible una determinación, cuando el sensor 6 adicional mide desde diferentes posiciones dentro del área del espacio a ser cartografiada o bien utiliza una pluralidad de sensores 6 adicionales en diferentes posiciones espaciales.
En detalle, la creación de un mapa del entorno por medio del sistema del aparato 1 de tratamiento y del sensor 6 adicional funciona de modo que el usuario del aparato 1 de tratamiento coloca el aparato 1 de tratamiento, incluido el sensor 6 adicional dispuesto encima, en el área del espacio a ser cartografiada. A continuación, separa el sensor 6 adicional del aparato 1 de tratamiento y desplaza el sensor 6 adicional a una posición deseada, aquí, por ejemplo, a una zona de transición entre la pared y el techo del área del espacio a ser cartografiada. Durante el desplazamiento del sensor 6 adicional, el sensor de aceleración asociado al sensor 6 adicional mide la distancia a (importe y dirección) entre el sensor 6 adicional y el dispositivo 2 de detección del aparato 1 de tratamiento, concretamente, a la posición de partida del sensor 6 adicional, en la cual estaba dispuesto en el aparato 1 de tratamiento. A continuación, el aparato 1 de tratamiento se desplaza, como habitualmente, dentro del área del espacio a ser cartografiada y mide, en este caso, dentro del plano 8 de detección, distancias a obstáculos 3, 4, 5 o bien partes 9 a 14 de obstáculo de estos obstáculos 3, 4, 5.
El sensor 6 adicional capta desde su posición en la pared o bien el techo del área del espacio, una imagen de su área de detección, la cual incluye los obstáculos 3, 4, 5 y el aparato 1 de tratamiento, como está representado en la Figura 5. A continuación, el sensor 6 adicional se desplaza a diferentes posiciones dentro del área del espacio y capta ahí también una correspondiente imagen en perspectiva del área del espacio. Esto se puede repetir cualquier número de veces, aumentando una mayor cantidad de posiciones de medición al mismo tiempo también la exactitud del mapa del entorno creado a partir de los datos de obstáculo.
Una vez que ha finalizado la detección por medio del sensor 6 adicional, el sensor 6 adicional transmite los datos de obstáculo incluidos en las imágenes captadas al dispositivo de evaluación del aparato 1 de tratamiento. Esto tiene lugar por medio de comunicación inalámbrica, en particular, a través de una conexión de radio. El dispositivo de evaluación combina los datos de obstáculo captados por medio del dispositivo 2 de detección del aparato 1 de tratamiento con los datos de obstáculo detectados por el sensor 6 adicional a un mapa del entorno del área del espacio recorrida por el aparato 1 de tratamiento. El mapa del entorno incluye, en este caso, por un lado, informaciones acerca de las posiciones de los obstáculos 3, 4, 5 en el área del espacio, el tamaño de los obstáculos 3, 4, 5, la forma de los obstáculos 3, 4, 5 y, también, el color de los obstáculos 3, 4, 5. Por lo tanto, el usuario del aparato 1 de tratamiento puede orientarse de manera particularmente sencilla en el mapa del entorno creado e identifica los obstáculos 3, 4, 5 ahí dibujados directamente según su tipo, por ejemplo, si en el caso del obstáculo 3, 4, 5 se trata de una silla o una mesa.
Lista de los símbolos de referencia
1 aparato de tratamiento
2 dispositivo de detección
3 obstáculo
4 obstáculo
5 obstáculo
6 sensor adicional
7 plano
8 plano de detección
9 parte de obstáculo
10 parte de obstáculo
11 parte de obstáculo
12 parte de obstáculo
13 parte de obstáculo
14 parte de obstáculo
15 área de superficie de obstáculo 16 área de superficie de obstáculo 17 área de superficie de obstáculo 18 cepillo
19 rueda
20 abertura
a distancia
Claims (8)
1. Procedimiento para la creación de un mapa del entorno para un aparato (1) de tratamiento, en particular, robot de limpieza, desplazable automáticamente, detectando un dispositivo (2) de detección del aparato (1) de tratamiento obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento y creándose un mapa del entorno del aparato (1) de tratamiento mediante los datos de obstáculo detectados de los obstáculos (3, 4, 5), detectando al menos un sensor (6) adicional obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento, haciéndose variar la distancia del sensor (6) adicional con respecto al aparato (1) de tratamiento y combinándose los datos de obstáculo detectados por el sensor (6) adicional con los datos de obstáculo detectados por el dispositivo (2) de detección del aparato (1) de tratamiento en el mapa del entorno, caracterizado por que se mide una distancia (a) entre el dispositivo (2) de detección del aparato (1) de tratamiento y el sensor (6) adicional, midiéndose la distancia (a) por el sensor (6) adicional, mientras el sensor (6) adicional se desplaza partiendo del lugar del dispositivo (2) de detección a una posición deseada.
2. Procedimiento según la reivindicación 1, caracterizado por que el sensor (6) adicional detecta los obstáculos (3, 4, 5) desde una perspectiva que se desvía de la perspectiva del dispositivo (2) de detección del aparato (1) de tratamiento, en particular, en una vista en planta sobre los obstáculos (3, 4, 5).
3. Procedimiento según la reivindicación 1 o 2, caracterizado por que el sensor (6) adicional capta datos de imagen del entorno del aparato (1) de tratamiento.
4. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que la distancia (a) se determina por medio de un sensor de aceleración del sensor (6) adicional.
5. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que la distancia (a) se determina mediante un tamaño del aparato (1) de tratamiento en una imagen captada por medio del sensor (6) adicional.
6. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que el sensor (6) adicional se dispone, en relación a una dirección vertical, en un plano (7) por encima de un plano (8) de detección del dispositivo (2) de detección del aparato (1) de tratamiento, en particular, en una pared o un techo de un espacio.
7. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que el sensor (6) adicional detecta uno o varios de los siguientes datos de obstáculo: cantidad de obstáculos (3, 4, 5), posición absoluta y/o relativa de un obstáculo (3, 4, 5), tamaño de un obstáculo (3, 4, 5), forma de un obstáculo (3, 4, 5), color de un obstáculo (3, 4, 5).
8. Sistema para la creación de un mapa del entorno para un aparato (1) de tratamiento, en particular, robot de limpieza, desplazable automáticamente, dicho sistema presenta un aparato (1) de tratamiento con un dispositivo (2) de detección para la detección de obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento, así como al menos un sensor (6) adicional distanciable con respecto al aparato (1) de tratamiento para la detección de obstáculos (3, 4, 5) en el entorno del aparato (1) de tratamiento, presentando el sistema un dispositivo de procesamiento de datos, el cual presenta una conexión de comunicaciones al dispositivo (2) de detección y al sensor (6) adicional y el cual está configurado para combinar los datos de obstáculo detectados por el sensor (6) adicional con los datos de obstáculo detectados por el dispositivo (2) de detección a un mapa del entorno común, caracterizado por que el sensor (6) adicional está configurado para medir una distancia (a) entre el dispositivo (2) de detección del aparato (1) de tratamiento y el sensor (6) adicional, mientras el sensor (6) adicional se desplaza partiendo desde el lugar del dispositivo (2) de detección a una posición deseada.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016101552.0A DE102016101552A1 (de) | 2016-01-28 | 2016-01-28 | Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät |
PCT/EP2017/050055 WO2017129379A1 (de) | 2016-01-28 | 2017-01-03 | Verfahren zum erstellen einer umgebungskarte für ein selbsttätig verfahrbares bearbeitungsgerät |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2870503T3 true ES2870503T3 (es) | 2021-10-27 |
Family
ID=57758624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17700152T Active ES2870503T3 (es) | 2016-01-28 | 2017-01-03 | Método para crear un mapa del entorno para un dispositivo de procesamiento desplazable automáticamente |
Country Status (8)
Country | Link |
---|---|
US (1) | US10809065B2 (es) |
EP (1) | EP3408719B1 (es) |
JP (1) | JP2019505923A (es) |
CN (1) | CN108431714B (es) |
DE (1) | DE102016101552A1 (es) |
ES (1) | ES2870503T3 (es) |
TW (1) | TW201732228A (es) |
WO (1) | WO2017129379A1 (es) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016125358A1 (de) * | 2016-12-22 | 2018-06-28 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes sowie ein solches Reinigungsgerät |
CN107169595B (zh) * | 2017-04-25 | 2020-02-07 | 北京小米移动软件有限公司 | 房间布局图的绘制方法及装置 |
CN109668561B (zh) * | 2017-10-13 | 2023-04-14 | 中兴通讯股份有限公司 | 一种室内路径规划方法、终端及可读存储介质 |
DE102017220180A1 (de) * | 2017-11-13 | 2019-05-16 | BSH Hausgeräte GmbH | Erstellen einer Umgebungskarte |
IL260333A (en) * | 2018-06-28 | 2018-11-29 | Indoor Robotics Ltd | Method and system for guiding a robot towards a docking station |
DE102018120577A1 (de) * | 2018-08-23 | 2020-02-27 | Vorwerk & Co. Interholding Gmbh | Sich selbsttätig innerhalb einer Umgebung fortbewegendes Bodenbearbeitungsgerät |
CN110857859B (zh) * | 2018-08-23 | 2022-02-08 | 杭州海康机器人技术有限公司 | 障碍物检测方法及装置 |
KR102577785B1 (ko) * | 2018-09-20 | 2023-09-13 | 삼성전자주식회사 | 청소 로봇 및 그의 태스크 수행 방법 |
CN109602343A (zh) * | 2019-01-10 | 2019-04-12 | 珠海格力电器股份有限公司 | 基于微波雷达的扫地机器人的控制方法及装置、系统 |
JP2020154764A (ja) * | 2019-03-20 | 2020-09-24 | 東芝テック株式会社 | 情報処理装置及び読取システム |
KR102201002B1 (ko) * | 2019-03-26 | 2021-01-12 | 엘지전자 주식회사 | 로봇 청소기 |
JP7322670B2 (ja) * | 2019-11-13 | 2023-08-08 | オムロン株式会社 | 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット |
US11788596B2 (en) * | 2020-10-14 | 2023-10-17 | Scott C. Agostini | Energy absorption through mass redistribution and magnetic manipulation |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2501010B2 (ja) * | 1993-10-25 | 1996-05-29 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動ロボットの誘導装置 |
US5793900A (en) * | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
JPH09230933A (ja) * | 1996-02-27 | 1997-09-05 | Mitsubishi Electric Corp | 自動搬送装置 |
JP3533204B2 (ja) * | 2002-03-13 | 2004-05-31 | 株式会社日立製作所 | 車両位置測定装置およびそれを搭載した車両 |
US6944542B1 (en) * | 2003-03-12 | 2005-09-13 | Trimble Navigation, Ltd. | Position determination system for movable objects or personnel |
JP2005103680A (ja) * | 2003-09-29 | 2005-04-21 | Toshiba Corp | 監視システムおよび監視ロボット |
US7813836B2 (en) * | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
JP3841220B2 (ja) * | 2004-01-30 | 2006-11-01 | 船井電機株式会社 | 自律走行ロボットクリーナー |
US9002511B1 (en) * | 2005-10-21 | 2015-04-07 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
JP4901233B2 (ja) * | 2006-02-14 | 2012-03-21 | 株式会社日立製作所 | 監視システム、監視方法、及び、監視プログラム |
DE102008014912B4 (de) | 2008-03-19 | 2023-01-19 | Vorwerk & Co. Interholding Gmbh | Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät |
JP5141507B2 (ja) * | 2008-08-25 | 2013-02-13 | 村田機械株式会社 | 自律移動装置 |
JP5444952B2 (ja) * | 2009-08-28 | 2014-03-19 | 富士通株式会社 | センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム |
CN102103600B (zh) * | 2009-12-16 | 2013-04-03 | 中国移动通信集团公司 | 地图建立方法及地图系统 |
DE102011000250A1 (de) | 2011-01-21 | 2012-07-26 | Vorwerk & Co. Interholding Gmbh | Verfahren zur Bestimmung der Position eines selbsttätig verfahrbaren Geräts |
JP6037608B2 (ja) * | 2011-11-29 | 2016-12-07 | 株式会社日立製作所 | サービス制御システム、サービスシステム |
US8958911B2 (en) * | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
KR102058918B1 (ko) | 2012-12-14 | 2019-12-26 | 삼성전자주식회사 | 홈 모니터링 방법 및 장치 |
WO2015008290A2 (en) * | 2013-07-18 | 2015-01-22 | Secure4Drive Communication Ltd. | Method and device for assisting in safe driving of a vehicle |
JP6762148B2 (ja) * | 2015-07-09 | 2020-09-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 地図生成方法、移動ロボット及び地図生成システム |
WO2017094350A1 (ja) * | 2015-12-03 | 2017-06-08 | アルプス電気株式会社 | 位置検出システム |
-
2016
- 2016-01-28 DE DE102016101552.0A patent/DE102016101552A1/de not_active Withdrawn
-
2017
- 2017-01-03 CN CN201780005191.2A patent/CN108431714B/zh active Active
- 2017-01-03 WO PCT/EP2017/050055 patent/WO2017129379A1/de active Application Filing
- 2017-01-03 JP JP2018538567A patent/JP2019505923A/ja active Pending
- 2017-01-03 US US16/068,217 patent/US10809065B2/en active Active
- 2017-01-03 EP EP17700152.6A patent/EP3408719B1/de active Active
- 2017-01-03 ES ES17700152T patent/ES2870503T3/es active Active
- 2017-01-23 TW TW106102368A patent/TW201732228A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
JP2019505923A (ja) | 2019-02-28 |
EP3408719A1 (de) | 2018-12-05 |
CN108431714B (zh) | 2024-01-23 |
DE102016101552A1 (de) | 2017-08-03 |
TW201732228A (zh) | 2017-09-16 |
US10809065B2 (en) | 2020-10-20 |
CN108431714A (zh) | 2018-08-21 |
US20190025061A1 (en) | 2019-01-24 |
EP3408719B1 (de) | 2021-04-14 |
WO2017129379A1 (de) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2870503T3 (es) | Método para crear un mapa del entorno para un dispositivo de procesamiento desplazable automáticamente | |
ES2610755T3 (es) | Sistema de posicionamiento de un robot | |
JP6585262B2 (ja) | カメラによる位置及び方向測定のためのシステム及び方法 | |
US10175360B2 (en) | Mobile three-dimensional measuring instrument | |
US20210041222A1 (en) | Registration of three-dimensional coordinates measured on interior and exterior portions of an object | |
US11035955B2 (en) | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner | |
ES2979097T3 (es) | Procedimiento para el funcionamiento de un vehículo que se desplaza automáticamente | |
US10739458B2 (en) | Using two-dimensional camera images to speed registration of three-dimensional scans | |
US9513107B2 (en) | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner | |
ES2928877T3 (es) | Sistema con al menos dos dispositivos de tratamiento de suelos | |
ES2729749T3 (es) | Aparato de desplazamiento automático así como procedimiento para la orientación de un aparato de este tipo | |
ES2637210T3 (es) | Procedimiento para desencadenar automáticamente una autolocalización | |
ES2536517T3 (es) | Procedimiento para la determinación de la posición de un aparato desplazable automáticamente | |
ES2727617T3 (es) | Procedimiento para la localización y el modelado simultáneos de mapas | |
ES2894289T3 (es) | Procedimiento para la operación de un vehículo que se desplaza automáticamente | |
ES2874782T3 (es) | Sistema con al menos dos aparatos de tratamiento de suelos que se desplazan automáticamente | |
JP7378571B2 (ja) | 少なくとも一つのスキャン装置のためのフレームと少なくとも一つのスキャン装置を備える空間検出装置 | |
GB2578289A (en) | Sensor apparatus | |
ES2942627T3 (es) | Procedimiento para la navegación y la autolocalización de un dispositivo de tratamiento que se desplaza de forma autónoma | |
WO2016089430A1 (en) | Using two-dimensional camera images to speed registration of three-dimensional scans | |
WO2016089431A1 (en) | Using depth-camera images to speed registration of three-dimensional scans | |
ES2906388T3 (es) | Plataforma móvil con una disposición para la determinación de distancias sin contacto según el procedimiento de sección luminosa | |
US20210397841A1 (en) | Method and a system for analyzing a scene, room or venue | |
ES2742831T3 (es) | Aparato y método para determinar elementos de referencia de un entorno | |
JP2017111118A (ja) | 3dスキャナからの2次元(2d)スキャンデータに基づく3次元(3d)スキャン間の位置合せ計算 |