ES2493393T3 - Método para teleoperar un vehículo terrestre no tripulado con una cámara con desplazamiento horizontal y tal vehículo terrestre - Google Patents

Método para teleoperar un vehículo terrestre no tripulado con una cámara con desplazamiento horizontal y tal vehículo terrestre Download PDF

Info

Publication number
ES2493393T3
ES2493393T3 ES07709337.5T ES07709337T ES2493393T3 ES 2493393 T3 ES2493393 T3 ES 2493393T3 ES 07709337 T ES07709337 T ES 07709337T ES 2493393 T3 ES2493393 T3 ES 2493393T3
Authority
ES
Spain
Prior art keywords
vehicle
camera
movement
control unit
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07709337.5T
Other languages
English (en)
Inventor
Petter ÖGREN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TotalFoersvarets Forskningsinstitut FOI
Original Assignee
TotalFoersvarets Forskningsinstitut FOI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TotalFoersvarets Forskningsinstitut FOI filed Critical TotalFoersvarets Forskningsinstitut FOI
Application granted granted Critical
Publication of ES2493393T3 publication Critical patent/ES2493393T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)

Abstract

Un método de teleoperar un vehículo (10) terrestre no tripulado que comprende una primera unidad (1) de accionamiento y una segunda unidad (2) de accionamiento, comprendiendo cada una un motor y orugas (6, 7) o ruedas, estando dichas orugas o ruedas simétricamente situadas a cada lado de la línea central a lo largo de la dirección de desplazamiento hacia adelante del vehículo, y una cámara (4) de movimiento horizontal, dispuesta frente o detrás del centro de rotación nominal (z) del vehículo, controlando un operador (8) de dicho método la rotación de la cámara desacoplada de la rotación del vehículo y controlando el movimiento del vehículo en cada instante de tiempo basándose en la orientación de la cámara, lo que significa que se alcanza lo que se ve en el centro de la imagen de la cámara mediante un comando de desplazamiento hacia adelante, y que el vehículo comprende una unidad (5) de control que, basándose en una señal (20) de comando para el movimiento del vehículo, calcula una primera y una segunda señal (21, 22) de control a las respectivas unidades (1, 2) de accionamiento que moverá el vehículo del modo deseado y una tercera señal (24) de control a la cámara que contrarresta el movimiento del vehículo de modo que la rotación de la cámara no se ve afectada por el movimiento del vehículo, estando caracterizado el método por que, como una primera alternativa - dicha señal (20) de comando comprende información sobre la velocidad (s1, s2) y la velocidad angular (sw) de la cámara (4) con relación a un sistema de coordenadas fijado a la cámara; - la velocidad de la primera y la segunda unidad (2) de control es calculada por la unidad (5) de control como sigue:**Fórmula**

Description

5
10
15
20
25
30
35
40
45
50
E07709337
18-08-2014
DESCRIPCIÓN
Método para teleoperar un vehículo terrestre no tripulado con una cámara con desplazamiento horizontal y tal vehículo terrestre
La invención se refiere a un método para teleoperar un vehículo terrestre no tripulado con una cámara de desplazamiento horizontal, y tal vehículo terrestre.
Cada vez se utilizan más vehículos terrestres no tripulados (UGVs, Unmanned Ground Vehicles) tanto para aplicaciones militares como no militares. Tal vehículo tiene una cámara con desplazamiento horizontal montada sobre el mismo que transmite imágenes a un operador. Las imágenes se utilizan para reconocimiento y para ayudar al operador a orientarse y ser capaz de teleoperar el vehículo. El operador observa las imágenes a través de una pantalla y opera el vehículo utilizando una unidad de control. La unidad de control tiene una palanca de mando con la que el operador conduce el vehículo adelante/atrás e izquierda/derecha. Además, hay una palanca de mando adicional con la que el operador dirige la cámara hacia arriba/abajo/derecha/izquierda con relación al vehículo. El documento JP 2002 154383 muestra un sistema de este tipo con dos palancas de mando. El sistema tiene además la capacidad de alinear automáticamente la cámara con la dirección de desplazamiento del vehículo.
El documento US 2006/013469 muestra un robot holonómico que se desplaza en correspondencia con lo que se observa a través de su cámara. El documento US 5,648,897 muestra un sistema para controlar una unidad remota, especialmente un vehículo terrestre, y el documento US 2004/0101161 muestra un vehículo autónomo y un control de movimiento para el mismo. Ninguno de los documentos mencionados muestra un método de acuerdo con la presente invención.
Como se ha dicho anteriormente, un método común para teleoperar un vehículo no tripulado es el caso en que el operador controla, con una palanca de mando de la unidad de control, los movimientos del vehículo en el espacio y, con la otra palanca de mando, el movimiento de la cámara con relación al vehículo. El inconveniente de este método es que se necesita un operador experimentado para conducir tanto el vehículo como la cámara al mismo tiempo, especialmente en situaciones de gran estrés. Este inconveniente se debe al hecho de que el operador debe tener en cuenta la orientación de la cámara, la orientación del vehículo, y también la diferencia entre ambas cuando se opera el vehículo.
Esta invención elimina este inconveniente permitiendo que el operador opere la cámara y el vehículo de acuerdo con el método descrito en la reivindicación 1.
La invención se describirá a continuación con mayor detalle haciendo referencia a las siguientes figuras:
La Fig. 1 ilustra la operación de un vehículo terrestre de acuerdo con una técnica de la técnica anterior.
La Fig. 2 ilustra la operación de un vehículo terrestre de acuerdo con la invención.
La Fig. 3 ilustra un vehículo terrestre de acuerdo con la invención.
La Fig. 4 ilustra la operación de un vehículo terrestre a modo de ejemplo.
La Fig. 5 ilustra una secuencia de control con un vehículo terrestre no tripulado de acuerdo con la invención.
La invención se refiere a un método para teleoperar un vehículo terrestre no tripulado con una cámara de movimiento horizontal, por ejemplo un UGV (Vehículo Terrestre No Tripulado, Unmanned Ground Vehicle) de tipo oruga o un UGV con ruedas, y un vehículo terrestre que utiliza este método.
Con un vehículo con ruedas, se puede utilizar adecuadamente un UGV con una “configuración de silla de ruedas”. Por configuración de silla de ruedas se hace referencia a la configuración de ruedas que se utiliza en muchos UGVs y en casi todas las sillas de ruedas, como por ejemplo Nomadic Scout and Permobil C300CS. En esta configuración, se sustituyen las orugas por dos ruedas motrices con una dirección fija con relación al vehículo. Las ruedas motrices, que también pueden ser más de dos, son suplementadas con una o más ruedas de soporte con una función de pivote, de modo que pueden rotar libremente alrededor de su eje vertical y por tanto orientarse en diferentes direcciones con relación al vehículo. En una silla de ruedas clásica, las ruedas motrices son grandes y son accionadas manualmente y las ruedas de soporte son pequeñas y están ubicadas en la parte frontal. Un vehículo de tipo oruga y un vehículo con una configuración de silla de ruedas son muy similares desde el punto de vista del control. Ambos pueden girar en un punto y son controlados mediante la velocidad de las ruedas/orugas motrices o las fuerzas aplicadas a las mismas.
Los vehículos terrestres no tripulados de la técnica anterior son operados por un operador a través de un panel de control que controla el movimiento del vehículo con relación a un sistema de coordenadas fijado a la tierra y los movimientos de la cámara con relación a un vehículo de coordenadas fijado al vehículo, ver Fig. 1. Para el operador puede ser difícil y llevar tiempo tener en cuenta cómo está orientada la cámara, que constituye el campo de visión del operador, con relación al vehículo para conocer cómo se debe operar el vehículo con relación al campo de
5
10
15
20
25
30
35
40
45
50
55
E07709337
18-08-2014
visión.
La invención, sin embargo, propone un método y un vehículo que elimina este inconveniente. El operador controla la cámara, y por tanto su campo de visión, del modo habitual pero cuando el operador desea operar también el vehículo (adelante-atrás, derecha-izquierda), también se proporciona este control con relación a la cámara, ver Fig.
2.
Se muestra aquí un ejemplo simple relativo a cómo funciona la diferencia entre un UGV ordinario y un vehículo de acuerdo con la invención. El operador conduce el vehículo en línea recta, se detiene y gira la cámara hacia la derecha. En su panel de control, el operador ve ahora la misma imagen que “ve” la cámara. Con el modo anterior de operar el vehículo terrestre, el operador ahora tendría, para poder continuar el movimiento en la dirección de la cámara, que girar el vehículo hacia la derecha, compensar este movimiento haciendo girar la cámara hacia atrás en la dirección opuesta y sólo después de eso continuar conduciendo el vehículo en línea recta.
Con la invención, no es necesario seguir esta complicada forma de operar. Cuando el operador ha conducido el vehículo en línea recta, se ha detenido y ha hecho girar la cámara hacia la derecha, la posición de inicio es la misma. Cuando el operador desea continuar conduciendo el vehículo en la dirección de la cámara, el operador señaliza que el vehículo debe ser conducido en línea recta. La señal es transmitida al vehículo, que convierte la señal del operador y, entre otros, la posición de la cámara con relación al vehículo en una primera y una segunda señales de control a las dos unidades de accionamiento que hacen girar el vehículo hacia la derecha y conducir en línea recta. Al mismo tiempo, también se transmite una tercera señal de control a la cámara, que es girada en la dirección opuesta para mantener su orientación relativa a un sistema de coordenadas fijado a la tierra. Como resultado, la cámara se mueve a lo largo de una línea recta, recto hacia el objeto que está situado en el centro de la imagen de la cámara. En consecuencia, el operador puede en la mayoría de los casos ignorar la dinámica del vehículo y experimentar la sensación de controlar una cámara flotante.
Técnicamente, un UGV ordinario tiene cinco grados de libertad, 2 para la posición, 1 para la orientación del vehículo, y 2 para la orientación de la cámara. Una cámara flotante tiene cuatro grados de libertad, 2 para la posición y 2 para la orientación. El método de teleoperación de acuerdo con la invención ignora la orientación del vehículo. Al disponer la cámara enfrente o detrás del centro de rotación nominal del vehículo (ver más abajo) y utilizar, por ejemplo, linearización feed-back, es posible permitir al usuario controlar de manera precisa el movimiento y orientación de la cámara; estos comandos se convierten en tiempo real en señales de control para las dos unidades de accionamiento y la función de movimiento horizontal-vertical de la cámara que controla que el movimiento total de la cámara sea el deseado. Una diferencia importante es que en la interfaz simple de un UGV ordinario, para operar tanto el vehículo como la cámara, la operación es relativa a un sistema de coordenadas fijado al vehículo. La invención, sin embargo, es controlada con relación a un sistema de coordenadas fijado a la cámara. Esta diferencia se consigue por medio de un cambio de coordenadas en combinación con los algoritmos de operación que se describirán más abajo.
La Fig. 3 ilustra un vehículo (10) de acuerdo con la invención. El vehículo (10) comprende una unidad (5) de control que puede recibir señales para la teleoperación por un operador (8), una primera unidad (1) de accionamiento que comprende un motor y orugas (6) o ruedas, una segunda unidad (2) de accionamiento que también comprende un motor y orugas (7) o ruedas, una cámara (4) de desplazamiento horizontal y un sensor (3) de navegación que detecta la orientación del vehículo, por ejemplo una IMU (Unidad de Medida de Inercia, Inertial Measurement Unit). La unidad (5) de control recibe una señal (20) para la teleoperación por parte del operador (8) a través de un panel
(9) de control. La señal (20) es procesada en la unidad (5) de control y una primera señal (21) de control es transmitida a la primera unidad (1) de accionamiento, una segunda señal (22) de control es transmitida a la segunda unidad (2) de accionamiento, y una tercera señal (24) de control es transmitida a la cámara (4). Las señales de control hacia las unidades de accionamiento contienen información acerca de la velocidad (v1, v1) o fuerza (F1, F2) que se va a aplicar por parte de las unidades (1, 2) de accionamiento. La señal (24) de control a la cámara contiene información acerca de la velocidad angular (k) que va a aplicarse a la cámara.
El vehículo tiene un centro de rotación nominal (z), que es el punto o eje vertical alrededor del cual rota el vehículo si las orugas/ruedas motrices tienen la misma velocidad pero sentidos opuestos. Sin embargo, el centro de rotación momentáneo puede variar, especialmente en terreno irregular. Esto se compensa mediante la estimación del centro de rotación y el ajuste de la operación, preferiblemente gracias a que el vehículo tiene un sensor (3) de navegación que detecta los movimientos del vehículo y puede transmitir señales de corrección a la unidad (5) de control para la compensación. Por ejemplo, si una oruga/rueda motriz está apoyada sobre barro y la otra sobre hierba, la fricción será diferente e inicialmente el vehículo no se moverá del modo que requiere el operador, pero la unidad de control debe compensar las diferencias en fricción por medio de nuevas señales de control a las unidades de accionamiento y la cámara.
La cámara (4) se coloca enfrente o detrás de una línea que se extiende a través del centro de rotación nominal (z) que es perpendicular a las orugas/ruedas motrices, adecuadamente más de 1/3 de la distancia hacia adelante hacia el borde delantero y, respectivamente, hacia atrás hacia el borde trasero.
Con el método de acuerdo con la invención, no se puede controlar la dinámica cero, es decir, no se puede controlar
5
10
15
20
25
30
35
40
45
E07709337
18-08-2014
el ángulo entre el vehículo y la cámara. Una unidad de movimiento horizontal-vertical normal tiene restricciones angulares, por ejemplo ± 130 grados. En las posiciones de extremo, es por tanto necesario aplicar desviaciones con relación al comportamiento de control puramente centrado en la cámara, o alternativamente utilizar un montaje de cámara sin restricciones angulares.
El método de teleoperar un vehículo (10) terrestre no tripulado de acuerdo con la invención comprende un vehículo
(10) que comprende una primera unidad (1) de accionamiento, una segunda unidad (2) de accionamiento, y una cámara (4) de movimiento horizontal. La cámara está dispuesta enfrente o detrás de una línea que se extiende a través del centro de rotación nominal (z) del vehículo. El operador controla la translación y rotación de la cámara, y por tanto su campo de visión, con relación a un sistema de coordenadas fijado a la cámara, y el movimiento del vehículo se calcula para que se lleve a cabo un movimiento de la cámara con relación a un sistema de coordenadas fijado a la cámara (4).
A continuación se muestran dos realizaciones de cómo se puede llevar a cabo un método de teleoperación de acuerdo con la invención. En las realizaciones, el vehículo se representa a modo de ejemplo como un vehículo de tipo oruga. Sin embargo, también es posible utilizar la invención en combinación con vehículos de ruedas, preferiblemente vehículos con la configuración de silla de ruedas descrita anteriormente. Si el vehículo es un vehículo de tipo coche, no es posible ocultar completamente la dinámica del vehículo, lo que da como resultado, por ejemplo, que la cámara a veces sigue al vehículo “adelantado” antes de que la cámara esté en la posición correcta. Excepto por esto, el método también es adecuado para vehículos de tipo coche.
Una realización de la invención implica la teleoperación del vehículo de acuerdo con el método siguiente. El método se describe con referencia a la Fig. 4. En esta realización, se controla la velocidad de las unidades de accionamiento, orugas o ruedas.
Ejemplo 1
Un ejemplo de un método de teleoperación de un vehículo (10) terrestre no tripulado que comprende una primera unidad (1) de accionamiento, una segunda unidad (2) de accionamiento, una cámara (4) de movimiento horizontal, dispuesta frente o detrás de una línea que se extiende a través del centro de rotación nominal (z) del vehículo, una unidad (5) de control que recibe una señal (20) de un operador (8) y transmite una primera y una segunda señal (21, 22) de control a las unidades (1, 2) de accionamiento respectivas y una tercera señal (24) de control a la cámara (4).
La señal (20) del operador (8) contiene información acerca de la velocidad (s1, s2) y la velocidad angular (sw) de la cámara (4) que quiere llevar a cabo el operador. La señal (20) que contiene, entre otras, la información (s1, s2, sw) es recibida por el vehículo y transmitida a la unidad (5) de control. La unidad (5) de control calcula la velocidad que deben tener la primera y la segunda unidad (1, 2) de accionamiento y también la velocidad angular de la cámara con relación al vehículo para llevar a cabo el movimiento deseado por el operador. La unidad de control transmite entonces, en tiempo real, señales (21, 22) de control que contienen información acerca de la velocidad (v1, v2) de la primera y la segunda unidad (1, 2) de accionamiento e información acerca de la velocidad angular (k) de la cámara
(4) con relación al vehículo.
El cálculo de las velocidades es llevado a cabo por la unidad de control según se establece más abajo. El modelo utilizado para describir el vehículo y la posición y orientación de la cámara es:
imagen1
donde z1, z2 es el punto alrededor del cual rota el vehículo si las orugas se mueven a la misma velocidad en direcciones diferentes, es decir el centro de rotación nominal z del vehículo, θ es la orientación del vehículo con relación a un sistema de coordenadas fijado a la tierra, v1, v2 y la velocidad de las respectivas orugas/ruedas motrices, b es la distancia entre orugas/ruedas motrices, el ángulo de la cámara con relación al vehículo y k la velocidad angular de la cámara con relación al vehículo.
El método de operación común implica ahora controlar las orugas/ruedas motrices utilizando una palanca de mando y la velocidad angular de la cámara con relación al vehículo utilizando otra palanca de mando. Como la invención desea proporcionar un método de operación que sea más fácil para el operador, se desarrollará el modelo.
Sea x1, x2 la posición de la cámara, una distancia L enfrente de z. Entonces:
5
10
15
20
25
30
35
E07709337
18-08-2014
imagen2
El desarrollo de esta posición a lo largo del tiempo puede formularse como sigue:
imagen3
donde u es la velocidad deseada de la cámara en un sistema de coordenadas fijado a la tierra. Se debe remarcar que ambas matrices son siempre invertibles si L / b ≠ 0.
Si el operador desea ahora una velocidad dada de la cámara s1, s2 y una velocidad angular sw dada de la cámara, todas relativas a un sistema de coordenadas fijado a la cámara, las velocidades v1, v2 y k pueden calcularse como sigue:
imagen4
ya que
imagen5
Lo calculado (v1, v2, k) se transmite ahora a las respectivas unidades de accionamiento y a la cámara.
Si, por ejemplo, el operador desea conducir en línea recta hacia el objeto que ve en el centro de la imagen de la cámara, presiona una palanca de mando hacia adelante; la señal (s1=1, s2=0, sw=0) se transmite ahora a la unidad de control que calcula los (v1, v2, k) que provocan que el vehículo y la cámara se muevan conjuntamente de modo que la cámara se acerque al objeto en el centro de la imagen a lo largo de una línea recta, todo el tiempo dirigida hacia el mismo objeto, independientemente de la orientación del vehículo con relación a la cámara.
Ejemplo 2
Una segunda realización de la invención implica operar el vehículo como se describe a continuación. La realización se describirá con relación a la Fig. 4. En esta realización, la fuerza es controlada por las unidades de accionamiento.
El método de teleoperar un vehículo (10) terrestre no tripulado que comprende una primera unidad (1) de accionamiento, una segunda unidad (2) de accionamiento, una cámara (4) de movimiento horizontal, dispuesto frente o detrás de una línea que se extiende a través del centro nominal de rotación (z) del vehículo, una unidad (5) de control que recibe una señal (20) de un operador (8) y transmite una primera y una segunda señal (21, 22) de control a las respectivas unidades (1, 2) de accionamiento y una tercera señal (24) de control a la cámara (4).
La señal (20) del operador (8) contiene información acerca de la aceleración (s1, s2) y la velocidad angular (sw) de la cámara (4) que operador desea llevar a cabo. La señal (20) que contiene, entre otros, la información (s1, s2, sw) es recibida por el vehículo y transmitida a la unidad (5) de control. La unidad (5) de control calcula la fuerza (F1, F2) que las respectivas unidades de accionamiento deben generar sobre el terreno para llevar a cabo el movimiento deseado por el operador. La unidad de control transmite entonces, en tiempo real, señales (21, 22) de control que contienen información acerca de la fuerza (F1, F2) para las respectivas primera y segunda unidades (1, 2) de accionamiento e información acerca de la velocidad angular k de la cámara (4) con relación al vehículo.
El cálculo de la fuerza y la velocidad angular por la unidad de control se lleva a cabo como se describirá a continuación. El modelo para describir la posición y orientación del vehículo y la cámara es un desarrollo del Ejemplo
1. Se puede formular entonces un modelo de vehículo de segundo orden, por ejemplo como:
5
10
15
20
25
30
35
40
E07709337
18-08-2014
imagen6
donde z1, z2 y θ son según se ha establecido arriba, v es la velocidad del vehículo, w es la velocidad angular, F es la fuerza generada por las orugas/ruedas sobre el terreno, m es la masa del vehículo, τ es el par generado por las orugas, J es el momento de inercia, y k son los mismos que en el Ejemplo 1.
Si la cámara está situada a una distancia L de z y el operador desea una aceleración dada de la posición s1, s2 de la cámara y una velocidad angular sw dada de la cámara, todas relativas a un sistema de coordenadas fijado a la cámara, la fuerza F y el momento de inercia τ y k se obtienen a partir de las siguientes ecuaciones:
imagen7
Entonces la unidad de control calcula la fuerza que va a ser generada por las respectivas unidades de accionamiento. Estas fuerzas se obtienen a partir de la fuerza total y el momento de inercia de acuerdo con la ecuación:
imagen8
donde F1 es la fuerza ejercida sobre las orugas/ruedas motrices de la primera unidad de accionamiento y F2 es la fuerza ejercida sobre las orugas/ruedas motrices de la segunda unidad de accionamiento.
Finalmente, una secuencia de control con un vehículo (10) terrestre no tripulado de acuerdo con la invención es ilustrada en la Fig. 5, que muestra el vehículo y la cámara (4) en cinco diferentes momentos del tiempo. Además de estas cinco imágenes instantáneas, la figura muestra el cambio del centro de rotación nominal (z) del vehículo como una línea sólida y el cambio de posición de la cámara (4) como una línea discontinua.
Cuando comienza la secuencia, el vehículo está en la posición (8, 2) orientado hacia el este-noreste y la cámara está orientada hacia el norte (hacia arriba). El operador ordena ahora un movimiento (traslación) recto hacia la izquierda con relación a un sistema de coordenadas fijado a la cámara. Para conseguir este movimiento de cámara, se fuerza al vehículo primero hacia atrás y lentamente a torcer hacia la izquierda, seguidamente se detiene y luego conduce hacia adelante, todo el tiempo a la vez que rota hacia la izquierda. Es evidente que el movimiento del vehículo da como resultado el que la cámara (4) se mueva a lo largo de una línea recta, como desea el operador. Como el operador no ha ordenado ninguna rotación de la cámara, la cámara ha estado todo el tiempo orientada hacia el norte. Para conseguir esto, el motor que rota la cámara es compensado todo el tiempo por la rotación del vehículo.
Más cerca de (6, 2) el operador detiene el vehículo y ordena un movimiento hacia adelante con relación a la cámara. De nuevo, la curva sólida (el centro de rotación nominal del vehículo) describe una forma más complicada que la curva discontinua (la posición de la cámara), y de nuevo el motor que mueve la cámara debe compensar la rotación del vehículo. El proceso continuo ilustra que el operador primero ordena un movimiento hacia la derecha, luego ligeramente hacia adelante, y finalmente hacia la izquierda de nuevo, todos relativos a un sistema de coordenadas fijado a la cámara. Se debería remarcar que de este modo el operador no tiene que preocuparse acerca de la dirección según la cual está orientado el vehículo (10), sino sólo la dirección según la cual está orientada la cámara (4), y esto es exactamente lo que el operador ve en la imagen de la cámara.
La invención proporciona al operador una interfaz que recuerda una abstracción del movimiento e impresiones visuales de un humano. Como resultado, el vehículo puede ser accionado de una manera más segura y rápida, se acortan los tiempos de entrenamiento y se producen menos errores, sobre todo con estrés.
La invención también se refiere a un vehículo terrestre no tripulado que comprende una unidad (5) de control que utiliza uno de los métodos de operación descritos anteriormente

Claims (5)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    E07709337
    18-08-2014
    REIVINDICACIONES
    1. Un método de teleoperar un vehículo (10) terrestre no tripulado que comprende una primera unidad (1) de accionamiento y una segunda unidad (2) de accionamiento, comprendiendo cada una un motor y orugas (6, 7) o ruedas, estando dichas orugas o ruedas simétricamente situadas a cada lado de la línea central a lo largo de la dirección de desplazamiento hacia adelante del vehículo, y una cámara (4) de movimiento horizontal, dispuesta frente o detrás del centro de rotación nominal (z) del vehículo, controlando un operador (8) de dicho método la rotación de la cámara desacoplada de la rotación del vehículo y controlando el movimiento del vehículo en cada instante de tiempo basándose en la orientación de la cámara, lo que significa que se alcanza lo que se ve en el centro de la imagen de la cámara mediante un comando de desplazamiento hacia adelante, y que el vehículo comprende una unidad (5) de control que, basándose en una señal (20) de comando para el movimiento del vehículo, calcula una primera y una segunda señal (21, 22) de control a las respectivas unidades (1, 2) de accionamiento que moverá el vehículo del modo deseado y una tercera señal (24) de control a la cámara que contrarresta el movimiento del vehículo de modo que la rotación de la cámara no se ve afectada por el movimiento del vehículo, estando caracterizado el método por que, como una primera alternativa
    -
    dicha señal (20) de comando comprende información sobre la velocidad (s1, s2) y la velocidad angular (sw) de la cámara (4) con relación a un sistema de coordenadas fijado a la cámara;
    -
    la velocidad de la primera y la segunda unidad (2) de control es calculada por la unidad (5) de control como sigue:
    donde b es la distancia entre las unidades de accionamiento, L es la distancia desde el centro de rotación nominal z de la cámara (4) y el ángulo de la cámara con relación al vehículo;
    -
    la velocidad angular de la cámara con relación al vehículo es calculada por la unidad (5) de control como sigue:
    donde θ es la orientación del vehículo con relación a un sistema de coordenadas fijado a la tierra;
    -
    la primera y la segunda señal (21, 22) de control contienen información acerca de la velocidad (v1, v2) de las respectivas unidades (1, 2) de accionamiento; la tercera señal (24) de control contiene información acerca de la velocidad angular (k) de la cámara (4) con relación al vehículo, o, como una segunda alternativa
    -
    dicha señal (20) de comando comprende información acerca de la aceleración (s1, s2) y la velocidad angular (sw) de la cámara (4) con relación a un sistema de coordenadas fijado a la cámara;
    -
    la fuerza y el par de la primera y la segunda unidad (1, 2) de accionamiento se calculan como sigue:
    donde v es la velocidad del vehículo, w es la velocidad angular del vehículo, F es la fuerza generada por las unidades (1, 2) de accionamiento sobre el terreno, m es la masa del vehículo, τ es el par generado por las unidades (1, 2) de accionamiento, J es el momento de inercia, el ángulo de la cámara con relación al vehículo;
    -
    la fuerza de la primera y la segunda unidad de accionamiento es calculada por la unidad de control como sigue:
    donde F1 es la fuerza ejercida sobre las orugas/ruedas motrices de la primera unidad de accionamiento y F2 es la fuerza ejercida sobre las orugas/ruedas motrices de la segunda unidad de accionamiento;
    -
    la velocidad angular de la cámara con relación al vehículo se calcula como sigue:
    imagen1
    imagen2
    imagen3
    imagen4
    imagen5
    donde θ es la orientación del vehículo con relación a un sistema de coordenadas fijado a la tierra;
    7
    E07709337
    18-08-2014
    -
    la primera y la segunda señal (21, 22) de control contiene información acerca de la fuerza (F1, F2) de las respectivas unidades (1, 2) de accionamiento;
    -
    la tercera señal (24) de control contiene información acerca de la velocidad angular (k) de la cámara (4) con relación al vehículo.
    5 2. Un método de acuerdo con la reivindicación 1, donde el vehículo (10) comprende un sensor (3) de navegación que mide el movimiento del vehículo y lo compara con las señales (20) de control del operador y transmite señales de corrección a la unidad (5) de control para compensar las diferencias.
  2. 3. Un método de acuerdo con la reivindicación 1 o 2, donde una relación L/b es mayor de 1/3, donde b es la distancia entre las orugas (6, 7) o ruedas, L es la distancia desde el centro de rotación nominal (z) a la cámara (4).
    10 4. Un método de acuerdo con cualquiera de las reivindicaciones 1-3, donde la unidad de control realiza los cálculos en tiempo real y las señales de control son transmitidas a las unidades (1, 2) de accionamiento y la cámara
    (4) en tiempo real.
  3. 5. Un vehículo terrestre no tripulado que comprende una primera unidad (1) de accionamiento, una segunda
    unidad (2) de accionamiento, y una cámara (4) de movimiento horizontal, caracterizado por que el vehículo 15 comprende una unidad (5) de control que utiliza un método de acuerdo con la reivindicación 1.
  4. 6.
    Un vehículo terrestre no tripulado de acuerdo con la reivindicación 5, donde el vehículo (10) comprende un sensor (3) de navegación que mide el movimiento del vehículo y lo compara con las señales (20) de control del operador y transmite señales de corrección a la unidad (5) de control para compensar por las diferencias.
  5. 7.
    Un vehículo terrestre no tripulado de acuerdo con la reivindicación 5 o 6, donde una relación L/b es mayor de
    20 1/3, donde b es la distancia entre las orugas (6, 7) o ruedas, L es la distancia desde el centro nominal de rotación (z) a la cámara (4).
    8
ES07709337.5T 2006-02-17 2007-02-12 Método para teleoperar un vehículo terrestre no tripulado con una cámara con desplazamiento horizontal y tal vehículo terrestre Active ES2493393T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE0600352A SE530384C2 (sv) 2006-02-17 2006-02-17 Metod för fjärrstyrning av en obemannad markfarkost med rörlig kamera samt en sådan markfarkost
SE0600352 2006-02-17
PCT/SE2007/000121 WO2007094714A1 (en) 2006-02-17 2007-02-12 Method for teleoperating an unmanned ground vehicle with a pan camera and such a ground vehicle

Publications (1)

Publication Number Publication Date
ES2493393T3 true ES2493393T3 (es) 2014-09-11

Family

ID=38371804

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07709337.5T Active ES2493393T3 (es) 2006-02-17 2007-02-12 Método para teleoperar un vehículo terrestre no tripulado con una cámara con desplazamiento horizontal y tal vehículo terrestre

Country Status (7)

Country Link
US (1) US8386089B2 (es)
EP (1) EP1989602B1 (es)
CA (1) CA2642591C (es)
ES (1) ES2493393T3 (es)
IL (1) IL193486A (es)
SE (1) SE530384C2 (es)
WO (1) WO2007094714A1 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2131268A1 (en) * 2008-06-04 2009-12-09 BAE Systems PLC Vehicle System, Ground Vehicle and Base Unit
WO2009147419A1 (en) * 2008-06-04 2009-12-10 Bae Systems Plc Vehicle system, ground vehicle and base unit
GB2515006B (en) 2013-05-31 2015-11-25 Jaguar Land Rover Ltd Vehicle communication system
GB2517129B (en) * 2013-05-31 2015-12-09 Jaguar Land Rover Ltd Vehicle communication system
GB2515007A (en) 2013-05-31 2014-12-17 Jaguar Land Rover Ltd Vehicle communication system
GB2517128B (en) 2013-05-31 2015-12-09 Jaguar Land Rover Ltd Vehicle communication system
GB2515005A (en) 2013-05-31 2014-12-17 Jaguar Land Rover Ltd Vehicle communication system
EP3043202B1 (en) * 2015-01-09 2019-07-24 Ricoh Company, Ltd. Moving body system
EP3168704B1 (en) 2015-11-12 2021-02-24 Hexagon Technology Center GmbH 3d surveying of a surface by mobile vehicles
US20180348750A1 (en) * 2016-11-23 2018-12-06 Quantum Signal Llc Enhanced teleoperation of unmanned ground vehicle
CN106375738A (zh) * 2016-11-28 2017-02-01 东莞职业技术学院 智能车视频无人驾驶控制装置及系统
US10386857B2 (en) * 2017-07-05 2019-08-20 Qualcomm Incorporated Sensor-centric path planning and control for robotic vehicles
WO2019205034A1 (zh) * 2018-04-25 2019-10-31 深圳市大疆创新科技有限公司 云台位姿修正方法和装置
SE543708C2 (en) * 2019-08-23 2021-06-22 Epiroc Rock Drills Ab Method and system for controlling a machine behaviour of a mining and/or construction machine
CN111532521B (zh) * 2020-05-01 2022-02-11 福建省南云包装设备有限公司 一种多列式色带打码机及方法
CN112468720B (zh) * 2020-11-19 2022-08-30 杭州师范大学 一种适用于移动载体的摄像机云台旋转控制方法
TWI782709B (zh) * 2021-09-16 2022-11-01 財團法人金屬工業研究發展中心 手術機械臂控制系統以及手術機械臂控制方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5648897A (en) * 1994-04-22 1997-07-15 Northrop Grumman Corporation System for controlling a remote unit
JPH11320467A (ja) 1998-05-08 1999-11-24 Marusan Seiyaku Kk 遠隔操作型作業用ロボット
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
JP2002154383A (ja) * 2000-11-24 2002-05-28 Furukawa Co Ltd カメラの旋回制御装置
KR100446636B1 (ko) * 2002-11-21 2004-09-04 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
KR100556856B1 (ko) * 2003-06-14 2006-03-10 엘지전자 주식회사 이동통신 단말기에서 화면 제어 방법 및 장치
US8077963B2 (en) * 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme

Also Published As

Publication number Publication date
US20100138079A1 (en) 2010-06-03
IL193486A0 (en) 2009-05-04
WO2007094714A1 (en) 2007-08-23
EP1989602A1 (en) 2008-11-12
US8386089B2 (en) 2013-02-26
CA2642591A1 (en) 2007-08-23
EP1989602B1 (en) 2014-06-18
IL193486A (en) 2014-06-30
SE530384C2 (sv) 2008-05-20
EP1989602A4 (en) 2013-07-31
SE0600352L (sv) 2007-08-18
CA2642591C (en) 2013-07-30

Similar Documents

Publication Publication Date Title
ES2493393T3 (es) Método para teleoperar un vehículo terrestre no tripulado con una cámara con desplazamiento horizontal y tal vehículo terrestre
EP1957349B1 (en) Dual tracked mobile robot for motion in rough terrain
US20180024561A1 (en) Robot and method for localizing a robot
JP2018062344A (ja) 使用者の位置に基づく個人輸送機器の制御
JP4721461B2 (ja) 走行用リンク型ダブルトラック装置
US10843331B2 (en) Mounting a sensor module to an unmanned ground vehicle
WO2019198155A1 (ja) 無人航空機、無人航空機の飛行制御機構、及びこれらを用いる方法
CN105068541A (zh) 自平衡两轮机器人
US10905607B2 (en) Modular power base arrangement
JP2016082946A (ja) 作業車両
Nagatani et al. Improvement of the odometry accuracy of a crawler vehicle with consideration of slippage
CN204557216U (zh) 轮履复合式变电站巡检机器人自主越障系统
CN108705980B (zh) 车辆前轮与摄像头同步转向系统
US8960352B2 (en) Wheelchair transportation system
WO2017116873A1 (en) Automatic balancing variable configuration articulated tracked transporter
JP2008108219A (ja) 追尾システム
JP7295654B2 (ja) 自走式ロボット
CN103754214A (zh) 一种气垫式越野机器人
US20230047500A1 (en) Inclination control system for tracked vehicle
US20240182107A1 (en) Steering angle error monitoring
JP7443978B2 (ja) 作業支援装置
Elkaim et al. The Overbot: An off-road autonomous ground vehicle testbed
KR101685416B1 (ko) 이동형 로봇
CN117784825A (zh) 一种两轴两框滚仰构型光电探测设备控制系统及方法
CN117572858A (zh) 一种四足履带机器人控制平衡与修正导航方向的行进方法