ES2669351T3 - Sistema de control de vehículo para controlar la dirección del vehículo - Google Patents
Sistema de control de vehículo para controlar la dirección del vehículo Download PDFInfo
- Publication number
- ES2669351T3 ES2669351T3 ES16159375.1T ES16159375T ES2669351T3 ES 2669351 T3 ES2669351 T3 ES 2669351T3 ES 16159375 T ES16159375 T ES 16159375T ES 2669351 T3 ES2669351 T3 ES 2669351T3
- Authority
- ES
- Spain
- Prior art keywords
- hands
- steering
- image
- control
- position difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D6/00—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D1/00—Steering controls, i.e. means for initiating a change of direction of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/213—Virtual instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D1/00—Steering controls, i.e. means for initiating a change of direction of the vehicle
- B62D1/24—Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
- B62D1/28—Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
- B62D1/286—Systems for interrupting non-mechanical steering due to driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/021—Determination of steering angle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D5/00—Power-assisted or power-driven steering
- B62D5/04—Power-assisted or power-driven steering electrical, e.g. using an electric servo-motor connected to, or forming part of, the steering gear
- B62D5/0457—Power-assisted or power-driven steering electrical, e.g. using an electric servo-motor connected to, or forming part of, the steering gear characterised by control features of the drive means as such
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/71—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
- G06F21/74—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information operating in dual or compartmented mode, i.e. at least one secure mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/33—Illumination features
- B60K2360/334—Projection means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/10—Road Vehicles
- B60Y2200/11—Passenger cars; Automobiles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/10—Road Vehicles
- B60Y2200/12—Motorcycles, Trikes; Quads; Scooters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/10—Road Vehicles
- B60Y2200/14—Trucks; Load vehicles, Busses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/30—Railway vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/50—Aeroplanes, Helicopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/80—Other vehicles not covered by groups B60Y2200/10 - B60Y2200/60
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/83—Steering input members
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
- Y02T90/10—Technologies relating to charging of electric vehicles
- Y02T90/12—Electric charging stations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computer Security & Cryptography (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Processing Or Creating Images (AREA)
Abstract
Un sistema de control (200) para controlar la dirección de un aparato de conducción, en el que el sistema está caracterizado por: un dispositivo de proyección (114) configurado para proyectar la imagen de un volante (106) delante de un asiento del conductor; un dispositivo de cámara (116) configurado para tomar una imagen de los movimientos de una o dos manos sobre la imagen proyectada del volante (106); un procesador (110) configurado por instrucciones legibles por máquina para: determinar una posición de una o dos manos de acuerdo con la imagen de una o de las dos manos, calcular un movimiento de una o dos manos de acuerdo con la posición de una o de las dos manos, determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de una o de las dos manos, y emitir una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección; y un dispositivo accionador (204) configurado para recibir la señal de control y para efectuar un control del aparato de conducción de acuerdo con la señal de control.
Description
5
10
15
20
25
30
35
40
45
50
55
60
DESCRIPCION
Sistema de control de vehículo para controlar la dirección del vehículo Referencias cruzadas a solicitudes relacionadas
Esta solicitud reivindica el beneficio y la prioridad de la solicitud provisional de patente de Estados Unidos N.° 62/274.110, presentada el 31 de diciembre de 2015, titulada "VEHICLE CONTROL SYSTEM FOR CONTROLLING StEERING OF VEHICLE", que reivindica el beneficio y la prioridad de la solicitud provisional de patente de Estados Unidos N.° 62/133.991, presentada el 16 de marzo de 2015, titulada "IMPROVEMENTS TO ELECTRIC VEHICLES", y el beneficio y la prioridad de la solicitud provisional de patente de Estados Unidos N.° 62/150,848, presentada el 22 de abril de 2015, titulada "IMPROVEMENTS TO ELECTRIC VEHICLES".
Campo técnico
La presente invención se refiere a un sistema de control de vehículos y a un vehículo eléctrico que usa el sistema de control de vehículo, el sistema de control de vehículo que se utiliza para controlar la dirección de un vehículo.
Antecedentes de la invención
La dirección del vehículo existente normalmente se lleva a cabo controlando un volante físico, de modo que las cantidades de dirección y de par se detectan mediante un sensor de par que después se utiliza para controlar una fuente de alimentación en un sistema de dirección asistida, para asistir a la dirección mediante un motor que acciona una bomba de aceite o mediante un motor que produce una fuerza de asistencia. Como comienzo de una operación de dirección, un volante físico es indispensable, independientemente de qué tipo de sistema de dirección asistida se utilice.
La patente de Estados Unidos 2015 072 619 A1 divulga las características del preámbulo de las reivindicaciones 1 y 7.
Breve sumario de la invención
La presente invención tiene como objetivo proporcionar un sistema de control de vehículo para controlar la dirección de un aparato de conducción sin un volante físico.
De acuerdo con un primer aspecto de la presente invención, se proporciona un sistema de control para controlar la dirección del aparato de conducción. El sistema de control puede comprender un dispositivo de proyección de imágenes, un dispositivo de cámara, un procesador, un dispositivo accionador y/o cualquier otro componente. El dispositivo de proyección de imágenes puede configurarse para proyectar una imagen de un volante dentro del aparato de conducción. El dispositivo de cámara puede configurarse para tomar una imagen de un movimiento de una o dos manos en la imagen del volante. El procesador puede configurarse para determinar una posición de una o dos manos de acuerdo con la imagen de una o dos manos, para calcular un movimiento de una o dos manos, para determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de una o dos manos, para emitir una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección y/o cualquier otra operación. El dispositivo accionador puede configurarse para recibir la señal de control y para efectuar un control del aparato de conducción de acuerdo con la señal de control.
De acuerdo con un segundo aspecto de la presente invención, se proporciona un vehículo eléctrico, que incluye el sistema de control del vehículo de acuerdo con el primer aspecto de la presente invención.
De acuerdo con un tercer aspecto de la presente invención, se proporciona un método de control del vehículo para controlar la dirección de un aparato de conducción. El método comprende las siguientes etapas: proyectar una imagen de un volante; tomar imágenes de la(s) mano(s) del operario en la imagen del volante; determinar una posición de la(s) mano(s) del operario de acuerdo con las imágenes de la(s) mano(s); calcular un movimiento de la(s) mano(s); determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de la(s) mano(s); y emitir una señal de control a un dispositivo accionador de acuerdo con el ángulo de la dirección y con la dirección de la dirección, para controlar el aparato de conducción.
En comparación con la técnica anterior, los vehículos que utilizan el sistema de control de dirección de acuerdo con la presente invención no necesitan usar un volante físico, por lo que puede reducirse el peso y el coste de los vehículos. Además, el sistema de control de dirección de acuerdo con la presente invención proporciona a los conductores una experiencia de conducción completamente nueva.
5
10
15
20
25
30
35
40
45
50
55
60
65
Breve descripción de los dibujos
La presente invención se describe además en detalle a continuación con referencia a los dibujos adjuntos, en los que:
La figura 1 generalmente ilustra un ejemplo de un aparato de conducción 100 de acuerdo con la divulgación.
La figura 2 muestra un diagrama esquemático estructural de un sistema de control de acuerdo con un ejemplo de divulgación.
La figura 3 ilustra una configuración a modo de ejemplo de un procesador para implementar el mecanismo de control de acuerdo con la divulgación.
La figura 4 muestra un diagrama esquemático de un método para calcular vectores de diferencia de posición de movimiento de acuerdo con la presente invención.
La figura 5 muestra un diagrama de flujo de un método de control de vehículo de acuerdo con la presente invención; y
La figura 6 muestra un diagrama esquemático de un ejemplo de un sistema informático.
Descripción detallada de la invención
Las realizaciones del sistema de control de vehículo de acuerdo con la presente invención se describen a continuación con referencia a los dibujos adjuntos.
La figura 1 generalmente ilustra un ejemplo de un aparato de conducción 100 de acuerdo con la divulgación. El aparato de conducción 100 puede incluir cualquier aparato que se mueva en la distancia. Ejemplos de aparatos de conducción 100 pueden incluir un vehículo tal como un automóvil, un autobús, un tren, un camión, un tranvía o cualquier otro tipo de vehículo; pueden incluir una embarcación tal como un barco, un buque, una barcaza, un transbordador o cualquier otro tipo de vehículo acuático; pueden incluir una aeronave tal como un avión, una nave espacial o cualquier otro tipo de aeronave; o pueden incluir cualquier otro aparato de transporte. En un ejemplo, el aparato de conducción 100 es un automóvil eléctrico. Como se muestra, el aparato de conducción 100 puede incluir una cabina 101 con un volumen.
Como se muestra en la figura 1, en la cabina 101, puede haber un tablero de instrumentos 102 que tiene una pantalla 103. Aunque en este ejemplo, una pantalla 103 del tablero de instrumentos ocupa toda la superficie del tablero de instrumentos 102, esto no pretende ser limitante. Se contempla que, en algunos casos, la pantalla 103 del tablero de instrumentos puede ocupar una porción del tablero 102 en lugar de todo el tablero 102. En cualquier caso, la pantalla 103 del tablero de instrumentos es adecuada para visualizar uno o más paneles de información, tales como los paneles de información 104 mostrados en la figura 1. En las implementaciones, la pantalla 103 del tablero de instrumentos puede incluir cualquier tecnología de visualización, tal como pantallas de cristal líquido (LCD), cristal LCD, diodo emisor de luz (lEd), diodo orgánico emisor de luz (OLED), matriz activa de diodos orgánicos emisores de luz (AMOLED), plasma, panel de proyección, tubo de rayos catódicos (CRT) y/o cualquier otra tecnología de visualización.
En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de medidores relacionada con el aparato de transporte 100, tal como velocidad/altitud/dirección/viento actuales, longitud/latitud actuales, distancia recorrida, RPM, nivel de combustible, nivel de batería y/o cualquier otra información de medidores relacionada con el aparato de transporte 100. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de indicación, tal como información de indicación de los cinturones de seguridad, de los airbags, de las puertas, del maletero, de mantenimiento, de seguridad, del cierre de ventanas, del cierre de puertas o cualquier otra información de indicación. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de navegación o GPS relacionada con la navegación del aparato de conducción 100, tal como la calle actual recorrida, el mapa de un área en la que viaja el aparato de transporte 100, la información de destino, instrucciones de dirección, estado del tráfico, tiempo estimado de llegada, retraso estimado debido al tráfico y/o cualquier otra información de navegación.
En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de cabina, tal como temperatura actual, humedad, velocidad del viento, número de pasajeros en una o más zonas de la cabina 101 y/o cualquier otra información de cabina. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de configuración con respecto al aparato de transporte 100, tal como configuración de los asientos, configuración del espejo, configuración de la batería, configuración del modo de conducción, y/o cualquier otra configuración. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de entretenimiento. Por ejemplo, dicho panel de información puede incluir una pantalla de video capaz de presentar un video o imágenes fijas, una pantalla de navegador capaz de presentar
5
10
15
20
25
30
35
40
45
50
55
60
65
información web, una pantalla de juego capaz de presentar uno o más juegos para la interacción del usuario, una pantalla de información musical capaz de permitir al usuario consumir piezas de música, una pantalla de información de comercio electrónico capaz de permitir al usuario realizar transacciones remotas a través de Internet, una pantalla de información de radio capaz de presentar una lista de emisoras de radio disponibles para el consumo del usuario y/o cualquier otro tipo de pantalla de información y entretenimiento. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de notificación tal como una llamada entrante, un mensaje de texto entrante, una solicitud de chat de video entrante y/o cualquier otra información de notificación. Se contemplan otros ejemplos de paneles de información 104.
Como aún se muestra en la figura 1, el aparato de conducción 100 puede comprender uno o más volantes virtuales 106 en la cabina 101. Como se describirá con más detalle, el volante virtual 106 puede proyectarse desde un dispositivo de proyección de imágenes instalado en el aparato de conducción 100. Aunque en la figura 1 solo se muestra un volante virtual 106, esto no pretende ser limitante. En algunos ejemplos, el aparato de conducción 100 puede incluir más de un volante virtual 106.
Como también se muestra en la figura 1, uno o más usuarios 108 pueden estar dispuestos para ocupar sus posiciones correspondientes en la cabina 101. Los usuarios 108 pueden incluir uno o más conductores que controlan el volante virtual 106, uno o más pasajeros y/o cualquier otro tipo de usuarios 108. En este ejemplo, el usuario 108a es un conductor que controla la conducción del aparato de conducción 100, mientras que otros usuarios 108, por ejemplo, los usuarios 108b-d, son pasajeros. Como aún se muestra, puede haber múltiples filas de usuarios 108 dentro de la cabina 101 del aparato de transporte 100.
Como aún se muestra en la figura 1, el aparato de conducción 100 puede incluir uno o más procesadores 110 configurados para controlar uno o más sistemas o subsistemas eléctricos en el aparato de conducción 100. Los tipos de procesador 110 pueden incluir un procesador genérico configurado para ejecutar instrucciones legibles por máquina configuradas para implementar un mecanismo de control para controlar una estructura de control del aparato de conducción 100. Como también se muestra, el aparato de conducción 100 puede incluir uno o más de un dispositivo de proyección 114 configurado para proyectar una imagen del volante virtual 106 como se muestra. Como también se muestra, el aparato de conducción 100 puede incluir uno o más de un dispositivo de cámara configurado para tomar una imagen de una o dos manos de un operario del aparato de conducción en el volante virtual 106.
Habiéndose descrito en general el aparato de conducción 100, ahora se dirige la atención a la figura 2, en la que se ilustra un diagrama esquemático de un sistema de control 200 de acuerdo con la divulgación. El sistema de control 200 puede instalarse en el aparato de conducción 100. Se describirá con referencia a la figura 1. El sistema de control 200 puede comprender el dispositivo de proyección 114, el dispositivo de cámara 116, un procesador 110, un motor de dirección 204 que sirve como dispositivo accionador, una estructura de dirección 202, un dispositivo de almacenamiento 206 y/o cualquier otro componente. Como se ha mencionado anteriormente, el dispositivo de proyección 114 puede configurarse para proyectar la imagen de un volante 106 dentro de la cabina del aparato de conducción 100. En una realización, el dispositivo de proyección 114 proyecta la imagen del volante 106 delante del asiento del conductor.
El dispositivo de cámara 102 puede configurarse para tomar una imagen de un movimiento de una o dos manos de un operario del aparato de conducción 100 sobre la imagen del volante 106. En algunas implementaciones, el dispositivo de cámara 102 puede configurarse para tomar dicha imagen periódicamente, por ejemplo, una vez cada 1/12 segundos, cada 1/24 segundos, cada 1/36 segundos, y etcétera. Las imágenes tomadas por el dispositivo de cámara 102 pueden almacenarse en el dispositivo de almacenamiento 206 y pueden procesarse mediante el dispositivo de control 202.
El procesador 110 puede configurarse para realizar diversas operaciones para implementar un mecanismo de control para controlar una maniobra del aparato de conducción 100. La figura 3 ilustra una configuración a modo de ejemplo del procesador 110 para implementar el mecanismo de control de acuerdo con la divulgación. Como se muestra, el procesador 110 puede comprender un componente de determinación de posición de manos 302, un componente de información anterior 304, un componente de movimiento de manos 306, un componente de ángulo de la dirección y de dirección de la dirección 308, un componente de control 310 y/o cualquier otro componente. El componente de determinación de posición de manos 302 puede configurarse para determinar la posición de una o dos manos en la imagen del volante virtual 106 de acuerdo con las imágenes de la(s) mano(s) tomadas por el dispositivo de cámara 116. Como se muestra, el componente de determinación de posición de manos 302 puede recibir tales imágenes desde el dispositivo de cámara 116 periódicamente, por ejemplo, una vez cada 1/12 segundos, cada 1/24 segundos, cada 1/36 segundos, y etcétera. El componente de determinación de posición de manos 302 puede configurarse con un algoritmo de reconocimiento de imágenes para reconocer una posición de la(s) mano(s) en la imagen del volante virtual 106. Haciendo referencia ahora a la figura 4, los números 403 y 405 en la imagen del volante virtual 106 en el momento T (derecha) indican posiciones de las manos en el momento actual que pueden determinarse mediante el componente de determinación de posición de manos 302 a través de un algoritmo de reconocimiento de imágenes. Volviendo a la figura 3, una vez que se ha determinado la posición de la
5
10
15
20
25
30
35
40
45
50
55
60
65
mano en la imagen del volante virtual 106, el componente de determinación de posición de manos 302 puede configurarse para generar la información de la posición y para almacenarla en el dispositivo de almacenamiento 206. El dispositivo de almacenamiento 206 puede configurarse para almacenar la información de la posición de la mano durante un período de tiempo a medida que el componente de determinación de posición de manos 302 continúa enviando la información de la posición en instantes de tiempo específicos periódicamente.
El componente de información anterior 304 puede configurarse para obtener información de la posición anterior con respecto a las manos en la imagen del volante virtual 106. Por ejemplo, el componente de información anterior 304 puede configurarse para buscar información de la posición de las manos en cualquier instante de tiempo anterior almacenada en el dispositivo de almacenamiento 206. Haciendo referencia ahora a la figura 4, las posiciones 402 y 404 en la imagen del volante virtual 106 en el momento TO (izquierda) representan las posiciones de las manos anteriores almacenadas en el dispositivo de almacenamiento 206.
Volviendo a la figura 3, el componente de movimiento de manos 306 puede configurarse para calcular el movimiento de una mano basándose en la información de la posición actual determinada por el componente de determinación de posición de manos 302 y en la información de la posición anterior recuperada por el componente de información anterior 304. Por ejemplo, el componente de movimiento de manos 306 puede calcular un movimiento de manos basándose en la posición de la mano en la imagen del volante virtual 106 en T1 (momento actual) y la posición de la mano en la imagen del volante virtual 106 en T0 (inmediatamente antes de T1). Haciendo referencia de nuevo a la figura 4, los vectores 406 y 407 pueden calcularse mediante el componente de movimiento de manos 306 para representar las diferencias entre las posiciones 403, 405 de las manos en el ciclo actual y las posiciones 402, 404 de las manos en el ciclo anterior.
Volviendo a la figura 3, el componente de ángulo de la dirección y de dirección de la dirección 308 puede configurarse para determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con los vectores de diferencia de posición de movimiento determinados por el componente de movimiento de manos 306. El componente de ángulo de la dirección y de dirección de la dirección 308 puede configurarse para emitir una corriente y una tensión correspondientes como una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección, para controlar el motor de dirección 204. Volviendo a la figura 2, el motor de dirección 204 emite potencia para permitir que la estructura de dirección 202 conduzca las ruedas del vehículo para girar en dirección. La estructura de dirección 202 puede emplear una cremallera de dirección y un engranaje de dirección.
La figura 5 ilustra un ejemplo de un proceso 500 para controlar un vehículo usando la imagen de un volante virtual proyectada dentro del vehículo. El proceso 500 se ilustra como un diagrama de flujo lógico, cuya operación representa una secuencia de operaciones que pueden implementarse en hardware, en instrucciones informáticas o en una combinación de los mismos. En el contexto de las instrucciones informáticas, las operaciones representan instrucciones ejecutables por ordenador almacenadas en uno o más medios de almacenamiento legibles por ordenador que, cuando se ejecutan por uno o más procesadores, realizan las operaciones enumeradas.
Generalmente, las instrucciones ejecutables por ordenador incluyen rutinas, programas, objetos, componentes, estructuras de datos y similares que realizan funciones particulares o implementan tipos de datos particulares. El orden en que se describen las operaciones no pretende ser interpretado como una limitación, y cualquier número de las operaciones descritas puede combinarse en cualquier orden y/o en paralelo para implementar los procesos.
En la etapa 501, puede utilizarse un dispositivo de proyección para proyectar una imagen de volante delante de un conductor del vehículo. El método de proyección específico puede usar el método en la técnica anterior conocido por los expertos en la materia, y la estructura específica del dispositivo de proyección puede ser la del dispositivo existente capaz de realizar proyección de aire.
En la 502, el dispositivo de la cámara toma imágenes de movimientos operativos de ambas manos del conductor en la imagen del volante. El campo de la toma para ambas manos del conductor en la carga del dispositivo de cámara está limitado dentro de los límites de la imagen del volante, es decir, los movimientos de ambas manos del conductor dentro de los límites de la imagen del volante se consideran movimientos operativos de dirección efectivos, mientras que los movimientos fuera de los límites de la imagen del volante se consideran inválidos. Tal configuración puede prevenir de manera efectiva el mal funcionamiento, a fin de mejorar la seguridad de conducción.
En la etapa 503, puede determinarse una posición de ambas manos. En algunas realizaciones, la etapa 503 puede realizarse mediante un componente de determinación de posición de manos igual o sustancialmente similar al componente de determinación de posición de manos 302 descrito e ilustrado en el presente documento. Como se ha descrito anteriormente, el componente de determinación de posición de manos puede determinar las posiciones de las manos de acuerdo con las imágenes de las manos. Específicamente, las posiciones de las manos en la imagen del volante se determinan de acuerdo con las imágenes de las manos en las imágenes tomadas por el dispositivo de cámara. Debe observarse que en la presente realización, no se imponen restricciones sobre el gesto de las manos específico del conductor, es decir, no importa qué gesto de la mano haga el conductor, las posiciones de las manos se determinarán de acuerdo con las imágenes de las manos, de modo que el conductor pueda realizar la operación
5
10
15
20
25
30
35
40
45
50
55
60
65
de dirección libremente utilizando su gesto operativo habitual. Dado que un ciclo de etapas de control de la dirección se lleva a cabo a intervalos dados, las imágenes de las manos en cada ciclo de etapas de control de la dirección se convierten a las posiciones de las manos que posteriormente se almacenan en el dispositivo de almacenamiento.
En la 504, las diferencias de posición de movimiento pueden calcularse basándose en la información de posición determinada en la etapa 502. En algunas realizaciones, la etapa 504 puede realizarse mediante un componente de movimiento de manos igual o sustancialmente similar al componente de movimiento de manos 306 descrito e ilustrado en el presente documento. Como se ha descrito anteriormente, el componente de movimiento de manos puede calcular vectores de diferencia de posición de movimiento de acuerdo con las posiciones de las manos. La figura 4 muestra un diagrama esquemático de un método para calcular los vectores de diferencia de posición de movimiento de acuerdo con la presente invención.
Para evitar juicios erróneos, se introduce una etapa de verificación en esta realización, concretamente se verifica si la operación de la mano izquierda es coherente con la operación de la mano derecha, y las siguientes etapas se realizan solo cuando la verificación de coherencia es exitosa. Específicamente como se muestra en la figura 4, después de que el dispositivo de cámara toma imágenes de movimientos operativos de las manos izquierda y derecha simultáneamente en la imagen del volante, el componente de movimiento de manos puede determinar la posición 405 de la mano izquierda en el ciclo actual y la posición 403 de la mano derecha en el ciclo actual, y posteriormente el componente de movimiento de manos 306 puede calcular el vector 407 de diferencia de posición de movimiento de mano izquierda de acuerdo con la posición 405 de la mano izquierda en este ciclo y con la
posición 404 de la mano izquierda en el ciclo anterior almacenada en el dispositivo de almacenamiento 206, y el
vector 406 de diferencia de posición de movimiento de la mano derecha de acuerdo con la posición 403 de la mano derecha en el ciclo actual y con la posición 405 de la mano izquierda en el ciclo anterior almacenada en el dispositivo de almacenamiento 206.
En la etapa 505, se determina si el módulo del vector 406 de diferencia de posición de movimiento de la mano izquierda es coherente con el del vector 407 de diferencia de posición de movimiento de la mano derecha, en la que el método de cálculo del módulo del vector es el mismo que en las matemáticas comunes, y los valores numéricos no son necesariamente los mismos cuando se juzga si los dos son coherentes entre sí, es aceptable siempre que se
encuentren en un cierto intervalo de error. Cuando la verificación de coherencia es exitosa, se indica que la
operación de la mano izquierda es más o menos coherente con la operación de la mano derecha. Cuando la verificación de coherencia no es exitosa, se indica que la operación de la mano izquierda es diferente de la operación de la mano derecha, y de este modo el proceso vuelve a la etapa 505. Debido a dicha configuración, el sistema de control no juzgará mal la operación del conductor como operaciones de dirección cuando realiza otra operación en lugar de la operación de dirección con una mano, por lo que el juicio es más preciso.
En la 506, se determina un ángulo de la dirección y una dirección de la dirección de acuerdo con los vectores de diferencia de posición de movimiento. En ciertas implementaciones, la etapa 506 puede realizarse mediante un componente de ángulo de la dirección y de dirección de la dirección igual o sustancialmente similar al componente de ángulo de la dirección y de dirección de la dirección 308 descrito e ilustrado en el presente documento. Específicamente, cuando se verifica que el módulo del vector 406 de diferencia de posición de movimiento de la mano izquierda es coherente con el vector 407 de diferencia de posición de movimiento de la mano derecha, el ángulo de la dirección y la dirección de la dirección se determinan de acuerdo con el vector 406 de diferencia de posición de movimiento de la mano derecha o con el vector 407 de diferencia de posición de movimiento de la mano izquierda. En algunas realizaciones, se configura que el ángulo de la dirección y la dirección de la dirección se determinan de acuerdo con el vector 406 de diferencia de posición de movimiento de la mano derecha. Los ángulos de dirección y las direcciones de dirección correspondientes a los vectores de diferencia de posición de movimiento respectivos se almacenan previamente en el dispositivo de almacenamiento 206, en base a lo cual el componente de ángulo de la dirección y de dirección de la dirección descubre la dirección de la dirección y el ángulo de la dirección correspondientes al vector 406 de diferencia de posición de movimiento de la mano derecha.
En la etapa 507, la corriente y la tensión pueden enviarse al motor de dirección 104 que sirve como un dispositivo accionador de acuerdo con la dirección de la dirección y el ángulo de la dirección determinados en la etapa 506, para controlar la potencia de salida del motor de dirección 104. En ciertas implementaciones, la etapa 507 puede realizarse mediante un componente de control igual o sustancialmente similar al componente de control 310 descrito e ilustrado en el presente documento.
En la etapa 508, el motor de dirección 104 puede controlar la dirección de la estructura de dirección 202. En esta realización, la estructura de dirección 202 puede incluir una cremallera de dirección y un engranaje de dirección. El motor de dirección, la cremallera de dirección y el engranaje de dirección son similares a los del sistema de dirección asistida existente, y no se describirán en detalle en el presente documento.
Después de que se completa la etapa 508, el proceso vuelve a la etapa 505 nuevamente después de que haya transcurrido un intervalo de tiempo para el sistema de control, y las etapas se repiten como se ha descrito anteriormente.
5
10
15
20
25
30
35
40
45
50
55
60
65
Con referencia a la figura 6, se muestra un diagrama esquemático de un ejemplo de un sistema informático 600. Este sistema es solo a modo de ejemplo y un experto en la materia reconocerá que son posibles variaciones y modificaciones. El sistema 600 puede utilizarse para las operaciones descritas anteriormente. Por ejemplo, el sistema informático mostrado en la figura 6 puede utilizarse para implementar cualquiera o todas las técnicas y rutinas descritas en el presente documento para facilitar una visualización dinámica de la fuerza de frenado.
El sistema 600 incluye un procesador 610, una memoria 620, un dispositivo de almacenamiento 630 y una interfaz de entrada/salida 640. Cada uno de los componentes 610, 620, 630 y 640 están interconectados usando un bus de sistema 650. El procesador 610 es capaz de procesar instrucciones para su ejecución dentro del sistema 600. En una implementación, el procesador 610 es un procesador de un solo hilo. En otra implementación, el procesador 610 es un procesador de múltiples hilos. El procesador 610 es capaz de procesar instrucciones almacenadas en la memoria 620 o en el dispositivo de almacenamiento 630 para proporcionar información gráfica a través de la interfaz de entrada/salida 640 para visualizarla en una interfaz de usuario de uno o más dispositivos de entrada/salida 6100.
La memoria 620 almacena información dentro del sistema 600 y puede estar asociada con varias características e implementaciones. Por ejemplo, la memoria 620 puede incluir varios tipos de medios legibles por ordenador tales como una memoria volátil, una memoria no volátil y otros tipos de tecnología de memoria, individualmente o en combinación.
El dispositivo de almacenamiento 630 es capaz de proporcionar almacenamiento masivo para el sistema 600. En una implementación, el dispositivo de almacenamiento 630 es un medio legible por ordenador. En diversas implementaciones diferentes, el dispositivo de almacenamiento 630 puede ser un dispositivo de disquete, un dispositivo de disco duro, un dispositivo de disco óptico o un dispositivo de cinta.
El dispositivo de entrada/salida 6100 proporciona operaciones de entrada/salida para el sistema 600. En una implementación, el dispositivo de entrada/salida 6100 incluye un teclado y/o un dispositivo de puntero. En otra implementación, el dispositivo de entrada/salida 6100 incluye una unidad de visualización para visualizar interfaces gráficas de usuario.
Las características descritas pueden implementarse en circuitos electrónicos digitales, o en hardware, firmware, software informático o en combinaciones de ellos. El aparato puede implementarse en un producto de programa informático tangiblemente incorporado en un soporte de información, por ejemplo, en un dispositivo de almacenamiento legible por máquina, para su ejecución por un procesador programable; y las etapas del método pueden realizarse mediante un procesador programable que ejecuta un programa de instrucciones para realizar funciones de las implementaciones descritas operando en datos de entrada y generando resultados datos de salida. Las características descritas pueden implementarse ventajosamente en uno o más programas informáticos que son ejecutables en un sistema programable que incluye al menos un procesador programable acoplado para recibir datos e instrucciones de, y para transmitir datos e instrucciones a, un sistema de almacenamiento de datos, a al menos un dispositivo de entrada, y a al menos un dispositivo de salida. Un programa informático es un conjunto de instrucciones que pueden utilizarse, directa o indirectamente, en un ordenador para realizar una determinada actividad o para producir un determinado resultado. Un programa informático puede escribirse en cualquier forma de lenguaje de programación, incluidos los lenguajes compilados o interpretados, y puede implementarse de cualquier forma, incluso como un programa independiente o como un módulo, componente, subrutina u otra unidad adecuada para su uso en un entorno informático.
Los procesadores adecuados para la ejecución de un programa de instrucciones incluyen, a modo de ejemplo, microprocesadores tanto generales como especiales, y el único procesador o uno de múltiples procesadores de cualquier tipo de ordenador. Generalmente, un procesador recibirá instrucciones y datos de una memoria de solo lectura o de una memoria de acceso aleatorio o de ambas. Los elementos esenciales de un ordenador son un procesador para ejecutar instrucciones y una o más memorias para almacenar instrucciones y datos. Generalmente, un ordenador también incluirá, o estará operativamente acoplado para comunicarse con, uno o más dispositivos de almacenamiento masivo para almacenar archivos de datos; dichos dispositivos incluyen discos magnéticos, tales como discos duros internos y discos extraíbles; discos magneto-ópticos; y discos ópticos. Los dispositivos de almacenamiento adecuados para incorporar de forma tangible instrucciones y datos de programas informáticos incluyen todas las formas de memoria no volátil, incluyendo a modo de ejemplo dispositivos de memoria semiconductores, tales como EPROM, EEPROM y dispositivos de memoria flash; discos magnéticos tales como discos duros internos y discos extraíbles; discos magneto-ópticos; y discos CD-ROM y DVD-ROM. El procesador y la memoria pueden complementarse con, o incorporarse en, ASIC (circuitos integrados específicos de la aplicación).
Las características pueden implementarse en un sistema informático que incluye un componente en etapa final, como un servidor de datos, o que incluye un componente de soporte intermedio, como un servidor de aplicaciones o un servidor de Internet, o que incluye un componente en etapa inicial, como un ordenador cliente que tiene una interfaz gráfica de usuario o un navegador de Internet, o cualquier combinación de ellos. Los componentes del sistema pueden conectarse mediante cualquier forma o medio de comunicación de datos digitales, como una red de comunicación. Ejemplos de redes de comunicación incluyen, por ejemplo, una LAN, una WAN y los ordenadores y redes que forman Internet.
5
10
15
20
25
30
35
El sistema informático puede incluir clientes y servidores. Un cliente y un servidor generalmente son remotos entre sí y suelen interactuar a través de una red, como la descrita. La relación del cliente y el servidor surge en virtud de los programas informáticos que se ejecutan en los ordenadores respectivos y que tienen una relación cliente-servidor entre sí. Aunque algunas implementaciones se han descrito en detalle anteriormente, son posibles otras modificaciones.
Además, los flujos lógicos representados en las figuras no requieren el orden particular mostrado, o el orden secuencial, para lograr resultados deseables. Además, pueden proporcionarse otras etapas, o pueden eliminarse etapas, de los flujos descritos, y pueden agregarse o eliminarse otros componentes de los sistemas descritos. Por consiguiente, otras implementaciones están dentro del alcance de las siguientes reivindicaciones.
Cuando los componentes se describen como configurados para realizar ciertas operaciones, dicha configuración puede lograrse, por ejemplo, diseñando circuitos electrónicos u otro hardware para realizar la operación, programando circuitos electrónicos programables (por ejemplo, microprocesadores u otros circuitos electrónicos adecuados) para realizar la operación, o cualquier combinación de los mismos.
Se han descrito varias realizaciones de la invención. Sin embargo, se entenderá que pueden realizarse diversas modificaciones sin apartarse del alcance de la invención.
La memoria descriptiva y los dibujos son, por consiguiente, para ser considerados en un sentido ilustrativo en lugar de restrictivo. Sin embargo, será evidente que pueden realizarse adiciones, sustracciones, eliminaciones y otras modificaciones y cambios sin apartarse del alcance más amplio. Los métodos y sistemas ilustrativos para proporcionar características de la presente divulgación se han descrito anteriormente. Algunos o todos estos sistemas y métodos pueden, pero no necesitan, implementarse al menos parcialmente mediante arquitecturas tales como las mostradas en las figuras 1-7.
Aunque las realizaciones se han descrito en un lenguaje específico para características estructurales y/o actos metodológicos, debe entenderse que la divulgación no está necesariamente limitada a las características o actos específicos descritos. Por el contrario, las características y actos específicos se divulgan como formas ilustrativas de implementación de las realizaciones. El lenguaje condicional, tal como, entre otros, "puede", "podría", "puede que", a menos que se indique específicamente lo contrario, o se entienda dentro del contexto como se usa, generalmente pretende transmitir que ciertas realizaciones podrían incluir, mientras que otras realizaciones no incluyen, ciertas características, elementos y/o etapas. Por lo tanto, dicho lenguaje condicional generalmente no pretende implicar que las características, elementos y/o etapas sean de ninguna manera necesarios para una o más realizaciones o que una o más realizaciones necesariamente incluyan lógica para decidir, con o sin intervención o pautas del usuario, si estas características, elementos y/o etapas están incluidos o deben realizarse en cualquier realización particular.
Claims (7)
- 510152025303540455055REIVINDICACIONES1. Un sistema de control (200) para controlar la dirección de un aparato de conducción, en el que el sistema está caracterizado por:un dispositivo de proyección (114) configurado para proyectar la imagen de un volante (106) delante de un asiento del conductor;un dispositivo de cámara (116) configurado para tomar una imagen de los movimientos de una o dos manos sobre la imagen proyectada del volante (106);un procesador (110) configurado por instrucciones legibles por máquina para:determinar una posición de una o dos manos de acuerdo con la imagen de una o de las dos manos, calcular un movimiento de una o dos manos de acuerdo con la posición de una o de las dos manos, determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de una o de las dos manos, yemitir una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección; y un dispositivo accionador (204) configurado para recibir la señal de control y para efectuar un control del aparato de conducción de acuerdo con la señal de control.
- 2. El sistema de control de acuerdo con la reivindicación 1, que comprende además un dispositivo de almacenamiento (206), almacenando el dispositivo de almacenamiento las posiciones de las manos;en el que el procesador (110) está configurado además para calcular la diferencia de posición de acuerdo con las posiciones de las manos y con las posiciones de las manos almacenadas determinadas en un momento anterior, para formar los vectores de diferencia de posición de movimiento (406, 407).
- 3. El sistema de control de acuerdo con la reivindicación 1,en el que el dispositivo de cámara (116) está configurado para tomar imágenes de movimientos de las manos izquierda y derecha en la imagen del volante (106); yen el que el procesador (110) está configurado para calcular por separado un vector (406) de diferencia de posición de movimiento de la mano izquierda y un vector (407) de diferencia de posición de movimiento de la mano derecha, verifica si el módulo del vector (406) de diferencia de posición de movimiento de la mano izquierda es coherente con el del vector (407) de diferencia de posición de movimiento de la mano derecha y, si es así, determina el ángulo de la dirección y la dirección de la dirección de acuerdo con el vector de diferencia de posición de movimiento de la mano izquierda o de la mano derecha.
- 4. El sistema de control de acuerdo con la reivindicación 1, que comprende además un dispositivo dealmacenamiento (206), ángulos de la dirección y direcciones de la dirección correspondientes a vectores de diferencia de posición de movimiento (406, 407) que se almacenan previamente en el dispositivo dealmacenamiento.
- 5. El sistema de control de acuerdo con la reivindicación 1, en el que el dispositivo accionador (204) es un motor de dirección, y en el que la estructura de dirección (202) es una cremallera de dirección y un engranaje de dirección.
- 6. Un vehículo eléctrico, que comprende el sistema de control de vehículo (200) de acuerdo con una cualquiera de las reivindicaciones 1-5.
- 7. Un método de control del vehículo para controlar la dirección de un vehículo, caracterizado por las siguientes etapas:proyectar la imagen de un volante (106);tomar imágenes de movimientos operativos de las manos de un conductor en la imagen del volante; determinar las posiciones de las manos de acuerdo con las imágenes de las manos;calcular vectores de diferencia de posición de movimiento (406, 407) de acuerdo con las posiciones de lasmanos;determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con los vectores de diferencia de posición de movimiento (406.407); yemitir una señal de control a un dispositivo accionador (204) de acuerdo con el ángulo de la dirección y con la dirección de la dirección, para controlar una estructura de dirección (202) para operar.
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562133991P | 2015-03-16 | 2015-03-16 | |
US201562133991P | 2015-03-16 | ||
US201562150848P | 2015-04-22 | 2015-04-22 | |
US201562150848P | 2015-04-22 | ||
US201562274110P | 2015-12-31 | 2015-12-31 | |
US201562274110P | 2015-12-31 | ||
US201615008416 | 2016-01-27 | ||
US15/008,416 US9586618B2 (en) | 2015-03-16 | 2016-01-27 | Vehicle control system for controlling steering of vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2669351T3 true ES2669351T3 (es) | 2018-05-25 |
Family
ID=55524203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16159375.1T Active ES2669351T3 (es) | 2015-03-16 | 2016-03-09 | Sistema de control de vehículo para controlar la dirección del vehículo |
Country Status (4)
Country | Link |
---|---|
US (2) | US9586618B2 (es) |
EP (3) | EP3336960A1 (es) |
CN (2) | CN105966456B (es) |
ES (1) | ES2669351T3 (es) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10173687B2 (en) | 2015-03-16 | 2019-01-08 | Wellen Sham | Method for recognizing vehicle driver and determining whether driver can start vehicle |
US10703211B2 (en) | 2015-03-16 | 2020-07-07 | Thunder Power New Energy Vehicle Development Company Limited | Battery pack, battery charging station, and charging method |
US9954260B2 (en) | 2015-03-16 | 2018-04-24 | Thunder Power New Energy Vehicle Development Company Limited | Battery system with heat exchange device |
US9866163B2 (en) | 2015-03-16 | 2018-01-09 | Thunder Power New Energy Vehicle Development Company Limited | Method for controlling operating speed and torque of electric motor |
US9550406B2 (en) | 2015-03-16 | 2017-01-24 | Thunder Power Hong Kong Ltd. | Thermal dissipation system of an electric vehicle |
US9533551B2 (en) | 2015-03-16 | 2017-01-03 | Thunder Power Hong Kong Ltd. | Electric vehicle thermal management system with series and parallel structure |
US9539988B2 (en) | 2015-03-16 | 2017-01-10 | Thunder Power Hong Kong Ltd. | Vehicle camera cleaning system |
US9586618B2 (en) | 2015-03-16 | 2017-03-07 | Thunder Power Hong Kong Ltd. | Vehicle control system for controlling steering of vehicle |
US9547373B2 (en) | 2015-03-16 | 2017-01-17 | Thunder Power Hong Kong Ltd. | Vehicle operating system using motion capture |
DE102016211209A1 (de) * | 2016-06-23 | 2017-12-28 | Zf Friedrichshafen Ag | Steuerung eines Kraftfahrzeugs |
WO2018097818A1 (en) * | 2016-11-22 | 2018-05-31 | Ford Global Technologies, Llc | Virtual reality interface to an autonomous vehicle |
CN108319369B (zh) * | 2018-02-01 | 2021-04-27 | 网易(杭州)网络有限公司 | 驾驶交互方法、装置、存储介质及处理器 |
CN109032478A (zh) * | 2018-06-05 | 2018-12-18 | 北京长城华冠汽车科技股份有限公司 | 用于触摸屏的手势识别方法 |
US11027764B2 (en) | 2018-06-27 | 2021-06-08 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle driving mode safety system |
CN110733437B (zh) * | 2018-07-19 | 2021-09-07 | 宝沃汽车(中国)有限公司 | 车辆自动控制系统、控制车辆行驶的方法及车辆 |
CN113993756A (zh) | 2019-06-19 | 2022-01-28 | 株式会社小糸制作所 | 车辆用清洁系统以及带有车辆用清洁器的传感器系统 |
US12091058B2 (en) | 2022-06-20 | 2024-09-17 | International Business Machines Corporation | Virtual steering wheel with autonomous vehicle |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11234958A (ja) | 1998-02-09 | 1999-08-27 | Hitachi Ltd | 電動送風機および電動送風機用モータ軸受支持部材ならびに空気調和機 |
JPH11231958A (ja) * | 1998-02-16 | 1999-08-27 | Toyota Motor Corp | 仮想操作体を用いた車両用操作装置 |
US6766036B1 (en) | 1999-07-08 | 2004-07-20 | Timothy R. Pryor | Camera based man machine interfaces |
KR100575906B1 (ko) | 2002-10-25 | 2006-05-02 | 미츠비시 후소 트럭 앤드 버스 코포레이션 | 핸드 패턴 스위치 장치 |
US7625287B2 (en) * | 2005-10-05 | 2009-12-01 | Nintendo Co., Ltd. | Driving game steering wheel simulation method and apparatus |
US20090278915A1 (en) | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
JP2007253640A (ja) * | 2006-03-20 | 2007-10-04 | Honda Motor Co Ltd | 操舵装置および操舵制御方法 |
CN100462047C (zh) * | 2007-03-21 | 2009-02-18 | 汤一平 | 基于全方位计算机视觉的安全驾驶辅助装置 |
KR101908033B1 (ko) | 2008-07-10 | 2018-12-10 | 리얼 뷰 이미징 리미티드 | 광시야각 디스플레이들 및 사용자 인터페이스들 |
US8775023B2 (en) * | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
JP4900460B2 (ja) * | 2009-12-14 | 2012-03-21 | 株式会社デンソー | 操舵装置用車輪把持検出装置、プログラム |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
JP5605617B2 (ja) * | 2010-05-26 | 2014-10-15 | アイシン精機株式会社 | 駐車支援装置 |
DE112011105430T5 (de) * | 2011-07-11 | 2014-04-17 | Toyota Jidosha Kabushiki Kaisha | Fahrzeug-Notfallevakuierungsvorrichtung |
WO2013101047A1 (en) * | 2011-12-29 | 2013-07-04 | Intel Corporation | Systems, methods, and apparatus for invehicle fiducial mark tracking and interpretation |
US20150367859A1 (en) * | 2012-12-21 | 2015-12-24 | Harman Becker Automotive Systems Gmbh | Input device for a motor vehicle |
US9226330B2 (en) * | 2013-09-10 | 2015-12-29 | Playtabase, LLC | Wireless motion activated user device with bi-modality communication |
US9586618B2 (en) | 2015-03-16 | 2017-03-07 | Thunder Power Hong Kong Ltd. | Vehicle control system for controlling steering of vehicle |
-
2016
- 2016-01-27 US US15/008,416 patent/US9586618B2/en active Active
- 2016-03-09 EP EP18155736.4A patent/EP3336960A1/en not_active Withdrawn
- 2016-03-09 ES ES16159375.1T patent/ES2669351T3/es active Active
- 2016-03-09 EP EP18155712.5A patent/EP3336959B1/en active Active
- 2016-03-09 EP EP16159375.1A patent/EP3070762B1/en not_active Not-in-force
- 2016-03-14 CN CN201610142899.XA patent/CN105966456B/zh not_active Expired - Fee Related
- 2016-03-14 CN CN201620193041.1U patent/CN206288072U/zh not_active Expired - Fee Related
-
2017
- 2017-01-31 US US15/420,980 patent/US10155530B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10155530B2 (en) | 2018-12-18 |
EP3070762B1 (en) | 2018-02-14 |
US9586618B2 (en) | 2017-03-07 |
EP3070762A1 (en) | 2016-09-21 |
US20160272242A1 (en) | 2016-09-22 |
US20170137052A1 (en) | 2017-05-18 |
EP3336959B1 (en) | 2019-11-06 |
EP3336960A1 (en) | 2018-06-20 |
EP3336959A1 (en) | 2018-06-20 |
CN105966456B (zh) | 2019-04-12 |
CN206288072U (zh) | 2017-06-30 |
CN105966456A (zh) | 2016-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2669351T3 (es) | Sistema de control de vehículo para controlar la dirección del vehículo | |
JP7102370B2 (ja) | 冗長超音波レーダを備える自律走行車{ autonomous driving vehicles with redundant ultrasonic radar } | |
KR102096726B1 (ko) | 자율 주행 차량의 운행을 위한 제어 오류 보정 계획 방법 | |
US10511878B2 (en) | System and method for providing content in autonomous vehicles based on perception dynamically determined at real-time | |
US9956876B2 (en) | System and method for providing content in autonomous vehicles based on real-time traffic information | |
KR102070530B1 (ko) | 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템 | |
US10705536B2 (en) | Method and system to manage vehicle groups for autonomous vehicles | |
US10394245B2 (en) | Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions | |
JP2018533517A (ja) | 電極を用いた、人間運転者が自律走行車の制御を引き継ぐメカニズム | |
KR102139426B1 (ko) | 자율 주행 차량을 위한 차량 위치점 전달 방법 | |
JP2019501435A (ja) | 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム | |
JP2016157427A (ja) | 視界遮断環境における自律移動体の操作方法 | |
US10088970B2 (en) | Interchangeable display of information panels on a dashboard | |
JP2020515446A (ja) | 衝突後の分析に基づく自動運転車の車両動作の最適化 | |
JP7309613B2 (ja) | 自律走行車中の非回避計画システムにおける障害物フィルタリングの方法 | |
JP2019151228A (ja) | 表示システム、及び、車載システム | |
CN111813594A (zh) | 用于自动驾驶车辆的基于硬件的系统的启动失效恢复方案 | |
TWM513433U (zh) | 車用導航裝置 | |
TWM447984U (zh) | 導航裝置 |