ES2669351T3 - Sistema de control de vehículo para controlar la dirección del vehículo - Google Patents

Sistema de control de vehículo para controlar la dirección del vehículo Download PDF

Info

Publication number
ES2669351T3
ES2669351T3 ES16159375.1T ES16159375T ES2669351T3 ES 2669351 T3 ES2669351 T3 ES 2669351T3 ES 16159375 T ES16159375 T ES 16159375T ES 2669351 T3 ES2669351 T3 ES 2669351T3
Authority
ES
Spain
Prior art keywords
hands
steering
image
control
position difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16159375.1T
Other languages
English (en)
Inventor
Wellen Sham
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thunder Power New Energy Vehicle Development Co Ltd
Original Assignee
Thunder Power New Energy Vehicle Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thunder Power New Energy Vehicle Development Co Ltd filed Critical Thunder Power New Energy Vehicle Development Co Ltd
Application granted granted Critical
Publication of ES2669351T3 publication Critical patent/ES2669351T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/24Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
    • B62D1/28Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
    • B62D1/286Systems for interrupting non-mechanical steering due to driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/021Determination of steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D5/00Power-assisted or power-driven steering
    • B62D5/04Power-assisted or power-driven steering electrical, e.g. using an electric servo-motor connected to, or forming part of, the steering gear
    • B62D5/0457Power-assisted or power-driven steering electrical, e.g. using an electric servo-motor connected to, or forming part of, the steering gear characterised by control features of the drive means as such
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/71Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
    • G06F21/74Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information operating in dual or compartmented mode, i.e. at least one secure mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/11Passenger cars; Automobiles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/12Motorcycles, Trikes; Quads; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/30Railway vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/50Aeroplanes, Helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/80Other vehicles not covered by groups B60Y2200/10 - B60Y2200/60
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/83Steering input members
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/12Electric charging stations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un sistema de control (200) para controlar la dirección de un aparato de conducción, en el que el sistema está caracterizado por: un dispositivo de proyección (114) configurado para proyectar la imagen de un volante (106) delante de un asiento del conductor; un dispositivo de cámara (116) configurado para tomar una imagen de los movimientos de una o dos manos sobre la imagen proyectada del volante (106); un procesador (110) configurado por instrucciones legibles por máquina para: determinar una posición de una o dos manos de acuerdo con la imagen de una o de las dos manos, calcular un movimiento de una o dos manos de acuerdo con la posición de una o de las dos manos, determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de una o de las dos manos, y emitir una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección; y un dispositivo accionador (204) configurado para recibir la señal de control y para efectuar un control del aparato de conducción de acuerdo con la señal de control.

Description

5
10
15
20
25
30
35
40
45
50
55
60
DESCRIPCION
Sistema de control de vehículo para controlar la dirección del vehículo Referencias cruzadas a solicitudes relacionadas
Esta solicitud reivindica el beneficio y la prioridad de la solicitud provisional de patente de Estados Unidos N.° 62/274.110, presentada el 31 de diciembre de 2015, titulada "VEHICLE CONTROL SYSTEM FOR CONTROLLING StEERING OF VEHICLE", que reivindica el beneficio y la prioridad de la solicitud provisional de patente de Estados Unidos N.° 62/133.991, presentada el 16 de marzo de 2015, titulada "IMPROVEMENTS TO ELECTRIC VEHICLES", y el beneficio y la prioridad de la solicitud provisional de patente de Estados Unidos N.° 62/150,848, presentada el 22 de abril de 2015, titulada "IMPROVEMENTS TO ELECTRIC VEHICLES".
Campo técnico
La presente invención se refiere a un sistema de control de vehículos y a un vehículo eléctrico que usa el sistema de control de vehículo, el sistema de control de vehículo que se utiliza para controlar la dirección de un vehículo.
Antecedentes de la invención
La dirección del vehículo existente normalmente se lleva a cabo controlando un volante físico, de modo que las cantidades de dirección y de par se detectan mediante un sensor de par que después se utiliza para controlar una fuente de alimentación en un sistema de dirección asistida, para asistir a la dirección mediante un motor que acciona una bomba de aceite o mediante un motor que produce una fuerza de asistencia. Como comienzo de una operación de dirección, un volante físico es indispensable, independientemente de qué tipo de sistema de dirección asistida se utilice.
La patente de Estados Unidos 2015 072 619 A1 divulga las características del preámbulo de las reivindicaciones 1 y 7.
Breve sumario de la invención
La presente invención tiene como objetivo proporcionar un sistema de control de vehículo para controlar la dirección de un aparato de conducción sin un volante físico.
De acuerdo con un primer aspecto de la presente invención, se proporciona un sistema de control para controlar la dirección del aparato de conducción. El sistema de control puede comprender un dispositivo de proyección de imágenes, un dispositivo de cámara, un procesador, un dispositivo accionador y/o cualquier otro componente. El dispositivo de proyección de imágenes puede configurarse para proyectar una imagen de un volante dentro del aparato de conducción. El dispositivo de cámara puede configurarse para tomar una imagen de un movimiento de una o dos manos en la imagen del volante. El procesador puede configurarse para determinar una posición de una o dos manos de acuerdo con la imagen de una o dos manos, para calcular un movimiento de una o dos manos, para determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de una o dos manos, para emitir una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección y/o cualquier otra operación. El dispositivo accionador puede configurarse para recibir la señal de control y para efectuar un control del aparato de conducción de acuerdo con la señal de control.
De acuerdo con un segundo aspecto de la presente invención, se proporciona un vehículo eléctrico, que incluye el sistema de control del vehículo de acuerdo con el primer aspecto de la presente invención.
De acuerdo con un tercer aspecto de la presente invención, se proporciona un método de control del vehículo para controlar la dirección de un aparato de conducción. El método comprende las siguientes etapas: proyectar una imagen de un volante; tomar imágenes de la(s) mano(s) del operario en la imagen del volante; determinar una posición de la(s) mano(s) del operario de acuerdo con las imágenes de la(s) mano(s); calcular un movimiento de la(s) mano(s); determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de la(s) mano(s); y emitir una señal de control a un dispositivo accionador de acuerdo con el ángulo de la dirección y con la dirección de la dirección, para controlar el aparato de conducción.
En comparación con la técnica anterior, los vehículos que utilizan el sistema de control de dirección de acuerdo con la presente invención no necesitan usar un volante físico, por lo que puede reducirse el peso y el coste de los vehículos. Además, el sistema de control de dirección de acuerdo con la presente invención proporciona a los conductores una experiencia de conducción completamente nueva.
5
10
15
20
25
30
35
40
45
50
55
60
65
Breve descripción de los dibujos
La presente invención se describe además en detalle a continuación con referencia a los dibujos adjuntos, en los que:
La figura 1 generalmente ilustra un ejemplo de un aparato de conducción 100 de acuerdo con la divulgación.
La figura 2 muestra un diagrama esquemático estructural de un sistema de control de acuerdo con un ejemplo de divulgación.
La figura 3 ilustra una configuración a modo de ejemplo de un procesador para implementar el mecanismo de control de acuerdo con la divulgación.
La figura 4 muestra un diagrama esquemático de un método para calcular vectores de diferencia de posición de movimiento de acuerdo con la presente invención.
La figura 5 muestra un diagrama de flujo de un método de control de vehículo de acuerdo con la presente invención; y
La figura 6 muestra un diagrama esquemático de un ejemplo de un sistema informático.
Descripción detallada de la invención
Las realizaciones del sistema de control de vehículo de acuerdo con la presente invención se describen a continuación con referencia a los dibujos adjuntos.
La figura 1 generalmente ilustra un ejemplo de un aparato de conducción 100 de acuerdo con la divulgación. El aparato de conducción 100 puede incluir cualquier aparato que se mueva en la distancia. Ejemplos de aparatos de conducción 100 pueden incluir un vehículo tal como un automóvil, un autobús, un tren, un camión, un tranvía o cualquier otro tipo de vehículo; pueden incluir una embarcación tal como un barco, un buque, una barcaza, un transbordador o cualquier otro tipo de vehículo acuático; pueden incluir una aeronave tal como un avión, una nave espacial o cualquier otro tipo de aeronave; o pueden incluir cualquier otro aparato de transporte. En un ejemplo, el aparato de conducción 100 es un automóvil eléctrico. Como se muestra, el aparato de conducción 100 puede incluir una cabina 101 con un volumen.
Como se muestra en la figura 1, en la cabina 101, puede haber un tablero de instrumentos 102 que tiene una pantalla 103. Aunque en este ejemplo, una pantalla 103 del tablero de instrumentos ocupa toda la superficie del tablero de instrumentos 102, esto no pretende ser limitante. Se contempla que, en algunos casos, la pantalla 103 del tablero de instrumentos puede ocupar una porción del tablero 102 en lugar de todo el tablero 102. En cualquier caso, la pantalla 103 del tablero de instrumentos es adecuada para visualizar uno o más paneles de información, tales como los paneles de información 104 mostrados en la figura 1. En las implementaciones, la pantalla 103 del tablero de instrumentos puede incluir cualquier tecnología de visualización, tal como pantallas de cristal líquido (LCD), cristal LCD, diodo emisor de luz (lEd), diodo orgánico emisor de luz (OLED), matriz activa de diodos orgánicos emisores de luz (AMOLED), plasma, panel de proyección, tubo de rayos catódicos (CRT) y/o cualquier otra tecnología de visualización.
En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de medidores relacionada con el aparato de transporte 100, tal como velocidad/altitud/dirección/viento actuales, longitud/latitud actuales, distancia recorrida, RPM, nivel de combustible, nivel de batería y/o cualquier otra información de medidores relacionada con el aparato de transporte 100. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de indicación, tal como información de indicación de los cinturones de seguridad, de los airbags, de las puertas, del maletero, de mantenimiento, de seguridad, del cierre de ventanas, del cierre de puertas o cualquier otra información de indicación. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de navegación o GPS relacionada con la navegación del aparato de conducción 100, tal como la calle actual recorrida, el mapa de un área en la que viaja el aparato de transporte 100, la información de destino, instrucciones de dirección, estado del tráfico, tiempo estimado de llegada, retraso estimado debido al tráfico y/o cualquier otra información de navegación.
En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de cabina, tal como temperatura actual, humedad, velocidad del viento, número de pasajeros en una o más zonas de la cabina 101 y/o cualquier otra información de cabina. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de configuración con respecto al aparato de transporte 100, tal como configuración de los asientos, configuración del espejo, configuración de la batería, configuración del modo de conducción, y/o cualquier otra configuración. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de entretenimiento. Por ejemplo, dicho panel de información puede incluir una pantalla de video capaz de presentar un video o imágenes fijas, una pantalla de navegador capaz de presentar
5
10
15
20
25
30
35
40
45
50
55
60
65
información web, una pantalla de juego capaz de presentar uno o más juegos para la interacción del usuario, una pantalla de información musical capaz de permitir al usuario consumir piezas de música, una pantalla de información de comercio electrónico capaz de permitir al usuario realizar transacciones remotas a través de Internet, una pantalla de información de radio capaz de presentar una lista de emisoras de radio disponibles para el consumo del usuario y/o cualquier otro tipo de pantalla de información y entretenimiento. En algunos ejemplos, la información presentada en los paneles de información 104 puede incluir información de notificación tal como una llamada entrante, un mensaje de texto entrante, una solicitud de chat de video entrante y/o cualquier otra información de notificación. Se contemplan otros ejemplos de paneles de información 104.
Como aún se muestra en la figura 1, el aparato de conducción 100 puede comprender uno o más volantes virtuales 106 en la cabina 101. Como se describirá con más detalle, el volante virtual 106 puede proyectarse desde un dispositivo de proyección de imágenes instalado en el aparato de conducción 100. Aunque en la figura 1 solo se muestra un volante virtual 106, esto no pretende ser limitante. En algunos ejemplos, el aparato de conducción 100 puede incluir más de un volante virtual 106.
Como también se muestra en la figura 1, uno o más usuarios 108 pueden estar dispuestos para ocupar sus posiciones correspondientes en la cabina 101. Los usuarios 108 pueden incluir uno o más conductores que controlan el volante virtual 106, uno o más pasajeros y/o cualquier otro tipo de usuarios 108. En este ejemplo, el usuario 108a es un conductor que controla la conducción del aparato de conducción 100, mientras que otros usuarios 108, por ejemplo, los usuarios 108b-d, son pasajeros. Como aún se muestra, puede haber múltiples filas de usuarios 108 dentro de la cabina 101 del aparato de transporte 100.
Como aún se muestra en la figura 1, el aparato de conducción 100 puede incluir uno o más procesadores 110 configurados para controlar uno o más sistemas o subsistemas eléctricos en el aparato de conducción 100. Los tipos de procesador 110 pueden incluir un procesador genérico configurado para ejecutar instrucciones legibles por máquina configuradas para implementar un mecanismo de control para controlar una estructura de control del aparato de conducción 100. Como también se muestra, el aparato de conducción 100 puede incluir uno o más de un dispositivo de proyección 114 configurado para proyectar una imagen del volante virtual 106 como se muestra. Como también se muestra, el aparato de conducción 100 puede incluir uno o más de un dispositivo de cámara configurado para tomar una imagen de una o dos manos de un operario del aparato de conducción en el volante virtual 106.
Habiéndose descrito en general el aparato de conducción 100, ahora se dirige la atención a la figura 2, en la que se ilustra un diagrama esquemático de un sistema de control 200 de acuerdo con la divulgación. El sistema de control 200 puede instalarse en el aparato de conducción 100. Se describirá con referencia a la figura 1. El sistema de control 200 puede comprender el dispositivo de proyección 114, el dispositivo de cámara 116, un procesador 110, un motor de dirección 204 que sirve como dispositivo accionador, una estructura de dirección 202, un dispositivo de almacenamiento 206 y/o cualquier otro componente. Como se ha mencionado anteriormente, el dispositivo de proyección 114 puede configurarse para proyectar la imagen de un volante 106 dentro de la cabina del aparato de conducción 100. En una realización, el dispositivo de proyección 114 proyecta la imagen del volante 106 delante del asiento del conductor.
El dispositivo de cámara 102 puede configurarse para tomar una imagen de un movimiento de una o dos manos de un operario del aparato de conducción 100 sobre la imagen del volante 106. En algunas implementaciones, el dispositivo de cámara 102 puede configurarse para tomar dicha imagen periódicamente, por ejemplo, una vez cada 1/12 segundos, cada 1/24 segundos, cada 1/36 segundos, y etcétera. Las imágenes tomadas por el dispositivo de cámara 102 pueden almacenarse en el dispositivo de almacenamiento 206 y pueden procesarse mediante el dispositivo de control 202.
El procesador 110 puede configurarse para realizar diversas operaciones para implementar un mecanismo de control para controlar una maniobra del aparato de conducción 100. La figura 3 ilustra una configuración a modo de ejemplo del procesador 110 para implementar el mecanismo de control de acuerdo con la divulgación. Como se muestra, el procesador 110 puede comprender un componente de determinación de posición de manos 302, un componente de información anterior 304, un componente de movimiento de manos 306, un componente de ángulo de la dirección y de dirección de la dirección 308, un componente de control 310 y/o cualquier otro componente. El componente de determinación de posición de manos 302 puede configurarse para determinar la posición de una o dos manos en la imagen del volante virtual 106 de acuerdo con las imágenes de la(s) mano(s) tomadas por el dispositivo de cámara 116. Como se muestra, el componente de determinación de posición de manos 302 puede recibir tales imágenes desde el dispositivo de cámara 116 periódicamente, por ejemplo, una vez cada 1/12 segundos, cada 1/24 segundos, cada 1/36 segundos, y etcétera. El componente de determinación de posición de manos 302 puede configurarse con un algoritmo de reconocimiento de imágenes para reconocer una posición de la(s) mano(s) en la imagen del volante virtual 106. Haciendo referencia ahora a la figura 4, los números 403 y 405 en la imagen del volante virtual 106 en el momento T (derecha) indican posiciones de las manos en el momento actual que pueden determinarse mediante el componente de determinación de posición de manos 302 a través de un algoritmo de reconocimiento de imágenes. Volviendo a la figura 3, una vez que se ha determinado la posición de la
5
10
15
20
25
30
35
40
45
50
55
60
65
mano en la imagen del volante virtual 106, el componente de determinación de posición de manos 302 puede configurarse para generar la información de la posición y para almacenarla en el dispositivo de almacenamiento 206. El dispositivo de almacenamiento 206 puede configurarse para almacenar la información de la posición de la mano durante un período de tiempo a medida que el componente de determinación de posición de manos 302 continúa enviando la información de la posición en instantes de tiempo específicos periódicamente.
El componente de información anterior 304 puede configurarse para obtener información de la posición anterior con respecto a las manos en la imagen del volante virtual 106. Por ejemplo, el componente de información anterior 304 puede configurarse para buscar información de la posición de las manos en cualquier instante de tiempo anterior almacenada en el dispositivo de almacenamiento 206. Haciendo referencia ahora a la figura 4, las posiciones 402 y 404 en la imagen del volante virtual 106 en el momento TO (izquierda) representan las posiciones de las manos anteriores almacenadas en el dispositivo de almacenamiento 206.
Volviendo a la figura 3, el componente de movimiento de manos 306 puede configurarse para calcular el movimiento de una mano basándose en la información de la posición actual determinada por el componente de determinación de posición de manos 302 y en la información de la posición anterior recuperada por el componente de información anterior 304. Por ejemplo, el componente de movimiento de manos 306 puede calcular un movimiento de manos basándose en la posición de la mano en la imagen del volante virtual 106 en T1 (momento actual) y la posición de la mano en la imagen del volante virtual 106 en T0 (inmediatamente antes de T1). Haciendo referencia de nuevo a la figura 4, los vectores 406 y 407 pueden calcularse mediante el componente de movimiento de manos 306 para representar las diferencias entre las posiciones 403, 405 de las manos en el ciclo actual y las posiciones 402, 404 de las manos en el ciclo anterior.
Volviendo a la figura 3, el componente de ángulo de la dirección y de dirección de la dirección 308 puede configurarse para determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con los vectores de diferencia de posición de movimiento determinados por el componente de movimiento de manos 306. El componente de ángulo de la dirección y de dirección de la dirección 308 puede configurarse para emitir una corriente y una tensión correspondientes como una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección, para controlar el motor de dirección 204. Volviendo a la figura 2, el motor de dirección 204 emite potencia para permitir que la estructura de dirección 202 conduzca las ruedas del vehículo para girar en dirección. La estructura de dirección 202 puede emplear una cremallera de dirección y un engranaje de dirección.
La figura 5 ilustra un ejemplo de un proceso 500 para controlar un vehículo usando la imagen de un volante virtual proyectada dentro del vehículo. El proceso 500 se ilustra como un diagrama de flujo lógico, cuya operación representa una secuencia de operaciones que pueden implementarse en hardware, en instrucciones informáticas o en una combinación de los mismos. En el contexto de las instrucciones informáticas, las operaciones representan instrucciones ejecutables por ordenador almacenadas en uno o más medios de almacenamiento legibles por ordenador que, cuando se ejecutan por uno o más procesadores, realizan las operaciones enumeradas.
Generalmente, las instrucciones ejecutables por ordenador incluyen rutinas, programas, objetos, componentes, estructuras de datos y similares que realizan funciones particulares o implementan tipos de datos particulares. El orden en que se describen las operaciones no pretende ser interpretado como una limitación, y cualquier número de las operaciones descritas puede combinarse en cualquier orden y/o en paralelo para implementar los procesos.
En la etapa 501, puede utilizarse un dispositivo de proyección para proyectar una imagen de volante delante de un conductor del vehículo. El método de proyección específico puede usar el método en la técnica anterior conocido por los expertos en la materia, y la estructura específica del dispositivo de proyección puede ser la del dispositivo existente capaz de realizar proyección de aire.
En la 502, el dispositivo de la cámara toma imágenes de movimientos operativos de ambas manos del conductor en la imagen del volante. El campo de la toma para ambas manos del conductor en la carga del dispositivo de cámara está limitado dentro de los límites de la imagen del volante, es decir, los movimientos de ambas manos del conductor dentro de los límites de la imagen del volante se consideran movimientos operativos de dirección efectivos, mientras que los movimientos fuera de los límites de la imagen del volante se consideran inválidos. Tal configuración puede prevenir de manera efectiva el mal funcionamiento, a fin de mejorar la seguridad de conducción.
En la etapa 503, puede determinarse una posición de ambas manos. En algunas realizaciones, la etapa 503 puede realizarse mediante un componente de determinación de posición de manos igual o sustancialmente similar al componente de determinación de posición de manos 302 descrito e ilustrado en el presente documento. Como se ha descrito anteriormente, el componente de determinación de posición de manos puede determinar las posiciones de las manos de acuerdo con las imágenes de las manos. Específicamente, las posiciones de las manos en la imagen del volante se determinan de acuerdo con las imágenes de las manos en las imágenes tomadas por el dispositivo de cámara. Debe observarse que en la presente realización, no se imponen restricciones sobre el gesto de las manos específico del conductor, es decir, no importa qué gesto de la mano haga el conductor, las posiciones de las manos se determinarán de acuerdo con las imágenes de las manos, de modo que el conductor pueda realizar la operación
5
10
15
20
25
30
35
40
45
50
55
60
65
de dirección libremente utilizando su gesto operativo habitual. Dado que un ciclo de etapas de control de la dirección se lleva a cabo a intervalos dados, las imágenes de las manos en cada ciclo de etapas de control de la dirección se convierten a las posiciones de las manos que posteriormente se almacenan en el dispositivo de almacenamiento.
En la 504, las diferencias de posición de movimiento pueden calcularse basándose en la información de posición determinada en la etapa 502. En algunas realizaciones, la etapa 504 puede realizarse mediante un componente de movimiento de manos igual o sustancialmente similar al componente de movimiento de manos 306 descrito e ilustrado en el presente documento. Como se ha descrito anteriormente, el componente de movimiento de manos puede calcular vectores de diferencia de posición de movimiento de acuerdo con las posiciones de las manos. La figura 4 muestra un diagrama esquemático de un método para calcular los vectores de diferencia de posición de movimiento de acuerdo con la presente invención.
Para evitar juicios erróneos, se introduce una etapa de verificación en esta realización, concretamente se verifica si la operación de la mano izquierda es coherente con la operación de la mano derecha, y las siguientes etapas se realizan solo cuando la verificación de coherencia es exitosa. Específicamente como se muestra en la figura 4, después de que el dispositivo de cámara toma imágenes de movimientos operativos de las manos izquierda y derecha simultáneamente en la imagen del volante, el componente de movimiento de manos puede determinar la posición 405 de la mano izquierda en el ciclo actual y la posición 403 de la mano derecha en el ciclo actual, y posteriormente el componente de movimiento de manos 306 puede calcular el vector 407 de diferencia de posición de movimiento de mano izquierda de acuerdo con la posición 405 de la mano izquierda en este ciclo y con la
posición 404 de la mano izquierda en el ciclo anterior almacenada en el dispositivo de almacenamiento 206, y el
vector 406 de diferencia de posición de movimiento de la mano derecha de acuerdo con la posición 403 de la mano derecha en el ciclo actual y con la posición 405 de la mano izquierda en el ciclo anterior almacenada en el dispositivo de almacenamiento 206.
En la etapa 505, se determina si el módulo del vector 406 de diferencia de posición de movimiento de la mano izquierda es coherente con el del vector 407 de diferencia de posición de movimiento de la mano derecha, en la que el método de cálculo del módulo del vector es el mismo que en las matemáticas comunes, y los valores numéricos no son necesariamente los mismos cuando se juzga si los dos son coherentes entre sí, es aceptable siempre que se
encuentren en un cierto intervalo de error. Cuando la verificación de coherencia es exitosa, se indica que la
operación de la mano izquierda es más o menos coherente con la operación de la mano derecha. Cuando la verificación de coherencia no es exitosa, se indica que la operación de la mano izquierda es diferente de la operación de la mano derecha, y de este modo el proceso vuelve a la etapa 505. Debido a dicha configuración, el sistema de control no juzgará mal la operación del conductor como operaciones de dirección cuando realiza otra operación en lugar de la operación de dirección con una mano, por lo que el juicio es más preciso.
En la 506, se determina un ángulo de la dirección y una dirección de la dirección de acuerdo con los vectores de diferencia de posición de movimiento. En ciertas implementaciones, la etapa 506 puede realizarse mediante un componente de ángulo de la dirección y de dirección de la dirección igual o sustancialmente similar al componente de ángulo de la dirección y de dirección de la dirección 308 descrito e ilustrado en el presente documento. Específicamente, cuando se verifica que el módulo del vector 406 de diferencia de posición de movimiento de la mano izquierda es coherente con el vector 407 de diferencia de posición de movimiento de la mano derecha, el ángulo de la dirección y la dirección de la dirección se determinan de acuerdo con el vector 406 de diferencia de posición de movimiento de la mano derecha o con el vector 407 de diferencia de posición de movimiento de la mano izquierda. En algunas realizaciones, se configura que el ángulo de la dirección y la dirección de la dirección se determinan de acuerdo con el vector 406 de diferencia de posición de movimiento de la mano derecha. Los ángulos de dirección y las direcciones de dirección correspondientes a los vectores de diferencia de posición de movimiento respectivos se almacenan previamente en el dispositivo de almacenamiento 206, en base a lo cual el componente de ángulo de la dirección y de dirección de la dirección descubre la dirección de la dirección y el ángulo de la dirección correspondientes al vector 406 de diferencia de posición de movimiento de la mano derecha.
En la etapa 507, la corriente y la tensión pueden enviarse al motor de dirección 104 que sirve como un dispositivo accionador de acuerdo con la dirección de la dirección y el ángulo de la dirección determinados en la etapa 506, para controlar la potencia de salida del motor de dirección 104. En ciertas implementaciones, la etapa 507 puede realizarse mediante un componente de control igual o sustancialmente similar al componente de control 310 descrito e ilustrado en el presente documento.
En la etapa 508, el motor de dirección 104 puede controlar la dirección de la estructura de dirección 202. En esta realización, la estructura de dirección 202 puede incluir una cremallera de dirección y un engranaje de dirección. El motor de dirección, la cremallera de dirección y el engranaje de dirección son similares a los del sistema de dirección asistida existente, y no se describirán en detalle en el presente documento.
Después de que se completa la etapa 508, el proceso vuelve a la etapa 505 nuevamente después de que haya transcurrido un intervalo de tiempo para el sistema de control, y las etapas se repiten como se ha descrito anteriormente.
5
10
15
20
25
30
35
40
45
50
55
60
65
Con referencia a la figura 6, se muestra un diagrama esquemático de un ejemplo de un sistema informático 600. Este sistema es solo a modo de ejemplo y un experto en la materia reconocerá que son posibles variaciones y modificaciones. El sistema 600 puede utilizarse para las operaciones descritas anteriormente. Por ejemplo, el sistema informático mostrado en la figura 6 puede utilizarse para implementar cualquiera o todas las técnicas y rutinas descritas en el presente documento para facilitar una visualización dinámica de la fuerza de frenado.
El sistema 600 incluye un procesador 610, una memoria 620, un dispositivo de almacenamiento 630 y una interfaz de entrada/salida 640. Cada uno de los componentes 610, 620, 630 y 640 están interconectados usando un bus de sistema 650. El procesador 610 es capaz de procesar instrucciones para su ejecución dentro del sistema 600. En una implementación, el procesador 610 es un procesador de un solo hilo. En otra implementación, el procesador 610 es un procesador de múltiples hilos. El procesador 610 es capaz de procesar instrucciones almacenadas en la memoria 620 o en el dispositivo de almacenamiento 630 para proporcionar información gráfica a través de la interfaz de entrada/salida 640 para visualizarla en una interfaz de usuario de uno o más dispositivos de entrada/salida 6100.
La memoria 620 almacena información dentro del sistema 600 y puede estar asociada con varias características e implementaciones. Por ejemplo, la memoria 620 puede incluir varios tipos de medios legibles por ordenador tales como una memoria volátil, una memoria no volátil y otros tipos de tecnología de memoria, individualmente o en combinación.
El dispositivo de almacenamiento 630 es capaz de proporcionar almacenamiento masivo para el sistema 600. En una implementación, el dispositivo de almacenamiento 630 es un medio legible por ordenador. En diversas implementaciones diferentes, el dispositivo de almacenamiento 630 puede ser un dispositivo de disquete, un dispositivo de disco duro, un dispositivo de disco óptico o un dispositivo de cinta.
El dispositivo de entrada/salida 6100 proporciona operaciones de entrada/salida para el sistema 600. En una implementación, el dispositivo de entrada/salida 6100 incluye un teclado y/o un dispositivo de puntero. En otra implementación, el dispositivo de entrada/salida 6100 incluye una unidad de visualización para visualizar interfaces gráficas de usuario.
Las características descritas pueden implementarse en circuitos electrónicos digitales, o en hardware, firmware, software informático o en combinaciones de ellos. El aparato puede implementarse en un producto de programa informático tangiblemente incorporado en un soporte de información, por ejemplo, en un dispositivo de almacenamiento legible por máquina, para su ejecución por un procesador programable; y las etapas del método pueden realizarse mediante un procesador programable que ejecuta un programa de instrucciones para realizar funciones de las implementaciones descritas operando en datos de entrada y generando resultados datos de salida. Las características descritas pueden implementarse ventajosamente en uno o más programas informáticos que son ejecutables en un sistema programable que incluye al menos un procesador programable acoplado para recibir datos e instrucciones de, y para transmitir datos e instrucciones a, un sistema de almacenamiento de datos, a al menos un dispositivo de entrada, y a al menos un dispositivo de salida. Un programa informático es un conjunto de instrucciones que pueden utilizarse, directa o indirectamente, en un ordenador para realizar una determinada actividad o para producir un determinado resultado. Un programa informático puede escribirse en cualquier forma de lenguaje de programación, incluidos los lenguajes compilados o interpretados, y puede implementarse de cualquier forma, incluso como un programa independiente o como un módulo, componente, subrutina u otra unidad adecuada para su uso en un entorno informático.
Los procesadores adecuados para la ejecución de un programa de instrucciones incluyen, a modo de ejemplo, microprocesadores tanto generales como especiales, y el único procesador o uno de múltiples procesadores de cualquier tipo de ordenador. Generalmente, un procesador recibirá instrucciones y datos de una memoria de solo lectura o de una memoria de acceso aleatorio o de ambas. Los elementos esenciales de un ordenador son un procesador para ejecutar instrucciones y una o más memorias para almacenar instrucciones y datos. Generalmente, un ordenador también incluirá, o estará operativamente acoplado para comunicarse con, uno o más dispositivos de almacenamiento masivo para almacenar archivos de datos; dichos dispositivos incluyen discos magnéticos, tales como discos duros internos y discos extraíbles; discos magneto-ópticos; y discos ópticos. Los dispositivos de almacenamiento adecuados para incorporar de forma tangible instrucciones y datos de programas informáticos incluyen todas las formas de memoria no volátil, incluyendo a modo de ejemplo dispositivos de memoria semiconductores, tales como EPROM, EEPROM y dispositivos de memoria flash; discos magnéticos tales como discos duros internos y discos extraíbles; discos magneto-ópticos; y discos CD-ROM y DVD-ROM. El procesador y la memoria pueden complementarse con, o incorporarse en, ASIC (circuitos integrados específicos de la aplicación).
Las características pueden implementarse en un sistema informático que incluye un componente en etapa final, como un servidor de datos, o que incluye un componente de soporte intermedio, como un servidor de aplicaciones o un servidor de Internet, o que incluye un componente en etapa inicial, como un ordenador cliente que tiene una interfaz gráfica de usuario o un navegador de Internet, o cualquier combinación de ellos. Los componentes del sistema pueden conectarse mediante cualquier forma o medio de comunicación de datos digitales, como una red de comunicación. Ejemplos de redes de comunicación incluyen, por ejemplo, una LAN, una WAN y los ordenadores y redes que forman Internet.
5
10
15
20
25
30
35
El sistema informático puede incluir clientes y servidores. Un cliente y un servidor generalmente son remotos entre sí y suelen interactuar a través de una red, como la descrita. La relación del cliente y el servidor surge en virtud de los programas informáticos que se ejecutan en los ordenadores respectivos y que tienen una relación cliente-servidor entre sí. Aunque algunas implementaciones se han descrito en detalle anteriormente, son posibles otras modificaciones.
Además, los flujos lógicos representados en las figuras no requieren el orden particular mostrado, o el orden secuencial, para lograr resultados deseables. Además, pueden proporcionarse otras etapas, o pueden eliminarse etapas, de los flujos descritos, y pueden agregarse o eliminarse otros componentes de los sistemas descritos. Por consiguiente, otras implementaciones están dentro del alcance de las siguientes reivindicaciones.
Cuando los componentes se describen como configurados para realizar ciertas operaciones, dicha configuración puede lograrse, por ejemplo, diseñando circuitos electrónicos u otro hardware para realizar la operación, programando circuitos electrónicos programables (por ejemplo, microprocesadores u otros circuitos electrónicos adecuados) para realizar la operación, o cualquier combinación de los mismos.
Se han descrito varias realizaciones de la invención. Sin embargo, se entenderá que pueden realizarse diversas modificaciones sin apartarse del alcance de la invención.
La memoria descriptiva y los dibujos son, por consiguiente, para ser considerados en un sentido ilustrativo en lugar de restrictivo. Sin embargo, será evidente que pueden realizarse adiciones, sustracciones, eliminaciones y otras modificaciones y cambios sin apartarse del alcance más amplio. Los métodos y sistemas ilustrativos para proporcionar características de la presente divulgación se han descrito anteriormente. Algunos o todos estos sistemas y métodos pueden, pero no necesitan, implementarse al menos parcialmente mediante arquitecturas tales como las mostradas en las figuras 1-7.
Aunque las realizaciones se han descrito en un lenguaje específico para características estructurales y/o actos metodológicos, debe entenderse que la divulgación no está necesariamente limitada a las características o actos específicos descritos. Por el contrario, las características y actos específicos se divulgan como formas ilustrativas de implementación de las realizaciones. El lenguaje condicional, tal como, entre otros, "puede", "podría", "puede que", a menos que se indique específicamente lo contrario, o se entienda dentro del contexto como se usa, generalmente pretende transmitir que ciertas realizaciones podrían incluir, mientras que otras realizaciones no incluyen, ciertas características, elementos y/o etapas. Por lo tanto, dicho lenguaje condicional generalmente no pretende implicar que las características, elementos y/o etapas sean de ninguna manera necesarios para una o más realizaciones o que una o más realizaciones necesariamente incluyan lógica para decidir, con o sin intervención o pautas del usuario, si estas características, elementos y/o etapas están incluidos o deben realizarse en cualquier realización particular.

Claims (7)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    REIVINDICACIONES
    1. Un sistema de control (200) para controlar la dirección de un aparato de conducción, en el que el sistema está caracterizado por:
    un dispositivo de proyección (114) configurado para proyectar la imagen de un volante (106) delante de un asiento del conductor;
    un dispositivo de cámara (116) configurado para tomar una imagen de los movimientos de una o dos manos sobre la imagen proyectada del volante (106);
    un procesador (110) configurado por instrucciones legibles por máquina para:
    determinar una posición de una o dos manos de acuerdo con la imagen de una o de las dos manos, calcular un movimiento de una o dos manos de acuerdo con la posición de una o de las dos manos, determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con el movimiento de una o de las dos manos, y
    emitir una señal de control de acuerdo con el ángulo de la dirección y con la dirección de la dirección; y un dispositivo accionador (204) configurado para recibir la señal de control y para efectuar un control del aparato de conducción de acuerdo con la señal de control.
  2. 2. El sistema de control de acuerdo con la reivindicación 1, que comprende además un dispositivo de almacenamiento (206), almacenando el dispositivo de almacenamiento las posiciones de las manos;
    en el que el procesador (110) está configurado además para calcular la diferencia de posición de acuerdo con las posiciones de las manos y con las posiciones de las manos almacenadas determinadas en un momento anterior, para formar los vectores de diferencia de posición de movimiento (406, 407).
  3. 3. El sistema de control de acuerdo con la reivindicación 1,
    en el que el dispositivo de cámara (116) está configurado para tomar imágenes de movimientos de las manos izquierda y derecha en la imagen del volante (106); y
    en el que el procesador (110) está configurado para calcular por separado un vector (406) de diferencia de posición de movimiento de la mano izquierda y un vector (407) de diferencia de posición de movimiento de la mano derecha, verifica si el módulo del vector (406) de diferencia de posición de movimiento de la mano izquierda es coherente con el del vector (407) de diferencia de posición de movimiento de la mano derecha y, si es así, determina el ángulo de la dirección y la dirección de la dirección de acuerdo con el vector de diferencia de posición de movimiento de la mano izquierda o de la mano derecha.
  4. 4. El sistema de control de acuerdo con la reivindicación 1, que comprende además un dispositivo de
    almacenamiento (206), ángulos de la dirección y direcciones de la dirección correspondientes a vectores de diferencia de posición de movimiento (406, 407) que se almacenan previamente en el dispositivo de
    almacenamiento.
  5. 5. El sistema de control de acuerdo con la reivindicación 1, en el que el dispositivo accionador (204) es un motor de dirección, y en el que la estructura de dirección (202) es una cremallera de dirección y un engranaje de dirección.
  6. 6. Un vehículo eléctrico, que comprende el sistema de control de vehículo (200) de acuerdo con una cualquiera de las reivindicaciones 1-5.
  7. 7. Un método de control del vehículo para controlar la dirección de un vehículo, caracterizado por las siguientes etapas:
    proyectar la imagen de un volante (106);
    tomar imágenes de movimientos operativos de las manos de un conductor en la imagen del volante; determinar las posiciones de las manos de acuerdo con las imágenes de las manos;
    calcular vectores de diferencia de posición de movimiento (406, 407) de acuerdo con las posiciones de las
    manos;
    determinar un ángulo de la dirección y una dirección de la dirección de acuerdo con los vectores de diferencia de posición de movimiento (406.407); y
    emitir una señal de control a un dispositivo accionador (204) de acuerdo con el ángulo de la dirección y con la dirección de la dirección, para controlar una estructura de dirección (202) para operar.
ES16159375.1T 2015-03-16 2016-03-09 Sistema de control de vehículo para controlar la dirección del vehículo Active ES2669351T3 (es)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201562133991P 2015-03-16 2015-03-16
US201562133991P 2015-03-16
US201562150848P 2015-04-22 2015-04-22
US201562150848P 2015-04-22
US201562274110P 2015-12-31 2015-12-31
US201562274110P 2015-12-31
US201615008416 2016-01-27
US15/008,416 US9586618B2 (en) 2015-03-16 2016-01-27 Vehicle control system for controlling steering of vehicle

Publications (1)

Publication Number Publication Date
ES2669351T3 true ES2669351T3 (es) 2018-05-25

Family

ID=55524203

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16159375.1T Active ES2669351T3 (es) 2015-03-16 2016-03-09 Sistema de control de vehículo para controlar la dirección del vehículo

Country Status (4)

Country Link
US (2) US9586618B2 (es)
EP (3) EP3336960A1 (es)
CN (2) CN105966456B (es)
ES (1) ES2669351T3 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10173687B2 (en) 2015-03-16 2019-01-08 Wellen Sham Method for recognizing vehicle driver and determining whether driver can start vehicle
US10703211B2 (en) 2015-03-16 2020-07-07 Thunder Power New Energy Vehicle Development Company Limited Battery pack, battery charging station, and charging method
US9954260B2 (en) 2015-03-16 2018-04-24 Thunder Power New Energy Vehicle Development Company Limited Battery system with heat exchange device
US9866163B2 (en) 2015-03-16 2018-01-09 Thunder Power New Energy Vehicle Development Company Limited Method for controlling operating speed and torque of electric motor
US9550406B2 (en) 2015-03-16 2017-01-24 Thunder Power Hong Kong Ltd. Thermal dissipation system of an electric vehicle
US9533551B2 (en) 2015-03-16 2017-01-03 Thunder Power Hong Kong Ltd. Electric vehicle thermal management system with series and parallel structure
US9539988B2 (en) 2015-03-16 2017-01-10 Thunder Power Hong Kong Ltd. Vehicle camera cleaning system
US9586618B2 (en) 2015-03-16 2017-03-07 Thunder Power Hong Kong Ltd. Vehicle control system for controlling steering of vehicle
US9547373B2 (en) 2015-03-16 2017-01-17 Thunder Power Hong Kong Ltd. Vehicle operating system using motion capture
DE102016211209A1 (de) * 2016-06-23 2017-12-28 Zf Friedrichshafen Ag Steuerung eines Kraftfahrzeugs
WO2018097818A1 (en) * 2016-11-22 2018-05-31 Ford Global Technologies, Llc Virtual reality interface to an autonomous vehicle
CN108319369B (zh) * 2018-02-01 2021-04-27 网易(杭州)网络有限公司 驾驶交互方法、装置、存储介质及处理器
CN109032478A (zh) * 2018-06-05 2018-12-18 北京长城华冠汽车科技股份有限公司 用于触摸屏的手势识别方法
US11027764B2 (en) 2018-06-27 2021-06-08 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle driving mode safety system
CN110733437B (zh) * 2018-07-19 2021-09-07 宝沃汽车(中国)有限公司 车辆自动控制系统、控制车辆行驶的方法及车辆
CN113993756A (zh) 2019-06-19 2022-01-28 株式会社小糸制作所 车辆用清洁系统以及带有车辆用清洁器的传感器系统
US12091058B2 (en) 2022-06-20 2024-09-17 International Business Machines Corporation Virtual steering wheel with autonomous vehicle

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234958A (ja) 1998-02-09 1999-08-27 Hitachi Ltd 電動送風機および電動送風機用モータ軸受支持部材ならびに空気調和機
JPH11231958A (ja) * 1998-02-16 1999-08-27 Toyota Motor Corp 仮想操作体を用いた車両用操作装置
US6766036B1 (en) 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
KR100575906B1 (ko) 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
US7625287B2 (en) * 2005-10-05 2009-12-01 Nintendo Co., Ltd. Driving game steering wheel simulation method and apparatus
US20090278915A1 (en) 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
JP2007253640A (ja) * 2006-03-20 2007-10-04 Honda Motor Co Ltd 操舵装置および操舵制御方法
CN100462047C (zh) * 2007-03-21 2009-02-18 汤一平 基于全方位计算机视觉的安全驾驶辅助装置
KR101908033B1 (ko) 2008-07-10 2018-12-10 리얼 뷰 이미징 리미티드 광시야각 디스플레이들 및 사용자 인터페이스들
US8775023B2 (en) * 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
JP4900460B2 (ja) * 2009-12-14 2012-03-21 株式会社デンソー 操舵装置用車輪把持検出装置、プログラム
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP5605617B2 (ja) * 2010-05-26 2014-10-15 アイシン精機株式会社 駐車支援装置
DE112011105430T5 (de) * 2011-07-11 2014-04-17 Toyota Jidosha Kabushiki Kaisha Fahrzeug-Notfallevakuierungsvorrichtung
WO2013101047A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Systems, methods, and apparatus for invehicle fiducial mark tracking and interpretation
US20150367859A1 (en) * 2012-12-21 2015-12-24 Harman Becker Automotive Systems Gmbh Input device for a motor vehicle
US9226330B2 (en) * 2013-09-10 2015-12-29 Playtabase, LLC Wireless motion activated user device with bi-modality communication
US9586618B2 (en) 2015-03-16 2017-03-07 Thunder Power Hong Kong Ltd. Vehicle control system for controlling steering of vehicle

Also Published As

Publication number Publication date
US10155530B2 (en) 2018-12-18
EP3070762B1 (en) 2018-02-14
US9586618B2 (en) 2017-03-07
EP3070762A1 (en) 2016-09-21
US20160272242A1 (en) 2016-09-22
US20170137052A1 (en) 2017-05-18
EP3336959B1 (en) 2019-11-06
EP3336960A1 (en) 2018-06-20
EP3336959A1 (en) 2018-06-20
CN105966456B (zh) 2019-04-12
CN206288072U (zh) 2017-06-30
CN105966456A (zh) 2016-09-28

Similar Documents

Publication Publication Date Title
ES2669351T3 (es) Sistema de control de vehículo para controlar la dirección del vehículo
JP7102370B2 (ja) 冗長超音波レーダを備える自律走行車{ autonomous driving vehicles with redundant ultrasonic radar }
KR102096726B1 (ko) 자율 주행 차량의 운행을 위한 제어 오류 보정 계획 방법
US10511878B2 (en) System and method for providing content in autonomous vehicles based on perception dynamically determined at real-time
US9956876B2 (en) System and method for providing content in autonomous vehicles based on real-time traffic information
KR102070530B1 (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
US10705536B2 (en) Method and system to manage vehicle groups for autonomous vehicles
US10394245B2 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
JP2018533517A (ja) 電極を用いた、人間運転者が自律走行車の制御を引き継ぐメカニズム
KR102139426B1 (ko) 자율 주행 차량을 위한 차량 위치점 전달 방법
JP2019501435A (ja) 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム
JP2016157427A (ja) 視界遮断環境における自律移動体の操作方法
US10088970B2 (en) Interchangeable display of information panels on a dashboard
JP2020515446A (ja) 衝突後の分析に基づく自動運転車の車両動作の最適化
JP7309613B2 (ja) 自律走行車中の非回避計画システムにおける障害物フィルタリングの方法
JP2019151228A (ja) 表示システム、及び、車載システム
CN111813594A (zh) 用于自动驾驶车辆的基于硬件的系统的启动失效恢复方案
TWM513433U (zh) 車用導航裝置
TWM447984U (zh) 導航裝置