FR2956364A1 - Driver assistance device for handling e.g. car around building site, has processing unit generating image data defining image to be displayed in vehicle, where image data represents part of vehicle based on relative position of head - Google Patents
Driver assistance device for handling e.g. car around building site, has processing unit generating image data defining image to be displayed in vehicle, where image data represents part of vehicle based on relative position of head Download PDFInfo
- Publication number
- FR2956364A1 FR2956364A1 FR1051152A FR1051152A FR2956364A1 FR 2956364 A1 FR2956364 A1 FR 2956364A1 FR 1051152 A FR1051152 A FR 1051152A FR 1051152 A FR1051152 A FR 1051152A FR 2956364 A1 FR2956364 A1 FR 2956364A1
- Authority
- FR
- France
- Prior art keywords
- vehicle
- driver
- head
- view
- processing means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 48
- 230000007613 environmental effect Effects 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 6
- 239000004020 conductor Substances 0.000 claims 2
- 230000000007 visual effect Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009958 sewing Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/31—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/10—Interpretation of driver requests or demands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/28—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/306—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/20—Details of the management of multiple sources of image data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
DISPOSITIF D'AIDE AUX MANOEUVRES D'UN VÉHICULE PAR AFFICHAGE DE POINTS DE VUE FONCTION DE LA POSITION DE LA TÊTE DU CONDUCTEUR L'invention concerne les véhicules, éventuellement de type terrestre, et plus précisément les dispositifs embarqués qui permettent d'aider les conducteurs à manoeuvrer leurs véhicules. Comme le sait l'homme de l'art, de nombreuses solutions ont été Zo proposées pour aider le conducteur d'un véhicule, comme par exemple un véhicule automobile, à effectuer une manoeuvre. L'aide peut être sonore et/ou visuelle. Les solutions visuelles proposent toutes d'afficher sur un écran implanté dans le véhicule des images réelles (éventuellement traitées) 15 représentatives d'une partie de l'environnement du véhicule, capturées par au moins une caméra, et/ou des images de synthèse matérialisant, dans une vue du dessus bidimensionnelle (2D), le positionnement relatif d'une partie au moins du véhicule dans son environnement. On notera que les images affichées peuvent éventuellement comporter des lignes et/ou marques et/ou 20 informations adjointes par superposition ou insertion. Les solutions visuelles sont plus intuitives que les solutions purement sonores, mais certaines informations qu'elles fournissent peuvent s'avérer difficiles à comprendre et/ou à utiliser en temps réel et/ou le mode de présentation utilisé peut s'avérer plus perturbant qu'utile. 25 Ainsi, les solutions offrant une aide visuelle directe par caméra(s) permettent de visualiser des zones non observables directement par le conducteur, mais les déformations des objets affichés, résultant des optiques grand-angle, rendent difficiles les estimations des distances réelles, et les champs visualisés sont généralement peu étendus. 30 Les solutions visuelles dites "vision à 360°" offrent une vue d'ensemble du véhicule et de son environnement proche, généralement du dessus et donc en image de synthèse. Le champ observable est donc plus complet en terme de surface couverte, mais l'affichage d'une image de synthèse avec éventuellement des informations et/ou marques superposées sur des écrans de résolution et de taille relativement réduites ne facilite pas la détection des détails. En fait, cette dernière solution présente un intérêt pour positionner un véhicule dans un emplacement qui est délimité par des lignes au sol ou entre des obstacles qui sont suffisamment espacés, mais le manque de précision des images affichées ne permet pas d'apprécier la distance réelle qui sépare une partie précise d'un véhicule d'un obstacle qui est très proche. De plus, le procédé utilisé pour reconstruire ce type d'image induit une forte déformation des obstacles qui sont très proches du véhicule, ce qui rend difficile l'interprétation des images finales. Les solutions visuelles mixtes constituent un compromis entre les aides visuelles directes et les aides visuelles de vision à 360°. Elles consistent à afficher en parallèle une image de synthèse du véhicule et de son environnement proche dans une vue de dessus (pour présenter la situation générale avec peu de détails), et une image directe d'une petite partie de l'environnement du véhicule, capturée par une caméra. Le choix de la partie de l'environnement est généralement laissé au conducteur, ce qui lui offre davantage de liberté, en théorie, mais qui dans la pratique constitue une contrainte du fait des manipulations qu'il doit effectuer sur une interface homme/machine pendant sa manoeuvre. En outre chaque changement de vue décidé par le conducteur nécessite un effort d'adaptation en temps réel, et peu rendre difficile la compréhension de la relation existant entre les deux images (radicalement différentes) qui sont affichées en parallèle. The invention relates to vehicles, possibly of terrestrial type, and more precisely the on-board devices which make it possible to help drivers. to maneuver their vehicles. As known to those skilled in the art, many solutions have been proposed Zo to help the driver of a vehicle, such as a motor vehicle, to perform a maneuver. The help can be sound and / or visual. The visual solutions all propose to display on a screen implanted in the vehicle real images (possibly processed) representative of part of the environment of the vehicle, captured by at least one camera, and / or synthetic images materializing , in a two-dimensional top view (2D), the relative positioning of at least a portion of the vehicle in its environment. It will be appreciated that the displayed images may optionally include lines and / or marks and / or adjoining information by superposition or insertion. Visual solutions are more intuitive than purely sonic solutions, but some of the information they provide may be difficult to understand and / or use in real time and / or the presentation method used may be more disturbing than useful. Thus, solutions offering a direct visual aid by camera (s) make it possible to visualize areas that are not directly observable by the driver, but the deformations of the displayed objects, resulting from the wide-angle optics, make it difficult to estimate the real distances, and the fields displayed are generally small. The visual solutions called "360 ° vision" offer an overview of the vehicle and its surrounding environment, generally from above and thus in computer graphics. The observable field is therefore more complete in terms of area covered, but the display of a computer image with possibly information and / or superimposed marks on screens of relatively small resolution and size does not facilitate the detection of details. In fact, the latter solution is of interest for positioning a vehicle in a location that is delimited by lines on the ground or between obstacles that are sufficiently spaced, but the lack of precision of the images displayed does not allow to appreciate the actual distance that separates a specific part of a vehicle from an obstacle that is very close. In addition, the method used to reconstruct this type of image induces a strong deformation of obstacles that are very close to the vehicle, which makes the interpretation of the final images difficult. Mixed visual solutions are a compromise between direct visual aids and visual 360-degree vision aids. They consist of displaying in parallel a synthetic image of the vehicle and its surrounding environment in a view from above (to present the general situation with few details), and a direct image of a small part of the environment of the vehicle, captured by a camera. The choice of the part of the environment is generally left to the driver, which gives him more freedom, in theory, but which in practice constitutes a constraint due to the manipulations that he must perform on a human / machine interface during his maneuver. In addition each change of view decided by the driver requires an adaptation effort in real time, and can make difficult the understanding of the relationship between the two images (radically different) that are displayed in parallel.
L'invention a donc pour but d'améliorer la situation. Elle propose à cet effet un dispositif, destiné à aider un conducteur à manoeuvrer un véhicule, et comprenant des moyens de traitement agencés: - pour estimer la position relative de la tête du conducteur par rapport à une position de référence, et - pour générer des données d'image définissant une image à afficher dans le véhicule, représentative d'une partie au moins du véhicule et de l'environnement extérieur de cette partie défini par des données environnementales capturées, selon un point de vue choisi et en fonction de la position relative de la tête. Le dispositif selon l'invention peut comporter d'autres caractéristiques qui peuvent être prises séparément ou en combinaison, et notamment : - ses moyens de traitement peuvent être agencés pour utiliser un point de vue par défaut en l'absence de désignation de point de vue par le conducteur et lorsqu'une première direction d'observation du conducteur, estimée initialement, ne pointe pas approximativement vers une zone du véhicule où sont affichées les images; - ses moyens de traitement peuvent être agencés, lorsqu'une direction d'observation du conducteur estimée pointe approximativement vers une zone du véhicule où sont affichées les images, pour commencer par utiliser un point de vue par défaut, puis pour modifier ce dernier en fonction de l'écart existant entre la position relative de la tête du conducteur et une position de référence associée à une direction d'observation de référence pointant vers le centre de la zone d'affichage d'images; - ses moyens de traitement peuvent être agencés pour utiliser un point de vue désigné par le conducteur; - ses moyens de traitement peuvent être agencés pour utiliser un point de vue par défaut dans lequel le véhicule est représenté intégralement en vue du dessus au centre d'un environnement extérieur de dimensions choisies; - ses moyens de traitement peuvent être agencés, en cas de rapprochement de la tête de la zone d'affichage, pour générer des données d'image définissant une image à afficher dans le véhicule, représentative d'un gros plan (ou zoom avant) de la partie du véhicule et de l'environnement extérieur de cette partie, et, en cas d'éloignement de la tête de la zone d'affichage, pour générer des données d'image définissant une image à afficher dans ledit véhicule, représentative d'un plan large (ou zoom arrière) de la partie du véhicule et de l'environnement extérieur de cette partie; - ses moyens de traitement peuvent être agencés pour définir et mémoriser comme position de référence la position de la tête du conducteur au moment où il choisit un point de vue; - ses moyens de traitement peuvent être agencés pour estimer la position relative de la tête du conducteur par rapport à une position de référence en fonction de données déterminées par des moyens de détection de position de tête implantés dans le véhicule; - en variante, ses moyens de traitement peuvent être agencés pour estimer la position relative de la tête du conducteur par rapport à une position de référence en fonction de données fournies par le conducteur au moyen d'une interface homme/machine implantée dans le véhicule; - l'interface homme/machine peut être choisie parmi (au moins) des moyens de saisie tactile, propres à permettre au conducteur de signaler 1 o sur un écran sa position relative par rapport à la position de référence, et des moyens de désignation manuelle, propres en cas d'actionnement à permettre au conducteur de signaler sa position relative par rapport à la position de référence; - les données capturées peuvent être issues d'au moins une caméra 15 d'observation solidarisée au véhicule dans une position permettant d'observer l'environnement extérieur de la partie de véhicule considérée et/ou d'au moins un moyen de mesure de distance par voie d'ondes solidarisé au véhicule dans une position permettant de détecter des obstacles dans l'environnement extérieur de la partie de véhicule 20 considérée; - il peut comprendre chaque caméra d'observation et/ou chaque moyen de mesure de distance par voie d'ondes; - il peut comprendre des moyens de reconnaissance de forme agencés pour déterminer des objets présents dans l'environnement extérieur de 25 la partie en fonction des données capturées par chaque caméra d'observation et/ou chaque moyen de mesure de distance par voie d'ondes. Dans ce cas, ses moyens de traitement peuvent être agencés pour intégrer dans les données d'image des données représentatives des objets déterminés, compte tenu de leurs positions respectives par 30 rapport au véhicule; - ses moyens de traitement peuvent être agencés pour utiliser un modèle physique, associé à la position d'un observateur extérieur virtuel qui définie le point de vue utilisé et qui dépend de la position relative de la tête du conducteur, de manière à contrôler (par exemple lisser et/ou amortir) les changements de point de vue; - ses moyens de traitement peuvent être agencés pour générer des données d'images qui définissent des images de synthèse. The invention therefore aims to improve the situation. It proposes for this purpose a device, intended to help a driver to maneuver a vehicle, and comprising processing means arranged: - to estimate the relative position of the driver's head relative to a reference position, and - to generate image data defining an image to be displayed in the vehicle, representative of at least a portion of the vehicle and the external environment of that portion defined by captured environmental data, from a selected point of view and according to the position relative of the head. The device according to the invention may comprise other characteristics that can be taken separately or in combination, and in particular: its processing means can be arranged to use a default point of view in the absence of a point of view designation; by the driver and when a first viewing direction of the driver, initially estimated, does not point approximately to an area of the vehicle where the images are displayed; its processing means can be arranged, when an estimated viewing direction of the driver points approximately to an area of the vehicle where the images are displayed, to start by using a default viewpoint and then to modify the latter according to the difference between the relative position of the driver's head and a reference position associated with a reference observation direction pointing towards the center of the image display area; its processing means can be arranged to use a point of view designated by the driver; its processing means can be arranged to use a default point of view in which the vehicle is represented integrally with respect to the top in the center of an external environment of selected dimensions; its processing means can be arranged, in the event of bringing the head of the display area closer together, to generate image data defining an image to be displayed in the vehicle, representative of a close-up (or zooming in) the part of the vehicle and the external environment of that part, and, if the head of the display area is moved away, to generate image data defining an image to be displayed in said vehicle, representative of a wide (or zoomed out) plan of the part of the vehicle and the external environment of that part; its processing means can be arranged to define and memorize as a reference position the position of the driver's head at the moment when he chooses a point of view; its processing means can be arranged to estimate the relative position of the driver's head with respect to a reference position as a function of data determined by head position detection means implanted in the vehicle; alternatively, its processing means can be arranged to estimate the relative position of the driver's head relative to a reference position as a function of data provided by the driver by means of a man / machine interface implanted in the vehicle; the human / machine interface may be chosen from (at least) tactile input means, capable of enabling the driver to indicate on a screen its relative position with respect to the reference position, and manual designation means , fit in case of actuation to allow the driver to signal his relative position relative to the reference position; the captured data may be derived from at least one observation camera secured to the vehicle in a position making it possible to observe the external environment of the part of the vehicle in question and / or at least one means for measuring distance by waves secured to the vehicle in a position for detecting obstacles in the external environment of the vehicle part 20 considered; it can comprise each observation camera and / or each means of distance measurement by waves; it may comprise form recognition means arranged to determine objects present in the external environment of the part as a function of the data captured by each observation camera and / or each means of distance measurement by means of waves. . In this case, its processing means may be arranged to integrate in the image data representative data objects determined, given their respective positions with respect to the vehicle; its processing means can be arranged to use a physical model, associated with the position of a virtual external observer which defines the point of view used and which depends on the relative position of the driver's head, so as to control (by example smooth and / or dampen) changes of point of view; its processing means can be arranged to generate image data that defines synthetic images.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés, sur lesquels: - la figure 1 illustre schématiquement et fonctionnellement, dans une vue du dessus, un exemple de véhicule automobile équipé d'un exemple de réalisation de dispositif d'aide aux manoeuvres selon l'invention, - la figure 2 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse de véhicule automobile et de son environnement immédiat dans une vue du dessus centrée, - la figure 3 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse de véhicule automobile et de son environnement immédiat dans une vue en perspective du dessus décentrée vers l'arrière (ou en anglais "birdview"), - la figure 4 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse de la partie arrière gauche d'un véhicule automobile et de son environnement immédiat dans une vue en perspective côté arrière (ou en anglais "dogview"), - la figure 5 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse de véhicule automobile et de son environnement immédiat dans une vue en perspective de trois-quarts arrière (ou en anglais "isoview"), - la figure 6 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse d'une partie avant d'un véhicule automobile et de son environnement immédiat, résultant d'une demande de gros plan (ou zoom avant), dans une vue du dessus, - la figure 7 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse d'une partie arrière d'un véhicule automobile et de son environnement immédiat, résultant d'une demande de gros plan, dans une vue du dessus, - la figure 8 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse d'une partie latérale droite d'un véhicule automobile et de son environnement immédiat, résultant d'une demande de léger gros plan, dans une vue du dessus légèrement inclinée, et - la figure 9 illustre schématiquement un écran d'affichage sur lequel se trouve affichée une image de synthèse d'une partie latérale gauche d'un véhicule automobile et de son environnement immédiat, résultant d'une demande de léger gros plan, dans une vue du dessus légèrement inclinée. Les dessins annexés pourront non seulement servir à compléter l'invention, mais aussi contribuer à sa définition, le cas échéant. L'invention a pour but d'offrir un dispositif destiné à aider un conducteur à effectuer des manoeuvres avec son véhicule (V). Other features and advantages of the invention will appear on examining the detailed description below, and the accompanying drawings, in which: - Figure 1 illustrates schematically and functionally, in a view from above, an example of a vehicle automobile equipped with an exemplary embodiment of a maneuvering aid device according to the invention, - Figure 2 schematically illustrates a display screen on which is displayed a synthetic image of a motor vehicle and its immediate environment in a FIG. 3 schematically illustrates a display screen on which is displayed a motor vehicle synthesis image and its immediate environment in a perspective view of the top off-center towards the rear (or in English "). birdview "), - Figure 4 schematically illustrates a display screen on which is displayed a summary image of the left rear part of a motor vehicle and its immediate environment in a rear perspective view (or in English "dogview"), - Figure 5 schematically illustrates a display screen on which is displayed a computer image of a motor vehicle and its environment Immediately in a perspective rear three-quarter view (or in English "isoview"), - Figure 6 schematically illustrates a display screen on which is displayed a computer image of a front portion of a motor vehicle and from its immediate environment, resulting from a close-up request (or zoom in), in a view from above, - Figure 7 schematically illustrates a display screen on which a summary image of a part is displayed. rear view of a motor vehicle and its immediate environment, resulting from a close-up request, in a view from above, - Figure 8 schematically illustrates a display screen on which is located displaying a computer image of a right-hand side part of a motor vehicle and its immediate environment, resulting from a request for a slight close-up, in a slightly inclined top view, and - Figure 9 schematically illustrates a screen of display on which is displayed a computer image of a left side part of a motor vehicle and its immediate environment, resulting from a request for a slight close-up, in a slightly inclined top view. The attached drawings may not only serve to complete the invention, but also contribute to its definition, if any. The invention aims to provide a device for assisting a driver to perform maneuvers with his vehicle (V).
Dans ce qui suit, on considère, à titre d'exemple non limitatif, que le véhicule (V) est de type terrestre, comme par exemple un véhicule automobile (tel qu'une voiture, un autocar, un camion, un véhicule utilitaire ou une machine agricole ou de chantier). Mais, l'invention n'est pas limitée à ce type de véhicule. Elle concerne en effet tout type de véhicule terrestre ou maritime pouvant effectuer des déplacements et des manoeuvres sur le sol ou sur l'eau. On a schématiquement et fonctionnellement représenté sur l'unique figure un véhicule automobile de type voiture V, équipé d'un exemple de réalisation d'un dispositif d'aide aux manoeuvres D selon l'invention. In the following, we consider, by way of non-limiting example, that the vehicle (V) is terrestrial, such as for example a motor vehicle (such as a car, a coach, a truck, a utility vehicle or an agricultural or construction machine). But, the invention is not limited to this type of vehicle. It concerns any type of land or sea vehicle that can move and maneuver on the ground or on the water. FIG. 1 shows schematically and functionally a motor vehicle V, equipped with an exemplary embodiment of a maneuvering device D according to the invention.
Cette voiture V comprend classiquement une partie avant PV, une partie arrière PR opposée à la partie avant PV, et deux parties latérales PD et PG opposées l'une à l'autre et situées sensiblement perpendiculairement aux parties avant PV et arrière PR, respectivement sur les côtés droit et gauche. Par ailleurs, cette voiture V comprend également classiquement un système de vision indirecte comme par exemple un rétroviseur miroir droit RD et un rétroviseur miroir gauche RG. Le dispositif (d'aide aux manoeuvres) D comprend au moins des moyens de traitement MT. Dans l'exemple non limitatif illustré, le dispositif D est un équipement qui ne fait pas partie de l'ordinateur de bord du véhicule V, mais qui lui est préférentiellement couplé. Mais, il pourrait faire partie de cet ordinateur de bord. Par conséquent, le dispositif D peut être réalisé sous la forme de circuits électroniques ou de modules logiciels (ou informatiques) ou encore d'une combinaison de circuits électroniques et de modules logiciels. Les moyens de traitement MT sont tout d'abord agencés (ou conçus) pour estimer la position relative de la tête du conducteur du véhicule V par 1 o rapport à une position de référence. La position relative peut être déduite de données de position qui peuvent avoir plusieurs origines, selon le mode de réalisation envisagé et/ou selon les équipements que peut éventuellement comprendre par ailleurs le véhicule V. 15 Ainsi, ces données de position peuvent par exemple, et comme illustré non limitativement, être déterminées par des moyens de détection de position de tête MD qui sont implantés dans le véhicule V. Il est important de noter que ces moyens de détection de position de tête MD peuvent faire éventuellement partie du dispositif D. Mais, il peut également s'agir d'un 20 équipement qui assure une autre fonction au sein du véhicule V, comme par exemple la détection de l'état de vigilance du conducteur. Dans ce dernier cas, les données de position obtenues par l'équipement doivent être récupérées soit auprès de ce dernier, soit sur le bus informatique du véhicule V, soit directement auprès de l'ordinateur de bord du véhicule V. 25 Tout type de moyens de détection de position de tête MD connu de l'homme de l'art peut être ici envisagé, dès lors qu'il permet de détecter la position de la tête d'un conducteur. On entend ici par "position" un point dans un repère d'espace tridimensionnel (3D), ayant pour origine une position de référence, et une orientation (au sens vectoriel du terme) dans ce même 30 espace tridimensionnel. Par ailleurs, on entend ici par "position de référence" l'origine du repère précité et une orientation de référence définie par un vecteur partant de cette origine. La direction de référence est par exemple le vecteur qui part de l'origine du repère 3D et qui pointe vers une zone où sont affichées les images produites par le dispositif D (et sur lesquelles on reviendra plus loin). Cette zone est par exemple un écran EC implanté dans la planche de bord (en position centrale) ou le tableau de bord du véhicule V ou bien en position haute ("tête haute") sur le pare-brise du véhicule V. This car V conventionally comprises a front portion PV, a rear portion PR opposite the front portion PV, and two side portions PD and PG opposite one another and located substantially perpendicular to the front portions PV and rear PR, respectively on the right and left sides. Moreover, this car V also conventionally includes an indirect vision system such as for example a right mirror mirror RD and a mirror left mirror RG. The device (assistance maneuvers) D comprises at least MT processing means. In the nonlimiting example illustrated, the device D is an equipment that is not part of the vehicle computer V, but which is preferably coupled thereto. But, it could be part of this board computer. Therefore, the device D can be realized in the form of electronic circuits or software modules (or computer) or a combination of electronic circuits and software modules. The processing means MT are firstly arranged (or designed) to estimate the relative position of the driver's head of the vehicle V with respect to a reference position. The relative position can be deduced from position data which can have several origins, according to the envisaged embodiment and / or according to the equipment that may optionally further comprise the vehicle V. Thus, these position data can for example, and as illustrated without limitation, be determined by MD head position detection means which are located in the vehicle V. It is important to note that these head position detection means MD may possibly be part of the device D. But, it may also be a piece of equipment that provides another function within the vehicle V, such as, for example, the detection of the state of vigilance of the driver. In the latter case, the position data obtained by the equipment must be retrieved either from the latter, or from the vehicle's computer bus V, or directly from the onboard computer of the vehicle V. Any type of means MD head position detection known to those skilled in the art can be considered here, since it can detect the position of the head of a driver. By "position" is meant here a point in a three-dimensional space reference (3D), originating from a reference position, and an orientation (in the vector sense of the term) in this same three-dimensional space. Moreover, here "reference position" is understood to mean the origin of the aforementioned reference point and a reference orientation defined by a vector starting from this origin. The reference direction is for example the vector which starts from the origin of the 3D reference and which points to an area where are displayed the images produced by the device D (and which will be discussed later). This zone is for example an EC screen implanted in the dashboard (in central position) or the dashboard of vehicle V or in the up position ("head up") on the windshield of vehicle V.
Ainsi, ils (MD) peuvent constituer un équipement de stéréovision (comportant au moins deux cameras fixes), ou bien ils (MD) peuvent mettre en oeuvre une technique de triangulation utilisant des données fournies par une caméra et des balises lumineuses pilotées, ou encore ils (MD) peuvent constituer une "caméra 3D" (c'est-à-dire comprenant une caméra et un éclairage pilote pour calculer un temps de vol du faisceau lumineux), ou encore ils (MD) peuvent comporter au moins une caméra et des moyens de reconnaissance de forme permettant un suivi du visage en temps réel. Dans une variante de réalisation, les données de position peuvent par exemple être fournies par le conducteur au moyen d'une interface homme/machine (ou IHM) qui est implantée dans le véhicule V. Il est important de noter que cette interface homme/machine (ou IHM) peut faire éventuellement partie du dispositif D. Mais, il peut également s'agir d'un équipement qui assure une autre fonction au sein du véhicule V, comme par exemple la sélection de fonctions dans des menus ou la saisie de caractères ou marques prédéfinies. Dans ce dernier cas, les données de position obtenues par l'équipement doivent être récupérées soit auprès de ce dernier, soit sur le bus informatique du véhicule V, soit directement auprès de l'ordinateur de bord du véhicule V. Tout type d'interface homme/machine (ou IHM) connu de l'homme de l'art peut être ici envisagé, dès lors qu'il permet de désigner et enregistrer une position (qui est ici assimilée à celle de la tête d'un conducteur). On entend ici par "position" un point dans un repère tridimensionnel (3D) et une orientation (au sens vectoriel du terme) dans ce même repère tridimensionnel. Par ailleurs, on entend ici par "position de référence" l'origine du repère (3D) précité et une orientation de référence définie par un vecteur partant de cette origine. La direction de référence est par exemple le vecteur qui part de l'origine du repère 3D et qui pointe tout droit vers l'avant du véhicule V. Ainsi, l'interface homme/machine (ou IHM) peut se présenter sous la forme de moyens de saisie tactile agencés de manière à permettre au conducteur de signaler sur un écran tactile subdivisé en N parties représentatives du véhicule V (ou un ensemble de N touches sensitives associées chacune à une partie du véhicule V) sa position relative par rapport à une position de référence (matérialisée sur l'écran (par exemple par son centre)). Par exemple, le fait de poser un doigt sur la surface tactile signale l'activation de la fonction, et le fait de déplacer un doigt jusqu'à une position choisie sans le soulever de la surface tactile (fonction appelée "drag" en anglais) permet de fournir une position relative et de l'enregistrer (au moment du retrait du doigt). On notera que la position de la tête peut être mise à jour au fur et à mesure du déplacement du doigt (drag), le fait d'écarter le doigt de la surface tactile ayant pour conséquence de figer la dernière position de contact et de provoquer son enregistrement. Dans une variante, l'interface homme/machine (ou IHM) peut se présenter sous la forme de moyens de désignation manuelle (2D ou 3D) agencés, en cas d'actionnement, pour permettre au conducteur de signaler sa position relative par rapport à une position de référence. Des moyens de désignation manuelle 2D peuvent par exemple se présenter sous la forme d'une manette (ou joystick) à retour d'effort (ou désignateur linéaire), ou d'un ensemble de N (par exemple 4 à 8) boutons poussoirs (ou désignateur tout ou rien). La manette 2D peut par exemple être implantée dans une partie du volant du véhicule V, afin que son actionnement ne perturbe pas les manoeuvres. Elle est au repos dans une position centrale et permet un déplacement vers le haut, le bas, la gauche et la droite pour signaler la position relative de la tête choisie par le conducteur. Des moyens de désignation manuelle 3D peuvent par exemple se présenter sous la forme d'une manette (ou joystick) à retour d'effort qui est au repos dans une position centrale et permet un déplacement vers le haut, le bas, la gauche et la droite pour signaler la position relative de la tête choisie par le conducteur et qui de surcroît peut être tirée ou poussée axialement ou bien tournée dans le sens horaire ou anti-horaire pour signaler une demande de gros plan (ou zoom arrière) ou de plan large (ou zoom avant). La manette 3D peut par exemple être implantée dans une partie du volant du véhicule V, afin que son actionnement ne perturbe pas les manoeuvres. Les efforts peuvent être proportionnels aux forces de rappel appliquées à la position d'un observateur extérieur virtuel à partir de laquelle est défini le point de vue. Si le conducteur déplace le joystick dans une direction (par exemple vers le haut), la position de l'observateur extérieur virtuel correspond à un déplacement de la tête vers le haut. Un effet de viscosité simulée peut permettre de ne pas avoir un retour brusque lorsque le conducteur relâche le joystick. En outre, cela peut permettre d'éviter les discontinuités ou les accélérations brutales du point d'observation sur sa trajectoire quelle qu'en soit la cause (mouvements de tête brusques, perte de détection de la tête, système de positionnement de type tout-ou-rien, contrôle avec un joystick instable, par exemple lors d'une montée/descente de trottoir, notamment). Des petits à-coups répétés permettent ainsi d'atteindre des positions intermédiaires alors qu'un maintien dans une direction choisie positionnera la tête dans une position extrême prédéfinie. Les moyens de traitement MT sont également agencés (ou conçus) pour générer des données d'image qui définissent une image devant être affichée dans le véhicule V et qui est représentative d'une partie au moins du véhicule V et de l'environnement extérieur de cette partie, lequel est défini par des données environnementales capturées. Selon l'invention, cette image est affichée selon un point de vue qui est choisi et en fonction de la position relative de la tête du conducteur qui a été estimée à partir des données de position fournies par des moyens de détection de position de tête MD ou bien par le conducteur via une interface homme/machine. Thus, they (MD) can constitute a stereovision equipment (including at least two fixed cameras), or they (MD) can implement a triangulation technique using data provided by a camera and piloted light beacons, or they (MD) can constitute a "3D camera" (that is to say comprising a camera and a pilot lighting for calculating a flight time of the light beam), or they (MD) can comprise at least one camera and shape recognition means for real-time face tracking. In an alternative embodiment, the position data may for example be provided by the driver by means of a man / machine interface (or HMI) which is located in the vehicle V. It is important to note that this man / machine interface (or HMI) may possibly be part of the device D. But, it may also be a device that provides another function within the vehicle V, such as the selection of functions in menus or the entry of characters or predefined marks. In the latter case, the position data obtained by the equipment must be retrieved either from the latter, or from the vehicle's computer bus V, or directly from the on-board computer of the vehicle V. Any type of interface man / machine (or HMI) known to those skilled in the art can be considered here, since it allows to designate and record a position (which is here assimilated to that of the head of a driver). "Position" here means a point in a three-dimensional coordinate system (3D) and an orientation (in the vector sense of the term) in the same three-dimensional coordinate system. Moreover, here "reference position" is understood to mean the origin of the aforementioned reference mark (3D) and a reference orientation defined by a vector starting from this origin. The reference direction is, for example, the vector which originates from the origin of the 3D reference point and which points straight towards the front of the vehicle V. Thus, the human / machine interface (or HMI) can be in the form of tactile input means arranged so as to enable the driver to signal on a touch screen subdivided into N representative portions of the vehicle V (or a set of N touch sensitive keys each associated with a portion of the vehicle V) its relative position with respect to a position reference (materialized on the screen (for example by its center)). For example, placing a finger on the touch surface signals the activation of the function, and moving a finger to a selected position without lifting the touch surface (function called "drag" in English) allows to provide a relative position and to record it (at the time of the withdrawal of the finger). Note that the position of the head can be updated as the finger moves (drag), the distance of the finger from the touch surface resulting in freezing the last contact position and causing his recording. In a variant, the man / machine interface (or HMI) can be in the form of manual designation means (2D or 3D) arranged, in case of actuation, to enable the driver to signal his relative position with respect to a reference position. 2D manual designation means may for example be in the form of a joystick (or joystick) with force feedback (or linear designator), or a set of N (for example 4 to 8) pushbuttons ( or all-or-nothing designator). The 2D lever may for example be located in a portion of the steering wheel of the vehicle V, so that its actuation does not disturb the maneuvers. It is at rest in a central position and allows movement up, down, left and right to indicate the relative position of the head chosen by the driver. 3D manual designation means may for example be in the form of a joystick (or joystick) with force feedback which is at rest in a central position and allows movement upward, downward, left and right. right to indicate the relative position of the head chosen by the driver and which in addition can be pulled or pushed axially or turned clockwise or anti-clockwise to signal a request for close-up (or zoom out) or wide shot (or zoom in). The 3D controller may for example be located in a part of the steering wheel of the vehicle V, so that its actuation does not disturb the maneuvers. The forces can be proportional to the restoring forces applied to the position of a virtual external observer from which the point of view is defined. If the driver moves the joystick in a direction (for example upwards), the position of the virtual outside observer corresponds to a movement of the head upwards. A simulated viscosity effect may make it possible not to have a sudden return when the driver releases the joystick. In addition, this can make it possible to avoid abrupt discontinuities or accelerations of the observation point on its trajectory whatever the cause (sudden head movements, loss of head detection, positioning system of all types). or-nothing, control with an unstable joystick, for example during a rise / descent of the sidewalk, in particular). Small repeated jolts thus allow to reach intermediate positions while a maintenance in a chosen direction will position the head in a predefined extreme position. The processing means MT are also arranged (or designed) to generate image data which defines an image to be displayed in the vehicle V and which is representative of at least a portion of the vehicle V and the external environment of the vehicle. this part, which is defined by captured environmental data. According to the invention, this image is displayed according to a point of view which is chosen and as a function of the relative position of the driver's head which has been estimated from the position data provided by head position detection means MD or by the driver via a man / machine interface.
On entend ici par "point de vue" un angle d'observation particulier ou général d'une partie au moins du véhicule V pour un observateur virtuel (et non le conducteur) qui est situé à l'extérieur de ce véhicule V. Ce point de vue (d'observation par un observateur extérieur) ne doit pas être confondu avec la direction d'observation du conducteur, c'est-à-dire la direction estimée dans laquelle il regarde compte tenu de la position relative de sa tête. Le point de vue est défini par une direction d'observation d'un observateur extérieur virtuel qui est définie par un vecteur tridimensionnel, dont l'origine est le point qui définit la position de l'observateur extérieur virtuel et dont l'extrémité est un point final situé sur ou sous le véhicule V. Ce point final peut être, par exemple, le centre de gravité du véhicule V. Mais, cela n'est pas une obligation. En effet, il peut s'agir du centre de gravité de la roue arrière droite, par exemple lorsque le point de vue choisi est de type dogview à droite. Afin qu'un déplacement de la position de l'observateur extérieur virtuel entraîne automatiquement un déplacement (moindre mais dans la même proportion et selon les mêmes axes) du point de vue sur le véhicule V, l'extrémité du vecteur définissant l'orientation de l'observateur peut par exemple être positionnée sous le véhicule. Here "point of view" is understood to mean a particular or general angle of observation of at least part of the vehicle V for a virtual observer (and not the driver) which is located outside this vehicle V. This point (observation by an outside observer) should not be confused with the direction of observation of the driver, that is to say the estimated direction in which he looks in view of the relative position of his head. The point of view is defined by an observation direction of a virtual external observer which is defined by a three-dimensional vector whose origin is the point which defines the position of the virtual external observer and whose end is a end point located on or under the vehicle V. This end point may be, for example, the center of gravity of the vehicle V. But, this is not an obligation. Indeed, it may be the center of gravity of the right rear wheel, for example when the chosen point of view is dogview type right. So that a displacement of the position of the virtual external observer automatically leads to a displacement (less but in the same proportion and according to the same axes) of the point of view on the vehicle V, the end of the vector defining the orientation of the observer can for example be positioned under the vehicle.
Quatre exemples de point de vue sont représentés sur les figures 2 à 5. Plus précisément, sur la figure 2 le véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue du dessus centrée (ou "top view"), sur la figure 3 le véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue en perspective du dessus décentrée vers l'arrière (ou birdview), sur la figure 4 le véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue en perspective côté arrière gauche (ou dogview), et sur la figure 5 le véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue en perspective de trois-quarts arrière (ou isoview). Bien entendu, d'autres points de vue généraux ou particuliers peuvent être proposés par un dispositif D selon l'invention, et notamment une vue en perspective du dessus décentrée vers l'avant, une vue en perspective côté arrière droit, une vue du dessus côté avant droit ou gauche, ou une vue en perspective de trois-quarts avant droit ou gauche. Par exemple, une vue de type dogview à droite (respectivement à gauche) permettra au conducteur de mieux apprécier la distance entre la roue arrière droite (respectivement arrière gauche) et le trottoir, et une vue de type topview permettra au conducteur d'aligner plus facilement l'ensemble de son véhicule V sur un emplacement de parking qui est délimité par un marquage au sol. On notera que sur les figures 2 à 9 l'environnement du véhicule V est dépourvu d'objets ou d'obstacles, afin d'éviter toute surcharge. Mais, dans la pratique, l'environnement comprend très fréquemment un ou plusieurs obstacles ou objets. Les données d'image qui sont générées par les moyens de traitement MT sont transmises à des moyens d'affichage EC qui sont implantés dans une zone choisie du véhicule (en visibilité directe pour le conducteur) et qui sont chargés de les transformer en images affichées. Les moyens d'affichage EC sont par exemple un écran implanté dans la planche de bord (en position centrale) ou dans le tableau de bord du véhicule V ou bien en position haute (tête haute) sur le pare-brise du véhicule V. Les données capturées, qui sont utilisées par les moyens de traitement MT, proviennent de moyens d'observation MOj, comme par exemple une ou plusieurs caméras et/ou un ou plusieurs moyens de mesure de distance par voie d'ondes (par exemple un radar ou un capteur par voie d'ondes (de tout type)). Chaque caméra d'observation est solidarisée au véhicule V dans une position qui lui permet d'observer une partie au moins de son environnement extérieur. De même, chaque moyen de mesure de distance par voie d'ondes est solidarisé au véhicule V dans une position qui lui permet de détecter des obstacles dans une partie au moins de son environnement extérieur. Un moyen de mesure de distance par voie d'ondes fournit des données capturées à partir desquelles on peut générer une cartographie 2D, 2,5D ou 3D de l'environnement extérieur. Une caméra d'observation (de préférence grand angle) fournit des données capturées (images brutes) qui doivent être traitées et analysées afin de déterminer les positions et distances relatives des obstacles et objets de l'environnement par rapport au véhicule V. Il est également possible de mettre en oeuvre une technique de reconnaissance de forme afin de permettre une représentation synthétisée des objets ou obstacles contenus dans les images capturées. Dans ce cas, on peut prévoir des moyens de reconnaissance de forme MR agencés pour déterminer des objets ou obstacles présents dans l'environnement extérieur de la partie considérée de l'environnement en fonction des données capturées par chaque caméra d'observation et/ou chaque moyen de mesure de distance par voie d'ondes. Toute technique d'analyse d'image connue de l'homme de l'art et permettant d'obtenir des informations de position (distance et orientation) et des informations de forme peut être ici utilisée. Il est important de noter que ces moyens de reconnaissance de forme MR peuvent faire éventuellement partie du dispositif D, comme illustré non limitativement sur la figure 1. Mais, il peut également s'agir d'un équipement qui assure une autre fonction au sein du véhicule V. Dans ce dernier cas, les données représentatives des objets déterminés, obtenues par l'équipement, doivent être récupérées soit auprès de ce dernier, soit sur le bus informatique du véhicule V, soit directement auprès de l'ordinateur de bord du véhicule V. On notera que ces moyens de reconnaissance de forme MR visent à disposer d'une information sur la présence éventuelle d'obstacles et/ou à rendre l'image plus naturelle (et en particulier moins déformée lorsqu'un obstacle est proche du véhicule). Four examples of point of view are represented in FIGS. 2 to 5. More precisely, in FIG. 2 the vehicle V and its immediate environment are displayed on a display screen EC, in the form of a synthetic image in a view from above centered (or "top view"), in Figure 3 the vehicle V and its immediate environment are displayed on an EC display screen, in the form of a computer image in a perspective view of the top off-center towards the rear (or birdview), in FIG. 4 the vehicle V and its immediate environment are displayed on an EC display screen, in the form of a computer image in a left rear perspective view (or dogview). ), and in Figure 5 the vehicle V and its immediate environment are displayed on an EC display screen, in the form of a computer image in a rear three-quarter perspective view (or isoview). Of course, other general or particular points of view may be proposed by a device D according to the invention, and in particular a perspective view of the top off-center forwards, a perspective view on the right rear side, a view from above. front right or left side, or a perspective view of three-quarter front right or left. For example, a dogview on the right (left) will allow the driver to better appreciate the distance between the right rear wheel (rear left) and the sidewalk, and a topview view will allow the driver to align more easily all of his vehicle V on a parking space which is delimited by a marking on the ground. Note that in Figures 2 to 9 the environment of the vehicle V is devoid of objects or obstacles, to avoid overloading. But in practice, the environment very often includes one or more obstacles or objects. The image data that is generated by the processing means MT are transmitted to EC display means which are located in a selected area of the vehicle (in line of sight for the driver) and which are responsible for transforming them into displayed images. . The display means EC are for example a screen implanted in the dashboard (in central position) or in the dashboard of the vehicle V or in the up position (head up) on the windshield of the vehicle V. captured data, which are used by the processing means MT, come from observation means MOj, such as for example one or more cameras and / or one or more means for measuring distance by wave (for example a radar or a sensor by wave (of any type)). Each observation camera is secured to the vehicle V in a position that allows it to observe at least part of its external environment. Similarly, each wavelength distance measuring means is secured to the vehicle V in a position that allows it to detect obstacles in at least part of its external environment. Wavelength measurement means provides captured data from which 2D, 2.5D or 3D mapping of the external environment can be generated. An observation camera (preferably wide angle) provides captured data (raw images) that must be processed and analyzed in order to determine the relative positions and distances of the obstacles and objects of the environment with respect to the vehicle V. It is also possible to implement a form recognition technique to allow a synthesized representation of the objects or obstacles contained in the captured images. In this case, provision may be made for MR form recognition means arranged to determine objects or obstacles present in the external environment of the considered part of the environment as a function of the data captured by each observation camera and / or each means for measuring distance by waves. Any image analysis technique known to those skilled in the art and for obtaining position information (distance and orientation) and shape information can be used here. It is important to note that these form recognition means MR may possibly be part of the device D, as shown in non-limiting manner in FIG. 1. However, it may also be equipment that provides another function within the device. vehicle V. In the latter case, the data representative of the determined objects, obtained by the equipment, must be retrieved either from the latter, or from the computer bus of the vehicle V, or directly from the on-board computer of the vehicle V. It will be noted that these MR form recognition means are intended to provide information on the possible presence of obstacles and / or to make the image more natural (and in particular less deformed when an obstacle is close to the vehicle ).
On comprendra que les moyens de traitement MT sont agencés pour intégrer dans les données d'image les données qui sont représentatives des objets déterminés par les moyens de reconnaissance de forme MR, compte tenu de leurs positions respectives par rapport au véhicule V. Par exemple, les moyens de traitement MT peuvent tout d'abord créer une scène 2D, 2,5D ou 3D à partir des données capturées (éventuellement préalablement traitées) qui définissent l'environnement extérieur (à plat (2D) ou en volume (3D)), puis ils adjoignent à cette scène un modèle 2D, 2,5D ou 3D du véhicule V. On notera que les données capturées peuvent faire l'objet de traitements mathématiques afin de fournir des informations exploitables, c'est-à-dire de nature à permettre la reconstruction d'une image du sol autour du véhicule V (environnement extérieur), par exemple dans une vue de dessus centrée. Parmi ces traitements on peut par exemple citer une ou plusieurs transformations géométriques (corrections de distorsions, rectification), et/ou une ou plusieurs re-projections affines (ou "warping"), et/ou une ou plusieurs opérations de couture (ou "stiching"). Il est important de noter que l'un au moins des moyens d'observation MOj peut faire éventuellement partie du dispositif D. Par conséquent, l'un au moins des moyens d'observation MOj peut être éventuellement un équipement qui assure au moins une autre fonction au sein du véhicule V. Dans ce dernier cas, les données capturées par l'équipement doivent être récupérées soit auprès de ce dernier, soit sur le bus informatique du véhicule V, soit auprès de l'ordinateur de bord du véhicule V. It will be understood that the processing means MT are arranged to integrate in the image data the data which are representative of the objects determined by the shape recognition means MR, taking into account their respective positions with respect to the vehicle V. For example, the processing means MT can firstly create a 2D, 2.5D or 3D scene from the captured data (possibly previously processed) which define the external environment (flat (2D) or in volume (3D)), then they add to this scene a 2D, 2.5D or 3D model of the vehicle V. It will be noted that the captured data can be the subject of mathematical treatments in order to provide exploitable information, that is to say of a nature to allow the reconstruction of an image of the ground around the vehicle V (external environment), for example in a top view centered. Among these treatments one can for example quote one or more geometrical transformations (corrections of distortions, rectification), and / or one or more affine re-projections (or "warping"), and / or one or more sewing operations (or " stiching "). It is important to note that at least one of the observation means MOj may possibly be part of the device D. Consequently, at least one of the observation means MOj may possibly be an equipment that provides at least one other device. function in the vehicle V. In the latter case, the data captured by the equipment must be retrieved either from the latter, or from the vehicle V computer bus, or from the vehicle computer.
Dans l'exemple non limitatif illustré sur la figure 1, le véhicule V est équipé de quatre moyens d'observation MOj (j = 1 à 4). Le premier moyen d'observation MO1 est chargé d'observer toute la partie de l'environnement qui est située devant la partie avant PV du véhicule V (il est par exemple implanté au moins partiellement dans le pare-choc ou bouclier avant). Le 1 o deuxième moyen d'observation MO2 est chargé d'observer toute la partie de l'environnement qui est située derrière la partie arrière PR du véhicule V (il est par exemple implanté au moins partiellement dans le pare-choc ou bouclier arrière). Le troisième moyen d'observation MO3 est chargé d'observer toute la partie de l'environnement qui est située à droite de la partie latérale droite PD 15 du véhicule V (il est par exemple implanté au moins partiellement sur le rétroviseur droit RD). Le troisième moyen d'observation MO3 est chargé d'observer toute la partie de l'environnement qui est située à gauche de la partie latérale gauche PG du véhicule V (il est par exemple implanté au moins partiellement sur le rétroviseur gauche RG). Cela permet d'observer 20 l'ensemble de l'environnement du véhicule V. Mais, cela n'est pas obligatoire. En effet, on peut envisager que le dispositif D ne propose des images que d'une partie prédéfinie de l'environnement du véhicule V. Ces quatre moyens d'observation MOj peuvent être, par exemple, des radars. Mais, il pourrait également s'agir de caméras grand angle ou bien d'une combinaison de 25 caméra(s) et de radar(s) (ou plus généralement de moyens de mesure de distance par voie d'ondes). On notera que les moyens de traitement MT sont préférentiellement agencés de manière à utiliser un point de vue par défaut, d'une part, lorsque le conducteur n'a pas fourni ou désigné un point de vue d'observation et que 30 le dispositif D n'utilise pas des données de position déterminées par des moyens de détection de position de tête MD, et d'autre part, lorsque le dispositif D utilise des données de position déterminées par des moyens de détection de position de tête MD mais que la première direction d'observation du conducteur, estimée initialement, ne pointe pas approximativement vers la zone EC du véhicule V où sont affichées les images générées. On entend ici par "première direction d'observation" une direction qui pointe de la tête du conducteur vers la zone EC où sont affichées les images produites par le dispositif D, pour la première fois (c'est-à-dire lorsque le conducteur observe pour la première fois l'écran d'affichage EC lors d'une nouvelle session). Cette première direction d'observation peut être estimée par les moyens de traitement MT à partir de la position relative de la tête du conducteur. Elle constitue donc une direction d'observation relative par 1 o rapport à une direction d'observation de référence. On notera que cette première direction d'observation sert à initialiser la position de référence utilisée par le dispositif D chaque fois que le conducteur fait appel à ses services. A titre d'exemple non limitatif, le point de vue par défaut peut être une 15 vue du dessus centrée de l'ensemble du véhicule V et de son proche environnement extérieur (de dimensions choisies). Mais, le point de vue d'observation peut être désigné par le conducteur au moyen d'une interface homme/machine de désignation (ou saisie) ou par la position relative de sa tête lorsqu'elle est estimée à partir de 20 données fournies par des moyens de détection de position de tête MD. Dans ce dernier cas, on peut par exemple configurer les moyens de traitement MT de sorte qu'ils commencent par utiliser un point de vue par défaut, associé à une position de référence de la tête du conducteur, lorsque la direction d'observation du conducteur estimée pointe, pour la première fois, 25 approximativement vers la zone EC du véhicule V où sont affichées les images générées. On considère en effet que lorsque le conducteur regarde approximativement l'écran d'affichage EC c'est qu'il désire activer la fonction d'aide aux manoeuvres, mais qu'il n'a pas encore sélectionné de point de vue d'observation ou ne souhaite pas sélectionner un point de vue d'observation 30 particulier. Dans ce cas, une fois que les moyens de traitement MT ont généré des données d'image définissant au moins une première image (ou image initiale) selon le point de vue par défaut, ils peuvent modifier ce dernier en fonction de l'écart qui existe entre la position relative de la tête et la position de référence. On considère en effet ici que lorsque la positon relative de la tête du conducteur change légèrement par rapport à sa position de référence, consécutivement à un regard initial en direction de l'écran d'affichage EC, c'est que ce conducteur veut signaler au dispositif D un point de vue d'observation particulier. Par exemple, si le conducteur redresse légèrement sa tête cela peut signifier qu'il veut une vue en perspective du dessus décentrée vers l'arrière, si ce même conducteur incline (ou descend) légèrement sa tête cela peut signifier qu'il veut une vue en perspective du dessus décentrée vers l'avant, si ce même conducteur déplace légèrement sa tête vers la droite (respectivement la gauche) cela peut signifier qu'il veut une vue du dessus décentrée vers le côté droit (respectivement gauche), si ce même conducteur incline (ou descend) légèrement sa tête tout en la déplaçant légèrement vers la droite (respectivement la gauche) cela peut signifier qu'il veut une vue en perspective de trois-quarts avant droit (respectivement gauche), et si ce même conducteur redresse légèrement sa tête tout en la déplaçant légèrement vers la droite (respectivement la gauche) cela peut signifier qu'il veut une vue en perspective de trois-quarts arrière droit (respectivement gauche). In the nonlimiting example illustrated in FIG. 1, the vehicle V is equipped with four observation means MOj (j = 1 to 4). The first observation means MO1 is responsible for observing all the part of the environment which is located in front of the front part PV of the vehicle V (it is for example implanted at least partially in the bumper or front shield). The 1 o second observation means MO2 is responsible for observing all the part of the environment which is located behind the rear part PR of the vehicle V (it is for example implanted at least partially in the bumper or rear shield) . The third observation means MO3 is responsible for observing all the part of the environment which is situated to the right of the right lateral part PD 15 of the vehicle V (for example it is at least partially implanted on the right mirror RD). The third observation means MO3 is responsible for observing all that part of the environment which is situated to the left of the left lateral part PG of the vehicle V (it is for example implanted at least partially on the left rearview mirror RG). This makes it possible to observe the entire environment of the vehicle V. But this is not mandatory. Indeed, it can be envisaged that the device D only provides images of a predefined part of the environment of the vehicle V. These four observation means MOj can be, for example, radars. But, it could also be wide angle cameras or a combination of 25 camera (s) and radar (s) (or more generally means for measuring distance by wave). It should be noted that the processing means MT are preferably arranged so as to use a default point of view, on the one hand, when the driver has not provided or designated an observation point of view and as the device D does not use position data determined by head position detection means MD, and secondly, when the device D uses position data determined by head position detection means MD but the first The driver's viewing direction, initially estimated, does not point approximately to the EC area of the vehicle V where the generated images are displayed. By "first viewing direction" is meant herein a direction which points from the driver's head to the EC area where the images produced by the device D are displayed, for the first time (ie when the driver observe for the first time the EC display screen during a new session). This first observation direction can be estimated by the processing means MT from the relative position of the driver's head. It therefore constitutes a relative observation direction with respect to a reference observation direction. Note that this first observation direction is used to initialize the reference position used by the device D each time the driver uses his services. By way of non-limiting example, the default viewpoint may be a centered top view of the entire vehicle V and its near outside environment (of selected dimensions). But, the observation point of view can be designated by the driver by means of a man / machine interface of designation (or input) or by the relative position of his head when it is estimated from data provided by MD head position detecting means. In the latter case, one can for example configure the processing means MT so that they start by using a default viewpoint, associated with a reference position of the driver's head, when the direction of observation of the driver estimated peak, for the first time, approximately to the EC area of the vehicle V where the generated images are displayed. It is considered that when the driver looks approximately at the EC display screen, he wants to activate the maneuvering aid function, but he has not yet selected an observation point of view. or do not wish to select a particular observation point of view. In this case, once the processing means MT have generated image data defining at least a first image (or initial image) according to the default point of view, they can modify the latter according to the difference that exists between the relative position of the head and the reference position. It is considered here that when the relative position of the driver's head changes slightly relative to its reference position, consecutively to an initial look towards the EC display screen is that the driver wants to report to the device D from a particular observation point of view. For example, if the driver slightly raises his head this may mean that he wants a perspective view of the top off center, if the same driver bends (or lowers) his head slightly it may mean that he wants a view in perspective from the top off-center to the front, if this same driver slightly moves his head to the right (respectively the left) it may mean that he wants a top view off-center to the right side (left respectively), if this same driver slightly inclines (or descends) his head while moving it slightly to the right (respectively the left) it can mean that he wants a perspective view of three-quarter front right (respectively left), and if the same driver straightens slightly moving it slightly to the right (respectively to the left) it may mean that he wants a perspective view of three-quarter right rear (respectively left).
On comprendra qu'en l'absence de moyens de détection de position de tête MD, les différents points de vue présentés ci-avant peuvent être également sélectionnés par le conducteur au moyen d'une interface homme/machine, par exemple avec l'un de ses doigts. On notera également que les moyens de traitement MT peuvent être éventuellement agencés pour définir et mémoriser comme position de référence de la tête d'un conducteur, la position dans laquelle se trouve cette tête au moment où le conducteur choisit un point de vue pour la première fois (c'est-à-dire au début d'une session d'aide). Dans ce cas, les moyens de traitement MT comparent les positions suivantes (de la même session d'aide) 3o à la position de référence mémorisée. Bien entendu, en cas de changement de point de vue, les moyens de traitement MT utilisent (et stockent) une nouvelle position de référence. Afin de continuer à fournir des images intermédiaires compréhensibles (exploitables) lors d'un changement de vue en cours de session d'aide (résultant d'une demande du conducteur ou d'un déplacement de sa tête), les moyens de traitement MT peuvent par exemple utiliser un mécanisme d'entraînement de la position de l'observateur extérieur le long d'une trajectoire qui part de sa dernière position définissant le dernier point de vue en cours et qui se termine dans une position qui correspond au nouveau point de vue d'arrivée demandé, avec un passage par un point de vue intermédiaire situé entre les points de vue de départ et d'arrivée, de préférence suffisamment éloigné du véhicule V pour qu'on puisse le voir dans sa totalité. On notera que l'on peut prévoir une accélération progressive en début de trajectoire et un ralentissement progressif en fin de trajectoire. Il est important de comprendre que la trajectoire de l'observateur extérieur virtuel (dont la position en cours définit le point de vue utilisé) est déterminée à partir des estimées successives de la position relative de la tête du conducteur. On notera également que les moyens de traitement MT peuvent être également et éventuellement avantageusement agencés pour fournir des gros plans (ou zooms avant) ou des plans larges (ou zooms arrière) d'une partie au moins du véhicule V et de son environnement extérieur. Pour ce faire, les moyens de traitement MT peuvent par exemple générer des données d'image qui définissent une image à afficher représentative d'un gros plan d'une partie du véhicule V et de l'environnement extérieur de cette partie lorsque la tête du conducteur se rapproche (en distance) de la zone d'affichage EC. De même, les moyens de traitement MT peuvent par exemple générer des données d'image qui définissent une image à afficher représentative d'un plan large d'une partie du véhicule V et de l'environnement extérieur de cette partie lorsque la tête du conducteur s'éloigne de la zone d'affichage EC. On comprendra qu'en présence de moyens de détection de position de tête MD, on détecte un rapprochement (respectivement un éloignement) de tête lorsque la distance séparant la tête de l'écran EC diminue (respectivement augmente). En l'absence de moyens de détection de position de tête MD, on peut par exemple détecter un rapprochement (respectivement un éloignement) de tête lorsque le doigt du conducteur s'écarte (respectivement se rapproche) de la position centrale de référence de l'écran de l'interface homme/machine, ou lorsque la manette (joystick) de l'interface homme/machine est incliné(e) (respectivement rapproché(e)) par rapport à sa position centrale de référence (a priori sensiblement verticale), ou encore en cas d'actionnement d'une touche dédiée de l'interface homme/machine. D'une manière générale tout moyen d'interface homme/machine permettant au conducteur de fournir une demande ou un ordre peut être utilisé. Quatre exemples non limitatifs de gros plans sont représentés sur les figures 6 à 9. Plus précisément, sur la figure 6 une partie avant du véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue du dessus, en réponse à une demande de gros plan (ou zoom avant), sur la figure 7 une partie arrière du véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue du dessus, en réponse à une demande de gros plan, sur la figure 8 une partie latérale droite du véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue du dessus légèrement inclinée, en réponse à une demande de gros plan, et sur la figure 9 une partie latérale gauche du véhicule V et son environnement immédiat sont affichés sur un écran d'affichage EC, sous la forme d'une image de synthèse dans une vue du dessus légèrement inclinée, en réponse à une demande de gros plan. On notera également qu'afin de rendre plus agréable l'observation des images d'aide, les moyens de traitement MT peuvent être également et éventuellement agencés de manière à ne pas tenir compte de micro ou brusques déplacements de la tête ou d'erreurs d'estimation de position de tête qui sont de nature à induire de brusques et/ou fréquents changements d'images sans intérêt pour le conducteur. Pour ce faire, les moyens de traitement MT peuvent par exemple utiliser un modèle physique associe à la position de l'observateur extérieur virtuel (qui dépend de la position relative de la tête du conducteur). Par exemple, la position de l'observateur extérieur peut être assimilée à une masse virtuelle qui baigne dans un liquide visqueux offrant une accélération progressive et bornée, de manière à lisser et amortir ses déplacements et à faciliter le retour du point qui le représente vers sa position de référence initiale par défaut. Les commandes, fournies par le conducteur via l'interface homme/machine ou détectées à partir des données de position fournies par les moyens de détection de position de tête MD, sont alors converties par les moyens de traitement MT en forces qui sont ensuite appliquées à la masse virtuelle en vue de la déplacer de façon mieux contrôlée (filtrée) dans l'espace en trois dimensions pour permettre d'éventuels changements ou modifications du point de vue. Par ailleurs, on peut envisager que les déplacements de la tête du conducteur soient amplifiés pour accentuer certains effets (comme par exemple la rotation ou l'inclinaison ou le grossissement du modèle synthétique représentant la voiture V), et ainsi éviter que le conducteur n'ait à effectuer des mouvements trop amples. Dans le cas d'une interface homme/machine comportant un joystick à retour d'effort, les efforts appliqués au joystick peuvent être proportionnels aux forces de rappel qui sont appliquées à la position de l'observateur extérieur. L'invention ne se limite pas aux modes de réalisation de dispositif d'aide aux manoeuvres et de véhicule décrits ci-avant, seulement à titre 2o d'exemple, mais elle englobe toutes les variantes que pourra envisager l'homme de l'art dans le cadre des revendications ci-après. It will be understood that in the absence of head position detecting means MD, the different points of view presented above can also be selected by the driver by means of a man / machine interface, for example with one of his fingers. Note also that the processing means MT may be optionally arranged to define and store as a reference position of the head of a driver, the position in which the head is at the moment when the driver chooses a point of view for the first time. times (that is, at the beginning of a help session). In this case, the processing means MT compare the following positions (of the same help session) 3o to the memorized reference position. Of course, in the event of a change in point of view, the processing means MT use (and store) a new reference position. In order to continue to provide comprehensible (exploitable) intermediate images during a change of view during the help session (resulting from a request from the driver or from a displacement of his head), the processing means MT can for example, using a mechanism for driving the position of the outside observer along a trajectory that starts from his last position defining the last current point of view and ends in a position that corresponds to the new point of view of arrival requested, with a passage through an intermediate point of view located between the point of view of departure and arrival, preferably sufficiently far from the vehicle V to be seen in its entirety. It should be noted that it is possible to predict a progressive acceleration at the beginning of the trajectory and a gradual slowdown at the end of the trajectory. It is important to understand that the trajectory of the virtual external observer (whose current position defines the point of view used) is determined from the successive estimates of the relative position of the driver's head. It will also be noted that the processing means MT may also be and possibly advantageously arranged to provide close-ups (or forward zooms) or wide shots (or rear zooms) of at least a portion of the vehicle V and its external environment. For this purpose, the processing means MT may, for example, generate image data which define an image to be displayed representative of a close-up of a part of the vehicle V and the external environment of this part when the head of the vehicle driver moves closer (in distance) from the EC display area. Likewise, the processing means MT may, for example, generate image data which define an image to be displayed representative of a wide plane of a part of the vehicle V and the external environment of this part when the driver's head away from the EC display area. It will be understood that in the presence of head position detecting means MD, a reconciliation (respectively a removal) of the head is detected when the distance separating the head of the screen EC decreases (respectively increases). In the absence of MD head position detecting means, it is possible, for example, to detect a close-up (respectively a distance) of the head when the driver's finger moves away (respectively approaches) from the central reference position of the screen of the man / machine interface, or when the joystick of the human / machine interface is inclined (respectively close) with respect to its central reference position (a priori substantially vertical), or if a dedicated key is pressed on the man / machine interface. In general any man / machine interface means allowing the driver to provide a request or order can be used. Four nonlimiting examples of close-ups are shown in FIGS. 6 to 9. More specifically, in FIG. 6 a front part of the vehicle V and its immediate environment are displayed on a display screen EC, in the form of an image in a view from above, in response to a close-up request (or zoom in), in FIG. 7 a rear part of the vehicle V and its immediate environment are displayed on an EC display screen, in the form of In a top view, in response to a close-up request, in FIG. 8 a right-hand side portion of the vehicle V and its immediate surroundings are displayed on a display screen EC, in the form of a synthetic image in a slightly slanted top view, in response to a close-up request, and in Figure 9 a left side portion of the vehicle V and its immediate environment are displayed on an EC display screen, in the form of no computer image in a slightly inclined top view, in response to a close-up request. Note also that in order to make it easier to observe the help images, the processing means MT can also be and possibly arranged in such a way as not to take account of micro or abrupt movements of the head or errors. Head position estimation which is likely to induce abrupt and / or frequent image changes of no interest to the driver. To do this, the processing means MT may for example use a physical model associated with the position of the virtual external observer (which depends on the relative position of the driver's head). For example, the position of the external observer can be likened to a virtual mass that bathes in a viscous liquid with a gradual and limited acceleration, so as to smooth and dampen its movements and facilitate the return of the point that represents it to its initial reference position by default. The commands, provided by the driver via the man / machine interface or detected from the position data provided by the head position detection means MD, are then converted by the processing means MT into forces which are then applied to the virtual mass in order to move it in a better controlled (filtered) way in the three-dimensional space to allow possible changes or modifications of the point of view. Moreover, it can be envisaged that the movements of the driver's head are amplified to accentuate certain effects (such as, for example, the rotation or the inclination or the magnification of the synthetic model representing the car V), and thus to prevent the driver from have to move too far. In the case of a man / machine interface comprising a force feedback joystick, the forces applied to the joystick may be proportional to the restoring forces that are applied to the position of the outside observer. The invention is not limited to the maneuvering aid and vehicle embodiments described above, only as an example, but it encompasses all the variants that can be envisaged by those skilled in the art. within the scope of the claims below.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1051152A FR2956364B1 (en) | 2010-02-18 | 2010-02-18 | DEVICE FOR AIDING THE MANEUVER OF A VEHICLE BY DISPLAYING POINTS OF VIEW FUNCTION OF THE POSITION OF THE HEAD OF THE DRIVER |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1051152A FR2956364B1 (en) | 2010-02-18 | 2010-02-18 | DEVICE FOR AIDING THE MANEUVER OF A VEHICLE BY DISPLAYING POINTS OF VIEW FUNCTION OF THE POSITION OF THE HEAD OF THE DRIVER |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2956364A1 true FR2956364A1 (en) | 2011-08-19 |
FR2956364B1 FR2956364B1 (en) | 2016-01-29 |
Family
ID=42732162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1051152A Expired - Fee Related FR2956364B1 (en) | 2010-02-18 | 2010-02-18 | DEVICE FOR AIDING THE MANEUVER OF A VEHICLE BY DISPLAYING POINTS OF VIEW FUNCTION OF THE POSITION OF THE HEAD OF THE DRIVER |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2956364B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3021600A1 (en) * | 2014-05-27 | 2015-12-04 | Valeo Comfort & Driving Assistance | DISPLAY SYSTEM FOR A MOTOR VEHICLE |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06321011A (en) * | 1993-05-17 | 1994-11-22 | Mitsubishi Electric Corp | Peripheral visual field display |
EP1197937A1 (en) * | 2000-10-11 | 2002-04-17 | Sharp Kabushiki Kaisha | Surround surveillance apparatus for mobile body |
EP1502816A1 (en) * | 2003-07-31 | 2005-02-02 | Nissan Motor Co., Ltd. | Vehicle perimeter display device |
JP2005136561A (en) * | 2003-10-29 | 2005-05-26 | Denso Corp | Vehicle peripheral picture display device |
US20080036790A1 (en) * | 2004-06-18 | 2008-02-14 | Nec Corporation | Image Display System, Image Display Method and Image Display Program |
EP1962509A1 (en) * | 2005-11-17 | 2008-08-27 | Aisin Seiki Kabushiki Kaisha | Vehicle surrounding display device |
JP2009044570A (en) * | 2007-08-10 | 2009-02-26 | Alpine Electronics Inc | Vehicle's blind spot assistant system |
-
2010
- 2010-02-18 FR FR1051152A patent/FR2956364B1/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06321011A (en) * | 1993-05-17 | 1994-11-22 | Mitsubishi Electric Corp | Peripheral visual field display |
EP1197937A1 (en) * | 2000-10-11 | 2002-04-17 | Sharp Kabushiki Kaisha | Surround surveillance apparatus for mobile body |
EP1502816A1 (en) * | 2003-07-31 | 2005-02-02 | Nissan Motor Co., Ltd. | Vehicle perimeter display device |
JP2005136561A (en) * | 2003-10-29 | 2005-05-26 | Denso Corp | Vehicle peripheral picture display device |
US20080036790A1 (en) * | 2004-06-18 | 2008-02-14 | Nec Corporation | Image Display System, Image Display Method and Image Display Program |
EP1962509A1 (en) * | 2005-11-17 | 2008-08-27 | Aisin Seiki Kabushiki Kaisha | Vehicle surrounding display device |
JP2009044570A (en) * | 2007-08-10 | 2009-02-26 | Alpine Electronics Inc | Vehicle's blind spot assistant system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3021600A1 (en) * | 2014-05-27 | 2015-12-04 | Valeo Comfort & Driving Assistance | DISPLAY SYSTEM FOR A MOTOR VEHICLE |
EP2949499A3 (en) * | 2014-05-27 | 2016-05-18 | Valeo Comfort and Driving Assistance | Display system for motor vehicle |
Also Published As
Publication number | Publication date |
---|---|
FR2956364B1 (en) | 2016-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3018939C (en) | Systems and methods for capturing and offloading different information based on event trigger type | |
US7554461B2 (en) | Recording medium, parking support apparatus and parking support screen | |
EP2753996B1 (en) | Terrain visualization for a vehicle and vehicle driver | |
EP1462762B1 (en) | Circumstance monitoring device of a vehicle | |
EP2133237B1 (en) | Process of displaying a parking aid | |
FR2997046A1 (en) | DRIVING ASSISTANCE SYSTEM AND METHOD FOR MANAGING IT | |
JP2011529569A (en) | Computer apparatus and method for displaying navigation data in three dimensions | |
FR2963915A1 (en) | METHOD FOR ASSISTING A CONDUCTOR FOR A DRIVING MANEUVER | |
WO2014176478A1 (en) | Scene awareness system for a vehicle | |
FR2958741A1 (en) | METHOD AND INFORMATION SYSTEM FOR MARKING A DESTINATION IN A VEHICLE | |
FR2861488A1 (en) | Drive assisting device for vehicle, has collision possibility determining unit to determine whether possibility of collision between certain and subject vehicles exists or not based on result of relative position determining unit | |
EP2750961B1 (en) | Device for estimating a future path of a vehicle and associating with parts that it comprises aspects that differ according to their positions in relation to an obstacle, for a drive-assist system | |
EP2729328B1 (en) | Driver aid device for making available to a driver, in anticipation, a synthetic image representative of a chosen zone around his vehicle | |
FR3067999B1 (en) | METHOD FOR AIDING THE DRIVING OF A MOTOR VEHICLE | |
FR2936479A1 (en) | CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR | |
FR2956364A1 (en) | Driver assistance device for handling e.g. car around building site, has processing unit generating image data defining image to be displayed in vehicle, where image data represents part of vehicle based on relative position of head | |
WO2019091920A1 (en) | Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle | |
EP2648963B1 (en) | Driving aid device allowing the driver of a vehicle to check a parking area he has just left | |
FR2979311A1 (en) | Processing device for assistance system used for assisting driver of e.g. car, has processing unit instructing display of graphic element that is representative of obstacle, in display zone with color function of level of estimated risk | |
DE102015113251A1 (en) | SYSTEM AND METHOD FOR ENTERING AN INSPECTED BACKWARD ROUTE | |
EP1455254B1 (en) | Aid to clear obstacles | |
FR3017585A1 (en) | PARKING SYSTEM FOR A MOTOR VEHICLE | |
WO2024121172A1 (en) | Method for detecting a centre line of a traffic lane and for controlling a motor vehicle | |
FR2958245A1 (en) | Assistance device for assisting operations of e.g. car, to driver, has control units arranged to generate warning before vehicle starts to move along direction and until vehicle moves along another direction at speed equal to threshold | |
FR3131029A1 (en) | Method and electronic device for controlling a display assembly suitable for being onboard in a cockpit of an aircraft, computer program and associated display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
CA | Change of address |
Effective date: 20180312 |
|
CD | Change of name or company name |
Owner name: PEUGEOT CITROEN AUTOMOBILES SA, FR Effective date: 20180312 |
|
ST | Notification of lapse |
Effective date: 20181031 |