WO2019091920A1 - Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle - Google Patents

Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle Download PDF

Info

Publication number
WO2019091920A1
WO2019091920A1 PCT/EP2018/080190 EP2018080190W WO2019091920A1 WO 2019091920 A1 WO2019091920 A1 WO 2019091920A1 EP 2018080190 W EP2018080190 W EP 2018080190W WO 2019091920 A1 WO2019091920 A1 WO 2019091920A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
virtual camera
image
touch screen
posture
Prior art date
Application number
PCT/EP2018/080190
Other languages
French (fr)
Inventor
Stephanie AMBROISE
Original Assignee
Renault S.A.S
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault S.A.S filed Critical Renault S.A.S
Priority to EP18795667.7A priority Critical patent/EP3707679A1/en
Publication of WO2019091920A1 publication Critical patent/WO2019091920A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present invention relates generally to the field of driving aids for motor vehicles.
  • It relates in particular to a method of displaying an image of the environment of a vehicle on a touch screen fitted to the vehicle.
  • each of the four image sensors being placed on one of the four sides of the vehicle, each of the four image sensors being able to acquire a real image of the environment of the vehicle,
  • a computing unit adapted to implement a display method as mentioned above.
  • this composite image seems to be acquired from a single virtual camera filming the motor vehicle from a given location located remote from the vehicle.
  • the location of this virtual camera can generally be chosen by the driver by displaying a representation of the motor vehicle and a representation of the virtual camera and inviting the driver to move the virtual camera around the vehicle by swiping the touch screen with his fingers.
  • the help device then composes the image of the vehicle environment from the selected location of the virtual camera.
  • the driver may need to change the location of the virtual camera while he is performing a maneuver.
  • the selection of the location of the virtual camera using this device is not practical, and may require too much attention from the driver, which impacts his safety.
  • the present invention proposes a method of displaying an image of the environment of a vehicle on a touch screen fitted to the vehicle, comprising steps of:
  • the invention provides a method for the user to easily choose a new posture of the virtual camera.
  • the choice is indeed simplified by the display of the graphic element to show the user which postures can be adopted by the virtual camera.
  • the user selects the new posture of the virtual camera by exerting a simple press on the graphic element the touch screen.
  • the selection of a new posture does not require much attention on the part of the user who can then focus on the road maneuvers he is performing.
  • a step is provided for constituting a representation of the vehicle as seen from the virtual camera in the new posture determined in step c), and in which, in step e), the virtual image is obtained by superimposing the representation of the vehicle on the environment,
  • the graphic element comprises a circle situated around the vehicle image and said posture parameter is an orientation angle of the virtual camera around the vehicle,
  • the graphic element makes it possible to select the angle of orientation of the virtual camera around the vehicle with a step of 1 degree
  • the graphic element comprises a segment situated vertically with respect to the image of the vehicle and said posture parameter is a vertical distance between the vehicle and the virtual camera,
  • the graphic element comprises a segment situated horizontally with respect to the image of the vehicle and the posture parameter is a horizontal distance between the vehicle and the virtual camera,
  • Steps c) to f) are repeated after each point support exerted by the user on the touch screen,
  • the invention also proposes a help system; driving a vehicle as defined in the introduction of which the computing unit is programmed to implement a method as defined above.
  • FIG. 1 is a diagrammatic section of a vehicle equipped with a driving assistance system according to the invention
  • FIG. 2a illustrates a virtual camera of the vehicle of FIG. 1
  • FIG. 2b illustrates a virtual image of the vehicle of FIG. 1 as seen by the virtual camera
  • FIG. 3a illustrates parameters of the virtual camera
  • FIG. 3b is a schematic view from above of the vehicle of FIG. 1 and of the virtual camera, on which are represented coordinates of the virtual camera,
  • FIG. 3c is a schematic side view of the vehicle of FIG. 1 and of the virtual camera, on which are represented other coordinates of the virtual camera,
  • FIG. 4a is a schematic perspective view of the vehicle of FIG. 1, on which is represented a first graphic element associated with a first posture parameter of the virtual camera,
  • FIG. 4b is a schematic perspective view of the vehicle of FIG. 1, on which is represented a second graphic element associated with a second posture parameter of the virtual camera,
  • FIG. 4c is a schematic perspective view of the vehicle of FIG. 1, on which is represented a third graphic element associated with a third posture parameter of the virtual camera,
  • FIG. 5 represents a diagram illustrating the implementation steps of a display method according to the invention.
  • FIG. 6 represents a perspective virtual image obtained according to the display method illustrated in FIG. 5.
  • FIG. 1 diagrammatically shows an automobile vehicle 1 equipped with a driving assistance system 3.
  • this driver assistance system 3 comprises image sensors 5, a touch screen 7 and a calculation unit 9.
  • the image sensors 5 are able to acquire a plurality of real images of an environment outside the vehicle 1.
  • the driver assistance system 3 comprises four image sensors 5.
  • Each of the image sensors 5 is placed on one of the four sides of the vehicle 1 (only two of the sensors 5 are visible in FIG. ).
  • a first image sensor (not shown) is placed at the front of the vehicle 1, for example below the vehicle logo 1.
  • the first image sensor captures an area located at the front of the vehicle 1.
  • a second image sensor (not shown) is placed at the rear of the vehicle, for example above the license plate.
  • the second image sensor captures an area at the rear of the vehicle 1.
  • a third image sensor 5 is placed on a first lateral side, for example the right side of the vehicle, for example under the right mirror.
  • the third image sensor captures a first zone located laterally with respect to the vehicle 1, here to the right of the vehicle 1.
  • a fourth image sensor 5 is placed on a second lateral side, for example the left side of the vehicle, for example under the left rearview mirror.
  • the fourth image sensor 5 captures a second zone situated laterally with respect to the vehicle 1, here to the left of the vehicle 1.
  • These image sensors 5 are here cameras. These cameras can be analog or digital. Here, digital cameras are preferably used because they make it possible to capture images of higher resolution than analog cameras, which subsequently makes it possible to obtain better results by applying the method of the invention.
  • the cameras have a large opening angle, for example close to or greater than 180 °. These cameras are equipped with lenses known as "fish-eye" in English.
  • a 'this stage can be defined with reference to figure 3b a vehicle reference frame (0, Xv, Yv, Zv) attached to the vehicle 1.
  • the marker is considered an orthonormal coordinate system whose origin O is at the center of front side of the vehicle 1, the longitudinal axis (OXv) of which is oriented toward the rear of the vehicle 1, the transverse axis (OYv) of which is oriented towards the right of the vehicle and whose vertical axis (OZv) is oriented to the top.
  • center C of the vehicle 1 is also possible to define the center C of the vehicle 1 as the point situated halfway between the vehicle 1 in the longitudinal direction, in the transverse direction and in the vertical direction of the vehicle 1.
  • the calculation unit 9 of the vehicle 1 is able to receive the actual images acquired by the image sensors 5. It is furthermore programmed to compose a virtual image 13 of the environment of the vehicle 1 from the actual images acquired by the image sensors 5. Such a virtual image 13 is illustrated in FIG. 2b.
  • the computing unit 9 is programmed to compose a virtual image 13 of the environment of the vehicle 1 as seen by a virtual camera 1 1 located at a distance from the vehicle 1.
  • the virtual camera 11 is visible for example on Figure 2a.
  • the virtual camera 1 1 is located above the vehicle 1. It will be noted that the virtual camera 11 does not exist in the real world: it is only a concept making it easier to understand the invention, which consists in composing a virtual image 13 corresponding to an image real as it would be captured by an actual camera if this actual camera was placed in the position of the virtual camera 11.
  • FIG. 2b illustrates the virtual image 13 as seen by the virtual camera 11.
  • the virtual image 13 comprises a representation 15 of the vehicle 1, viewed from above, as well as the reconstituted environment 17 of the vehicle 1 seen under the same angle.
  • the optical axis Ao of the virtual camera 11 is chosen to pass through a fixed point of the vehicle 1, regardless of the position of the virtual camera 11.
  • the fixed point is for example the center C of the vehicle 1.
  • Figure 3a shows some parameters of the virtual camera 11.
  • the virtual camera 11 thus has a focal length f and a focal plane PF.
  • the focal plane PF has a width Cx and a height Cy.
  • the virtual camera further has a horizontal resolution Resh and a vertical resolution Resv.
  • the virtual camera 1 1 has a posture, that is to say a position and an orientation, which is marked by coordinates expressed in the vehicle reference (0, Xv, Yv, Zv). Coordinates of the virtual camera 1 1 comprise a first coordinate X Cam defined along the axis (OXv), a second coordinate Ycam defined along the axis (OYv), and a third coordinate -icam defined along the axis (OZv).
  • a fourth coordinate G is represented by Figure 3b.
  • the fourth coordinate ⁇ corresponds to an orientation angle ⁇ between the longitudinal axis (OXv) and the projected optical axis A 0 in the plane
  • a fifth coordinate ⁇ is represented by FIG. 3c.
  • the fifth coordinate ⁇ corresponds to an angle of inclination ⁇ formed by the projected optical axis A 0 in the plane and the axis
  • the calculation unit 9 is able to calculate the coordinates
  • a first, a second and a third posture parameter can be defined here, which the user can easily vary by pressing "graphic elements" displayed on the touch screen 7 in order to modify the posture of the virtual camera 1 1 in relation to the vehicle 1.
  • the first posture parameter is the orientation angle ⁇ of the virtual camera 11.
  • a first graphical element 19, shown in FIG. 4a, is associated with this first posture parameter.
  • This first graphic element 19 comprises a first circle C1 of radius R1 centered on the center C.
  • the first circle C1 is located in the plane (XvYv).
  • the value of the first radius R1 is determined so that the first circle C1 encircles the representation 15 of the vehicle 1.
  • the first radius R1 is for example equal to 2.5 m.
  • the first graphic element 19 is stored in a memory unit, from which it can be retrieved by the computing unit 9 which is able to transmit it to the touch screen 7.
  • the second posture parameter is the third coordinate Zcam which is reminded that it represents a vertical distance between the vehicle 1 and the virtual camera 11.
  • This third Zcam coordinate has a range of values that is preset and is stored in the memory unit.
  • the value range is for example a function of the resolution offered by the image sensors 5 and by the screen Touch 7. Indeed, if the virtual camera 11 is placed too high, the objects present on the virtual image 13 will be too small to be recognizable or even visible by the user. Such a virtual image 13 could therefore not help the driver to maneuver the vehicle 1.
  • the third coordinate Zcam is for example between 1, 7 m and 3 m and can vary in steps of 5 cm.
  • the third coordinate Zcam is associated with the angle of inclination ⁇ of the virtual camera 1 1, since the optical axis A 0 is defined as passing through the center C of the vehicle 1.
  • a second graphic element 21, illustrated by FIG. 4b, is associated with this second posture parameter.
  • This second graphic element 21 is here formed by a vertical segment.
  • the second graphical element 21 is stored in the memory unit, since which it can be recovered by the computing unit 9 which is able to transmit it to the touch screen 7.
  • the third posture parameter is the second radius R2 of the second circle C2 on which the virtual camera 1 1 is located.
  • the second radius R2 represents a horizontal distance between the virtual camera 11 and the vehicle 1.
  • the second radius R2 is within a predefined range of values and stored in the memory unit.
  • the second radius R2 is for example between 3.5 m and 6 m, it can be varied in steps of 5 cm.
  • a third graphic element 23 is associated with this third posture parameter.
  • This third graphic element 23 is here formed by a horizontal segment. By pressing this third graphic element 23, the user will be able to vary the second radius R2.
  • the third graphic element 23 is stored in the memory unit, from which it can be recovered by the computing unit 9 which is able to transmit it to the touch screen 7.
  • the first, second and third posture parameters 19, 21, 23 allow the calculation unit 9 to calculate coordinates (Xcam, Ycam, Zcam, ⁇ , ⁇ ) of the virtual camera 11 in the vehicle coordinate system (0, Xv , Yv, Zv).
  • the virtual camera 11 is able to be moved by the user around the representation of the vehicle 1, which causes a change in his
  • the computing unit 9 is able to recover or generate a representation of the vehicle 1 as seen by the virtual camera 11.
  • a three-dimensional model of the vehicle could be stored in a memory unit of the driver assistance system 3.
  • a plurality of representations of the vehicle 1 is stored in a memory unit of the driver assistance system 3.
  • the plurality of representations 15 is for example made from a simulation tool of the vehicle 1. For example 360 images are captured in perspective around the vehicle 1, in steps of 1 degree and remaining at a first value of the second radius R2 . Then, this operation is repeated by moving to a second value of the second radius R2.
  • the second radius R2 is for example varied in millimeters.
  • images of the vehicle 1 are captured by varying the third coordinate Zcam, and thus the angle of inclination ⁇ of the virtual camera 11.
  • Each captured image is named with its orientation angle value ⁇ , its second radius value R2 and its angle of inclination ⁇ value, so the calculation unit 9 can easily retrieve the appropriate representation 15 for each posture of the virtual camera January 1.
  • the calculation unit 9 is furthermore capable of superimposing the appropriate representation of the vehicle 1 on the reconstituted image of the environment 17 to form the virtual image 13 as seen by the virtual camera 11.
  • the calculation unit 9 is also able to transmit the virtual image 13 to the touch screen 7.
  • the touch screen 7 is placed in the passenger compartment of the vehicle 1, for example on the dashboard of the latter.
  • the touch screen 7 is able to display the virtual image 13 as well as the graphic elements 19, 21, 23 transmitted by the calculation unit 9.
  • the touch screen 7 is able to display images in colour.
  • the touch screen 7 is furthermore able to acquire the position of a selected point P by the occasional support of a user on said touch screen 7.
  • a screen mark (0e, Ye, Ze) is associated with the touch screen 7.
  • the origin 0e of the screen mark (Oe, Ye, Ze) is for example located on a corner of the touch screen 7, for example the lower left corner.
  • the axis (OeYe) extends along a horizontal axis of the touch screen 7.
  • the axis (OeZe) extends along a vertical axis of the touch screen 7.
  • the point P on which the user pressed has two-dimensional coordinates (yp, ZP). These two-dimensional coordinates (yp, ZP) are expressed in pixels.
  • the touch screen 7 is able to determine the two-dimensional coordinates (yp, ZP) of the selected point P (for example by means of a computer associated with the touch screen 7) and to transmit them to the calculation unit 9.
  • the operation a touch screen 7 is well known to those skilled in the art and will not be described in detail.
  • FIG. 5 a method for displaying an image of the environment of a vehicle 1 on a touch screen 7 fitted to the vehicle 1 can be described in greater detail.
  • This display method comprises a step a) of display on the touch screen 7 of one of the representations of the vehicle 1 and of at least one graphic element 19, 21, 23 among the first, second and third graphic elements 19, 21, 23 previously described.
  • the vehicle 1 can be represented as seen from an initial position PosO of coordinates (Xcamo, Ycamo, Zcamo, ⁇ , ⁇ ) predefined of the initial virtual camera 1 1 in the vehicle reference (0, Xv, Yv , Zv).
  • the touch screen 7 displays for example the first graphic element 19 associated with the first posture parameter (the orientation angle ⁇ ).
  • the choice by the user of the posture of the virtual camera 1 1, and therefore the virtual view of the environment is facilitated. Indeed, the user quickly understands at which locations he can place the virtual camera 1 1. The choice of the location of the virtual camera 1 1 does not require great attention since a single point support with the finger is enough, and user can focus on the maneuvers he is doing.
  • the touch screen 7 may further display instructions to the user. These instructions can explain to him how to select the location of the virtual camera 11. According to the invention, the selection is made by a one-off support of the user on the touch screen 7, more precisely on one of the graphical elements displayed. .
  • the touch screen 7 acquires the position of a first point P1 of the first graphic element 19 selected by a user press exerted on the touch screen 7.
  • the position of the first selected point P1 is expressed by a set of coordinates in pixels in the screen frame (0,
  • the coordinates of the first selected point P1 are the coordinates of the first selected point P1
  • the calculation unit 9 calculates the value of the first posture parameter, here the orientation angle ⁇ of the virtual camera 11 around the vehicle 1, as a function of the coordinates (yp). i, ZPI) of the first selected point P1 in order to deduce a new posture Pos1 of the virtual camera 1 1.
  • the orientation angle ⁇ is determined by means of the formula:
  • (Xc, Yc, Zc) are the coordinates of the center C of the vehicle 1 defined in the vehicle mark and that R1 is the radius of the first circle C1 (first graphical element 19).
  • the coordinates (Xc, Yc, Zc), the value of R1 as well as other variables used in the calculations which will be described later, such as and R2, are stored in the memory unit.
  • the coordinates (XVPI, yvpi, ZVPI) are defined as the three-dimensional coordinates of the first selected point P1 in the vehicle frame (0, Xv, Yv, Zv).
  • the only unknown variable of the equation of the angle of orientation ⁇ is therefore the coordinate XVP-I.
  • the coordinate is determined by the formula:
  • Xcamo and Ycamo are the initial coordinates, and therefore known, of the camera in the vehicle reference.
  • Zc is also known.
  • R3 is determined using the formula:
  • the coordinates (xpn, ypn,) are the coordinates of the first selected point P1 projected onto a first focal plane PF1 of the virtual camera 1 1, and expressed in the vehicle coordinate system (0, Xv, Yv, Zv) (the first focal plane PF1 being associated with the first posture of the virtual camera 1 1).
  • the calculation unit 9 can use it to calculate the other coordinates of the first posture of the virtual camera 11
  • a step d) the image sensors 5 acquire real images of the environment of the vehicle 1.
  • the step d) can take place simultaneously with the preceding steps a), b), c), or before those -this.
  • the actual images are transmitted to the computing unit 9 which composes a virtual image of the environment of the vehicle 1 as seen from the virtual camera 1 1 during a step e).
  • the calculation unit 9 selects the real images to be used according to the posture of the virtual camera 1 1. For example, when the virtual camera is placed above the vehicle 1 with an optical axis parallel to the axis (OZv) vehicle mark the virtual image 13 displayed is that represented by FIG.
  • the computing unit 9 can for example compose the virtual image 13 from the real images of only one, two or three image sensors 5.
  • This step of composing the image does not form the heart of the invention and is already well known to those skilled in the art, it will not be described in more detail here.
  • the display method further provides a step of reading a representation of the vehicle 1 as seen from the new posture Pos 1 of the virtual camera 11 deduced in step c).
  • the representation 15 of the vehicle 1 is for example selected from the plurality of representations 15 stored in the memory unit.
  • the virtual image 13 of the environment 17 and the representation 15 of the vehicle 1 are displayed on the touch screen 7 during a step f).
  • the user can easily choose the location of the virtual camera 11, and accesses easily understandable information enabling him to better visualize the environment 17 of the vehicle 1.
  • the calculation unit 9 controls the display of the second graphic element 21 in order to allow the user to adjust the height of the virtual camera 11, before displaying the third graphic element 23 in order to adjust the horizontal distance between the virtual camera 11 and the vehicle 1.
  • the calculation unit 9 displays the second graphic element 21 associated with the second posture parameter, that is to say the vertical segment during step a).
  • the vertical segment is for example displayed along a vertical axis passing through the center C.
  • step b) the computing unit 9 acquires the position of a second selected point P2 by pressing on the touch screen at the vertical segment.
  • This second selected point P2 makes it possible to calculate, during step c), on the one hand, a second value of the coordinate Zc a m 2 of the second posture Pos 2 of the virtual camera 1 1 and, on the other hand, a second value of its angle inclination 92.
  • Coordinates are the coordinates of the second selected point P2 projected on a second focal plane PF2 of the virtual camera 11, and expressed in the vehicle coordinate system (the second focal plane
  • yp2 and ZP2 are the coordinates of the second selected point P2 and therefore known.
  • the orientation angle ⁇ around the vehicle 11 has the first value ⁇ 1 previously calculated.
  • the virtual camera 11 is therefore positioned in
  • Steps d) and e) are then repeated so as to display an image of the environment 17 and a representation of the vehicle 1, seen from an altitude corresponding to the wish of the user.
  • calculation unit 9 controls the display of the third graphic element 23 on the touch screen 7 during a new step a).
  • the horizontal segment of the third graphic element 23 is for example arranged along an axis passing through the center C and at an angle equal to the orientation angle ⁇ + ⁇ / 2 with respect to the longitudinal axis (OXv) .
  • step b) the computing unit 9 acquires the position of the third selected point P3 by pressing the horizontal segment. Coordinates of the third selected point P3 on the touch screen 7 are transmitted to the calculation unit 9.
  • This third selected point P3 makes it possible to calculate, during step c), a new horizontal distance 2f to be applied between the vehicle 1 and the virtual camera 1 1.
  • the calculation unit 9 uses the values of orientation angle ⁇ 1 , and angle of inclination previously calculated.
  • X vp is the coordinate of the point of intersection of the circle of radius R1 and the horizontal segment of the third graphic element 23.
  • the coordinate x vp is obtained with the formula:
  • Xcamo and Ycamo are the initial coordinates of the virtual camera 1 1 in the vehicle mark.
  • Zc is also known.
  • R3 is determined using the formula:
  • the coordinates are the coordinates of the third selected point P3 projected on a third focal plane PF3 of the virtual camera 11, and expressed in the vehicle reference (0, Xv, Yv, Zv) (the third focal plane PF3 being associated with the third posture of the virtual camera 11).
  • the Thales theorem is applied as follows:
  • the orientation angle ⁇ around the vehicle 11 has the first value ⁇ ⁇ previously calculated
  • the inclination angle ⁇ has the value 92 previously calculated.
  • the coordinates of the virtual camera 1 1 are:
  • Steps d) and e) are then repeated so as to display an image of the environment 17 and a representation of the vehicle 1, seen from a distance to the vehicle 1 corresponding to the wish of the user.
  • the virtual image 13 comprising the environment 17 of the vehicle 1 as well as the representation 15 of the vehicle 1 is thus composed and displayed after each deduction of the new posture of the virtual camera 11.
  • the virtual image 13 could be composed and displayed only after the driver has selected the three selected points P1, P2, P3.
  • the virtual image 13 could be composed and displayed only after the driver has selected the three selected points P1, P2, P3.
  • the calculation unit 9 could control the simultaneous display of the first graphic element 19, second graphic element 21 and third graphic element 23 previously described, during the display step a).
  • the user could then choose with precision the new posture of the virtual camera 11 by choosing a point on any one of the first, second and third graphic elements 19, 21, 23.
  • the acquisition of the first, second and third selected points P1, P2, P3 could be performed in any order. Therefore, the user could select in any order the height of the virtual camera 1 1, the rotation angle ⁇ of the virtual camera 11 and the horizontal distance R2 between the virtual camera 11 and the vehicle 1.
  • the first graphic element 19, the second graphic element 21, and the third graphic element 23 each have a different color.
  • the computing unit 9 can implement an automatic method for determining the posture of the virtual camera 11, when the conditions require it.
  • the computing unit 9 is programmed to automatically modify the posture of the virtual camera 11 when an obstacle is detected near the vehicle 1.
  • the calculation unit 9 determines the trajectory of the vehicle 1 during a prediction step.
  • the calculation unit 9 determines this trajectory as a function of at least the angle of the steering wheel and the gear ratio engaged (forward or reverse).
  • the computing unit 9 searches for an obstacle located near the vehicle 1. More precisely, the computing unit 9 determines if an obstacle is on the previously predicted trajectory.
  • the computing unit 9 uses remote sensors (radar and / or sonar and / or lidar) located around the vehicle 1.
  • the vehicle 1 is equipped with six remote sensors at the front and six remote sensors at the rear. Remote sensors not only detect the presence of an obstacle, but also assess the distance between the obstacle and the vehicle 1.
  • the virtual camera is automatically positioned along the longitudinal axis (OXv) of the vehicle 1 towards the rear of the vehicle 1 , and directed towards the front of the vehicle 1.
  • the virtual camera 1 1 is then placed at an orientation angle ⁇ equal to ⁇ radians.
  • the computing unit 9 could choose the orientation angle ⁇ from a plurality of rotation angles ⁇ stored in the memory unit.
  • the computing unit 9 determines the height of the obstacle.
  • the angle of inclination ⁇ of the virtual camera 11 is then calculated so that the optical axis of the virtual camera 11 passes through the center of the obstacle.
  • the horizontal distance R2 between the vehicle 1 and the virtual camera 1 1 is calculated as a function of the distance detected between the obstacle and the vehicle 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instrument Panels (AREA)

Abstract

The invention relates to a method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle, comprising the steps of: a) displaying, on the touch screen, an image of the vehicle as it would be seen from a virtual camera placed in an initial position, and at least one graphic element associated with a position parameter of the virtual camera; b) acquiring the location of a point of the element selected by the user by pressing the touch screen; c) calculating the value of the position parameter according to the location of the point, and deriving a new position for the virtual camera; d) acquiring real images of the surrounding area using image sensors; e) using the real images to build a virtual image of the area surrounding the vehicle as seen from the virtual camera placed in the new position; and f) displaying the virtual image on the touch screen.

Description

PROCEDE D'AFFICHAGE D'UNE IMAGE DE L'ENVIRONNEMENT D'UN VEHICULE SUR UN ECRAN TACTILE EQUIPANT LE VEHICULE  METHOD FOR DISPLAYING AN IMAGE OF THE ENVIRONMENT OF A VEHICLE ON A TOUCH SCREEN EQUIPPING THE VEHICLE
DOMAINE TECHNIQUE AUQUEL SE RAPPORTE L'INVENTION La présente invention concerne de manière générale le domaine des aides à la conduite de véhicules automobiles. TECHNICAL FIELD TO WHICH THE INVENTION RELATES The present invention relates generally to the field of driving aids for motor vehicles.
Elle concerne en particulier un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule.  It relates in particular to a method of displaying an image of the environment of a vehicle on a touch screen fitted to the vehicle.
Elle concerne également un système d'aide comprenant :  It also relates to a help system comprising:
- quatre capteurs d'images, chacun des quatre capteurs d'images étant placé sur un des quatre côté du véhicule, chacun des quatre capteurs d'images étant apte à acquérir une image réelle de l'environnement du véhicule,  four image sensors, each of the four image sensors being placed on one of the four sides of the vehicle, each of the four image sensors being able to acquire a real image of the environment of the vehicle,
- un écran tactile, et  - a touch screen, and
- une unité de calcul adaptée à mettre en œuvre un procédé d'affichage tel que précité.  a computing unit adapted to implement a display method as mentioned above.
ARRIERE-PLAN TECHNOLOGIQUE  BACKGROUND
Il est connu de composer une image d'un véhicule automobile circulant dans un environnement à partir d'images capturées par plusieurs caméras situées sur les quatre côtés du véhicule. Cette image composée est affichée au conducteur sur un écran d'affichage du véhicule automobile pour lui permettre de détecter des obstacles situés dans les angles morts du véhicule automobile.  It is known to compose an image of a motor vehicle traveling in an environment from images captured by several cameras located on the four sides of the vehicle. This composite image is displayed to the driver on a display screen of the motor vehicle to enable him to detect obstacles located in the blind spots of the motor vehicle.
Pour le conducteur, cette image composée semble être acquise depuis une unique caméra virtuelle filmant le véhicule automobile depuis un emplacement donné situé à distance du véhicule.  For the driver, this composite image seems to be acquired from a single virtual camera filming the motor vehicle from a given location located remote from the vehicle.
Quand l'écran est tactile, l'emplacement de cette caméra virtuelle peut généralement être choisi par le conducteur en affichant une représentation du véhicule automobile ainsi qu'une représentation de la caméra virtuelle et en invitant le conducteur à déplacer la caméra virtuelle autour du véhicule en balayant l'écran tactile avec ses doigts.  When the screen is tactile, the location of this virtual camera can generally be chosen by the driver by displaying a representation of the motor vehicle and a representation of the virtual camera and inviting the driver to move the virtual camera around the vehicle by swiping the touch screen with his fingers.
Le dispositif d'aide compose ensuite l'image de l'environnement du véhicule à partir de l'emplacement sélectionné de la caméra virtuelle.  The help device then composes the image of the vehicle environment from the selected location of the virtual camera.
Cependant, le conducteur peut avoir besoin de changer l'emplacement de la caméra virtuelle alors qu'il est en train d'effectuer une manœuvre. Or, la sélection de l'emplacement de la caméra virtuelle à l'aide de ce dispositif n'est pas pratique, et peut demander trop d'attention au conducteur, ce qui impacte sa sécurité. However, the driver may need to change the location of the virtual camera while he is performing a maneuver. However, the selection of the location of the virtual camera using this device is not practical, and may require too much attention from the driver, which impacts his safety.
OBJET DE L'INVENTION  OBJECT OF THE INVENTION
Afin de remédier à l'inconvénient précité de l'état de la technique, la présente invention propose un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule, comprenant des étapes de :  In order to remedy the aforementioned drawback of the state of the art, the present invention proposes a method of displaying an image of the environment of a vehicle on a touch screen fitted to the vehicle, comprising steps of:
a) affichage sur ledit écran tactile :  a) display on said touch screen:
- d'une image du véhicule tel qu'il serait vu depuis une caméra virtuelle placée dans une posture initiale, et  an image of the vehicle as seen from a virtual camera placed in an initial posture, and
- d'au moins un élément graphique associé un paramètre de posture de la caméra virtuelle,  at least one graphic element associated with a posture parameter of the virtual camera,
b) acquisition de la position d'un point dudit élément sélectionné par appui d'un usager sur l'écran tactile,  b) acquiring the position of a point of said selected element by pressing a user on the touch screen,
c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point, et déduction d'une nouvelle posture de la caméra virtuelle, d) acquisition d'images réelle de l'environnement par une pluralité de capteurs d'images,  c) calculating the value of said posture parameter as a function of the position of said point, and deducing a new posture of the virtual camera, d) real image acquisition of the environment by a plurality of image sensors,
e) composition, à partir des images réelles acquises à l'étape d), d'une image virtuelle de l'environnement du véhicule tel qu'il serait vu depuis la caméra virtuelle placée dans la nouvelle posture déterminée à l'étape c), et  e) composition, from the real images acquired in step d), of a virtual image of the vehicle environment as seen from the virtual camera placed in the new posture determined in step c) , and
f) affichage sur l'écran tactile de l'image virtuelle.  f) Display on the touch screen of the virtual image.
Ainsi, l'invention propose un procédé permettant à l'usager de choisir facilement une nouvelle posture de la caméra virtuelle. Le choix est en effet simplifié par l'affichage de l'élément graphique permettant de montrer à l'usager quelles postures peuvent être adoptées par la caméra virtuelle. L'usager sélectionne ensuite la nouvelle posture de la caméra virtuelle en exerçant un simple appui sur l'élément graphique l'écran tactile. La sélection d'une nouvelle posture ne nécessite pas une grande attention de la part de l'usager qui peut alors se concentrer sur les manœuvres routières qu'il est en train d'effectuer.  Thus, the invention provides a method for the user to easily choose a new posture of the virtual camera. The choice is indeed simplified by the display of the graphic element to show the user which postures can be adopted by the virtual camera. The user then selects the new posture of the virtual camera by exerting a simple press on the graphic element the touch screen. The selection of a new posture does not require much attention on the part of the user who can then focus on the road maneuvers he is performing.
D'autres caractéristiques non limitatives et avantageuses du procédé d'affichage conforme à l'invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :  Other nonlimiting and advantageous features of the display method according to the invention, taken individually or in any technically possible combination, are as follows:
- il est prévu une étape de constitution d'une représentation du véhicule tel qu'il serait vu depuis la caméra virtuelle dans la nouvelle posture déterminée à l'étape c), et dans lequel, à l'étape e), l'image virtuelle est obtenue en superposant la représentation du véhicule à l'environnement, a step is provided for constituting a representation of the vehicle as seen from the virtual camera in the new posture determined in step c), and in which, in step e), the virtual image is obtained by superimposing the representation of the vehicle on the environment,
-l'élément graphique comprend un cercle situé autour de l'image du véhicule et ledit paramètre de posture est un angle d'orientation de la caméra virtuelle autour du véhicule,  the graphic element comprises a circle situated around the vehicle image and said posture parameter is an orientation angle of the virtual camera around the vehicle,
- l'élément graphique permet de sélectionner l'angle d'orientation de la caméra virtuelle autour du véhicule avec un pas de 1 degré,  the graphic element makes it possible to select the angle of orientation of the virtual camera around the vehicle with a step of 1 degree,
-l'élément graphique comprend un segment situé verticalement par rapport à l'image du véhicule et ledit paramètre de posture est une distance verticale entre le véhicule et la caméra virtuelle,  the graphic element comprises a segment situated vertically with respect to the image of the vehicle and said posture parameter is a vertical distance between the vehicle and the virtual camera,
- l'élément graphique comprend un segment situé horizontalement par rapport à l'image du véhicule et le paramètre de posture est une distance horizontale entre le véhicule et la caméra virtuelle,  the graphic element comprises a segment situated horizontally with respect to the image of the vehicle and the posture parameter is a horizontal distance between the vehicle and the virtual camera,
- les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l'usager sur l'écran tactile,  - Steps c) to f) are repeated after each point support exerted by the user on the touch screen,
- la caméra virtuelle présente un axe optique, à l'étape c), la nouvelle posture de la caméra virtuelle est définie de telle sorte que ledit axe optique passe par un point prédéterminé du véhicule, L'invention propose également un système d'aide à la conduite d'un véhicule tel que défini en introduction dont l'unité de calcul est programmée pour mettre en œuvre un procédé tel que défini ci-dessus.  the virtual camera has an optical axis, in step c), the new posture of the virtual camera is defined so that said optical axis passes through a predetermined point of the vehicle, the invention also proposes a help system; driving a vehicle as defined in the introduction of which the computing unit is programmed to implement a method as defined above.
DESCRIPTION DÉTAILLÉE D'UN EXEMPLE DE RÉALISATION La description qui va suivre en regard des dessins annexés, donnés à titre d'exemples non limitatifs, fera bien comprendre en quoi consiste l'invention et comment elle peut être réalisée.  DETAILED DESCRIPTION OF AN EXEMPLARY EMBODIMENT The following description with reference to the accompanying drawings, given by way of non-limiting examples, will make it clear what the invention consists of and how it can be implemented.
Sur les dessins annexés :  In the accompanying drawings:
- la figure 1 est une coupe schématique d'un véhicule équipé d'un système d'aide à la conduite selon l'invention,  FIG. 1 is a diagrammatic section of a vehicle equipped with a driving assistance system according to the invention,
- la figure 2a illustre une caméra virtuelle du véhicule de la figure 1 , - la figure 2b illustre une image virtuelle du véhicule de la figure 1 tel que vu par la caméra virtuelle,  FIG. 2a illustrates a virtual camera of the vehicle of FIG. 1; FIG. 2b illustrates a virtual image of the vehicle of FIG. 1 as seen by the virtual camera;
- la figure 3a illustre des paramètres de la caméra virtuelle,  FIG. 3a illustrates parameters of the virtual camera,
- la figure 3b est une vue schématique de dessus du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentées des coordonnées de la caméra virtuelle, FIG. 3b is a schematic view from above of the vehicle of FIG. 1 and of the virtual camera, on which are represented coordinates of the virtual camera,
- la figure 3c est une vue schématique de côté du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentés d'autres coordonnées de la caméra virtuelle,  FIG. 3c is a schematic side view of the vehicle of FIG. 1 and of the virtual camera, on which are represented other coordinates of the virtual camera,
- la figure 4a est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un premier élément graphique associé à un premier paramètre de posture de la caméra virtuelle,  FIG. 4a is a schematic perspective view of the vehicle of FIG. 1, on which is represented a first graphic element associated with a first posture parameter of the virtual camera,
- la figure 4b est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un deuxième élément graphique associé à un deuxième paramètre de posture de la caméra virtuelle,  FIG. 4b is a schematic perspective view of the vehicle of FIG. 1, on which is represented a second graphic element associated with a second posture parameter of the virtual camera,
- la figure 4c est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un troisième élément graphique associé à un troisième paramètre de posture de la caméra virtuelle,  FIG. 4c is a schematic perspective view of the vehicle of FIG. 1, on which is represented a third graphic element associated with a third posture parameter of the virtual camera,
- la figure 5 représente un diagramme illustrant les étapes de mise en œuvre d'un procédé d'affichage selon l'invention, et  FIG. 5 represents a diagram illustrating the implementation steps of a display method according to the invention, and
- la figure 6 représente une image virtuelle en perspective obtenue selon le procédé d'affichage illustré sur la figure 5.  FIG. 6 represents a perspective virtual image obtained according to the display method illustrated in FIG. 5.
Sur la figure 1 , on a représenté schématiquement un véhicule 1 automobile équipé d'un système d'aide à la conduite 3.  FIG. 1 diagrammatically shows an automobile vehicle 1 equipped with a driving assistance system 3.
Comme cela sera bien décrit dans la suite de cet exposé, ce système d'aide à la conduite 3 comprend des capteurs d'images 5, un écran tactile 7 et une unité de calcul 9.  As will be well described in the remainder of this disclosure, this driver assistance system 3 comprises image sensors 5, a touch screen 7 and a calculation unit 9.
Comme le montre la figure 1 , les capteurs d'images 5 sont aptes à acquérir une pluralité d'images réelles d'un environnement extérieur au véhicule 1.  As shown in FIG. 1, the image sensors 5 are able to acquire a plurality of real images of an environment outside the vehicle 1.
De manière préférentielle, le système d'aide à la conduite 3 comprend quatre capteurs d'images 5. Chacun des capteurs d'images 5 est placé sur un des quatre côtés du véhicule 1 (seuls deux des capteurs 5 sont visibles sur la figure 1).  Preferably, the driver assistance system 3 comprises four image sensors 5. Each of the image sensors 5 is placed on one of the four sides of the vehicle 1 (only two of the sensors 5 are visible in FIG. ).
Un premier capteur d'images (non représenté) est placé à l'avant du véhicule 1 , par exemple en dessous du logo du véhicule 1. Le premier capteur d'images capture une zone située à l'avant du véhicule 1.  A first image sensor (not shown) is placed at the front of the vehicle 1, for example below the vehicle logo 1. The first image sensor captures an area located at the front of the vehicle 1.
Un deuxième capteur d'images (non représenté) est placé à l'arrière du véhicule, par exemple au dessus de la plaque d'immatriculation. Le deuxième capteur d'images capture une zone située à l'arrière du véhicule 1.  A second image sensor (not shown) is placed at the rear of the vehicle, for example above the license plate. The second image sensor captures an area at the rear of the vehicle 1.
Un troisième capteur d'images 5 est placé sur un premier côté latéral, par exemple le côté droit du véhicule, par exemple sous le rétroviseur droit. Le troisième capteur d'images capture une première zone située latéralement par rapport au véhicule 1 , ici à droite du véhicule 1. A third image sensor 5 is placed on a first lateral side, for example the right side of the vehicle, for example under the right mirror. The third image sensor captures a first zone located laterally with respect to the vehicle 1, here to the right of the vehicle 1.
Un quatrième capteur d'images 5 est placé sur un deuxième côté latéral, par exemple le côté gauche du véhicule, par exemple sous le rétroviseur gauche. Le quatrième capteur d'images 5 capture une deuxième zone située latéralement par rapport au véhicule 1 , ici à gauche du véhicule 1.  A fourth image sensor 5 is placed on a second lateral side, for example the left side of the vehicle, for example under the left rearview mirror. The fourth image sensor 5 captures a second zone situated laterally with respect to the vehicle 1, here to the left of the vehicle 1.
Ces capteurs d'images 5 sont ici des caméras. Ces caméras peuvent être de type analogique ou digital. Ici, on utilise de préférence des caméras digitales car elles permettent de capturer des images de plus grande résolution que les caméras analogiques, ce qui permet par la suite d'obtenir de meilleurs résultats en appliquant le procédé de l'invention.  These image sensors 5 are here cameras. These cameras can be analog or digital. Here, digital cameras are preferably used because they make it possible to capture images of higher resolution than analog cameras, which subsequently makes it possible to obtain better results by applying the method of the invention.
Les caméras présentent un grand angle d'ouverture, par exemple proche de ou supérieur à 180°. Ces caméras sont équipées d'objectifs connus sous le nom de « fish-eye » en anglais.  The cameras have a large opening angle, for example close to or greater than 180 °. These cameras are equipped with lenses known as "fish-eye" in English.
A' ce stade, on peut définir en référence à la figure 3b un repère véhicule (0, Xv, Yv, Zv) attaché au véhicule 1. Ici, le repère considéré est un repère orthonormé dont l'origine O est située au centre du côté avant du véhicule 1 , dont l'axe longitudinal (OXv) est orienté vers l'arrière du véhicule 1 , dont l'axe transversal (OYv) est orienté vers la droite du véhicule et dont l'axe vertical (OZv) est orienté vers le haut. A 'this stage can be defined with reference to figure 3b a vehicle reference frame (0, Xv, Yv, Zv) attached to the vehicle 1. Here, the marker is considered an orthonormal coordinate system whose origin O is at the center of front side of the vehicle 1, the longitudinal axis (OXv) of which is oriented toward the rear of the vehicle 1, the transverse axis (OYv) of which is oriented towards the right of the vehicle and whose vertical axis (OZv) is oriented to the top.
On peut définir en outre le centre C du véhicule 1 comme le point situé à mi-distance du véhicule 1 dans le sens longitudinal, dans le sens transversal et dans le sens vertical du véhicule 1.  It is also possible to define the center C of the vehicle 1 as the point situated halfway between the vehicle 1 in the longitudinal direction, in the transverse direction and in the vertical direction of the vehicle 1.
L'unité de calcul 9 du véhicule 1 est apte à recevoir les images réelles acquises par les capteurs d'images 5. Elle est en outre programmée pour composer une image virtuelle 13 de l'environnement du véhicule 1 à partir des images réelles acquises par les capteurs d'images 5. Une telle image virtuelle 13 est illustrée par la figure 2b.  The calculation unit 9 of the vehicle 1 is able to receive the actual images acquired by the image sensors 5. It is furthermore programmed to compose a virtual image 13 of the environment of the vehicle 1 from the actual images acquired by the image sensors 5. Such a virtual image 13 is illustrated in FIG. 2b.
Plus précisément, l'unité de calcul 9 est programmée pour composer une image virtuelle 13 de l'environnement du véhicule 1 tel que vu par une caméra virtuelle 1 1 se trouvant à distance du véhicule 1. La caméra virtuelle 11 est visible par exemple sur la figure 2a.  More specifically, the computing unit 9 is programmed to compose a virtual image 13 of the environment of the vehicle 1 as seen by a virtual camera 1 1 located at a distance from the vehicle 1. The virtual camera 11 is visible for example on Figure 2a.
Sur la figure 2a, la caméra virtuelle 1 1 est située au dessus du véhicule 1. On notera bien que la caméra virtuelle 11 n'existe pas dans le monde réel : il s'agit seulement d'un concept permettant de faciliter la compréhension de l'invention, laquelle consiste à composer une image virtuelle 13 correspondant à une image réelle telle qu'elle serait capturée par une caméra réelle si cette caméra réelle était placée dans la position de la caméra virtuelle 11. In FIG. 2a, the virtual camera 1 1 is located above the vehicle 1. It will be noted that the virtual camera 11 does not exist in the real world: it is only a concept making it easier to understand the invention, which consists in composing a virtual image 13 corresponding to an image real as it would be captured by an actual camera if this actual camera was placed in the position of the virtual camera 11.
La figure 2b illustre l'image virtuelle 13 telle que vue par la caméra virtuelle 11. L'image virtuelle 13 comprend une représentation 15 du véhicule 1 , ici vu du dessus, ainsi que l'environnement reconstitué 17 du véhicule 1 vu sous le même angle.  FIG. 2b illustrates the virtual image 13 as seen by the virtual camera 11. The virtual image 13 comprises a representation 15 of the vehicle 1, viewed from above, as well as the reconstituted environment 17 of the vehicle 1 seen under the same angle.
On définit par rapport à la caméra virtuelle 1 1 un axe optique A0. L'axe optique Ao de la caméra virtuelle 11 est choisi pour passer par un point fixe du véhicule 1 , quelle que soit la position de la caméra virtuelle 11. Le point fixe est par exemple le centre C du véhicule 1. We define with respect to the virtual camera 1 1 an optical axis A 0 . The optical axis Ao of the virtual camera 11 is chosen to pass through a fixed point of the vehicle 1, regardless of the position of the virtual camera 11. The fixed point is for example the center C of the vehicle 1.
La figure 3a représente certains paramètres de la caméra virtuelle 11. La caméra virtuelle 11 présente ainsi une distance focale f et un plan focal PF. Le plan focal PF présente une largeur Cx et une hauteur Cy. La caméra virtuelle présente en outre une résolution horizontale Resh et une résolution verticale Resv.  Figure 3a shows some parameters of the virtual camera 11. The virtual camera 11 thus has a focal length f and a focal plane PF. The focal plane PF has a width Cx and a height Cy. The virtual camera further has a horizontal resolution Resh and a vertical resolution Resv.
Comme le montre la figure 3b, la caméra virtuelle 1 1 présente une posture, c'est-à-dire une position et une orientation, qui est repérée par des coordonnées
Figure imgf000008_0001
exprimées dans le repère véhicule (0, Xv, Yv, Zv). Les coordonnées
Figure imgf000008_0002
de la caméra virtuelle 1 1 comprennent une première coordonnée Xcam définie selon l'axe (OXv), une deuxième coordonnée Ycam définie selon l'axe (OYv), et une troisième coordonnée -icam définie selon l'axe (OZv).
As shown in Figure 3b, the virtual camera 1 1 has a posture, that is to say a position and an orientation, which is marked by coordinates
Figure imgf000008_0001
expressed in the vehicle reference (0, Xv, Yv, Zv). Coordinates
Figure imgf000008_0002
of the virtual camera 1 1 comprise a first coordinate X Cam defined along the axis (OXv), a second coordinate Ycam defined along the axis (OYv), and a third coordinate -icam defined along the axis (OZv).
Une quatrième coordonnée G est représentée par la figure 3b. La quatrième coordonnée θ correspond à un angle d'orientation Θ entre l'axe longitudinal (OXv) et le projeté de l'axe optique A0 dans le plan
Figure imgf000008_0004
A fourth coordinate G is represented by Figure 3b. The fourth coordinate θ corresponds to an orientation angle Θ between the longitudinal axis (OXv) and the projected optical axis A 0 in the plane
Figure imgf000008_0004
Une cinquième coordonnée φ est représentée par la figure 3c. La cinquième coordonnée φ correspond à un angle d'inclinaison φ formé par le projeté de l'axe optique A0 dans le plan
Figure imgf000008_0005
et l'axe
Figure imgf000008_0006
A fifth coordinate φ is represented by FIG. 3c. The fifth coordinate φ corresponds to an angle of inclination φ formed by the projected optical axis A 0 in the plane
Figure imgf000008_0005
and the axis
Figure imgf000008_0006
L'unité de calcul 9 est apte à calculer les coordonnées
Figure imgf000008_0003
The calculation unit 9 is able to calculate the coordinates
Figure imgf000008_0003
θ, φ) en fonction d'une commande de l'usager, laquelle commande est formulée par un appui d'un doigt de l'usager sur l'écran tactile 7. θ, φ) according to a command from the user, which command is formulated by pressing a user's finger on the touch screen 7.
Parmi ces cinq coordonnées, trois d'entre elles sont qualifiées de « paramètres de posture » en ce sens qu'elles permettent à l'usager de faire varier la position et l'orientation de la caméra virtuelle 1 1. L'usager pourra donc jouer sur trois degrés de liberté de la caméra virtuelle 11. Les autres degrés de liberté ne seront pas modifiables directement par l'usager, ce qui permettra notamment de s'assurer que la caméra virtuelle 11 soit toujours dirigée vers le véhicule 1.  Among these five coordinates, three of them are called "posture parameters" in the sense that they allow the user to vary the position and orientation of the virtual camera 1 1. The user can therefore three degrees of freedom of the virtual camera 11. The other degrees of freedom will not be directly modifiable by the user, which will include ensuring that the virtual camera 11 is always directed to the vehicle 1.
On peut définir ici un premier, un deuxième et un troisième paramètre de posture, que l'usager pourra facilement faire varier en appuyant sur des « éléments graphiques » affichés sur l'écran tactile 7 afin de modifier la posture de la caméra virtuelle 1 1 par rapport au véhicule 1.  A first, a second and a third posture parameter can be defined here, which the user can easily vary by pressing "graphic elements" displayed on the touch screen 7 in order to modify the posture of the virtual camera 1 1 in relation to the vehicle 1.
Le premier paramètre de posture est l'angle d'orientation Θ de la caméra virtuelle 11.  The first posture parameter is the orientation angle Θ of the virtual camera 11.
Un premier élément graphique 19, représenté sur la figure 4a, est associé à ce premier paramètre de posture. Ce premier élément graphique 19 comprend un premier cercle C1 de rayon R1 centré sur le centre C. Le premier cercle C1 est situé dans le plan (XvYv). En appuyant sur ce premier élément graphique 19, l'usager va donc pouvoir faire varier l'angle d'orientation Θ. On peut donc considérer que le premier élément graphique 19 représente les valeurs que peut prendre l'angle d'orientation Θ. La valeur de l'angle d'orientation Θ est comprise entre 0 et 360° et peut être variée par pas de 1 °.  A first graphical element 19, shown in FIG. 4a, is associated with this first posture parameter. This first graphic element 19 comprises a first circle C1 of radius R1 centered on the center C. The first circle C1 is located in the plane (XvYv). By pressing this first graphic element 19, the user will be able to vary the orientation angle Θ. We can therefore consider that the first graphical element 19 represents the values that can take the orientation angle Θ. The value of the orientation angle Θ is between 0 and 360 ° and can be varied in steps of 1 °.
La valeur du premier rayon R1 est déterminée de telle sorte que le premier cercle C1 encercle la représentation 15 du véhicule 1. Le premier rayon R1 est par exemple égal à 2,5 m.  The value of the first radius R1 is determined so that the first circle C1 encircles the representation 15 of the vehicle 1. The first radius R1 is for example equal to 2.5 m.
Le premier élément graphique 19 est mémorisé dans une unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.  The first graphic element 19 is stored in a memory unit, from which it can be retrieved by the computing unit 9 which is able to transmit it to the touch screen 7.
Le deuxième paramètre de posture est la troisième coordonnée Zcam dont on rappelle qu'elle représente une distance verticale entre le véhicule 1 et la caméra virtuelle 11.  The second posture parameter is the third coordinate Zcam which is reminded that it represents a vertical distance between the vehicle 1 and the virtual camera 11.
Cette troisième coordonnée Zcam présente une plage de valeurs qui est prédéfinie et est mémorisée dans l'unité de mémoire. La plage de valeur est par exemple fonction de la résolution offerte par les capteurs d'image 5 et par l'écran tactile 7. En effet, si la caméra virtuelle 11 est placée trop haut, les objets présents sur l'image virtuelle 13 seront trop petits pour être reconnaissables ou même visibles par l'usager. Une telle image virtuelle 13 ne pourrait donc pas aider le conducteur à manoeuvrer le véhicule 1. This third Zcam coordinate has a range of values that is preset and is stored in the memory unit. The value range is for example a function of the resolution offered by the image sensors 5 and by the screen Touch 7. Indeed, if the virtual camera 11 is placed too high, the objects present on the virtual image 13 will be too small to be recognizable or even visible by the user. Such a virtual image 13 could therefore not help the driver to maneuver the vehicle 1.
La troisième coordonnée Zcam est par exemple comprise entre 1 ,7 m et 3 m et peut varier par pas de 5 cm.  The third coordinate Zcam is for example between 1, 7 m and 3 m and can vary in steps of 5 cm.
On notera ici que la troisième coordonnée Zcam est associée à l'angle d'inclinaison φ de la caméra virtuelle 1 1 , puisque l'axe optique A0 est défini comme passant par le centre C du véhicule 1. It will be noted here that the third coordinate Zcam is associated with the angle of inclination φ of the virtual camera 1 1, since the optical axis A 0 is defined as passing through the center C of the vehicle 1.
Un deuxième élément graphique 21, illustré par la figure 4b, est associé à ce deuxième paramètre de posture. Ce deuxième élément graphique 21 est ici formé par un segment vertical. En appuyant sur ce deuxième élément graphique 21 , l'usager va donc pouvoir faire varier la troisième coordonnée Zcam et l'angle d'inclinaison φ de la caméra virtuelle 11. Le deuxième élément graphique 21 est mémorisé dans l'unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.  A second graphic element 21, illustrated by FIG. 4b, is associated with this second posture parameter. This second graphic element 21 is here formed by a vertical segment. By pressing this second graphical element 21, the user will be able to vary the third coordinate Zcam and the angle of inclination φ of the virtual camera 11. The second graphical element 21 is stored in the memory unit, since which it can be recovered by the computing unit 9 which is able to transmit it to the touch screen 7.
Comme le montre la figure 4c, le troisième paramètre de posture est le deuxième rayon R2 du deuxième cercle C2 sur lequel est située la caméra virtuelle 1 1. Le deuxième rayon R2 représente une distance horizontale entre la caméra virtuelle 11 et le véhicule 1.  As shown in FIG. 4c, the third posture parameter is the second radius R2 of the second circle C2 on which the virtual camera 1 1 is located. The second radius R2 represents a horizontal distance between the virtual camera 11 and the vehicle 1.
Pour les raisons expliquées précédemment, le deuxième rayon R2 est compris dans une plage de valeurs prédéfinie et mémorisée dans l'unité de mémoire. Le deuxième rayon R2 est par exemple compris entre 3,5 m et 6 m, il peut être varié par pas de 5 cm.  For the reasons explained above, the second radius R2 is within a predefined range of values and stored in the memory unit. The second radius R2 is for example between 3.5 m and 6 m, it can be varied in steps of 5 cm.
Un troisième élément graphique 23 est associé à ce troisième paramètre de posture. Ce troisième élément graphique 23 est ici formé par un segment horizontal. En appuyant sur ce troisième élément graphique 23, l'usager va donc pouvoir faire varier le deuxième rayon R2. Le troisième élément graphique 23 est mémorisé dans l'unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.  A third graphic element 23 is associated with this third posture parameter. This third graphic element 23 is here formed by a horizontal segment. By pressing this third graphic element 23, the user will be able to vary the second radius R2. The third graphic element 23 is stored in the memory unit, from which it can be recovered by the computing unit 9 which is able to transmit it to the touch screen 7.
Les premier, deuxième et troisième paramètres de posture 19, 21 , 23 permettent à l'unité de calcul 9 de calculer des coordonnées (Xcam, Ycam, Zcam, Θ, φ) de la caméra virtuelle 11 dans le repère véhicule (0, Xv, Yv, Zv). La caméra virtuelle 11 est apte à être déplacée par l'usager autour de la représentation 15 du véhicule 1 , ce qui entraîne un changement dans sesThe first, second and third posture parameters 19, 21, 23 allow the calculation unit 9 to calculate coordinates (Xcam, Ycam, Zcam, Θ, φ) of the virtual camera 11 in the vehicle coordinate system (0, Xv , Yv, Zv). The virtual camera 11 is able to be moved by the user around the representation of the vehicle 1, which causes a change in his
Coordonnées (Xcam, Ycam, Zcam, Θ, (p). Coordinates (Xcam, Ycam, Zcam, Θ, (p).
En plus de l'image de l'environnement reconstitué 17, l'unité de calcul 9 est apte à récupérer ou générer une représentation 15 du véhicule 1 telle que vu par la caméra virtuelle 11.  In addition to the image of the reconstituted environment 17, the computing unit 9 is able to recover or generate a representation of the vehicle 1 as seen by the virtual camera 11.
Pour cela, un modèle tridimensionnel du véhicule pourrait être mémorisé dans une unité de mémoire du système d'aide à la conduite 3.  For this, a three-dimensional model of the vehicle could be stored in a memory unit of the driver assistance system 3.
Mais de manière préférentielle, une pluralité de représentations 15 du véhicule 1 est mémorisée dans une unité de mémoire du système d'aide à la conduite 3.  But preferably, a plurality of representations of the vehicle 1 is stored in a memory unit of the driver assistance system 3.
La pluralité de représentations 15 est par exemple réalisée à partir d'un outil de simulation du véhicule 1. On capture par exemple 360 images en perspective autour du véhicule 1 , par pas de 1 degré et en restant à une première valeur du deuxième rayon R2. Puis, on répète cette opération en se plaçant à une deuxième valeur du deuxième rayon R2. Le deuxième rayon R2 est par exemple varié en millimètre.  The plurality of representations 15 is for example made from a simulation tool of the vehicle 1. For example 360 images are captured in perspective around the vehicle 1, in steps of 1 degree and remaining at a first value of the second radius R2 . Then, this operation is repeated by moving to a second value of the second radius R2. The second radius R2 is for example varied in millimeters.
De la même façon, on capture des images du véhicule 1 en faisant varier la troisième coordonnée Zcam, et donc l'angle d'inclinaison φ de la caméra virtuelle 11. Chaque image capturée est nommée avec sa valeur d'angle d'orientation Θ, sa valeur de deuxième rayon R2 et sa valeur d'angle d'inclinaison φ, ainsi l'unité de calcul 9 peut-elle facilement récupérer la représentation 15 adéquate pour chaque posture de la caméra virtuelle 1 1.  In the same way, images of the vehicle 1 are captured by varying the third coordinate Zcam, and thus the angle of inclination φ of the virtual camera 11. Each captured image is named with its orientation angle value Θ , its second radius value R2 and its angle of inclination φ value, so the calculation unit 9 can easily retrieve the appropriate representation 15 for each posture of the virtual camera January 1.
L'unité de calcul 9 est en outre capable de superposer la représentation 15 appropriée du véhicule 1 à l'image reconstituée de l'environnement 17 pour former l'image virtuelle 13 telle que vue par la caméra virtuelle 11.  The calculation unit 9 is furthermore capable of superimposing the appropriate representation of the vehicle 1 on the reconstituted image of the environment 17 to form the virtual image 13 as seen by the virtual camera 11.
L'unité de calcul 9 est de plus apte à transmettre l'image virtuelle 13 à l'écran tactile 7.  The calculation unit 9 is also able to transmit the virtual image 13 to the touch screen 7.
L'écran tactile 7 est placé dans l'habitacle du véhicule 1 , par exemple sur la planche de bord de ce dernier.  The touch screen 7 is placed in the passenger compartment of the vehicle 1, for example on the dashboard of the latter.
L'écran tactile 7 est apte à afficher l'image virtuelle 13 ainsi que les éléments graphiques 19, 21 , 23 transmis par l'unité de calcul 9.  The touch screen 7 is able to display the virtual image 13 as well as the graphic elements 19, 21, 23 transmitted by the calculation unit 9.
De manière préférentielle, l'écran tactile 7 est apte à afficher des images en couleur. Preferably, the touch screen 7 is able to display images in colour.
L'écran tactile 7 est en outre apte à acquérir la position d'un point P sélectionné par appui ponctuel d'un usager sur ledit écran tactile 7.  The touch screen 7 is furthermore able to acquire the position of a selected point P by the occasional support of a user on said touch screen 7.
Comme le montre la figure 1 , un repère écran (0e, Ye, Ze) est associé à l'écran tactile 7. L'origine 0e du repère écran (Oe, Ye, Ze) est par exemple située sur un coin de l'écran tactile 7, par exemple le coin inférieur gauche. L'axe (OeYe) s'étend le long d'un axe horizontal de l'écran tactile 7. L'axe (OeZe) s'étend le long d'un axe vertical de l'écran tactile 7.  As shown in FIG. 1, a screen mark (0e, Ye, Ze) is associated with the touch screen 7. The origin 0e of the screen mark (Oe, Ye, Ze) is for example located on a corner of the touch screen 7, for example the lower left corner. The axis (OeYe) extends along a horizontal axis of the touch screen 7. The axis (OeZe) extends along a vertical axis of the touch screen 7.
Le point P sur lequel l'usager a appuyé présente des coordonnées bidimensionnelles (yp, ZP). Ces coordonnées bidimensionnelles (yp, ZP) sont exprimées en pixels.  The point P on which the user pressed has two-dimensional coordinates (yp, ZP). These two-dimensional coordinates (yp, ZP) are expressed in pixels.
L'écran tactile 7 est apte à déterminer les coordonnées bidimensionnelles (yp, ZP) du point P sélectionnées (par exemple grâce à un calculateur associé à l'écran tactile 7) et à les transmettre à l'unité de calcul 9. Le fonctionnement d'un écran tactile 7 est bien connu de l'homme du métier et ne sera pas décrit en détail.  The touch screen 7 is able to determine the two-dimensional coordinates (yp, ZP) of the selected point P (for example by means of a computer associated with the touch screen 7) and to transmit them to the calculation unit 9. The operation a touch screen 7 is well known to those skilled in the art and will not be described in detail.
En se rapportant à présent à la figure 5, on peut décrire plus en détails un procédé d'affichage d'une image de l'environnement d'un véhicule 1 sur un écran tactile 7 équipant le véhicule 1 .  Referring now to FIG. 5, a method for displaying an image of the environment of a vehicle 1 on a touch screen 7 fitted to the vehicle 1 can be described in greater detail.
Ce procédé d'affichage comprend une étape a) d'affichage sur l'écran tactile 7 d'une des représentations 15 du véhicule 1 et d'au moins un élément graphique 19, 21 , 23 parmi les premier, deuxième et troisième éléments graphiques 19, 21 , 23 précédemment décrits.  This display method comprises a step a) of display on the touch screen 7 of one of the representations of the vehicle 1 and of at least one graphic element 19, 21, 23 among the first, second and third graphic elements 19, 21, 23 previously described.
En début de mission, le véhicule 1 peut être représenté tel que vu depuis une posture initiale PosO de coordonnées (Xcamo, Ycamo, Zcamo, θο, φο) prédéfinie de la caméra virtuelle initiale 1 1 dans le repère véhicule (0, Xv, Yv, Zv).  At the beginning of the mission, the vehicle 1 can be represented as seen from an initial position PosO of coordinates (Xcamo, Ycamo, Zcamo, θο, φο) predefined of the initial virtual camera 1 1 in the vehicle reference (0, Xv, Yv , Zv).
L'écran tactile 7 affiche par exemple le premier élément graphique 19 associé au premier paramètre de posture (l'angle d'orientation Θ).  The touch screen 7 displays for example the first graphic element 19 associated with the first posture parameter (the orientation angle Θ).
En affichant simultanément la représentation 15 du véhicule 1 et du premier élément graphique 19, le choix par l'usager de la posture de la caméra virtuelle 1 1 , et donc de la vue virtuelle de l'environnement, est facilité. En effet, l'usager comprend rapidement à quels emplacements il peut placer la caméra virtuelle 1 1. Le choix de l'emplacement de la caméra virtuelle 1 1 ne requiert pas une grande attention puisqu'un seul appui ponctuel avec le doigt suffit, et l'usager peut se concentrer sur les manœuvres qu'il est en train d'effectuer. By simultaneously displaying the representation 15 of the vehicle 1 and the first graphical element 19, the choice by the user of the posture of the virtual camera 1 1, and therefore the virtual view of the environment, is facilitated. Indeed, the user quickly understands at which locations he can place the virtual camera 1 1. The choice of the location of the virtual camera 1 1 does not require great attention since a single point support with the finger is enough, and user can focus on the maneuvers he is doing.
L'écran tactile 7 peut en outre afficher des instructions à destination de l'usager. Ces instructions peuvent lui expliquer de quelle manière sélectionner l'emplacement de la caméra virtuelle 11. Selon l'invention, la sélection est réalisée par un appui ponctuel de l'usager sur l'écran tactile 7, plus précisément sur un des éléments graphiques affichés.  The touch screen 7 may further display instructions to the user. These instructions can explain to him how to select the location of the virtual camera 11. According to the invention, the selection is made by a one-off support of the user on the touch screen 7, more precisely on one of the graphical elements displayed. .
Lors d'une étape b), l'écran tactile 7 acquiert la position d'un premier point P1 du premier élément graphique 19 sélectionné par un appui de l'usager exercé sur l'écran tactile 7. La position du premier point sélectionné P1 est exprimée par un jeu de coordonnées en pixels dans le repère écran (0,
Figure imgf000013_0005
During a step b), the touch screen 7 acquires the position of a first point P1 of the first graphic element 19 selected by a user press exerted on the touch screen 7. The position of the first selected point P1 is expressed by a set of coordinates in pixels in the screen frame (0,
Figure imgf000013_0005
Ye, Ze) précédemment décrit. Ye, Ze) previously described.
Les coordonnées du premier point sélectionné P1 sont
Figure imgf000013_0004
The coordinates of the first selected point P1 are
Figure imgf000013_0004
transmises à l'unité de calcul 9. transmitted to the computing unit 9.
Lors d'une étape c) de calcul, l'unité de calcul 9 calcule la valeur du premier paramètre de posture, ici l'angle d'orientation θι de la caméra virtuelle 11 autour du véhicule 1 , en fonction des coordonnées (yp-i, ZPI) du premier point sélectionné P1 afin d'en déduire une nouvelle posture Pos1 de la caméra virtuelle 1 1.  During a calculation step c), the calculation unit 9 calculates the value of the first posture parameter, here the orientation angle θι of the virtual camera 11 around the vehicle 1, as a function of the coordinates (yp). i, ZPI) of the first selected point P1 in order to deduce a new posture Pos1 of the virtual camera 1 1.
On décrit à présent des calculs et des transformations utilisés par l'unité de calcul 9 afin d'obtenir la valeur de l'angle d'orientation θι, qui permet de déduire les premières coordonnées de la caméra virtuelle 11. Calculations and transformations used by the calculation unit 9 are now described in order to obtain the value of the orientation angle θι, which makes it possible to deduce the first coordinates of the virtual camera 11.
Figure imgf000013_0003
Figure imgf000013_0003
L'angle d'orientation θι est déterminé grâce à la formule :
Figure imgf000013_0001
The orientation angle θι is determined by means of the formula:
Figure imgf000013_0001
A ce stade, on rappelle que (Xc, Yc, Zc) sont les coordonnées du centre C du véhicule 1 définies dans le repère véhicule et que R1 est le rayon du premier cercle C1 (premier élément graphique 19). Les coordonnées (Xc, Yc, Zc), la valeur de R1 ainsi que d'autres variables utilisées dans les calculs qui vont être décrits plus loin, telles que
Figure imgf000013_0002
et R2, sont stockées dans l'unité de mémoire.
At this stage, it is recalled that (Xc, Yc, Zc) are the coordinates of the center C of the vehicle 1 defined in the vehicle mark and that R1 is the radius of the first circle C1 (first graphical element 19). The coordinates (Xc, Yc, Zc), the value of R1 as well as other variables used in the calculations which will be described later, such as
Figure imgf000013_0002
and R2, are stored in the memory unit.
De plus, on définit les coordonnées (XVPI, yvpi, ZVPI) comme les coordonnées en trois dimensions du premier point sélectionné P1 dans le repère véhicule (0, Xv, Yv, Zv). La seule variable inconnue de l'équation de l'angle d'orientation θι est donc la coordonnée XVP-I . La coordonnée est déterminée grâce à la formule :In addition, the coordinates (XVPI, yvpi, ZVPI) are defined as the three-dimensional coordinates of the first selected point P1 in the vehicle frame (0, Xv, Yv, Zv). The only unknown variable of the equation of the angle of orientation θι is therefore the coordinate XVP-I. The coordinate is determined by the formula:
Figure imgf000014_0005
Figure imgf000014_0005
Dans cette formule Xcamo et Ycamo sont les coordonnées initiales, et donc connues, de la caméra dans le repère véhicule. Zc est également connu.  In this formula Xcamo and Ycamo are the initial coordinates, and therefore known, of the camera in the vehicle reference. Zc is also known.
R3 est déterminé au moyen de la formule :  R3 is determined using the formula:
Figure imgf000014_0002
Figure imgf000014_0002
Où Zcamo et Xcamo sont connus. Where Zcamo and Xcamo are known.
Les coordonnées (xpn, ypn , ) sont les coordonnées du premier point sélectionné P1 projeté sur un premier plan focal PF1 de la caméra virtuelle 1 1 , et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le premier plan focal PF1 étant associé à la première posture de la caméra virtuelle 1 1).  The coordinates (xpn, ypn,) are the coordinates of the first selected point P1 projected onto a first focal plane PF1 of the virtual camera 1 1, and expressed in the vehicle coordinate system (0, Xv, Yv, Zv) (the first focal plane PF1 being associated with the first posture of the virtual camera 1 1).
Pour calculer les coordonnées xp11 et on utilise des équations de projections perspectives :
Figure imgf000014_0001
To calculate the coordinates xp 11 and using projections projections equations:
Figure imgf000014_0001
Où on rappelle que yp1 et zpi sont les coordonnées du premier point sélectionné P1 et donc connus. Where we remember that yp 1 and zpi are the coordinates of the first selected point P1 and therefore known.
Avec de manière générale :  With general:
Figure imgf000014_0003
Figure imgf000014_0003
Les équations de projections perspectives associées aux matrices Ry et Perspective projection equations associated with Ry matrices and
Rz permettent donc de calculer
Figure imgf000014_0008
et . La connaissance de xpn et z
Figure imgf000014_0009
permet de calculer
Figure imgf000014_0006
et
Figure imgf000014_0007
et ainsi de remonter jusqu'à et enfin à l'angle d'orientation θ1 .
Figure imgf000014_0004
Rz so allow to calculate
Figure imgf000014_0008
and. The knowledge of xpn and z
Figure imgf000014_0009
can calculate
Figure imgf000014_0006
and
Figure imgf000014_0007
and thus to go back to and finally to the orientation angle θ1.
Figure imgf000014_0004
Une fois que l'unité de calcul 9 a déterminé la valeur du premier angle d'orientation θ1 , elle peut l'utiliser pour calculer les autres coordonnées
Figure imgf000014_0010
de la première posture de la caméra virtuelle 11
Figure imgf000015_0003
Once the calculation unit 9 has determined the value of the first orientation angle θ1, it can use it to calculate the other coordinates
Figure imgf000014_0010
of the first posture of the virtual camera 11
Figure imgf000015_0003
Les coordonnées de la première posture de la
Figure imgf000015_0002
The coordinates of the first posture of the
Figure imgf000015_0002
caméra virtuelle 11 sont données par :
Figure imgf000015_0001
virtual camera 11 are given by:
Figure imgf000015_0001
En effet, ici Yc est nul car le centre C du deuxième cercle C2 est situé sur l'axe (OYv). De plus, le premier élément graphique 19 ne permettant pas de modifier la hauteur de la caméra virtuelle 11 , les premières valeurs des coordonnées Zcam et φ restent inchangées.  Indeed, here Yc is zero because the center C of the second circle C2 is located on the axis (OYv). Moreover, since the first graphic element 19 does not make it possible to modify the height of the virtual camera 11, the first values of the coordinates Zcam and φ remain unchanged.
Lors d'une étape d), les capteurs d'images 5 acquièrent des images réelles de l'environnement du véhicule 1. L'étape d) peut avoir lieu simultanément aux étapes a), b), c) précédentes, ou avant celles-ci.  In a step d), the image sensors 5 acquire real images of the environment of the vehicle 1. The step d) can take place simultaneously with the preceding steps a), b), c), or before those -this.
Les images réelles sont transmises à l'unité de calcul 9 qui compose une image virtuelle de l'environnement du véhicule 1 tel que vu depuis la caméra virtuelle 1 1 lors d'une étape e).  The actual images are transmitted to the computing unit 9 which composes a virtual image of the environment of the vehicle 1 as seen from the virtual camera 1 1 during a step e).
L'unité de calcul 9 choisit les images réelles à utiliser en fonction de la posture de la caméra virtuelle 1 1. Par exemple, quand la caméra virtuelle est placée au dessus du véhicule 1 avec un axe optique parallèle à l'axe (OZv) du repère véhicule
Figure imgf000015_0004
l'image virtuelle 13 affichée est celle représenté par la figure 6.
The calculation unit 9 selects the real images to be used according to the posture of the virtual camera 1 1. For example, when the virtual camera is placed above the vehicle 1 with an optical axis parallel to the axis (OZv) vehicle mark
Figure imgf000015_0004
the virtual image 13 displayed is that represented by FIG.
Pour une autre posture de la caméra virtuelle 11 , l'unité de calcul 9 peut par exemple composer l'image virtuelle 13 à partir des images réelles de seulement un, deux ou trois capteurs d'images 5.  For another posture of the virtual camera 11, the computing unit 9 can for example compose the virtual image 13 from the real images of only one, two or three image sensors 5.
Cette étape de composition de l'image ne formant pas en propre le cœur de l'invention et étant déjà bien connue de l'homme du métier, elle ne sera pas ici décrite plus en détail.  This step of composing the image does not form the heart of the invention and is already well known to those skilled in the art, it will not be described in more detail here.
Le procédé d'affichage prévoit en outre une étape de lecture d'une représentation 15 du véhicule 1 tel que vu depuis la nouvelle posture Pos 1 de la caméra virtuelle 11 déduite à l'étape c). La représentation 15 du véhicule 1 est par exemple sélectionnée parmi la pluralité de représentations 15 mémorisées dans l'unité de mémoire.  The display method further provides a step of reading a representation of the vehicle 1 as seen from the new posture Pos 1 of the virtual camera 11 deduced in step c). The representation 15 of the vehicle 1 is for example selected from the plurality of representations 15 stored in the memory unit.
Puis, l'image virtuelle 13 de l'environnement 17 et la représentation 15 du véhicule 1 sont affichées sur l'écran tactile 7 lors d'une étape f). Ainsi, l'usager peut facilement choisir l'emplacement de la caméra virtuelle 11 , et accède à une information facilement compréhensible lui permettant de mieux visualiser l'environnement 17 du véhicule 1. Then, the virtual image 13 of the environment 17 and the representation 15 of the vehicle 1 are displayed on the touch screen 7 during a step f). Thus, the user can easily choose the location of the virtual camera 11, and accesses easily understandable information enabling him to better visualize the environment 17 of the vehicle 1.
On peut ensuite prévoir que l'unité de calcul 9 commande ensuite l'affichage du deuxième élément graphique 21 afin de permettre à l'usager de régler la hauteur de la caméra virtuelle 11 , avant d'afficher le troisième élément graphique 23 afin de régler la distance horizontale entre la caméra virtuelle 11 et le véhicule 1.  It can then be provided that the calculation unit 9 then controls the display of the second graphic element 21 in order to allow the user to adjust the height of the virtual camera 11, before displaying the third graphic element 23 in order to adjust the horizontal distance between the virtual camera 11 and the vehicle 1.
Plus précisément, pour acquérir le deuxième paramètre de posture, l'unité de calcul 9 affiche le deuxième élément graphique 21 associé au deuxième paramètre de posture, c'est-à-dire le segment vertical lors de l'étape a).  More specifically, to acquire the second posture parameter, the calculation unit 9 displays the second graphic element 21 associated with the second posture parameter, that is to say the vertical segment during step a).
Le segment vertical est par exemple affiché le long d'un axe vertical passant par le centre C.  The vertical segment is for example displayed along a vertical axis passing through the center C.
Puis, lors de l'étape b), l'unité de calcul 9 acquiert la position d'un deuxième point sélectionné P2 par appui sur l'écran tactile au niveau du segment vertical.  Then, during step b), the computing unit 9 acquires the position of a second selected point P2 by pressing on the touch screen at the vertical segment.
Ce deuxième point sélectionné P2 permet de calculer lors de l'étape c) d'une part une deuxième valeur de la coordonnée Zcam2 de la deuxième posture Pos2 de la caméra virtuelle 1 1 et d'autre part une deuxième valeur de son angle d'inclinaison 92. This second selected point P2 makes it possible to calculate, during step c), on the one hand, a second value of the coordinate Zc a m 2 of the second posture Pos 2 of the virtual camera 1 1 and, on the other hand, a second value of its angle inclination 92.
Les coordonnées du deuxième point sélectionné P2
Figure imgf000016_0003
The coordinates of the second selected point P2
Figure imgf000016_0003
dans le repère du véhicule
Figure imgf000016_0004
Figure imgf000016_0001
in the vehicle mark
Figure imgf000016_0004
Figure imgf000016_0001
On cherche donc à obtenir l'altitude Pour cela, on utilise la formule
Figure imgf000016_0005
So we try to get the altitude For this, we use the formula
Figure imgf000016_0005
mathématique suivante : following mathematical:
Figure imgf000016_0002
Figure imgf000016_0002
Dans laquelle :
Figure imgf000017_0001
In which :
Figure imgf000017_0001
Les coordonnées
Figure imgf000017_0008
sont les coordonnées du deuxième point sélectionné P2 projeté sur un deuxième plan focal PF2 de la caméra virtuelle 11 , et exprimées dans le repère véhicule (le deuxième plan focal
Figure imgf000017_0006
Coordinates
Figure imgf000017_0008
are the coordinates of the second selected point P2 projected on a second focal plane PF2 of the virtual camera 11, and expressed in the vehicle coordinate system (the second focal plane
Figure imgf000017_0006
PF2 étant associé à la deuxième posture de la caméra virtuelle 11 ). PF2 being associated with the second posture of the virtual camera 11).
Pour calculer les coordonnées on utilise des équations de
Figure imgf000017_0007
To calculate the coordinates we use equations of
Figure imgf000017_0007
projections perspectives :
Figure imgf000017_0002
outlook projections:
Figure imgf000017_0002
Où on rappelle que yp2 et ZP2 sont les coordonnées du deuxième point sélectionné P2 et donc connues. De plus, dans la matrice Ry, l'angle d'orientation Θ autour du véhicule 11 présente la première valeur Θ1 précédemment calculée. En se plaçant dans le deuxième plan focal PF2, on applique le théorème de Thalès de la façon suivante :
Figure imgf000017_0004
Where it is recalled that yp2 and ZP2 are the coordinates of the second selected point P2 and therefore known. Moreover, in the matrix Ry, the orientation angle Θ around the vehicle 11 has the first value Θ1 previously calculated. By placing itself in the second focal plane PF2, the Thales theorem is applied as follows:
Figure imgf000017_0004
La caméra virtuelle 11 est donc positionnée en
Figure imgf000017_0003
The virtual camera 11 is therefore positioned in
Figure imgf000017_0003
De plus, comme la caméra virtuelle 1 1 est orienté vers le centre C, l'angle d'inclinaison φ est :
Figure imgf000017_0005
In addition, since the virtual camera 1 1 is oriented towards the center C, the angle of inclination φ is:
Figure imgf000017_0005
Les étapes d) et e) sont ensuite répétées de façon à afficher une image de l'environnement 17 et une représentation 15 du véhicule 1 , vus depuis une altitude correspondant au souhait de l'usager.  Steps d) and e) are then repeated so as to display an image of the environment 17 and a representation of the vehicle 1, seen from an altitude corresponding to the wish of the user.
En dernier lieu, l'unité de calcul 9 commande l'affichage du troisième élément graphique 23 sur l'écran tactile 7 au cours d'une nouvelle étape a).  Finally, the calculation unit 9 controls the display of the third graphic element 23 on the touch screen 7 during a new step a).
Le segment horizontal du troisième élément graphique 23 est par exemple disposé le long d'un axe passant par le centre C et à un angle égal à l'angle d'orientation θ + π/2 par rapport à l'axe longitudinal (OXv).  The horizontal segment of the third graphic element 23 is for example arranged along an axis passing through the center C and at an angle equal to the orientation angle θ + π / 2 with respect to the longitudinal axis (OXv) .
Lors de l'étape b), l'unité de calcul 9 acquiert la position du troisième point sélectionné P3 par appui sur le segment horizontal. Les coordonnées
Figure imgf000018_0010
du troisième point sélectionné P3 sur l'écran tactile 7 sont transmises à l'unité de calcul 9.
In step b), the computing unit 9 acquires the position of the third selected point P3 by pressing the horizontal segment. Coordinates
Figure imgf000018_0010
of the third selected point P3 on the touch screen 7 are transmitted to the calculation unit 9.
Ce troisième point sélectionné P3 permet de calculer, lors de l'étape c), une nouvelle distance horizontale
Figure imgf000018_0011
2f à appliquer entre le véhicule 1 et la caméra virtuelle 1 1.
This third selected point P3 makes it possible to calculate, during step c), a new horizontal distance
Figure imgf000018_0011
2f to be applied between the vehicle 1 and the virtual camera 1 1.
Pour réaliser ces calculs, l'unité de calcul 9 utilise les valeurs d'angle d'orientation θ1 , et d'angle d'inclinaison
Figure imgf000018_0012
précédemment calculées.
To perform these calculations, the calculation unit 9 uses the values of orientation angle θ 1 , and angle of inclination
Figure imgf000018_0012
previously calculated.
Les coordonnées du projeté du troisième point sélectionné P3 dans le repère véhicule (Xv, Yv, Zv) sont notées
Figure imgf000018_0009
The coordinates of the projected third point selected P3 in the vehicle reference (Xv, Yv, Zv) are noted
Figure imgf000018_0009
Figure imgf000018_0001
Figure imgf000018_0001
avec R2i la valeur initiale du rayon R2.  with R2i the initial value of the radius R2.
On a : We have :
Figure imgf000018_0002
Figure imgf000018_0002
avec R1 la valeur initiale du premier rayon R1 et R 1f la valeur finale du premier rayon R1 . Nous avons bien noté la formule mathématique :
Figure imgf000018_0003
with R1 the initial value of the first radius R1 and R1f the final value of the first radius R1. We have noted the mathematical formula:
Figure imgf000018_0003
Dans laquelle Xvp est la coordonnée du point d'intersection du cercle de rayon R1 et du segment horizontal du troisième élément graphique 23. La coordonnée xvp est obtenue avec la formule :
Figure imgf000018_0004
In which X vp is the coordinate of the point of intersection of the circle of radius R1 and the horizontal segment of the third graphic element 23. The coordinate x vp is obtained with the formula:
Figure imgf000018_0004
Où toutes les variables sont connues. La coordonnée
Figure imgf000018_0008
est calculée grâce à la formule :
Where all the variables are known. The coordinate
Figure imgf000018_0008
is calculated using the formula:
Figure imgf000018_0005
Figure imgf000018_0005
Où Xcamo et Ycamo sont les coordonnées initiales de la caméra virtuelle 1 1 dans le repère véhicule. Zc est également connu.  Where Xcamo and Ycamo are the initial coordinates of the virtual camera 1 1 in the vehicle mark. Zc is also known.
R3 est déterminé au moyen de la formule :  R3 is determined using the formula:
Où :
Figure imgf000018_0006
Or :
Figure imgf000018_0006
Les coordonnées sont les coordonnées du troisième
Figure imgf000018_0007
point sélectionné P3 projeté sur un troisième plan focal PF3 de la caméra virtuelle 11 , et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le troisième plan focal PF3 étant associé à la troisième posture de la caméra virtuelle 11).
The coordinates are the coordinates of the third
Figure imgf000018_0007
selected point P3 projected on a third focal plane PF3 of the virtual camera 11, and expressed in the vehicle reference (0, Xv, Yv, Zv) (the third focal plane PF3 being associated with the third posture of the virtual camera 11).
En se plaçant dans le troisième plan focal PF3 on applique le théorème de Thalès de la façon suivante :  By placing itself in the third focal plane PF3, the Thales theorem is applied as follows:
Où :
Figure imgf000019_0002
Or :
Figure imgf000019_0002
Pour calculer les coordonnées et on utilise des équations de
Figure imgf000019_0005
Figure imgf000019_0004
To calculate the coordinates and we use equations of
Figure imgf000019_0005
Figure imgf000019_0004
projections perspectives : ;outlook projections:
Figure imgf000019_0001
Figure imgf000019_0001
Où on rappelle que et sont les coordonnées du troisième point
Figure imgf000019_0007
Figure imgf000019_0006
Where we remember that and are the coordinates of the third point
Figure imgf000019_0007
Figure imgf000019_0006
sélectionné P3 et donc connues. De plus, dans la matrice Ry, l'angle d'orientation Θ autour du véhicule 11 présente la première valeur θι précédemment calculée, et dans la matrice Rz, l'angle d'inclinaison φ présente la valeur 92 précédemment calculée. selected P3 and therefore known. Moreover, in the matrix Ry, the orientation angle Θ around the vehicle 11 has the first value θ ι previously calculated, and in the matrix Rz, the inclination angle φ has the value 92 previously calculated.
Les coordonnées de la caméra virtuelle 1 1 sont :
Figure imgf000019_0003
The coordinates of the virtual camera 1 1 are:
Figure imgf000019_0003
Les étapes d) et e) sont ensuite répétées De façon à afficher une image de l'environnement 17 et une représentation 15 du véhicule 1 , vus depuis une distance au véhicule 1 correspondant au souhait de l'usager.  Steps d) and e) are then repeated so as to display an image of the environment 17 and a representation of the vehicle 1, seen from a distance to the vehicle 1 corresponding to the wish of the user.
L'image virtuelle 13 comprenant l'environnement 17 du véhicule 1 ainsi que la représentation 15 du véhicule 1 est donc composée et affichée après chaque déduction de nouvelle posture de la caméra virtuelle 11.  The virtual image 13 comprising the environment 17 of the vehicle 1 as well as the representation 15 of the vehicle 1 is thus composed and displayed after each deduction of the new posture of the virtual camera 11.
En variante, l'image virtuelle 13 pourrait n'être composée et affichée qu'après que le conducteur ait sélectionné les trois points sélectionnés P1 , P2, P3. Pour cela, en combinant les coordonnées de la caméra virtuelle calculée à partir du premier point sélectionné P1 , du deuxième point sélectionné P2 et du troisième point sélectionné P3, on pourrait utiliser un jeu de coordonnées finales (Xcamf, de la caméra virtuelle 1 1 :Alternatively, the virtual image 13 could be composed and displayed only after the driver has selected the three selected points P1, P2, P3. For this purpose, by combining the coordinates of the virtual camera calculated from the first selected point P1, the second selected point P2 and the third selected point P3, a set of final coordinates (Xcamf, of the virtual camera 1 1:
Figure imgf000020_0002
Figure imgf000020_0002
Figure imgf000020_0001
Figure imgf000020_0001
Selon une variante du procédé d'affichage, l'unité de calcul 9 pourrait commander l'affichage simultané des premier élément graphique 19, deuxième élément graphique 21 et troisième élément graphique 23 précédemment décrits, lors de l'étape a) d'affichage.  According to a variant of the display method, the calculation unit 9 could control the simultaneous display of the first graphic element 19, second graphic element 21 and third graphic element 23 previously described, during the display step a).
L'usager pourrait alors choisir avec précision la nouvelle posture de la caméra virtuelle 11 en choisissant un point sur l'un quelconque des premier, deuxième et troisième éléments graphiques 19, 21 , 23.  The user could then choose with precision the new posture of the virtual camera 11 by choosing a point on any one of the first, second and third graphic elements 19, 21, 23.
Ainsi, l'acquisition des premiers, deuxième et troisième points sélectionnés P1 , P2, P3 pourrait être réalisée dans un ordre quelconque. Par conséquent, l'usager pourrait sélectionner dans un ordre quelconque la hauteur de la caméra virtuelle 1 1 , l'angle de rotation Θ de la caméra virtuelle 11 et la distance horizontale R2 entre la caméra virtuelle 11 et le véhicule 1.  Thus, the acquisition of the first, second and third selected points P1, P2, P3 could be performed in any order. Therefore, the user could select in any order the height of the virtual camera 1 1, the rotation angle Θ of the virtual camera 11 and the horizontal distance R2 between the virtual camera 11 and the vehicle 1.
De manière avantageuse, le premier élément graphique 19, le deuxième élément graphique 21 , et le troisième élément graphique 23 présentent chacun une couleur différente.  Advantageously, the first graphic element 19, the second graphic element 21, and the third graphic element 23 each have a different color.
En complément de l'invention, l'unité de calcul 9 peut mettre en œuvre un procédé automatique de détermination de la posture de la caméra virtuelle 11, lorsque les conditions le requièrent.  In addition to the invention, the computing unit 9 can implement an automatic method for determining the posture of the virtual camera 11, when the conditions require it.
Plus précisément ici, l'unité de calcul 9 est programmée pour modifier automatiquement la posture de la caméra virtuelle 11 lorsqu'un obstacle est détecté à proximité du véhicule 1.  More precisely here, the computing unit 9 is programmed to automatically modify the posture of the virtual camera 11 when an obstacle is detected near the vehicle 1.
Pour cela, l'unité de calcul 9 détermine la trajectoire du véhicule 1 lors d'une étape de prédiction. L'unité de calcul 9 détermine cette trajectoire en fonction au moins de l'angle du volant et du rapport de vitesse engagé (marche avant ou marche arrière).  For this, the calculation unit 9 determines the trajectory of the vehicle 1 during a prediction step. The calculation unit 9 determines this trajectory as a function of at least the angle of the steering wheel and the gear ratio engaged (forward or reverse).
Puis, lors d'une étape de détection, l'unité de calcul 9 recherche si un obstacle est situé à proximité du véhicule 1. Plus précisément, l'unité de calcul 9 détermine si un obstacle est situé sur la trajectoire précédemment prédite. Then, during a detection step, the computing unit 9 searches for an obstacle located near the vehicle 1. More precisely, the computing unit 9 determines if an obstacle is on the previously predicted trajectory.
Pour cela, l'unité de calcul 9 utilise des télédétecteurs (radar et/ou sonar et/ou lidar) situés autour du véhicule 1. Par exemple ici, le véhicule 1 est équipé de six télédétecteurs à l'avant et de six télédétecteurs à l'arrière. Les télédétecteurs permettent non seulement de détecter la présence d'un obstacle, mais aussi d'évaluer la distance entre ledit obstacle et le véhicule 1.  For this, the computing unit 9 uses remote sensors (radar and / or sonar and / or lidar) located around the vehicle 1. For example here, the vehicle 1 is equipped with six remote sensors at the front and six remote sensors at the rear. Remote sensors not only detect the presence of an obstacle, but also assess the distance between the obstacle and the vehicle 1.
Si un obstacle est détecté sur la trajectoire prédite, alors l'usager ne peut plus choisir la posture de la caméra virtuelle 11 de façon manuelle. Le choix est effectué de façon automatique par l'unité de calcul 9.  If an obstacle is detected on the predicted trajectory, then the user can no longer choose the posture of the virtual camera 11 manually. The choice is made automatically by the calculation unit 9.
Si le véhicule 1 se déplace vers l'avant, et qu'un obstacle est détecté sur sa trajectoire, alors la caméra virtuelle est automatiquement positionnée le long de l'axe longitudinal (OXv) du véhicule 1 , vers l'arrière du véhicule 1 , et dirigée vers l'avant du véhicule 1. La caméra virtuelle 1 1 est alors placée à un angle d'orientation θ égal à π radians.  If the vehicle 1 moves forward, and an obstacle is detected in its path, then the virtual camera is automatically positioned along the longitudinal axis (OXv) of the vehicle 1 towards the rear of the vehicle 1 , and directed towards the front of the vehicle 1. The virtual camera 1 1 is then placed at an orientation angle θ equal to π radians.
En variante, l'unité de calcul 9 pourrait choisir l'angle d'orientation Θ parmi une pluralité d'angles de rotation Θ mémorisée dans l'unité de mémoire.  Alternatively, the computing unit 9 could choose the orientation angle Θ from a plurality of rotation angles Θ stored in the memory unit.
De façon préférentielle, l'unité de calcul 9 détermine la hauteur de l'obstacle. L'angle d'inclinaison φ de la caméra virtuelle 11 est alors calculé pour que l'axe optique de la caméra virtuelle 11 passe par le centre de l'obstacle.  Preferably, the computing unit 9 determines the height of the obstacle. The angle of inclination φ of the virtual camera 11 is then calculated so that the optical axis of the virtual camera 11 passes through the center of the obstacle.
La distance horizontale R2 entre le véhicule 1 et la caméra virtuelle 1 1 est calculée en fonction de la distance détectée entre l'obstacle et le véhicule 1. The horizontal distance R2 between the vehicle 1 and the virtual camera 1 1 is calculated as a function of the distance detected between the obstacle and the vehicle 1.
Plus l'obstacle détecté est proche, et plus la caméra virtuelle 1 1 paraît proche. The closer the detected obstacle is, and the closer the virtual camera 1 1 seems.
BLANK UPON FILING BLANK UPON FILING

Claims

REVENDICATIONS
1 . Procédé d'affichage d'une image de l'environnement d'un véhicule (1 ) sur un écran tactile (7) équipant le véhicule (1 ), comprenant des étapes de : 1. A method of displaying an image of the environment of a vehicle (1) on a touch screen (7) fitted to the vehicle (1), comprising steps of:
a) affichage sur ledit écran tactile (7) :  a) display on said touch screen (7):
- d'une image du véhicule (1 ) tel qu'il serait vu depuis une caméra virtuelle (1 1 ) placée dans une posture initiale (PosO), et  an image of the vehicle (1) as seen from a virtual camera (1 1) placed in an initial posture (PosO), and
- d'au moins un élément graphique (19, 21 , 23) associé un paramètre de posture de la caméra virtuelle (1 1 ), at least one graphic element (19, 21, 23) associated with a posture parameter of the virtual camera (1 1),
Figure imgf000023_0001
Figure imgf000023_0001
b) acquisition de la position d'un point (P1 , P2, P3) dudit élément graphique (19, 21 , 23) sélectionné par appui d'un usager sur l'écran tactile (7), c) calcul de la valeur dudit paramètre de posture
Figure imgf000023_0002
en fonction de la position dudit point (P1 , P2, P3), et déduction d'une nouvelle posture de la caméra virtuelle (1 1 ),
b) acquiring the position of a point (P1, P2, P3) of said graphic element (19, 21, 23) selected by pressing a user on the touch screen (7), c) calculating the value of said posture parameter
Figure imgf000023_0002
according to the position of said point (P1, P2, P3), and deduction of a new posture of the virtual camera (1 1),
d) acquisition d'images réelle de l'environnement par une pluralité de capteurs d'images (5),  d) real image acquisition of the environment by a plurality of image sensors (5),
e) composition, à partir des images réelles acquises à l'étape d), d'une image virtuelle (13) de l'environnement (17) du véhicule (1 ) tel qu'il serait vu depuis la caméra virtuelle (1 1 ) placée dans la nouvelle posture déterminée à l'étape c), et  e) composition, from the actual images acquired in step d), of a virtual image (13) of the environment (17) of the vehicle (1) as seen from the virtual camera (1 1 ) placed in the new posture determined in step c), and
f) affichage sur l'écran tactile (7) de l'image virtuelle (13).  f) display on the touch screen (7) of the virtual image (13).
2. Procédé d'affichage selon la revendication précédente, dans lequel il est prévu une étape de constitution d'une représentation (15) du véhicule (1 ) tel qu'il serait vu depuis la caméra virtuelle (1 1 ) dans la nouvelle posture déterminée à l'étape c), et dans lequel, à l'étape e), l'image virtuelle (13) est obtenue en superposant la représentation (15) du véhicule (1 ) à l'environnement (17). 2. Display method according to the preceding claim, wherein there is provided a step of constituting a representation (15) of the vehicle (1) as it would be seen from the virtual camera (1 1) in the new posture determined in step c), and wherein, in step e), the virtual image (13) is obtained by superimposing the representation (15) of the vehicle (1) to the environment (17).
3. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un cercle situé autour de l'image du véhicule (1 ) et ledit paramètre de posture (Θ) est un angle d'orientation (Θ) de la caméra virtuelle (1 1 ) autour du véhicule (1 ). 3. Display method according to one of the preceding claims, wherein said graphic element (19, 21, 23) comprises a circle located around the image of the vehicle (1) and said posture parameter (Θ) is a orientation angle (Θ) of the virtual camera (1 1) around the vehicle (1).
4. Procédé d'affichage selon la revendication précédente, dans lequel ledit élément graphique (19, 21 , 23) permet de sélectionner l'angle d'orientation (Θ) de la caméra virtuelle (1 1 ) autour du véhicule (1 ) avec un pas de 1 degré. 4. Display method according to the preceding claim, wherein said graphic element (19, 21, 23) makes it possible to select the orientation angle (Θ) of the virtual camera (1 1) around the vehicle (1) with a step of 1 degree.
5. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un segment situé verticalement par rapport à l'image du véhicule (1 ) et ledit paramètre de posture (Θ, Zcam, R2) est une distance verticale (Zcam) entre le véhicule (1 ) et la caméra virtuelle (1 1 ). 5. Display method according to one of the preceding claims, wherein said graphic element (19, 21, 23) comprises a segment located vertically with respect to the image of the vehicle (1) and said posture parameter (Θ, Zcam, R2) is a vertical distance (Z ca m) between the vehicle (1) and the virtual camera (1 1).
6. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un segment situé horizontalement par rapport à l'image du véhicule (1 ) et le paramètre de posture (Θ, Zcam, R2) est une distance horizontale (R2) entre le véhicule (1 ) et la caméra virtuelle (1 1 ). 6. Display method according to one of the preceding claims, wherein said graphic element (19, 21, 23) comprises a segment located horizontally relative to the vehicle image (1) and the posture parameter (Θ, Zcam, R2) is a horizontal distance (R2) between the vehicle (1) and the virtual camera (1 1).
7. Procédé d'affichage selon l'une des revendications précédentes, dans lequel les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l'usager sur l'écran tactile (7). 7. Display method according to one of the preceding claims, wherein steps c) to f) are repeated after each point support exerted by the user on the touch screen (7).
8. Procédé d'affichage selon l'une des revendications précédentes, dans lequel, la caméra virtuelle (1 1 ) présentant un axe optique (A0), à l'étape c), la nouvelle posture de la caméra virtuelle (1 1 ) est définie de telle sorte que ledit axe optique (A0) passe par un point prédéterminé du véhicule (1 ). 8. Display method according to one of the preceding claims, wherein, the virtual camera (1 1) having an optical axis (A 0 ), in step c), the new posture of the virtual camera (1 1 ) is defined such that said optical axis (A 0 ) passes through a predetermined point of the vehicle (1).
9. Système d'aide à la conduite d'un véhicule comprenant : 9. A vehicle driving aid system comprising:
- quatre capteurs d'images (5), chacun des quatre capteurs d'images (5) étant placé sur un des quatre côtés du véhicule (1 ), chacun des quatre capteurs d'images (5) étant apte à acquérir une image réelle de l'environnement du véhicule (1 ),  four image sensors (5), each of the four image sensors (5) being placed on one of the four sides of the vehicle (1), each of the four image sensors (5) being able to acquire a real image the environment of the vehicle (1),
- un écran tactile (7), et  a touch screen (7), and
- une unité de calcul (9) programmée pour mettre en œuvre un procédé d'affichage tel que défini dans l'une des revendications précédentes. a calculation unit (9) programmed to implement a method display device as defined in one of the preceding claims.
PCT/EP2018/080190 2017-11-08 2018-11-05 Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle WO2019091920A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18795667.7A EP3707679A1 (en) 2017-11-08 2018-11-05 Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1760503A FR3073310B1 (en) 2017-11-08 2017-11-08 PROCESS FOR DISPLAYING AN IMAGE OF THE ENVIRONMENT OF A VEHICLE ON A TOUCH SCREEN EQUIPPING THE VEHICLE
FR1760503 2017-11-08

Publications (1)

Publication Number Publication Date
WO2019091920A1 true WO2019091920A1 (en) 2019-05-16

Family

ID=61027915

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/080190 WO2019091920A1 (en) 2017-11-08 2018-11-05 Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle

Country Status (3)

Country Link
EP (1) EP3707679A1 (en)
FR (1) FR3073310B1 (en)
WO (1) WO2019091920A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419949A (en) * 2022-01-13 2022-04-29 武汉未来幻影科技有限公司 Automobile rearview mirror image reconstruction method and rearview mirror

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3098620B1 (en) * 2019-07-12 2021-06-11 Psa Automobiles Sa Method of generating a visual representation of the driving environment of a vehicle

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
UNKNOWN: "360? Wrap-Around Video Imaging Technology Ready for Integration with Fujitsu Graphics SoCs", 1 January 2014 (2014-01-01), XP055406437, Retrieved from the Internet <URL:https://www.fujitsu.com/us/Images/360_OmniView_AppNote.pdf> [retrieved on 20170913] *
YEN-TING YEH: "Driver Assistance System Providing an Intuitive Perspective View of Vehicle Surrounding", COMPUTER VISION - ACCV 2014 WORKSHOPS, 1 January 2015 (2015-01-01), Cham, XP055473080, ISBN: 978-3-319-16631-5, Retrieved from the Internet <URL:http://imlab.tw/wp-content/uploads/2015/11/Driver-Assistance-System-Providing-an-Intuitive-Perspective-View-of-Vehicle-Surrounding.pdf> [retrieved on 20180507] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419949A (en) * 2022-01-13 2022-04-29 武汉未来幻影科技有限公司 Automobile rearview mirror image reconstruction method and rearview mirror

Also Published As

Publication number Publication date
FR3073310A1 (en) 2019-05-10
EP3707679A1 (en) 2020-09-16
FR3073310B1 (en) 2021-02-26

Similar Documents

Publication Publication Date Title
EP2133237B1 (en) Process of displaying a parking aid
FR2871737A1 (en) METHOD FOR ATTACHING A TRAILER TO A MOTOR VEHICLE
EP3601005B1 (en) Method and device for assisting a driver of a self-driving vehicle, in particular when a manual control is resumed
FR3098172A1 (en) Method of determining an avoidance trajectory of a motor vehicle
EP2094531B1 (en) Electronic rear-view device
WO2019091920A1 (en) Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle
EP2432660B1 (en) Method and device for extending a visibility area
EP3245117B1 (en) Method and device to assist with the reversal manoeuvre of a motor vehicle
EP2750961B1 (en) Device for estimating a future path of a vehicle and associating with parts that it comprises aspects that differ according to their positions in relation to an obstacle, for a drive-assist system
WO2010037795A1 (en) Method of control and associated driving aid system
FR3016573B1 (en) VEHICLE MIRROR INSTALLATION
EP2801075B1 (en) Image processing method for an on-board camera installed on a vehicle and corresponding processing device
EP3682320B1 (en) Method for displaying the surroundings of a motor vehicle on a screen, and motor vehicle in which such a method is implemented
EP3377386B1 (en) Driver assistance method for a motor vehicle
EP2648963B1 (en) Driving aid device allowing the driver of a vehicle to check a parking area he has just left
EP3418121B1 (en) Device for displaying a motion of a vehicle door and associated method
FR3080075A1 (en) METHOD AND SYSTEM FOR ASSISTING THE DRIVING OF A VEHICLE
EP2193047B1 (en) Assistance device for exiting a hidden lane
FR3115008A1 (en) Method for assisting the driving in reverse of a motor vehicle to the rear of which a trailer is hitched
FR2956364A1 (en) Driver assistance device for handling e.g. car around building site, has processing unit generating image data defining image to be displayed in vehicle, where image data represents part of vehicle based on relative position of head
FR3132487A1 (en) Method for detecting a center line of a traffic lane
WO2021249809A1 (en) Method for calibrating a camera and associated device
FR3093968A1 (en) Vehicle rear view system comprising a plurality of cameras and a computer
FR3070085A1 (en) METHOD FOR CALIBRATING A CAMERA OF A MOTOR VEHICLE
FR2929196A1 (en) Maneuver assistant for detecting and preventing collision to park e.g. automobile, has monitor or screen for displaying augmented reality image formed by superposition of image of ego-vehicle on selected anterior image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18795667

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018795667

Country of ref document: EP

Effective date: 20200608