WO2016075809A1 - 表示装置及び表示方法 - Google Patents

表示装置及び表示方法 Download PDF

Info

Publication number
WO2016075809A1
WO2016075809A1 PCT/JP2014/080176 JP2014080176W WO2016075809A1 WO 2016075809 A1 WO2016075809 A1 WO 2016075809A1 JP 2014080176 W JP2014080176 W JP 2014080176W WO 2016075809 A1 WO2016075809 A1 WO 2016075809A1
Authority
WO
WIPO (PCT)
Prior art keywords
host vehicle
posture
moving body
coordinate system
change
Prior art date
Application number
PCT/JP2014/080176
Other languages
English (en)
French (fr)
Inventor
拓良 柳
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to JP2016558523A priority Critical patent/JP6380550B2/ja
Priority to PCT/JP2014/080176 priority patent/WO2016075809A1/ja
Publication of WO2016075809A1 publication Critical patent/WO2016075809A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a display device and a display method for stereoscopically displaying an image around a moving object.
  • a deformed solid coordinate system obtained by deforming a predefined reference curved surface coordinate system is set according to the position of the virtual viewpoint relative to the reference curved surface coordinate system, and a captured image is projected onto the deformed deformed solid coordinate system.
  • a moving body display device that displays a captured image is known (Patent Document 1).
  • the problem to be solved by the present invention is to suppress the occurrence of distortion in the video generated when the posture of the moving body changes.
  • the present invention sets a modified three-dimensional coordinate system in which a predefined reference three-dimensional coordinate system is deformed in accordance with the amount of change in the posture of a moving object, and displays a video in which a captured image is projected on the deformed deformed three-dimensional coordinate system.
  • the deformed three-dimensional coordinate system deformed according to the amount of change in the posture of the moving body also projects the captured image, thereby reducing the displacement amount of the positional relationship between the moving body and the three-dimensional coordinate system. Even when the posture of the body changes, it is possible to suppress the occurrence of distortion in the video.
  • FIG. 2A and 2B are diagrams showing an example of the installation position of the camera of this embodiment. It is a figure which shows an example of a reference
  • the display system 1 of the present embodiment displays a video for grasping the moving body and the surroundings of the moving body on a display viewed by an operator of the moving body.
  • FIG. 1 is a block configuration diagram of a display system 1 including a display device 100 according to the present embodiment.
  • the display system 1 of this embodiment includes a display device 100 and a mobile device 200.
  • Each device of the display device 100 and the mobile device 200 includes a wired or wireless communication device (not shown), and exchanges information with each other.
  • the moving body to which the display system 1 of the present embodiment is applied includes a vehicle, a helicopter, a submarine explorer, an airplane, an armored vehicle, a train, a forklift, and other devices having a moving function.
  • a case where the moving body is a vehicle will be described as an example.
  • the moving body of the present embodiment may be a manned machine on which a human can be boarded, or an unmanned machine on which a human is not boarding.
  • the display system 1 of the present embodiment may be configured as a device mounted on a moving body, or may be configured as a portable device that can be brought into the moving body.
  • a part of the configuration of the display system 1 according to the present embodiment may be mounted on a moving body, and another configuration may be mounted on a device physically different from the moving body, and the configuration may be distributed.
  • the mobile body and another device are configured to be able to exchange information.
  • the mobile device 200 of this embodiment includes a camera 40, a controller 50, a sensor 60, a navigation device 70, and a display 80.
  • a LAN CANCAController ⁇ Area Network
  • LAN CANCAController ⁇ Area Network
  • the camera 40 of the present embodiment is provided at a predetermined position of a vehicle (an example of a moving body; the same applies hereinafter).
  • the number of cameras 40 provided in the vehicle may be one or plural.
  • the camera 40 mounted on the vehicle images the vehicle and / or the surroundings of the vehicle, and sends the captured image to the display device 100.
  • the captured image in the present embodiment includes a part of the vehicle and a video around the vehicle.
  • the captured image data is used for calculation processing of the positional relationship with the ground surface around the vehicle and generation processing of the image of the vehicle or the surroundings of the vehicle.
  • FIGS. 2A and 2B are diagrams illustrating an example of the installation position of the camera 40 mounted on the host vehicle V.
  • the host vehicle V includes a right front camera 40R1, a right center camera 40R2, a right rear camera 40R3, a left front camera 40L1 of the host vehicle V, and a left side.
  • Six cameras 40 of a center camera 40L2 and a left rear camera 40L3 are installed.
  • the arrangement position of the camera 40 is not specifically limited, The imaging direction can also be set arbitrarily.
  • Each camera 40 sends a captured image to the display device 100 at a command from the control device 10 to be described later or at a preset timing.
  • the captured image captured by the camera 40 is used for generating a video, as well as for detecting an object and measuring a distance to the object.
  • the captured image of the camera 40 of the present embodiment includes an image of an object around the vehicle.
  • the target object in the present embodiment includes a ground surface around the moving body and an object around the moving body.
  • the “ground surface” is a term indicating a concept including the surface of the earth and the surface of the earth's crust (land).
  • the term “surface” of the present embodiment refers to a land surface, a sea surface, a river or river surface, a lake surface, a seabed surface, a road surface, a parking lot surface, a port surface, or two of these. Includes faces that contain more than one.
  • the term “ground surface” in the present embodiment has a meaning including the floor surface and wall surface of the facility.
  • the “surface” is a surface that is exposed to the camera 40 during imaging.
  • the target object includes other vehicles, pedestrians, road structures, parking lots, signs, facilities, and other objects existing around the host vehicle V.
  • the camera 40 of this embodiment includes an image processing device 401.
  • the image processing apparatus 401 extracts features such as an edge, a color, a shape, and a size from the captured image data of the camera 40, and identifies an attribute of the target object included in the captured image from the extracted features.
  • the image processing apparatus 401 stores in advance the characteristics of each target object, and identifies the target object included in the captured image by pattern matching processing.
  • the method for detecting the presence of an object using captured image data is not particularly limited, and a method known at the time of filing this application can be used as appropriate.
  • the image processing device 401 calculates the distance from the own vehicle to the object from the position of the feature point extracted from the data of the captured image of the camera 40 or the change over time of the position.
  • the image processing apparatus 401 uses imaging parameters such as the installation position of the camera 40, the optical axis direction, and imaging characteristics.
  • the method for measuring the distance to the object using the captured image data is not particularly limited, and a method known at the time of filing the present application can be used as appropriate.
  • the distance measuring device 41 may be provided as means for acquiring data for calculating the positional relationship with the host vehicle V.
  • the distance measuring device 41 may be used together with the camera 40 or may be used instead of the camera 40.
  • the distance measuring device 41 detects a target existing around the host vehicle V and measures the distance between the target and the host vehicle V. That is, the distance measuring device 41 has a function of detecting an object around the host vehicle V.
  • the distance measuring device 41 measures the distance from the host vehicle V to the surface of the land, the surface of the sea, the surface of the river or river, and the surface of the road.
  • the distance measuring device 41 measures the distance from the host vehicle V to other vehicles, pedestrians, road structures, parking lots, signs, facilities, and other objects.
  • the distance measuring device 41 sends distance measurement data up to the measured object to the display device 100.
  • the distance measuring device 41 may be a radar distance measuring device or an ultrasonic distance measuring device. A ranging method known at the time of filing of the present application can be used.
  • the number of distance measuring devices 41 that install the distance measuring devices 41 on the host vehicle V is not particularly limited.
  • the installation position of the distance measuring device 41 that installs the distance measuring device 41 in the host vehicle V is not particularly limited.
  • the distance measuring device 41 may be provided at a position corresponding to the installation position of the camera 40 shown in FIG. 2 or in the vicinity thereof, or may be provided in front of or behind the host vehicle V. When the moving body is a helicopter, airplane, submarine spacecraft, or the like that moves in the height direction, the camera 40 and / or the distance measuring device 41 may be provided on the bottom side of the body.
  • the controller 50 of this embodiment controls the operation of the moving object including the host vehicle V.
  • the controller 50 centrally manages each piece of information related to the operation of the moving body, including detection information of the sensor 60 described later.
  • the sensor 60 of the present embodiment includes a speed sensor 61, a longitudinal acceleration sensor 62, a lateral acceleration sensor 63, a steering angle sensor 64, and an attitude sensor 65.
  • the speed sensor 61 detects the moving speed of the host vehicle V.
  • the longitudinal acceleration sensor 62 detects the acceleration in the longitudinal direction of the host vehicle V.
  • the lateral acceleration sensor 63 detects the acceleration in the lateral direction (left-right direction) of the host vehicle V.
  • the steering angle sensor 64 detects a trigger for starting movement control of the host vehicle V in the left or left direction. Changes in the speed of the host vehicle V, changes in acceleration, changes in steering angle, and changes in lateral acceleration affect the posture of the host vehicle V.
  • the posture of the host vehicle V changes.
  • the posture changes even if the amount of depression of the accelerator is reduced to reduce the engine torque.
  • the display device 100 can calculate a change in posture of the host vehicle V from detection values of the speed sensor 61, the longitudinal acceleration sensor 62, the lateral acceleration sensor 63, and the steering angle sensor 64.
  • the attitude sensor 65 detects the attitude of the host vehicle V based on the vehicle body structure such as the weight, the center of gravity, and the wheel base of the host vehicle V, and information on the attitude of the vehicle such as the pitching angle, the yaw angle, and the suspension stroke amount.
  • the posture of the host vehicle V can be expressed by a predefined evaluation value.
  • the posture evaluation method and the posture change measurement method of the host vehicle V are not particularly limited. In order to determine the amount of change in the posture of the host vehicle V, the detection result related to the posture of the vehicle detected by the posture detection device included in the skid prevention device, the anti-lock / brake system, the anti-skid device and other vehicle behavior control devices is used. May be.
  • the navigation device 70 of the present embodiment includes a position detection device 71 having a GPS (Global Positioning System) 711, map information 72, road information 73, and terrain information 74.
  • the map information 72 of the present embodiment is information in which points are associated with roads, structures, facilities, and the like.
  • the navigation device 70 has a function of referring to the map information 72, obtaining a route from the current position of the host vehicle V detected by the position detection device 71 to the destination, and guiding the host vehicle V.
  • the road information 73 of the present embodiment is information in which position information is associated with information such as road curvature and inclination.
  • the road information 73 of the present embodiment may include information in which the curvature and inclination of the road change and the road curvature and inclination change amount are associated with each other.
  • the navigation device 70 refers to the road information 73 and obtains information on the curvature and inclination angle of the road on which the host vehicle V travels at the current position detected by the position detection device 71. Information on the curvature and inclination angle of the road on which the host vehicle V travels can be used as information for determining the attitude of the host vehicle V.
  • the terrain information 74 of the present embodiment is information in which the height of the position and the inclination angle of the region including the position are associated with each position information.
  • the terrain information 74 of the present embodiment associates the position altitude, the position where the tilt angle of the area including the position changes, the change amount of the altitude of the position, and the change amount of the tilt angle of the area including the position. Information may also be included.
  • the navigation device 70 of the present embodiment refers to the terrain information 74 and obtains the altitude and inclination angle of the current position detected by the position detection device 71.
  • the information on the altitude and the inclination angle at the point where the host vehicle V exists can be used as information for determining the attitude of the host vehicle V.
  • the information on the altitude and the inclination angle at the point where the host vehicle V exists can be used as information for determining the attitude of the host vehicle V.
  • the display 80 of the present embodiment displays an image of the host vehicle V and the surroundings of the host vehicle V generated from an arbitrary virtual viewpoint generated by the display device 100 described later.
  • the display system 1 in which the display 80 is mounted on a moving body will be described as an example.
  • the display 80 may be provided on the portable display device 100 side that can be brought into the moving body.
  • the display device 100 of this embodiment includes a control device 10.
  • the control device 10 of the display device 100 is stored in a ROM (Read Only Memory) 12 in which a program for displaying a moving body and surrounding images is stored, and in the ROM 12.
  • the CPU (Central Processing Unit) 11 serving as an operation circuit for realizing the functions of the display device 100 and the RAM (Random Access Memory) 13 functioning as an accessible storage device are provided.
  • the control device 10 may include a Graphics / Processing / Unit that executes image processing.
  • the control device 10 of the display device 100 realizes an image acquisition function, an attitude calculation function, a coordinate system setting function, and a display control function.
  • the control device 10 of this embodiment further includes an information acquisition function.
  • the control apparatus 10 of this embodiment performs each function by cooperation of the software for implement
  • the control device 10 acquires captured image data captured by the camera 40.
  • the display device 100 acquires captured image data from the mobile device 200 using a communication device (not shown).
  • the control device 10 acquires various types of information from the mobile device 200 using a communication device (not shown).
  • the control device 10 acquires position information of the ground surface around the host vehicle V as a moving body.
  • the position information of the ground surface acquired over time is used to calculate the amount of change in posture of the host vehicle V, which will be described later.
  • the control device 10 calculates the distance from the host vehicle V to the ground surface from the captured image of the camera 40 as position information of the ground surface with respect to the host vehicle V.
  • the control device 10 may use the imaging parameters of the camera 40 for the calculation process of the position information on the ground surface.
  • the control device 10 may acquire the position information of the ground surface calculated by the image processing device 401.
  • the control device 10 acquires attitude information regarding the attitude of the host vehicle V that is a moving body from the host vehicle V.
  • the control device 10 uses the longitudinal acceleration detected by the longitudinal acceleration sensor 62, the lateral acceleration detected by the lateral acceleration sensor 63, the steering amount detected by the steering angle sensor 64, and the evaluation value of the posture of the host vehicle detected by the posture sensor 65, Acquired as posture information.
  • Posture information acquired over time is used to calculate the amount of change in posture of the host vehicle V, which will be described later.
  • the control device 10 acquires position information of the host vehicle V that is a moving body.
  • the position information of the host vehicle V is information indicating the position (three-dimensional position) of the host vehicle V in a predetermined three-dimensional coordinate system.
  • the posture information of the host vehicle V changes, the position information of the host vehicle V also changes.
  • the posture information of the host vehicle V acquired over time is used to calculate the amount of change in the posture of the host vehicle V, which will be described later.
  • the control device 10 of the present embodiment may acquire only the position information of the ground surface with respect to the host vehicle V, or may acquire only the position information of the host vehicle V. Further, the control device 10 may acquire both the position information of the ground surface and the position information of the host vehicle V. In this case, it is preferable that the control device 10 acquires the position information of the ground surface in a predetermined three-dimensional coordinate system and the position information of the host vehicle V in the same predetermined three-dimensional coordinate system. By using the position information of the ground surface and the position information of the host vehicle V at the common coordinates, the coordinate conversion process can be omitted in the process of obtaining the positional relationship between the ground surface and the host vehicle V.
  • the control device 10 acquires terrain information around the host vehicle V from the mobile device 200 side.
  • the terrain information 74 included in the navigation device 70 of the mobile device 200 stores the position of each point and the terrain at that position.
  • the control device 10 extracts the terrain of the surrounding area including the position of the host vehicle V detected by the GPS 711 from the terrain information 74, and acquires the terrain information at the current position.
  • the terrain information includes information such as the degree of inclination of the ground surface and the direction of inclination. Terrain information is defined using a coordinate system based on gravity.
  • the control device 10 calculates the attitude of the host vehicle V that is a moving body.
  • the posture of the host vehicle V is calculated as the position of one or more reference points set in the host vehicle V.
  • the control device 10 of the present embodiment calculates the attitude of the host vehicle V as the position (coordinates) of the reference point of the host vehicle V or the position (coordinates) of the reference plane with respect to a predefined reference solid coordinate system.
  • the reference solid coordinate system can be arbitrarily defined.
  • the center of gravity of the host vehicle V (moving body) and the like are set at the position.
  • the reference plane of the host vehicle V is set to a plane including the reference point of the host vehicle V when the host vehicle V is stationary.
  • the stationary vehicle V placed on the ground surface GR1 is a plane parallel to the ground surface GR1 and includes a reference point Q. Is defined as a reference plane G1.
  • the center of gravity of the host vehicle V may be used as the reference point Q.
  • the ground surface GR1 may be a horizontal plane orthogonal to the direction of gravity.
  • the control device 10 of the present embodiment calculates the amount of change from the attitude of the host vehicle V.
  • the amount of change may be the amount of change in the posture of the host vehicle V at different timings, that is, the amount of change over time, or the position (position) of the current posture of the host vehicle V relative to the reference posture (position). It may be a change amount.
  • the change amount of the posture of the host vehicle V includes the change amount of the position of the component in the height direction of the space where the host vehicle V exists. When the host vehicle V exists on the ground, the amount of change in the position of the component along the direction of gravity is included.
  • the control device 10 calculates a change in the relative positional relationship between the host vehicle V and the ground surface as an amount of change in the posture of the host vehicle V.
  • the ground surface and the host vehicle are particularly distorted based on the inventors' knowledge that the ground image included in the displayed video is distorted. Pay attention to the positional relationship with V.
  • the control device 10 calculates the amount of change in the position of the ground surface relative to the position of the host vehicle V as the amount of change in the attitude of the host vehicle V. Since the camera 40 is mounted on the host vehicle V that is a moving body, if the position of the ground surface is calculated over time from the data of the captured image of the camera 40, the amount of change in the position of the ground surface relative to the position of the host vehicle V can be calculated. Can be sought. Similarly, since the distance measuring device 41 is mounted on the host vehicle V that is a moving body, if the position of the ground surface is calculated over time from the distance measurement data of the distance measuring device 41, the ground surface with respect to the position of the host vehicle V is calculated. The amount of change in the position of can be obtained. In the present embodiment, the amount of change in the position of the ground surface relative to the position of the host vehicle V can be handled as the amount of change in the posture of the host vehicle V.
  • the control device 10 calculates the change amount of the position of the host vehicle V with respect to the position of the ground surface as the change amount of the posture of the host vehicle V. Since the ground surface is a stationary object, a change in the position of the host vehicle V relative to the position of the ground surface, in particular, a change in the position of the host vehicle V including the amount of change in the height direction (the direction along the direction of gravity) Can be treated as the amount of change. If the change amount of the position of the own vehicle V with respect to the position of the ground surface is calculated with time, the change amount of the position of the own vehicle V with respect to the position of the ground surface can be obtained. In the present embodiment, the amount of change in the position of the host vehicle V relative to the position on the ground surface is treated as the amount of change in the attitude of the host vehicle V.
  • the control device 10 calculates the change amount of the position of the host vehicle V and the ground surface as the change amount of the posture of the host vehicle V using the position information of the host vehicle V and the position information of the ground surface around the host vehicle V. To do.
  • the control device 10 calculates the change amount of the attitude of the host vehicle V using the acquired attitude information.
  • the control device 10 of the present embodiment can calculate the amount of change in the posture of the host vehicle V in consideration of the behavior of the host vehicle V such as acceleration / deceleration, the change in the posture caused by the structure of the host vehicle V, and the like.
  • the control apparatus 10 may correct
  • the control device 10 acquires surrounding terrain information including the current position of the host vehicle V, and calculates the attitude of the host vehicle V using the terrain information.
  • the control device 10 determines the own vehicle V (the seabed) from the inclination direction and the inclination angle of the road surface (the seabed) on which the host vehicle V (the seabed probe) moves. Calculate the attitude of the spacecraft.
  • the control device 10 stores a reference solid coordinate system defined in advance for projecting a captured image.
  • the reference three-dimensional coordinate system is used when projecting an image captured by the camera 40.
  • the reference three-dimensional coordinate system S1 (S) may have a cylindrical shape
  • the reference three-dimensional coordinate system S2 (S) may have a spherical shape.
  • the reference three-dimensional coordinate system S is a coordinate for projecting a surrounding image when the host vehicle V (moving body) is present inside thereof.
  • the virtual viewpoint E which is the reference for the projection processing, is set inside the three-dimensional coordinate system S. Since the virtual viewpoint E is set on the assumption that the surroundings are viewed from within the host vehicle V, the virtual viewpoint E is defined according to the position of the host vehicle V. That is, the virtual viewpoint E and the reference plane G1 (see FIG. 2A) of the host vehicle V are defined in the reference solid coordinate system S.
  • the position in the height direction of the reference plane G1 of the host vehicle V is set between the upper end PN and the lower end PS without corresponding to the upper end PN or the lower end PS of the three-dimensional coordinate system S.
  • the reference plane G1 of the host vehicle V is set at the position G0.
  • the control device 10 sets deformed three-dimensional coordinate systems S1 ′ and S2 ′ obtained by deforming the reference three-dimensional coordinate system S in accordance with the amount of change in posture of the host vehicle V that is a moving body.
  • the deformation of the reference solid coordinate system S includes deformation of a component in the height direction of the space where the host vehicle V exists. When the host vehicle V exists on the ground, the deformation of the component along the direction of gravity is included.
  • the control device 10 calculates the amount of change in the attitude of the host vehicle V.
  • FIG. 4A An example of a scene where the posture of the host vehicle V changes is shown in FIG. 4A.
  • the posture of the vehicle V changes according to the amount of change in the slope of the ground surface GR.
  • the slope of the ground surface GR changes from zero degrees to ⁇ degrees.
  • the reference plane G2 when the host vehicle V travels on the ground surface (road) GR is an angle ⁇ with respect to the reference plane G1 when the host vehicle V is stationary and placed on a horizontal plane.
  • the inclination angle is as follows.
  • the amount of change in posture may be expressed as an angle at which a preset reference plane G1 changes, or may be expressed as a change amount in coordinate values.
  • 4A is a view as seen from a cross section taken along IVA-IVA shown in FIG. 4B described later.
  • FIG. 4B is a view as seen from the IVB-IVB line shown in FIG. 4A.
  • the present embodiment can also be applied to a scene where the host vehicle V travels on a road along a mountain.
  • the right hand in the traveling direction of the host vehicle V is a mountain side slope
  • the left hand in the traveling direction of the host vehicle V is a valley side slope.
  • the inclination of the ground surface on the right side and the ground surface on the left side in the traveling direction of the host vehicle is different.
  • the image is distorted even when the inclination of the ground surface of the region including the ground on which the host vehicle V travels is different.
  • the control device 10 may calculate the inclination of the ground surface GR on which the host vehicle V travels, and calculate the amount of change in the posture of the host vehicle V from the inclination of the ground surface GR with respect to the host vehicle V. For example, as illustrated in FIG. 4C, the control device 10 acquires the distances d1, d2, and d3 to the points P1, P2, and P3 on the ground surface GR measured by the distance measuring device 41 mounted on the host vehicle V. The slope of the ground surface GR including the points P1, P2, P3 can be calculated. The distances d1, d2, and d3 to the points P1, P2, and P3 are distances from the reference point Q such as the center of gravity of the host vehicle V.
  • control device 10 calculates the distances d1, d2, and d3 to the points P1, P2, and P3 on the ground surface GR using the image of one ground surface GR synthesized from the captured image of the camera 40, and the point P1. , P2 and P3, the slope of the ground surface GR may be calculated.
  • the control device 10 measures the points P1L, P2L, and P1L, P2L, the ground surface GR on the left side of the vehicle from the reference point Q of the vehicle V measured by the distance measuring device 41 mounted on the vehicle V.
  • the distances d1L, d2L, d3L to P3L are acquired, and the slope of the ground surface GR including the points P1L, P2L, P3L can be calculated.
  • distances d1R, d2R, and d3R from the reference point Q of the host vehicle V to the points P1R, P2R, and P3R on the ground surface GR on the right side of the host vehicle are acquired, and the ground GR including the points P1R, P2R, and P3R is acquired.
  • the slope can be calculated.
  • the amount of change in the posture of the host vehicle V can be calculated from the inclination value with respect to the host vehicle V on the ground surface GR in any region. Good.
  • the image of the slope on the side of the valley on the left side in the traveling direction is distorted.
  • the amount of change in the posture of the host vehicle V may be calculated from the slope of the slope on the valley side on the left side in the traveling direction.
  • a representative value such as an average value is obtained as the inclination of the ground surface GR with respect to the host vehicle V from the slope values of the ground surface GR in these regions.
  • the amount of change in the attitude of the host vehicle V may be calculated from the inclination of the vehicle.
  • an image around the host vehicle is displayed using the display device 100.
  • the display device 100 can display an image around a moving body other than an automobile.
  • the slope of the ground surface around the host vehicle may differ from one part to another (each area), unlike the scene of traveling on a maintained flat road.
  • the amount of change in the posture of the host vehicle is larger than that in the scene of traveling on the maintained road, and the image distortion due to the change in posture is also large.
  • the inclination of the ground surface around the movable body may be different for each portion (each region).
  • a moving body that can move without contacting the ground surface has a large amount of change in posture and a large amount of image distortion due to the change in posture, as in the case of the vehicle in the scenes of FIGS. 4A and 4B.
  • this embodiment demonstrates the display apparatus 100 applied to the vehicle, it is applicable also to mobile bodies other than a vehicle.
  • the control device 10 appropriately selects the above-described method, and calculates the amount of change in the posture of the host vehicle V.
  • the control device 10 may calculate the change amount of the posture of the host vehicle V from the change amount of the ground surface GR with respect to the host vehicle V, or change the posture of the host vehicle V from the change amount of the position of the host vehicle V with respect to the ground surface GR.
  • the amount may be calculated.
  • the amount of change in the posture of the host vehicle V may be calculated using the posture information of the host vehicle V and the terrain information 74 including the inclination of the ground surface GR.
  • the control device 10 of the present embodiment deforms the reference solid coordinate system S (S1, S2) defined in advance to project the captured image in accordance with the amount of change in the attitude of the host vehicle V, A modified solid coordinate system S ′ (S1 ′, S2 ′) is set. Specifically, the control device 10 inclines the coordinate axis of the reference stereoscopic coordinate system S (S1, S2) according to the amount of change in the attitude of the host vehicle V with respect to the preset reference stereoscopic coordinate system S (S1, S2). S ′ (S1 ′, S2 ′) is set as the deformed solid coordinate system.
  • the control device 10 of the present embodiment defines a reference plane G1 including the reference point Q of the host vehicle V when the host vehicle V is stationary, and the host vehicle V is in an operating state of the moving body, that is, the host vehicle V is traveling.
  • the XY plane G0 of the reference three-dimensional coordinate system S (S1, S2) corresponding to the reference plane G1 is inclined, and the deformed three-dimensional coordinate system S ′ (S1 ′, S2 ′) is deformed.
  • the control apparatus 10 sets the deform
  • the method of modifying the reference solid coordinate system S (S1, S2) is not particularly limited, and only the XY plane G0 of the reference solid coordinate system S (S1, S2) serving as a reference for the height position of the host vehicle V is inclined.
  • the reference solid coordinate system S (S1, S2) may be entirely inclined and deformed.
  • 5A and 5B show an example of the modified solid coordinate system S ′.
  • 5A and FIG. 5B shows a modified three-dimensional coordinate system S ′ when the change amount of the posture calculated based on the reference plane G1 of the host vehicle V is an angle ⁇ [°].
  • I a three-dimensional coordinate system inclined by a deformation angle ⁇ ′ [°].
  • the deformation angle ⁇ ′ [°] is determined according to the angle ⁇ [°], which is the amount of change in the attitude of the host vehicle V.
  • the modified three-dimensional coordinate system S1 ′ shown in FIG. 5A is a coordinate system in which the coordinate axis of the reference three-dimensional coordinate system S1 shown in FIG. 3A is inclined by a deformation angle ⁇ ′ [°].
  • a deformed solid coordinate system S2 ′ illustrated in FIG. 5B is a coordinate system in which the coordinate axis of the reference solid coordinate system S2 illustrated in FIG. 3B is inclined by a deformation angle ⁇ ′ [°]. As shown in FIG. 5B, the coordinate axis EX extending in the Z direction in the reference three-dimensional coordinate system S2 is inclined by the deformation angle ⁇ ′ [°] to become the coordinate axis EX ′.
  • the deformation amount of the reference three-dimensional coordinate system S1, S2 is determined according to the amount of change in the posture of the host vehicle V.
  • the reference three-dimensional coordinate system S1, S2 may be modified with a change amount equivalent to the change amount of the posture of the host vehicle V.
  • the reference three-dimensional coordinate systems S1 and S2 may be modified with a change amount obtained by multiplying or changing the coefficient of the change amount of the posture of the host vehicle V (or by adding or subtracting a value).
  • the reference is based on the change amount obtained by multiplying the change amount of the posture of the host vehicle V by a positive coefficient (or adding a positive value).
  • the three-dimensional coordinate systems S1 and S2 may be modified. A video emphasizing that the posture of the host vehicle V has changed / a video exaggerating the amount of change in the posture of the host vehicle V can be provided to the user.
  • control device 10 of the present embodiment tilts the reference solid coordinate system S according to the amount of change in the posture of the host vehicle V, the influence of the ground tilt caused by the change in the posture of the host vehicle V is affected. It can cancel and it can control that distortion occurs in a picture.
  • the control device 10 projects the data of the image captured by the camera 40 onto the deformed three-dimensional coordinate system S ′, and generates and displays an image in which the host vehicle V and the surroundings of the host vehicle V are viewed from the virtual viewpoint E.
  • the control device 10 projects the captured image data acquired from the camera 40 on the reference stereoscopic coordinate system S or a modified stereoscopic coordinate system S ′ obtained by deforming the reference stereoscopic coordinate system S. An image of the surroundings of the vehicle V is generated. If the change amount of the posture of the host vehicle V is less than the predetermined amount, it is determined that the posture of the host vehicle V has not changed. Then, the captured image is projected onto the reference three-dimensional coordinate system S. On the other hand, when the amount of change in the posture of the host vehicle V is greater than or equal to a predetermined amount, it is determined that the posture of the host vehicle V has changed. Then, a deformed solid coordinate system S ′ is set, and a captured image is projected onto it.
  • the “predetermined amount” is set as a change amount threshold value for determining whether or not the posture of the host vehicle V has changed.
  • the “predetermined amount” is preferably experimentally determined in consideration of the imaging characteristics of the camera 40 of the host vehicle V, the aspect of the reference three-dimensional coordinate system S, the structure of the host vehicle V, and the like.
  • the control device 10 projects the captured image data acquired from the plurality of cameras 40 onto the reference three-dimensional coordinate system S or a modified three-dimensional coordinate system S ′ obtained by deforming the reference three-dimensional coordinate system S.
  • the projection method is not particularly limited.
  • the control device 10 may execute the projection process using a projection mapping technique known at the time of filing.
  • the projection process may be executed using correspondence information between the address of the captured image data and the address (coordinate value) of the reference stereoscopic coordinate system S or the modified stereoscopic coordinate system S ′.
  • the display device 100 generates an image in which the host vehicle V and the surroundings of the host vehicle V are viewed from a virtual viewpoint using an image projected on the deformed solid coordinate system S ′.
  • the display device 100 displays the generated video on the display 80.
  • the video image displayed by the display device 100 may be displayed by superimposing a prepared icon image V ′ (see FIGS. 3A and 3B) indicating the host vehicle V in advance.
  • the icon image V ′ of the vehicle may be created and stored in advance based on the design of the host vehicle V. In this manner, by superimposing the icon image V ′ of the host vehicle V on the video, the relationship between the position and orientation of the host vehicle V and the surrounding video can be shown in an easily understandable manner.
  • the control device 10 of the present embodiment may deform the icon image V ′ of the host vehicle to be superimposed and displayed on the generated video according to the change amount of the posture of the host vehicle V (moving body). For example, when the host vehicle V is tilted, the icon image V ′ of the vehicle may be tilted according to the tilt angle.
  • the control device 10 sets a deformed three-dimensional coordinate system that is deformed according to the amount of change in the posture of the host vehicle V, and projects captured image data on the deformed three-dimensional coordinate system. Prevent distortion in the image due to changes in posture.
  • FIG. 6A shows a display example of a video generated when there is no change in the posture of the host vehicle V.
  • the video is displayed on the display 80.
  • the host vehicle V is in a state where it is placed on a horizontal plane in a stationary state and / or is moving horizontally on the horizontal plane. There is no distortion in the host vehicle V and the surrounding image of the host vehicle V viewed from the virtual viewpoint. Specifically, the lane marks L1 and L2 drawn in parallel to the road on which the host vehicle V travels are also parallel in the video, and the positional relationship with the horizon GL is also maintained.
  • 6B shows a display example of an image generated when the posture of the host vehicle V is changed.
  • the host vehicle V is in a state in which a change in the height direction occurs with respect to the ground surface. Distortion has arisen in the image
  • the lane marks L1 and L2 of the road on which the host vehicle V travels are drawn in parallel.
  • the lane marks L1 and L2 in the video are not expressed in parallel. This is because the image is distorted.
  • the positional relationship between the lane marks L1, L2 and the horizon GL is also distorted.
  • the control device 10 When there is a change in the posture of the host vehicle V, the control device 10 according to the present embodiment projects a captured image on a deformed solid coordinate system S ′ that is deformed according to the amount of change of the host vehicle V (moving body). This corrects the video.
  • 7A to 7D are diagrams showing display examples when an image in which distortion caused by a change in the posture of the host vehicle V is corrected is displayed on the display 80.
  • FIG. The display 80 displays a two-dimensional image on the xy plane.
  • FIG. 7A shows a modification of the reference three-dimensional coordinate system according to the amount of change in the position of the ground surface relative to the own vehicle V or the amount of change in the position of the own vehicle V relative to the surface of the ground.
  • This is an image obtained by projecting data. Since the projection coordinate system is deformed according to the change amount of the posture of the host vehicle V, the distortion caused by the change amount of the posture of the host vehicle V can be canceled.
  • FIG. 6A an image similar to the state in which the host vehicle V is placed on the horizontal plane or the host vehicle V is moving at a constant speed on the horizontal plane can be displayed.
  • FIG. 7B sets the deformed three-dimensional coordinate system S1 by inclining the xy plane on the bottom side of the cylindrical reference three-dimensional coordinate system S1 according to the inclination (posture) of the own vehicle V with respect to the ground surface, and also displays an icon image of the own vehicle. Tilt V '.
  • the xy plane on the bottom surface side of the reference three-dimensional coordinate system S1 is the xy plane on the ground contact surface side of the host vehicle V.
  • the posture of the host vehicle V that climbs the hill can be displayed in an easy-to-understand manner, and the road on which the host vehicle V is traveling can be displayed in an easy-to-understand manner.
  • FIG. 7C is a display example showing a change in the attitude of the host vehicle V with respect to the ground surface using an icon image V ′ of the host vehicle.
  • the expansion and contraction of the suspension of the host vehicle corresponding to the amount of change in the posture of the host vehicle V with respect to the ground surface is expressed by the inclination of the icon image V ′ of the host vehicle.
  • the icon image V ′ of the host vehicle indicates the presence / absence of expansion / contraction of the suspension of the host vehicle V and the amount of the extension / contraction based on the inclination of the icon image V ′.
  • the icon image V ′ of the host vehicle shown in FIG. It is displayed so as to have an inclination with respect to the x-axis of the system S1.
  • the inclination angle of the icon image V ′ is determined according to the amount of change in the attitude of the host vehicle V. In this way, by changing the display position of the icon image V ′ of the host vehicle, it is possible to express a change in the posture of the host vehicle V with respect to the ground surface.
  • FIG. 7D tilts all of the cylindrical reference solid coordinate system S1 and tilts the icon image V ′ of the host vehicle according to the tilt (posture) of the host vehicle V with respect to the ground surface.
  • the icon image V ′ of the host vehicle shown in FIG. 7D is displayed so as to have an inclination with respect to the x-axis of the deformed three-dimensional coordinate system S1, similarly to the icon image V ′ of the host vehicle shown in FIG. 7C.
  • the coordinate system itself that expresses the posture of the host vehicle V is deformed according to the amount of change in the posture of the host vehicle V, so that the posture of the host vehicle V that climbs the hill is known. It is possible to easily display that the road on which the vehicle V is traveling is a slope.
  • the video of the present embodiment distortion caused by the amount of change in the posture of the host vehicle V is corrected, so the video around the host vehicle V does not include distortion.
  • the lane marks L1 and L2 drawn in parallel to the road on which the host vehicle V is traveling can be displayed in parallel in the video.
  • the control device 10 of the present embodiment cuts out a predetermined area from the captured image of each camera 40 and executes a projection process.
  • predetermined regions AR1, AR2, AR3, AL1, AL2, and AL3 are cut out from the captured images of the cameras 40 except for overlapping portions.
  • FIG. 8A shows the predetermined area with a simple shape to show the outline of the processing, but the control device 10 determines the shape of the reference stereoscopic coordinate system S or the modified stereoscopic coordinate system S ′ and the imaging characteristics of the camera 40.
  • the predetermined areas AR1, AR2, AR3, AL1, AL2, AL3 to be cut out are designed.
  • the control device 10 changes a predetermined area to be cut out from the captured image when performing the projection process according to the acceleration of the host vehicle V.
  • the control device 10 acquires the acceleration in the traveling direction of the host vehicle V detected by the longitudinal acceleration sensor 64 of the host vehicle V.
  • the control device 10 projects data of a predetermined area of the captured image of the camera 40 onto the deformed solid coordinate system S ′.
  • a positive acceleration of the traveling direction component of the host vehicle V forward component: indicated by an arrow F in the figure
  • the predetermined areas AR2 and AL2 of the captured images 40R2 and 40L2 are expanded to the opposite side to the traveling direction of the host vehicle V (rearward direction: a direction indicated by an arrow F ′ in the drawing).
  • the acceleration of the traveling direction component of the host vehicle V may be predicted from the execution information of the braking operation acquired from the controller 50 of the host vehicle V.
  • FIG. 8B shows a predetermined area AR2 ′ in which the predetermined areas AR2 and AL2 set on the left and right sides of the host vehicle V shown in FIG. 8A are expanded in the rearward direction of the host vehicle V (the direction indicated by the arrow F ′ in the figure). , AL2 ′.
  • the length MR2 ′ in the rear direction (direction indicated by arrow F ′ in the figure) shown in FIG. 8B is the length MR2 ′ in the rear direction (direction indicated by arrow F ′ in the figure) shown in FIG. 8A. It is longer than MR2.
  • the host vehicle V When a positive acceleration is detected in the traveling direction of the host vehicle V, the host vehicle V assumes a forward turning posture. When the host vehicle is in a forward-facing posture, among the captured images of the cameras 40R2 and 40L2 on the side of the host vehicle V, the image range that can be used for the projection process is widened in the rear direction of the vehicle.
  • the control device 10 of the display device 100 extracts an image cut out from the imaging regions of the cameras 40R2 and 40L2 provided on the left and right sides of the host vehicle V. This area (predetermined area) is extended rearward of the vehicle.
  • a three-dimensional image with less distortion is provided by changing the region (predetermined region) of the image to be cut out according to the attitude of the host vehicle V. it can.
  • the captured images of the left and right cameras 40R2 and 40L2 are expanded rearward and cut out, so that an image with little distortion can be generated.
  • the captured image of the predetermined area extended rearward is projected onto the deformed three-dimensional coordinate system ′ deformed according to the posture of the host vehicle V, an image with less distortion can be generated.
  • the control device 10 displays the generated video on the display 80.
  • the display 80 may be mounted on the host vehicle V and configured as the mobile device 200 or may be provided on the display device 100 side.
  • the display 80 may be a two-dimensional image display or a display that displays a three-dimensional image.
  • step S ⁇ b> 101 the control device 10 acquires a captured image captured by the camera 40.
  • step S ⁇ b> 102 the control device 10 calculates the attitude of the host vehicle V.
  • the control device 10 determines whether or not the amount of change in the posture of the host vehicle V is greater than or equal to a predetermined amount.
  • the amount of change in the posture of the host vehicle V may be obtained from the difference between the posture (position information) of the host vehicle V at the timing T1 and the posture (position information) of the host vehicle V at the subsequent timing T2 (T1 + ts).
  • the amount of change in the posture of the host vehicle V may be obtained from a difference between a predetermined reference posture (position information) of the host vehicle V and the posture (position information) of the host vehicle V at the time of posture calculation (current).
  • step S103 the control device 10 determines whether or not the amount of change in the posture of the host vehicle V is greater than or equal to a predetermined amount. If the amount of change in the attitude of the host vehicle V is less than the predetermined amount, the process proceeds to step S108, where a predefined reference solid coordinate system S is set as projection coordinates. On the other hand, when the change amount of the posture of the host vehicle V is less than the predetermined amount, the process proceeds to step S104, and the predefined reference solid coordinate system S is deformed. In subsequent step S105, the control device 10 sets the deformed solid coordinate system S ′ obtained in step S104 as a projection coordinate system.
  • step S106 the control device 10 executes a process of projecting the captured image on the set reference three-dimensional coordinate system S or deformed three-dimensional coordinate system S ′, and generates a display image.
  • step S107 the control device 10 displays the generated video on the display 80.
  • the display device 100 projects a captured image on the deformed solid coordinate system S ′ deformed according to the amount of change in the posture of the host vehicle V.
  • the display device 100 of the present embodiment calculates the amount of change in the position of the ground surface relative to the host vehicle V as the amount of change in the attitude of the host vehicle V, the above effect is achieved.
  • the display device 100 of the present embodiment calculates the amount of change in the position of the host vehicle V with respect to the ground surface as the amount of change in the posture of the host vehicle V, and thus has the above-described effect.
  • the display device 100 displays the amount of change in the positional relationship between the host vehicle V and the ground surface obtained from the position information of the host vehicle V and the position information of the ground surface around the host vehicle V. Since it is calculated as the amount of change in the posture of the host vehicle V, the above-described effect is achieved.
  • the display device 100 of the present embodiment calculates the amount of change in the posture of the host vehicle V using the posture information of the host vehicle V, and thus has the above-described effect. Further, the display device 100 according to the present embodiment can calculate the amount of change in the posture of the host vehicle V in consideration of the behavior such as acceleration / deceleration of the host vehicle V, the change in posture caused by the structure of the host vehicle V, and the like.
  • the display device 100 sets a modified three-dimensional coordinate system in which the coordinate axis of the reference three-dimensional coordinate system S is inclined according to the amount of change in the posture of the host vehicle V. It is possible to suppress the occurrence of distortion in the image caused by the change and caused by the inclination of the host vehicle V with respect to the ground surface.
  • the display device 100 sets a modified three-dimensional coordinate system in which the XY plane of the reference three-dimensional coordinate system corresponding to the reference plane is inclined according to the inclination of the reference plane of the host vehicle V. It is possible to suppress the occurrence of distortion in the video caused by the inclination of the host vehicle V with respect to the ground surface caused by the change in the posture of the vehicle V.
  • the display device 100 acquires acceleration of the traveling direction component of the host vehicle V
  • the captured image of the camera 40 mounted on the side of the host vehicle V among the plurality of cameras 40. Is expanded to the rear side of the host vehicle V.
  • the posture of the host vehicle V is turned forward at the time of acceleration
  • the captured images of the left and right cameras 40R2 and 40L2 are expanded rearward and cut out, and the cut out captured image is deformed according to the posture of the host vehicle V Since the projection is performed on the deformed solid coordinate system ′, an image with less distortion can be generated.
  • the display device 100 of the present embodiment causes the display method of the present embodiment to execute the above-described effect.
  • the display system 1 including the display device 100 as one embodiment of the display device according to the present invention will be described as an example, but the present invention is not limited to this.
  • the display device 100 including the control device 10 including the CPU 11, the ROM 12, and the RAM 13 is described as an embodiment of the display device according to the present invention, but the present invention is not limited to this.
  • a display device having an image acquisition unit, an attitude calculation unit, a coordinate system setting unit, and a display control unit according to the present invention
  • an image acquisition function, an attitude calculation function The display device 100 including the control device 10 that executes the coordinate system setting function and the display control function will be described as an example, but the present invention is not limited to this.
  • the display device 100 including the control device 10 that further executes the information acquisition function will be described as an example of the display device further including the information acquisition unit according to the present invention. It is not limited to this.

Abstract

自車両Vに搭載されたカメラ40が撮像した撮像画像を取得する画像取得機能と、自車両Vの姿勢の変化量を算出する姿勢算出機能と、自車両Vの姿勢の変化量に応じて、撮像画像を投影するために予め定義された基準立体座標系Sを変形させた変形立体座標系S´を設定する座標系設定機能と、撮像画像のデータを変形立体座標系Sに投影し、仮想視点から自車両V及び自車両Vの周囲を見た映像を表示させる表示制御機能と、を実現する制御装置10を備える表示装置100を提供する。

Description

表示装置及び表示方法
 本発明は、移動体の周囲の映像を立体的に表示する表示装置及び表示方法に関する。
 この種の装置に関し、基準曲面座標系に対する仮想視点の位置に応じて、予め定義された基準曲面座標系を変形させた変形立体座標系を設定し、変形した変形立体座標系に撮像画像を投影した映像を表示する移動体用表示装置が知られている(特許文献1)。
特開2012-138660号公報
 しかしながら、撮像画像が投影される立体座標系と移動体との位置関係が固定されていると、移動体の姿勢が変化したときに生成される映像に歪みが発生するという問題がある。
 本発明が解決しようとする課題は、移動体の姿勢が変化したときに生成される映像に歪みが発生することを抑制することである。
 本発明は、移動体の姿勢の変化量に応じて、予め定義された基準立体座標系を変形させた変形立体座標系を設定し、変形した変形立体座標系に撮像画像を投影した映像を表示することにより、上記課題を解決する。
 本発明によれば、移動体の姿勢の変化量に応じて変形させた変形立体座標系も撮像画像を投影させることにより、移動体と立体座標系の位置関係のずれ量を低減させるため、移動体の姿勢が変化した場合であっても、映像に歪みが発生することを抑制できる。
本発明に係る表示装置を備える表示システムの構成図である。 図2(A)(B)は本実施形態のカメラの設置位置の一例を示す図である。 基準立体座標系の一例を示す図である。 基準立体座標系の他の例を示す図である。 移動体の姿勢の算出手法を説明するための第1の図である。 移動体の姿勢の算出手法を説明するための第2の図である。 移動体の姿勢の算出手法を説明するための第3の図である。 図3Aに示す基準立体座標系に対応する変形立体座標系の一例を示す図である。 図3Bに示す基準立体座標系に対応する変形立体座標系の一例を示す図である。 歪みが生じない場合の映像の一例を示す図である。 歪みが生じた場合の映像の一例を示す図である。 自車両の姿勢の変化量に応じて補正をした映像の一例を示す図である。 自車両の姿勢の傾きの変化量に応じて基準立体座標系の底面を傾けて生成した映像の一例を示す図である。 地表に対する自車両の姿勢の変化量に応じて、自車両のアイコン表示を傾けて生成した映像の一例を示す図である。 自車両の姿勢の傾きの変化量に応じて、自車両のアイコン表示及び基準立体座標系を傾けて生成した映像の一例を示す図である。 変形立体座標系に投影する撮像画像の所定領域の一例を示す図である。 変形立体座標系に投影する撮像画像の、拡張された所定領域の一例を示す図である。 本発明の実施形態に係る表示装置の制御手順を示すフローチャート図である。
 以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る表示装置を、移動体に搭載された表示システム1に適用した場合を例にして説明する。本実施形態の表示システム1は、移動体及び移動体周囲の状況を把握するための映像を移動体の操作者が見るディスプレイに表示する。
 図1は、本実施形態に係る表示装置100を含む表示システム1のブロック構成図である。図1に示すように、本実施形態の表示システム1は、表示装置100と、移動体装置200とを備える。表示装置100と移動体装置200の各機器は、いずれも図示しない有線又は無線の通信装置を備え、互いに情報の授受を行う。
 本実施形態の表示システム1が適用される移動体は、車両、ヘリコプター、海底探査機、飛行機、装甲車、列車、フォークリフトその他の移動機能を備えるものを含む。本実施形態では、移動体が車両である場合を例にして説明する。なお、本実施形態の移動体は、人間が搭乗可能な有人機であってもよいし、人間が搭乗しない無人機であってもよい。
 なお、本実施形態の表示システム1は、移動体に搭載された装置として構成してもよいし、移動体に持ち込み可能な可搬装置として構成してもよい。また、本実施形態の表示システム1の一部の構成を移動体に搭載し、他の構成を移動体とは物理的に別の装置に搭載し、構成を分散させてもよい。この場合において、移動体と別の装置とは、情報の授受が可能なように構成される。
 図1に示すように、本実施形態の移動体装置200は、カメラ40と、コントローラ50と、センサ60と、ナビゲーション装置70と、ディスプレイ80と、を備える。これらの各装置はCAN(Controller Area Network)その他の移動体に搭載されたLANによって接続され、相互に情報の授受を行うことができる。
 本実施形態のカメラ40は、車両(移動体の一例である。以下同じ)の所定位置に設けられている。車両に設けるカメラ40の個数は、一つでもよいし、複数でもよい。車両に搭載されたカメラ40は、車両及び/又は車両の周囲を撮像し、その撮像画像を表示装置100に送出する。本実施形態における撮像画像は、車両の一部と車両の周囲の映像を含む。撮像画像のデータは、車両の周囲の地表との位置関係の算出処理、車両又は車両の周囲の映像の生成処理に用いられる。
 図2(A)(B)は、自車両Vに搭載されたカメラ40の設置位置の一例を示す図である。同図に示す例では、自車両Vには、自車両Vの右側前方のカメラ40R1と、右側中央のカメラ40R2と、右側後方のカメラ40R3と、自車両Vの左側前方のカメラ40L1と、左側中央のカメラ40L2と、左側後方のカメラ40L3との6つのカメラ40が設置されている。なお、カメラ40の配置位置は特に限定されず、その撮像方向も任意に設定できる。各カメラ40は後述する制御装置10からの指令又は予め設定されたタイミングで撮像画像を表示装置100へ送出する。
 本実施形態において、カメラ40が撮像した撮像画像は、映像の生成に用いられるほか、対象物の検出、及び対象物までの距離の計測に用いられる。本実施形態のカメラ40の撮像画像は、車両の周囲の対象物の映像を含む。本実施形態における対象物は、移動体周囲の地表、移動体周囲の物体を含む。
 本実施形態において「地表」は、地球の表面、地球の地殻(土地)の表面を含む概念を示す用語である。本実施形態の用語「地表」は、陸地の表面、海の表面、河又は川の表面、湖の表面、海底の表面、道路の表面、駐車場の表面、ポートの表面、又はこれらのうち二つ以上を含む面を含む。なお、移動体が倉庫や工場などの施設(建屋)の屋内に存在する場合において、本実施形態の用語「地表」は、その施設の床面、壁面を含む意味を有する。「表面」とは、撮像時にカメラ40側に表出される面である。また、対象物は、自車両Vの周囲に存在する他車両、歩行者、道路構造物、駐車場、標識、施設、その他の物体を含む。
 本実施形態のカメラ40は、画像処理装置401を備える。画像処理装置401は、カメラ40の撮像画像のデータからエッジ、色、形状、大きさなどの特徴を抽出し、抽出した特徴から撮像画像に含まれる対象物の属性を特定する。画像処理装置401は、各対象物の特徴を予め記憶し、パターンマッチング処理により撮像画像に含まれる対象物を特定する。撮像画像のデータを用いて対象物の存在を検出する手法は、特に限定されず、本願出願時に知られた手法を適宜に用いることができる。画像処理装置401は、カメラ40の撮像画像のデータから抽出した特徴点の位置又は位置の経時的な変化から自車両から対象物までの距離を算出する。距離を算出する際に、画像処理装置401は、カメラ40の設置位置、光軸方向、撮像特性などの撮像パラメータを用いる。撮像画像のデータを用いて対象物までの距離を計測する手法は、特に限定されず、本願出願時に知られた手法を適宜に用いることができる。
 本実施形態では、自車両Vとの位置関係を算出するためのデータを取得する手段として、測距装置41を備えてもよい。測距装置41は、カメラ40とともに使用してもよいし、カメラ40に代えて使用してもよい。測距装置41は、自車両Vの周囲に存在する対象物を検出し、対象物と自車両Vとの距離を計測する。つまり、測距装置41は、自車両Vの周囲の対象物を検出する機能を備える。測距装置41は、自車両Vから陸地の表面、海の表面、河又は川の表面、道路の表面までの距離を計測する。測距装置41は、自車両Vから他車両、歩行者、道路構造物、駐車場、標識、施設、その他の物体までの距離を計測する。測距装置41は、計測した対象物までの測距データを表示装置100に送出する。
 測距装置41は、レーダー測距装置であってもよいし、超音波測距装置であってもよい。本願出願時に知られた測距手法を利用できる。自車両Vに測距装置41を設置する測距装置41の個数は特に限定されない。また、自車両Vに測距装置41を設置する測距装置41の設置位置も、特に限定されない。測距装置41は、図2に示すカメラ40の設置位置に対応する位置又はその近傍に設けてもよいし、自車両Vの前方又は後方に設けてもよい。移動体が、高さ方向に移動するヘリコプター、飛行機、海底探査機などである場合には、カメラ40及び/又は測距装置41を機体の底面側に設けてもよい。
 本実施形態のコントローラ50は、自車両Vを含む移動体の動作を制御する。コントローラ50は、後述するセンサ60の検出情報を含む、移動体の動作に関する各情報を集中的に管理する。
 本実施形態のセンサ60は、速度センサ61と、前後加速度センサ62と、横加速度センサ63と、操舵角センサ64と、姿勢センサ65を含む。速度センサ61は、自車両Vの移動速度を検出する。前後加速度センサ62は、自車両Vの前後方向の加速度を検出する。横加速度センサ63は、自車両Vの横方向(左右方向)の加速度を検出する。操舵角センサ64は、自車両Vの左又は左方向への移動制御が開始されるトリガを検出する。自車両Vの速度の変化、加速度の変化、操舵角の変化、横加速度の変化は、自車両Vの姿勢に影響を与える。たとえば、自車両Vは、アクセルを踏んで加速操作を実行すると姿勢が変化する。反対にアクセルの踏み込み量を小さくしてエンジンのトルクを減少させても姿勢は変化する。表示装置100は、速度センサ61、前後加速度センサ62、横加速度センサ63、操舵角センサ64の検出値から自車両Vの姿勢の変化を算出することができる。 
 また、姿勢センサ65は、自車両Vの重量、重心、ホイールベースなどの車体構造と、ピッチング角、ヨー角、サスペンションストローク量などの車両の姿勢に関する情報に基づいて、自車両Vの姿勢を検出する。自車両Vの姿勢は、予め定義した評価値によって表現できる。自車両Vの姿勢の評価手法、姿勢の変化量の計測手法は、特に限定されない。自車両Vの姿勢の変化量を求めるために、横滑り防止装置、アンチロック・ブレーキシステム、空転防止装置その他の車両挙動制御装置が備える姿勢検出装置が検出した、車両の姿勢に関する検出結果を利用してもよい。
 本実施形態のナビゲーション装置70は、GPS(Global Positioning System)711を備える位置検出装置71と、地図情報72と、道路情報73と、地形情報74と、を有する。本実施形態の地図情報72は、地点と、道路、構造物、施設などが対応づけられた情報である。ナビゲーション装置70は、地図情報72を参照し、位置検出装置71により検出された自車両Vの現在位置から目的地までの経路を求め、自車両Vを誘導する機能を備える。
 本実施形態の道路情報73は、位置情報と道路の曲率、傾斜などの情報が対応づけられた情報である。本実施形態の道路情報73は、道路の曲率、傾斜が変化する位置と、その道路の曲率、傾斜変化量とを対応づけた情報を含んでもよい。ナビゲーション装置70は、道路情報73を参照し、位置検出装置71により検出された現在位置において、自車両Vが走行する道路の曲率、傾斜角度の情報を得る。自車両Vが走行する道路の曲率、傾斜角度の情報は、自車両Vの姿勢を求める情報として利用できる。
 本実施形態の地形情報74は、位置情報ごとに、その位置の高度、その位置を含む領域の傾斜角度が対応づけられた情報である。本実施形態の地形情報74は、位置の高度、その位置を含む領域の傾斜角度が変化する位置と、その位置の高度の変化量、その位置を含む領域の傾斜角度の変化量とを対応づけた情報を含んでもよい。本実施形態のナビゲーション装置70は、地形情報74を参照し、位置検出装置71により検出された現在位置の高度、傾斜角度を得る。現在、自車両Vが存在する地点の高度、傾斜角度の情報は、自車両Vの姿勢を求める情報として利用できる。現在、自車両Vが存在する地点の高度、傾斜角度の情報は、自車両Vの姿勢を求める情報として利用できる。
 本実施形態のディスプレイ80は、後述する表示装置100が生成した、任意の仮想視点から自車両V及びその自車両Vの周囲を見た映像を表示する。なお、本実施形態では、ディスプレイ80を移動体に搭載させた表示システム1を例にして説明するが、移動体に持ち込み可能な可搬の表示装置100側にディスプレイ80を設けてもよい。
 次に、本実施形態の表示装置100について説明する。本実施形態の表示装置100は、制御装置10を備える。
 図1に示すように、本実施形態に係る表示装置100の制御装置10は、移動体及びその周囲の映像を表示させるプログラムが格納されたROM(Read Only Memory)12と、このROM12に格納されたプログラムを実行することで、表示装置100の機能を実現させる動作回路としてのCPU(Central Processing Unit)11と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)13と、を備える。制御装置10は、画像処理を実行するGraphics Processing Unit(グラフィックス プロセッシング ユニット)を備えてもよい。
 本実施形態に係る表示装置100の制御装置10は、画像取得機能と、姿勢算出機能と、座標系設定機能と、表示制御機能とを実現する。本実施形態の制御装置10は、さらに情報取得機能を備える。本実施形態の制御装置10は、上記機能を実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行する。
 以下、制御装置10が実現する各機能についてそれぞれ説明する。
 まず、制御装置10の画像取得機能について説明する。本実施形態の制御装置10は、カメラ40が撮像した撮像画像のデータを取得する。表示装置100は、図示しない通信装置を用いて移動体装置200から撮像画像のデータを取得する。
 次に、制御装置10の情報取得機能について説明する。制御装置10は、図示しない通信装置を用いて移動体装置200から各種の情報を取得する。
 制御装置10は、移動体としての自車両Vの周囲の地表の位置情報を取得する。経時的に取得した地表の位置情報は、後述する自車両Vの姿勢の変化量の算出に用いられる。制御装置10は、カメラ40の撮像画像から自車両Vから地表までの距離を、自車両Vに対する地表の位置情報として算出する。制御装置10は、地表の位置情報の算出処理にカメラ40の撮像パラメータを用いてもよい。制御装置10は、画像処理装置401が算出した地表の位置情報を取得してもよい。
 制御装置10は、移動体である自車両Vの姿勢に関する姿勢情報を自車両Vから取得する。制御装置10は、前後加速度センサ62が検出した前後加速度、横加速度センサ63が検出した横加速度、操舵角センサ64が検出した操舵量、姿勢センサ65が検出した自車両の姿勢の評価値を、姿勢情報として取得する。経時的に取得した姿勢情報は、後述する自車両Vの姿勢の変化量の算出に用いられる。
 制御装置10は、移動体である自車両Vの位置情報を取得する。自車両Vの位置情報は、所定の立体座標系における自車両Vの位置(三次元位置)を示す情報である。自車両Vの姿勢が変化した場合には、自車両Vの位置情報も変化する。経時的に取得した自車両Vの姿勢情報は、後述する自車両Vの姿勢の変化量の算出に用いられる。
 本実施形態の制御装置10は、自車両Vに対する地表の位置情報のみを取得してもよいし、自車両Vの位置情報のみを取得してもよい。また、制御装置10は、地表の位置情報と自車両Vの位置情報との両方を取得してもよい。この場合において、制御装置10は、所定の立体座標系における地表の位置情報と、同じ所定の立体座標系における自車両Vの位置情報とを取得することが好ましい。共通の座標における地表の位置情報と自車両Vの位置情報を用いることにより、地表と自車両Vとの位置関係を求める処理において、座標変換の処理を省くことができる。
 本実施形態の制御装置10は、自車両Vの周囲の地形情報を、移動体装置200側から取得する。移動体装置200のナビゲーション装置70が備える地形情報74は、各地点の位置とその位置の地形を記憶する。制御装置10は、GPS711が検出した自車両Vの位置を含む周囲の領域の地形を、地形情報74から抽出させ、現在位置における地形情報を取得する。地形情報は、地表の傾斜度、傾斜の向きなどの情報を含む。地形情報は、重力を基準とする座標系を用いて定義される。
 次に、制御装置10の姿勢算出機能について説明する。制御装置10は、移動体である自車両Vの姿勢を算出する。自車両Vの姿勢は、自車両Vに設定された一又は複数の基準点の位置として算出する。本実施形態の制御装置10は、自車両Vの姿勢を、予め定義された基準立体座標系に対する、自車両Vの基準点の位置(座標)または基準面の位置(座標)として算出する。基準立体座標系は任意に定義できる。自車両Vの基準点は、自車両V(移動体)の重心などを位置に設定する。自車両Vの基準面は、自車両Vの静止状態において、その自車両Vの基準点を含む面に設定する。
 本実施形態では、図2(B)に示すように、本実施形態では、地表GR1の上に載置された静止状態の自車両Vについて、地表GR1と平行な面であって、基準点Qを含む面を基準面G1として定義する。自車両Vの重心を基準点Qとしてもよい。地表GR1は、重力方向に直交する水平面であってもよい。
 本実施形態の制御装置10は、自車両Vの姿勢から、その変化量を算出する。変化量は、異なるタイミングにおける自車両Vの姿勢の変化量、つまり経時的な変化量であってもよいし、基準の姿勢(位置)に対する、現在の自車両Vの姿勢の位置(位置)の変化量であってもよい。自車両Vの姿勢の変化量は、自車両Vが存在する空間の高さ方向の成分の位置の変化量を含む。自車両Vが地上に存在する場合には、重力方向に沿う成分の位置の変化量を含む。
 制御装置10は、自車両Vと地表との相対的な位置関係の変化を、自車両Vの姿勢の変化量として算出する。
 本実施形態では、自車両Vと地表との相対的な位置関係が変化するときに、表示する映像に含まれる地表の映像に歪みが発生するという発明者の知見に基づき、特に地表と自車両Vとの位置関係に着目する。
 制御装置10は、自車両Vの位置に対する地表の位置の変化量を自車両Vの姿勢の変化量として算出する。カメラ40は、移動体である自車両Vに搭載されているので、カメラ40の撮像画像のデータから地表の位置を経時的に算出すれば、自車両Vの位置に対する地表の位置の変化量を求めることができる。同様に、測距装置41は、移動体である自車両Vに搭載されているので、測距装置41の測距データから地表の位置を経時的に算出すれば、自車両Vの位置に対する地表の位置の変化量を求めることができる。本実施形態では、自車両Vの位置に対する地表の位置の変化量を、自車両Vの姿勢の変化量として扱うことができる。
 また、制御装置10は、地表の位置に対する自車両Vの位置の変化量を、自車両Vの姿勢の変化量として算出する。地表が静止物であるため、地表の位置に対する自車両Vの位置の変化、特に高さ方向(重力方向に沿う方向)の変化量を含む自車両Vの位置の変化は、自車両Vの姿勢の変化量として扱うことができる。地表の位置に対する自車両Vの位置の変化量を経時的に算出すれば、地表の位置に対する自車両Vの位置の変化量を求めることができる。本実施形態では、地表の位置に対する自車両Vの位置の変化量を、自車両Vの姿勢の変化量として扱う。
 制御装置10は、自車両Vの位置情報と、自車両Vの周囲の地表の位置情報とを用いて、自車両Vと地表の位置の変化量を、自車両Vの姿勢の変化量として算出する。
 制御装置10は、取得した姿勢情報を用いて自車両Vの姿勢の変化量として算出する。本実施形態の制御装置10は、自車両Vの加減速などの挙動、自車両Vの構造などによって生じる姿勢の変化を考慮して、自車両Vの姿勢の変化量を算出できる。制御装置10は、取得した姿勢情報を用いて、先述した撮像画像(又は測距データ)から求めた自車両Vの姿勢の変化量を補正してもよい。
 制御装置10は、自車両Vの現在位置を含む周囲の地形情報を取得し、その地形情報を用いて、自車両Vの姿勢を算出する。制御装置10は、移動体が自車両Vや海底探査機である場合には、自車両V(海底探査機)が移動する路面(海底面)の傾斜方向及び傾斜角度から、自車両V(海底探査機)の姿勢を算出する。
 次に、本実施形態の制御装置10の座標系設定機能について説明する。
 制御装置10は、撮像画像を投影するために予め定義された基準立体座標系を記憶する。後に詳述するが、基準立体座標系は、カメラ40の撮像画像の投影する際に用いられる。
 基準立体座標系の態様は特に限定されない。図3Aに示すように、基準立体座標系S1(S)を円筒形状としてもよいし、図3Bに示すように、基準立体座標系S2(S)を球形状としてもよい。基準立体座標系Sは、その内側に自車両V(移動体)が存在するときの周囲の映像を投影する座標である。このため、投影処理の基準となる仮想視点Eを、立体座標系Sの内側に設定する。仮想視点Eは、自車両V内からその周囲を見る場面を想定して設定されるので、自車両Vの位置に応じて定義される。つまり、仮想視点Eと自車両Vの基準面G1(図2(A)を参照)は、基準立体座標系Sにおいて定義される。
 自車両Vの基準面G1の高さ方向の位置は、立体座標系Sの上端PN又は下端PSに対応させずに、上端PNと下端PSとの間に設定される。図3A及び図3Bに示す例では、自車両Vの基準面G1を、G0の位置に設定する。これにより、基準立体座標系Sの正負の座標値を用いて、自車両Vの高さ方向の変化を表現できる。
 本実施形態の制御装置10は、移動体である自車両Vの姿勢の変化量に応じて、基準立体座標系Sを変形させた変形立体座標系S1´,S2´を設定する。基準立体座標系Sの変形は、自車両Vが存在する空間の高さ方向の成分の変形を含む。自車両Vが地上に存在する場合には、重力方向に沿う成分の変形を含む。
 まず、制御装置10は、自車両Vの姿勢の変化量を算出する。自車両Vの姿勢が変化する場面の一例を図4Aに示す。図4Aに示すように、自車両Vが傾斜する地表(道路)GRを矢印F1方向に向かって走行するとき、自車両Vの姿勢は地表GRの傾きの変化量に応じて変化する。本例では、位置x1において、地表GRの傾きがゼロ度からα度に変化する。図4Aに示す場面において、自車両Vが地表(道路)GRを走行するときの基準面G2は、自車両Vが静止状態で水平面に載置されているときの基準面G1に対して角度αの傾斜角を有する。このように、自車両Vが傾斜した地表(道路)GRを走行するとき、自車両Vの姿勢は変化する。姿勢の変化量は、予め設定された基準面G1が変化した角度で表現してもよいし、座標値の変化量で表現してもよい。なお、図4Aは、後述する図4Bに示すIVA-IVAに沿う断面から見た図である。
 図4Bは、図4Aに示すIVB-IVB線から見た図である。本実施形態は、図4Bに示すように、自車両Vが山沿いの道を走行する場面においても適用できる。図4Bに示すように、自車両Vの進行方向右手は山側斜面であり、自車両Vの進行方向左手は谷側斜面である。この場面において、自車両の進行方向の右側の地表と左側の地表の傾きは異なる。このように、自車両Vが走行する地面を含む領域の地表の傾きが異なる場合にも、先述したように、映像に歪みが生じる。
 制御装置10は、自車両Vが走行する地表GRの傾きを算出し、自車両Vに対する地表GRの傾きから自車両Vの姿勢の変化量を算出してもよい。例えば、制御装置10は、図4Cに示すように、自車両Vに搭載された測距装置41が計測した、地表GRの地点P1,P2,P3までの各距離d1,d2,d3を取得し、この地点P1,P2,P3を含む地表GRの傾きを算出できる。地点P1,P2,P3までの各距離d1,d2,d3は自車両Vの重心位置などの基準点Qからの距離である。また、制御装置10は、カメラ40の撮像画像から合成された一つの地表GRの画像を用いて、地表GRの地点P1,P2,P3までの各距離d1,d2,d3を算出し、地点P1,P2,P3を含む地表GRの傾きを算出してもよい。
 図4Bに示す場面のように、自車両Vが走行する領域を含む地表GRの傾きが異なる、例えば右側と左側とで地表GRの傾きが異なる場合には、各領域ごとにその傾きを算出してもよい。例えば、制御装置10は、図4Cに示すように、自車両Vに搭載された測距装置41が計測した、自車両Vの基準点Qから自車両の左側の地表GRの地点P1L,P2L,P3Lまでの各距離d1L,d2L,d3Lを取得し、この地点P1L,P2L,P3Lを含む地表GRの傾きを算出できる。同様に、自車両Vの基準点Qから自車両の右側の地表GRの地点P1R,P2R,P3Rまでの各距離d1R,d2R,d3Rを取得し、この地点P1R,P2R,P3Rを含む地表GRの傾きを算出できる。
 このように、自車両Vの周囲の傾斜値が複数得られた場合には、いずれかの領域の地表GRの自車両Vに対する傾斜値から、自車両Vの姿勢の変化量を算出してもよい。図4A,図4Bに示す状況においては、進行方向左側の谷側の斜面の映像が正確に表示されることが乗員にとって有益であるという観点から、進行方向左側の谷側の斜面の映像に歪みが生じないように、進行方向左側の谷側の斜面の傾きから自車両Vの姿勢の変化量を算出してもよい。自車両Vの周囲の傾斜値が複数得られた場合には、これらの領域の地表GRの傾斜の値から平均値などの代表値を、自車両Vに対する地表GRの傾きとして求め、この地表GRの傾きから自車両Vの姿勢の変化量を算出してもよい。
 本実施形態では、表示装置100を用いて自車両の周囲の映像を表示する態様を説明するが、表示装置100は自動車以外の移動体の周囲の映像を表示することができる。
 ちなみに、図4A、図4Bに示す場面においては、整備された平坦な道路を走行する場面とは異なり、自車両の周囲の地表の傾きが部分ごと(領域ごと)に異なることがある。また、図4A、図4Bに示す場面においては、整備された道路を走行する場面よりも、自車両の姿勢の変化量は大きく、姿勢の変化による映像の歪みも大きい。
 車両とは異なり地表と接することなく移動可能な移動体においては、移動体の周囲の地表の傾きが部分ごと(領域ごと)に異なることがある。また、車両とは異なり地表と接することなく移動可能な移動体においては、図4A,図4Bの場面における車両と同様に、姿勢の変化量は大きく、姿勢の変化による映像の歪みも大きい。本実施形態では車両に適用された表示装置100について説明するが、車両以外の移動体についても適用が可能である。
 制御装置10は、先述した手法を適宜に選択し、自車両Vの姿勢の変化量を算出する。制御装置10は、自車両Vに対する地表GRの変化量から自車両Vの姿勢の変化量を算出してもよいし、地表GRに対する自車両Vの位置の変化量から自車両Vの姿勢の変化量を算出してもよい。自車両Vの姿勢情報や、地表GRの傾きを含む地形情報74を用いて自車両Vの姿勢の変化量を算出してもよい。
 次に、本実施形態の制御装置10は、自車両Vの姿勢の変化量に応じて、撮像画像を投影するために予め定義された基準立体座標系S(S1,S2)を変形させて、変形立体座標系S´(S1´,S2´)を設定する。具体的に、制御装置10は、予め設定した基準立体座標系S(S1,S2)に対する自車両Vの姿勢の変化量に応じて、基準立体座標系S(S1,S2)の座標軸を傾斜させた変形立体座標系をS´(S1´,S2´)を設定する。
 本実施形態の制御装置10は、自車両Vの静止状態における自車両Vの基準点Qを含む基準面G1を定義し、移動体の作動状態、つまり自車両Vの走行中におけるその自車両Vの基準面G1の傾きに応じて、この基準面G1に対応する基準立体座標系S(S1,S2)のXY面G0を傾斜させ、変形した変形立体座標系S´(S1´,S2´)を得る。そして、制御装置10は、変形した変形立体座標系S´(S1´,S2´)を、撮像画像が投影される投影面として設定する。基準立体座標系S(S1,S2)の変形の手法は特に限定されず、自車両Vの高さ位置の基準となる基準立体座標系S(S1,S2)のXY面G0だけを傾斜させて変形してもよいし、基準立体座標系S(S1,S2)全体を傾斜させて変形してもよい。
 図5A,図5Bには、変形立体座標系S´の一例を示す。図5A,図5Bに示す変形立体座標系S´は、自車両Vの基準面G1に基づいて算出された姿勢の変化量が角度α[°]であるとした場合に、基準立体座標系Sを変形角度α´[°]傾斜させた立体座標系である。変形角度α´[°]は、自車両Vの姿勢の変化量である角度α[°]に応じて決定される。具体的に、図5Aに示す変形立体座標系S1´は、図3Aに示す基準立体座標系S1の座標軸を、変形角度α´[°]傾斜させた座標系である。図5Bに示す変形立体座標系S2´は、図3Bに示す基準立体座標系S2の座標軸を変形角度α´[°]傾斜させた座標系である。図5Bに示すように、基準立体座標系S2におけるZ方向に延びる座標軸EXは、変形角度α´[°]傾斜し、座標軸EX´となる。
 基準立体座標系S1,S2の変形量は、自車両Vの姿勢の変化量に応じて決定される。上述したように、自車両Vの姿勢の変化量と同等の変化量で基準立体座標系S1,S2を変形してもよい。もちろん、自車両Vの姿勢の変化量に係数を乗除した(又は値を加減した)変化量で基準立体座標系S1,S2を変形してもよい。例えば、自車両Vの姿勢の変化の状態をユーザに分かりやすく表示するという観点から、自車両Vの姿勢の変化量に正の係数を乗じた(又は正の値を加算した)変化量で基準立体座標系S1,S2を変形してもよい。自車両Vの姿勢が変化したことを強調した映像/自車両Vの姿勢の変化量を誇張した映像をユーザに提供できる。
 このように、自車両Vの姿勢の変化量に応じて、撮像画像を投影する三次元の基準立体座標系Sを変形させることにより、生成された立体視の映像の歪みが発生することを抑制できる。ちなみに、自車両Vの姿勢が高さ方向(重力方向に沿う方向)に変化すると、自車両Vの基準面G1と地表GRとの間に傾斜が生じやすい。撮像画像を投影する立体座標系と自車両Vとの高さ方向の位置が固定されている場合には、自車両Vの姿勢の変化により生じた地面の傾斜は、映像の歪みを発生させる。これに対し、本実施形態の制御装置10は、自車両Vの姿勢の変化量に応じて基準立体座標系Sを傾斜させるので、自車両Vの姿勢の変化により生じた地面の傾斜の影響をキャンセルし、映像に歪みが発生することを抑制できる。
 続いて、制御装置10の表示制御機能について説明する。制御装置10は、カメラ40の撮像画像のデータを変形立体座標系S´に投影し、仮想視点Eから自車両V及び自車両Vの周囲を見た映像を生成し、表示させる。
 制御装置10は、カメラ40から取得した撮像画像のデータを、基準立体座標系S又はこれを変形させた変形立体座標系S´に投影し、設定された仮想視点Eから自車両V及びこの自車両Vの周囲を見た映像を生成する。自車両Vの姿勢の変化量が所定量未満である場合には、自車両Vの姿勢が変化していないと判断する。そして、基準立体座標系Sに撮像画像を投影する。他方、自車両Vの姿勢の変化量が所定量以上である場合には、自車両Vの姿勢が変化したと判断する。そして、変形立体座標系S´を設定し、これに撮像画像を投影する。「所定量」は、自車両Vの姿勢に変化があったか否かを判断するための変化量の閾値として設定する。「所定量」は、自車両Vのカメラ40の撮像特性、基準立体座標系Sの態様、自車両Vの構造などの影響を考慮して実験的に求めることが好ましい。
 制御装置10は、複数のカメラ40から取得した撮像画像のデータを、基準立体座標系S又はこれを変形させた変形立体座標系S´に投影する。投影手法は、特に限定されない。制御装置10は、出願時に知られたプロジェクションマッピング技術を用いて、投影処理を実行してもよい。撮像画像のデータのアドレスと、基準立体座標系S又は変形立体座標系S´のアドレス(座標値)との対応情報を用いて、投影処理を実行してもよい。
 本実施形態の表示装置100は、変形立体座標系S´に投影された画像を用いて、仮想視点から自車両V及びその自車両Vの周囲を見た映像を生成する。表示装置100は、生成された映像を、ディスプレイ80に表示する。
 本実施形態の表示装置100が表示させる映像には、予め準備された自車両Vを示すアイコン画像V´(図3A,図3Bを参照)を重畳させて表示してもよい。車両のアイコン画像V´は、自車両Vの意匠に基づいて予め作成し、記憶させてもよい。このように、自車両Vのアイコン画像V´を映像に重畳させることにより、自車両Vの位置及び向きと周囲の映像との関係を分かりやすく示すことができる。
 本実施形態の制御装置10は、自車両V(移動体)の姿勢の変化量に応じて、生成された映像に重畳表示させる自車両のアイコン画像V´を変形させてもよい。例えば、自車両Vが傾いている場合には、その傾斜角に応じて、車両のアイコン画像V´を傾斜させてもよい。
 本実施形態の制御装置10は、自車両Vの姿勢の変化量に応じて変形した変形立体座標系を設定し、この変形立体座標系に撮像画像のデータを投影することにより、自車両Vの姿勢の変化によって映像に歪みが生じることを防止する。
 図6Aは、自車両Vの姿勢に変化がない場合に生成された映像の表示例を示す。映像はディスプレイ80に表示される。自車両Vは、水平面に静止状態で載置され/又は水平面を水平移動している状態である。仮想視点から見た自車両V及び自車両Vの周囲の映像に歪みは生じていない。具体的に、自車両Vが走行する道路に平行に描かれたレーンマークL1、L2は、映像においても平行であり、地平線GLとの位置関係も保たれる。
 他方、6Bは、自車両Vの姿勢に変化がある場合に生成された映像の表示例を示す。自車両Vは、地表に対して高さ方向の変化が発生している状態である。仮想視点から見た自車両Vの周囲の映像に歪みが生じている。具体的に、自車両Vが走行する道路のレーンマークL1、L2は平行に描かれたものである。しかし、映像におけるレーンマークL1、L2は平行に表現されていない。これは、映像に歪みが生じているためである。レーンマークL1,L2と地平線GLとの位置関係にも歪みが生じている。
 本実施形態の制御装置10は、自車両Vの姿勢に変化がある場合に、その自車両V(移動体)の変化量に応じて変形させた変形立体座標系S´に撮像画像を投影することにより、映像を補正する。
 図7A~図7Dは、自車両Vの姿勢の変化によって生じた歪みを補正した映像をディスプレイ80に表示したときの表示例を示す図である。ディスプレイ80はxy平面の二次元の映像を表示する。
 図7Aは、自車両Vに対する地表の位置の変化量、又は地表に対する自車両Vの位置の変化量に応じて基準立体座標系を変形し、変形処理により得た変形立体座標系に撮像画像のデータを投影して得た映像である。自車両Vの姿勢の変化量に応じて投影座標系を変形させるので、自車両Vの姿勢の変化量によって生じる歪みをキャンセルすることができる。この結果、図6Aに示すような、自車両Vが水平面に載置された状態又は自車両Vが水平面を定速移動している状態と同様の映像を表示できる。
 図7Bは、地表に対する自車両Vの傾き(姿勢)に応じて、円柱形状の基準立体座標系S1の底面側のxy面を傾けて変形立体座標系S1を設定するとともに、自車両のアイコン画像V´を傾ける。基準立体座標系S1の底面側のxy面とは、自車両Vの接地面側のxy面である。図7Bに示す本実施形態の映像によれば、坂道を登る自車両Vの姿勢を分かりやすく表示できるとともに、自車両Vが走行している道路が坂道であることを分かりやすく表示できる。
 図7Cは、地表に対する自車両Vの姿勢の変化を自車両のアイコン画像V´を用いて示す表示例である。同図に示す例では、地表に対する自車両Vの姿勢の変化量に応じた、自車両のサスペンションの伸縮を、自車両のアイコン画像V´の傾きにより表現する。自車両のアイコン画像V´は、そのアイコン画像V´の傾き等により自車両Vのサスペンションの伸縮の有無、及びその伸縮の量を示す。図7Aに示す自車両のアイコン画像V´は変形立体座標系S1のx軸に対して平行となるように表示されているが、図7Cに示す自車両のアイコン画像V´は、変形立体座標系S1のx軸に対して傾きを有するように表示される。アイコン画像V´の傾斜角は、自車両Vの姿勢の変化量に応じて決定される。このように、自車両のアイコン画像V´の表示位置を変化させることにより、地表に対する自車両Vの姿勢の変化を表現できる。
 図7Dは、地表に対する自車両Vの傾き(姿勢)に応じて、円柱形状の基準立体座標系S1の全部を傾けるとともに、自車両のアイコン画像V´を傾ける。図7Dに示す自車両のアイコン画像V´は、図7Cに示す自車両のアイコン画像V´と同様に、変形立体座標系S1のx軸に対して傾きを有するように表示される。図7Dに示す本実施形態の映像によれば、自車両Vの姿勢を表現する座標系自体を自車両Vの姿勢の変化量に応じて変形するので、坂道を登る自車両Vの姿勢を分かりやすく表示できるとともに、自車両Vが走行している道路が坂道であることを分かりやすく表示できる。
 図7A~図7Dに示すように、本実施形態の映像では、自車両Vの姿勢の変化量によって生じる歪みが是正されるので、自車両Vの周囲の映像は歪みを含まない。具体的に、自車両Vが走行する道路に平行に描かれたレーンマークL1、L2を、映像においても平行に表示できる。
 ここで、投影処理において実行可能な処理について、併せて説明する。
 本実施形態の制御装置10は、各カメラ40の撮像画像から所定領域を切り出して、投影処理を実行する。図8Aに示すように、各カメラ40の撮像画像のうち重なり合う部分を除いた所定領域AR1,AR2,AR3,AL1,AL2,AL3を切り出す。図8Aは、処理の概要を示すため、所定領域を単純な形状で示すが、制御装置10は、基準立体座標系S又は変形立体座標系S´の形状、カメラ40の撮像特性に応じて、切り出す所定領域AR1,AR2,AR3,AL1,AL2,AL3を設計する。
 本実施形態の制御装置10は、自車両Vの加速度に応じて、投影処理を実行する際に撮像画像から切り出す所定領域を変更する。制御装置10は、自車両Vの前後加速度センサ64が検出した自車両V進行方向の加速度を取得する。自車両Vの姿勢に所定量以上の変化があった場合に、制御装置10は、カメラ40の撮像画像の所定領域のデータを変形立体座標系S´に投影する。このとき、自車両Vの進行方向成分(前方向成分:図中矢印Fで示す)の正の加速度を取得した場合には、カメラ40のうち、自車両Vの左右側方に搭載されたカメラ40R2,40L2の撮像画像の所定領域AR2、AL2を、自車両Vの進行方向とは反対側(後方向:図中矢印F´で示すの方向)にそれぞれ拡張させる。自車両Vの進行方向成分の加速度は、自車両Vのコントローラ50から取得した制動操作の実行情報から予測してもよい。
 図8Bは、図8Aに示す自車両Vの左右側方に設定された所定領域AR2,AL2が、自車両Vの後方向(図中矢印F´で示す方向)に拡張された所定領域AR2´,AL2´を示す図である。図8Bに示す所定領域AR2´の後方向(図中矢印F´で示す方向)の長さMR2´は、図8Aに示す所定領域AR2の後方向(図中矢印F´で示す方向)の長さMR2よりも長い。同様に、図8Bに示す所定領域AL2´の後方向(図中矢印F´で示す方向)の長さML2´は、図8Aに示す所定領域AL2の後方向(図中矢印F´で示す方向)の長さML2よりも長い。
 自車両Vの進行方向に正の加速度が検出した場合には、自車両Vは前のめりの姿勢となる。自車両が前のめりの姿勢となった場合には、自車両Vの側方のカメラ40R2,40L2の撮像画像のうち、投影処理に利用できる画像範囲が車両後方の方向に広がる。本実施形態の表示装置100の制御装置10は、自車両Vの進行方向に正の加速度が検出した場合に、自車両Vの左右側方に設けられたカメラ40R2,40L2の撮像領域から切り出す画像の領域(所定領域)を車両後方に拡張する。このように、変形立体座標系S´に投影する撮像画像を切り出す処理において、切り出す画像の領域(所定領域)を、自車両Vの姿勢に応じて変更することにより、歪みの少ない立体映像を提供できる。特に、加速時において、自車両Vの姿勢が前のめりとなった場合に、左右側方のカメラ40R2,40L2の撮像画像を後方側に拡張して切り出すので、歪みの少ない映像を生成できる。さらに、後方に拡張された所定領域の撮像画像を、自車両Vの姿勢に応じて変形された変形立体座標系´に投影するので、歪みの少ない映像を生成できる。
 そして、制御装置10は、生成した映像をディスプレイ80に表示させる。ディスプレイ80は、自車両Vに搭載し、移動体装置200として構成してもよいし、表示装置100側に設けてもよい。ディスプレイ80は、二次元画像用のディスプレイでもよいし、三次元画像を映し出すディスプレイであってもよい。
 図9のフローチャートに基づいて、本実施形態の制御装置10の動作を説明する。
 ステップS101において、制御装置10は、カメラ40により撮像された撮像画像を取得する。ステップS102において、制御装置10は、自車両Vの姿勢を算出する。制御装置10は、自車両Vの姿勢が変化したか否かを決定するため、自車両Vの姿勢の変化量が所定量以上であるか否かを判断する。自車両Vの姿勢の変化量は、タイミングT1における自車両Vの姿勢(位置情報)と、その後のタイミングT2(T1+ts)における自車両Vの姿勢(位置情報)との差から求めてもよい。自車両Vの姿勢の変化量は、予め定めた自車両Vの基準姿勢(位置情報)と、姿勢算出時(現在)の自車両Vの姿勢(位置情報との差から求めてもよい。
 ステップS103において、制御装置10は、自車両Vの姿勢の変化量が所定量以上であるか否かを判断する。自車両Vの姿勢の変化量が所定量未満である場合には、ステップS108に進み、予め定義された基準立体座標系Sを投影用の座標として設定する。他方、自車両Vの姿勢の変化量が所定量未満である場合には、ステップS104に進み、予め定義された基準立体座標系Sを変形する。続くステップS105において、制御装置10は、ステップS104で得られた変形立体座標系S´を投影用の座標系として設定する。
 ステップS106において、制御装置10は、設定された基準立体座標系S又は変形立体座標系S´に撮像画像を投影する処理を実行し、表示用の映像を生成する。
 最後に、ステップS107において、制御装置10は、生成した映像をディスプレイ80に表示する。
 本発明は以上のように構成され、以上のように作用するので、以下の効果を奏する。
 [1]本実施形態の表示装置100は、自車両Vの姿勢の変化量に応じて変形させた変形立体座標系S´に撮像画像を投影させる。これにより、自車両Vと立体座標系の位置関係のずれ量を低減させるため、自車両Vの姿勢が変化した場合であっても、生成された映像に歪みが発生することを抑制できる。
 [2]本実施形態の表示装置100は、自車両Vに対する地表の位置の変化量を、自車両Vの姿勢の変化量として算出するので、上記効果を奏する。
 [3]本実施形態の表示装置100は、地表に対する自車両Vの位置の変化量を、自車両Vの姿勢の変化量として算出するので、上記効果を奏する。
 [4]本実施形態の表示装置100は、自車両Vの位置情報と、自車両Vの周囲の地表の位置情報とから求められた、自車両Vと地表との位置関係の変化量を、自車両Vの姿勢の変化量として算出するので、上記効果を奏する。
 [5]本実施形態の表示装置100は、自車両Vの姿勢情報を用いて、自車両Vの姿勢の変化量を算出するので、上記効果を奏する。また、本実施形態の表示装置100は、自車両Vの加減速などの挙動、自車両Vの構造などによって生じる姿勢の変化を考慮して、自車両Vの姿勢の変化量を算出できる。
 [6]本実施形態の表示装置100は、自車両Vの周囲の地形情報を用いて、自車両Vの姿勢を算出するので、上記効果を奏する。
 [7]本実施形態の表示装置100は、自車両Vの姿勢の変化量に応じて、基準立体座標系Sの座標軸を傾斜させた変形立体座標系を設定するので、自車両Vの姿勢の変化により生じた、地表に対する自車両Vの傾斜に起因する映像に歪みの発生を抑制できる。
 [8]本実施形態の表示装置100は、自車両Vの基準面の傾きに応じて、基準面に対応する基準立体座標系のXY面を傾斜させた変形立体座標系を設定するので、自車両Vの姿勢の変化により生じた、地表に対する自車両Vの傾斜に起因する映像に歪みの発生を抑制できる。
 [9]本実施形態の表示装置100は、自車両Vの進行方向成分の加速度を取得した場合には、複数のカメラ40のうち、自車両Vの側方に搭載されたカメラ40の撮像画像の所定領域を、自車両Vの後方側に拡張させる。加速時に自車両Vの姿勢が前のめりとなった場合において、左右側方のカメラ40R2,40L2の撮像画像を後方側に拡張して切り出し、切り出した撮像画像を、自車両Vの姿勢に応じて変形された変形立体座標系´に投影するので、歪みの少ない映像を生成できる。
 [10]本実施形態の表示装置100に本実施形態の表示方法を実行させることにより、上記効果を奏する。
 なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
 すなわち、本明細書では、本発明に係る表示装置の一態様としての表示装置100を含む表示システム1を例にして説明するが、本発明はこれに限定されるものではない。
 また、本明細書では、本発明に係る表示装置の一態様として、CPU11、ROM12、RAM13を含む制御装置10を備える表示装置100を説明するが、これに限定されるものではない。
 また、本明細書では、本願発明に係る画像取得手段と、姿勢算出手段と、座標系設定手段と、表示制御手段とを有する表示装置の一態様として、画像取得機能と、姿勢算出機能と、座標系設定機能と、表示制御機能とを実行させる制御装置10を備える表示装置100を例にして説明するが、本発明はこれに限定されるものではない。
 また、本明細書では、本願発明に係る情報取得手段をさらに備える表示装置の一態様として、情報取得機能をさらに実行させる制御装置10を備える表示装置100を例にして説明するが、本発明はこれに限定されるものではない。
1…表示システム
100…表示装置
 10…制御装置
  11…CPU
  12…ROM
  13…RAM
200…移動体装置
 40…カメラ
  41…測距装置
 50…コントローラ
 60…センサ
  61…速度センサ
  62…前後加速度センサ
  63…横加速度センサ
  64…操舵角センサ
  65…姿勢センサ
 70…ナビゲーション装置
  71…位置検出装置
   711…GPS
  72…地図情報
  73…道路情報
  74…地形情報
 80…ディスプレイ

Claims (10)

  1.  移動体に搭載されたカメラが撮像した撮像画像を取得する画像取得手段と、
     前記移動体の姿勢の変化量を算出する姿勢算出手段と、
     前記移動体の姿勢の変化量に応じて、前記撮像画像を投影するために予め定義された基準立体座標系を変形させた変形立体座標系を設定する座標系設定手段と、
     前記撮像画像のデータを前記変形立体座標系に投影し、仮想視点から移動体及び当該移動体の周囲を見た映像を生成し、生成した映像を表示させる表示制御手段と、
     前記表示制御手段により生成された前記映像を表示する表示手段と、
    を有する表示装置。
  2.  前記移動体の周囲の地表の位置情報を取得する情報取得手段をさらに備え、
     前記姿勢算出手段は、前記移動体に対する前記地表の位置の変化量を、前記移動体の姿勢の変化量として算出する請求項1に記載の表示装置。
  3.  前記移動体の周囲の地表の位置情報を取得する情報取得手段をさらに備え、
     前記姿勢算出手段は、前記地表に対する前記移動体の位置の変化量を、前記移動体の姿勢の変化量として算出する請求項1に記載の表示装置。
  4.  前記移動体の周囲の地表の位置情報と、前記移動体の位置情報とを取得する情報取得手段をさらに備え、
     前記姿勢算出手段は、前記移動体の位置情報と前記移動体の周囲の地表の位置情報とから算出された、前記移動体と前記地表との位置関係の変化量を、前記移動体の姿勢の変化量として算出する請求項1~3の何れか一項に記載の表示装置。
  5.  前記移動体の姿勢に関する姿勢情報を前記移動体から取得する情報取得手段をさらに備え、
     前記姿勢算出手段は、前記姿勢情報を用いて、前記移動体の姿勢の変化量を算出する請求項1~4の何れか一項に記載の表示装置。
  6.  前記移動体の周囲の地形情報を取得する情報取得手段をさらに備え、
     前記姿勢算出手段は、前記移動体の周囲の地形情報を用いて、前記移動体の姿勢を算出する請求項1~5の何れか一項に記載の表示装置。
  7.  前記座標系設定手段は、前記基準立体座標系に対する前記移動体の姿勢の変化量に応じて、前記基準立体座標系の座標軸を傾斜させた前記変形立体座標系を設定する請求項1~6の何れか一項に記載の表示装置。
  8.  前記座標系設定手段は、前記移動体の静止状態における当該移動体の基準点を含む基準面を定義し、前記移動体の作動状態における当該移動体の前記基準面の傾きに応じて、前記基準面に対応する前記基準立体座標系のXY面を傾斜させた前記変形立体座標系を設定する請求項1~6の何れか一項に記載の表示装置。
  9.  前記移動体の進行方向の加速度を取得する情報取得手段をさらに備え、
     前記表示制御手段は、前記移動体に搭載されたカメラの撮像画像の所定領域のデータを、前記変形立体座標系に投影する際に、前記移動体の進行方向成分の加速度を取得した場合には、前記カメラのうち、前記移動体の側方に搭載されたカメラの撮像画像の前記所定領域を、前記移動体の進行方向とは反対側の方向に拡張させる請求項1~8の何れか一項に記載の表示装置。
  10.  移動体に用いられる表示装置が実行する表示方法であって、
     前記表示装置は、画像取得手段と、姿勢算出手段と、座標系設定手段と、表示制御手段と、表示手段と、を有し、
     前記画像取得手段は、移動体に搭載されたカメラが撮像した前記移動体の周囲の撮像画像を取得するステップを実行し、
     前記姿勢算出手段は、前記移動体の姿勢の変化量を算出するステップを実行し、
     前記座標系設定手段は、前記算出された移動体と当該移動体の周囲の地表との位置関係の変化量に応じて、前記撮像画像を投影するために予め定義された基準立体座標系を変形させた変形立体座標系を設定するステップを実行し、
     前記表示制御手段は、前記撮像画像のデータを前記変形立体座標系に投影し、仮想視点から移動体及び当該移動体の周囲を見た立体映像を生成するステップを実行し、
     前記表示手段は、生成された立体映像を表示させるステップと、を実行する表示方法。
PCT/JP2014/080176 2014-11-14 2014-11-14 表示装置及び表示方法 WO2016075809A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016558523A JP6380550B2 (ja) 2014-11-14 2014-11-14 表示装置及び表示方法
PCT/JP2014/080176 WO2016075809A1 (ja) 2014-11-14 2014-11-14 表示装置及び表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/080176 WO2016075809A1 (ja) 2014-11-14 2014-11-14 表示装置及び表示方法

Publications (1)

Publication Number Publication Date
WO2016075809A1 true WO2016075809A1 (ja) 2016-05-19

Family

ID=55953922

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/080176 WO2016075809A1 (ja) 2014-11-14 2014-11-14 表示装置及び表示方法

Country Status (2)

Country Link
JP (1) JP6380550B2 (ja)
WO (1) WO2016075809A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042148A (ja) * 2016-09-08 2018-03-15 アイシン精機株式会社 車両用画像処理装置
JP2018148314A (ja) * 2017-03-02 2018-09-20 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2018152014A (ja) * 2017-03-15 2018-09-27 株式会社Subaru 車両用映像表示装置
JP2018160848A (ja) * 2017-03-23 2018-10-11 日産自動車株式会社 表示装置の制御方法および表示装置
JP2019509475A (ja) * 2016-02-02 2019-04-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated 視覚慣性オドメトリおよび衛星測位システムの基準フレームのアラインメント
JP2020119492A (ja) * 2019-01-28 2020-08-06 パナソニックIpマネジメント株式会社 画像合成装置、及び、制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002359838A (ja) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003274394A (ja) * 2002-03-12 2003-09-26 Denso Corp 車両周辺画像処理装置,プログラム及び記録媒体
JP2007249103A (ja) * 2006-03-20 2007-09-27 Zenrin Co Ltd 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
JP2008152424A (ja) * 2006-12-15 2008-07-03 Alpine Electronics Inc 画像表示装置
JP2010025632A (ja) * 2008-07-16 2010-02-04 Nippon Soken Inc 路面監視装置,サスペンション制御装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004048895A1 (ja) * 2002-11-22 2006-03-23 財団法人くまもとテクノ産業財団 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002359838A (ja) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003274394A (ja) * 2002-03-12 2003-09-26 Denso Corp 車両周辺画像処理装置,プログラム及び記録媒体
JP2007249103A (ja) * 2006-03-20 2007-09-27 Zenrin Co Ltd 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
JP2008152424A (ja) * 2006-12-15 2008-07-03 Alpine Electronics Inc 画像表示装置
JP2010025632A (ja) * 2008-07-16 2010-02-04 Nippon Soken Inc 路面監視装置,サスペンション制御装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019509475A (ja) * 2016-02-02 2019-04-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated 視覚慣性オドメトリおよび衛星測位システムの基準フレームのアラインメント
JP2018042148A (ja) * 2016-09-08 2018-03-15 アイシン精機株式会社 車両用画像処理装置
JP2018148314A (ja) * 2017-03-02 2018-09-20 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2018152014A (ja) * 2017-03-15 2018-09-27 株式会社Subaru 車両用映像表示装置
JP2018160848A (ja) * 2017-03-23 2018-10-11 日産自動車株式会社 表示装置の制御方法および表示装置
JP2020119492A (ja) * 2019-01-28 2020-08-06 パナソニックIpマネジメント株式会社 画像合成装置、及び、制御方法

Also Published As

Publication number Publication date
JP6380550B2 (ja) 2018-08-29
JPWO2016075809A1 (ja) 2017-08-17

Similar Documents

Publication Publication Date Title
JP6380550B2 (ja) 表示装置及び表示方法
US10179588B2 (en) Autonomous vehicle control system
US11151741B2 (en) System and method for obstacle avoidance
AU2015238768B2 (en) Motion estimation in real-time visual odometry system
US10508923B2 (en) Vehicle position estimation device, vehicle position estimation method
EP2348279B1 (en) Road measurement device and method for measuring road
WO2018131090A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
AU2015234395A1 (en) Real-time range map generation
WO2017081921A1 (ja) 車輪の滑り角推定装置及びその方法
JP6020729B2 (ja) 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
JPWO2014091877A1 (ja) 移動物体位置姿勢角推定装置及び移動物体位置姿勢角推定方法
WO2018061084A1 (ja) 自己位置推定方法及び自己位置推定装置
CN108367710B (zh) 俯瞰影像生成装置、俯瞰影像生成系统、以及存储介质
JP2019018743A (ja) 軌跡推定方法及び軌跡推定装置
JP6985089B2 (ja) 立体物接地判定装置
KR102464581B1 (ko) 스테레오 점군 처리장치 및 그 방법
JP2019102007A (ja) 勾配推定装置、勾配推定方法、プログラムおよび制御システム
JP7063856B2 (ja) 表示制御装置
JP6044084B2 (ja) 移動物体位置姿勢推定装置及び方法
JP6965152B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7081098B2 (ja) 走行環境認識装置、走行環境認識方法、プログラム
Li et al. Pitch angle estimation using a Vehicle-Mounted monocular camera for range measurement
JP2015215299A (ja) 対象物位置推定装置
US11607999B2 (en) Method and apparatus for invisible vehicle underbody view
JP6959032B2 (ja) 位置推定装置、移動装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14905950

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016558523

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14905950

Country of ref document: EP

Kind code of ref document: A1