WO2015002031A1 - 映像表示システム、映像合成装置及び映像合成方法 - Google Patents
映像表示システム、映像合成装置及び映像合成方法 Download PDFInfo
- Publication number
- WO2015002031A1 WO2015002031A1 PCT/JP2014/066716 JP2014066716W WO2015002031A1 WO 2015002031 A1 WO2015002031 A1 WO 2015002031A1 JP 2014066716 W JP2014066716 W JP 2014066716W WO 2015002031 A1 WO2015002031 A1 WO 2015002031A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- vehicle
- cameras
- video
- camera
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 32
- 239000000203 mixture Substances 0.000 claims abstract description 93
- 238000006243 chemical reaction Methods 0.000 claims abstract description 63
- 239000002131 composite material Substances 0.000 claims abstract description 22
- 230000003287 optical effect Effects 0.000 claims description 37
- 230000002194 synthesizing effect Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 25
- 230000008859 change Effects 0.000 description 14
- 239000007787 solid Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000005070 sampling Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000002156 mixing Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Definitions
- the technical field relates to a video display system, a video synthesis device, and a video synthesis method, and more particularly to a video display system, a video synthesis device, and a video synthesis method for creating an overhead image.
- Patent Document 1 discloses, as described in the summary, “an image acquisition unit that acquires a captured image that is an image of the periphery of a vehicle captured by at least one camera; A state acquisition unit that acquires a state, a setting unit that sets a solid and a deformation method of the solid or the captured image based on the state acquired by the state acquisition unit, and a captured image and setting that are acquired by the image acquisition unit The correspondence relationship with the solid set by the unit is acquired, the solid or the captured image is deformed based on the deformation method set by the setting unit, and the captured image is copied onto the solid based on the correspondence to generate an image And a viewpoint conversion unit that converts the image data generated by the generation unit into an image viewed from a set viewpoint to generate an output image ”is disclosed.
- Patent Document 1 discloses that the projection space is deformed according to the state of the vehicle, the display viewpoint is set in advance by some means, and the setting of the display viewpoint itself is the situation. However, there is a problem that it is not easy to use for the user.
- Patent Document 1 discloses that an image is deformed and matched in an area where images taken by a plurality of cameras are overlapped and mapped, but it is not possible to obtain an image by simply matching the shape. There was a problem that nature was not fully resolved.
- an embodiment of the present invention includes a plurality of cameras for photographing a subject, a video composition device for combining images captured by the plurality of cameras, and the video composition device.
- a video display system having a monitor for displaying an image generated by synthesis, wherein the video synthesis device is supplied with vehicle information related to a vehicle on which the video display system is mounted, and is three-dimensional based on the vehicle information.
- the viewpoint of the synthesized video generated by the video synthesizing device is defined in space, and a space generation unit that generates a space according to the viewpoint, and the plurality of cameras picked up images according to the space generated by the space generation unit
- An image conversion unit that generates a composite image obtained by combining video images, an encoding unit that encodes the composite image generated by the image conversion unit so as to be displayed in two dimensions, and supplies the composite image to the monitor; It is characterized by having a control unit for controlling the operation of the serial video synthesizer.
- an embodiment of the present invention is a video composition device that is supplied with video from a plurality of cameras for photographing a subject, synthesizes the video, and outputs the synthesized video.
- a space generation unit that supplies the vehicle information and determines the viewpoint of the composite video that is generated in the three-dimensional space based on the vehicle information and generates a space according to the viewpoint, and the space generated by the space generation unit
- An image conversion unit that generates a combined image obtained by combining the images supplied in response to the image, an encoding unit that encodes and outputs the combined image generated by the image conversion unit to be displayed in two dimensions, and the video It has a control part which controls operation
- combination apparatus It is characterized by the above-mentioned.
- a plurality of cameras for photographing a subject a video composition device that synthesizes videos captured by the plurality of cameras, and an image generated by combining the video composition devices
- a video synthesizing method in a video display system having a monitor for displaying the vehicle wherein vehicle information relating to a vehicle equipped with the video display system is supplied, and the video synthesizing device is placed in a three-dimensional space based on the vehicle information.
- the viewpoint of the composite video to be generated is determined, a space corresponding to the viewpoint is generated, a composite image obtained by combining the images captured by the plurality of cameras is generated according to the space, and the composite image is two-dimensionally generated. It is characterized in that it is encoded so that it can be displayed in the format, and an encoded composite image is displayed.
- an embodiment of the present invention is a video display system that synthesizes videos captured by a plurality of cameras and displays them on a monitor, and synthesizes a plurality of cameras and videos shot by the plurality of cameras.
- a monitor for displaying an image generated by the video composition device the video composition device generates a virtual three-dimensional space for projecting images taken by a plurality of cameras, A space generation unit for setting a virtual viewpoint in the three-dimensional space; and images projected by the plurality of cameras are projected onto the virtual three-dimensional space and synthesized according to the projected image and the virtual viewpoint.
- An image conversion unit that generates an image, an encoding unit that encodes the composite image generated by the image conversion unit as two-dimensional image data for display on the monitor, and the video composition device are provided.
- a vehicle information acquisition unit that acquires vehicle information related to the vehicle to be operated, wherein the space generation unit acquires the vehicle information acquisition by setting the position of the virtual viewpoint and the line-of-sight direction from the virtual viewpoint.
- the image conversion unit is overlapped in a region where the images captured by the plurality of cameras overlap and are projected onto the virtual three-dimensional space in the projection image.
- the composition ratio of the plurality of videos is changed according to at least the setting of the line-of-sight direction from the virtual viewpoint changed by the space generation unit.
- an embodiment of the present invention is a video composition device that acquires and synthesizes videos captured by a plurality of cameras, and includes a video input unit that can input videos captured by a plurality of cameras, and a plurality of cameras.
- a virtual three-dimensional space for projecting the captured video is generated, a space generation unit for setting a virtual viewpoint in the three-dimensional space, and the plurality of cameras photographed in the virtual three-dimensional space
- An image conversion unit that projects a video and generates a composite image according to the projection video and the virtual viewpoint; and a vehicle information acquisition unit that acquires vehicle information about a vehicle on which the video synthesis device is mounted.
- the space generation unit changes the setting of the position of the virtual viewpoint and the gaze direction from the virtual viewpoint according to the vehicle information acquired by the vehicle information acquisition unit, and the image conversion unit In the projected image From the virtual viewpoint, at least the composition ratio of the plurality of images overlapped in the region projected on the virtual three-dimensional space by overlapping the images taken by the plurality of cameras is changed by the space generation unit. It changes according to the setting of the gaze direction.
- one embodiment of the present invention is a video composition method for acquiring and synthesizing videos captured by a plurality of cameras, acquiring vehicle information relating to a vehicle on which the plurality of cameras are mounted, and the plurality of cameras A virtual three-dimensional space for projecting the shot video is generated, a virtual viewpoint in the three-dimensional space is set, and videos shot by the plurality of cameras are projected onto the virtual three-dimensional space.
- FIG. 1 is a block diagram showing a video synthesizing apparatus and a video display system according to the present embodiment.
- the video synthesizing apparatus 100 a plurality of (n) cameras 101 and images for imaging a subject.
- the video system to which the monitor 111 for displaying is connected is shown.
- a CPU (Central Control Unit) 108 controls the overall operation.
- the space generation unit 105 forms a virtual three-dimensional space around the host vehicle using information included in the vehicle information 104.
- the image conversion unit 106 decodes an image input by the decoding unit 102 from the camera 101 via the input unit (not shown) to the video composition device 100. Map. Further, the image conversion unit 106 creates an image when viewed from the virtual camera position (virtual viewpoint position) and angle (virtual viewing direction from the virtual viewpoint) set by the camera information unit 107, and the encoding unit The data is output to the monitor 111 via 110.
- the image conversion unit 106 connected to the memory unit 109 via the bus 103 performs a deformation process as described later on the output video data.
- the video is processed three-dimensionally, but the encoding unit 110 encodes the three-dimensionally processed video so that it can be displayed two-dimensionally on the monitor 111, and outputs it to the monitor 111.
- the CPU 108 is also referred to as a control unit.
- the vehicle information 104 is vehicle body control information obtained via CAN (Controller Area Network), FlexRay, and the like, and includes information such as a vehicle traveling direction, a steering wheel angle, or a vehicle speed.
- the space generation unit 105 estimates a three-dimensional space around the host vehicle based on vehicle information and knowledge base information, and generates space information.
- the space generation unit 105 refers to a range of a plane estimated as a road with reference to traveling speed information and traveling direction information (for example, a range within a circumference of a radius Dm around the host vehicle) and the plane. It is determined how the space other than the shape is formed, and the object is arranged on the three-dimensional space by a combination of a plane or a sphere. This object represents the shape of the space around the vehicle.
- the image conversion unit 106 pastes an image taken by the camera 101 mounted on the car on the three-dimensional object plane arranged by the space generation unit 105, and converts the image into a composite image when viewed from a virtual viewpoint. Accordingly, the video composition device 100 can create a pseudo three-dimensional space from the two-dimensional camera image. Actually, in order to make the image pasted on the object plane visible to the user as a different image if the viewpoint is different, the image viewed from the virtual camera position virtually arranged in the three-dimensional space is calculated. Will be pasted.
- the camera information unit 107 includes information such as position information (coordinate information) of the three-dimensional spatial coordinate system of each camera 101 mounted on the car, angle information, lens distortion coefficient, focal length, or effective pixel size of the sensor. .
- the image conversion unit 106 may use the information when performing image conversion such as image distortion correction and geometric conversion.
- the camera information unit 107 has coordinate information (Xi, Yi, Zi) and angle information ( ⁇ i, ⁇ i, ⁇ i) for each axis (0 ⁇ i ⁇ ) with the position where the vehicle is located as a reference (origin). n).
- the distortion coefficient includes a coefficient indicating the degree of distortion according to the distance from the center of the camera image, information indicating the relationship between the incident angle of the lens and the length of the subject.
- a fisheye lens may be used for the camera 101 in this embodiment. Since the distortion of the peripheral part of the fisheye lens is larger than that of the central part, the distortion coefficient is required when correcting this.
- the camera information unit 107 generates virtual camera coordinates (Xv, Yv, Zv) in order to generate an image viewed from the camera at a virtually set position in the three-dimensional space formed by the space generation unit 105. It also has information and information on angles ( ⁇ v, ⁇ v, ⁇ v) with respect to each axis.
- the image conversion unit 106 performs image processing on the camera video of the camera 101 decoded by the decoding unit 102.
- the present embodiment describes the generation of a pseudo three-dimensional image around the vehicle, the present embodiment is not limited to the vehicle and can also be applied to the case where a pseudo three-dimensional image is generated with respect to the captured images of a plurality of surveillance cameras.
- FIG. 2 is a diagram for explaining a process of converting the coordinates of the pixels of the photographic camera image into the pixels viewed from the virtual camera in the present embodiment.
- the pixel of the image 201 captured by the actual vehicle-mounted camera 101 is represented as a point P (xp, yp, zp) in the camera coordinate system Xp, Yp, Zp with respect to the camera 101.
- the camera coordinate system for example, the depth direction with respect to the camera is represented by Z, the horizontal direction of the captured image is represented by X, and the vertical direction is represented by Y.
- This point P corresponds to a point W (xw, yw, zw) in the World coordinate system Xw, Yw, Zw used in common in the space.
- the pixels of the image 203 are points V (xv, yv, Zv) of the camera coordinate system Xv, Yv, Zv with respect to the virtual camera 202.
- zv the following coordinate transformation is performed to generate an image viewed from a certain virtual position.
- Equation 1 The relationship between the point P of the camera coordinate system and the point W of the World coordinate for the actual camera 101 is expressed by (Equation 1) using a 4 ⁇ 4 perspective projection transformation matrix Mp.
- Mp and Mv include a 3 ⁇ 3 rotation matrix R and a 3 ⁇ 1 translation matrix T as shown in (Equation 3).
- a 4x4 matrix obtained by multiplying the inverse matrix of Mv and Mp using information such as the camera installation position and installation angle on the World coordinate system, and the camera's internal parameters such as focal length and effective pixel size of the sensor. Is calculated. Using these equations, the image conversion unit 106 converts an actual image of the camera 101 into an image viewed from a virtual camera arranged at a certain position.
- a plurality of actual cameras may be used.
- the case where there is only one actual camera 101 as shown in FIG. 2 is also within the scope of the present invention. If, for example, a fisheye lens is used for the camera 101, a single camera can cover a sufficient angle of view depending on the purpose.
- the embodiments according to FIGS. 2 to 7 and FIGS. 16A to 18C are also applied to a case where there is one camera.
- FIG. 3A is a first sketch of the space set around the vehicle in the present embodiment.
- the camera 301 is positioned at the position near the vehicle front center (Xc, Yc, Zc) with respect to the angles ( ⁇ , ⁇ , ⁇ with respect to the respective axes. ) Shows a case where the vehicle 300 installed on the road 303 is present. There is a three-dimensional object 302 in front of the vehicle 300, and a virtual spherical curved surface 304 is arranged farther than the tree.
- FIG. 3B is a view of a space set around the vehicle in FIG. 3A as seen from the virtual camera 305.
- 301 is assigned to the actual camera and 305 is assigned to the virtual camera.
- the former may be the same as 101 in FIGS. 1 and 2, and the latter may be the same as 202 in FIG.
- the video imaged by the camera 301 is projected onto the space generated by the space generation unit 105 as shown in FIG. 3B.
- the three-dimensional object 302 deformed in an irregular shape is projected on a straight line connecting the camera 301 and the three-dimensional object 302.
- a flat object such as the road (ground) 303 can generate a sense of distance by widening the projection surface around the vehicle and form a space with a sense of distance that is normally used.
- if there is a three-dimensional object 302 It is pasted as a texture on the portion of the plane 303 in the projection plane, and the stereoscopic effect is lost.
- FIG. 4A is a second sketch of the space set around the vehicle in this embodiment, and a virtual spherical curved surface 304 is arranged in front of the vehicle 300 in the space set in the same manner as FIG. 3A. However, the curved surface 304 is arranged closer to the three-dimensional object 302 than in FIG. 3A. The distance between the vehicle 300 and the three-dimensional object 302 is the same as that in FIG. 3A.
- FIG. 4B is a view of the space set around the vehicle in FIG. 4A as seen from the virtual camera 305.
- the area pasted on the plane 303 in the projection plane is small in the three-dimensional object 302, and the three-dimensional object 302 looks more natural than the case shown in FIG. 3A.
- the sense of distance around the vehicle and the appearance of the three-dimensional object vary greatly depending on the size of the plane 303 in the projection plane to be set. That is, when it is desired to accurately see the sense of distance of what is present in the vicinity of the own vehicle, it is possible to devise such as widening the set area. In this way, by reproducing the surrounding object space and mapping the photographed image as a texture on the object surface, a two-dimensional image can be combined to form a pseudo three-dimensional space of the entire surrounding.
- the space is represented by simple planes and spheres, but by using the feature amount of the image and performing statistical clustering processing based on the feature amount, the ground (road ) And objects, such as buildings, walls, guardrails, and the sky, may be placed in the space, and images may be synthesized there, thereby creating an accurate three-dimensional space around them. It becomes possible.
- FIG. 5 is an operation flowchart for projecting a photographed image by changing the shape of the projection surface and changing the viewpoint according to the vehicle information in the present embodiment.
- the space generation unit 105 acquires vehicle information 104 such as the traveling direction of the vehicle, the angle of the steering wheel, or the vehicle speed via a CAN or FlexRay network in accordance with an instruction from the CPU 108.
- the information acquisition route is not limited here, and the vehicle speed information based on GPS information uniquely acquired by an information terminal such as a car navigation system or a smartphone is used, or the handle angle is calculated from a camera installed in the vehicle.
- the example of FIG. 5 is an example of an operation sequence using the vehicle speed, and describes an example in which the spatial information around the vehicle to be set and the position of the virtual camera are changed according to the vehicle speed.
- FIG. 6 is a sketch drawing showing the position and angle of the virtual camera according to the driving situation in this embodiment.
- the virtual camera 305 moves the vehicle 300 in any angle (direction) between the angle A (front side) and the angle G (rear side), for example, between + ⁇ 2 and ⁇ 2 with respect to the traveling direction of the vehicle 300.
- the position (distance) is set according to the vehicle speed.
- the position and angle of the virtual camera 305 are not limited to the example shown in FIG.
- the space generation unit 105 creates a plane object assuming a road and a spherical object with a certain radius that encloses the vehicle centered on a point of a certain World coordinate as a preset space.
- the image conversion unit 106 reads the position of the virtual camera set so as to see the combination of the plane and the sphere object from a certain position and angle in the space.
- CPU 108 compares the current vehicle speed V and the predetermined vehicle speed V 0.
- the image conversion unit 106 uses the preset space created by the space generation unit 105 in S502, and reads the virtual camera viewpoint read there. Project an image at.
- the vehicle speed is higher than V 0 (Yes in S503), the radius R calculated by f (V 0 ) that is a function of a certain speed is obtained, and in S505, the image conversion unit 106 uses the space generation unit 105 in S502.
- the object is created by changing the preset plane created in step 1 and the radius of the sphere to R related to the velocity V 0 .
- the image conversion unit 106 calculates the position and angle of the virtual camera determined by the vehicle speed. That is, the position of the virtual camera in FIG. 6 is set to, for example, any one between + ⁇ 2 and ⁇ 2, and the angle is set to any one between A and G, for example.
- the image conversion unit 106 converts the planar object and sphere object created by the space generation unit 105 in step S505 into a two-dimensional image viewed from the virtual camera position calculated in step S506 by the image conversion unit 106, and displays it on the monitor 111. By doing so, a pseudo three-dimensional space is expressed by a two-dimensional display.
- the flow from S501 may be performed again after a predetermined time has elapsed.
- the flow from S501 may be performed again with a change in the situation such as the vehicle speed and the traveling direction changing as a trigger. In the latter case, it is preferable to detect the presence / absence of a change in the situation every predetermined time.
- the relationship between the speed and the plane is set as an optimum function based on the straightness and width of the road with reference to a general road that travels frequently. For example, when the vehicle speed is high, there are few solid objects nearby, and the sense of distance of nearby solid objects and the necessity of visually recognizing the object are reduced. For this reason, it is not necessary to set a wide plane around the vehicle, and as shown in FIG. 4A, the camera image is projected with the spherical surface close to the vehicle. As a result, an image close to the image captured by the camera is mapped to the created space, making it easier to visually recognize a distance farther than the vicinity.
- the vehicle 300 is drawn from the side direction, and the virtual camera 305 is moved while changing the position and angle on a certain arc.
- a virtual camera is arranged at a point D on the arc, and when the vehicle 300 starts to move forward, the virtual camera is moved on the arc from D ⁇ E ⁇ F ⁇ G according to the speed.
- the position and angle of the virtual camera 305 can be set from the position behind and behind the rear.
- the virtual camera is moved along the arc of D ⁇ C ⁇ B ⁇ A according to the speed. As a result, the rear image becomes visible as the speed increases.
- the virtual camera 305 when the virtual camera 305 is fixed in a certain direction, it is also effective to change the height of the virtual camera according to the vehicle speed.
- the height in the normal direction of the virtual camera 305 set to the angle B is changed according to the speed.
- the height At a certain speed, the height is set to ⁇ 0, and as the speed increases, it is changed to + ⁇ 1 and + ⁇ 2 so that a wide range of images can be viewed from a higher position.
- the vehicle When the vehicle is traveling at a low speed below a certain speed, it is changed to - ⁇ 1 and - ⁇ 2 as the speed decreases, and a detailed image around the host vehicle is displayed.
- a virtual camera position and angle setting table corresponding to the speed may be provided, and there is a merit that the calculation amount can be reduced by making the table.
- the vehicle is described as viewed from the side, but the position and angle of the virtual camera may be similarly changed with three axes representing a three-dimensional space.
- the change in the virtual camera position due to the speed of the host vehicle is shown, the image captured by the camera is recognized, the speed of the other vehicle is detected, and the position of the virtual camera is changed according to the speed of the other vehicle. May be. For example, if another vehicle traveling next is traveling at a higher speed than the own vehicle, the position of the camera on the arc is changed in accordance with the speed of the other vehicle.
- FIG. 7 shows a diagram of a setting table for the position and angle of the virtual camera according to the speed in this embodiment.
- the traveling direction is forward and the vehicle is traveling at a speed of Sn (km / h) or higher, the vehicle can be seen so that a wider area can be seen at the position F in FIG.
- a virtual camera is set at a position + ⁇ 2 away from the car.
- Such a setting list may be created according to the driver's preference and proficiency level.
- one feature is that the viewpoint of the virtual camera can be changed depending on the situation, regardless of whether the number of actual cameras is one or plural.
- FIG. 8 is a diagram showing the arrangement of objects for projecting images in the present embodiment.
- 3A to 4B are examples in which a surrounding three-dimensional space is formed by a combination of a plane object representing a road and a large spherical object surrounding the vehicle centered on a point with World coordinates, for example.
- FIG. 8 shows an example of forming three-dimensional spaces 801a to 801d having a plane object 802 representing a road and a spherical object for each camera when four cameras 301a to 301d are installed on the front, rear, left and right sides of the vehicle. Indicates.
- the camera 301a is arranged to photograph the front of the own vehicle
- the camera 301b is arranged to photograph the rear of the own vehicle
- the camera 301c is arranged to photograph the left side of the own vehicle
- the camera 301d is arranged to take a picture of the right side of the vehicle. Since the plurality of cameras 301a to 301d mounted on the car are arranged at different positions, the height or angle to the road is different, and the image scale ratio is also different for each camera. If they are projected onto a single spherical object centered on one point, it is necessary to project the image after adjusting the image according to the position and angle of each camera, which complicates the calculation. On the other hand, in FIG.
- an optimal spherical object 801a to 801d is set for each camera, and each camera image is projected onto the spherical objects 801a to 801d corresponding to the cameras 301a to 301d, so that an image with less distortion is obtained. Expression is possible.
- FIG. 9 is a view of the space of FIG. 8 in this embodiment as viewed from directly above.
- the spherical objects 801a to 801d set for each of the cameras 301a to 301d are cut off at a portion in contact with a plane assuming a road, and the shape of the plane is slightly swelled vertically and horizontally (solid line).
- the distortion that occurs when the swollen shape is expressed by one spherical object 803 (broken line) is indicated by an arrow.
- distortion is generated by an amount in which the interval between the arrows differs between the spherical object 801b and the spherical object 803. That is, even objects of the same size are projected onto the spherical object 803 with different sizes depending on which of the cameras 301a (301b) and 301c (301d) is used for imaging.
- the direction of the arrow in the drawing is corrected so as to reach a point on the spherical surface of the spherical object 803 while taking into account the difference in position when the perpendicular line is dropped from the actual camera and the virtual camera to the plane.
- a single spherical object 803 can represent a three-dimensional space with less image distortion.
- FIG. 10 is a diagram illustrating a case where the position of the virtual camera is changed according to the traveling direction of the vehicle and the steering wheel angle in the present embodiment.
- Reference numeral 1001 denotes a three-dimensional space formed by a plane and a sphere.
- the virtual camera in front of the host vehicle 300 can be seen better so that the vicinity of the front right side of the host vehicle can be seen better.
- the virtual camera 305a is arranged so as to face the road on the right front side of the car 300.
- the virtual camera of the vehicle 300 is displayed so that the left rear periphery of the vehicle can be seen more.
- the virtual camera 305d is arranged so as to face the road on the left rear side.
- different symbols are attached to the virtual cameras 305a and 305d.
- the image viewed with the virtual camera 305a is easier to find a pedestrian or a dangerous event.
- handle angle information may be added to the list shown in FIG.
- FIG. 11 is a diagram illustrating a region in which a plurality of camera images are coordinate-transformed and projected onto a plane and a spherical surface in the present embodiment.
- the three-dimensional space includes a plane object 802 and a spherical object 801, and an image viewed from the virtual camera 305 is projected.
- the image of the camera 301a is projected onto an area 801e surrounded by a thick line inside the plane 802 and the spherical surface 801.
- the image of the camera 301b is projected onto an area 801f inside the plane 802 and the spherical surface 801
- the image of the camera 301c is projected onto the area 801g inside the plane 802 and the spherical surface 801
- the image of the camera 301d is projected onto the plane 802 and the spherical surface.
- the image is projected onto the area 801h inside the area 801.
- a region 801eg (obliquely hatched region) where 801e and 801g overlap and a region 801eh (obliquely hatched region) where 801e and 801h overlap are regions where a plurality of cameras are shooting the same place. That is, this area is an area where two adjacent camera images are synthesized (blended).
- the angle (azimuth angle) in the figure from A to B in the figure about the center point 1101 of the circle formed on the plane where the plane 802 and the spherical surface 801 intersect Consider changing the blend ratio according to ⁇ . Since the portion close to A is a portion close to the camera 301c, the blend ratio of the image of the camera 301c is increased, and since the portion close to B is a portion close to the camera 301a, the blend ratio of the image of the camera 301a is increased. The blend ratio is changed.
- the pixels on the spherical surface line connecting A and the central point 1101 use 100% of the image photographed by the camera 301c, and the pixels on the spherical surface line connecting B and the central point 1101 are used.
- Uses 100% of the image taken by the camera 301a, and the pixels on the spherical surface connecting the midpoint between A and B and the center point 1101 use 50% of the pixels of the camera 301a and the camera 301c.
- the images of the cameras 301a and 301d are similarly synthesized.
- the images of the cameras 301b and 301c are combined in the same manner for the region 801fg, and the images of the cameras 301b and 301d are combined in the same manner for the region 801fh.
- the images of the four cameras 301a to 301d can be smoothly connected, and the entire periphery of the host vehicle can be expressed.
- the image conversion unit 106 has an image recognition function, and calculates an image feature amount of each camera image. In a portion where adjacent camera images overlap, a place where both image features are small is set as a boundary region of the region to be combined. If a place having a large amount of image features is used as a boundary region, an edge or the like is generated at the place, and the boundary at the time of synthesis is conspicuous. This can be prevented. By making the boundary of an area where a sky with less features or a uniformly painted wall appears in the image, it is possible to make the boundary inconspicuous.
- the image feature amount a general edge extraction method such as contour extraction such as Sobel or Laplacian, an image feature amount extraction method such as SIFT (Scale-Invariant Feature Transform) or HOG (Histograms of Oriented Gradients), etc. Is used.
- SIFT Scale-Invariant Feature Transform
- HOG Histograms of Oriented Gradients
- the actual number of cameras is small.
- the camera lens is a fisheye lens and the angle of view covered by one camera is widened.
- a fisheye lens is used, in order to cover the entire angle of view around the vehicle, for example, a plurality of cameras are required as shown in FIG. In FIG. 11, when there is a portion that overlaps the angle of view covered by a plurality of cameras, the images of the plurality of cameras are combined and generated so as to reduce distortion.
- FIG. 12A and 12B are diagrams showing first and second examples of blend ratios in the blend region of FIG.
- FIG. 12A shows an example of changing the blend rate linearly.
- the blend ratio is changed so that the magnitude relationship is reversed with the center angle ⁇ max / 2 as a boundary.
- FIG. 12B shows an example of changing the blend rate in a form close to a Gaussian curve. The shape closer to the Gaussian curve has the effect of increasing the blend ratio of the closer camera.
- the graph shows a blend ratio that wraps around at a point of ⁇ max / 2, but the wrapping point may be shifted to the left or right.
- either camera may appear beautiful with little distortion in the overlapping area.
- set the turning point so that the blend ratio of the camera with the least distortion is high as a whole.
- FIG. 13A is a sketch diagram illustrating an arrangement example of an actual camera and a virtual camera in the present embodiment, and illustrates a case where the optical axis direction of the virtual camera 305 faces the blend region 801eh of FIG.
- FIG. 13B is a diagram illustrating normal directions of the actual camera and the virtual camera of FIG. 13A.
- the optical axis direction of the camera 301d is closer to the optical axis direction of the virtual camera 305 than the optical axis direction of the camera 301a. The image will look natural.
- the image of the camera 301d is given priority over setting the blend rate to 50% at the center of the blend area as shown in FIGS. 12A and 12B. It is possible to create a more natural image by compositing it for use.
- FIG. 13C is a diagram showing the blend ratio of the blend region according to the angle of the virtual camera in FIG. 13A.
- a position where the blend ratio of the image of the camera 301a and the image of the camera 301d is 50% is determined based on the optical axis direction of the virtual camera and the optical axis direction of each camera.
- the function F ( ⁇ 1, ⁇ 2) shown in FIG. 13C includes the azimuth angle corresponding to the optical axis direction of the virtual camera, the azimuth angle ⁇ 1 corresponding to the optical axis direction of the camera 301a, and the optical axis of the virtual camera shown in FIG. This is a function having the azimuth angle corresponding to the direction and the azimuth angle ⁇ 2 corresponding to the optical axis direction of the camera 301d as variables.
- the blending method of the region to be blended is changed according to the angle in the optical axis direction of the actually mounted camera and the angle in the optical axis direction of the virtual camera.
- the blend region can be blended with an actual camera using many images that look more natural when viewed from the virtual camera, and high image quality of the blend region can be expected.
- the person 1004 arranged in FIG. 13A uses more images captured by the camera 301d and blends more natural images, so that it is possible to expedite pedestrian discovery and danger discovery by the driver.
- the method of changing the blend rate in this embodiment is not limited to the example of FIG. 13C.
- the example of FIG. 13D will be described as another example of the change in blend ratio.
- the region where the images of the cameras 301a and 301d overlap is targeted, and the azimuth angle ⁇ is used as a reference.
- azimuth angles ⁇ _l and ⁇ _h are set in addition to the azimuth angle ⁇ _m at which the blend ratio is 0.5.
- the video blend ratio of the other camera is set to zero.
- the azimuth angle corresponding to the optical axis direction of the virtual camera is closer to the azimuth angle corresponding to the optical axis direction of the camera 301a than the azimuth angle corresponding to the optical axis direction of the camera 301d
- the azimuth angle ⁇ _m, A function that shifts both ⁇ _l and ⁇ _h in the direction of arrow A may be used.
- the image of the camera 301a having the optical axis direction close to the optical axis direction of the virtual camera is preferentially blended.
- the azimuth angle ⁇ _m A function in which the azimuth angles ⁇ _l and ⁇ _h both shift in the direction of the arrow D may be used.
- the example of FIG. 13E may be used.
- the change in the blend ratio between the azimuth angle ⁇ _l and the azimuth angle ⁇ _h is made curved rather than linear from the example of FIG. 13D.
- the other parts are the same as those in FIG. 13D including the function setting method corresponding to the azimuth angle corresponding to the optical axis direction of the virtual camera, and thus detailed description thereof is omitted.
- the blend ratio is changed based on the azimuth angle that is an angle formed by two straight lines parallel to the plane 802.
- the blend ratio may be changed based on an elevation angle that is an angle formed by two straight lines parallel to a plane perpendicular to the plane 802.
- FIG. 13F is a view of the vehicle 1300 as viewed from the left side.
- the vehicle 1300 is provided with two cameras whose azimuth angle of the optical axis is the forward direction. They are a camera 1301 and a camera 1302, respectively.
- the elevation angle of the optical axis of the camera 1301 is ⁇ 1
- the elevation angle of the optical axis of the camera 1302 is ⁇ 2.
- ⁇ 2 is larger than ⁇ 1
- the camera 1302 has an optical axis closer to the horizontal direction than the camera 1301. That is, there are two forward cameras 301a in FIGS. 8, 9, and 11, and the optical axes of the cameras are attached to the vehicle at different elevation angles.
- the virtual camera when the virtual camera is at the position of the virtual camera 1310 and the elevation angle ⁇ of the optical axis is ⁇ 1, the virtual camera is at the position of the virtual camera 1311 and the elevation angle ⁇ of the optical axis is ⁇ 2.
- An example is shown.
- the elevation angle ⁇ 1 is closer to the elevation angle ⁇ 1 than the elevation angle ⁇ 2, and the elevation angle ⁇ 2 is closer to the elevation angle ⁇ 2 than the elevation angle ⁇ 1.
- the virtual camera is moved from the position of the virtual camera 1310 to the virtual camera. It changes to the position of 1311.
- the elevation angle of the optical axis of the virtual camera is closer to the elevation angle ⁇ 2 of the optical axis of the camera 1302 than the elevation angle ⁇ 1 of the optical axis of the camera 1301, so in the blending process of the region where the video of the camera 1301 and the video of the camera 1302 overlap.
- the blend ratio of the video from the camera 1302 may be changed in a priority direction.
- a specific blend ratio change method can be realized by replacing the azimuth angle-based blend ratio change process described in FIGS. 13A to 13E with the vertical direction. Therefore, detailed description is omitted.
- FIG. 14 is a block diagram showing a video composition device and a video display system when sensors are connected in the present embodiment.
- the configuration is substantially the same as that in FIG. 1 except that various sensors 1400 other than those mounted on a normal vehicle are mounted.
- a sensor 1400 a sensor capable of measuring a wide range of azimuth and distance information using a radar, a stereo camera, millimeter waves, ultrasonic waves, sonar, etc. are used to measure the distance between the vehicle and surrounding objects, Alternatively, a sensor that detects the presence of an object can be considered.
- An example in which the surrounding three-dimensional space shape is deformed using a radar is shown in FIG.
- FIG. 15 is a diagram illustrating a space formed by detecting the distance to a three-dimensional object around the vehicle with a distance sensor, for example, in the present embodiment.
- a solid object around the own vehicle 300 is detected by a radar, and a distance from a sensor 1500 on which the radar is mounted to the solid object N (for example, 1501a to 1501d) is L (for example, L1 to L4).
- N for example, 1501a to 1501d
- L for example, L1 to L4
- the radius R may be determined in a range where the error between the solid object and the radius R is smaller than a predetermined value.
- some solid objects are pasted on the set plane, resulting in an uncomfortable image, but many three-dimensional objects are images that stand up from the ground, and in general it is possible to create a three-dimensional image with a little uncomfortable feeling. is there.
- a method for calculating the radius R is described. If accurate surrounding three-dimensional information is obtained by the radar, a three-dimensional space is generated based on the three-dimensional information, and a camera image is projected onto the three-dimensional space. A stereoscopic image closer to reality can be created.
- FIG. 16A to 16D are diagrams for explaining the correspondence between the images before and after the viewpoint conversion in this embodiment and the pixels in the image.
- FIG. 16A is a third sketch of the space set around the vehicle in the present embodiment.
- FIG. 16B is a diagram illustrating an image captured by the camera 301 of FIG. 16A in the present embodiment.
- FIG. 16C is a diagram illustrating an image obtained by performing viewpoint conversion so that the image of FIG. 16B is viewed from the virtual camera 305 in the present embodiment.
- viewpoint conversion can be realized by setting an object space three-dimensionally and mapping a captured image as a texture.
- space generation unit 105 and the image conversion unit 106 of the image composition device 100 in FIG. 1 cannot texture-map the image in the three-dimensional object space, the input image and the output for image viewpoint conversion are output.
- table data representing coordinate correspondence with an image is created in advance, and viewpoint conversion is performed by two-dimensional texture mapping.
- FIG. 16D is a diagram showing an example of table data representing the coordinate correspondence between the input image and the output image in the present embodiment.
- the pre-conversion image shown in FIG. 16B is used as the input image, and the post-conversion image shown in FIG. 16C is output. It is an example of the table data which showed the corresponding point of the coordinate in each image as an image.
- the color information of the pixel at the coordinates (u in, n , v in, n ) in FIG. 16B corresponds to the color information of the pixel at the coordinates (u out, n , v out, n ) in FIG. 16C. It is shown that.
- the color information of the pixel 1601A in FIG. 16B is mapped to the pixel 1601B in FIG. 16C.
- the table data corresponding to the coordinates may have a number of data that covers all the pixels of the input image or all of the pixels of the output image, or may have discrete corresponding points to obtain the color information of the pixels between them. You may obtain
- FIG. 17A to 17D are diagrams for explaining a case where corresponding points are discretely provided.
- FIG. 17A is a diagram illustrating an image captured by the camera 301 in the present embodiment, which is the same as FIG. 16B above, but the x marks indicate discrete sampling points.
- FIG. 17A shows an example of sampling pixels in the input image at equal intervals.
- FIG. 17B is a diagram illustrating an image obtained by performing viewpoint conversion so that the image of FIG. 17A is viewed from the virtual camera 305 in the present embodiment, and is the same as FIG. 16C, but the position of the sampling point in FIG. Is indicated by a cross. Note that one point indicated by 1701 in the sampling points in FIG. 17A is converted to one point indicated by 1702 in FIG. 17B.
- FIG. 17C is a diagram showing an image captured by the camera 301 in the present embodiment, which is the same as FIG. 17A, but shows an example in which discrete sampling points indicated by x marks are different from FIG. 17A. .
- FIG. 17C shows an example in which pixels in the input image are sampled at feature points including the contour of the image.
- FIG. 17D is a diagram illustrating an image obtained by performing viewpoint conversion so that the image of FIG. 17C is viewed from the virtual camera 305 in the present embodiment, and is similar to FIG. 17B, but the positions of the sampling points after the viewpoint conversion are different. Yes.
- one point indicated by 1703 is converted into one point indicated by 1704 in FIG. 17D, that is, a feature point including the contour of the image.
- an image composition device that cannot texture-map to a three-dimensional object space, when dynamically changing a virtual camera or a three-dimensional object shape, a plurality of coordinate-corresponding point table data are created in advance and switched. Thus, the display image can be changed.
- FIG. 18A to 18C are diagrams for explaining a case where the positions of the virtual cameras are different in the present embodiment.
- FIG. 18A shows an image after viewpoint conversion when the virtual camera 305 is positioned at E in FIG. 6 in the present embodiment.
- FIG. 18B shows an image after viewpoint conversion when the virtual camera 305 is located at D in FIG. 6 in the present embodiment.
- 18A and 18B are converted based on the image shown in FIG. 17A.
- FIG. 18C is table data indicating the coordinate corresponding points of the image before and after the viewpoint conversion in this embodiment, where “Input” is each sampling point in the pre-conversion image in FIG. 17A, and “Output_ViewE” is the post-conversion in FIG. 18A.
- Each sampling point in the image, Output_ViewD in the figure corresponds to each sampling point in the converted image in FIG. 18B. That is, different table data is provided depending on the position of the virtual camera 305.
- FIG. 6 since the position of the virtual camera 305 is different between the time of E and the time of D, if the table data is switched according to the position of the virtual camera and the video is displayed, the movement of the viewpoint becomes discontinuous. There is a problem that displayed images are not switched continuously.
- Continuously switching images can be realized by providing sufficient points to divide the table data created discretely and obtaining the table data by interpolation calculation.
- the blend rate may be calculated for each pixel at the position where the image features are extracted, or the same blend rate may be used in the overlap area. Examples with various changes are conceivable as described above, and all of them are within the scope of the present invention.
- 100 Video composition device, 101: Camera, 102: Decoding unit, 103: Bus, 104: Vehicle information, 105: Space generation unit, 106: Image conversion unit, 107: Camera information unit, 108: CPU, 109: Memory unit 110: Encoding unit, 111: Monitor, 201: Camera-captured image, 202: Virtual camera-captured image, 300: Own vehicle, 301: Camera, 302: Solid object, 303: Road, 304: Spherical object, 305: Virtual camera .
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
複数のカメラ映像を入力とする映像表示システムにおいて、車両情報部と、空間生成部と、画像変換部と、カメラ情報部とを備え、車両情報部から取得した走行状況の情報に応じて、空間生成部がカメラで撮影可能な範囲の周囲空間を生成し、画像変換部がカメラの画像に基づく画像を作成して、生成された空間に投射する。また、画像変換部はカメラ情報部が設定した仮想カメラ位置から見た複数のカメラの画像の合成画像を、仮想カメラの位置或いは画像合成時のブレンド率を変化させながら作成する。
Description
技術分野は、映像表示システム、映像合成装置及び映像合成方法に係り、俯瞰画像を作成する映像表示システム、映像合成装置及び映像合成方法に関する。
車両の前方、後方、左右両側にそれぞれ設置された複数のカメラで車両の周囲を撮影し、これらの撮影画像に視点変換を施し、さらに繋ぎ合せることで、車両周囲の俯瞰画像を作成し、表示するシステムを考える。CG(コンピュータグラフィックス)の分野では、仮想の空間上にオブジェクトを配置して、そこにテクスチャをマッピングして仮想空間を作成し、その空間内において仮想的な視点から見る映像を作成して表示する手法がある。
当該手法に関連する技術として、例えば特許文献1には、その要約に記載のような「少なくとも1つのカメラにより車両の周囲が撮影された画像である撮影画像を取得する画像取得部と、車両の状態を取得する状態取得部と、状態取得部により取得された状態に基づいて、立体と該立体又は撮影画像の変形方法とを設定する設定部と、画像取得部により取得された撮影画像と設定部により設定された立体との対応関係を取得し、設定部により設定された変形方法に基づいて立体又は撮影画像の変形を行い、対応関係に基づいて撮影画像を立体上に写して像を生成して像データとする生成部と、生成部により生成された像データを、設定された視点から見た画像に変換して出力画像とする視点変換部とを備える」技術が開示されている。
しかしながら、特許文献1には、車両の状態に応じて投影空間を変形することは開示されているものの、表示用視点は何らかの手段により予め設定されたものであり、表示用視点の設定自体を状況に応じて動的に変更することは想定しておらず、ユーザにとっての使い勝手が十分ではないという課題があった。
また、特許文献1には、複数のカメラによって撮影された画像が重なってマッピングされる領域について画像を変形して形状をあわせることは開示されているものの、単に形状を合わせただけでは画像の不自然さが十分に解消されないという課題があった。
上記の課題を解決するため、本発明の一実施形態は、被写体を撮影するための複数のカメラと、当該の複数のカメラが撮影した映像を合成する映像合成装置と、当該の映像合成装置が合成して生成した画像を表示するモニタとを有する映像表示システムであって、前記映像合成装置は、前記映像表示システムを搭載した車両に係る車両情報を供給され当該の車両情報に基づいて3次元空間上に前記映像合成装置が生成する合成映像の視点を定め当該の視点に応じた空間を生成する空間生成部と、当該の空間生成部が生成した空間に応じて前記複数のカメラが撮像した映像を合成した合成画像を生成する画像変換部と、当該の画像変換部が生成した前記合成画像を2次元で表示するようエンコードして前記モニタに供給するエンコード部と、前記映像合成装置の動作を制御する制御部を有することを特徴としている。
また、本発明の一実施形態は、被写体を撮影するための複数のカメラから映像が供給され、当該の映像を合成して出力する映像合成装置であって、前記映像合成装置を搭載した車両に係る車両情報を供給され当該の車両情報に基づいて3次元空間上に生成する合成映像の視点を定め当該の視点に応じた空間を生成する空間生成部と、当該の空間生成部が生成した空間に応じて供給された前記映像を合成した合成画像を生成する画像変換部と、当該の画像変換部が生成した前記合成画像を2次元で表示するようエンコードして出力するエンコード部と、前記映像合成装置の動作を制御する制御部を有することを特徴としている。
また、本発明の一実施形態は、被写体を撮影するための複数のカメラと、当該の複数のカメラが撮影した映像を合成する映像合成装置と、当該の映像合成装置が合成して生成した画像を表示するモニタとを有する映像表示システムにおける映像合成方法であって、前記映像表示システムを搭載した車両に係る車両情報を供給され当該の車両情報に基づいて3次元空間上に前記映像合成装置が生成する合成映像の視点を定め、当該の視点に応じた空間を生成し、当該の空間に応じて前記複数のカメラが撮像した映像を合成した合成画像を生成し、当該の合成画像を2次元で表示するようエンコードし、エンコードされた合成画像を表示することを特徴としている。
また、本発明の一実施形態は、複数のカメラが撮影した映像を合成してモニタに表示する映像表示システムであって、複数のカメラと、前記複数のカメラが撮影した映像を合成する映像合成装置と、前記映像合成装置が合成して生成した画像を表示するモニタとを備え、前記映像合成装置は、複数のカメラが撮影した映像を投影するための仮想的な3次元空間を生成し、当該3次元空間における仮想的な視点を設定する空間生成部と、前記仮想的な3次元空間に前記複数のカメラが撮影した映像を投影し、当該投影映像と前記仮想的な視点に応じて合成画像を生成する画像変換部と、当該の画像変換部が生成した前記合成画像を、前記モニタに表示するために2次元画像データとしてエンコードするエンコード部と、前記映像合成装置が搭載される車両に関する車両情報を取得する車両情報取得部と、を有し、前記空間生成部は、前記仮想的な視点の位置及び前記仮想的な視点からの視線方向の設定を、前記車両情報取得部で取得した車両情報に応じて変更し、前記画像変換部は、前記投影映像において、前記複数のカメラが撮影した映像同士が重なって前記仮想的な3次元空間に投影される領域における重なった複数の映像の合成率を、少なくとも前記空間生成部で変更した前記仮想的な視点からの視線方向の設定に応じて変更することを特徴としている。
また、本発明の一実施形態は、複数のカメラが撮影した映像を取得して合成する映像合成装置であって、複数のカメラが撮影した映像を入力可能な映像入力部と、複数のカメラが撮影した映像を投影するための仮想的な3次元空間を生成し、当該3次元空間における仮想的な視点を設定する空間生成部と、前記仮想的な3次元空間に前記複数のカメラが撮影した映像を投影し、当該投影映像と前記仮想的な視点に応じて合成画像を生成する画像変換部と、前記映像合成装置が搭載される車両に関する車両情報を取得する車両情報取得部と、を有し、前記空間生成部は、前記仮想的な視点の位置及び前記仮想的な視点からの視線方向の設定を、前記車両情報取得部で取得した車両情報に応じて変更し、前記画像変換部は、前記投影映像において、前記複数のカメラが撮影した映像同士が重なって前記仮想的な3次元空間に投影される領域における重なった複数の映像の合成率を、少なくとも前記空間生成部で変更した前記仮想的な視点からの視線方向の設定に応じて変更することを特徴としている。
また、本発明の一実施形態は、複数のカメラが撮影した映像を取得して合成する映像合成方法であって、前記複数のカメラが搭載される車両に関する車両情報を取得し、複数のカメラが撮影した映像を投影するための仮想的な3次元空間を生成し、当該3次元空間における仮想的な視点を設定し、前記仮想的な3次元空間に前記複数のカメラが撮影した映像を投影し、当該投影映像と前記仮想的な視点に応じて合成画像を生成し、前記視点設定の際には、前記仮想的な視点の位置及び前記仮想的な視点からの視線方向の設定を、取得した車両情報に応じて変更し、前記合成画像生成の際には、前記投影映像において、前記複数のカメラが撮影した映像同士が重なって前記仮想的な3次元空間に投影される領域における重なった複数の映像の合成率を、少なくとも、変更した前記仮想的な視点からの視線方向の設定に応じて変更することを特徴としている。
上記手段によれば、ユーザにとって使い勝手が良く、より自然な俯瞰画像を作成できる映像表示システム、映像合成装置及び映像合成方法を提供することができるという効果がある。
以下、実施例について図面を参照しながら説明する。
図1は、本実施例における映像合成装置と映像表示システムを示すブロック図であって、映像合成装置100と、これに対して、被写体を撮像するための複数(n個)のカメラ101と画像を表示するためのモニタ111が接続された映像システムを示す。
図1は、本実施例における映像合成装置と映像表示システムを示すブロック図であって、映像合成装置100と、これに対して、被写体を撮像するための複数(n個)のカメラ101と画像を表示するためのモニタ111が接続された映像システムを示す。
映像合成装置100では、CPU(Central Control Unit)108が全体の動作を制御する。この動作制御に応じて、例えば、車両情報104が有する情報を利用して、自車周辺の仮想的な立体空間を空間生成部105が形成する。画像変換部106は、カメラ101から、図示を省略する入力部を介して映像合成装置100に入力される画像をデコード部102にてデコードした画像を、空間生成部105が形成した立体空間上にマッピングする。また、画像変換部106は、カメラ情報部107が設定した仮想カメラ位置(仮想視点の位置)と角度(仮想視点からの仮想的な視線方向)から見た場合の画像を作成して、エンコード部110を介してモニタ111に出力する。
この際に、バス103を介してメモリ部109と接続された画像変換部106は、出力される映像データに対して、後記するような変形処理などを施す。この変形処理は映像を3次元的に処理するが、エンコード部110は3次元的に処理された映像を、モニタ111で2次元的に表示できるようエンコードして、モニタ111に出力する。
なお、以下ではCPU108を制御部とも呼ぶ。
なお、以下ではCPU108を制御部とも呼ぶ。
車両情報104は、CAN(Controller Area Network)やFlexRayなどを介して得られる車体制御情報などであり、車両の進行方向、ハンドルの角度、或いは車速などの情報を有する。空間生成部105は、車両情報や知識ベースの情報に基づいて自車周辺の立体空間を推測して、空間情報を生成する。さらに空間生成部105は、走行中の速度情報や進行方向情報を参照して道路と推定される平面の範囲(例えば自車周辺の半径Dmの円周内を範囲とする)と、当該の平面以外の空間をどのような形で形成するのかを決定し、平面や球などの組合せで3次元空間上にオブジェクトを配置する。このオブジェクトは自車周辺の空間の形を表している。
画像変換部106は、空間生成部105が配置した3次元オブジェクト面に、車に搭載したカメラ101が撮影した画像を貼り付け、これを仮想的な視点から見た場合の合成画像に変換する。これにより、映像合成装置100は、2次元のカメラ画像から擬似的な3次元空間を作り出すことができる。実際には、オブジェクト面に貼り付けられた画像は、視点が異なれば異なる画像としてユーザに見えるようにするため、3次元空間上に仮想的に配置した仮想カメラ位置から見た画像を計算して貼り付けることになる。
カメラ情報部107は、車に搭載したそれぞれのカメラ101の3次元空間座標系の位置情報(座標情報)、角度情報、レンズの歪係数、焦点距離、或いはセンサの有効画素サイズ等の情報を有する。画像変換部106が、画像の歪補正、幾何変換などの画像変換を行う際に当該の情報を用いてもよい。カメラ情報部107は、自車のある位置を基準(原点)として、座標情報(Xi、Yi、Zi)と各軸に対する角度情報(αi、βi、γi)を有している(0≦i≦n)。
歪係数に関しては、カメラ画像中心からの距離に応じた歪の度合いを示す係数や、レンズの入射角と被写体の長さの関係を示す情報などを有している。後記するように、本実施例においてはカメラ101に魚眼レンズを用いることがある。魚眼レンズの周辺部は中心部と比較して歪が大きいため、これを補正する際に前記歪係数が必要となる。
さらに、カメラ情報部107は、空間生成部105が形成した3次元空間において、仮想的に設定した位置のカメラから見た画像を生成するために、仮想カメラの座標(Xv、Yv、Zv)の情報と各軸に対する角度(αv、βv、γv)の情報も有する。
さらに、カメラ情報部107は、空間生成部105が形成した3次元空間において、仮想的に設定した位置のカメラから見た画像を生成するために、仮想カメラの座標(Xv、Yv、Zv)の情報と各軸に対する角度(αv、βv、γv)の情報も有する。
画像変換部106は、デコード部102でデコードされたカメラ101のカメラ映像に対して、画像処理を行う。カメラ情報部107から供給されたレンズ歪係数の情報に基づきレンズ歪の画像補正処理を行い、さらに空間生成部105が生成したオブジェクト面に、カメラ撮影画像を行列変換で座標変換して変形した画像を張り付ける処理、以下で述べるようなカメラ画像の繋ぎ目近辺の画像のブレンド合成処理などを行う。
本実施例は、車両の周囲の擬似3次元画像の生成に関して記載しているが、車両に限らず複数の監視カメラの撮影画像に関して、擬似3次元画像を作成する場合にも適用できる。
本実施例は、車両の周囲の擬似3次元画像の生成に関して記載しているが、車両に限らず複数の監視カメラの撮影画像に関して、擬似3次元画像を作成する場合にも適用できる。
図2は、本実施例における撮影カメラ映像の画素を仮想カメラから見た画素に座標変換する処理を説明する図である。
図2では、実際の車載カメラ101で撮影された画像201の画素を、カメラ101に対するカメラ座標系Xp、Yp、Zpにおける点P(xp,yp,zp)と表している。なお、ここではカメラ座標系に関して、例えばカメラに対する奥行方向をZ、撮像した画像の水平方向をX、垂直方向をYと表している。この点Pは、空間内で共通に用いられるWorld座標系Xw、Yw、Zwにおける点W(xw,yw,zw)に相当する。このWorld座標系の点Wを、ある仮想の位置に配置した仮想カメラ202から撮影した場合の画像203の画素は、仮想カメラ202に対するカメラ座標系Xv、Yv、Zvの点V(xv,yv,zv)に相当する。つまり、ある仮想の位置から見た画像を生成するために、次のような座標変換を行う。
図2では、実際の車載カメラ101で撮影された画像201の画素を、カメラ101に対するカメラ座標系Xp、Yp、Zpにおける点P(xp,yp,zp)と表している。なお、ここではカメラ座標系に関して、例えばカメラに対する奥行方向をZ、撮像した画像の水平方向をX、垂直方向をYと表している。この点Pは、空間内で共通に用いられるWorld座標系Xw、Yw、Zwにおける点W(xw,yw,zw)に相当する。このWorld座標系の点Wを、ある仮想の位置に配置した仮想カメラ202から撮影した場合の画像203の画素は、仮想カメラ202に対するカメラ座標系Xv、Yv、Zvの点V(xv,yv,zv)に相当する。つまり、ある仮想の位置から見た画像を生成するために、次のような座標変換を行う。
実際のカメラ101に対するカメラ座標系の点PとWorld座標の点Wの関係は、4×4の透視投影変換行列Mpを用い、(式1)により示される。
また、仮想カメラ202に対するカメラ座標系の点VとWorld座標系の点Wの関係は、透視投影変換行列Mvを用い、(式2)により示される。
但し、Mp、Mvは(式3)に示すように、3×3の回転行列Rと、3×1の平行移動行列Tを含んでいる。
(式1)と(式2)を用いると、実カメラ座標系の点Pと仮想カメラ座標の点Vの関係が(式4)で求められ、生成したい仮想カメラの画素値を、実際のカメラで撮影した画素値から計算して求めることができる。
World座標系上のカメラの設置位置と設置角度と、カメラの内部パラメータである焦点距離やセンサの有効画素サイズ等の情報を用いて、MvとMpの逆行列を掛け合わせた4×4の行列を算出する。これらの式を用いて画像変換部106は、実際のカメラ101の画像を、ある位置に配置した仮想カメラから見た画像に変換する。
以下で述べる実施例においては、複数の実際のカメラを用いる場合がある。しかし、図2で示すような、実際のカメラ101が1個だけである場合も、本発明の範疇にある。カメラ101に例えば魚眼レンズを使用すると、目的によっては1個のカメラで充分な画角をカバーできる。例えば、図2乃至図7、図16A乃至図18Cに係る実施例は、カメラが1個である場合にも適用される。
図3Aは、本実施例における車両周辺に設定される空間の第1の見取り図であり、車両前方中央付近(Xc,Yc,Zc)の位置にカメラ301を各軸に対する角度(α,β,γ)に設置されている車両300が道路303の上にある場合を示す。車両300の前方に立体物302があり、その木よりも遠くに仮想的な球の曲面304が配置されている。
図3Bは、図3Aの車両周辺に設定される空間を仮想カメラ305から見た図である。
なお、以下では実際のカメラに対しては301、仮想カメラに対しては305の符号を付すが、前者は図1及び図2の101、後者は図2の202と同様であって良い。
カメラ301が撮影した映像は、図3Bが示すように前記した空間生成部105が生成した空間上に投影される。カメラ301と立体物302とを結ぶ直線上に、いびつに変形した立体物302が投影されてしまう。道路(地面)303などの平らなものは、車両周囲の投影面を広げることで、遠近感が生成され普段見慣れた距離感の空間を形成できるが、立体物302がある場合には、それが投影面の中の平面303の部分にテクスチャとして貼り付けられ、立体感が失われてしまう。
なお、以下では実際のカメラに対しては301、仮想カメラに対しては305の符号を付すが、前者は図1及び図2の101、後者は図2の202と同様であって良い。
カメラ301が撮影した映像は、図3Bが示すように前記した空間生成部105が生成した空間上に投影される。カメラ301と立体物302とを結ぶ直線上に、いびつに変形した立体物302が投影されてしまう。道路(地面)303などの平らなものは、車両周囲の投影面を広げることで、遠近感が生成され普段見慣れた距離感の空間を形成できるが、立体物302がある場合には、それが投影面の中の平面303の部分にテクスチャとして貼り付けられ、立体感が失われてしまう。
図4Aは、本実施例における車両周辺に設定される空間の第2の見取り図であり、図3Aと同様に設定した空間で、車両300の前方に仮想的な球の曲面304が配置されているが、図3Aよりも曲面304は立体物302の近くに配置されている。車両300と立体物302の距離は図3Aと同様とする。
図4Bは、図4Aの車両周辺に設定される空間を仮想カメラ305から見た図である。この場合には、立体物302のなかで投影面の中の平面303の部分に貼り付けられる面積は少なく、図3Aで示した場合よりも立体物302が自然に見える。
図3A乃至図4Bで示したように、設定する投影面の中の平面303の広さに応じて、車両周囲の距離感や、立体物の見え方が大きく変わってくる。つまり、自車周辺に存在するものの距離感を正確に見たい場合には、設定する領域を広くするなどの工夫が可能である。このように、周囲のオブジェクト空間を再現し、そのオブジェクト表面に撮影画像をテクスチャとしてマッピングすることにより、2次元の画像を組合せて、周囲全体の擬似的な3次元空間を形成することができる。
図3A乃至図4Bで示したように、設定する投影面の中の平面303の広さに応じて、車両周囲の距離感や、立体物の見え方が大きく変わってくる。つまり、自車周辺に存在するものの距離感を正確に見たい場合には、設定する領域を広くするなどの工夫が可能である。このように、周囲のオブジェクト空間を再現し、そのオブジェクト表面に撮影画像をテクスチャとしてマッピングすることにより、2次元の画像を組合せて、周囲全体の擬似的な3次元空間を形成することができる。
本例では、計算量削減のために、単純な平面と球面で空間を表現しているが、画像の特徴量を利用して、特徴量による統計的なクラスタリング処理を行うことで、地面(道路)と建物、壁、ガードレール、空など空間的な位置関係を考慮して空間上にオブジェクトを配置して、そこに映像を合成しても良く、これにより、周囲の正確な3次元空間が形成可能となる。
図5は、本実施例における車両情報に応じて投影面の形状を変形し視点を変化させて撮影画像を投影するための動作フロー図である。以下、Sを付したステップ番号に応じて動作フローを説明する。S500で動作フローが開始される。
S501では、空間生成部105はCPU108の指示に応じて、CANやFlexRayのネットワークなどを介して、車両の進行方向、ハンドルの角度、或いは車速などの車両情報104を取得する。ここで取得する情報の入手経路は限定されることなく、カーナビやスマートフォンなどの情報端末が独自に取得したGPS情報を元にした車速情報を利用し、或いは車内に設置したカメラからハンドル角度を算出するなど様々な入手方法が考えられる。図5の例は、車速を利用した動作シーケンス例であり、車速に応じて、設定する車両周辺の空間情報と仮想カメラの位置を変化させる例を記載している。
S501では、空間生成部105はCPU108の指示に応じて、CANやFlexRayのネットワークなどを介して、車両の進行方向、ハンドルの角度、或いは車速などの車両情報104を取得する。ここで取得する情報の入手経路は限定されることなく、カーナビやスマートフォンなどの情報端末が独自に取得したGPS情報を元にした車速情報を利用し、或いは車内に設置したカメラからハンドル角度を算出するなど様々な入手方法が考えられる。図5の例は、車速を利用した動作シーケンス例であり、車速に応じて、設定する車両周辺の空間情報と仮想カメラの位置を変化させる例を記載している。
図6は、本実施例における走行状況による仮想カメラの位置と角度を示す見取り図である。仮想カメラ305は、車両300の進行方向に対して、車両300を例えば角度A(前側)から角度G(後側)の間のいずれかの角度(方向)と、例えば+α2から-α2の間のいずれかの位置(距離)に、例えば車速に応じて設定される。仮想カメラ305の位置と角度は、図6に示す例に限定されないことはもちろんである。
図5に戻って説明を続ける。S502において、空間生成部105はプリセットする空間として、道路を想定した平面オブジェクトと、あるWorld座標の点を中心とした自車を包むある半径の球のオブジェクトを作成する。画像変換部106は、その平面と球のオブジェクトの組合せを、空間内のある位置と角度から見るように設定された仮想カメラの位置を読み込む。
S503において、CPU108は現在の車速Vを所定の車速V0と比較する。現在の車速VがV0よりも小さい場合には(S503のNo)、S504において、画像変換部106は空間生成部105がS502で作成したプリセット空間を利用して、そこに読み込んだ仮想カメラ視点での画像を投影する。車速がV0よりも大きい場合には(S503のYes)、ある速度の関数であるf(V0)で算出される半径Rを求め、S505において、画像変換部106は空間生成部105がS502で作成したプリセットの平面と、球の半径を速度V0に関連したRに変更したオブジェクトを作成する。
S506では、画像変換部106は車速によって決まる仮想カメラの位置と角度を算出する。即ち、図6における仮想カメラの位置が、例えば+α2から-α2の間のいずれかに設定され、角度が例えばAからGの間のいずれかに設定される。S507では、画像変換部106は空間生成部105がS505で作成した平面オブジェクトと球オブジェクトに、画像変換部106がS506で算出した仮想カメラ位置から見た2次元画像に変換し、モニタ111に表示することで擬似的な3次元空間を2次元表示で表現する。
S504又はS507における処理を終了した後は、例えば、所定の時間が経過した後に再度S501からのフローを行うと良い。或いは、車速、走行方向が変化するといった状況の変化をトリガにして再度S501からのフローを行っても良い。後者の場合、所定の時間ごとに状況の変化の有無を検出すると良い。
速度の関数f(V0)は、頻繁に走行する一般の道路を参考に道路の直進性や幅などから、速度と平面の関係を最適な関数で設定する。例えば、車速が速い場合には、近くに立体物は少なく、近くの立体物の距離感や対象物を視認する必要性は低くなる。このため、車両周辺に平面を広く設定する必要がなく、図4Aで示すように、球面を車両に近づけてカメラ映像を投影する。これにより、カメラで撮影した映像に近い映像が作成した空間にマッピングされ、近くよりも遠くを視認し易くなる。球面の半径は、例えばf(V)=α/Vのような式で表され、車速Vの上昇とともに減少する。また低速で走行している場合には、一般的な道路情報から作成したS502のプリセットの平面のサイズとなり、平坦と推定される道路は、作成した平面に張りつけられ、自車の周辺に遠近感のある自然な距離感の映像が作成される。
図6に関する説明を再度行う。図6においては車両300を側面方向から描いており、ある円弧上における位置と角度を変えながら、仮想カメラ305を移動させている。車両300が停止状態の場合は、円弧上の点Dに仮想カメラを配置し、前方に走り出すと速度に応じてD→E→F→Gと円弧上に仮想カメラを移動させる。これにより、停止時は自車を真上から見て、自車周辺に歩行者や障害物がないかを確認でき、前方に走り始めると、速度が速くなる程前方が広い範囲で見える画像となるように、後方斜め後ろの位置からの仮想カメラ305の位置と角度を設定できる。自車が後方に走り始めると、速度に応じてD→C→B→Aと円弧上に仮想カメラを移動させる。これにより、速度が速くなる程後方の画像が見えるようになる。
また、ある方向に仮想カメラ305を固定した場合に、車速に応じて仮想カメラの高さを変化させることも効果がある。自車が後方にバックしている際に、角度Bに設定された仮想カメラ305の法線方向の高さを速度に応じて変化させる。ある速度ではα0の高さとし、速度が速くなるにつれ、+α1、+α2と変化させ、より高い位置から広い範囲の画像を見られるように設定する。ある速度以下で低速走行している場合には、速度が遅くなるにつれて、-α1、-α2と変化させ、自車周辺の詳細の画像を表示させる。後に図7に示すように、速度に応じた仮想カメラの位置と角度の設定テーブルを持っていても良く、テーブル化しておくことで、計算量を減らすことができるメリットがある。
本例では自車を側面方向から見た例で記載しているが、3次元空間を表す3軸で同様に仮想カメラの位置と角度を変化しても良い。また、自車の速度による仮想カメラ位置の変化を示しているが、カメラで撮像した画像を認識して、他車の速度を検出して他車の速度に応じて仮想カメラの位置を変化させても良い。例えば、隣を走行中の他車が自車よりも高速で走行中であれば、他車の速度に合わせて円弧上のカメラの位置を変化させる。
図7は、本実施例における速度に応じた仮想カメラの位置と角度の設定テーブルの図を示す。
例えば、進行方向が前方であり速度Sn(km/h)以上で走行中であれば、前方の画像を見られるように、図6のFの位置で、さらに広範囲な領域を見られるように自車から離れた位置+α2に仮想カメラを設定する。運転者の好みや習熟度に合わせてこのような設定リストを作成しても良い。これらにより、走行状況に応じて、最適な仮想カメラ位置からの画像を提供することができる。本実施例においては、実際のカメラが1個、又は複数個のいずれであっても、状況に応じて仮想カメラの視点を変更できることを、一つの特徴としている。
例えば、進行方向が前方であり速度Sn(km/h)以上で走行中であれば、前方の画像を見られるように、図6のFの位置で、さらに広範囲な領域を見られるように自車から離れた位置+α2に仮想カメラを設定する。運転者の好みや習熟度に合わせてこのような設定リストを作成しても良い。これらにより、走行状況に応じて、最適な仮想カメラ位置からの画像を提供することができる。本実施例においては、実際のカメラが1個、又は複数個のいずれであっても、状況に応じて仮想カメラの視点を変更できることを、一つの特徴としている。
図8は、本実施例における画像を投影するオブジェクトの配置を示す図である。
先の図3A乃至図4Bは、例えば道路を表す平面のオブジェクトと、World座標のある点を中心とした自車を囲む大きな1つの球オブジェクトの組み合わせで、周囲の3次元空間を形成した例を示した。図8は、自車の前後左右に4つのカメラ301a乃至301dを設置した際に、例えば道路を表す平面のオブジェクト802と、カメラ毎に球面のオブジェクトを有する3次元空間801a乃至801dを形成する例を示す。例えば、カメラ301aが自車の前方を撮影するように配置され、カメラ301bが自車の後方を撮影するように配置され、カメラ301cが自車の左方を撮影するように配置され、カメラ301dが自車の右方を撮影するように配置されているとする。車に搭載される複数のカメラ301a乃至301dは別々の位置に配置されるため、道路までの高さ或いは角度が異なり、画像の縮尺率もカメラ毎に異なる。それらをある1点を中心とした1つの球面オブジェクトに投影すると、各カメラ位置と角度に応じて画像を調整した上で投影する必要があり、計算が複雑になってしまう。これに対して図8においては、カメラ毎に最適な球面オブジェクト801a乃至801dを設定し、各カメラ画像を各カメラ301a乃至301dに対応した球面オブジェクト801a乃至801dに投影することで、歪の少ない画像表現を可能としている。
先の図3A乃至図4Bは、例えば道路を表す平面のオブジェクトと、World座標のある点を中心とした自車を囲む大きな1つの球オブジェクトの組み合わせで、周囲の3次元空間を形成した例を示した。図8は、自車の前後左右に4つのカメラ301a乃至301dを設置した際に、例えば道路を表す平面のオブジェクト802と、カメラ毎に球面のオブジェクトを有する3次元空間801a乃至801dを形成する例を示す。例えば、カメラ301aが自車の前方を撮影するように配置され、カメラ301bが自車の後方を撮影するように配置され、カメラ301cが自車の左方を撮影するように配置され、カメラ301dが自車の右方を撮影するように配置されているとする。車に搭載される複数のカメラ301a乃至301dは別々の位置に配置されるため、道路までの高さ或いは角度が異なり、画像の縮尺率もカメラ毎に異なる。それらをある1点を中心とした1つの球面オブジェクトに投影すると、各カメラ位置と角度に応じて画像を調整した上で投影する必要があり、計算が複雑になってしまう。これに対して図8においては、カメラ毎に最適な球面オブジェクト801a乃至801dを設定し、各カメラ画像を各カメラ301a乃至301dに対応した球面オブジェクト801a乃至801dに投影することで、歪の少ない画像表現を可能としている。
図9は、本実施例における図8の空間を真上から見た図である。
各カメラ301a乃至301dに対して設定された球面オブジェクト801a乃至801dは、道路を想定した平面と接する部分で切り取られ、平面の形状は上下左右に少し膨らんだ形となる(実線)。膨らんだ形を1つの球面オブジェクト803(破線)で表現した場合に発生する歪を矢印で示している。例えば矢印の間隔が球面オブジェクト801bと球面オブジェクト803とで異なる分だけ歪を発生する。即ち、同じ大きさの物体であっても、カメラ301a(301b)と301c(301d)のいずれで撮像されたかに応じて、異なる大きさで球面オブジェクト803に投影される。
各カメラ301a乃至301dに対して設定された球面オブジェクト801a乃至801dは、道路を想定した平面と接する部分で切り取られ、平面の形状は上下左右に少し膨らんだ形となる(実線)。膨らんだ形を1つの球面オブジェクト803(破線)で表現した場合に発生する歪を矢印で示している。例えば矢印の間隔が球面オブジェクト801bと球面オブジェクト803とで異なる分だけ歪を発生する。即ち、同じ大きさの物体であっても、カメラ301a(301b)と301c(301d)のいずれで撮像されたかに応じて、異なる大きさで球面オブジェクト803に投影される。
これは車体の大きさにも関係し、1つの球面オブジェクト803で3次元空間を形成した場合には、前後方向により大きい歪が生じることを示している。このように、車体の形状によっては、1つの球面オブジェクト803で3次元空間を表現することが難しい場合がある。このため、各カメラ301a乃至301dに対して最適な球面オブジェクトを有するような3次元空間形成が有効な場合がある。この場合、実際のカメラ及び仮想カメラの各々から平面に垂線を下ろした際の位置の違いを考慮しながら、図中の矢印の方向が球面オブジェクト803の球面上の点に至るように補正する。これにより、1つの球面オブジェクト803で画像の歪の少ない3次元空間を表現できる。
図10は、本実施例において車両の進行方向とハンドル角に応じて仮想カメラの位置を変更する場合を説明する図である。
1001は平面と球で形成された3次元空間である。自車300のCPU108が前進方向で右にハンドルを切っているという情報1002を、車両情報104より取得した際には、自車の右前の周辺がより良く見えるように、前方の仮想カメラが自車300の前方右側の道路を向くように、仮想カメラ305aを配置する。また、自車が後進方向で右にハンドルを切っているという情報1003を、車両情報104より取得した際には、自車の左後ろの周辺がより見えるように、仮想カメラが自車300の後方左側の道路を向くように、仮想カメラ305dを配置する。ここで仮想カメラ305aと305dに対して別の符号を付したが、仮想カメラ、或いは実際のカメラが同時に2個存在する必要はなく、1個の位置と角度を変化させながら使用しても良い。
1001は平面と球で形成された3次元空間である。自車300のCPU108が前進方向で右にハンドルを切っているという情報1002を、車両情報104より取得した際には、自車の右前の周辺がより良く見えるように、前方の仮想カメラが自車300の前方右側の道路を向くように、仮想カメラ305aを配置する。また、自車が後進方向で右にハンドルを切っているという情報1003を、車両情報104より取得した際には、自車の左後ろの周辺がより見えるように、仮想カメラが自車300の後方左側の道路を向くように、仮想カメラ305dを配置する。ここで仮想カメラ305aと305dに対して別の符号を付したが、仮想カメラ、或いは実際のカメラが同時に2個存在する必要はなく、1個の位置と角度を変化させながら使用しても良い。
これにより、例えば、自車300がこれらから進む右斜め前方向に歩行者1004が居た場合には、仮想カメラ305aで見た画像の方が、歩行者、或いは危険な事象の発見をし易くなるメリットがある。このように、車速のみでなく、進行方向とハンドル角を利用して仮想カメラの位置や角度を変更することも可能である。このために、図7で示したリストにハンドル角の情報を付け加えて保持しても良い。
図11は、本実施例において平面と球面に複数のカメラ画像を座標変換して投射する領域を示す図である。
3次元空間としては、平面オブジェクト802と球面オブジェクト801で構成されており、仮想カメラ305から見た映像が投影される。図11では4個の実際のカメラ301a乃至301dが存在するが、それぞれのカメラの画像は同様に投影されるので、カメラ301aの画像の投影に関して説明する。カメラ301aの画像は、平面802と球面801内部の太線で囲まれた801eの領域に投影される。同様にカメラ301bの画像は、平面802と球面801内部の801fの領域に投影され、カメラ301cの画像は平面802と球面801内部の801gの領域に投影され、カメラ301dの画像は平面802と球面801内部の801hの領域に投影される。801eと801gとが重なる領域801eg(斜め斜線領域)と、801eと801hとが領域の重なる部分801eh(斜め斜線領域)は、複数のカメラが同じ場所を撮影している領域となる。つまり、この領域が隣り合う2つのカメラ映像を合成(ブレンド)する領域となる。
3次元空間としては、平面オブジェクト802と球面オブジェクト801で構成されており、仮想カメラ305から見た映像が投影される。図11では4個の実際のカメラ301a乃至301dが存在するが、それぞれのカメラの画像は同様に投影されるので、カメラ301aの画像の投影に関して説明する。カメラ301aの画像は、平面802と球面801内部の太線で囲まれた801eの領域に投影される。同様にカメラ301bの画像は、平面802と球面801内部の801fの領域に投影され、カメラ301cの画像は平面802と球面801内部の801gの領域に投影され、カメラ301dの画像は平面802と球面801内部の801hの領域に投影される。801eと801gとが重なる領域801eg(斜め斜線領域)と、801eと801hとが領域の重なる部分801eh(斜め斜線領域)は、複数のカメラが同じ場所を撮影している領域となる。つまり、この領域が隣り合う2つのカメラ映像を合成(ブレンド)する領域となる。
801egの領域を例にすると、この合成する領域に関し、平面802と球面801が交わる面にできる円の中心点1101を中心に、図中のAからBに向けて図中の角度(方位角)θに応じてブレンド率を変更することを考える。Aに近い部分は、カメラ301cに近い部分であるので、カメラ301cの画像のブレンド率を高め、Bに近い部分は、カメラ301aに近い部分であるので、カメラ301aの画像のブレンド率を高めるように、ブレンド率を変化させる。
つまり、801egの領域においては、Aと中心点1101とを結ぶ球面上の線における画素は、カメラ301cで撮影された画像を100%利用し、Bと中心点1101を結ぶ球面上の線における画素は、カメラ301aで撮影された画像を100%利用し、AとBの間の中点と中心点1101を結ぶ球面上の線における画素は、カメラ301aとカメラ301cの画素を50%ずつ利用して合成する。領域801ehに関しても、カメラ301aとカメラ301dの画像を同様に合成する。図中の領域801fgについてはカメラ301bと301cの、領域801fhについてはカメラ301bと301dの画像を同様に合成する。これにより、4つのカメラ301a乃至301dの画像を滑らかに繋ぐことができ、自車の全周囲を表現できる。
本例では、実際のカメラの位置から撮影される範囲が決まるため、合成する領域も一意に決まるので、合成する領域の境界領域は一定である。一方で、合成する領域の境界領域を動的に変化させて合成させても良い。具体的には、画像変換部106が画像認識機能を有し、各カメラ画像の画像特徴量を算出する。隣り合うカメラ画像の重なり合う部分で、双方とも画像特徴量が少ない場所を合成する領域の境界領域とする。画像特徴量が多い場所を境界領域にするとエッジ等が当該の場所に発生して、合成した際の境界が目立つので、これを防止することができる。画像上であまり特徴のない空や均一に塗られた壁などが映っている領域を境界にすることで、当該の境界を目立たせなくすることが可能である。
この考え方を利用すると、前方の画像を作成する場合は、車サイド両端の延長線上に合成する際の境界を設けることが効果的な場合がある。つまり、自車は前方に走行中であることから、車前方には道路か空が広がっている可能性があるため、その画像には画像特徴量が少ない可能性がある。その場所を合成する際の境界にすることで、境界のエッジが目立たないように合成することができる。ここで、画像特徴量としては、Sobelやラプラシアンなどの輪郭抽出などの一般的なエッジ抽出手法やSIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)などによる画像の特徴量抽出手法などを利用する。
構成要素を簡素化するためには、実際のカメラの数は少ない方が望ましい。このためにカメラのレンズは魚眼レンズとし、一台のカメラがカバーする画角を広くする方法がある。しかし、魚眼レンズを使用しても車両周辺の全画角をカバーするには、例えば図11で示すように複数台のカメラが必要となる。図11においては、複数台のカメラがカバーする画角に重なり合う部分がある時に、複数台のカメラの画像を利用して、当該の部分の画像を歪が低減されるように合成して生成することに、一つの特徴がある。
図12Aと図12Bは、図11のブレンド領域のブレンド率の第1及び第2の例を示す図である。
図12Aは、線形でブレンド率を変化させる例を示す。図11の801egの領域に関して、θ=θmax、即ち図11のAでは、カメラ301cは点線で示すようにブレンド率1.0、カメラ301aは実線で示すようにブレンド率を0.0とし、θに応じて線形に変化し、中心角度θmax/2を境界に、大小関係が逆転していくようにブレンド率を変化させる。
図12Bは、ガウシアンカーブに近い形でブレンド率を変化させる例を示す。ガウシアンカーブに近い形の方が、より近いカメラのブレンド率を高くできる効果がある。
図12Aは、線形でブレンド率を変化させる例を示す。図11の801egの領域に関して、θ=θmax、即ち図11のAでは、カメラ301cは点線で示すようにブレンド率1.0、カメラ301aは実線で示すようにブレンド率を0.0とし、θに応じて線形に変化し、中心角度θmax/2を境界に、大小関係が逆転していくようにブレンド率を変化させる。
図12Bは、ガウシアンカーブに近い形でブレンド率を変化させる例を示す。ガウシアンカーブに近い形の方が、より近いカメラのブレンド率を高くできる効果がある。
本例では、θmax/2の地点で折り返すようなブレンド率のグラフになっているが、折り返す地点を左右にずらしても良い。カメラの設置位置によっては、重なる領域でどちらかのカメラの歪みが少なくきれいに見える場合があるので、その場合には、歪みが少ない方のカメラのブレンド率が全体として高くなるように、折り返し点をずらすとより高画質の画像が実現できる。
図13Aは、本実施例における実際のカメラと仮想カメラの配置例を示す見取り図であり、仮想カメラ305の光軸方向が図11のブレンド領域801ehの方向を向く場合を示している。
図13Bは、図13Aの実際のカメラと仮想カメラの法線方向を示す図である。この場合、図13Aのブレンド領域801ehに関しては、カメラ301aの光軸方向よりもカメラ301dの光軸方向が仮想カメラ305の光軸方向に近いので、カメラ301dの画像を優先的に使った方が画像は自然に見えることとなる。つまり、ブレンド領域801ehに表示する画像を合成する際に、先の図12A及び図12Bで示したようにブレンド率をブレンド領域の中央で50%とするよりも、カメラ301dの画像をより優先的に使うように合成する方がより自然な画像を作ることができる。
図13Bは、図13Aの実際のカメラと仮想カメラの法線方向を示す図である。この場合、図13Aのブレンド領域801ehに関しては、カメラ301aの光軸方向よりもカメラ301dの光軸方向が仮想カメラ305の光軸方向に近いので、カメラ301dの画像を優先的に使った方が画像は自然に見えることとなる。つまり、ブレンド領域801ehに表示する画像を合成する際に、先の図12A及び図12Bで示したようにブレンド率をブレンド領域の中央で50%とするよりも、カメラ301dの画像をより優先的に使うように合成する方がより自然な画像を作ることができる。
図13Cは、図13Aにおける仮想カメラの角度に応じたブレンド領域のブレンド率を示す図である。カメラ301aの画像とカメラ301dの画像のブレンド率が50%になる位置を、仮想カメラの光軸方向と各カメラの光軸方向とに基づいて決定する。例えば、図13Cの関数F(θ1,θ2)は、図13Bに示す、仮想カメラの光軸方向に対応する方位角とカメラ301aの光軸方向に対応する方位角θ1と、仮想カメラの光軸方向に対応する方位角とカメラ301dの光軸方向に対応する方位角θ2とを変数とする関数である。
つまり、本実施例では、実際に搭載されているカメラの光軸方向の角度と、仮想カメラの光軸方向の角度に応じて、ブレンドする領域のブレンド方法を変更する。これにより、ブレンド領域を実際のカメラで、仮想カメラから見てより自然に見える画像を多く利用したブレンドが可能になり、ブレンド領域の高画質化が期待できる。これにより、図13Aに配置した人物1004は、カメラ301dで撮影された画像がより多く使われ、より自然な画像がブレンドされるため、ドライバーによる歩行者発見や危険発見を早めることができる。
なお、本実施例における、ブレンド率を変化させる方法は図13Cの例に限られない。例えば、ブレンド率の変化の別の例として、図13Dの例を説明する。図13Dの例は、図13Cと同様にカメラ301aとカメラ301dの映像の重なる領域を対象とし、方位角θを基準とするものである。図13Dの例では、ブレンド率が0.5となる方位角θ_mに加えて、方位角θ_lおよびθ_hが設定されている。ここで、方位角θ_lまたはθ_hの位置よりも一方のカメラの光軸に対応する方位角に近い領域では、他方のカメラの映像のブレンド率を0とする。ここで、図13Dの例では、ブレンド率が0.5となる方位角θ_mのみならず、一方のカメラの映像のブレンド率が0となる方位角θ_lおよびθ_hを、いずれも図13Bのθ1,θ2の関数とする。これにより、仮想カメラの光軸方向と各カメラの光軸方向とに基づいて、各カメラの映像のブレンドの優先度を変更設定できるうえ、各カメラの映像が合成映像に影響する範囲についてもあわせて変更することが可能となる。例えば、仮想カメラの光軸方向に対応する方位角が、カメラ301dの光軸方向に対応する方位角よりもカメラ301aの光軸方向に対応する方位角に近い場合に、方位角θ_m、方位角θ_lおよびθ_hがいずれも矢印Aの方向にシフトするような関数を用いればよい。これにより、仮想カメラの光軸方向に近い光軸方向を有するカメラ301aの画像が優先的にブレンドされる。逆に、仮想カメラの光軸方向に対応する方位角が、カメラ301aの光軸方向に対応する方位角よりもカメラ301dの光軸方向に対応する方位角に近い場合には、方位角θ_m、方位角θ_lおよびθ_hがいずれも矢印Dの方向にシフトするような関数を用いればよい。
また、本実施例のブレンド率の変化の別の例として、図13Eの例を用いてもよい。図13Eの例は、図13Dの例から、方位角θ_lと方位角θ_hの間のブレンド率の変化を直線的ではなく曲線的にしたものである。その他の部分は、仮想カメラの光軸方向に対応する方位角に応じた関数の設定方法も含めて図13Dと同様であるため、詳細な説明は省略する。
また、上述の図13A乃至Eの例では、ブレンド率の変更を、平面802に平行な2つの直線がなす角である方位角を基準に行っていた。これに替えてまたはこれに加えて、ブレンド率の変更を、平面802に垂直な平面に平行な2つの直線がなす角である仰角を基準に行なってもいい。
具体的な例を図13Fを用いて説明する。図13Fは、車両1300を左側面から見た図である。車両1300には、光軸の方位角が前方方向であるカメラが2台設置されている。それぞれカメラ1301、カメラ1302である。ここで、カメラ1301の光軸の仰角はα1であり、カメラ1302の光軸の仰角はα2である。α2はα1よりも大きく、カメラ1302はカメラ1301よりも水平方向に近い光軸を有している。すなわち、図8、9、11における前方方向のカメラ301aが2台になり、それぞれのカメラの光軸が、異なる仰角で車両に取り付けられていることとなる。
図13Fの例では、仮想カメラが、仮想カメラ1310の位置にありその光軸の仰角βがβ1であるときと、仮想カメラ1311の位置にありその光軸の仰角βがβ2であるときの2例が示されている。仰角β1は、仰角α2よりも仰角α1に近く、仰角β2は、仰角α1よりも仰角α2に近い関係にある。
例えば、図7に示すように、車両速度に応じて仮想カメラの光軸の角度をより水平に近づくように変化させる場合に、図13Fの例では、仮想カメラが仮想カメラ1310の位置から仮想カメラ1311の位置に変化する。この際、仮想カメラの光軸の仰角は、カメラ1301の光軸の仰角α1よりもカメラ1302の光軸の仰角α2に近づくため、カメラ1301の映像とカメラ1302の映像が重なる領域のブレンド処理において、カメラ1302の映像のブレンド率を優先する方向に変化させればよい。具体的なブレンド率の変化の方法は図13A乃至Eで説明した方位角基準のブレンド率の変化の処理を垂直方向に置き換えれば実現できる。よって、詳細な説明は省略する。
なお、図13A乃至Eで説明した方位角基準のブレンド率の変化処理と、図13Fで説明した仰角基準のブレンド率の変化処理を組合せて、仮想カメラの光軸に対応する方位角、仰角の両者が変化した場合のブレンド率を方位角方向及び仰角方向の両者について変化させてもよい。
図14は、本実施例においてセンサを接続した場合の映像合成装置と映像表示システムを示すブロック図である。
構成は、図1とほぼ同様であるが、通常車両に搭載される以外の様々なセンサ1400を搭載した点が異なる。センサ1400としては、レーダを使って広い範囲の方位とその距離情報を測定できるセンサ、ステレオカメラ、ミリ波や超音波、ソナーなどを使用して自車と周囲の物体との距離を測定し、或いは物体の存在を検出するセンサが考えられる。レーダを使って周囲の3次元空間形状を変形させる例を図15に示す。
構成は、図1とほぼ同様であるが、通常車両に搭載される以外の様々なセンサ1400を搭載した点が異なる。センサ1400としては、レーダを使って広い範囲の方位とその距離情報を測定できるセンサ、ステレオカメラ、ミリ波や超音波、ソナーなどを使用して自車と周囲の物体との距離を測定し、或いは物体の存在を検出するセンサが考えられる。レーダを使って周囲の3次元空間形状を変形させる例を図15に示す。
図15は、本実施例において例えば距離センサで自車周辺の立体物までの距離を検出して形成した空間を示す図である。
自車300の周辺の立体物をレーダで検出し、当該のレーダを搭載したセンサ1500から立体物N(例えば1501a乃至1501d)までの距離をL(例えばL1乃至L4)とする。センサ1500を中心とした半径Rの範囲を展開した平面を考える。先に図3Bで示した場合では、設定した平面上に立体物が存在すると、立体物の一部が平面に張り付いてしまう。
自車300の周辺の立体物をレーダで検出し、当該のレーダを搭載したセンサ1500から立体物N(例えば1501a乃至1501d)までの距離をL(例えばL1乃至L4)とする。センサ1500を中心とした半径Rの範囲を展開した平面を考える。先に図3Bで示した場合では、設定した平面上に立体物が存在すると、立体物の一部が平面に張り付いてしまう。
このため、一番近い立体物までの距離をRとして、これより遠い位置の画像を球面オブジェクトに貼り付けることが考えられる。図15では、4つの立体物1501a乃至1501dがセンサ1500で検出でき、それぞれの立体物までの距離L1~L4の最小値であるL4を半径Rとする平面オブジェクト1506を地面とする。これにより、立体物1501a乃至1501dは周囲に配置された球面上に貼り付けられ、地面に貼り付けられた場合に発生するような違和感のない画像を得られるというメリットがある。
また、平面オブジェクト1506のように、立体物と半径Rの誤差が所定値よりも小さい範囲で半径Rを決めても良い。この場合、一部の立体物は設定した平面に貼り付けられ違和感のある画像になるが、多くの立体物は地面から立ち上がるような画像となり、全般的には違和感の少ない立体画像が作成可能である。本例では半径Rを算出する手法を記載しているが、レーダにより正確な周囲の立体情報が取れれば、その立体情報を元に3次元空間を生成し、そこにカメラ画像を投影することにより、より現実に近い立体画像が作成可能である。
図16A乃至図16Dは、本実施例において視点変換される前後の画像及び画像中の画素の対応を説明するための図である。
図16Aは、本実施例における車両周辺に設定される空間の第3の見取り図である。
図16Bは、本実施例において図16Aのカメラ301が撮像した画像を示す図である。
図16Cは、本実施例において図16Bの画像を仮想カメラ305から見るよう視点変換した画像を示す図である。
図16Aは、本実施例における車両周辺に設定される空間の第3の見取り図である。
図16Bは、本実施例において図16Aのカメラ301が撮像した画像を示す図である。
図16Cは、本実施例において図16Bの画像を仮想カメラ305から見るよう視点変換した画像を示す図である。
前記したように、3次元的にオブジェクト空間を設定し、撮影画像をテクスチャとしてマッピングすることにより視点変換を実現することができる。しかし、図1の画像合成装置100の空間生成部105及び画像変換部106が、画像を3次元的なオブジェクト空間にテクスチャマッピングすることができない場合には、画像の視点変換用に入力画像と出力画像との座標対応を表すテーブルデータを事前に作成し、2次元のテクスチャマッピングにて視点変換を行う方法がある。
図16Dは、本実施例における入力画像と出力画像との座標対応を表すテーブルデータの一例を示す図であり、図16Bに示す変換前画像を入力画像とし、図16Cに示す変換後画像を出力画像として、それぞれの画像中の座標の対応点を示したテーブルデータの例である。
図16Dでは、図16Bにおける座標(uin,n,vin,n)の画素の色情報が図16Cにおける座標(uout,n,vout,n)の画素の色情報に対応していることを示している。例えば図16Bにおける画素1601Aの色情報が、図16Cにおける画素1601Bにマッピングされることを示している。
図16Dでは、図16Bにおける座標(uin,n,vin,n)の画素の色情報が図16Cにおける座標(uout,n,vout,n)の画素の色情報に対応していることを示している。例えば図16Bにおける画素1601Aの色情報が、図16Cにおける画素1601Bにマッピングされることを示している。
この座標対応のテーブルデータは、入力画像の全画素もしくは出力画像の全画素を網羅するだけのデータ数を持たせても良いし、離散的な対応点を持たせてその間の画素の色情報を適切な補間処理方法にて求めても良い。この場合の適切な補間処理方法としては、バイリニア法やバイキュービック法など一般的な補間手法が挙げられる。
図17A乃至図17Dは、対応点を離散的に有する場合を説明するための図である。
図17Aは、本実施例においてカメラ301が撮像した画像を示す図であり、先の図16Bと同様であるが、×印が離散的なサンプリング点を示している。図17Aは、入力画像中の画素を等間隔でサンプリングする例を示す。
図17Bは、本実施例において図17Aの画像を仮想カメラ305から見るよう視点変換した画像を示す図であり、先の図16Cと同様であるが、図17Aにおけるサンプリング点の視点変換後の位置が×印で示されている。
なお、図17Aにおけるサンプリング点のうち1701で示す一点は、図17Bにおいて1702で示す一点に変換されている。
図17Aは、本実施例においてカメラ301が撮像した画像を示す図であり、先の図16Bと同様であるが、×印が離散的なサンプリング点を示している。図17Aは、入力画像中の画素を等間隔でサンプリングする例を示す。
図17Bは、本実施例において図17Aの画像を仮想カメラ305から見るよう視点変換した画像を示す図であり、先の図16Cと同様であるが、図17Aにおけるサンプリング点の視点変換後の位置が×印で示されている。
なお、図17Aにおけるサンプリング点のうち1701で示す一点は、図17Bにおいて1702で示す一点に変換されている。
図17Cは、本実施例においてカメラ301が撮像した画像を示す図であり、先の図17Aと同様であるが、×印で示す離散的なサンプリング点が図17Aとは異なる例を示している。図17Cは、入力画像中の画素を画像の輪郭をはじめとする特徴点でサンプリングする例を示す。
図17Dは、本実施例において図17Cの画像を仮想カメラ305から見るよう視点変換した画像を示す図であり、先の図17Bと同様であるが、サンプリング点の視点変換後の位置が異なっている。
図17Cにおけるサンプリング点のうち1703で示す一点は、図17Dにおいて1704で示す一点、即ち画像の輪郭をはじめとする特徴点に変換されている。
図17Dは、本実施例において図17Cの画像を仮想カメラ305から見るよう視点変換した画像を示す図であり、先の図17Bと同様であるが、サンプリング点の視点変換後の位置が異なっている。
図17Cにおけるサンプリング点のうち1703で示す一点は、図17Dにおいて1704で示す一点、即ち画像の輪郭をはじめとする特徴点に変換されている。
3次元状のオブジェクト空間にテクスチャマッピングできないような画像合成装置においては、仮想カメラもしくは3次元状のオブジェクト形状を動的に変える場合、事前に座標対応点のテーブルデータを複数作成し、これを切り替えることにより表示映像を変更することができる。
図18A乃至図18Cは、本実施例において仮想カメラの位置が異なる場合を説明するための図である。
図18Aは、本実施例において仮想カメラ305が図6のEに位置する時の視点変換後の画像を示す。
図18Bは、本実施例において仮想カメラ305が図6のDに位置する時の視点変換後の画像を示す。
なお、図18A及び図18Bの画像は、図17Aで示した画像を基に変換されているものとする。
図18Aは、本実施例において仮想カメラ305が図6のEに位置する時の視点変換後の画像を示す。
図18Bは、本実施例において仮想カメラ305が図6のDに位置する時の視点変換後の画像を示す。
なお、図18A及び図18Bの画像は、図17Aで示した画像を基に変換されているものとする。
図18Cは、本実施例における視点変換する前後の画像の座標対応点を示すテーブルデータであり、図中Inputは図17Aにおける変換前画像中の各サンプリング点、図中Output_ViewEは図18Aにおける変換後画像中の各サンプリング点、図中Output_ViewDは図18Bにおける変換後画像中の各サンプリング点に対応している。即ち、仮想カメラ305の位置に応じて異なるテーブルデータを有している。図6において、仮想カメラ305の位置はEの時とDの時とでは離れているため、仮想カメラの位置に応じてテーブルデータを切り替えて映像表示させると、視点の移動が不連続になって、表示される画像が連続的に切り替わらない問題がある。
そこで本実施例では、仮想カメラ位置もしくは3次元上のオブジェクト形状を変化させ、座標対応点のテーブルデータの間を離散的に作成した時、間のテーブルデータを線形補間演算によって求める。図18Aにおける視点Eと図18Bにおける視点Dを、w:(1-w)で内分する視点のテーブルデータ(uout_w,n,vout_w,n)は、図18Cにおける(uout_E,n,vout_E,n)及び(uout_D,n,vout_D,n)を用いて、次のように求められる。
離散的に作成されたテーブルデータに対し、内分する点を十分に設けて補間演算によりテーブルデータを求めることにより、連続的な画像の切り替えを実現することができる。
本発明における画像の合成方法に関しては、画像の特徴が抽出された位置の画素毎にブレンド率を算出しても良いし、重畳エリアで同じブレンド率を利用して合成しても良い。このように様々な変更を加えた実施例が考えられるが、いずれも本発明の範疇にある。
本発明における画像の合成方法に関しては、画像の特徴が抽出された位置の画素毎にブレンド率を算出しても良いし、重畳エリアで同じブレンド率を利用して合成しても良い。このように様々な変更を加えた実施例が考えられるが、いずれも本発明の範疇にある。
100:映像合成装置、101:カメラ、102:デコード部、103:バス、104:車両情報、105:空間生成部、106:画像変換部、107:カメラ情報部、108:CPU、109:メモリ部、110:エンコード部、111:モニタ、201:カメラ撮影画像、202:仮想カメラ撮影画像、300:自車、301:カメラ、302:立体物、303:道路、304:球面オブジェクト、305:仮想カメラ。
Claims (11)
- 複数のカメラが撮影した車両周囲の映像を取得して、合成した画像をモニタに出力する映像合成装置であって、
車両の速度、進行方向、及びハンドル角に係る情報を含む、前記車両に関する車両情報に基づいて仮想的な視点を定め、当該視点に応じて、前記複数のカメラが撮影した映像を投影するための、道路を想定した平面と前記車両を包み込むような球面の一部で表現される仮想的な3次元空間を生成する空間生成部と、
前記視点に基づいて前記複数のカメラが撮影した映像を前記3次元空間に投影し、合成画像を生成する画像変換部と、
前記画像変換部が生成した合成画像をエンコードしてモニタに出力するエンコード部と、
を有することを特徴とする映像合成装置。 - 請求項1に記載の映像合成装置であって、
前記空間生成部は、前記車両情報に含まれる前記車両の速度に係る情報に基づいて、前記球面の半径を定める
ことを特徴とする映像合成装置。 - 請求項2に記載の映像合成装置であって、
前記空間生成部は、前記車両の速度が高速ほど、前記球面の半径が小さくなるように定める
ことを特徴とする映像合成装置。 - 請求項1に記載の映像合成装置であって、
前記空間生成部は、前記車両情報に含まれる前記車両の速度、進行方向、及びハンドル角に係る情報に基づいて、前記視点の位置、及び当該視点からの視線方向を定める
ことを特徴とする映像合成装置。 - 請求項4に記載の映像合成装置であって、
前記空間生成部は、前記車両情報のうち、車両の進行方向、及びハンドル角に係る情報に基づいて前記車両が進む方向を検出し、当該方向に前記視点の視線方向を定める
ことを特徴とする映像合成装置。 - 請求項1~5のいずれかに記載の映像合成装置であって、
前記画像変換部が生成する合成画像に、複数の前記カメラが撮像した映像が重畳して合成される領域がある場合に、
前記画像変換部は、前記空間生成部が定めた前記視点に応じて前記領域における合成画像において前記複数のカメラが撮像した映像のブレンド率を定める
ことを特徴とする映像合成装置。 - 請求項6に記載の映像合成装置であって、
前記画像変換部は、前記空間生成部が定めた前記視点の方向と前記複数のカメラの各光軸方向とに基づいて算出する角度に基づいて前記ブレンド率を定めるものであり、
前記複数のカメラのうち前記角度の小さいカメラが撮像した映像のブレンド率を高めて前記合成映像を生成する
ことを特徴とする映像合成装置。 - 請求項1に記載の映像合成装置であって、
前記空間生成部は、前記3次元空間を構成する平面を前記車両から周囲の物体までの距離を検出するセンサから取り込んだ距離に係る情報の内、最も短い距離に基づく半径を持つ平面とする前記3次元空間を生成する
ことを特徴とする映像合成装置。 - 請求項1に記載の映像合成装置であって、
前記空間生成部は、前記複数のカメラの各々に対して前記視点を定め、当該の視点に応じた球面による3次元空間を生成する
ことを特徴とする映像合成装置。 - 複数のカメラが撮影した映像を合成してモニタに表示する映像表示システムであって、
複数のカメラと、
前記複数のカメラが撮影した映像を合成する映像合成装置と、
前記映像合成装置が合成して生成した画像を表示するモニタと
を備え、
前記映像合成装置は、
複数のカメラが撮影した映像を投影するための仮想的な3次元空間を生成し、当該3次元空間における仮想的な視点を設定する空間生成部と、
前記仮想的な3次元空間に前記複数のカメラが撮影した映像を投影し、当該投影映像と前記仮想的な視点に応じて合成画像を生成する画像変換部と、
当該の画像変換部が生成した前記合成画像を、前記モニタに表示するために2次元画像データとしてエンコードするエンコード部と、
前記映像合成装置が搭載される車両に関する車両情報を取得する車両情報取得部と、
を有し、
前記空間生成部は、前記仮想的な視点の位置及び前記仮想的な視点からの視線方向の設定を、前記車両情報取得部で取得した車両情報に応じて変更し、
前記画像変換部は、前記投影映像において、前記複数のカメラが撮影した映像同士が重なって前記仮想的な3次元空間に投影される領域における重なった複数の映像のブレンド率を、少なくとも前記空間生成部で変更した前記仮想的な視点からの視線方向の設定に応じて変更する
ことを特徴とする映像表示システム。 - 複数のカメラが撮影した映像を取得して合成する映像合成方法であって、
前記複数のカメラが搭載される車両に関する車両情報を取得する車両情報取得ステップと、
複数のカメラが撮影した映像を投影するための仮想的な3次元空間を生成する空間生成ステップと、
当該3次元空間における仮想的な視点を設定する視点設定ステップと、
前記仮想的な3次元空間に前記複数のカメラが撮影した映像を投影し、当該投影映像と前記仮想的な視点に応じて合成画像を生成する合成画像生成ステップと、
を有し、
前記視点設定ステップでは、前記仮想的な視点の位置及び前記仮想的な視点からの視線方向の設定を、前記車両情報取得ステップで取得した車両情報に応じて変更し、
前記合成画像生成ステップでは、前記投影映像において、前記複数のカメラが撮影した映像同士が重なって前記仮想的な3次元空間に投影される領域における重なった複数の映像のブレンド率を、少なくとも前記視点設定ステップで変更した前記仮想的な視点からの視線方向の設定に応じて変更する
ことを特徴とする映像合成方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-139663 | 2013-07-03 | ||
JP2013139663A JP6310652B2 (ja) | 2013-07-03 | 2013-07-03 | 映像表示システム、映像合成装置及び映像合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015002031A1 true WO2015002031A1 (ja) | 2015-01-08 |
Family
ID=52143610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/066716 WO2015002031A1 (ja) | 2013-07-03 | 2014-06-24 | 映像表示システム、映像合成装置及び映像合成方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6310652B2 (ja) |
WO (1) | WO2015002031A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194501A1 (ja) * | 2014-06-20 | 2015-12-23 | クラリオン株式会社 | 映像合成システムとそのための映像合成装置及び映像合成方法 |
WO2019134838A1 (en) * | 2018-01-08 | 2019-07-11 | Connaught Electronics Ltd. | Method for generating a representation of an environment by shifting a virtual camera towards an interior mirror of a motor vehicle; as well as camera device |
CN111476869A (zh) * | 2019-01-24 | 2020-07-31 | 湖南深度体验智能技术有限公司 | 一种面向计算媒体的虚拟摄像机规划方法 |
CN111587572A (zh) * | 2018-01-19 | 2020-08-25 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
CN114556912A (zh) * | 2019-10-17 | 2022-05-27 | 株式会社东海理化电机制作所 | 图像处理装置和图像处理程序 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015202863A1 (de) * | 2015-02-17 | 2016-08-18 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges |
JP6406159B2 (ja) | 2015-08-04 | 2018-10-17 | 株式会社デンソー | 車載表示制御装置、車載表示制御方法 |
JP2017033402A (ja) | 2015-08-04 | 2017-02-09 | 株式会社デンソー | 車載表示制御装置、車載表示制御方法 |
DE112015007054B4 (de) * | 2015-11-20 | 2019-11-28 | Mitsubishi Electric Corp. | Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm |
US10523865B2 (en) * | 2016-01-06 | 2019-12-31 | Texas Instruments Incorporated | Three dimensional rendering for surround view using predetermined viewpoint lookup tables |
DE102016217488A1 (de) * | 2016-09-14 | 2018-03-15 | Robert Bosch Gmbh | Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs |
US20180152628A1 (en) * | 2016-11-30 | 2018-05-31 | Waymo Llc | Camera peek into turn |
DE102016224904A1 (de) * | 2016-12-14 | 2018-06-14 | Conti Temic Microelectronic Gmbh | Dreidimensionales Rundumsichtsystem |
EP3633598B1 (en) | 2017-05-30 | 2021-04-14 | Sony Semiconductor Solutions Corporation | Image processing device, image processing method, and program |
EP3675485B1 (en) * | 2017-08-25 | 2021-03-24 | Nissan Motor Co., Ltd. | Surrounding vehicle display method and surrounding vehicle display apparatus |
JP7013751B2 (ja) * | 2017-09-15 | 2022-02-01 | 株式会社アイシン | 画像処理装置 |
JP7091624B2 (ja) * | 2017-09-15 | 2022-06-28 | 株式会社アイシン | 画像処理装置 |
JP2019185381A (ja) * | 2018-04-10 | 2019-10-24 | クラリオン株式会社 | 車両周囲画像生成装置 |
DE112020000836T5 (de) * | 2019-03-19 | 2022-01-05 | Hitachi Astemo, Ltd. | Auswertungseinrichtung für ein Kamerasystem und Auswertungsverfahren |
WO2021048584A1 (ja) * | 2019-09-12 | 2021-03-18 | 日産自動車株式会社 | 駐車支援方法及び駐車支援装置 |
CN111918035B (zh) * | 2020-07-31 | 2022-04-15 | 上海励驰半导体有限公司 | 车载环视方法、装置、存储介质及车载终端 |
JPWO2022249318A1 (ja) * | 2021-05-26 | 2022-12-01 | ||
WO2023188046A1 (ja) * | 2022-03-29 | 2023-10-05 | 株式会社ソシオネクスト | 画像処理装置、画像処理方法、及び画像処理プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206702A (ja) * | 2008-02-27 | 2009-09-10 | Fujitsu Ltd | 画像処理装置、画像処理方法 |
JP2010128951A (ja) * | 2008-11-28 | 2010-06-10 | Fujitsu Ltd | 画像処理装置、画像処理方法及びコンピュータプログラム |
JP2012138660A (ja) * | 2010-12-24 | 2012-07-19 | Nissan Motor Co Ltd | 車両用表示装置 |
-
2013
- 2013-07-03 JP JP2013139663A patent/JP6310652B2/ja active Active
-
2014
- 2014-06-24 WO PCT/JP2014/066716 patent/WO2015002031A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206702A (ja) * | 2008-02-27 | 2009-09-10 | Fujitsu Ltd | 画像処理装置、画像処理方法 |
JP2010128951A (ja) * | 2008-11-28 | 2010-06-10 | Fujitsu Ltd | 画像処理装置、画像処理方法及びコンピュータプログラム |
JP2012138660A (ja) * | 2010-12-24 | 2012-07-19 | Nissan Motor Co Ltd | 車両用表示装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194501A1 (ja) * | 2014-06-20 | 2015-12-23 | クラリオン株式会社 | 映像合成システムとそのための映像合成装置及び映像合成方法 |
JPWO2015194501A1 (ja) * | 2014-06-20 | 2017-04-27 | クラリオン株式会社 | 映像合成システムとそのための映像合成装置及び映像合成方法 |
US10449900B2 (en) | 2014-06-20 | 2019-10-22 | Clarion, Co., Ltd. | Video synthesis system, video synthesis device, and video synthesis method |
WO2019134838A1 (en) * | 2018-01-08 | 2019-07-11 | Connaught Electronics Ltd. | Method for generating a representation of an environment by shifting a virtual camera towards an interior mirror of a motor vehicle; as well as camera device |
CN111699516A (zh) * | 2018-01-08 | 2020-09-22 | 康诺特电子有限公司 | 用于通过将虚拟相机朝向机动车辆的内后视镜移位来生成环境的表示的方法;以及相机设备 |
US11044395B2 (en) | 2018-01-08 | 2021-06-22 | Connaught Electronics Ltd. | Method for generating a representation of an environment by shifting a virtual camera towards an interior mirror of a motor vehicle; as well as camera device |
CN111699516B (zh) * | 2018-01-08 | 2023-12-29 | 康诺特电子有限公司 | 车辆环境表示的方法、装置、计算机可读介质及相机设备 |
CN111587572A (zh) * | 2018-01-19 | 2020-08-25 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
CN111476869A (zh) * | 2019-01-24 | 2020-07-31 | 湖南深度体验智能技术有限公司 | 一种面向计算媒体的虚拟摄像机规划方法 |
CN111476869B (zh) * | 2019-01-24 | 2022-09-06 | 湖南深度体验智能技术有限公司 | 一种面向计算媒体的虚拟摄像机规划方法 |
CN114556912A (zh) * | 2019-10-17 | 2022-05-27 | 株式会社东海理化电机制作所 | 图像处理装置和图像处理程序 |
CN114556912B (zh) * | 2019-10-17 | 2024-09-20 | 株式会社东海理化电机制作所 | 图像处理装置和计算机程序产品 |
Also Published As
Publication number | Publication date |
---|---|
JP2015015527A (ja) | 2015-01-22 |
JP6310652B2 (ja) | 2018-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6310652B2 (ja) | 映像表示システム、映像合成装置及び映像合成方法 | |
JP6311020B2 (ja) | 映像合成システムとそのための映像合成装置及び映像合成方法 | |
JP7245295B2 (ja) | 車両・被牽引車両コンビの周辺シーンを表示するための方法、並びに、装置 | |
JP7010221B2 (ja) | 画像生成装置、画像生成方法、及び、プログラム | |
JP5444338B2 (ja) | 車両周囲監視装置 | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
JP5500255B2 (ja) | 画像処理装置および画像処理プログラム | |
JP5077307B2 (ja) | 車両周囲画像表示制御装置 | |
JP7247173B2 (ja) | 画像処理方法及び装置 | |
JP6276719B2 (ja) | 画像生成装置、座標変換テーブル作成装置および作成方法 | |
JP2008083786A (ja) | 画像生成装置および画像生成方法 | |
CN101487895B (zh) | 显示鸟瞰车辆图像的倒车雷达系统 | |
CN102291541A (zh) | 一种车辆虚拟合成显示系统 | |
CN106104629B (zh) | 用于将由摄像机系统从不同位置拍摄的单个图像合并成一个共同的图像的方法 | |
TW201605247A (zh) | 影像處理系統及方法 | |
CN108290499B (zh) | 带有自适应周围环境图像数据处理功能的驾驶员辅助系统 | |
JP6029459B2 (ja) | 画像合成装置、および画像合成方法 | |
JP6007773B2 (ja) | 画像データ変換装置並びにナビゲーションシステムおよびカメラ装置並びに車両 | |
KR20110082873A (ko) | 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법 | |
JP4339749B2 (ja) | 画像生成方法および画像生成装置 | |
JP7301476B2 (ja) | 画像処理装置 | |
JP5196472B2 (ja) | 画像表示処理プログラム、及び、画像表示処理システム | |
WO2023095340A1 (ja) | 画像処理方法、画像表示方法、画像処理装置、及び画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14820321 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 14820321 Country of ref document: EP Kind code of ref document: A1 |