WO2015098156A1 - 視界支援装置、視界支援方法、及び視界支援プログラム - Google Patents

視界支援装置、視界支援方法、及び視界支援プログラム Download PDF

Info

Publication number
WO2015098156A1
WO2015098156A1 PCT/JP2014/068231 JP2014068231W WO2015098156A1 WO 2015098156 A1 WO2015098156 A1 WO 2015098156A1 JP 2014068231 W JP2014068231 W JP 2014068231W WO 2015098156 A1 WO2015098156 A1 WO 2015098156A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
image
traveling direction
moving body
Prior art date
Application number
PCT/JP2014/068231
Other languages
English (en)
French (fr)
Inventor
宜之 伊豆
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2015098156A1 publication Critical patent/WO2015098156A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a visual field support device, a visual field support method, and a visual field support program.
  • Patent Document 1 A technique for displaying a photographed image obtained by photographing the rear of a vehicle on a display unit provided in the vehicle is disclosed (for example, Patent Document 1 and Patent Document 2).
  • Patent Document 1 automatically reflects the visual field adjustment result of one display image by the user on the display image corresponding to each of the left and right rear captured images of the vehicle displayed on the display unit.
  • Technology is disclosed.
  • Patent Document 2 discloses that an image is corrected so that a region closer to the far side of the host vehicle in the captured image becomes less clear in order to give a perspective to a display image obtained by capturing the rear of the vehicle. .
  • a moving body such as a vehicle travels while changing the moving speed and traveling direction.
  • the moving body changes the traveling direction, it is necessary for the driver of the moving body to drive more carefully, and it may be difficult to check the situation behind the moving body.
  • image display focusing on the traveling direction of the moving body has not been made.
  • the present invention has been made in view of the above, and mainly provides a field-of-view support device, a field-of-view support method, and a field-of-view support program capable of performing rear view support according to the traveling direction of a moving object. With a purpose.
  • the visual field support device of the present invention includes an imaging unit, a traveling direction detection unit, a generation unit, and a display control unit.
  • the imaging unit is mounted on the moving body and images a rear area of the moving body.
  • the traveling direction detection unit detects the traveling direction of the moving body.
  • the generation unit generates display images having different ranges displayed according to the traveling direction based on the captured image obtained by capturing.
  • the display control unit controls the display image to be displayed on the display unit mounted on the moving body.
  • the visual field support method of the present invention includes a detection step for detecting a traveling direction of a moving body, and a detection step based on a captured image that is mounted on the moving body and obtained by an imaging unit that captures a rear region of the moving body. Generating a display image having a different range to be displayed according to the traveling direction detected in the step, and displaying the display image generated in the generating step on a display unit mounted on the moving body. And a display step for controlling.
  • the visual field support program includes a detection step for detecting a traveling direction of a moving body, and a detection step based on a captured image that is mounted on the moving body and obtained by an imaging unit that captures a rear region of the moving body. Generating a display image having a different range to be displayed according to the traveling direction detected in the step, and displaying the display image generated in the generating step on a display unit mounted on the moving body. It is a visual field assistance program for making a computer which can be used in a mobile perform a display step to control.
  • FIG. 1 is a functional block diagram showing the visual field support device.
  • FIG. 2 is an explanatory diagram of an installation position of the photographing unit.
  • FIG. 3 is an explanatory diagram of an installation position of the photographing unit.
  • FIG. 4 is an explanatory diagram of the installation position of the display unit.
  • FIG. 5 is an explanatory diagram of the positional relationship between the display area and the frame portion.
  • FIG. 6 is an explanatory diagram of the cutout range.
  • FIG. 7 is an explanatory diagram of the center of the display area.
  • FIG. 8A is a diagram illustrating an example of a display image.
  • FIG. 8B is a diagram illustrating an example of a display image.
  • FIG. 8C is a diagram illustrating an example of a display image.
  • FIG. 8A is a diagram illustrating an example of a display image.
  • FIG. 8B is a diagram illustrating an example of a display image.
  • FIG. 8C is a diagram illustrating an example of
  • FIG. 9 is a flowchart illustrating the procedure of the visibility support process.
  • FIG. 10 is an explanatory diagram of a rectangular cutout range.
  • FIG. 11 is an explanatory diagram of a superimposed image.
  • FIG. 12A is a diagram illustrating a display image as a superimposed image.
  • FIG. 12B is a diagram illustrating a display image as a superimposed image.
  • FIG. 12C is a diagram illustrating a display image as a superimposed image.
  • FIG. 13 is a functional block diagram illustrating the visual field support device.
  • FIG. 14 is an explanatory diagram of vanishing points.
  • FIG. 15 is a flowchart showing the procedure of the visibility support process.
  • FIG. 16 is a functional block diagram illustrating the visual field support device.
  • FIG. 17 is a flowchart showing the procedure of the visibility support process.
  • FIG. 18 is a diagram illustrating an example of a display image.
  • FIG. 19 is a diagram illustrating an example of
  • FIG. 1 is a functional block diagram showing a visual field support device 10 according to the present embodiment.
  • the visual field support device 10 is mounted on a moving body.
  • the field-of-view support device 10 is a device that supports the rear view of a passenger of a moving object, particularly a driver.
  • the moving object is an automobile
  • the purpose is to replace or assist a rear-viewing mirror such as a side mirror. It is a device to do.
  • the moving body changes its moving speed.
  • the moving body is, for example, a vehicle.
  • the vehicle is a moving body such as a two-wheeled vehicle, a three-wheeled vehicle, a four-wheeled vehicle, or the like that requires information on the rear side of the moving body when the driver is driving forward. It is.
  • a case where the moving body is a four-wheel automobile (hereinafter referred to as a vehicle) will be described.
  • the visual field support device 10 includes a control unit 12, a photographing unit 14, a display unit 16, and a storage unit 17.
  • the imaging unit 14 captures a rear area of the vehicle and acquires a captured image. In the present embodiment, the imaging unit 14 acquires a wide-angle captured image.
  • An example of the photographing unit 14 is a photographing device such as a camera.
  • the captured image may be moving image data or a group of still image data continuously captured at predetermined intervals.
  • the rear of the vehicle means a direction opposite to the normal traveling direction of the vehicle (the direction in which the steering wheel is provided in the vehicle).
  • the rear region is preferably a region including both the rear of the vehicle and the road surface on which the vehicle is traveling. Further, the rear region is more preferably a region including a side surface of the vehicle, the rear of the vehicle, and a road surface on which the vehicle is traveling. In addition, it is particularly preferable that the rear area of the vehicle includes at least an area corresponding to a mirror image reflected on a side mirror provided in the vehicle 36.
  • the photographing unit 14 is adjusted in advance so that the rear region can be photographed by adjusting the installation position, installation direction, angle of view, and the like of the photographing unit 14 in advance.
  • the photographing unit 14 is installed at a position where a region corresponding to a mirror image reflected on a side mirror provided in the vehicle can be photographed as a rear region of the vehicle.
  • the imaging unit 14 can acquire a wide-angle captured image so as to be compatible with various sizes and extraction positions of the extraction range P described later.
  • the photographing unit 14 includes a first photographing unit 14A and a second photographing unit 14B.
  • the first imaging unit 14A and the second imaging unit 14B have the same configuration except that the installation positions in the vehicle are different.
  • FIGS. 2 and 3 are explanatory diagrams showing an example of an installation position of the photographing unit 14.
  • the visual field support device 10 of the present embodiment may be used in combination with a side mirror.
  • the first photographing unit 14A is installed on the right side surface of the vehicle 36.
  • the orientation of the camera in the first imaging unit 14A is adjusted to an orientation in which the rear area of the vehicle 36 can be imaged.
  • it is good also as a structure which can provide the drive part which abbreviate
  • the orientation of the camera may be automatically adjusted by the control unit 12 described later, or may be manually adjustable.
  • the second photographing unit 14B is installed on the left side surface of the vehicle 36. Similarly to the first photographing unit 14A, the second photographing unit 14B may have a configuration in which the orientation of the camera can be changed automatically or manually by a user operation.
  • photography part 14 should just be installed in the position which can image
  • the photographing unit 14 is preferably installed integrally with the body of the vehicle 36.
  • the photographing unit 14 is preferably installed integrally with the body of the vehicle 36.
  • the display unit 16 displays the captured image obtained by the imaging unit 14.
  • the display unit 16 is a known display device that displays various images.
  • the display unit 16 displays a display image, which will be described later, generated by the control unit 12.
  • the display unit 16 includes a first display unit 16A and a second display unit 16B.
  • 16 A of 1st display parts display the display image corresponding to the picked-up image image
  • the second display unit 16B displays a display image corresponding to the captured image captured by the second imaging unit 14B.
  • the display unit 16 is installed in the vehicle 36. Specifically, the display unit 16 is not limited to being installed in the passenger compartment as long as the driver of the vehicle 36 can view the display image while driving.
  • FIG. 4 is an explanatory diagram showing an example of an installation position of the display unit 16.
  • the display unit 16 is installed in the vicinity of the steering wheel 30 provided in the vehicle 36 and at a place where the driver of the vehicle 36 can easily see while driving.
  • the display unit 16 is provided on both sides of the instrument panel 28 in the dashboard 26.
  • the first display unit 16A that displays a display image corresponding to the captured image of the rear region on the right side of the vehicle 36 is disposed on the right side of the instrument panel 28 in the dashboard 26.
  • a second display unit 16 ⁇ / b> B that displays a display image corresponding to a captured image of the rear region on the left side of the vehicle 36 is disposed on the left side of the instrument panel 28 in the dashboard 26.
  • the display part 16 should just be installed in the location which is easy to be visually recognized by the driver
  • the display part 16 may be installed on the dashboard 26, for example, and may be provided in the front pillar. Further, it may be integrated with the instrument panel 28.
  • the dashboard 26 has a horizontally long display surface, the center portion is used as the instrument panel 28, and the left and right sides of the instrument panel 28 are used as the second display portion 16B and the first display portion 16A.
  • FIG. 5 is an explanatory diagram of the positional relationship between the display area E and the frame part 32 in the display unit 16.
  • the display unit 16 includes a frame unit 32.
  • the frame portion 32 is disposed so as to cover a part of the outside of the display region E so that the display region E in the display unit 16 has a shape similar to the shape of the mirror surface of the side mirror.
  • the mirror surface shape of the side mirror here is a mirror surface shape of a side mirror installed in the vehicle or a side mirror installed in a vehicle equivalent to the vehicle. Specific examples include a shape corresponding to the vehicle type and application, such as a mirror shape as shown in FIG. 5 frequently used for sedan type vehicles, and a vertically long shape installed in vehicles such as off-road vehicles, trucks, and buses.
  • the frame part 32 should just be comprised with the color and material which can cover a part of display image displayed on the display area E of the display part 16 so that it cannot be visually recognized.
  • the frame portion 32 is made of a black resin.
  • the storage unit 17 is a storage device that stores various data, and is, for example, a known storage medium such as an HDD or an internal memory.
  • the storage unit 17 may be a removable storage medium or another device via a network or the like as long as the visibility support device 10 can be used.
  • the control unit 12 is a computer that includes a CPU (Central Processing Unit) and the like, and controls the entire visual field support device 10. Note that the control unit 12 may be a circuit other than the CPU.
  • CPU Central Processing Unit
  • the control unit 12 includes a detection unit 18, a generation unit 20, and a display control unit 22.
  • a part or all of the detection unit 18, the generation unit 20, and the display control unit 22 may be realized by causing a processing device such as a CPU to execute a program, that is, by software, or an IC (Integrated Circuit).
  • a processing device such as a CPU to execute a program, that is, by software, or an IC (Integrated Circuit).
  • Such hardware may be used, or software and hardware may be used in combination.
  • the detecting unit 18 detects the moving speed of the vehicle 36 on which the visibility support device 10 is mounted.
  • the detection unit 18 detects the moving speed by acquiring vehicle speed information from a control unit (not shown) of the vehicle 36 main body.
  • the detection method of the moving speed of the vehicle 36 should just be a well-known method, and is not limited to the said method.
  • the detecting unit 18 detects the moving speed or the inter-vehicle distance of the other vehicle when there is another vehicle behind the vehicle 36.
  • a known method such as millimeter wave radar provided as the detection unit 18 or image processing of a camera that captures the rear is applied to the inter-vehicle distance of other vehicles.
  • the moving speed of the other vehicle is based on the moving speed of the vehicle 36 detected by the detection unit 18, and a known method such as calculation from the transition of the inter-vehicle distance of the other vehicle is applied.
  • the generation unit 20 generates a display image having a different range in which the captured image obtained by the imaging of the imaging unit 14 is displayed according to the moving speed detected by the detection unit 18. In other words, the generation unit 20 displays each frame included in the captured image by enlarging or reducing each frame according to the moving speed detected at a timing that coincides with the capturing timing of each frame. Display images with different ranges are generated.
  • the generation unit 20 generates a display image obtained by enlarging the photographed image at a higher magnification as the moving speed detected by the detection unit 18 increases.
  • the generation unit 20 includes a cutout unit 20A and an enlargement unit 20B.
  • the cutout unit 20A cuts out a cutout image in a predetermined cutout range from the shot image obtained by the shooting unit 14.
  • FIG. 6 is an explanatory diagram illustrating an example of the cutout range P.
  • a cut-out image of the cut-out range P is extracted from the shot image obtained by the first shooting unit 14A corresponding to the display image displayed on the first display unit 16A. The case of cutting out was shown. The same applies to the second imaging unit 14B and the second display unit 16B. 6 shows an example in which the cutout part 20A cuts out a cutout image in the shape of the display area E. However, since the display area E is defined by the shape of the frame part 32, You may cut out the cut image in the same shape.
  • the cutout unit 20A cuts out the cutout image 42 from the photographed image 40 in the narrow cutout range P as the moving speed detected by the detection unit 18 increases. Note that the moving speed used when the cutout unit 20A cuts out the cutout image 42 is the movement speed detected at the same timing as the shooting timing of the shot image 40.
  • the storage unit 17 stores in advance range information in which the moving speed is associated with the size of the cutout range P. This range information is set so that the cutout range P becomes narrower as the moving speed of the vehicle 36 is faster.
  • the storage unit 17 is configured such that the detected moving speed is less than a predetermined first threshold (for example, less than 50 km / h), greater than or equal to the first threshold and less than the second threshold (for example, greater than or equal to 50 km / h and less than 80 km), and greater than or equal to the second threshold.
  • the range information is not limited to the size of the cutout range P corresponding to these three stages of moving speeds, and further, the size of the cutout range P corresponding to each of the multistage moving speeds is registered. Also good.
  • the size of the cutout range P1 is registered in association with the moving speed less than the first threshold.
  • the range information registers the size of the cutout range P2 that is narrower than the cutout range P1 in association with the moving speed that is greater than or equal to the first threshold and less than the second threshold.
  • the size of the cutout range P3 narrower than the cutout range P2 is registered in association with the moving speed equal to or higher than the second threshold.
  • the storage unit 17 stores in advance the shape of the cutout range P and the position of the cutout range P.
  • the shape of the cut-out range P stored in the storage unit 17 stores in advance a shape similar to the shape of the rectangle or the mirror surface of the side mirror as described above. Note that the shape of the cutout range P is not limited to the above shape.
  • the storage unit 17 stores in advance information indicating that the position of the center C1 in the captured image 40 is the center position of the cutout range P as the position of the cutout range P.
  • the cutout unit 20A includes the position of the cutout range P stored in the storage unit 17, the shape of the cutout range P, the size of the cutout range P corresponding to the moving speed detected by the detection unit 18, and , And the cutout range P of the read position with the read shape and size is cut out from the captured image 40. Accordingly, the cutout unit 20A cuts out the cutout image 42 from the captured image 40.
  • the position of the cutout range P can be appropriately changed by an operation instruction or the like of an operation unit (not shown) by a driver of the vehicle 36 or the like.
  • the control unit 12 stores the changed position of the cutout range P in the storage unit 17.
  • the cutout unit 20A has a size of the cutout range P corresponding to the position of the cutout range P stored in the storage unit 17, the shape of the cutout range P, and the moving speed detected by the detection unit 18. And the cut image 42 is cut out.
  • the position of the cutout range P of the captured image 40 can be easily changed by an operation instruction from the user.
  • the storage unit 17 replaces the range information with a first calculation formula for calculating the size of the cutout range P so that the cutout range P becomes narrower as the moving speed detected by the detection unit 18 increases. It may be stored in advance.
  • the cutout unit 20A reads the position of the cutout range P and the shape of the cutout range P stored in the storage unit 17. In addition, the cutout unit 20A calculates the size of the cutout range P according to the moving speed detected by the detection unit 18 using the first calculation formula. Then, the cutout unit 20A cuts out the cutout range P of the read position with the read shape and the calculated size from the captured image 40. Accordingly, the cutout unit 20A may cut out the cutout image 42 from the captured image 40.
  • the enlargement unit 20B generates a display image in which the cut image 42 is enlarged to a magnification according to the moving speed detected by the detection unit 18.
  • the enlargement unit 20B generates a display image by enlarging the cutout image 42 at a higher magnification as the moving speed is faster.
  • the moving speed used by the enlarging unit 20B when enlarging the cut-out image 42 is the movement speed detected at the same timing as the shooting timing of the cut-out image 42 of the cut-out image 42.
  • the enlargement unit 20B enlarges the cut image 42 to a size displayed on the entire display area E of the display unit 16 (hereinafter referred to as “first size”).
  • size shall be a magnitude
  • the cutout unit 20A cuts out the cutout image 42 from the captured image 40 in the cutout range P that becomes narrower as the moving speed detected by the detection unit 18 increases.
  • the enlarging unit 20B enlarges the cutout image 42 having different sizes according to the moving speed to the same first size, and as a result, the faster the moving speed, the cutout image 42 is displayed. It will be enlarged at high magnification.
  • the cutout unit 20A may cut out the cutout image 42 in the cutout range P having the same size regardless of the moving speed of the vehicle 36.
  • the enlargement unit 20B may perform the following process.
  • the enlargement unit 20B enlarges the cut-out image 42 of the cut-out range P cut out by the cut-out unit 20A larger than the cut-out range P and the higher the moving speed, the higher the magnification.
  • the enlargement unit 20B may use a display image obtained by trimming the outer periphery of the enlarged cutout image 42 to a size that can be displayed in the display area E of the display unit 16.
  • the enlargement unit 20B enlarges the cutout image 42
  • the center image located at the center C1 of the captured image 40 in the cutout image 42 is positioned at the center in the display area E of the display unit 16.
  • the cut image 42 is enlarged. That is, the enlargement unit 20B enlarges the cutout image 42 while maintaining the positional relationship between the center C1 of the captured image 40 and the center of the display unit 16 in the display area E.
  • FIG. 7 is an explanatory diagram of the center C2 of the display area E.
  • the enlargement unit 20B enlarges the cutout image 42 so that the center image located at the center C1 of the cutout image 42 shown in FIG. 6 is located at the center C2 in the display area E of the display unit 16 shown in FIG. A display image 44 is generated.
  • the frame portion 32 is provided on the outer periphery of the display area E in the display portion 16.
  • the frame portion 32 is disposed so as to cover a part of the outside of the display region E so that the display region E in the display unit 16 has a shape similar to the shape of the mirror surface of the side mirror.
  • the visual field assistance apparatus 10 can enlarge the same image as the case where the mirror image reflected on a side mirror is confirmed visually according to a moving speed, and can provide it to a driver
  • the display area E of the display section 16 can be made variable by the frame section 32, the display area E of the display area E can be changed according to the vehicle type or the like regardless of the predetermined shape of the display area E of the display section 16.
  • the shape can be customized.
  • FIGS. 8A, 8B, and 8C are diagrams illustrating an example of the display image 44 generated by the generation unit 20, and show a range that is not covered by the frame unit 32.
  • FIG. Further, when the generation unit 20 cuts out the display image into a shape similar to the shape of the mirror surface of the side mirror, FIGS. 8A, 8B, and 8C show the cut out display image.
  • FIG. 8A is a diagram illustrating an example of a display image 44A generated by the generation unit 20 when the detected moving speed is less than a predetermined first threshold (for example, less than 50 km / h).
  • FIG. 8B is a diagram illustrating an example of a display image 44B generated by the generation unit 20 when the detected moving speed is greater than or equal to the first threshold value and less than the second threshold value (for example, greater than or equal to 50 km and less than 80 km per hour).
  • FIG. 8C is a diagram illustrating an example of the display image 44C generated by the generation unit 20 when the detected moving speed is equal to or higher than the second threshold (80 km / h or higher).
  • the cutout image 42 is cut out in the cutout range P (the cutout range P1, the cutout range P2, and the cutout range P3 (see FIG. 6)) as the moving speed increases. Is enlarged at a magnification according to the moving speed. Accordingly, the generation unit 20 generates a display image 44 (a display image 44A, a display image 44B, and a display image 44C) in which the cut image 42 cut out from the captured image 40 is enlarged at a higher magnification as the moving speed is faster ( FIG. 8A, FIG. 8B, and FIG. 8C).
  • generation part 20 expands the cut image 42 cut out from the picked-up image 40 obtained by the 1st imaging
  • the visual field support device 10 can provide the driver with an image similar to that when the mirror image reflected on the side mirror is visually confirmed according to the moving speed.
  • the generation unit 20 enlarges the display image 44 by enlarging the cut-out image 42 cut out from the captured image 40 by the cut-out unit 20A at a magnification corresponding to the moving speed by the enlargement unit 20B.
  • the case of generating was explained.
  • the generation unit 20 may generate the display image 44 by enlarging the captured image 40 itself at a higher magnification as the moving speed increases. In this case, for example, the generation unit 20 may generate the display image 44 by trimming the outer periphery of the enlarged captured image 40 to a shape and size that match the display area E of the display unit 16. .
  • the display control unit 22 performs control to display the display image 44 generated by the generation unit 20 on the display unit 16.
  • the display control unit 22 performs control to display the display image 44 generated according to the captured image 40 acquired from the first imaging unit 14A on the first display unit 16A.
  • the display control unit 22 performs control to display the display image 44 generated according to the captured image 40 acquired from the second imaging unit 14B on the second display unit 16B.
  • FIG. 9 is a flowchart showing the procedure of the visibility support process executed by the control unit 12.
  • the on state is a state where power is supplied to the electrical components and the power system of the vehicle 36.
  • the end timing in FIG. 9 is a timing at which power supply to the electrical components and the power system in the vehicle 36 is turned off.
  • the start and end may be operated by an arbitrary operation of the user.
  • start timing and the end timing when the key of the vehicle 36 is a smart key, it starts when the key is within a predetermined range of the vehicle 36 and ends when the key is out of the predetermined range. To do. Furthermore, there are an interlock between start and end by opening and closing the door of the vehicle 36, and an interlock between start and end by the detection result of the seating sensor on the driver seat.
  • the control unit 12 transmits a signal indicating the start of shooting to the shooting unit 14 (step S100).
  • the imaging unit 14 receives a signal indicating the start of imaging, the imaging unit 14 starts imaging the rear region of the vehicle 36 and starts outputting the captured image 40 obtained by imaging to the control unit 12.
  • each of the first photographing unit 14A and the second photographing unit 14B starts photographing the rear region of the vehicle 36, and starts outputting the photographed image 40 to the control unit 12.
  • the detection unit 18 starts detecting the moving speed of the vehicle 36 (step S102).
  • the detection unit 18 starts to detect the moving speed of the vehicle 36 by receiving information indicating the vehicle speed of the vehicle 36 from a control unit (not shown) for driving control provided in the vehicle 36.
  • step S100 and step S102 may be started simultaneously. Further, the process of step S102 may be started before the process of step S100.
  • the cutout unit 20A cuts out the cutout image 42 in the narrow cutout range P from the captured image 40 acquired from the image pickup unit 14 as the moving speed detected by the detection unit 18 increases (step S104).
  • the enlargement unit 20B enlarges the cut-out image 42 cut out by the cut-out unit 20A to a higher magnification as the moving speed detected by the detection unit 18 increases (step S106).
  • the enlargement unit 20B generates the display image 44 by the process of step S106.
  • the display control unit 22 performs control to display the display image 44 generated by the process of step S106 on the display unit 16 (step S108).
  • control unit 12 determines whether or not the display by the visibility support process is finished (step S110).
  • the control unit 12 sends a signal indicating the end of the visibility support process from the control unit that omits the illustration of the vehicle 36, such as determining whether or not a signal indicating engine stop has been received from the control unit that omits the vehicle 36. By determining whether or not it has been received, the determination in step S110 is performed.
  • step S110: No When the control part 12 has not acquired the signal which shows the completion
  • control part 12 complete
  • the captured image 40 obtained by the photographing unit 14 is enlarged according to the moving speed of the vehicle 36 while the engine of the vehicle 36 is started.
  • the image 44 is displayed on the display unit 16.
  • the generation unit 20 uses the magnification according to the moving speed of the vehicle 36 detected by the detection unit 18 for the captured image 40 obtained by the imaging unit 14. Expand to. Then, the display control unit 22 performs control to display the display image 44 generated by enlarging the captured image 40 by the generation unit 20 on the display unit 16 mounted on the vehicle 36.
  • the visual field support device 10 can perform backward visual field support according to the moving speed of the vehicle 36.
  • the visual field assistance apparatus 10 of the present embodiment provides the driver who drives the vehicle 36 with an enlarged image of the rear region that becomes more difficult to confirm as the moving speed of the vehicle 36 increases. be able to. For this reason, the visual field assistance apparatus 10 can further perform suitable rear visual field assistance according to a moving speed.
  • FIG. 8A, FIG. 8B, FIG. 8C, and FIG. 9 can be enlarged or reduced when the driver visually observes the display image 44 when the change in the moving speed of the vehicle 36 is gentle. , Can properly grasp the situation behind.
  • the change in the moving speed of the vehicle 36 is abrupt, the change in enlargement or reduction of the display image 44 changes in a short time.
  • the inter-vehicle distance of the succeeding vehicle detected by the detection unit 18 and the moving speed of the succeeding vehicle may be superimposed on the display image 44.
  • the display image enlargement or reduction processing may be delayed for a predetermined time. Thereby, a user's misrecognition can be prevented.
  • the display unit 16 may be configured without the frame unit 32.
  • the visual field support device 10 that generates a display image 44 by superimposing a display frame image on a display image enlarged according to the moving speed of the vehicle 36 will be described.
  • the cutout unit 20A cuts out the cutout image 42 in the cutout range P having a rectangular shape from the captured image 40.
  • FIG. 10 is an explanatory diagram of a rectangular cutout area PA. As illustrated in FIG. 10, the cutout unit 20 ⁇ / b> A cuts out a cutout image 46 of a rectangular cutout range PA as a cutout image 42 from the captured image 40.
  • the enlargement unit 20B superimposes the display frame image on the display image obtained by enlarging the cutout image 46 in the same manner as described above to generate a superimposed image.
  • FIG. 11 is an explanatory diagram of the superimposed image 50.
  • the enlarging unit 20 ⁇ / b> B superimposes the display frame image 52 on the display image 45 obtained by enlarging the cutout image 46, and generates the superimposed image 50 as the display image 44.
  • the display frame image 52 is an image that covers the end of the display image 45.
  • the area of the display frame image 52 that covers the edge of the display image 45 may form the mirror surface of the side mirror by always covering a certain area, but the moving speed detected by the detection unit 18 is fast. It may be as narrow as possible.
  • the enlargement unit 20B creates a display frame image 52 with a smaller area covering the end of the display image 45 and superimposes it on the display image 45 as the moving speed detected by the detection unit 18 increases. Then, the superimposed image 50 created by the superposition is generated as a display image 44 to be displayed on the display unit 16.
  • the region Q that is not covered by the display frame image 52 in the superimposed image 50 may be similar in shape to the mirror surface of a side mirror provided in the vehicle 36 or provided in another vehicle similar to the vehicle 36. preferable.
  • the enlargement unit 20B creates the display frame image 52 and superimposes it on the display image 45 so that the shape of the region Q is similar to the mirror surface of the side mirror.
  • the display frame image 52 is an image having a color and density that can clearly distinguish the region Q of the display image 45 from the display frame image 52.
  • the display frame image 52 is a black image.
  • the display control unit 22 displays in the display frame image 52 a notification image and a notification character such as warning information and emergency information received from a control unit (not shown) for driving control provided in the vehicle 36. You may let them.
  • These notification images and notification characters may be any color and density that are visible to the driver of the vehicle 36.
  • FIG. 12A, 12B, and 12C are diagrams illustrating an example of the display image 44 as the superimposed image 50 generated by the generation unit 20.
  • FIG. 12A, 12B, and 12C are diagrams illustrating an example of the display image 44 as the superimposed image 50 generated by the generation unit 20.
  • FIG. 12A is a diagram illustrating an example of a display image 50A generated by the generation unit 20 when the detected moving speed is less than a predetermined first threshold (for example, less than 50 km / h).
  • FIG. 12B is a diagram illustrating an example of a display image 50B generated by the generation unit 20 when the detected moving speed is greater than or equal to a first threshold value and less than a second threshold value (for example, greater than or equal to 50 km and less than 80 km per hour). is there.
  • FIG. 12C is a diagram illustrating an example of the display image 50C generated by the generation unit 20 when the detected moving speed is equal to or higher than the second threshold (80 km / h or higher).
  • the cutout portion 20A cuts out a cut image 46 (see FIG. 10) cut out with a narrow cutout area PA as the moving speed increases, and the enlarged portion 20B moves in the moving speed. Enlarge at a magnification according to. Thereby, the enlargement unit 20B generates the display image 45 (45A to 45C). The enlargement unit 20B generates the display frame image 52 (52A to 52C) having a smaller area covering the end of the display image 45 (45A to 45C) as the movement speed detected by the detection unit 18 increases.
  • the enlargement unit 20B generates a superimposed image 50 (50A to 50C) in which the display frame image 52 (52A to 52C) is superimposed on the display image 45 (45A to 45C) as the display image 44 to be displayed on the display unit 16. .
  • the visual field support device 10 of the present modification can perform appropriate backward visual field support according to the moving speed of the vehicle 36 as in the first embodiment.
  • the display image 45 (45A to 45C) of the visual field support device 10 described above was enlarged at a magnification according to the detected moving speed by the processing of the enlargement unit 20B.
  • the magnification of the display image 45 may be unchanged.
  • the display frame image 52 becomes narrower as the moving speed of the vehicle 36 becomes faster, so that the display area of the display image 45 becomes relatively larger. For this reason, appropriate rear view support can be performed according to the moving speed of the vehicle 36.
  • the cutout image 42 is generated with the center C1 in the captured image 40 as the center position of the cutout range P.
  • the clipped image 42 is enlarged while maintaining the positional relationship between the position of the vanishing point in the captured image and the position of the vanishing point in the enlarged display image.
  • FIG. 13 is a functional block diagram showing the visual field support device 11 of the present embodiment.
  • the visual field support device 11 is mounted on a moving body. Similar to the first embodiment, the visual field support device 11 is described as being mounted on a vehicle as a moving body.
  • the visual field support device 11 includes a control unit 13, a photographing unit 14, a display unit 16, and a storage unit 17.
  • the photographing unit 14, the display unit 16, and the storage unit 17 are the same as those in the first embodiment.
  • the control unit 13 is a computer including a CPU and the like, and controls the entire visual field support device 11.
  • the control unit 13 may be a circuit other than the CPU.
  • the control unit 13 includes a detection unit 18, a generation unit 21, and a display control unit 23.
  • the detection unit 18 is the same as that in the first embodiment. Some or all of the detection unit 18, the generation unit 21, and the display control unit 23 may be realized by causing a processing device such as a CPU to execute a program, that is, by software or hardware such as an IC. It may be realized by a combination of software and hardware.
  • the generation unit 21 includes a cutout unit 20A, a calculation unit 21B, and an enlargement unit 21C.
  • the calculating unit 21B calculates the vanishing point of the photographed image 40 obtained by the photographing unit 14. Specifically, the calculation unit 21B calculates a vanishing point for each of the captured image 40 obtained by the first imaging unit 14A and the captured image 40 obtained by the second imaging unit 14B. A known method is used as the vanishing point calculation method. The calculation unit 21B may calculate the vanishing point of the captured image 40 by calculating the vanishing point of the cutout image 42 cut out by the cutout unit 20A.
  • FIG. 14 is an explanatory diagram of the vanishing point C3.
  • the calculation unit 21B calculates the vanishing point C3 from the captured image 40 using a known calculation method.
  • a method for calculating the vanishing point C3 there is a method described in Japanese Patent Application Laid-Open No. 2010-160567.
  • the cutout unit 20A cuts out the cutout image 42 in the cutout range P from the captured image 40 in the same manner as in the first embodiment.
  • a description will be given of a case where the cutout unit 20A cuts out a cutout image 42 in the cutout range P including the vanishing point C3 calculated by the calculation unit 21B, as shown in FIG.
  • the enlargement unit 21C enlarges the cut image 42 cut out by the cutout unit 20A to a magnification corresponding to the moving speed detected by the detection unit 18. 44 is generated.
  • the enlargement unit 21C enlarges the cutout image 42, the relative position of the vanishing point C3 in the captured image 40 calculated by the calculation unit 21B and the vanishing point in the display image 44 generated from the cutout image 42.
  • the cut-out image 42 is enlarged so that the relative positions of the two coincide with each other. That is, the enlarging unit 21C enlarges the captured image 40 while maintaining the positional relationship between the relative position of the vanishing point C3 in the captured image 40 and the relative position of the vanishing point in the enlarged display image 44.
  • the display control unit 23 performs control to display the display image 44 generated by the generation unit 21 on the display unit 16. Similar to the first embodiment, the display control unit 23 performs control to display the display image 44 generated according to the captured image 40 acquired from the first imaging unit 14A on the first display unit 16A. In addition, the display control unit 23 performs control to display the display image 44 generated according to the captured image 40 acquired from the second imaging unit 14B on the second display unit 16B.
  • FIG. 15 is a flowchart showing the procedure of the visibility support process executed by the control unit 13.
  • the control unit 13 performs the processing of step S200 to step S202 in the same manner as the processing of step S100 to step S102 executed by the control unit 12 in the visual field support device 10 of the first embodiment (see FIG. 9).
  • the calculation unit 21B calculates the vanishing point C3 of the captured image 40 (step S204).
  • control unit 13 performs the processing of step S206 to step S212 in the same manner as step 104 to step S110 of the first embodiment (see FIG. 9).
  • the cutout unit 20A cuts out the cutout image 42 in the cutout range P having a size corresponding to the moving speed detected by the detection unit 18 from the shot image 40 acquired from the shooting unit 14 (step S206).
  • the enlargement unit 21C enlarges the cut-out image 42 cut out by the cut-out unit 20A at a higher magnification as the moving speed detected by the detection unit 18 increases (step S208). At this time, the enlargement unit 21C matches the relative position of the vanishing point C3 in the captured image 40 calculated by the calculation unit 21B with the relative position of the vanishing point in the display image 44 generated from the cut image 42. Then, the cut image 42 is enlarged. The enlargement unit 21C generates the display image 44 by the process of step S208.
  • the display control unit 23 performs control to display the display image 44 generated by the process of step S208 on the display unit 16 (step S210).
  • control unit 13 determines whether or not the display by the visibility support process is finished (step S212).
  • the control unit 13 determines in step S212 in the same manner as in step S110 (see FIG. 9).
  • step S212 If the control unit 13 has not acquired a signal indicating the end of the visibility support process (step S212: No), the process returns to step S202.
  • control part 13 complete
  • the relative position of the vanishing point C3 in the captured image 40 calculated by the calculation unit 21B
  • the clipped image 42 is enlarged so that the relative position of the vanishing point in the display image 44 generated from the clipped image 42 matches.
  • the visual field support device 11 of the present embodiment further provides the driver with a display image having the same shooting situation as that of the shooting unit 14 so that the driver can see the display image. be able to.
  • FIG. 16 is a functional block diagram showing the visual field support device 100 of the present embodiment.
  • the visual field support device 100 is mounted on a moving body as in the first and second embodiments, and hereinafter, a case where it is mounted on a vehicle that is a moving body will be described.
  • the visual field support device 100 includes a control unit 120, a photographing unit 140, a display unit 160, and a storage unit 170.
  • the imaging unit 140, the display unit 160, and the storage unit 170 are the same as the imaging unit 14, the display unit 16, and the storage unit 17, respectively.
  • the control unit 120 has the same configuration as that of the control unit 12 and the control unit 13 except that the control unit 120 includes a traveling direction detection unit 180 instead of the detection unit 18 as a function.
  • the control unit 120 includes a generation unit 120 similar to the generation unit 21.
  • the cutout part 120A and the enlarged part 120B correspond to the cutout part 20A and the enlarged part 21C.
  • the display control unit 122 corresponds to the display control unit 23.
  • the traveling direction detection unit 180 detects the traveling direction of the vehicle 36 on which the visual field support device 100 is mounted.
  • the traveling direction is a direction predicted to be reached in the future (for example, after a predetermined time).
  • the traveling direction is a planned traveling direction at an intersection or the like scheduled to reach.
  • the traveling direction detection unit 180 As a specific method of detecting the traveling direction in the traveling direction detection unit 180, a method using the winker information acquired from the control unit of the main body of the vehicle 36, a method using on-off information acquired from the winker, and the like can be applied. In this case, for example, when the driver operates the blinker, the traveling direction detection unit 180 detects the direction of the blinker that has detected the start of operation as the traveling direction.
  • the traveling direction detection unit 180 acquires the current position information of the vehicle 36 from the navigation device, in addition to the route information, in particular, information on a point where a change in the traveling direction such as a left or right turn is planned as a route. Based on these pieces of information, the traveling direction detection unit 180 changes the traveling direction when the current position information of the vehicle 36 is, for example, 10 meters before a point such as an intersection where the traveling direction is to be changed. The direction after the change is detected as the traveling direction.
  • the traveling direction detection unit 180 acquires the current position information of the vehicle 36 from the navigation device, in addition to the route information, particularly appropriate lane information on the route. Based on these pieces of information, the traveling direction detection unit 180 changes the lane because the traveling lane determined by the current position information of the vehicle 36 is different from the lane for appropriately traveling in the planned traveling direction. Judgment is required. When it is determined that a lane change is required, the traveling direction detection unit 180 acquires the direction of the lane to be changed as the traveling direction. For example, the direction in which the traveling direction is changed is detected as the traveling direction when it is 100 meters before an intersection or a branching point.
  • FIG. 17 is a flowchart showing the procedure of the visibility support process executed by the control unit 120.
  • the control unit 120 performs the process of step S300 in the same manner as the process of step S100 executed by the control unit 12 in the visual field support device 10 of the first embodiment.
  • the traveling direction detector 180 starts detecting the traveling direction (step S302).
  • the traveling direction detection unit 180 starts detection of the traveling direction by starting acquisition of a signal based on the operation of the blinker, information acquired from the navigation device, and the like. Note that the processing of step S300 and step S302 may be started simultaneously.
  • the display unit 160 of the visual field support device 100 is displaying the normal state.
  • the display in the normal state here refers to an image captured by the photographing unit 140, the cutting unit 120 ⁇ / b> A cuts out an image in a predetermined range as a default value, and the enlargement unit 120 ⁇ / b> B is predetermined as a default value.
  • the display control unit 122 displays an image that has been enlarged or reduced to the specified magnification.
  • the default values of the cutout part 120A and the enlargement part 120B are preferably the same as or close to the range and the enlargement ratio that the side mirror installed in the vehicle or a side mirror installed in a vehicle equivalent to the vehicle is projected.
  • the advancing direction detection unit 180 determines whether or not the advancing direction is sequentially detected after starting the advancing direction detection process in the process of step S302 (step S304). When it is determined in step S304 that the traveling direction has been detected (step S304: Yes), the cutout unit 120A changes the cutout range of the image captured by the photographing unit 140 corresponding to the traveling direction determined in step S304. (Step S306).
  • the image whose cutout range is changed in step S306 is an image according to the traveling direction of the image captured by the first image capturing unit 140A or the image captured by the second image capturing unit 140B in the image capturing unit 140.
  • the traveling direction detected in the determination in step S304 causes an action to move the vehicle 36 to the right, such as a right turn or a change of the branch point to the right, and further to the right lane
  • the first photographing unit 140A The image taken by is the target.
  • the traveling direction detected in the determination in step S304 causes an operation to move the vehicle 36 to the left, such as a left turn or a branch point changing to the left, and further to the left lane
  • the second photographing unit Images taken by 140B are targets.
  • the change of the cutout range in the process of step S306 is to cut out a range wider than the cutout range in a state where the traveling direction is not detected in step S304, for example.
  • the enlargement unit 120B performs a reduction process of the captured image corresponding to the traveling direction so that the image cut out in step S306 is appropriately displayed in the display range of the display unit 160.
  • the image photographed by the photographing unit 140 corresponding to the traveling direction is generated as an image for displaying a wide range by the processing in step S306 and step S308.
  • the display control unit 122 performs control to display the display image generated by the processing of step S306 and step S308 on the display unit 160 (step S310).
  • step S310 determines whether or not the display by the visual field support process has ended (step S312). .
  • the determination in step S312 is the same determination as in step S110 in the first embodiment.
  • FIG. 18 is an example of a normal display mode by the processes up to step S300 and step S302.
  • FIG. 19 is an example of a display form when it is detected that the traveling direction is the left direction in step S304 and the processing from step S306 to step S310 is performed. 18 and 19 are cut out in the same manner as in FIGS. 8A, 8B, and 8C, when they are cut out in a range not covered by the frame portion 32, or in a shape similar to the shape of the mirror surface of the side mirror. A display image is shown.
  • an image displayed on the second display unit 160B corresponding to the left direction is This is the target for changing the clipping range.
  • an image displayed on the first display unit 160A corresponding to the right direction is not a target for changing the clipping range.
  • the second display unit 160B displays an image cut out from a wider range than usual (image of the second display unit 160B in FIG. 18). Thereby, it becomes possible to perform appropriate visual field support according to the traveling direction of the moving body.
  • the center position of the cutout range may be the center or vanishing point of the photographed image as in the first or third embodiment.
  • the position opposite to the traveling direction may be fixed, and only the traveling direction side may be widely cut out.
  • the image displayed on the second display unit 160B in FIG. 19 is fixed in the position opposite to the left (right side) in the traveling direction with respect to the image displayed on the second display unit 160B in FIG. This is an example in which the direction side is widely cut out.
  • the superimposed image 50 may be displayed as in the first embodiment. Furthermore, the superimposed image 50 in the state in which the processing from step 306 to step S310 is performed on the superimposed image 50 in the state in which the processing from step S300 to step S302 has been performed is shown in FIGS. 12A, 12B, and 12C. Similarly, the area may be narrowed.
  • the visual field support device 10, the visual field support device 11, and the visual field support device 100 are configured to include the control unit 12, the control unit 120, the storage unit 17, and the storage unit 170 as a moving body.
  • the display unit 16 and the display unit 160 are configured by a display device that is provided in advance in a vehicle that is a moving body, but a portable display terminal is provided at an appropriate position in the vehicle. You may comprise by.
  • the various programs for executing the visual field support processing executed by the visual field support device 10, the visual field support device 11, and the visual field support device 100 according to the above embodiment and the modification are files in an installable format or an executable format.
  • the control unit 12 and the control unit 120 are stored in advance in a ROM that can be used, but may be provided by being recorded on a recording medium that can be read by a device including the control unit 12 and the control unit 120.
  • various programs for executing the visual field support processing executed by the visual field support device 10, the visual field support device 11, and the visual field support device 100 may be provided by being downloaded via a network.
  • the various programs for executing the visual field support processing executed by the visual field support device 10, the visual field support device 11, and the visual field support device 100 according to the embodiment and the modification are functional units for executing the above-described processing.
  • the CPU processor
  • the CPU reads the program from the storage medium and executes it to load the functional units onto the main storage device. It is to be generated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

 視界支援装置(100)は、撮影部(140)と、進行方向検出部(180)と、生成部(120)と、表示制御部(122)と、を備える。撮影部(140)は、移動体に搭載され、移動体の後方領域を撮影する。進行方向検出部(180)は、移動体の進行方向を検出する。生成部(120)は、撮影によって得られた撮影画像に基づき進行方向に応じて表示される範囲の異なる表示画像を生成する。表示制御部(122)は、表示画像を、移動体に搭載された表示部(160)に表示するように制御する。

Description

視界支援装置、視界支援方法、及び視界支援プログラム
 本発明は、視界支援装置、視界支援方法、及び視界支援プログラムに関する。
 車両後方を撮影した撮影画像を、車両内に設けられた表示部に表示する技術が開示されている(例えば、特許文献1、特許文献2)。特許文献1には、表示部に表示された、車両の左右後方の撮影画像の各々に対応する表示画像について、ユーザによる一方の表示画像の視野調整結果を他方の表示画像に自動的に反映させる技術が開示されている。特許文献2には、車両後方を撮影した表示画像に遠近感を持たせるために、撮影画像における、自車の遠方側の領域ほど非鮮明となるように画像を補正することが開示されている。
特開2011-217318号公報 特開2013-187562号公報
 車両等の移動体は、移動速度や進行方向を変化させながら走行する。移動体が進行方向を変化させるときは、移動体の運転者は、より細心の注意を払って運転を行う必要があり、移動体後方の状況確認がし難い場合がある。また、運転者は、変化後の進行方向に対して、より細心の注意を払って運転することが望ましい。しかし、従来の技術では、移動体の進行方向に着目した画像表示はなされていなかった。
 本発明は、上記に鑑みてなされたものであって、移動体の進行方向に応じた後方視界支援を行うことができる、視界支援装置、視界支援方法、及び視界支援プログラムを提供することを主な目的とする。
 本発明の視界支援装置は、撮影部と、進行方向検出部と、生成部と、表示制御部と、を備える。撮影部は、移動体に搭載され、移動体の後方領域を撮影する。進行方向検出部は、移動体の進行方向を検出する。生成部は、撮影によって得られた撮影画像に基づき進行方向に応じて表示される範囲の異なる表示画像を生成する。表示制御部は、表示画像を、移動体に搭載された表示部に表示するように制御する。
 本発明の視界支援方法は、移動体の進行方向を検出する検出ステップと、前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された進行方向に応じて表示される範囲の異なる表示画像を生成する生成ステップと、前記生成ステップにおいて生成された前記表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、を含む視界支援方法である。
 本発明の視界支援プログラムは、移動体の進行方向を検出する検出ステップと、前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された進行方向に応じて表示される範囲の異なる表示画像を生成する生成ステップと、前記生成ステップにおいて生成された前記表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、を移動体において利用可能なコンピュータに実行させるための視界支援プログラムである。
 本発明によれば、移動体の進行方向に応じた後方視界支援を行うことができる、という効果を奏する。
図1は、視界支援装置を示す機能ブロック図である。 図2は、撮影部の設置位置の説明図である。 図3は、撮影部の設置位置の説明図である。 図4は、表示部の設置位置の説明図である。 図5は、表示領域と枠部との位置関係の説明図である。 図6は、切出範囲の説明図である。 図7は、表示領域の中心の説明図である。 図8Aは、表示画像の一例を示す図である。 図8Bは、表示画像の一例を示す図である。 図8Cは、表示画像の一例を示す図である。 図9は、視界支援処理の手順を示すフローチャートである。 図10は、矩形形状の切出範囲の説明図である。 図11は、重畳画像の説明図である。 図12Aは、重畳画像としての表示画像を示す図である。 図12Bは、重畳画像としての表示画像を示す図である。 図12Cは、重畳画像としての表示画像を示す図である。 図13は、視界支援装置を示す機能ブロック図である。 図14は、消失点の説明図である。 図15は、視界支援処理の手順を示すフローチャートである。 図16は、視界支援装置を示す機能ブロック図である。 図17は、視界支援処理の手順を示すフローチャートである。 図18は、表示画像の一例を示す図である。 図19は、表示画像の一例を示す図である。
 以下に添付図面を参照して、実施の形態にかかる視界支援装置、視界支援方法、及び視界支援プログラムの実施の形態を詳細に説明する。
(実施の形態1)
 図1は、本実施の形態の視界支援装置10を示す機能ブロック図である。
 視界支援装置10は、移動体に搭載されている。視界支援装置10は、移動体の搭乗者、特に、運転者の後方視界を支援する装置であり、移動体が自動車である場合は、サイドミラー等の後方確認用ミラーの置き換えまたは補助を目的とする装置である。移動体は、移動速度の変化するものである。移動体は、例えば、車両等である。車両は、2輪自動車、3輪自動車、4輪自動車等の自動車など、運転者が前方を向いて運転する際に、運転者が移動体の後方の情報を必要とするような移動体が対象である。本実施の形態では、一例として、移動体が、4輪自動車(以下、車両と称する)である場合を説明する。
 視界支援装置10は、制御部12、撮影部14、表示部16、及び記憶部17を備える。
 撮影部14は、車両の後方領域を撮影し、撮影画像を取得する。本実施の形態では、撮影部14は、広角の撮影画像を取得する。撮影部14の例としては、カメラ等の撮影装置である。
 撮影画像は、動画像データであってもよいし、予め定められた間隔で連続撮影した静止画像データの群であってもよい。
 車両の後方とは、車両の通常の進行方向(車両におけるステアリングホイールの設けられている方向)とは逆の方向を意味する。
 後方領域は、車両の後方と、車両の走行している路面と、の双方を含む領域であることが好ましい。また、後方領域は、車両の側面と、車両の後方と、車両の走行している路面と、を含む領域であることが更に好ましい。また、車両の後方領域は、車両36に設けられたサイドミラーに映る鏡像に対応する領域を、少なくとも含むことが特に好ましい。
 なお、撮影部14は、撮影部14の設置位置、設置方向、画角等を予め調整することで、上記後方領域を撮影可能となるように、予め調整されている。本実施の形態では、撮影部14は、車両に設けられたサイドミラーに映る鏡像に対応する領域を、車両の後方領域として撮影可能な位置に設置されている場合を説明する。
 また、撮像部14は、後述する切出範囲Pの様々な大きさや切出し位置に対応可能なように、広角の撮影画像を取得可能である。
 撮影部14は、第1撮影部14Aと、第2撮影部14Bと、を備える。第1撮影部14Aと第2撮影部14Bは、車両における設置位置が異なる以外は、同じ構成である。
 図2及び図3は、撮影部14の設置位置の一例を示す説明図である。本実施の形態では、車両36の側面に撮影部14のみが備えられた構成を一例として説明する。本実施の形態の視界支援装置10は、サイドミラーと併用されてもよい。
 第1撮影部14Aは、車両36の右側面に設置されている。第1撮影部14Aにおけるカメラの向きは、車両36の後方領域を撮影可能な向きに調整されている。なお、第1撮影部14Aに図示を省略する駆動部を設け、ユーザの操作によってカメラの向きを変更可能な構成としてもよい。カメラの向きは、後述する制御部12によって自動調整されてもよく、手動で調整可能としてもよい。
 第2撮影部14Bは、車両36の左側面に設置されている。第2撮影部14Bにおいても第1撮影部14A同様に、ユーザの操作によってカメラの向きを自動または手動により変更可能な構成としてもよい。
 なお、撮影部14は、車両36の後方領域を撮影可能な位置に設置されていればよく、サイドミラーが設置される位置と同等の位置に限定されない。例えば、撮影部14は、車両の屋根部分、車両の後部、または車両のフェンダー部分等に設置してもよい。
 撮影部14は、車両36のボディーと一体化させて設置することが好ましい。撮像部14の形状または撮像部14を覆うカバー等の装着により、撮影部14を車両のボディーと一体化させて設置することで、車両走行時の空力性能への影響や、風切音等の走行ノイズへの影響を低減することができる。
 図1に戻り、表示部16は、撮影部14によって得られた撮影画像を表示する。表示部16は、各種画像を表示する公知の表示装置である。本実施の形態では、表示部16は、制御部12で生成された後述する表示画像を表示する。
 本実施の形態では、表示部16は、第1表示部16Aと、第2表示部16Bと、を備える。第1表示部16Aは、第1撮影部14Aで撮影された撮影画像に対応する表示画像を表示する。第2表示部16Bは、第2撮影部14Bで撮影された撮影画像に対応する表示画像を表示する。
 表示部16は、車両36に設置されている。詳細には、表示部16は、該車両36の運転者が運転中に表示画像を視認可能な位置であれば、車室内の設置に限らない。
 図4は、表示部16の設置位置の一例を示す説明図である。
 表示部16は、車両36に設けられたステアリングホイール30の近傍で、且つ当該車両36の運転者が運転中に視認しやすい箇所に設置されている。本実施の形態では、表示部16は、ダッシュボード26におけるインスツルメントパネル28の両側に設けられている。表示部16をステアリングホイール30の近傍に配置することで、運転者が表示部16を確認する際に必要な視線の移動を最小とすることができる。さらには、車両36のウィンドシールドや図示しないコンバイナ等を用いて運転者の前方に虚像を投影するヘッドアップディスプレイが存在する場合であっても、運転中に表示部16、インスツルメントパネル28に加えて虚像も含めて、運転者の視界内に表示することができる。
 本実施の形態では、車両36の右側の後方領域の撮影画像に応じた表示画像を表示する第1表示部16Aが、ダッシュボード26におけるインスツルメントパネル28の右側に配置されている。また、車両36の左側の後方領域の撮影画像に応じた表示画像を表示する第2表示部16Bが、ダッシュボード26におけるインスツルメントパネル28の左側に配置されている。
 なお、表示部16は、車両36における、該車両36の運転者によって視認されやすい箇所に設置されていればよく、図4に示す位置に限定されない。表示部16は、例えば、ダッシュボード26上に設置されていてもよく、フロントピラーに設けられていてもよい。また、インスツルメントパネル28と一体化されていてもよい。具体的には、ダッシュボード26に横長形状の表示面を備え、中央部をインスツルメントパネル28として用い、インスツルメントパネル28の左右を第2表示部16Bおよび第1表示部16Aとして用いる。
 表示部16の表示領域の外周は、枠部32によって覆われている。表示領域は、表示画像の表示される領域である。図5は、表示部16における表示領域Eと枠部32との位置関係の説明図である。
 表示部16は、枠部32を備える。枠部32は、表示部16における表示領域Eがサイドミラーの鏡面の形状と相似形状となるように、該表示領域Eの外側の一部を覆うように配置されている。ここでいうサイドミラーの鏡面形状とは、当該車両に設置されているサイドミラーまたは当該車両と同等の車両に設置されるサイドミラーの鏡面形状である。具体例としては、セダンタイプの車両に多用される図5のような鏡面形状や、オフロード車やトラック、バス等の車両に設置される縦長形状等、車種や用途に対応する形状である。枠部32は、表示部16の表示領域Eに表示された表示画像の一部を視認不可能となるように覆うことの可能な色及び材質で構成されていればよい。例えば、枠部32は、黒色の樹脂によって構成されている。
 図1に戻り、記憶部17は、各種データを記憶する記憶装置であり、例えば公知のHDD等の記憶媒体や内部メモリ等である。また、記憶部17は、視界支援装置10が利用できる形態であれば、着脱可能な記憶媒体や、ネットワーク等を介した他の装置であってもよい。
 制御部12は、CPU(Central Processing Unit)などを含んで構成されるコンピュータであり、視界支援装置10全体を制御する。なお、制御部12は、CPU以外の回路等であってもよい。
 制御部12は、検出部18、生成部20、及び表示制御部22を備える。検出部18、生成部20、及び表示制御部22の一部または全ては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
 検出部18は、該視界支援装置10の搭載された車両36の移動速度を検出する。本実施の形態では、検出部18は、車両36本体の制御部(図示省略)から車速情報を取得することで、移動速度を検出する。なお、車両36の移動速度の検出方法は、公知の方法であればよく、上記方法に限定されない。
 また、検出部18は、車両36の移動速度に加えて、車両36の後方に他の車両が存在する場合に、他の車両の移動速度または車間距離を検出する。他の車両の車間距離は、検出部18として備えられているミリ波レーダや、後方を撮影するカメラの画像処理等、公知の手法が適用される。他の車両の移動速度は、検出部18が検出した車両36の移動速度を基準とし、他の車両の車間距離の推移等からの算出など、公知の手法が適用される。
 生成部20は、撮影部14の撮影によって得られた撮影画像を、検出部18で検出された移動速度に応じて表示される範囲の異なる表示画像を生成する。言い換えると、生成部20は、撮影画像における、撮影画像に含まれる各フレームについて、各フレームの撮影タイミングと一致するタイミングで検出された移動速度に応じて、各フレームを拡大または縮小させることにより表示範囲の異なる表示画像を生成する。
 具体的には、生成部20は、検出部18で検出された移動速度が速いほど、撮影画像を高倍率に拡大した表示画像を生成する。
 生成部20は、切出部20A及び拡大部20Bを備える。
 切出部20Aは、撮影部14で得られた撮影画像から、予め定められた切出範囲の切出画像を切り出す。図6は、切出範囲Pの一例を示す説明図である。なお、図6には、説明を簡略化するために、第1表示部16Aに表示する表示画像に対応する第1撮影部14Aで得られた撮影画像から、切出範囲Pの切出画像を切り出す場合を示した。なお、第2撮影部14B及び第2表示部16Bについても同様である。また、図6においては、切出部20Aは表示領域Eの形状に切出画像を切出した例を示したが、表示領域Eは、枠部32の形状により規定されるため、撮影画像40と同一の形状に切出画像を切出してもよい。
 切出部20Aは、検出部18によって検出された移動速度が速いほど、狭い切出範囲Pで、撮影画像40から切出画像42を切り出す。なお、切出部20Aが切出画像42の切り出し時に用いる移動速度は、該撮影画像40の撮影タイミングと同じタイミングで検出された移動速度である。
 ここで、上記記憶部17は、移動速度と、切出範囲Pの大きさと、を対応づけた範囲情報を予め記憶する。この範囲情報は、車両36の移動速度が速いほど、切出範囲Pが狭くなるように設定されている。
 例えば、記憶部17は、検出された移動速度が予め定めた第1閾値未満(例えば、時速50km未満)、第1閾値以上第2閾値未満(例えば、時速50km以上80km未満)、第2閾値以上(時速80km以上)の各々に対して、段階的に狭い切出範囲Pの大きさを対応づけた範囲情報を、予め記憶する。なお、範囲情報は、これらの3段階の移動速度に対応する切出範囲Pの大きさに限定されず、更に多段階の移動速度の各々に対応する切出範囲Pの大きさを登録してもよい。
 例えば、範囲情報は、第1閾値未満の移動速度に対応づけて、切出範囲P1の大きさを登録する。また、範囲情報は、第1閾値以上第2閾値未満の移動速度に対応づけて、切出範囲P1より狭い切出範囲P2の大きさを登録する。また、範囲情報は、第2閾値以上の移動速度に対応づけて、切出範囲P2より狭い切出範囲P3の大きさを登録する。
 また、記憶部17は、切出範囲Pの形状、切出範囲Pの位置を予め記憶する。本実施の形態では、記憶部17に記憶される切出範囲Pの形状は、上述したように矩形またはサイドミラーの鏡面の形状の相似形状を予め記憶する。なお、切出範囲Pの形状は、上記形状に限定されない。
 また、記憶部17は、切出範囲Pの位置として、撮影画像40における中心C1の位置を、切出範囲Pの中心位置とすることを示す情報を、予め記憶している。
 切出部20Aは、記憶部17に記憶されている切出範囲Pの位置と、切出範囲Pの形状と、検出部18で検出された移動速度に対応する切出範囲Pの大きさと、を読取り、読取った形状及び大きさで且つ読取った位置の切出範囲Pを、撮影画像40から切出す。これにより、切出部20Aは、撮影画像40から切出画像42を切り出す。
 なお、切出範囲Pの位置は、車両36の運転者等による図示を省略する操作部の操作指示等によって適宜変更可能である。例えば、ユーザによる図示を省略する操作部の操作指示によって切出範囲Pの位置が変更されると、制御部12は、変更後の切出範囲Pの位置を記憶部17に記憶する。そして、切出部20Aは、記憶部17に記憶されている切出範囲Pの位置と、切出範囲Pの形状と、検出部18で検出された移動速度に対応する切出範囲Pの大きさと、を読取り、切出画像42を切り出す。このため、視界支援装置10では、ユーザによる操作指示によって、撮影画像40の切出範囲Pの位置を容易に変更することができる。
 なお、記憶部17は、範囲情報に代えて、検出部18によって検出された移動速度が速いほど狭い切出範囲Pとなるように、切出範囲Pの大きさを算出する第1算出式を予め記憶してもよい。
 この場合には、切出部20Aは、記憶部17に記憶されている切出範囲Pの位置、及び切出範囲Pの形状を読取る。また、切出部20Aは、第1算出式を用いて、検出部18で検出された移動速度に応じた切出範囲Pの大きさを算出する。そして、切出部20Aは、読取った形状と、算出した大きさで、且つ読取った位置の切出範囲Pを、撮影画像40から切出す。これにより、切出部20Aは、撮影画像40から切出画像42を切り出せばよい。
 拡大部20Bは、切出画像42を、検出部18によって検出された移動速度に応じた倍率に拡大した表示画像を生成する。本実施の形態では、拡大部20Bは、移動速度が速いほど、切出画像42を高倍率に拡大することによって表示画像を生成する。なお、拡大部20Bが切出画像42の拡大時に用いる移動速度は、該切出画像42の切出元の撮影画像40の撮影タイミングと同じタイミングで検出された移動速度である。
 詳細には、拡大部20Bは、切出画像42を、表示部16の表示領域Eの全体に表示される大きさ(以下、「第1の大きさ」と称する)に拡大する。なお、この第1の大きさは、切出部20Aが切出す最も大きい切出範囲Pより大きい大きさであるものとする。
 ここで、上述したように、切出部20Aは、検出部18によって検出された移動速度が速いほど狭い切出範囲Pで、撮影画像40から切出画像42を切り出す。このため、拡大部20Bは、移動速度に応じた大きさの異なる切出画像42を、同じ第1の大きさに拡大することで、結果的に、移動速度が速いほど、切出画像42を高倍率に拡大することとなる。
 なお、切出部20Aは、車両36の移動速度に拘らず同じ大きさの切出範囲Pで切出画像42を切り出してもよい。この場合、拡大部20Bは、次の処理を行えばよい。拡大部20Bは、切出部20Aが切出した切出範囲Pの切出画像42を、該切出範囲Pより大きく、且つ、移動速度が速いほど高倍率に拡大する。そして、拡大部20Bは、拡大後の切出画像42の外周を、表示部16の表示領域Eに表示可能な大きさにトリミングしたものを、表示画像として用いればよい。
 また、拡大部20Bは、切出画像42を拡大するときに、切出画像42における、撮影画像40の中心C1に位置する中心画像が、表示部16の表示領域Eにおける中心に位置するように、切出画像42を拡大する。すなわち、拡大部20Bは、撮影画像40の中心C1と、表示部16の表示領域Eにおける中心と、の位置関係を維持しながら、切出画像42を拡大する。
 図7は、表示領域Eの中心C2の説明図である。拡大部20Bは、図6に示す切出画像42の中心C1に位置する中心画像が、図7に示す表示部16の表示領域Eにおける中心C2に位置するように、切出画像42を拡大し、表示画像44を生成する。
 本実施の形態では、上述したように、表示部16における表示領域Eの外周には、枠部32が設けられている。枠部32は、表示部16における表示領域Eがサイドミラーの鏡面の形状と相似形状となるように、該表示領域Eの外側の一部を覆うように配置されている。
 このため、生成部20が、サイドミラーに映る鏡像と相似形状ではない表示画像44を生成した場合であっても、表示画像44は、枠部32によって該相似形状で視認される。このため、これにより、視界支援装置10は、サイドミラーに映る鏡像を目視で確認した場合と同様の画像を、移動速度に応じて拡大して運転者に対して提供することができる。すなわち、運転者は、サイドミラーを目視する感覚で、表示部16に表示された表示画像44を確認することができる。
 また、枠部32によって表示部16の表示領域Eの形状を可変とすることができるので、予め定められた表示部16の表示領域Eの形状に拘らず、車種等に応じて表示領域Eの形状をカスタマイズすることができる。
 図8A、図8B、および図8Cは、生成部20によって生成された表示画像44の一例を示す図であり、枠部32によって覆われていない範囲を示す。また、生成部20が表示画像をサイドミラーの鏡面の形状の相似形状に切出した場合は、図8A、図8B、および図8Cは、切出された表示画像を示す。
 図8Aは、検出された移動速度が予め定めた第1閾値未満(例えば、時速50km未満)であったときに、生成部20で生成された表示画像44Aの一例を示す図である。図8Bは、検出された移動速度が第1閾値以上第2閾値未満(例えば、時速50km以上80km未満)であったときに、生成部20で生成された表示画像44Bの一例を示す図である。図8Cは、検出された移動速度が第2閾値以上(時速80km以上)であったときに、生成部20で生成された表示画像44Cの一例を示す図である。
 本実施の形態では、切出部20Aが、移動速度が速くなるほど狭い切出範囲P(切出範囲P1、切出範囲P2、切出範囲P3(図6参照))で切出した切出画像42を、拡大部20Bが移動速度に応じた倍率で拡大する。これによって、生成部20は、移動速度が速いほど、撮影画像40から切出した切出画像42を高倍率に拡大した表示画像44(表示画像44A、表示画像44B、表示画像44C)を生成する(図8A、図8B、および図8C参照)。
 また、本実施の形態では、生成部20は、第1撮影部14Aで得られた撮影画像40から切出した切出画像42を拡大することで、第1表示部16Aに表示するための表示画像44を生成する。また、生成部20は、第2撮影部14Bで得られた撮影画像40から切出した切出画像42を拡大することで、第2表示部16Bに表示するための表示画像44を生成する。
 このため、視界支援装置10は、サイドミラーに映る鏡像を目視で確認した場合と同様の画像を、移動速度に応じて拡大して運転者に対して提供することができる。
 なお、本実施の形態では、生成部20は、切出部20Aが撮影画像40から切出した切出画像42を、拡大部20Bで移動速度に応じた倍率で拡大することで、表示画像44を生成する場合を説明した。
 しかし、生成部20は、撮影画像40そのものを、移動速度が速いほど高倍率に拡大し、表示画像44を生成してもよい。この場合には、例えば、生成部20は、拡大後の撮影画像40の外周を、表示部16の表示領域Eに合わせた形状及び大きさにトリミングすることで、表示画像44を生成すればよい。
 図1に戻り、表示制御部22は、生成部20で生成された表示画像44を、表示部16へ表示する制御を行う。本実施の形態では、表示制御部22は、第1撮影部14Aから取得した撮影画像40に応じて生成された表示画像44を、第1表示部16Aに表示する制御を行う。また、表示制御部22は、第2撮影部14Bから取得した撮影画像40に応じて生成された表示画像44を、第2表示部16Bに表示する制御を行う。
 次に、本実施の形態の制御部12が実行する視界支援処理を説明する。
 図9は、制御部12が実行する視界支援処理の手順を示すフローチャートである。
 なお、図9の視界支援処理の開始タイミングは、車両36において視界支援装置10の電源がオン状態とされたときに開始され、図9に示す手順を実行する。オン状態とされるときとは、視界支援装置10が車両36に搭載されている場合は、車両36の電装品や動力系統に電力が供給されることとなった状態である。また、図9の終了タイミングは、車両36において電装品や動力系統への電力供給をオフとしたタイミングである。また、視界支援装置10がサイドミラーと併用されている場合などは、ユーザの任意の操作によって開始および終了が操作されてもよい。
 また、他の開始タイミングおよび終了タイミングの例としては、車両36のキーがスマートキーである場合に、キーが車両36の所定範囲内にあるときに開始され、所定範囲外となった場合に終了する。さらには、車両36のドアの開閉による開始と終了の連動、運転席への着座センサの検出結果による開始と終了の連動などがある。
 図9において、視界支援処理が開始されると、制御部12は、撮影開始を示す信号を撮影部14へ送信する(ステップS100)。撮影部14は、撮影開始を示す信号を受信すると、車両36の後方領域の撮影を開始し、撮影によって得られた撮影画像40の制御部12への出力を開始する。詳細には、第1撮影部14A及び第2撮影部14Bの各々が、車両36の後方領域の撮影を開始し、撮影画像40の制御部12への出力を開始する。
 次に、検出部18が、車両36の移動速度の検出を開始する(ステップS102)。検出部18は、車両36に設けられた運転制御のための制御部(図示省略)から、車両36の車速を示す情報を受信することで、車両36の移動速度の検出を開始する。
 なお、上記ステップS100及びステップS102の処理は、同時に開始してもよい。また、上記ステップS100の処理の前に、ステップS102の処理を開始してもよい。
 次に、切出部20Aが、撮影部14から取得した撮影画像40から、検出部18で検出された移動速度が速いほど、狭い切出範囲Pの切出画像42を切り出す(ステップS104)。
 次に、拡大部20Bが、切出部20Aで切出された切出画像42を、検出部18で検出された移動速度が速いほど高倍率に拡大する(ステップS106)。ステップS106の処理により、拡大部20Bは、表示画像44を生成する。
 次に、表示制御部22が、ステップS106の処理によって生成された表示画像44を、表示部16に表示する制御を行う(ステップS108)。
 次に、制御部12は、視界支援処理による表示が終了したか否かを判断する(ステップS110)。制御部12は、車両36の図示を省略する制御部から、エンジン停止を示す信号を受信したか否かの判別など、視界支援処理の終了を示す信号を車両36の図示を省略する制御部から受信したか否かを判別することにより、ステップS110の判断を行う。
 制御部12が、視界支援処理の終了を示す信号を取得していない場合は(ステップS110:No)、上記ステップS102へ戻る。
 一方、制御部12は、視界支援処理の終了を示す信号を取得した場合(ステップS110:Yes)、本ルーチンを終了する。
 視界支援装置10では、制御部12が上記視界支援処理を実行することによって、車両36のエンジン始動中は、撮影部14によって得られた撮影画像40を車両36の移動速度に応じて拡大した表示画像44が、表示部16に表示されることとなる。
 以上説明したように、本実施の形態の視界支援装置10では、生成部20が、撮影部14によって得られた撮影画像40を、検出部18によって検出された車両36の移動速度に応じた倍率に拡大する。そして、表示制御部22は、生成部20による撮影画像40の拡大によって生成された表示画像44を、車両36に搭載された表示部16に表示する制御を行う。
 従って、本実施の形態の視界支援装置10では、車両36の移動速度に応じた後方視界支援を行うことができる。
 また、本実施の形態の視界支援装置10では、車両36の移動速度が速いほど、撮影画像40を高倍率に拡大した表示画像44を生成する。このように、本実施の形態の視界支援装置10では、車両36を運転する運転者に対して、車両36の移動速度が速くなるほど、より確認の難しくなる後方領域の画像を拡大して提供することができる。このため、視界支援装置10は、更に、移動速度に応じた適切な後方視界支援を行うことができる。
 なお、図8A、図8B、図8C、および図9で説明した表示の拡大または縮小は、車両36の移動速度の変化が緩やかである場合には、運転者は表示画像44を目視することにより、適切に後方の状況を把握することができる。一方、車両36の移動速度の変化が急である場合には、表示画像44の拡大または縮小の変動が短時間で推移する。このような場合のユーザの誤認識を防止するために、表示画像44には、検出部18が検出した後続車の車間距離や、後続車の移動速度を重畳表示してもよい。
 また、車両36の急加速や急減速時には、表示画像の拡大または縮小の処理を所定時間遅らせて実行してもよい。これにより、ユーザの誤認識を防止することができる。
<変形例>
 なお、上記実施の形態では、表示部16が、表示領域Eの外周の一部を覆う枠部32を備える場合を説明した。そして、視界支援装置10は、車両36の移動速度に応じて切出画像42を拡大した表示画像44を、表示部16に表示する場合を説明した。
 しかし、表示部16は、枠部32を備えない構成であってもよい。以下、第1の変形例として、車両36の移動速度に応じて拡大した表示画像に、表示枠画像を重畳した重畳画像を、表示画像44として生成する視界支援装置10について説明する。
 この場合、例えば、切出部20Aは、撮影画像40から、矩形形状の切出範囲Pの切出画像42を切り出す。図10は、矩形形状の切出範囲PAの説明図である。図10に示すように、切出部20Aは、撮影画像40から、矩形形状の切出範囲PAの切出画像46を、切出画像42として切出す。
 そして、この場合、拡大部20Bは、切出画像46を上記と同様にして拡大した表示画像に、表示枠画像を重畳し、重畳画像を生成する。
 図11は、重畳画像50の説明図である。図11に示すように、拡大部20Bは、切出画像46を拡大した表示画像45に、表示枠画像52を重畳し、重畳画像50を表示画像44として生成する。表示枠画像52は、表示画像45の端部を覆う画像である。表示枠画像52における、表示画像45の端部を覆う面積は、常に一定の面積を覆うことによってサイドミラーの鏡面の形状を形成してもよいが、検出部18によって検知された移動速度が速いほど狭くしてもよい。
 すなわち、拡大部20Bは、検出部18によって検知された移動速度が速いほど、該表示画像45の端部を覆う面積の狭い表示枠画像52を作成し、表示画像45に重畳する。そして、重畳によって作成した重畳画像50を、表示部16に表示する表示画像44として生成する。
 この重畳画像50における、表示枠画像52によって覆われていない領域Qは、車両36に設けられた、または該車両36と同様の他の車両に設けられるサイドミラーの鏡面と相似形状であることが好ましい。拡大部20Bは、領域Qの形状がサイドミラーの鏡面と相似形状となるように、表示枠画像52を作成し、表示画像45に重畳させる。
 表示枠画像52は、表示画像45の領域Qと表示枠画像52とを明確に区別可能とする事の可能な色及び濃度の画像である。例えば、表示枠画像52は、黒色画像である。
 なお、表示制御部22は、この表示枠画像52内に、車両36に設けられた運転制御のための制御部(図示省略)から受信した警告情報や緊急情報等の報知画像や報知文字を表示させてもよい。これらの報知画像や報知文字は、車両36の運転者に対して視認可能な色及び濃度であればよい。
 図12A、図12B、および図12Cは、生成部20によって生成された重畳画像50としての表示画像44の一例を示す図である。
 図12Aは、検出された移動速度が予め定めた第1閾値未満(例えば、時速50km未満)であったときに、生成部20で生成された表示画像50Aの一例を示す図である。図12Bは、検出された移動速度が、第1閾値以上第2閾値未満(例えば、時速50km以上80km未満)であったときに、生成部20で生成された表示画像50Bの一例を示す図である。図12Cは、検出された移動速度が、第2閾値以上(時速80km以上)であったときに、生成部20で生成された表示画像50Cの一例を示す図である。
 図12A、図12B、および図12Cに示す例では、切出部20Aが、移動速度が速くなるほど狭い切出範囲PAで切出した切出画像46(図10参照)を、拡大部20Bが移動速度に応じた倍率で拡大する。これにより、拡大部20Bは、表示画像45(45A~45C)を生成する。また、拡大部20Bは、検出部18によって検知された移動速度が速いほど、該表示画像45(45A~45C)の端部を覆う面積の狭い表示枠画像52(52A~52C)を生成する。そして、拡大部20Bは、表示画像45(45A~45C)に表示枠画像52(52A~52C)を重畳した重畳画像50(50A~50C)を、表示部16に表示する表示画像44として生成する。
 従って、本変形例の視界支援装置10では、実施の形態1と同様に、車両36の移動速度に応じた適切な後方視界支援を行うことができる。
 上述した視界支援装置10の表示画像45(45A~45C)は、拡大部20Bの処理によって、検出された移動速度に応じた倍率で拡大された。しかし、検出された移動速度に応じて表示枠画像52(52A~52C)の端部を覆う面積を狭くする処理を行う場合、表示画像45の倍率は不変としてもよい。このような形態の場合、車両36の移動速度が速いほど表示枠画像52が狭くなるため、相対的に表示画像45の表示面積が大きくなる。このため、車両36の移動速度に応じて適切な後方視界支援を行うことができる。
(実施の形態2)
 実施の形態1においては、撮影画像40における中心C1を、切出範囲Pの中心位置として切出画像42を生成した。本実施の形態では、撮影画像における消失点の位置と、拡大後の表示画像における消失点の位置と、の位置関係を維持しながら切出画像42を拡大する場合を説明する。
 図13は、本実施の形態の視界支援装置11を示す機能ブロック図である。
 視界支援装置11は、移動体に搭載されている。視界支援装置11は、実施の形態1と同様に、移動体として車両に搭載されている場合を説明する。
 視界支援装置11は、制御部13、撮影部14、表示部16、及び記憶部17を備える。撮影部14、表示部16、及び記憶部17は、実施の形態1と同様である。
 制御部13は、CPUなどを含んで構成されるコンピュータであり、視界支援装置11全体を制御する。なお、制御部13は、CPU以外の回路等であってもよい。
 制御部13は、検出部18、生成部21、及び表示制御部23を備える。検出部18は、実施の形態1と同様である。検出部18、生成部21、及び表示制御部23の一部または全ては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
 生成部21は、切出部20A、演算部21B、及び拡大部21Cを備える。
 演算部21Bは、撮影部14によって得られた撮影画像40の消失点を演算する。詳細には、演算部21Bは、第1撮影部14Aによって得られた撮影画像40、及び第2撮影部14Bによって得られた撮影画像40の各々について、消失点を演算する。消失点の演算方法には、公知の方法を用いる。なお、演算部21Bは、切出部20Aによって切出された切出画像42の消失点を演算することで、撮影画像40の消失点を演算してもよい。
 図14は、消失点C3の説明図である。演算部21Bは、公知の演算方法を用いて、撮影画像40から消失点C3を演算する。消失点C3の演算方法の例としては、特開2010-160567に記載の方法などがある。
 図13に戻り、切出部20Aは、実施の形態1と同様にして、撮影画像40から切出範囲P内の切出画像42を切り出す。なお、本実施の形態では、切出部20Aは、図14に示すように、演算部21Bで演算された消失点C3を含む切出範囲Pの切出画像42を切り出す場合を説明する。
 拡大部21Cは、実施の形態1の拡大部20Bと同様に、切出部20Aによって切出された切出画像42を、検出部18によって検出された移動速度に応じた倍率に拡大した表示画像44を生成する。
 なお、拡大部21Cは、切出画像42を拡大するときに、演算部21Bで演算された撮影画像40における消失点C3の相対位置と、該切出画像42から生成する表示画像44における消失点の相対位置と、が一致するように、該切出画像42を拡大する。すなわち、拡大部21Cは、撮影画像40における消失点C3の相対位置と、拡大後の表示画像44における消失点の相対位置と、の位置関係を維持しながら、該撮影画像40を拡大する。
 表示制御部23は、生成部21によって生成された表示画像44を、表示部16に表示する制御を行う。実施の形態1と同様に、表示制御部23は、第1撮影部14Aから取得した撮影画像40に応じて生成された表示画像44を、第1表示部16Aに表示する制御を行う。また、表示制御部23は、第2撮影部14Bから取得した撮影画像40に応じて生成された表示画像44を、第2表示部16Bに表示する制御を行う。
 次に、本実施の形態の制御部13が実行する視界支援処理を説明する。
 図15は、制御部13が実行する視界支援処理の手順を示すフローチャートである。
 制御部13は、実施の形態1の視界支援装置10における制御部12が実行するステップS100~ステップS102の処理と同様にして(図9参照)、ステップS200~ステップS202の処理を行う。
 次に、演算部21Bが、撮影画像40の消失点C3を演算する(ステップS204)。
 次に、制御部13は、実施の形態1のステップ104~ステップS110と同様にして(図9参照)、ステップS206~ステップS212の処理を行う。
 すなわち、切出部20Aが、撮影部14から取得した撮影画像40から、検出部18で検出された移動速度に対応する大きさの切出範囲Pの切出画像42を切り出す(ステップS206)。
 次に、拡大部21Cが、切出部20Aで切出された切出画像42を、検出部18で検出された移動速度が速いほど高倍率に拡大する(ステップS208)。このとき、拡大部21Cは、演算部21Bで演算された撮影画像40における消失点C3の相対位置と、該切出画像42から生成する表示画像44における消失点の相対位置と、が一致するように、該切出画像42を拡大する。ステップS208の処理により、拡大部21Cは、表示画像44を生成する。
 次に、表示制御部23が、ステップS208の処理によって生成された表示画像44を、表示部16に表示する制御を行う(ステップS210)。
 次に、制御部13は、視界支援処理による表示が終了したか否かを判断する(ステップS212)。制御部13は、ステップS110(図9参照)と同様にして、ステップS212の判断を行う。
 制御部13が、視界支援処理の終了を示す信号を取得していない場合は(ステップS212:No)、上記ステップS202へ戻る。
 一方、制御部13は、視界支援処理の終了を示す信号を取得した場合(ステップS212:Yes)、本ルーチンを終了する。
 以上説明したように、本実施の形態の視界支援装置11では、移動速度に応じて切出画像42を拡大するときに、演算部21Bで演算された撮影画像40における消失点C3の相対位置と、該切出画像42から生成する表示画像44における消失点の相対位置と、が一致するように、該切出画像42を拡大する。
 このため、本実施の形態の視界支援装置11は、上記実施の形態1の効果に加えて更に、撮影部14による撮影状況を同じ状況の表示画像を、運転者に対して視認可能に提供することができる。
(実施の形態3)
 次に、実施の形態1および実施の形態2と同様の表示処理を、車両の速度に代えて、車両の進行方向に応じて表示される範囲の異なる表示を行う視界支援装置100について説明する。
 図16は、本実施の形態の視界支援装置100を示す機能ブロック図である。
 視界支援装置100は、実施の形態1および実施の形態2と同様に、移動体に搭載されており、以下、移動体である車両に搭載されている場合を説明する。
 視界支援装置100は、制御部120、撮影部140、表示部160および記憶部170を備える。撮影部140、表示部160および記憶部170は、各々撮影部14、表示部16および記憶部17と同様である。
 制御部120は、その構成は制御部12および制御部13と同様であるが、その機能として、検出部18の代わりに進行方向検出部180を備えていることが異なる。制御部120は、生成部21と同様の生成部120を備える。切出部120Aおよび拡大部120Bは、切出部20Aおよび拡大部21Cに対応する。また、表示制御部122は、表示制御部23に対応する。
 進行方向検出部180は、視界支援装置100の搭載された車両36の進行方向を検出する。ここでいう進行方向とは、将来(例えば所定時間後)、到達すると予測される方向である。例えば、進行方向は、到達予定の交差点等における進行予定方向である。
 進行方向検出部180における具体的な進行方向の検出方法としては、車両36本体の制御部から取得するウィンカ情報を用いる方法、および、ウィンカから取得するオンオフ情報を用いる方法などを適用できる。この場合、例えば運転者がウィンカを動作させたときに、進行方向検出部180は、動作開始を検出したウィンカの方向を進行方向として検出する。
 また、他の検出方法としては、視界支援装置100と接続された図示しないナビゲーション装置から取得する、設定された経路および車両36の現在位置情報を用いる方法が適用できる。具体的には、進行方向検出部180は、ナビゲーション装置より経路情報、特に右左折などの進行方向の変化が経路として予定される地点の情報に加えて、車両36の現在位置情報を取得する。進行方向検出部180は、これらの情報に基づき、車両36の現在位置情報が、進行方向を変化させる予定の交差点等の地点から、例えば10m手前となった場合に、進行方向を変化させる方向(変化後の方向)を進行方向として検出する。
 さらに、他の検出方法としては、視界支援装置100と接続された図示しないナビゲーション装置から取得する、適切な車線情報をさらに用いる方法が適用できる。具体的には、進行方向検出部180は、ナビゲーション装置より経路情報、特に経路における適切な車線情報に加えて、車両36の現在位置情報を取得する。進行方向検出部180は、これらの情報に基づき、車両36の現在位置情報により判断されている走行中の車線に対して、進行予定方向に適切に進行するための車線とが異なるために車線変更を要するか判断する。そして、車線変更を要すると判断した場合に、進行方向検出部180は、変更する車線の方向を進行方向として取得する。例えば、交差点または分岐点等の地点から、100m手前となった場合に、進行方向を変化させる方向を進行方向として検出する。
 次に、本実施の形態の制御部120が実行する視界支援処理を説明する。
 図17は、制御部120が実行する視界支援処理の手順を示すフローチャートである。
 制御部120は、実施の形態1の視界支援装置10における制御部12が実行するステップS100の処理と同様にしてステップS300の処理を行う。
 次に、進行方向検出部180は、進行方向の検出を開始する(ステップS302)。進行方向検出部180は、上述したように、ウィンカの動作に基づく信号や、ナビゲーション装置から取得する情報などの取得を開始することで、進行方向の検出を開始する。なお、上記ステップS300およびステップS302の処理は、同時に開始されてもよい。
 ステップS300およびステップS302の処理が開始された状態においては、視界支援装置100の表示部160は、通常状態の表示が実行されている。ここでいう通常状態の表示とは、撮影部140が撮影した画像に対して、切出部120Aが、デフォルト値として予め定められた範囲の画像を切り出し、拡大部120Bが、デフォルト値として予め定められた倍率に拡大または縮小した画像を、表示制御部122が表示することである。
 切出部120Aおよび拡大部120Bのデフォルト値は、当該車両に設置されているサイドミラーまたは当該車両と同等の車両に設置されるサイドミラーが映し出す範囲および拡大率と同一または近いことが望ましい。
 進行方向検出部180は、ステップS302の処理において進行方向検出処理を開始した後、逐次進行方向が検出されたか否かを判断する(ステップS304)。ステップS304において進行方向を検出したと判断された場合(ステップS304:Yes)、切出部120Aは、ステップS304で判断された進行方向に対応する撮影部140が撮影した画像の切り出し範囲を変更する(ステップS306)。
 ステップS306において切り出し範囲が変更される画像は、撮影部140のうち第1撮影部140Aが撮像した画像または第2撮像部140Bが撮像した画像のうち、進行方向に応じた画像となる。例えば、ステップS304の判断において検出された進行方向が、右折または分岐点を右方向、さらには右車線への変更など、車両36を右方向へ移動させる動作が発生する場合、第1撮影部140Aが撮影した画像が対象となる。同様に、ステップS304の判断において検出された進行方向が、左折または分岐点を左方向、さらには左車線への変更など、車両36を左方向へ移動させる動作が発生する場合、第2撮影部140Bが撮影した画像が対象となる。
 また、ステップS306の処理における切り出し範囲の変更とは、例えばステップS304において進行方向が検出されていない状態の切り出し範囲より広い範囲を切出すことである。
 次に、ステップS306において切出された画像を、拡大部120Bは、表示部160の表示範囲に適切に表示されるように、進行方向に対応する撮影画像の縮小処理を行う。
 ステップS306およびステップS308の処理によって、進行方向に対応する撮影部140が撮影した画像は、広い範囲を表示するための画像として生成される。
 次に、ステップS306およびステップS308の処理によって生成された表示画像を、表示制御部122は表示部160に表示させる制御を行う(ステップS310)。
 ステップS310の後、または、ステップS304において進行方向を検出しないと判断された場合(ステップS304:No)、制御部120は、視界支援処理による表示が終了したか否かを判断する(ステップS312)。ステップS312の判断は、実施の形態1におけるステップS110と同様の判断である。
 図18および図19を用いて、視界支援装置100における表示部160の表示例を説明する。図18は、ステップS300およびステップS302までの処理による通常時の表示形態の例である。また、図19は、ステップS304において進行方向が左方向であることを検出し、ステップS306からステップS310までの処理を行った場合の表示形態の例である。図18および図19は、図8A、図8B、および図8Cと同様に、枠部32によって覆われていない範囲、またはサイドミラーの鏡面の形状の相似形状に切出した場合は、切出された表示画像を示す。
 図18および図19の例では、進行方向が左方向であることが検出されたため、左方向に対応する第2表示部160Bに表示する画像(第2撮像部140Bで撮像された画像)が、切り出し範囲の変更の対象となる。一方、右方向に対応する第1表示部160Aに表示する画像(第1撮像部140Aで撮像された画像)は切り出し範囲の変更の対象とならない。
 図19に示すように、第2表示部160Bには、通常時(図18の第2表示部160Bの画像)より広い範囲から切り出された画像が表示される。これにより、移動体の進行方向に応じた適切な視界支援を行うことが可能となる。
 本実施の形態においても、切出し範囲の中心位置を、実施の形態1または実施の形態3同様に、撮影画像の中心又は消失点としてもよい。さらには、進行方向の反対側の位置を固定し、進行方向側のみを広く切出してもよい。図19の第2表示部160Bに表示された画像は、図18の第2表示部160Bに表示された画像に対して、進行方向である左の反対側(右側)の位置を固定し、進行方向側を広く切出した例である。
 本実施の形態においても、実施の形態1同様に、重畳画像50を表示する形態としてもよい。さらに、ステップS300およびステップS302までの処理を行った状態における重畳画像50に対して、ステップ306からステップS310までの処理を行った状態の重畳画像50は、図12A、図12B、および図12Cと同様に、その面積を狭くしてもよい。
 なお、上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100は、制御部12、制御部120および記憶部17、記憶部170を含む構成を、移動体である車両において利用可能なコンピュータである、車載コンピュータやナビゲーション装置を用いて構成してもよい。または、可搬型の端末によって構成してもよい。表示部16および表示部160は、図4に示すように、移動体である車両に予め備えられている表示装置により構成されるが、可搬型の表示端末を車両内の適切な位置に備えることによって構成してもよい。
 上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100で実行される視界支援処理を実行するための各種プログラムは、インストール可能な形式又は実行可能な形式のファイルで、制御部12、制御部120が利用可能なROMに予め記憶されるが、制御部12、制御部120を含む装置が読み取り可能な記録媒体に記録されて提供されてもよい。
 また、上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100で実行される視界支援処理を実行するための各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
 なお、上記実施の形態及び変形例の視界支援装置10及び視界支援装置11、視界支援装置100で実行される視界支援処理を実行するための各種プログラムは、上述した処理を実行するための機能部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各機能部が主記憶装置上にロードされ、主記憶装置上に生成されるようになっている。
 なお、上記には、本発明のいくつかの実施の形態及び変形例を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、11,100 視界支援装置
12、120 制御部
16、160 表示部
180 進行方向検出部
20、120 生成部
20A、120A 切出部
20B、120B 拡大部
21B 演算部
21C 拡大部
22、23、122 表示制御部

Claims (8)

  1.  移動体に搭載され、前記移動体の後方領域を撮影する撮影部と、
     前記移動体の進行方向を検出する進行方向検出部と、
     前記撮影部の撮影によって得られた撮影画像に基づき、前記進行方向検出部が検出した進行方向に応じて表示される範囲の異なる表示画像を生成する生成部と、
     前記生成部が生成した前記表示画像を、前記移動体に搭載された表示部に表示するように制御する表示制御部と、
     を備えた視界支援装置。
  2.  前記進行方向検出部は、予定される進行方向を検出し、
     前記生成部は、予定される進行方向に応じて表示される範囲の異なる表示画像を生成する、
    請求項1に記載の視界支援装置。
  3.  前記表示部は、前記撮影画像に基づき、前記移動体の右後方領域を表示する第1表示部および前記移動体の左後方領域を表示する第2表示部により構成され、
     前記進行方向検出部は、前記移動体の右折および左折を進行方向として検出し、
     前記生成部は、前記進行方向検出部が前記移動体の右折を検出した場合は、前記第1表示部に表示させるための表示画像として表示範囲の広い表示画像を生成し、前記進行方向検出部が前記移動体の左折を検出した場合は、前記第2表示部に表示させるための表示画像として表示範囲の広い表示画像を生成する、
    請求項1または請求項2に記載の視界支援装置。
  4.  前記表示部は、前記撮影画像に基づき、前記移動体の右後方領域を表示する第1表示部および前記移動体の左後方領域を表示する第2表示部により構成され、
     前記進行方向検出部は、前記移動体の右方向への車線変更および左方向への車線変更を進行方向として検出し、
     前記生成部は、前記進行方向検出部が前記移動体の右方向への車線変更を検出した場合は、前記第1表示部に表示させるための表示画像として表示範囲の広い表示画像を生成し、前記進行方向検出部が前記移動体の左方向への車線変更を検出した場合は、前記第2表示部に表示させるための表示画像として表示範囲の広い表示画像を生成する、
    請求項1または請求項2に記載の視界支援装置。
  5.  前記生成部は、前記表示画像の端部に表示枠画像が重畳されるように前記表示画像を生成するとともに、前記進行方向検出部が検出した進行方向に応じて前記表示枠画像の面積を変化させることにより、表示される範囲の異なる表示画像を生成する、
    請求項1から請求項4の何れか1項に記載の視界支援装置。
  6.  前記生成部は、前記表示枠画像の重畳によって、前記移動体に設けられたまたは前記移動体と同様の他の移動体に設けられるサイドミラーの鏡面と相似形状に前記撮影画像が表示される表示画像を生成する、
    請求項5に記載の視界支援装置。
  7.  移動体の進行方向を検出する検出ステップと、
     前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された進行方向に応じて表示される範囲の異なる表示画像を生成する生成ステップと、
     前記生成ステップにおいて生成された表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、
     を含む視界支援方法。
  8.  移動体において用いられる視界支援装置が利用可能なコンピュータに、
     前記移動体の進行方向を検出する検出ステップと、
     前記移動体に搭載され、前記移動体の後方領域を撮影する撮影部によって得られた撮影画像に基づき、前記検出ステップにおいて検出された進行方向に応じて表示される範囲の異なる表示画像を生成する生成ステップと、
     前記生成ステップにおいて生成された表示画像を、前記移動体に搭載された表示部に表示するように制御する表示ステップと、
     を実行させる視界支援プログラム。
PCT/JP2014/068231 2013-12-27 2014-07-08 視界支援装置、視界支援方法、及び視界支援プログラム WO2015098156A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-271857 2013-12-27
JP2013271857 2013-12-27
JP2014051779A JP2015144407A (ja) 2013-12-27 2014-03-14 視界支援装置、視界支援方法、及び視界支援プログラム
JP2014-051779 2014-03-14

Publications (1)

Publication Number Publication Date
WO2015098156A1 true WO2015098156A1 (ja) 2015-07-02

Family

ID=53478048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068231 WO2015098156A1 (ja) 2013-12-27 2014-07-08 視界支援装置、視界支援方法、及び視界支援プログラム

Country Status (2)

Country Link
JP (1) JP2015144407A (ja)
WO (1) WO2015098156A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073733A (ja) * 2015-10-09 2017-04-13 株式会社東海理化電機製作所 車両用視認装置及び車両用視認制御プログラム
WO2017115808A1 (ja) * 2015-12-28 2017-07-06 住友建機株式会社 ショベル
WO2018062537A1 (ja) * 2016-09-30 2018-04-05 株式会社ニコン 撮像装置、プログラムおよび電子機器
US20190315228A1 (en) * 2018-04-16 2019-10-17 JVC Kenwood Corporation On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
JP2019182421A (ja) * 2015-07-31 2019-10-24 市光工業株式会社 車両周辺視認装置
CN111038391A (zh) * 2018-10-12 2020-04-21 本田技研工业株式会社 后方视觉确认装置
CN112046470A (zh) * 2020-07-29 2020-12-08 北汽福田汽车股份有限公司 控制后视图像显示的方法、装置、介质、控制器及车辆
CN112654533A (zh) * 2018-09-07 2021-04-13 株式会社电装 电子镜的显示控制装置以及具备其的电子镜系统
US11491874B2 (en) 2018-11-26 2022-11-08 Honda Motor Co., Ltd. Vehicle body structure

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690315B2 (ja) * 2016-03-10 2020-04-28 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6690311B2 (ja) * 2016-03-09 2020-04-28 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6575404B2 (ja) * 2016-03-15 2019-09-18 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
WO2017154316A1 (ja) * 2016-03-09 2017-09-14 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6690312B2 (ja) * 2016-03-09 2020-04-28 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6256509B2 (ja) * 2016-03-30 2018-01-10 マツダ株式会社 電子ミラー制御装置
JP6658270B2 (ja) * 2016-04-27 2020-03-04 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6658329B2 (ja) * 2016-06-21 2020-03-04 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
CN109997171B (zh) * 2016-09-30 2024-03-08 株式会社尼康 显示装置以及存储有程序的记录介质
CN110463179B (zh) * 2017-03-31 2022-05-10 株式会社尼康 电子设备以及记录介质
DE112017008075T5 (de) * 2017-09-22 2020-06-18 Mitsubishi Electric Corporation Rücksichtvideo-Steuervorrichtung und Rücksichtvideo-Steuerverfahren
JP2019084991A (ja) * 2017-11-08 2019-06-06 トヨタ自動車株式会社 画像表示装置
JP6941070B2 (ja) * 2018-02-28 2021-09-29 日立Astemo株式会社 ステレオカメラ装置
JP7022043B2 (ja) * 2018-10-12 2022-02-17 本田技研工業株式会社 後方視認装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP2001055100A (ja) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2007028440A (ja) * 2005-07-20 2007-02-01 Auto Network Gijutsu Kenkyusho:Kk 後側方視認システム
JP2010183170A (ja) * 2009-02-03 2010-08-19 Denso Corp 車両用表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP2001055100A (ja) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2007028440A (ja) * 2005-07-20 2007-02-01 Auto Network Gijutsu Kenkyusho:Kk 後側方視認システム
JP2010183170A (ja) * 2009-02-03 2010-08-19 Denso Corp 車両用表示装置

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182421A (ja) * 2015-07-31 2019-10-24 市光工業株式会社 車両周辺視認装置
WO2017061376A1 (ja) * 2015-10-09 2017-04-13 株式会社東海理化電機製作所 車両用視認装置及び車両用視認制御プログラム
JP2017073733A (ja) * 2015-10-09 2017-04-13 株式会社東海理化電機製作所 車両用視認装置及び車両用視認制御プログラム
WO2017115808A1 (ja) * 2015-12-28 2017-07-06 住友建機株式会社 ショベル
JPWO2017115808A1 (ja) * 2015-12-28 2018-10-18 住友建機株式会社 ショベル
US11186964B2 (en) 2015-12-28 2021-11-30 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel
US11190703B2 (en) 2016-09-30 2021-11-30 Nikon Corporation Image-capturing apparatus, program, and electronic device that controls image sensor based on moving velocity
WO2018062537A1 (ja) * 2016-09-30 2018-04-05 株式会社ニコン 撮像装置、プログラムおよび電子機器
JPWO2018062537A1 (ja) * 2016-09-30 2019-08-08 株式会社ニコン 撮像装置、プログラムおよび電子機器
JP7159866B2 (ja) 2016-09-30 2022-10-25 株式会社ニコン 撮像装置およびプログラム
US20190315228A1 (en) * 2018-04-16 2019-10-17 JVC Kenwood Corporation On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
EP3556611A1 (en) * 2018-04-16 2019-10-23 JVC KENWOOD Corporation On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
US10688868B2 (en) 2018-04-16 2020-06-23 JVC Kenwood Corporation On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
CN110386066B (zh) * 2018-04-16 2023-10-27 Jvc 建伍株式会社 车辆用显示控制装置和方法、车辆用显示系统及存储介质
JP7067225B2 (ja) 2018-04-16 2022-05-16 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法、およびプログラム
JP2019186853A (ja) * 2018-04-16 2019-10-24 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法、およびプログラム
CN110386066A (zh) * 2018-04-16 2019-10-29 Jvc 建伍株式会社 车辆用显示控制装置和方法、车辆用显示系统及存储介质
EP3848247A4 (en) * 2018-09-07 2021-07-14 Denso Corporation DISPLAY CONTROL DEVICE FOR ELECTRONIC MIRROR AND ELECTRONIC MIRROR SYSTEM INCLUDING IT
US20210188177A1 (en) * 2018-09-07 2021-06-24 Denso Corporation Display control device for electronic mirror, and electronic mirror system including the same
CN112654533A (zh) * 2018-09-07 2021-04-13 株式会社电装 电子镜的显示控制装置以及具备其的电子镜系统
US11560095B2 (en) 2018-09-07 2023-01-24 Denso Corporation Display control device for electronic mirror, and electronic mirror system including the same
CN111038391A (zh) * 2018-10-12 2020-04-21 本田技研工业株式会社 后方视觉确认装置
CN111038391B (zh) * 2018-10-12 2023-01-06 本田技研工业株式会社 后方视觉确认装置
US11491874B2 (en) 2018-11-26 2022-11-08 Honda Motor Co., Ltd. Vehicle body structure
CN112046470A (zh) * 2020-07-29 2020-12-08 北汽福田汽车股份有限公司 控制后视图像显示的方法、装置、介质、控制器及车辆

Also Published As

Publication number Publication date
JP2015144407A (ja) 2015-08-06

Similar Documents

Publication Publication Date Title
WO2015098156A1 (ja) 視界支援装置、視界支援方法、及び視界支援プログラム
EP2974909B1 (en) Periphery surveillance apparatus and program
JP5321267B2 (ja) 車両用画像表示装置及び俯瞰画像の表示方法
JP6346614B2 (ja) 情報表示システム
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
EP3569461B1 (en) Apparatus for providing around view
US10887568B2 (en) Image processing apparatus, and image processing method
US10000212B2 (en) Vehicle and method for controlling distance between traveling vehicles
JP6045796B2 (ja) 映像処理装置、映像処理方法、および映像表示システム
JP2016097896A (ja) 画像表示制御装置
JP6561616B2 (ja) 車載ヘッドアップディスプレイ装置及び車載表示システム
JP2008230296A (ja) 車両用運転支援システム
CN107533795B (zh) 车辆用显示装置以及车辆用显示方法
JP6929177B2 (ja) 運転支援表示方法及び運転支援表示装置
JP2013017024A (ja) 車両接近物検知装置
JP2021043815A (ja) 画像処理装置
JP5262515B2 (ja) 車両用表示装置および表示方法
JP6448714B2 (ja) 情報表示システム
JP2015144406A (ja) 視界支援装置、視界支援方法、及び視界支援プログラム
JP2007025739A (ja) 車両用画像表示装置
US20200231097A1 (en) Display system, vehicle control apparatus, display control method, and storage medium for storing program
JP4679816B2 (ja) 車両周辺表示制御装置
JP5083137B2 (ja) 運転支援装置
JP6370249B2 (ja) 車載警告装置
US20200231099A1 (en) Image processing apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14873638

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14873638

Country of ref document: EP

Kind code of ref document: A1