WO2013065348A1 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
WO2013065348A1
WO2013065348A1 PCT/JP2012/064258 JP2012064258W WO2013065348A1 WO 2013065348 A1 WO2013065348 A1 WO 2013065348A1 JP 2012064258 W JP2012064258 W JP 2012064258W WO 2013065348 A1 WO2013065348 A1 WO 2013065348A1
Authority
WO
WIPO (PCT)
Prior art keywords
living body
sub
vehicle
animal
icon
Prior art date
Application number
PCT/JP2012/064258
Other languages
English (en)
French (fr)
Inventor
高津戸泉
相村誠
松田幸大
阿久津直人
長岡伸治
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2013541651A priority Critical patent/JP5604011B2/ja
Publication of WO2013065348A1 publication Critical patent/WO2013065348A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene

Definitions

  • the present invention relates to a vehicle periphery monitoring apparatus that detects and displays an object to be monitored around a vehicle.
  • JP 2009-067214 A As a conventional vehicle periphery monitoring device, there is known a device for displaying an image in front of a vehicle by an infrared camera on a display in front of a driver's seat and highlighting the image area of a pedestrian detected from the image See FIG. 5 of the 2009-067214 publication (hereinafter referred to as "JP 2009-067214 A").
  • JP 2004-364112 A Japanese Patent Application Laid-Open 2004 -364112
  • JP 2004-364112 A when it is determined that a pedestrian is present in the captured image of the infrared camera 2R, the pedestrian icons 32 and 33 are displayed on the HUD 8a (see FIG. 6, [0036] to [0038]).
  • the HUD 8a displays icons 32 and 33 that indicate the presence of a pedestrian. However, there is still room for more appropriate attention to the user.
  • the present invention has been made in consideration of such problems, and an object of the present invention is to provide a vehicle periphery monitoring device capable of appropriately alerting a user.
  • a vehicle periphery monitoring device detects a living body as a monitored object in the periphery of the vehicle based on an imaging signal output from an imaging device mounted on the vehicle, and the imaging signal is And each of the sub-areas of the image according to the presence or absence of the display of each mark respectively associated with the plurality of sub-areas constituting the image displayed on the first display part and the first display part displaying the representing image.
  • a second display unit for visualizing presence / absence information of the object to be monitored, the display of the mark being changed according to at least one of the face direction of the living body and the direction of the body.
  • the display of the mark on the second display unit indicating the presence or absence of the monitored object is changed according to at least one of the face direction of the living body and the direction of the body. Since the face direction and the body direction are likely to indicate the direction of movement of the living body, according to the present invention, it is possible to perform a reminder in consideration of the direction of movement of the living body. Therefore, it is possible to issue an appropriate alert to the user.
  • the adjacent living bodies sandwich the boundary line.
  • a plurality of the marks may be displayed on the second display unit simultaneously or alternately corresponding to the sub-regions.
  • the mark may be displayed on both the sub-region to which the living body belongs and the sub-region which is present in the direction of the face or body of the living body relative to the sub-region. This makes it possible to call attention to the presence of the living body in a manner that reflects the traveling direction of the living body. For this reason, it becomes possible to issue an appropriate alert to the user.
  • the display color of the mark may be switched to a warning color that calls for a stronger alert. This makes it possible to more strongly warn of the presence of the living body when the living body is facing the vehicle. For this reason, it becomes possible to issue an appropriate alert to the user.
  • FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. It is a schematic perspective view of the vehicle in which the said vehicle periphery monitoring apparatus was integrated. It is a figure which shows the view seen from the driver
  • FIG. 19 is a flowchart (second modified example of details of S11 in FIG.
  • the positional relationship between the vehicle, the animal and the adult of the human when the living body corresponding portions corresponding to the adult of the animal and the human belong to the first sub-region in the center It is a figure which shows an example of the gray scale image of the said general purpose monitor, and an example of the icon image of said MID.
  • the vehicle in the case where the living body corresponding portion corresponding to the animal belongs to the first sub-region on the left side and the living body corresponding portion corresponding to a human child belongs to the first sub region on the right side It is a figure which shows the example of the positional relationship of the said animal and the human child, an example of the gray scale image of the said general purpose monitor, and the icon image of the said MID.
  • FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device 10 (hereinafter also referred to as “monitoring device 10”) according to an embodiment of the present invention.
  • FIG. 2 is a schematic perspective view of a vehicle 12 in which the monitoring device 10 is incorporated.
  • FIG. 3 is a view showing a view of the vehicle 12 as viewed from the driver side.
  • FIG. 3 shows a situation where the vehicle 12 is traveling on a road in a country where it is determined that the whole vehicle travels to the right, and the vehicle 12 is illustrated as a left-hand drive vehicle. Alternatively, a similar configuration can be employed for a right-hand drive car.
  • the vehicle periphery monitoring device 10 includes electronic cameras and vehicle speed sensors 18, a yaw rate sensor 20, and infrared cameras 16 L and 16 R (hereinafter also referred to as “cameras 16 L and 16 R”) on the left and right. It has an apparatus 22 (hereinafter referred to as "ECU 22"), a speaker 24, a general-purpose monitor 26 (hereinafter also referred to as “monitor 26”), and an MID 28 (Multi-Information Display).
  • ECU 22 apparatus 22
  • monitoring 26 hereinafter also referred to as "monitor 26”
  • MID 28 Multi-Information Display
  • the infrared cameras 16 ⁇ / b> L and 16 ⁇ / b> R function as imaging devices for imaging the surroundings of the vehicle 12.
  • two cameras 16L and 16R are combined to configure a stereo camera.
  • the cameras 16L and 16R have a characteristic that the output signal level becomes higher (the luminance is increased) as the temperature of the subject is higher.
  • the cameras 16L and 16R are disposed in the front bumper portion of the vehicle 12 at substantially symmetrical positions with respect to the center of the vehicle 12 in the vehicle width direction. Further, the two cameras 16L and 16R are fixed so that their optical axes are parallel to each other, and their heights from the road surface are equal.
  • surroundings of the vehicle 12 can take various structures, without being restricted to the structural example shown in FIG.
  • the imaging device may be a compound eye (stereo camera) or a single eye (one camera).
  • another distance measuring means radar apparatus
  • a camera instead of the infrared camera, a camera (also referred to as a color camera) that mainly uses light having a wavelength of a visible light region may be used, or both may be provided.
  • the vehicle speed sensor 18 detects the vehicle speed V [km / h] of the vehicle 12 and outputs it to the ECU 22.
  • the yaw rate sensor 20 detects the yaw rate Yr [° / sec] of the vehicle 12 and outputs it to the ECU 22.
  • the ECU 22 controls the monitoring device 10, and includes an input / output unit 30, an arithmetic unit 32, and a storage unit 34, as shown in FIG.
  • Each signal from the cameras 16 L and 16 R, the vehicle speed sensor 18 and the yaw rate sensor 20 is supplied to the ECU 22 via the input / output unit 30. Further, an output signal from the ECU 22 is output to the speaker 24, the monitor 26 and the MID 28 via the input / output unit 30.
  • the input / output unit 30 includes an A / D conversion circuit (not shown) that converts an input analog signal into a digital signal.
  • the computing unit 32 performs computation based on the signals from the cameras 16L and 16R, the vehicle speed sensor 18, and the yaw rate sensor 20, and generates signals for the speaker 24, the monitor 26, and the MID 28 based on the computation result.
  • the calculation unit 32 has a binarization function 40, a living body extraction function 42, a living body type determination function 44, a speaker control function 46, a general purpose monitor control function 48, and an MID control function 50.
  • Each function 40, 42, 44, 46, 48, 50 is realized by executing a program stored in the storage unit 34.
  • the program may be supplied from the outside (a server or the like) via a wireless communication device (such as a mobile phone or a smartphone) (not shown).
  • the binarization function 40 binarizes the grayscale image 72 (FIG. 4) acquired by one of the cameras 16L and 16R (in the present embodiment, the left camera 16L) to obtain a binarized image (not shown).
  • Generate The living body extraction function 42 extracts living bodies (monitoring objects) such as humans and animals in these images using the gray scale image 72 and the binarized image.
  • the living body type determination function 44 determines whether the extracted monitoring object is a human (adult, child), an animal, or other (including an undeterminable one).
  • the speaker control function 46 controls the speaker 24 such as outputting an alarm sound to the speaker 24.
  • the general-purpose monitor control function 48 controls the general-purpose monitor 26 such as displaying the grayscale image 72 on the general-purpose monitor 26.
  • the MID control function 50 controls the MID 28 such as displaying icons of living bodies such as humans and animals (hereinafter referred to as “living body icons”) with respect to the MID 28.
  • the MID control function 50 includes a boundary line setting function 52, a face orientation detection function 54, a sub area selection function 56, and an icon display color setting function 58 (hereinafter also referred to as "display color setting function 58"). And an icon display function 60. Details of each function 52, 54, 56, 58, 60 will be described later.
  • the storage unit 34 is a RAM (Random Access Memory) for storing an imaging signal converted into a digital signal, temporary data to be provided for various arithmetic processing, and a ROM (Read Only Memory) for storing an execution program, a table or a map. And so on.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the speaker 24 outputs an alarm sound or the like in response to a command from the ECU 22.
  • the speaker 24 is provided on the dashboard 62 (FIG. 3) (however, the speaker 24 is not shown in FIG. 3).
  • a speaker provided in an audio device or a navigation device (not shown) may be used as the speaker 24.
  • the general-purpose monitor 26 (first display unit) can display a color image or a monochrome image, and includes, for example, a liquid crystal panel, an organic EL (Electro-Luminescence) panel, or an inorganic EL panel. As shown in FIGS. 2 and 3, the general-purpose monitor 26 is disposed at a predetermined portion of the dashboard 62 (specifically, a portion on the right side with respect to the disposition position of the handle 64).
  • FIG. 4 is a view showing an example of a display screen of the general-purpose monitor 26. As shown in FIG. In FIG. 4, in the display area of the monitor 26 (hereinafter referred to as “first display area 70” or “display area 70”), a gray scale image 72 captured by the camera 16L on the left side is displayed.
  • first display area 70 the display area of the monitor 26
  • display area 70 a gray scale image 72 captured by the camera 16L on the left side is displayed.
  • the gray scale image 72 can be added with the highlighting generated by the general purpose monitor control function 48. That is, as shown in FIG. 4, a highlighting frame 76 is displayed at a location where a living body such as a human or an animal is extracted (hereinafter referred to as “living body corresponding portion 74”). Alternatively, the living body corresponding portion 74 may be colored. Alternatively, both the display of the highlighting frame 76 and the coloring of the living body corresponding portion 74 can be performed. Alternatively, it may be emphasized by other methods.
  • the general-purpose monitor 26 may display the grayscale image 72 from the right camera 16R instead of the grayscale image 72 from the left camera 16L.
  • the general-purpose monitor 26 simultaneously or switches and displays other images such as various images for navigation (road map, service information, etc.), moving image contents, etc. You may The switching of each image can be performed, for example, by pressing a specific push button or by presetting of switching conditions.
  • the MID 28 (second display unit) is a simple display (icon display) for visualizing and displaying accompanying information when the vehicle 12 is driven, and is configured more than the general-purpose monitor 26 (particularly its display panel) It is a simple and inexpensive display module.
  • a display panel having a resolution lower than that of the general-purpose monitor 26 for example, one operating in a non-interlaced system
  • the MID 28 is provided on the dashboard 62 (or in the instrument panel 66) near the upper side of the instrument panel 66.
  • the MID 28 is disposed at a position where the driver can visually recognize the MID 28 through the gap above the steering wheel 64. As a result, the driver can view the MID 28 with the face of the vehicle 12 directed to the front.
  • FIG. 5 is a diagram showing an example of a display screen of the MID 28. As shown in FIG. In FIG. 5, an image including various icons corresponding to the gray scale image 72 (hereinafter referred to as “icon image 82” in the display area of MID 28 (hereinafter referred to as “second display area 80” or “display area 80”) Is displayed.
  • a road icon 84 indicating a road in the traveling direction of the vehicle 12 is displayed below the display area 80.
  • the road icon 84 is composed of three lines, that is, lines 84L, 84C and 84R in order from the left.
  • the width between the lines 84L and 84R becomes narrower toward the upper side of the display area 80, which recalls a distant position. That is, the display of the road icon 84 makes it possible for the driver to have an idea of the road shape when looking at the straight road ahead from the driver's seat.
  • a human icon 86 (mark) indicating a pedestrian present around the vehicle 12 can be displayed.
  • the human icon 86 of the present embodiment is used without distinction between adults and children for human pedestrians. Of course, such distinction may be made, and separate icons may be used for human adults and children.
  • the human icon 86 can be displayed at three places (that is, the left side, the center, and the right side) of the display area 80 (see FIGS. 5 and 6).
  • an icon representing another living body for example, an animal icon 88 (mark) representing an animal (see FIG. 9 or the like) can be displayed.
  • the MID 28 may display the fuel consumption of the vehicle 12, the current time, information about the instrument panel 66, and the like. Switching of each information (image) can be performed, for example, by pressing a specific push button or by presetting of switching conditions.
  • FIG. 6 is a diagram showing the relationship between the display of the general-purpose monitor 26 and the MID 28.
  • the gray scale image 72 is referred to as three regions in the vehicle width direction (hereinafter, "first sub regions 90L, 90C, 90R” or “sub regions 90L, 90C, 90R”, (Hereinafter collectively referred to as “first subregion 90” or “subregion 90”).
  • first boundary lines 92L and 92R or “boundary lines 92L and 92R” and collectively referred to as “first boundary line 92" or “boundary line 92"
  • first boundary line 92 or “boundary line 92”
  • the border 92 may be shaped along the lane (the shape that narrows as it goes up), as with the road icon 84 of the MID 28.
  • the icon image 82 is referred to as three areas in the vehicle width direction (hereinafter referred to as "second sub areas 100L, 100C, 100R” or “sub areas 100L, 100C, 100R", “second sub (Generally called “region 100” or “sub region 100”).
  • Boundary lines of the second sub-regions 100 in the icon image 82 (hereinafter referred to as “second boundary lines 102L and 102R” or “boundary lines 102L and 102R”, generically referred to as “second boundary line 102" or “boundary line 102” ) Is a virtual line not included in the actual icon image 82 and is fixed and does not change.
  • the second boundaries 102L and 102R are associated with the first boundaries 92L and 92R, respectively. Similar to the border 92, the border 102 may be shaped (following up, narrowing) along the lane, such as the road icon 84 of the MID 28.
  • the first sub-region 90 (hereinafter referred to as “first living-substance sub-region”) to which the living body corresponding part 74 in the gray scale image 72 belongs is determined, and the second sub-region 100 of the icon image 82 in the MID 28 is determined.
  • a living body icon (human icon 86, animal icon 88, etc.) is displayed on the one corresponding to the first living body existing sub-area (hereinafter referred to as "second living body existing sub-area").
  • processing such as increasing the number of living body icons to be displayed from 1 to 2 or changing the display color of living body icons can be performed (the details will be described later).
  • FIG. 7 is a flow chart showing an outline of the operation of the vehicle periphery monitoring device 10.
  • step S1 the infrared cameras 16L and 16R capture the periphery of the vehicle 12.
  • step S2 the ECU 22 A / D converts the signals from the cameras 16L and 16R to obtain a grayscale image 72.
  • step S3 the ECU 22 executes binarization processing. In the binarization process, the grayscale image 72 is binarized to obtain a binarized image (not shown).
  • step S4 the ECU 22 extracts the living body corresponding portion 74 from the acquired binarized image and gray scale image 72. Since the living body is hotter than its surroundings, the portion corresponding to the living body (the living body corresponding portion 74) in the binarized image and the grayscale image 72 has high brightness. Therefore, in the binarized image and the gray scale image 72, it is possible to extract the living body corresponding part 74 by searching the area of the pixel whose luminance is equal to or more than the predetermined threshold value.
  • the living body corresponding portion 74 may be extracted using only one of the binarized image and the gray scale image 72.
  • step S5 the ECU 22 determines the type of the living body indicated by the extracted living body corresponding portion 74. That is, it is determined whether the extracted living body corresponding part 74 corresponds to a human adult, a child or an animal. The type to be determined may be other.
  • step S ⁇ b> 6 the ECU 22 displays the gray scale image 72 in which the living body corresponding portion 74 is emphasized on the general-purpose monitor 26.
  • the highlighting is performed, for example, at least one of the display of the highlighting frame 76 (FIG. 4) and the coloring of the living body corresponding part 74.
  • step S7 the ECU 22 sets the first boundary lines 92L and 92R (FIG. 6) in the grayscale image 72 or the binarized image to specify the first sub-region 90 (details will be described later).
  • step S8 the ECU 22 detects the face orientation of the child or animal from among the extracted living body corresponding parts 74 that correspond to the human child and the animal.
  • the body direction of the child or animal may be detected.
  • a face direction or a body direction detection method for example, those described in US 2008/0130954 A1 and US 2007/0269079 A1 can be used. It is preferable to be able to specifically calculate the angle with respect to the optical axis of the camera 16L in plan view, for example, with the detection of the face direction or the body direction referred to here, but whether to face the vehicle 12 or the driver (In other words, either inward or outward) may be distinguished.
  • step S9 the ECU 22 determines a first sub region 90 (first living body present sub region) to which the living body corresponding portion 74 belongs.
  • first living body present sub region the two first sub regions 90 sandwiching the boundary 92 are determined as the first sub region 90 to which the living corresponding portion 74 belongs. There will be (details will be described later).
  • step S10 the ECU 22 determines a second sub-region 100 (second biological presence sub-region) corresponding to the first biological presence sub-region.
  • step S11 the ECU 22 sets the display color (alarm color) of the living body icon in the second living body present sub region. Since the display color is a single color (only yellow) in the present embodiment, the process of step S11 may be omitted. Further, as described later, the display color of the living body icon can be changed according to the situation.
  • step S12 the ECU 22 displays a living body icon (human icon 86 or the like) indicating a living body in the second living body presence sub-region determined in step S10.
  • a living body icon human icon 86 or the like
  • the speaker 24 may emit a warning sound.
  • FIG. 8 is a flowchart for setting the first boundary 92 (details of S7 in FIG. 7).
  • the yaw rate sensor 20 detects the yaw rate Yr of the vehicle 12.
  • the ECU 22 determines whether the vehicle 12 is turning left based on the yaw rate Yr detected by the yaw rate sensor 20. For example, a threshold (left turn determination threshold) of the yaw rate Yr for determining whether the vehicle is turning left is set, and it is determined whether the detected yaw rate Yr exceeds the left turn determination threshold.
  • step S24 If the vehicle 12 is not turning left (S22: NO), the process proceeds to step S24.
  • the ECU 22 shifts the first boundary lines 92 to the left in step S23.
  • a living body icon may be displayed in the sub-region 100R on the right side of the MID 28.
  • a living body icon may be displayed in the central sub area 100C of the MID 28.
  • the living body icon may not be displayed on the MID 28. As a result, it becomes possible to display the MID 28 in accordance with the traveling direction (left direction) of the vehicle 12.
  • step S24 the ECU 22 determines whether the vehicle 12 is turning right based on the yaw rate Yr detected by the yaw rate sensor 20. For example, a threshold (right turn determination threshold) of the yaw rate Yr for determining whether the vehicle is turning right is set, and it is determined whether the detected yaw rate Yr exceeds the right turn determination threshold. Do.
  • FIG. 9 and FIG. 10 are diagrams for explaining the method of specifying the first sub-region 90 (first living body present sub-region) to which the living body corresponding part 74 belongs. That is, FIG. 9 shows the vehicle 12 in the case where the face direction X of the animal 110 as a living body is outward (in the direction opposite to the center line Ax in the traveling direction of the vehicle 12 (for example, the optical axis of the camera 16L)).
  • FIG. 10 shows the positional relationship between the vehicle 12 and the animal 110 when the face direction X of the animal 110 is inward (direction toward the center line Ax), an example of the gray scale image 72 of the general-purpose monitor 26, and the icon image 82 of the MID 28.
  • indicates the image angle of view of the infrared camera 16L (the same applies to the other drawings).
  • FIG. 11 is a flowchart (details of S9 of FIG. 7) for specifying the first sub-region 90 (first living body existing sub-region) to which the living body corresponding part 74 belongs.
  • step S31 the ECU 22 determines whether the type of living body determined in step S5 of FIG. 7 is a child of the animal 110 or a human. If it is not a child of the animal 110 and a human, that is, if it is a human adult or other living body (S31: NO), the process proceeds to step S34. If the animal 110 or a human child (S31: YES), in step S32, the ECU 22 detects the face direction X of a living body (the animal 110 or a human child).
  • step S33 the ECU 22 determines whether the face of the living body is inward. If the face is not inward (S33: NO), the ECU 22 determines whether or not the biomedical portion 74 is on the first boundary 92 in step S34. If the living body corresponding part 74 is not on the first boundary 92 (S34: NO), the ECU 22 selects the first sub-region 90 where the living body corresponding part 74 exists in step S35. If the living body corresponding portion 74 is on the first boundary 92 (S34: YES), the ECU 22 selects the central sub-region 90C as the first living-existence sub-region in step S36.
  • step S33 If the face is inward at step S33 (S33: YES), the ECU 22 determines whether the living body corresponding portion 74 is on the first boundary line 92 at step S37.
  • the ECU 22 selects the first sub-region 90 in which the biomedical portion 74 is present in step S35. If the living body corresponding portion 74 is on the first boundary 92 (S37: YES), the ECU 22 selects two first sub-regions 90 as the first living-body present sub-region in step S38. For example, when the living body corresponding part 74 is on the left first boundary 92L, the ECU 22 selects the central sub-region 90C and the left sub-region 90L. When the living body corresponding portion 74 is on the right first boundary line 92R, the ECU 22 selects the central first sub region 90C and the right first sub region 90R.
  • the ECU 22 displays a living body icon (animal icon 88 or the like) in the second sub area 100 corresponding to the selected first sub area 90 (S12 in FIG. 7 and FIG. 10).
  • the display of the living body icon on the MID 28 is changed according to the face direction X of the living body (see S33 and the like in FIG. 11). Since the face direction X is highly likely to indicate the moving direction of the living body, according to the present embodiment, it is possible to perform alerting in consideration of the moving direction of the living body. Therefore, it is possible to issue an appropriate alert to the user.
  • a plurality of living body icons are simultaneously displayed on the MID 28 corresponding to the first sub-regions 90 adjacent to each other across the boundary 92 (S38 and FIG. 10).
  • a plurality of living body icons are simultaneously made to correspond to the first sub-region 90 adjacent across the boundary line 92. indicate. For this reason, it becomes possible to highlight the presence of the living body according to the face direction X of the living body and to perform appropriate alerting to the user.
  • the vehicle 12 presupposed the four-wheeled vehicle (refer FIG. 2)
  • the vehicle 12 which mounts the vehicle periphery monitoring apparatus 10 is not restricted to this.
  • it can be mounted on a two-wheeled vehicle (including a bicycle), a three-wheeled vehicle or a six-wheeled vehicle.
  • the monitoring device 10 is mounted on the vehicle 12 in the above embodiment, it can also be mounted on another mobile body as long as it detects a monitored object in the vicinity and reports it to the user.
  • a ship and an aircraft can be mentioned, for example.
  • the imaging device may be a compound eye (stereo camera) or a single eye (one camera).
  • a camera color camera
  • a camera color camera
  • General-purpose monitor 26 (first display unit) and MID 28 (second display unit)
  • the general-purpose monitor 26 is used to display the grayscale image 72 from the infrared camera 16L in the above embodiment
  • the present invention is not limited to this as long as it displays an image captured by the imaging unit.
  • the emphasis frame 76 is displayed on the grayscale image 72 displayed on the general-purpose monitor 26.
  • the grayscale image 72 from the camera 16L is displayed on the general-purpose monitor 26 without any highlighting. You may
  • a relatively versatile display device operating in a non-interlaced mode is used as the MID 28 to display a living body icon (mark).
  • the present invention is not limited to this, and an indicator for displaying only a living body icon A plurality of (for example, three) may be used in place of the MID 28.
  • a head-up display (HUD) as shown in FIG. 2 of JP 2004-364112 A can be used instead of the MID 28.
  • the general-purpose monitor 26 and the MID 28 are used in the above embodiment, a configuration using only the MID 28 is also possible.
  • the grayscale image 72 acquired by the camera 16L is used to display on the MID 28.
  • the 1st sub field 90 and the 2nd sub field 100 were divided by the transverse direction (vehicle width direction), a division direction or a division field is not restricted to this.
  • the first subregion 90 and the second subregion 100 can be divided in the longitudinal direction (traveling direction).
  • the boundary lines 92 and 102 are shaped along the lane (the shape goes up and narrows down) as with the road icon 84 of the MID 28, the first sub-region 90 and the second sub-region 100 are bounded by these boundaries. You may divide
  • the living body is a child of the animal 110 or a human (S31 in FIG. 11: YES) and the face direction X of the living body is inward as a condition for displaying the living body icon (animal icon 88 etc.) in two places.
  • the biological body icon was simultaneously displayed on two places as highlighting of a biological body icon (FIG. 10), the method of highlighting is not restricted to this.
  • both the animal 110 and a human child are assumed as a living being whose movement is difficult to predict (in other words, a living being who can not expect a rational movement in the living being or a living being relatively at high risk of jumping out).
  • it may be only one of the animal 110 and a human child (S31 in FIG. 11).
  • another living body for example, a main body obtained by further dividing the animal 110 may be set.
  • FIG. 12 shows the positional relationship between the vehicle 12 and the animal 110 when the face direction X of the animal 110 as a living body is outward (in the direction opposite to the center line Ax) in the first modified example of highlighting.
  • FIG. 9 is a view showing an example of a grayscale image 72 of the general-purpose monitor 26 and an example of an icon image 82 of the MID 28.
  • FIG. 12 shows the positional relationship between the vehicle 12 and the animal 110 when the face direction X of the animal 110 as a living body is outward (in the direction opposite to the center line Ax) in the first modified example of highlighting.
  • FIG. 9 is a view showing an example of a grayscale image 72 of the general-purpose monitor 26 and an example of an icon image 82 of the MID 28.
  • FIG. 13 shows the positional relationship between the vehicle 12 and the animal 110 when the face direction X of the animal 110 is inward (direction toward the center line Ax) in the first modified example of highlighting, and a gray scale image of the general-purpose monitor 26. It is a figure which shows an example of 72, and an example of the icon image 82 of MID28.
  • the animal icon 88 displayed on the MID 28 is normally alert color ( For example, yellow).
  • the animal icon 88 displayed on the MID 28 is normally The special alert color (for example, red) is used to call for more attention than the alert color of.
  • FIG. 14 is a flowchart (first modification of FIG. 11) for specifying the sub-region 90 of the general-purpose monitor 26 to which the living body corresponding portion 74 belongs in the first modification of highlighting.
  • FIG. 15 is a flowchart (first modified example of details of S11 in FIG. 7) for setting a display color of a living body icon in the first modified example of highlighting.
  • Steps S41 to S43 in FIG. 14 are the same as steps S34 to S36 in FIG. Therefore, the processing of FIG. 14 is simplified as compared with FIG. 11, and there is no processing as highlighting. Instead, the display color of the biological body icon as the highlighting is switched by the process of FIG.
  • Steps S51 to S53 in FIG. 15 are the same as steps S31 to S33 in FIG. That is, in step S51 of FIG. 15, the ECU 22 determines whether the type of living body determined in step S5 of FIG. 7 is a child of the animal 110 or a human. If it is not a child of the animal 110 and a human, that is, if it is a human adult or any other living body (S51: NO), the process proceeds to step S54. If the animal 110 or a human child (S51: YES), in step S52, the ECU 22 detects the face direction X of a living body (the animal 110 or a human child).
  • step S53 the ECU 22 determines whether the face of the living body is inward. If the face is not inward (S53: NO), the ECU 22 sets the display color of the biological icon to the normal alert color (for example, yellow) in step S54. If the face is facing inward (S53: YES), in step S55, the ECU 22 sets the display color of the biological body icon to a special alert color (for example, red).
  • the normal alert color for example, yellow
  • step S55 the ECU 22 sets the display color of the biological body icon to a special alert color (for example, red).
  • FIG. 16 is a diagram for explaining a second modification of highlighting of a living body icon. That is, FIG. 16 is a view showing an example of the positional relationship between the vehicle 12 and the animal 110, an example of the grayscale image 72 of the general-purpose monitor 26, and an example of the icon image 82 of the MID 28 in the second modified example of highlighting.
  • a living body icon (animal icon 88 etc.) displayed on the MID 28 is special Warning color (for example, red).
  • the living body icon (human icon 86) displayed on the MID 28 is usually a warning color (for example, yellow) . This makes it possible to highlight and notify the driver of the animal 110 or a human child.
  • FIG. 17 is a flowchart (second modified example of details of S11 in FIG. 7) for setting the display color of the living body icon in the second modified example of highlighting. Steps S61 to S63 in FIG. 17 are the same as steps S51, S54, and S55 in FIG.
  • step S61 the ECU 22 determines whether the type of the living body determined in step S5 of FIG. 7 is a child of the animal 110 or a human. If the animal 110 is not a child of a human, that is, if it is a human adult or other living body (S61: NO), the ECU 22 sets the normal alert color (for example, yellow) as the display color of the living body icon in step S62. . In step S63, the ECU 22 sets a special alert color (for example, red) as the display color of the living body icon, which is a child of the animal 110 or a human (S61: YES). Note that the second sub area 100 displaying the living body icon is determined, for example, using the flowchart of FIG.
  • FIG. 18 is a diagram for explaining a third modification of highlighting of a living body icon. That is, FIG. 18 is a view showing an example of the positional relationship between the vehicle 12 and the animal 110, an example of the grayscale image 72 of the general-purpose monitor 26, and an example of the icon image 82 of the MID 28 in the third modified example of highlighting.
  • the animal icon 88 of the MID 28 corresponds to the current position of the animal 110.
  • the second sub-region 100L on the left side and the central second sub-region 100C adjacent to the second sub-region 100L are displayed.
  • the living body icon is displayed at a plurality of places even if the living body is not on the boundary 92. This makes it possible to highlight and notify the driver of the animal 110. The same is true for human children.
  • FIG. 19 is a flowchart (second modification of FIG. 11) for specifying the sub-region 90 of the general-purpose monitor 26 to which the living body corresponding portion 74 belongs in the second modification of highlighting.
  • Steps S71 to S75 in FIG. 19 are the same as steps S31, S34 to S36, and S38 in FIG. That is, in the process of FIG. 17, when steps S32, S33, and S37 of FIG. 11 are omitted and the living body is a child of the animal 110 or a human (S71: YES), the living body corresponding portion 74 corresponding to the living body belongs to
  • the first sub-region 90 and the first sub-region 90 adjacent to the first sub-region 90 are both referred to as a first living-body present sub-region, and a living-body icon is displayed in the corresponding second living-subject sub-region. Therefore, it is determined whether to highlight the living body icon only by whether the living body is a child of the animal 110 or a human.
  • the living body icon is displayed on the left and center second sub-regions 100L and 100C. Further, when the living body corresponding portion 74 corresponding to the living body is on the first boundary 92L, the living body icon is displayed on the left and center second sub regions 100L and 100C. Furthermore, when the living body corresponding portion 74 corresponding to the living body belongs to the first sub region 90C in the center, for example, the living body icon is displayed on all the second sub regions 100L, 100C, and 100R.
  • the living body icon is displayed in the first sub-region 90 to which the living body belongs and the first sub-region 90 adjacent to the sub-region 90. This makes it possible to more strongly warn of the presence of a living body. For this reason, it becomes possible to issue an appropriate alert to the user.
  • FIG. 20 is a diagram for explaining a fourth modification of highlighting of a living body icon. That is, FIG. 20 is a view showing the positional relationship between the vehicle 12 and the animal 110, an example of the gray scale image 72 of the general-purpose monitor 26, and an example of the icon image 82 of the MID 28 in the fourth modified example of highlighting.
  • the animal icon 88 displayed on the MID 28 is The second sub-region 100C at the center corresponding to the current position of the animal 110 and the second sub-region 100R on the right side corresponding to the face direction X are displayed. This makes it possible to emphasize and notify the driver of the traveling direction of the animal 110. The same is true for human children.
  • FIG. 21 is a flowchart (third modification of FIG. 11) for specifying the sub-region 90 of the general-purpose monitor 26 to which the living body corresponding part 74 belongs in the fourth modification of highlighting.
  • Steps S81 to S86 in FIG. 21 are the same as steps S31, S34 to S36, S32, and S38 in FIG. That is, in FIG. 21, steps S33 and S37 of FIG. 11 are omitted.
  • two first sub-regions 90 are selected according to the face direction X regardless of whether the face of the animal 110 is inward.
  • two first sub-regions 90 sandwiching the boundary 92 are selected. The same is true for human children.
  • FIG. 22 and FIG. 23 are diagrams for explaining a fifth modification of highlighting of a living body icon. That is, FIG. 22 shows the vehicle 12, the animal 110 and the human when the living body corresponding parts 74 corresponding to the animal 110 and the human adult 112 respectively belong to the central first sub-region 90C in the fifth modification of highlighting.
  • FIG. 6 is a view showing a positional relationship of an adult 112, an example of a grayscale image 72 of the general-purpose monitor 26, and an example of an icon image 82 of the MID 28.
  • the animal 110 as the monitoring target and the living body corresponding portion 74 corresponding to the human adult 112 respectively belong to the first sub-region 90C in the center, in the MID 28, the second sub-region 100C in the center is Only the human icon 86 is displayed. That is, the icon display of human adults 112 is given priority over the animals 110.
  • the living body corresponding portion 74 corresponding to the animal 110 belongs to the first sub-region 90L on the left side, and the living body corresponding portion 74 corresponding to the human child 114 is the first sub It is a figure which shows an example of the positional relationship of the vehicle 12, the animal 110, and the human child 114 in the case where it belongs to area
  • the living body corresponding portion 74 corresponding to the animal 110 belongs to the first sub-region 90 on the left side, and the living body corresponding portion 74 corresponding to the human child 114 as the monitoring object is the first sub-region on the right side If it belongs to 90, the MID 28 highlights only the human icon 86 and not the animal icon 88. In other words, highlighting only for human children 114 and not for animals 110.
  • FIG. 24 is a flowchart (fourth modification of FIG. 11) for specifying the sub-region 90 of the general-purpose monitor 26 to which the living body corresponding part 74 belongs in the fifth modification of highlighting.
  • the fifth modification of highlighting can be suitably used when there are a plurality of living bodies.
  • step S91 in FIG. 24 the ECU 22 determines whether there are a plurality of living bodies in the traveling direction of the vehicle 12. The determination is performed, for example, by determining whether a plurality of living body corresponding parts 74 extracted in step S4 of FIG. 7 exist.
  • step S92 the ECU 22 executes a process (hereinafter, referred to as “single-use process”) in the case where there is one living body.
  • steps S31 to S38 in FIG. 11 can be executed as the single process.
  • the first modification the processing of FIGS. 14 and 15
  • the second modification the processing of FIG. 17
  • the third modification the processing of FIG. 19
  • fourth modification the processing of FIG. 21) Processing
  • the ECU 22 determines whether or not a human (the adult 112 or the child 114) exists in the traveling direction of the vehicle 12 in step S93.
  • step S94 the ECU 22 performs a process for the animal 110 when there are multiple animals 110 (hereinafter referred to as “animal Execute the first process).
  • the first processing for animal is to highlight also for the animal 110 (animal icon 88), and for example, steps S32 to S38 of FIG.
  • the ECU 22 determines whether the animal 110 exists in the traveling direction of the vehicle 12 in step S95.
  • the ECU 22 performs the processing for the animal 110 in the presence of the animal 110 and at least one of the human adult 112 and the child 114 (hereinafter referred to as “second animal's second Process).
  • the second animal treatment does not highlight the animal 110 (animal icon 88) in order to prioritize human display, and for example, steps S34 to S36 in FIG. 11 are performed on each of the animals 110.
  • step S95 the traveling direction of the vehicle 12 in step S95 (S95: NO) or after step S96, the ECU 22 determines that the animal 110 and at least one of the human adult 112 or the child 114 exist in step S97.
  • Execute human treatment (hereinafter referred to as “human treatment”).
  • the human treatment is a process which gives priority to the display of the human (human icon 86) over the animal 110 (animal icon 88). For example, steps S31 to S38 of FIG. 11 are executed for each human (adult 112 and child 114). Do.
  • the human is prioritized (human icon Display 86 preferentially.).
  • the moving direction of the animal 110 or the human child 114 as a living being whose movement is difficult to predict is estimated.
  • the face direction X is used as a reference to be used, the present invention is not limited to this from the viewpoint of a reference that can be used to predict the movement of a living body whose movement is difficult to predict.
  • the body orientation of the animal 110 or human child 114 may be used together with or instead of the face orientation X of the animal 110 or human child 114.
  • the human adult 112 may perform motions that are difficult to predict, the human adult 112 may also be highlighted using the face direction X or the like.
  • the biological body icon is simultaneously displayed at two places as the highlighting of the biological body icon (FIG. 10), but the biological body icons may be alternately displayed at two places. Further, instead of displaying the living body icon in two places, the second sub-region 100 displaying the living body icon may be shifted in the direction of the face direction X of the living body to display only one place. This makes it possible to call attention to the presence of the living body in a manner that reflects the traveling direction of the living body. For this reason, it becomes possible to issue an appropriate alert to the user.
  • the same highlighting may be performed in any of the first sub-regions 90 where either the animal 110 or the human child 114 is present (FIG. 11).
  • S31 to S33, S37, S38), or the first sub-region 90 to which the animal 110 or human child 114 belongs is the first sub-region 90L, 90R on the left or right or the first sub-region 90C in the middle
  • the type of highlighting may be changed depending on whether or not it is. For example, when either the animal 110 or the human child 114 belongs to the left and right first sub-regions 90L and 90R, two icons are displayed, and when belonging to the central first sub-region 90C, the display color is changed You may go.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 車両周辺監視装置(10)は、撮像装置(16L)からの撮像信号が表す画像(72)を表示する第1表示部(26)と、第1表示部(26)に表示される画像(72)を構成する複数のサブ領域(90L、90C、90R)にそれぞれ対応付けられた各マーク(86、88)の表示の有無によって、画像(72)の各サブ領域(90L、90C、90R)内における監視対象物(110、112、114)の存否情報を可視化する第2表示部(28)とを備える。車両周辺監視装置(10)は、監視対象物(110、112、114)としての生体の顔向き及び身体の向きの少なくとも一方に応じてマーク(86、88)の表示を変化させる。

Description

車両周辺監視装置
 この発明は、車両周辺の監視対象物を検知して簡易表示する車両周辺監視装置に関する。
 従来の車両周辺監視装置として、赤外線カメラによる車両前方の画像を運転席前方のディスプレイに表示すると共に、当該画像から検出された歩行者の画像部位を強調表示する装置が知られている{特開2009-067214号公報(以下「JP 2009-067214 A」という。)の図5参照}。
 また、ディスプレイ内に表示する画像における歩行者の画像部位の強調表示に加えて、ヘッドアップディスプレイ(HUD)に、歩行者の存在を知らせるアイコンの表示を行う装置も知られている{特開2004-364112号公報(以下「JP 2004-364112 A」という。)}。JP 2004-364112 Aでは、赤外線カメラ2Rの撮像画像中に歩行者が存在すると判定した場合、HUD8aに歩行者のアイコン32、33を表示する(図6、[0036]~[0038]参照)。
 なお、歩行者を検出する技術としては、例えば、2値化情報から歩行者の候補を簡易に選定し、グレースケール情報を用いて歩行者と判定することで処理速度と判定精度の両立を実現可能なものも存在する{米国特許出願公開第2003/0138133号公報(以下「US 2003/0138133 A1」という。)の要約及び図8参照}。また、動物を検出する技術も提案されている{米国特許出願公開第2008/0130954号公報(以下「US 2008/0130954 A1」という。)及び米国特許出願公開第2007/0269079号公報(以下「US 2007/0269079 A1」という。)参照}。
 上記のように、JP 2004-364112 Aでは、HUD8aに歩行者の存在を知らせるアイコン32、33を表示する。しかしながら、ユーザに対してより適切な注意喚起を行う余地は依然として存在している。
 この発明はこのような課題を考慮してなされたものであり、ユーザに対して適切な注意喚起を行うことが可能な車両周辺監視装置を提供することを目的とする。
 この発明に係る車両周辺監視装置は、車両に搭載された撮像装置から出力された撮像信号に基づいて、前記車両の周辺における監視対象物としての生体を検知するものであって、前記撮像信号が表す画像を表示する第1表示部と、前記第1表示部に表示される前記画像を構成する複数のサブ領域にそれぞれ対応付けられた各マークの表示の有無によって、前記画像の前記各サブ領域内における前記監視対象物の存否情報を可視化する第2表示部とを備え、前記生体の顔向き及び身体の向きの少なくとも一方に応じて前記マークの表示を変化させることを特徴とする。
 この発明によれば、監視対象物の存否を示す第2表示部上のマークの表示を、生体の顔向き及び身体の向きの少なくとも一方に応じて変化させる。顔向き及び身体の向きは、生体の進行方向を示す可能性が高いため、この発明によれば、生体の進行方向を考慮した注意喚起を行うことが可能となる。従って、ユーザに対して適切な注意喚起を行うことが可能となる。
 前記複数のサブ領域の境界線上に存在する前記生体について、前記生体の顔向き又は身体の向きが前記車両の進行方向の中心線と交差する方向である場合、当該境界線を挟んで隣り合う前記サブ領域に対応させて複数の前記マークを同時に又は交互に前記第2表示部に表示してもよい。これにより、複数のサブ領域の境界線上に存在する生体については、生体の顔向き又は身体の向きが車両の進行方向の中心線と交差する方向である場合、当該境界線を挟んで隣り合うサブ領域に対応させて複数のマークを同時に又は交互に表示する。このため、生体の顔向き又は身体の向きに応じて生体の存在を強調表示し、ユーザに対して適切な注意喚起を行うことが可能となる。
 前記生体が属する前記サブ領域と当該サブ領域よりも前記生体の顔向き又は身体の向きの方向に存在する前記サブ領域との両方に前記マークを表示してもよい。これにより、生体の進行方向を反映する形で生体の存在を注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。
 前記生体の顔向き又は身体の向きが前記車両の進行方向の中心線と交差する方向である場合、前記マークの表示色を、より強い注意喚起を求める警戒色に切り替えてもよい。これにより、生体が車両に向かって来ている場合、生体の存在をより強く注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。
この発明の一実施形態に係る車両周辺監視装置の構成を示すブロック図である。 前記車両周辺監視装置が組み込まれた車両の概略斜視図である。 前記車両において運転者側から視た眺めを示す図である。 汎用モニタの表示画面の一例を示す図である。 MID(Multi-Information Display)の表示画面の一例を示す図である。 前記汎用モニタ及び前記MIDの表示の関係を示す図である。 前記車両周辺監視装置の動作の概要を示すフローチャートである。 第1境界線を設定するフローチャート(図7のS7の詳細)である。 前記実施形態において、動物の顔向きが外向きである場合の前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記実施形態において、前記動物の顔向きが内向きである場合における前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記実施形態において、生体対応部分が属する前記汎用モニタのサブ領域を特定するフローチャート(図7のS9の詳細)である。 生体アイコンの強調表示の第1変形例において、前記動物の顔向きが外向きである場合の前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第1変形例において、前記動物の顔向きが内向きである場合における前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第1変形例において、前記生体対応部分が属する前記汎用モニタのサブ領域を特定するフローチャートである。 前記強調表示の第1変形例において、前記生体アイコンの表示色を設定するフローチャート(図7のS11の詳細の第1変形例)である。 前記生体アイコンの強調表示の第2変形例における前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第2変形例において、前記生体アイコンの表示色を設定するフローチャート(図7のS11の詳細の第2変形例)である。 前記生体アイコンの強調表示の第3変形例における前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第3変形例において、前記生体対応部分が属する前記汎用モニタのサブ領域を特定するフローチャートである。 前記生体アイコンの強調表示の第4変形例における前記車両と前記動物の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第4変形例において、前記生体対応部分が属する前記汎用モニタのサブ領域を特定するフローチャートである。 前記生体アイコンの強調表示の第5変形例において、前記動物及びヒトの大人に対応する生体対応部分それぞれが中央の第1サブ領域に属する場合の前記車両、前記動物及び前記ヒトの大人の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第5変形例において、前記動物に対応する生体対応部分が左側の第1サブ領域に属し、ヒトの子供に対応する生体対応部分が右側の第1サブ領域に属する場合における前記車両、前記動物及び前記ヒトの子供の位置関係、前記汎用モニタのグレースケール画像の一例及び前記MIDのアイコン画像の一例を示す図である。 前記強調表示の第5変形例において、前記生体対応部分が属する汎用モニタのサブ領域を特定するフローチャートである。
A.一実施形態
[1.構成]
(1-1.全体構成)
 図1は、この発明の一実施形態に係る車両周辺監視装置10(以下「監視装置10」ともいう。)の構成を示すブロック図である。図2は、監視装置10が組み込まれた車両12の概略斜視図である。図3は、車両12において運転者側から視た眺めを示す図である。なお、図3は、車両全般が右側走行することを取り決められている国の道路を車両12が走行している状況を示しており、車両12は左ハンドル車として図示されている。代わりに、右ハンドル車であっても同様の構成を採用することができる。
 図1及び図2に示すように、車両周辺監視装置10は、左右の赤外線カメラ16L、16R(以下「カメラ16L、16R」ともいう。)と、車速センサ18と、ヨーレートセンサ20と、電子制御装置22(以下「ECU22」という。)と、スピーカ24と、汎用モニタ26(以下「モニタ26」ともいう。)と、MID28(Multi-Information Display)とを有する。
(1-2.赤外線カメラ16L、16R)
 赤外線カメラ16L、16Rは、車両12の周囲を撮像する撮像装置として機能する。本実施形態では、2つのカメラ16L、16Rを組み合わせてステレオカメラを構成する。カメラ16L、16Rは、被写体の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有する。
 図2に示すように、カメラ16L、16Rは、車両12の前部バンパー部に、車両12の車幅方向中心部に対して略対称な位置に配置されている。また、2つのカメラ16L、16Rは、それらの光軸が互いに平行であり、且つ両者の路面からの高さが等しくなるように固定されている。
 なお、車両12の周囲を撮像する撮像装置は、図2に示す構成例に限られることなく、種々の構成を採り得る。例えば、撮像装置は、複眼(ステレオカメラ)であっても単眼(1つのカメラ)であってもよい。この場合、別の測距手段(レーダ装置)を併せて備えることが好ましい。また、赤外線カメラに代替して、主に可視光領域の波長を有する光を利用するカメラ(カラーカメラともいう。)を用いてもよく、或いは両方を併せ備えてもよい。
(1-3.車速センサ18及びヨーレートセンサ20)
 車速センサ18は、車両12の車速V[km/h]を検出し、ECU22に出力する。ヨーレートセンサ20は、車両12のヨーレートYr[°/sec]を検出し、ECU22に出力する。
(1-4.ECU22)
 ECU22は、監視装置10を制御するものであり、図1に示すように、入出力部30、演算部32及び記憶部34を有する。
 カメラ16L、16R、車速センサ18及びヨーレートセンサ20からの各信号は、入出力部30を介してECU22に供給される。また、ECU22からの出力信号は、入出力部30を介してスピーカ24、モニタ26及びMID28に出力される。入出力部30は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
 演算部32は、カメラ16L、16R、車速センサ18及びヨーレートセンサ20からの各信号に基づく演算を行い、演算結果に基づきスピーカ24、モニタ26及びMID28に対する信号を生成する。
 図1に示すように、演算部32は、2値化機能40、生体抽出機能42、生体種別判定機能44、スピーカ制御機能46、汎用モニタ制御機能48及びMID制御機能50を有する。各機能40、42、44、46、48、50は、記憶部34に記憶されているプログラムを実行することにより実現される。或いは、前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部(サーバ等)から供給されてもよい。
 2値化機能40は、カメラ16L、16Rの一方(本実施形態では、左側のカメラ16L)が取得したグレースケール画像72(図4)を2値化して2値化画像(図示せず)を生成する。生体抽出機能42は、グレースケール画像72及び前記2値化画像を用いて、これらの画像中におけるヒトや動物等の生体(監視対象物)を抽出する。生体種別判定機能44は、抽出された監視対象物が、ヒト(大人、子供)、動物及びその他(判定不能なものを含む。)のいずれであるかを判定する。スピーカ制御機能46は、スピーカ24に警報音を出力させる等、スピーカ24を制御する。汎用モニタ制御機能48は、汎用モニタ26に対してグレースケール画像72を表示させる等、汎用モニタ26を制御する。
 MID制御機能50は、MID28に対してヒト及び動物等の生体のアイコン(以下「生体アイコン」という。)を表示させる等、MID28を制御する。図1に示すように、MID制御機能50は、境界線設定機能52、顔向き検出機能54、サブ領域選択機能56、アイコン表示色設定機能58(以下「表示色設定機能58」ともいう。)及びアイコン表示機能60を有する。各機能52、54、56、58、60の詳細については後述する。
 記憶部34は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
(1-5.スピーカ)
 スピーカ24は、ECU22からの指令に応じて、警報音等の出力を行う。スピーカ24は、ダッシュボード62(図3)に設けられる(但し、図3において、スピーカ24は図示していない。)。図示しないオーディオ装置又はナビゲーション装置に設けられているスピーカをスピーカ24として用いてもよい。
(1-6.汎用モニタ26)
 汎用モニタ26(第1表示部)は、カラー画像又はモノクロ画像を表示可能であり、例えば、液晶パネル、有機EL(Electro-Luminescence)パネル又は無機ELパネルを備える。図2及び図3に示すように、汎用モニタ26は、ダッシュボード62の所定部位(具体的には、ハンドル64の配設位置に対して右方の部位)に配設されている。
 図4は、汎用モニタ26の表示画面の一例を示す図である。図4において、モニタ26の表示領域(以下「第1表示領域70」又は「表示領域70」という。)には、左側のカメラ16Lが撮像したグレースケール画像72が表示されている。
 グレースケール画像72には、汎用モニタ制御機能48が生成した強調表示を付加することができる。すなわち、図4に示すように、ヒトや動物等の生体が抽出された箇所(以下「生体対応部分74」という。)には、強調枠76が表示される。或いは、生体対応部分74に着色してもよい。或いは、強調枠76の表示及び生体対応部分74の着色の両方を行うこともできる。或いは、その他の方法による強調であってもよい。
 なお、汎用モニタ26は、左側のカメラ16Lからのグレースケール画像72の代わりに、右側のカメラ16Rからのグレースケール画像72を表示してもよい。また、汎用モニタ26は、カメラ16L又はカメラ16Rからのグレースケール画像72に加え、その他の画像、例えば、ナビゲーション用の各種画像(道路地図、サービス情報等)、動画コンテンツ等を同時に又は切り替えて表示してもよい。各画像の切替えは、例えば、特定のプッシュボタンの押圧、又は切替え条件の事前設定により行うことが可能である。
(1-7.MID28)
 MID28(第2表示部)は、車両12の運転の際の付随情報を可視化して表示する簡易表示装置(アイコン表示装置)であり、汎用モニタ26(特に、その表示用パネル)よりも構成が簡便で、且つ安価な表示モジュールである。例えば、汎用モニタ26よりも解像度の低い表示用パネル(例えば、ノンインタレース方式で動作するもの)をMID28として用いることができる。
 図2及び図3に示すように、MID28は、計器盤66の上側近傍のダッシュボード62(又は計器盤66内)に設けられる。MID28は、運転者がハンドル64の上側の隙間を介してMID28を視認可能となるような位置に配置されている。これにより、運転者は、車両12の前方へ顔を向けた状態のまま、MID28を見ることが可能となる。
 図5は、MID28の表示画面の一例を示す図である。図5において、MID28の表示領域(以下「第2表示領域80」又は「表示領域80」という。)には、グレースケール画像72に対応する各種のアイコンを含む画像(以下「アイコン画像82」という。)が表示される。
 例えば、図5に示すように、表示領域80の下側には、車両12の進行方向の道路を示す道路アイコン84が表示されている。道路アイコン84は、3本のライン、すなわち、左から順に、ライン84L、84C、84Rで構成されている。ライン84L、84R間の幅は、表示領域80のうち遠方位置を想起させる上側ほど狭くなっている。すなわち、道路アイコン84の表示により、運転席から前方の直線道路を眺めたときの道路形状を、運転者に観念させることができる。
 また、図5に示すように、表示領域80の上側には、車両12の周囲に存在する歩行者を示すヒトアイコン86(マーク)を表示することができる。本実施形態のヒトアイコン86は、ヒトの歩行者について大人及び子供の区別なく用いられる。もちろんそのような区別をつけ、ヒトの大人と子供とで別々のアイコンを用いてよい。また、ヒトアイコン86は、表示領域80の3箇所(すなわち、左側、中央及び右側)に表示可能である(図5、図6等参照)。
 なお、ヒトアイコン86の代わりに、その他の生体を示すアイコン{例えば、動物を示す動物アイコン88(マーク)(図9等参照))を表示することもできる。
 また、MID28は、上記の各種アイコン(道路アイコン84、ヒトアイコン86及び動物アイコン88)を表示する代わりに、車両12の燃費、現在時刻、計器盤66に関する情報等を表示してもよい。各情報(画像)の切替えは、例えば、特定のプッシュボタンの押圧、又は切替え条件の事前設定により行うことが可能である。
[2.汎用モニタ26及びMID28の表示の関係]
 図6は、汎用モニタ26及びMID28の表示の関係を示す図である。図6に示すように、本実施形態では、グレースケール画像72を車幅方向に3つの領域(以下「第1サブ領域90L、90C、90R」又は「サブ領域90L、90C、90R」といい、「第1サブ領域90」又は「サブ領域90」と総称する。)に分ける。以下では、各第1サブ領域90の境界線(以下「第1境界線92L、92R」又は「境界線92L、92R」といい、「第1境界線92」又は「境界線92」と総称する。)は、実際のグレースケール画像72には含まれない仮想的な線であり、車幅方向に変位させることができる(詳細は、図8を用いて後述する。)。なお、実際の処理では、サブ領域90を用いずに、境界線92のみを用いることも可能である。境界線92は、MID28の道路アイコン84のように、車線に沿う形(上に行く程、狭まる形状)であってもよい。
 また、図6に示すように、アイコン画像82を車幅方向に3つの領域(以下「第2サブ領域100L、100C、100R」又は「サブ領域100L、100C、100R」といい、「第2サブ領域100」又は「サブ領域100」と総称する。)に分ける。アイコン画像82における各第2サブ領域100の境界線(以下「第2境界線102L、102R」又は「境界線102L、102R」といい、「第2境界線102」又は「境界線102」と総称する。)は、実際のアイコン画像82には含まれない仮想的な線であると共に、固定されており、変化しない。第2境界線102L、102Rは、それぞれ第1境界線92L、92Rと対応付けられている。境界線92と同様、境界線102は、MID28の道路アイコン84のように、車線に沿う形(上に行く程、狭まる形状)であってもよい。
 本実施形態では、グレースケール画像72中の生体対応部分74が属する第1サブ領域90(以下「第1生体存在サブ領域」という。)を判定し、MID28におけるアイコン画像82の第2サブ領域100のうち第1生体存在サブ領域に対応するもの(以下「第2生体存在サブ領域」という。)に生体アイコン(ヒトアイコン86、動物アイコン88等)を表示する。
 なお、所定の場合には、表示する生体アイコンの数を1から2に増加させる、生体アイコンの表示色を変化させる等の処理を行うことができる(詳細は後述する。)。
[3.車両周辺監視装置10の動作]
(3-1.概要)
 図7は、車両周辺監視装置10の動作の概要を示すフローチャートである。ステップS1において、赤外線カメラ16L、16Rは、車両12の周辺を撮像する。ステップS2において、ECU22は、カメラ16L、16Rからの信号をA/D変換してグレースケール画像72を取得する。ステップS3において、ECU22は、2値化処理を実行する。2値化処理では、グレースケール画像72を2値化して2値化画像(図示せず)を取得する。
 ステップS4において、ECU22は、取得した2値化画像及びグレースケール画像72から生体対応部分74を抽出する。生体はその周囲より高温となっているので、2値化画像及びグレースケール画像72において生体に対応する部分(生体対応部分74)は高輝度となる。従って、2値化画像及びグレースケール画像72において、輝度が所定の閾値以上の画素の領域を探索することにより、生体対応部分74を抽出することが可能となる。
 なお、2値化画像及びグレースケール画像72の両方を用いるのは、2値化画像を用いて簡易に生体の存在を特定し、その後、グレースケール画像72を用いて生体に関する詳細な情報を取得するためである。そのような処理として、例えば、US 2003/0138133 A1に記載のものを用いることができる。また、2値化画像及びグレースケール画像72の一方のみを用いて生体対応部分74を抽出してもよい。
 ステップS5において、ECU22は、抽出した生体対応部分74が示す生体の種別を判定する。すなわち、抽出した生体対応部分74が、ヒトの大人、子供及び動物のいずれに対応するものなのかを判定する。判定される種別は、その他のものであってもよい。
 ステップS6において、ECU22は、生体対応部分74を強調したグレースケール画像72を汎用モニタ26に表示する。上述したように、強調表示は、例えば、強調枠76の表示(図4)及び生体対応部分74の着色の少なくとも一方等を行う。
 ステップS7において、ECU22は、グレースケール画像72又は前記2値化画像において第1境界線92L、92R(図6)を設定して第1サブ領域90を特定する(詳細は後述する。)。
 ステップS8において、ECU22は、抽出した生体対応部分74のうちヒトの子供及び動物に対応するものから当該子供又は動物の顔向きを検出する。なお、顔向きの代わりに又は顔向きに加えて、当該子供又は動物の身体の向きを検出してもよい。顔向き又は身体の向きの検出方法としては、例えば、US 2008/0130954 A1及びUS 2007/0269079 A1に記載のものを利用することができる。ここにいう顔向き又は身体の向きの検出とは、例えば、平面視におけるカメラ16Lの光軸に対する角度を具体的に算出できることが好ましいが、車両12又は運転者から見て左右いずれを向いているか(換言すると、内向き又は外向きのいずれであるか)の区別であってもよい。
 ステップS9において、ECU22は、生体対応部分74が属する第1サブ領域90(第1生体存在サブ領域)を判定する。なお、本実施形態において、生体対応部分74が境界線92上にある場合、当該境界線92を挟む2つの第1サブ領域90を、生体対応部分74が属する第1サブ領域90と判定する場合がある(詳細は後述する。)。
 ステップS10において、ECU22は、第1生体存在サブ領域に対応する第2サブ領域100(第2生体存在サブ領域)を判定する。
 ステップS11において、ECU22は、第2生体存在サブ領域における生体アイコンの表示色(警報色)を設定する。当該表示色は、本実施形態では、単色(黄色のみ)であるため、ステップS11の処理は省略してもよい。また、後述するように、状況に応じて、生体アイコンの表示色を変化させることもできる。
 ステップS12において、ECU22は、生体を示す生体アイコン(ヒトアイコン86等)を、ステップS10で判定した第2生体存在サブ領域に表示する。なお、車両12と生体との間の接触可能性が高い場合、スピーカ24から警告音を発してもよい。
(3-2.第1境界線92の設定)
 図8は、第1境界線92を設定するフローチャート(図7のS7の詳細)である。ステップS21において、ヨーレートセンサ20は、車両12のヨーレートYrを検出する。ステップS22において、ECU22は、車両12が左旋回中であるか否かを、ヨーレートセンサ20が検出したヨーレートYrに基づいて判定する。例えば、左旋回中であるか否かを判定するためのヨーレートYrの閾値(左旋回判定閾値)を設定しておき、検出したヨーレートYrが左旋回判定閾値を超えるか否かを判定する。
 車両12が左旋回中でない場合(S22:NO)、ステップS24に進む。車両12が左旋回中である場合(S22:YES)、ステップS23において、ECU22は、各第1境界線92を左にシフトさせる。これにより、車両12の正面付近に生体が存在する場合でも、MID28の右側のサブ領域100Rに生体アイコンが表示される場合が生じる。また、車両12の左前方に生体が存在する場合でも、MID28の中央のサブ領域100Cに生体アイコンが表示される場合が生じる。さらに、車両12の右前方に生体が存在する場合でも、MID28には生体アイコンが表示されない場合が生じる。これらの結果、車両12の進行方向(左方向)に合わせてMID28の表示を行うことが可能となる。
 ステップS24において、ECU22は、車両12が右旋回中であるか否かを、ヨーレートセンサ20が検出したヨーレートYrに基づいて判定する。例えば、右旋回中であるか否かを判定するためのヨーレートYrの閾値(右旋回判定閾値)を設定しておき、検出したヨーレートYrが右旋回判定閾値を超えるか否かを判定する。
 車両12が右旋回中でない場合(S24:NO)、今回の処理を終える。車両12が右旋回中である場合(S24:YES)、ステップS25において、ECU22は、各第1境界線92を右にシフトさせる。これにより、車両12の正面付近に生体が存在する場合でも、MID28の左側のサブ領域100Lに生体アイコンが表示される場合が生じる。また、車両12の右前方に生体が存在する場合でも、MID28の中央のサブ領域100Cに生体アイコンが表示される場合が生じる。さらに、車両12の左前方に生体が存在する場合でも、MID28には生体アイコンが表示されない場合が生じる。これらの結果、車両12の進行方向(右方向)に合わせてMID28の表示を行うことが可能となる。
(3-3.生体対応部分74が属する第1サブ領域90の特定)
(3-3-1.生体対応部分74が属する第1サブ領域90の特定の考え方)
 図9及び図10は、生体対応部分74が属する第1サブ領域90(第1生体存在サブ領域)の特定方法を説明する図である。すなわち、図9は、生体としての動物110の顔向きXが外向き{車両12の進行方向の中心線Ax(例えば、カメラ16Lの光軸)とは反対に向かう方向}である場合の車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。図10は、動物110の顔向きXが内向き(中心線Axに向かう方向)である場合における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。図9及び図10において、αは、赤外線カメラ16Lの映像画角を示す(その他の図においても同じである。)。
 図9に示すように、監視対象物としての動物110の顔向きXが外向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、1箇所のみとする。一方、図10に示すように、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、2箇所とする。これにより、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にあるとき、運転者に動物110を強調して通知することが可能となる。後述するように、動物アイコン88を複数箇所表示する代わりに又はこれに加えて、動物アイコン88の表示色を変化させることもできる。ヒトの子供の場合も同様である。
(3-3-2.生体対応部分74が属する第1サブ領域90の特定処理)
 図11は、生体対応部分74が属する第1サブ領域90(第1生体存在サブ領域)を特定するフローチャート(図7のS9の詳細)である。ステップS31において、ECU22は、図7のステップS5で判定した生体の種類が、動物110又はヒトの子供であるか否かを判定する。動物110及びヒトの子供でない場合、すなわち、ヒトの大人又はその他の生体である場合(S31:NO)、ステップS34に進む。動物110又はヒトの子供である場合(S31:YES)、ステップS32において、ECU22は、生体(動物110又はヒトの子供)の顔向きXを検出する。
 ステップS33において、ECU22は、生体の顔が内向きであるか否かを判定する。顔が内向きでない場合(S33:NO)、ステップS34において、ECU22は、生体対応部分74が第1境界線92上にあるか否かを判定する。生体対応部分74が第1境界線92上にない場合(S34:NO)、ステップS35において、ECU22は、生体対応部分74が存在する第1サブ領域90を選択する。生体対応部分74が第1境界線92上にある場合(S34:YES)、ステップS36において、ECU22は、中央のサブ領域90Cを第1生体存在サブ領域として選択する。
 ステップS33において顔が内向きである場合(S33:YES)、ステップS37において、ECU22は、生体対応部分74が第1境界線92上にあるか否かを判定する。
 生体対応部分74が第1境界線92上にない場合(S37:NO)、ステップS35において、ECU22は、生体対応部分74が存在する第1サブ領域90を選択する。生体対応部分74が第1境界線92上にある場合(S37:YES)、ステップS38において、ECU22は、2つの第1サブ領域90を第1生体存在サブ領域として選択する。例えば、生体対応部分74が左側の第1境界線92L上にある場合、ECU22は、中央のサブ領域90C及び左側のサブ領域90Lを選択する。生体対応部分74が右側の第1境界線92R上にある場合、ECU22は、中央の第1サブ領域90C及び右側の第1サブ領域90Rを選択する。
 そして、上記のように、ECU22は、選択された第1サブ領域90に対応する第2サブ領域100に生体アイコン(動物アイコン88等)を表示する(図7のS12及び図10)。
[4.本実施形態の効果]
 以上のように、本実施形態によれば、MID28上の生体アイコンの表示を、生体の顔向きXに応じて変化させる(図11のS33等参照)。顔向きXは、生体の進行方向を示す可能性が高いため、本実施形態によれば、生体の進行方向を考慮した注意喚起を行うことが可能となる。従って、ユーザに対して適切な注意喚起を行うことが可能となる。
 本実施形態では、動物110又はヒトの子供に対応する生体対応部分74が第1境界線92上に存在し、動物110又はヒトの子供の顔が内側を向いている場合(図11のS31:YES→S33:YES→S37:YES)、当該境界線92を挟んで隣り合う第1サブ領域90に対応させて複数の生体アイコンを同時にMID28に表示する(S38及び図10)。本実施形態によれば、第1境界線92上に存在する生体については、顔が内向きの場合、境界線92を挟んで隣り合う第1サブ領域90に対応させて複数の生体アイコンを同時に表示する。このため、生体の顔向きXに応じて生体の存在を強調表示し、ユーザに対して適切な注意喚起を行うことが可能となる。
B.変形例
 なお、この発明は、上記実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。例えば、以下の構成を採用することができる。
[1.搭載対象]
 上記実施形態において、車両12は、四輪車を前提としていたが(図2参照)、車両周辺監視装置10を搭載する車両12は、これに限らない。例えば、二輪車(自転車を含む。)、三輪車又は六輪車にも搭載することが可能である。
 上記実施形態において、監視装置10を車両12に搭載したが、周辺の監視対象物を検知し、これをユーザに報知するものであれば、別の移動体にも搭載することができる。当該移動体として、例えば、船舶及び航空機を挙げることができる。
[2.撮像装置]
 上記実施形態では、車両12の周囲を撮像する撮像装置として、2つの赤外線カメラ16L、16Rを用いたが、車両12の周囲を撮像することができるものであれば、これに限らない。例えば、撮像装置は、複眼(ステレオカメラ)であっても単眼(1つのカメラ)であってもよい。また、赤外線カメラに代替して、主に可視光領域の波長を有する光を利用するカメラ(カラーカメラ)を用いてもよく、あるいは両方を併せ備えてもよい。
[3.汎用モニタ26(第1表示部)及びMID28(第2表示部)]
 上記実施形態では、赤外線カメラ16Lからのグレースケール画像72を表示するものとして汎用モニタ26を用いたが、撮像手段が撮像した画像を表示するものであれば、これに限らない。また、上記実施形態では、汎用モニタ26に表示するグレースケール画像72に強調枠76を表示させたが、強調表示を付することなく、カメラ16Lからのグレースケール画像72をそのまま汎用モニタ26に表示してもよい。
 上記実施形態では、生体アイコン(マーク)を表示するものとして、ノンインタレース方式で動作する比較的汎用性のある表示装置をMID28として用いたが、これに限らず、生体アイコンのみを表示するインジケータを複数(例えば3つ)並べたものをMID28の代わりに用いることもできる。或いは、JP 2004-364112 Aの図2に示すようなヘッドアップディスプレイ(HUD)をMID28の代わりに用いることも可能である。
 上記実施形態では、汎用モニタ26とMID28の両方を用いたが、MID28のみを用いる構成も可能である。この場合、カメラ16Lで取得したグレースケール画像72は、MID28に表示するために用いられる。
[4.生体アイコンの表示]
(4-1.第1サブ領域90及び第2サブ領域100)
 上記実施形態では、第1サブ領域90及び第2サブ領域100をそれぞれ3箇所としたが、第1サブ領域90及び第2サブ領域100は複数であれば、これに限らない。例えば、第1サブ領域90及び第2サブ領域100をそれぞれ2箇所又は4箇所以上とすることが可能である。
 上記実施形態では、第1サブ領域90及び第2サブ領域100を横方向(車幅方向)で分割したが、分割方向又は分割領域は、これに限らない。例えば、第1サブ領域90及び第2サブ領域100を縦方向(進行方向)で分割することもできる。或いは、境界線92、102は、MID28の道路アイコン84のように、車線に沿う形(上に行く程、狭まる形状)とした場合、第1サブ領域90及び第2サブ領域100をこれらの境界線92、102に合わせた形状で分割してもよい。
(4-2.生体アイコンの強調表示)
(4-2-1.強調表示に関する基本的な考え方)
 上記実施形態では、生体アイコン(動物アイコン88等)を2箇所に表示する条件として、生体が動物110又はヒトの子供であり(図11のS31:YES)、生体の顔向きXが内向きであり(S33:YES)且つ生体対応部分74が第1境界線92上にあること(S37:YES)を条件としたが、例えば、監視対象物としての生体の動きが予測困難である場合(換言すると、生体に理性的な動きを期待できない場合又は飛出しの危険が比較的高い場合)に強調表示する観点からすれば、強調表示の条件は、これに限らない。
 また、上記実施形態では、生体アイコンの強調表示として、生体アイコンを2箇所で同時に表示したが(図10)、強調表示の方法は、これに限らない。
 上記実施形態では、動きを予測困難な生体(換言すると、生体に理性的な動きを期待できない生体又は飛出しの危険が比較的高い生体)として、動物110及びヒトの子供の両方を想定していたが(図11のS31)、動物110及びヒトの子供の一方のみでもよい。或いは、その他の生体(例えば、動物110をさらに細分化した主体)を設定してもよい。
(4-2-2.生体アイコンの強調表示の第1変形例)
 図12及び図13は、生体アイコンの強調表示の第1変形例を説明する図である。すなわち、図12は、強調表示の第1変形例において、生体としての動物110の顔向きXが外向き(中心線Axとは反対に向かう方向)である場合の車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。図13は、強調表示の第1変形例において、動物110の顔向きXが内向き(中心線Axに向かう方向)である場合における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
 図12に示すように、動物110の顔向きXが外向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、通常警戒色(例えば、黄色)とする。一方、図13に示すように、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、通常の警戒色よりもさらなる注意喚起を促すための特別警戒色(例えば、赤色)とする。これにより、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、運転者に動物110を強調して通知することが可能となる。ヒトの子供の場合も同様である。
 図14は、強調表示の第1変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第1変形例)である。図15は、強調表示の第1変形例において、生体アイコンの表示色を設定するフローチャート(図7のS11の詳細の第1変形例)である。
 図14のステップS41~S43は、図11のステップS34~S36と同様である。従って、図14の処理は、図11と比べて簡略化され、強調表示としての処理も存在しない。その代わりに、図15の処理により、強調表示としての生体アイコンの表示色の切替えが行われる。
 図15のステップS51~S53は、図11のステップS31~S33と同様である。すなわち、図15のステップS51において、ECU22は、図7のステップS5で判定した生体の種類が、動物110又はヒトの子供であるか否かを判定する。動物110及びヒトの子供でない場合、すなわち、ヒトの大人又はその他の生体である場合(S51:NO)、ステップS54に進む。動物110又はヒトの子供である場合(S51:YES)、ステップS52において、ECU22は、生体(動物110又はヒトの子供)の顔向きXを検出する。
 ステップS53において、ECU22は、生体の顔が内向きであるか否かを判定する。顔が内向きでない場合(S53:NO)、ステップS54において、ECU22は、生体アイコンの表示色を通常警戒色(例えば、黄色)に設定する。顔が内向きである場合(S53:YES)、ステップS55において、ECU22は、生体アイコンの表示色を特別警戒色(例えば、赤色)に設定する。
(4-2-3.生体アイコンの強調表示の第2変形例)
 図16は、生体アイコンの強調表示の第2変形例を説明する図である。すなわち、図16は、強調表示の第2変形例における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
 図16に示すように、強調表示の第2変形例では、抽出された生体対応部分74が動物110又はヒトの子供に対応する場合、MID28に表示する生体アイコン(動物アイコン88等)は、特別警戒色(例えば、赤色)とする。一方、図示していないが、抽出された生体対応部分74が動物110及びヒトの子供以外に対応する場合、MID28に表示する生体アイコン(ヒトアイコン86)は、通常警戒色(例えば、黄色)とする。これにより、運転者に動物110又はヒトの子供を強調して通知することが可能となる。
 図17は、強調表示の第2変形例において、生体アイコンの表示色を設定するフローチャート(図7のS11の詳細の第2変形例)である。図17のステップS61~S63は、図15のステップS51、S54、S55と同様である。
 すなわち、ステップS61において、ECU22は、図7のステップS5で判定した生体の種類が、動物110又はヒトの子供であるか否かを判定する。動物110及びヒトの子供でない場合、すなわち、ヒトの大人又はその他の生体である場合(S61:NO)、ステップS62において、ECU22は、生体アイコンの表示色として通常警戒色(例えば、黄色)を設定する。動物110又はヒトの子供である(S61:YES)、ステップS63において、ECU22は、生体アイコンの表示色として特別警戒色(例えば、赤色)を設定する。なお、生体アイコンを表示する第2サブ領域100は、例えば、図14のフローチャートを用いて判定する。
(4-2-4.生体アイコンの強調表示の第3変形例)
 図18は、生体アイコンの強調表示の第3変形例を説明する図である。すなわち、図18は、強調表示の第3変形例における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
 図18に示すように、強調表示の第3変形例では、動物110(生体対応部分74)が左側の第1サブ領域90Lにいる場合、MID28の動物アイコン88は、動物110の現在位置に対応する左側の第2サブ領域100Lとその隣りの中央の第2サブ領域100Cに表示する。換言すると、生体が動物110であれば、生体が境界線92上にいなくても、生体アイコンを複数箇所で表示する。これにより、運転者に動物110を強調して通知することが可能となる。ヒトの子供の場合も同様である。
 図19は、強調表示の第2変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第2変形例)である。
 図19のステップS71~S75は、図11のステップS31、S34~S36、S38と同様である。すなわち、図17の処理は、図11のステップS32、S33、S37が省略され、生体が動物110又はヒトの子供である場合(S71:YES)、当該生体に対応する生体対応部分74が属する第1サブ領域90及びこれと隣り合う第1サブ領域90の両方を第1生体存在サブ領域とし、これらに対応する第2生体存在サブ領域に生体アイコンを表示する。従って、生体が動物110又はヒトの子供であるか否かのみによって、生体アイコンの強調表示をするか否かを決定している。
 例えば、当該生体に対応する生体対応部分74が左側の第1サブ領域90Lに属する場合、左側及び中央の第2サブ領域100L、100Cに生体アイコンを表示する。また、当該生体に対応する生体対応部分74が第1境界線92L上にある場合、左側及び中央の第2サブ領域100L、100Cに生体アイコンを表示する。さらに、当該生体に対応する生体対応部分74が中央の第1サブ領域90Cに属する場合、例えば、全ての第2サブ領域100L、100C、100Rに生体アイコンを表示する。
 強調表示の第3変形例によれば、生体が属する第1サブ領域90と当該サブ領域90と隣り合う第1サブ領域90とに生体アイコンを表示する。これにより、生体の存在をより強く注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。
(4-2-5.生体アイコンの強調表示の第4変形例)
 図20は、生体アイコンの強調表示の第4変形例を説明する図である。すなわち、図20は、強調表示の第4変形例における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
 図20に示すように、強調表示の第4変形例では、抽出された生体対応部分74が動物110に対応し且つ動物110の顔向きXが右向きである場合、MID28に表示する動物アイコン88は、動物110の現在位置に対応する中央の第2サブ領域100Cと顔向きXに対応する右側の第2サブ領域100Rとに表示する。これにより、運転者に動物110の進行方向を強調して通知することが可能となる。ヒトの子供の場合も同様である。
 図21は、強調表示の第4変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第3変形例)である。図21のステップS81~S86は、図11のステップS31、S34~S36、S32、S38と同様である。すなわち、図21では、図11のステップS33、S37が省略されている。換言すると、図21では、動物110の顔が内向きであるか否かにかかわらず、顔向きXに応じて2つの第1サブ領域90を選択する。なお、動物110に対応する生体対応部分74が境界線92上にある場合、当該境界線92を挟む2つの第1サブ領域90を選択する。ヒトの子供の場合も同様である。
(4-2-6.生体アイコンの強調表示の第5変形例)
 図22及び図23は、生体アイコンの強調表示の第5変形例を説明する図である。すなわち、図22は、強調表示の第5変形例において、動物110及びヒトの大人112に対応する生体対応部分74それぞれが中央の第1サブ領域90Cに属する場合の車両12、動物110及びヒトの大人112の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
 図22に示すように、監視対象物としての動物110及びヒトの大人112に対応する生体対応部分74それぞれが中央の第1サブ領域90Cに属する場合、MID28では、中央の第2サブ領域100Cにヒトアイコン86のみを表示する。すなわち、動物110よりもヒトの大人112を優先してアイコン表示する。
 図23は、強調表示の第5変形例において、動物110に対応する生体対応部分74が左側の第1サブ領域90Lに属し、ヒトの子供114に対応する生体対応部分74が右側の第1サブ領域90Rに属する場合における車両12、動物110及びヒトの子供114の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
 図23に示すように、動物110に対応する生体対応部分74が左側の第1サブ領域90に属し、監視対象物としてのヒトの子供114に対応する生体対応部分74が右側の第1サブ領域90に属する場合、MID28では、ヒトアイコン86のみを強調表示し、動物アイコン88は強調表示しない。換言すると、ヒトの子供114についてのみ強調表示を行い、動物110については強調表示を行わない。
 図24は、強調表示の第5変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第4変形例)である。強調表示の第5変形例では、生体が複数存在する場合に好適に用いることができる。
 図24のステップS91において、ECU22は、車両12の進行方向に生体が複数存在するか否かを判定する。当該判定は、例えば、図7のステップS4で抽出された生体対応部分74が複数存在するか否かを判定することにより行う。車両12の進行方向に生体が複数存在しない場合(S91:NO)、ステップS92において、ECU22は、生体が1つである場合の処理(以下「単体用処理」という。)を実行する。単体用処理としては、例えば、図11のステップS31~S38を実行することができる。或いは、上記強調表示の第1変形例(図14及び図15の処理)、第2変形例(図17の処理)、第3変形例(図19の処理)又は第4変形例(図21の処理)を行ってもよい。
 車両12の進行方向に生体が複数存在する場合(S91:YES)、ステップS93において、ECU22は、車両12の進行方向にヒト(大人112又は子供114)が存在するか否かを判定する。
 車両12の進行方向にヒト(大人112又は子供114)が存在しない場合(S93:NO)、ステップS94において、ECU22は、動物110のみが複数存在する際の動物110用の処理(以下「動物用第1処理」という。)を実行する。動物用第1処理は、動物110(動物アイコン88)についても強調表示を行うものであり、例えば、図11のステップS32~S38を動物110それぞれについて実行する。
 車両12の進行方向にヒト(大人112又は子供114)が存在する場合(S93:YES)、ステップS95において、ECU22は、車両12の進行方向に動物110が存在するか否かを判定する。動物110が存在する場合(S95:YES)、ステップS96において、ECU22は、動物110とヒトの大人112又は子供114の少なくとも一方とが存在する際の動物110用の処理(以下「動物用第2処理」という。)を実行する。動物用第2処理は、ヒトの表示を優先するため、動物110(動物アイコン88)については強調表示を行わないものであり、例えば、図11のステップS34~S36を動物110それぞれについて実行する。
 ステップS95において車両12の進行方向に動物110が存在しない場合(S95:NO)又はステップS96の後、ステップS97において、ECU22は、動物110とヒトの大人112又は子供114の少なくとも一方とが存在する際のヒト用の処理(以下「ヒト用処理」という。)を実行する。ヒト用処理は、動物110(動物アイコン88)よりもヒト(ヒトアイコン86)の表示を優先する処理であり、例えば、図11のステップS31~S38をヒト(大人112及び子供114)それぞれについて実行する。
 なお、図22を参照して説明したように、動物110とヒト(大人112又は子供114)の生体対応部分74が同一の第1サブ領域90に属している場合、ヒトを優先する(ヒトアイコン86を優先的に表示する。)。
(4-2-7.顔向きXの検出)
 上記実施形態では、動きが予測困難な生体(換言すると、生体に理性的な動きを期待できない生体又は飛出しの危険が比較的高い生体)としての動物110又はヒトの子供114の進行方向を推定する基準として顔向きXを用いたが、動きが予測困難な生体の動きの予測に用いることが可能な基準の観点からすれば、これに限らない。例えば、動物110又はヒトの子供114の顔向きXと共に又はこれに代えて動物110又はヒトの子供114の身体の向きを用いてもよい。或いは、ヒトの大人112であっても、予測困難な動きをすることもあるため、ヒトの大人112についても顔向きX等を用いて強調表示をしてもよい。
(4-2-8.その他)
 上記実施形態では、生体アイコンの強調表示として、生体アイコンを2箇所で同時に表示したが(図10)、生体アイコンを2箇所で交互に表示してもよい。また、生体アイコンを2箇所で表示する代わりに、生体アイコンを表示する第2サブ領域100を、生体の顔向きXの方向にずらして1箇所のみ表示してもよい。これにより、生体の進行方向を反映する形で生体の存在を注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。
 上記実施形態では、動物110又はヒトの子供114のいずれかが第1サブ領域90のいずれに存在する場合でも同一の強調表示(2箇所のアイコン表示)を行う可能性があったが(図11のS31~S33、S37、S38)、動物110又はヒトの子供114のいずれかが属する第1サブ領域90が、左右の第1サブ領域90L、90Rか又は中央の第1サブ領域90Cであるか否かに応じて強調表示の種類を変更してもよい。例えば、動物110又はヒトの子供114のいずれかが左右の第1サブ領域90L、90Rに属する場合、2箇所のアイコン表示を行い、中央の第1サブ領域90Cに属する場合、表示色の変更を行ってもよい。

Claims (4)

  1.  車両(12)に搭載された撮像装置(16L、16R)から出力された撮像信号に基づいて、前記車両(12)の周辺における監視対象物としての生体(110、112、114)を検知する車両周辺監視装置(10)であって、
     前記撮像信号が表す画像(72)を表示する第1表示部(26)と、
     前記第1表示部(26)に表示される前記画像(72)を構成する複数のサブ領域(90C、90L、90R)にそれぞれ対応付けられた各マーク(86、88)の表示の有無によって、前記画像(72)の前記各サブ領域(90C、90L、90R)内における前記監視対象物の存否情報を可視化する第2表示部(28)と
     を備え、
     前記生体(110、112、114)の顔向き及び身体の向きの少なくとも一方に応じて前記マーク(86、88)の表示を変化させる
     ことを特徴とする車両周辺監視装置(10)。
  2.  請求項1記載の車両周辺監視装置(10)であって、
     前記複数のサブ領域(90C、90L、90R)の境界線(92L、92R)上に存在する前記生体(110、112、114)について、前記生体(110、112、114)の顔向き又は身体の向きが前記車両(12)の進行方向の中心線と交差する方向である場合、当該境界線(92L、92R)を挟んで隣り合う前記サブ領域(90C、90L、90R)に対応させて複数の前記マーク(86、88)を同時に又は交互に前記第2表示部(28)に表示する
     ことを特徴とする車両周辺監視装置(10)。
  3.  請求項1又は2記載の車両周辺監視装置(10)であって、
     前記生体(110、112、114)が属する前記サブ領域(90C、90L、90R)と当該サブ領域(90C、90L、90R)よりも前記生体(110、112、114)の顔向き又は身体の向きの方向に存在する前記サブ領域(90C、90L、90R)との両方に前記マーク(86、88)を表示する
     ことを特徴とする車両周辺監視装置(10)。
  4.  請求項1~3のいずれか1項に記載の車両周辺監視装置(10)であって、
     前記生体(110、112、114)の顔向き又は身体の向きが前記車両(12)の進行方向の中心線と交差する方向である場合、前記マーク(86、88)の表示色を、より強い注意喚起を求める警戒色に切り替える
     ことを特徴とする車両周辺監視装置(10)。
PCT/JP2012/064258 2011-10-31 2012-06-01 車両周辺監視装置 WO2013065348A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013541651A JP5604011B2 (ja) 2011-10-31 2012-06-01 車両周辺監視装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011238601 2011-10-31
JP2011-238601 2011-10-31

Publications (1)

Publication Number Publication Date
WO2013065348A1 true WO2013065348A1 (ja) 2013-05-10

Family

ID=48191714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/064258 WO2013065348A1 (ja) 2011-10-31 2012-06-01 車両周辺監視装置

Country Status (2)

Country Link
JP (1) JP5604011B2 (ja)
WO (1) WO2013065348A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199442A1 (ja) * 2015-06-10 2016-12-15 株式会社Jvcケンウッド レーザレーダ装置および検知方法
CN108364479B (zh) * 2017-04-13 2021-03-05 合肥如昼智能科技有限公司 电子警察智能补光的系统
WO2024202036A1 (ja) * 2023-03-31 2024-10-03 本田技研工業株式会社 リスク提示装置、リスク提示方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198578A (ja) * 2009-02-27 2010-09-09 Toyota Motor Corp 移動軌跡生成装置
JP2011086205A (ja) * 2009-10-16 2011-04-28 Honda Motor Co Ltd 車両の走行安全装置
JP2011091549A (ja) * 2009-10-21 2011-05-06 Toyota Motor Corp 車両用夜間視界支援装置
JP2011216003A (ja) * 2010-04-01 2011-10-27 Toyota Motor Corp 障害物認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198578A (ja) * 2009-02-27 2010-09-09 Toyota Motor Corp 移動軌跡生成装置
JP2011086205A (ja) * 2009-10-16 2011-04-28 Honda Motor Co Ltd 車両の走行安全装置
JP2011091549A (ja) * 2009-10-21 2011-05-06 Toyota Motor Corp 車両用夜間視界支援装置
JP2011216003A (ja) * 2010-04-01 2011-10-27 Toyota Motor Corp 障害物認識装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199442A1 (ja) * 2015-06-10 2016-12-15 株式会社Jvcケンウッド レーザレーダ装置および検知方法
CN108364479B (zh) * 2017-04-13 2021-03-05 合肥如昼智能科技有限公司 电子警察智能补光的系统
WO2024202036A1 (ja) * 2023-03-31 2024-10-03 本田技研工業株式会社 リスク提示装置、リスク提示方法及びプログラム

Also Published As

Publication number Publication date
JPWO2013065348A1 (ja) 2015-04-02
JP5604011B2 (ja) 2014-10-08

Similar Documents

Publication Publication Date Title
JP5639283B2 (ja) 車両周辺監視装置
JP5616531B2 (ja) 車両周辺監視装置
CA3002628C (en) Display control method and display control device
JP5907268B2 (ja) 運転支援装置
WO2016084149A1 (ja) 運転支援装置および運転支援方法
WO2011108218A1 (ja) 車両の周辺監視装置
WO2011108198A1 (ja) 車両の周辺監視装置
JP4943367B2 (ja) 車両用情報表示装置
JP5605606B2 (ja) 駐車支援装置
JP5547160B2 (ja) 車両周辺監視装置
JP7047586B2 (ja) 車両用表示制御装置
WO2013065348A1 (ja) 車両周辺監視装置
JP2010105502A (ja) 前方監視装置
JP5192007B2 (ja) 車両の周辺監視装置
JP2011192070A (ja) 車両の周辺監視装置
JP5703192B2 (ja) 車両周辺監視装置
JP5251673B2 (ja) 車両用表示装置
JP2007293487A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、並びに車両の周辺監視用プログラム
JP5529097B2 (ja) 車両の運転支援装置
JP2013095375A (ja) 車両周辺監視装置
JP2007249324A (ja) 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺システムの構成方法
JP5903003B2 (ja) 車両周辺監視装置
JP2004056486A (ja) 車両周辺監視装置
JP5547159B2 (ja) 車両周辺監視装置
JP2017005468A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12845563

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013541651

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12845563

Country of ref document: EP

Kind code of ref document: A1