WO2013065122A1 - 障害物警報装置 - Google Patents

障害物警報装置 Download PDF

Info

Publication number
WO2013065122A1
WO2013065122A1 PCT/JP2011/075127 JP2011075127W WO2013065122A1 WO 2013065122 A1 WO2013065122 A1 WO 2013065122A1 JP 2011075127 W JP2011075127 W JP 2011075127W WO 2013065122 A1 WO2013065122 A1 WO 2013065122A1
Authority
WO
WIPO (PCT)
Prior art keywords
displayed
area
vehicle
region
index
Prior art date
Application number
PCT/JP2011/075127
Other languages
English (en)
French (fr)
Inventor
丸岡哲也
角屋明
池田圭吾
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Priority to PCT/JP2011/075127 priority Critical patent/WO2013065122A1/ja
Priority to PCT/JP2012/051360 priority patent/WO2013065325A1/ja
Priority to JP2013541644A priority patent/JP5674071B2/ja
Priority to US13/483,699 priority patent/US9396401B2/en
Publication of WO2013065122A1 publication Critical patent/WO2013065122A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Definitions

  • the present invention relates to an obstacle alarm device that clearly indicates to an occupant the presence of an obstacle approaching a vehicle.
  • Patent Documents 1 and 2 There are blind spots around the vehicle that cannot be seen from the driver's position, and the driver needs to pay close attention to the surrounding of the vehicle when driving the vehicle. In particular, when the vehicle is moved backward and parked, there are many users who are not good at parking itself, and there is not a lot of mental fatigue. Thus, conventionally, techniques for monitoring obstacles around the vehicle have been used (for example, Patent Documents 1 and 2).
  • the vehicle obstacle alarm device described in Patent Document 1 includes a lateral movement obstacle detection means, a lateral movement direction detection means, and a lateral movement information provision means.
  • the laterally moving obstacle detection means detects an obstacle that moves in the direction crossing the traveling direction in front of the vehicle.
  • the lateral movement direction detection means detects the lateral movement direction of the obstacle detected by the lateral movement obstacle detection means.
  • the lateral movement information providing means provides the driver with information regarding the lateral movement direction of the obstacle detected by the lateral movement direction detecting means. At this time, the lateral movement information providing means displays an arrow indicating the lateral movement direction detected by the lateral movement direction detecting means on the display unit.
  • the vehicle periphery monitoring device described in Patent Document 2 includes an imaging unit, an obstacle detection unit, and a display unit.
  • the imaging means images the surroundings of the vehicle including a part of the host vehicle.
  • the obstacle detection means detects an obstacle located around the vehicle and calculates a distance between the detected obstacle and the host vehicle.
  • the display unit displays the captured image captured by the imaging unit and the obstacle display image indicating the distance calculated by the obstacle detection unit on one screen.
  • Obstacles around the vehicle are detected by detecting obstacles around the vehicle as in the techniques described in Patent Literature 1 and Patent Literature 2 and displaying information (arrows, etc.) clearly indicating the obstacles on the screen. Can be notified.
  • the screen size of the display (display means) mounted on the vehicle is not large. For this reason, if an arrow or the like is displayed on the image showing the situation around the vehicle displayed on the display, the situation around the vehicle may become difficult to see or an obstacle may not be grasped.
  • an object of the present invention is to provide an obstacle alarm device that can clearly indicate to the driver the presence of an obstacle approaching the vehicle without making it difficult to see the situation around the vehicle. is there.
  • the characteristic configuration of the obstacle alarm device is as follows: A captured image acquisition unit that acquires a captured image of a scene around the vehicle; An attention area setting unit for setting an attention area in the captured image; An object presence determination unit that determines whether an object exists in an outer region outside the attention region; A moving direction determination unit that determines the moving direction of the object in the outer region; When the movement direction determination unit determines that the object in the outer area moves to the center side of the attention area, the center of the attention area displayed together with the outer area from the outer area side where the object exists is displayed. To the side, an indicator that is turned on after being turned on for a certain period of time is sequentially displayed at different positions, and an explicit image output unit that repeatedly performs the display, It is in the point equipped with.
  • the index is displayed in the attention area according to the object approaching the vehicle, it is possible to provide the driver without reducing the visibility of the object approaching the vehicle and the situation around the vehicle.
  • the presence and direction of an object approaching the vehicle can be specified. Therefore, even when the screen size of the display device is small, an object approaching the vehicle is not missed.
  • the explicit image output unit is displayed at a position where the plurality of indicators partially overlap each other, and an overlapping portion between the indicator displayed later and the indicator displayed immediately before is displayed later. It is preferable that the index is overwritten and displayed.
  • the index can be displayed so as to approach the center of the screen. Therefore, it becomes easy for the driver to intuitively recognize the approach of the obstacle.
  • the index is configured in an arrow shape having a convex portion protruding toward the center of the region of interest.
  • the moving direction of the obstacle coincides with the direction in which the convex portion faces, so that the driver can intuitively recognize the moving direction of the obstacle.
  • the explicit image output unit is configured to stop outputting the index when the object enters the region of interest.
  • the obstacle alarm device 100 has a function of clearly indicating that an object is approaching the driver of the vehicle when there is an object approaching the vehicle. Hereinafter, it demonstrates using drawing.
  • FIG. 1 is a block diagram schematically showing the configuration of the obstacle alarm device 100.
  • the obstacle alarm device 100 includes a captured image acquisition unit 11, an attention region setting unit 12, an outer region generation unit 13, an object presence determination unit 14, a movement direction determination unit 15, and an explicit image output unit 16.
  • Each functional unit includes the above-described functional units for performing various processes for clearly indicating the approach of the object 7 to the driver of the vehicle 1 by using a CPU as a core member.
  • the photographed image acquisition unit 11 acquires a photographed image G obtained by photographing a scene around the vehicle 1.
  • the vehicle 1 is provided with a camera 5.
  • the camera 5 in the present embodiment includes a digital camera that incorporates an image sensor such as a charge coupled device (CCD) or a CMOS image sensor (CIS) and outputs captured information as moving image information.
  • CCD charge coupled device
  • CIS CMOS image sensor
  • FIG. 2 (a) such a camera 5 is provided near the license plate provided at the outer rear portion of the vehicle 1, or near the emblem provided at the outer rear portion of the vehicle 1. It is arranged with a slight depression angle toward the rear.
  • the camera 5 includes a wide-angle lens (not shown). Thereby, the scene around the vehicle 1 can be photographed over the rear of the vehicle 1 over approximately 180 degrees. Such an imaging range is shown as “wide viewing angle” in FIG.
  • the camera 5 has a performance of outputting a moving image as a captured image G in real time. Such a captured image G is transmitted to the captured image
  • FIG. 2 (b) An example of such a photographed image G is shown in FIG.
  • the full width of FIG. 2 (b) corresponds to the wide viewing angle of FIG. 2 (a).
  • the object 7 on the left side as viewed from the rear of the vehicle 1 as shown in FIG. 2A is on the right side in the photographed image G as shown in FIG.
  • mirror image processing is performed. This is because when the scene behind the vehicle 1 is displayed on the monitor 50, it is easy for the driver of the vehicle 1 to intuitively understand whether the object 7 included in the captured image G is on the left side or the right side of the vehicle 1. It is to do.
  • the attention area setting section 12 sets the attention area C in the captured image G.
  • the shooting range of the shot image G is a wide viewing angle.
  • the attention area setting unit 12 sets the attention area C in the central portion of the captured image G.
  • the captured image G is transmitted from the captured image acquisition unit 11 described above.
  • the attention area C corresponds to the central portion in the horizontal direction of the captured image G shown in FIG.
  • Such a region of interest C is preferably, for example, a region of about 120 to 130 degrees behind the vehicle 1 such as the “narrow viewing angle” in FIG.
  • the outer area generation unit 13 generates an outer area O outside the attention area C. That is, an outer region O outside the attention region C in the captured image G is generated. As described above, the attention area C is generated by the attention area setting unit 12 in the central portion of the captured image G in the horizontal direction. The outer area generation unit 13 generates an outer area O as shown in FIG. 2B outside the attention area C in the horizontal direction. The outer region O generated by the outer region generation unit 13 is transmitted to an object presence determination unit 14 described later. In the obstacle alarm device 100, the outer area O and the attention area C described above correspond to a display image displayed on the monitor 50 described later (see FIG. 2C).
  • the object presence determination unit 14 determines whether or not the object 7 exists in the outer region O.
  • the outer region O is transmitted from the outer region generator 13. Whether or not the object 7 exists can be determined using a known image recognition process such as pattern matching. Of course, it is possible to determine whether or not the object 7 exists in the outer region O by processing other than pattern matching.
  • the determination result of the object presence determination unit 14 is transmitted to a movement direction determination unit 15 described later.
  • the moving direction determination unit 15 determines the moving direction of the object 7 in the outer region O. Such determination of the moving direction is performed when the object presence determination unit 14 determines that the object 7 exists in the outer region O. In particular, in the present embodiment, the movement direction determination unit 15 determines whether or not the object 7 in the outer area O moves toward the attention area C. Moving to the attention area C side means moving behind the vehicle 1 from the outside in the width direction of the vehicle 1 in the direction just behind the vehicle 1. Such a determination can be performed by comparing the position of the object 7 in the current captured image G with the position of the object 7 in the captured image G a predetermined time ago, for example, or using an optical flow. It is possible to use this method. Such a determination result of the moving direction is transmitted to the explicit image output unit 16 described later.
  • the explicit image output unit 16 moves to the outer region O side where the object 7 exists in the attention region C.
  • the indicators S that are turned on for a certain time and then turned off are displayed sequentially at different positions from the center toward the center, and the display is repeated. Therefore, when the object 7 in the outer area O moves to the center side of the attention area C, the explicit image output unit 16 moves from the outer area O side where the object 7 exists in the attention area C toward the center side.
  • the indicators S that are turned on after being turned on for a certain time are sequentially displayed at different positions, and the display is repeated.
  • the moving direction determination unit 15 determines whether or not the object 7 in the outer area O moves to the center side of the attention area C.
  • the outer area O side where the object 7 exists corresponds to the left area in the attention area C when the object 7 is in the left outer area O.
  • the right area in the attention area C corresponds.
  • the index S that is turned on after being turned on for a certain period of time indicates not the state in which the index S is continuously displayed but the state in which the index S is blinking.
  • the index S moves while blinking between two predetermined positions on the screen.
  • the explicit image output unit 16 repeatedly performs such movement of the index S while blinking.
  • the index S will be described.
  • the index S according to the present embodiment is configured in an arrow shape having a convex portion that protrudes toward the center of the attention area C.
  • Such an index S is stored in the explicit image storage unit 17 as shown in FIG.
  • FIG. 2C shows a captured image G as shown in FIG. 2B, that is, an image displayed on the monitor 50 of the vehicle 1 when the object 7 is in the right outer region O.
  • a plurality of indices S may be displayed on the monitor 50 in this embodiment. In such a case, the plurality of indices S are displayed at positions where they partially overlap.
  • “partially overlapping” means that one of the plurality of indicators S is on the side of one of the arrow-shaped convex portions and the other portion of the plurality of indicators S is not on the other arrow-shaped convex portion. Means overlapping. Further, when there are a plurality of indexes S, an overlapping portion between the index S to be displayed later and the index S displayed immediately before is overwritten with the index S to be displayed later. That is, the index S displayed later is arranged in the upper layer than the index S displayed immediately before. In the present embodiment, the index S displayed immediately before is displayed with higher transparency than the index S displayed later. That is, the index S displayed later is displayed with lower transparency than the index S displayed immediately before. Therefore, when a plurality of indices S are displayed, the uppermost index S has the lowest transparency, and the lowermost index S has the highest transparency.
  • the index S is configured so that the index S displayed later is larger than the index S displayed immediately before. Therefore, when a plurality of indices S are displayed, the index S in the uppermost layer has the largest size and the index S in the lowermost layer has the smallest size.
  • Each index S may have a size similar to each other and may be set in size, or may be set in size by changing either the vertical or horizontal length of the index S. .
  • the explicit image output unit 16 repeatedly performs such display.
  • the index S is combined with the attention area C and displayed on the monitor 50. Therefore, the composite image generation unit 18 generates a composite image in which the index S is combined with the attention area C. As a result, an image as shown in FIG. 2C is generated. Further, as described above, the outer area O is also displayed on both sides of the attention area C.
  • the index S By displaying the index S in this way, it is possible to display the index S so that it gradually increases. As a result, it is possible to visually indicate to the passenger of the vehicle 1 that the object 7 is approaching the vehicle 1.
  • the mask area setting unit 19 sets a mask area M that hides at least a part of the scene around the vehicle 1 in the captured image G.
  • the mask area M is set at the upper part of the screen, that is, the upper part in the display image displayed on the monitor 50, as shown in FIG.
  • the display image displayed on the monitor 50 is an image of the attention area C and the outer area O.
  • the mask area M is formed across both sides of the display image in the horizontal direction.
  • the mask area M is colored, for example, in black so that the scene above the vehicle 1 cannot be seen. Of course, other colors may be used.
  • the motion image output unit 30 starts from the boundary between the outer area O on the side where the object 7 exists in the mask area M and the attention area C.
  • the absorbed image is output (see FIG. 3D). Whether or not the object 7 in the outer region O has entered the attention region C is determined by the moving direction determination unit 15.
  • the side where the object 7 exists in the mask area M is the right side of the mask area M when the object 7 exists in the right outer area O, and the object 7 exists in the left outer area O. If it is, it is the left side of the mask area M.
  • the absorbed image is an image in which the index S is absorbed in the mask area M and disappears. Such an image is stored in the motion image storage unit 31 in advance.
  • an index S is displayed in the outer area O where the object 7 exists in the attention area C. For this reason, as shown in FIG. 3C, when the object 7 enters the attention area C, the index S is absorbed by the mask area M so that the object 7 that has entered the attention area C is indicated by the index S. It becomes possible to display without hiding. Therefore, it is possible to appropriately indicate the presence of the object 7 to the driver of the vehicle 1.
  • the operation image output unit 30 is configured to change the display color of the mask area M from the position where the index S is absorbed in accordance with the absorption of the index S to the mask area M. That is, when the index S is absorbed from the boundary portion between the right outer region O and the attention region C, the mask region M is separated from the boundary portion between the right outer region O and the attention region C on both sides of the mask region M. When the index S is absorbed from the boundary between the left outer area O and the attention area C, the mask area M is divided into the left outer area O and the attention area C. An image that is colored from the boundary portion to the outer sides of the mask region M is output. By coloring the mask area M in this way, it is possible to clearly indicate to the driver of the vehicle 1 the side on which the object 7 has entered.
  • FIG. 4 and FIG. 5 show examples of a series of images in which the index S is displayed and the mask area M is colored after the index S enters the mask area M.
  • FIG. 4 shows an example in which the index S is displayed superimposed on the attention area C when the object 7 in the outer area O moves to the attention area C side.
  • FIG. 5A when the object 7 enters the attention area C from the right outer area O, as shown in FIGS. 5B to 5E, the index S becomes the right outer area O. And enters the mask region M so as to be sucked from the boundary between the region C and the attention region C.
  • coloring is sequentially performed toward both outer sides of the mask area M, and finally, the entire area of the mask area M is colored (FIG. 5F).
  • the mask area highlighting display unit 20 highlights the mask area M when the object 7 in the outer area O enters the attention area C.
  • the emphasis display is a blinking display. Whether or not the object 7 in the outer region O has entered the attention region C is determined by the moving direction determination unit 15.
  • the mask area highlighting display unit 20 blinks the mask area M in accordance with the determination result of the movement direction determination unit 15. Thereby, it becomes possible to visually indicate to the driver of the vehicle 1 that the object 7 exists in the attention area C.
  • the mask area highlighting display unit 20 stops highlighting of the mask area M when the object 7 leaves the attention area C. Whether or not the object 7 has left the attention area C can also be determined by the movement direction determination unit 15. That is, the moving direction determination unit 15 can determine that the object 7 has left the attention area C if there is an object 7 that enters the outer area O from the attention area C side of the outer area O. Such a determination result is also transmitted to the mask region emphasis display unit 20.
  • the highlighted display is a blinking display. Therefore, the mask area highlighting display unit 20 stops blinking of the mask area M when such a determination result is transmitted. Thereby, it is possible to visually indicate to the driver of the vehicle 1 that the object 7 does not exist in the attention area C.
  • the captured image acquisition unit 11 acquires a captured image G captured by the camera 5 of the vehicle 1 (step # 1).
  • the attention area setting unit 12 sets the central portion of the acquired captured image G as the attention area C (step # 2).
  • the outer area generation unit 13 generates both lateral portions of the acquired captured image G as the outer area O (step # 3). Whether or not the object 7 is present in the outer region O generated in this way is determined by the object presence determination unit 14 (step # 4).
  • the movement direction determination unit 15 determines the movement direction of the object 7 (step # 5). If the moving direction of the object 7 is from the outer area O toward the attention area C, it is further determined whether or not the object 7 has entered the attention area C (step # 6). If the object 7 has not entered the region of interest C, the explicit image output unit 16 outputs an explicit image (step # 7). This explicit image is output with reference to the explicit image stored in the explicit image storage unit 17.
  • the composite image generating unit 18 generates a composite image by superimposing the explicit image output in step # 6 on the attention area C generated in step # 2 (step # 8). The generated composite image is displayed on the monitor 50 (step # 9).
  • the motion image output unit 30 outputs a motion image (step # 10). This motion image is output with reference to the motion image stored in the motion image storage unit 31.
  • the composite image generation unit 18 generates a composite image by superimposing the motion image output in step # 10 on the attention area C generated in step # 2 (step # 8). The generated composite image is displayed on the monitor 50 (step # 9).
  • the driver of the vehicle 1 can gaze at the object 7 in the attention area C. Therefore, the situation around the vehicle 1 can be grasped.
  • the object alarm device 100 since the index S is displayed in the attention area C according to the object 7 approaching the vehicle 1, the object 7 approaching the vehicle 1 and the surroundings of the vehicle 1 are displayed. The presence and direction of the object 7 approaching the vehicle 1 can be clearly shown to the driver without reducing the visibility of the situation. For this reason, even when the screen size of the monitor 50 is small, the object 7 approaching the vehicle 1 is not missed. As described above, according to the present invention, the presence of an obstacle (object 7) approaching the vehicle 1 can be clearly shown to the driver without making it difficult to see the situation around the vehicle 1.
  • the explicit image output unit 16 has been described as being displayed so as to gradually increase when the blinking indicator S moves.
  • the scope of application of the present invention is not limited to this. It is naturally possible to display the index S in the same size. Of course, it is naturally possible to display the index S so that it gradually decreases. Even with such a configuration, the object 7 that appropriately approaches the vehicle 1 can be clearly shown to the driver of the vehicle 1.
  • the index S displayed immediately before is described as being higher than the transparency of the index S displayed later.
  • the scope of application of the present invention is not limited to this.
  • the index S displayed immediately before can be displayed lower than the transparency of the index S displayed later, and the index S displayed immediately before is the same as the transparency of the index S displayed later.
  • the scope of application of the present invention is not limited to this. Even when a plurality of indices S are displayed, it is possible to configure the indices S so as not to overlap each other.
  • the index S is described as being configured in the shape of an arrow having a convex portion protruding toward the center of the attention area C.
  • the scope of application of the present invention is not limited to this.
  • the index S can be formed in other shapes.
  • the operation image output unit 30 has been described as being configured to change the display color of the mask area M from the position where the index S is absorbed along with the absorption of the index S into the mask area M.
  • the scope of application of the present invention is not limited to this. With the absorption of the index S into the mask area M, it is possible to change the display color of the mask area M from a position different from the position where the index S is absorbed. Alternatively, it is naturally possible to configure so that the display color of the mask area M is not changed even if the index S is absorbed into the mask area M.
  • the motion image output unit 30 uses the outer area O on the side where the object 7 exists in the mask area M and the attention area C. It has been described that an image absorbed from the boundary portion is output.
  • the explicit image output unit 16 may be configured to stop outputting the index S when the object 7 enters the attention area C. Whether or not the object 7 has entered the attention area C is determined by the moving direction determination unit 15 described above. When the object 7 enters the attention area C, the object 7 is displayed at the end of the attention area C. For this reason, by outputting the index S in this way, the driver of the vehicle 1 can visually recognize the object 7 displayed at the end of the attention area C without being hidden by the index S.
  • the determination as to whether or not the object 7 exists can be performed using a known image recognition process such as pattern matching.
  • the scope of application of the present invention is not limited to this. For example, it is naturally possible to detect with sonar.
  • the moving direction determination unit 15 when it is determined by the moving direction determination unit 15 that the object 7 in the outer region O moves to the center side of the attention region C, the center of the attention region C from the outer region O side where the object 7 exists is centered. It demonstrated that the parameter
  • the scope of application of the present invention is not limited to this.
  • the movement direction determination unit 15 determines that the object 7 in the outer area O moves to the center side of the attention area C, the boundary position between the attention area C and the outer area O where the object 7 exists in the attention area C
  • the index S is displayed toward the center of the attention area C.
  • the present invention can be used for an obstacle alarm device that clearly shows the presence of an obstacle approaching a vehicle to an occupant.
  • SYMBOLS 1 Vehicle 7: Object 11: Captured image acquisition part 12: Attention area setting part 14: Object presence determination part 15: Movement direction determination part 16: Explicit image output part 100: Obstacle warning device C: Attention area G: Captured image O: Outer region S: Indicator

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

 車両の周囲の状況を見難くすることなく、車両に接近する障害物の存在を運転者に明示することが可能な障害物警報装置は、車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、撮影画像に注目領域を設定する注目領域設定部と、注目領域の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、外側領域の物体の移動方向を判定する移動方向判定部と、移動方向判定部により外側領域の物体が注目領域の中央側に移動すると判定された場合に、外側領域と共に表示される注目領域のうち物体が存在する外側領域の側から中央側に向けて、一定時間点灯したのち消灯する指標を順次異なる位置に表示させると共に、当該表示を繰り返し行なう明示画像出力部と、を備える。

Description

障害物警報装置
 本発明は、車両に接近する障害物の存在を乗員に明示する障害物警報装置に関する。
 車両の周囲には運転者の位置から視認できない死角があり、運転者は車両の運転にあたり当該車両の周囲に細心の注意を払う必要がある。特に、車両を後退して駐車させる場合には、駐車自体に苦手意識を持っているユーザも多く、精神的疲労も少なくない。そこで、従来、車両の周囲の障害物を監視する技術が利用されてきた(例えば特許文献1及び2)。
 特許文献1に記載の車両の障害物警報装置は、横移動障害物検出手段と、横移動方向検出手段と、横移動情報提供手段とを備えて構成される。横移動障害物検出手段は車両前方において進行方向を横切る方向に移動する障害物を検出する。横移動方向検出手段は横移動障害物検出手段により検出された障害物の横移動方向を検出する。横移動情報提供手段は横移動方向検出手段により検出された障害物の横移動方向に関する情報をドライバーに提供する。この際、横移動情報提供手段は表示部に横移動方向検出手段により検出された横移動方向を表わす矢印をディスプレイに表示する。
 特許文献2に記載の車両周囲監視装置は、撮像手段と、障害物検出手段と、表示手段とを備えて構成される。撮像手段は自車両の一部を含む車両周囲を撮像する。障害物検出手段は車両周囲に位置する障害物を検出し、検出した障害物と自車両との距離を算出する。表示手段は撮像手段によって撮像された撮像画像と障害物検出手段によって算出された距離を示す障害物表示画像とを1つの画面に表示する。
特開平11-115660号公報 特開2009-217740号公報
 特許文献1や特許文献2に記載の技術のように車両の周囲の障害物を検出し、当該障害物を明示する情報(矢印等)を画面表示することで運転者に車両の周囲の障害物の存在を報知することが可能である。しかしながら、車両に搭載されるディスプレイ(表示手段)の画面サイズは大きいものではない。このため、ディスプレイに表示される車両の周囲の状況を示す画像上に矢印等を表示すると、車両の周囲の状況が見難くなったり障害物を把握できなくなったりする可能性がある。
 本発明の目的は、上記問題に鑑み、車両の周囲の状況を見難くすることなく、車両に接近する障害物の存在を運転者に明示することが可能な障害物警報装置を提供することにある。
 上記目的を達成するための本発明に係る障害物警報装置の特徴構成は、
 車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、
 前記撮影画像に注目領域を設定する注目領域設定部と、
 前記注目領域の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、
 前記外側領域の物体の移動方向を判定する移動方向判定部と、
 前記移動方向判定部により前記外側領域の物体が前記注目領域の中央側に移動すると判定された場合に、前記外側領域と共に表示される前記注目領域のうち前記物体が存在する外側領域の側から中央側に向けて、一定時間点灯したのち消灯する指標を順次異なる位置に表示させると共に、当該表示を繰り返し行なう明示画像出力部と、
を備えている点にある。
 このような特徴構成とすれば、車両に接近する物体に応じて指標を注目領域内に表示するので、車両に接近する物体及び車両の周囲の状況の視認性を低下させることなく、運転者に車両に接近する物体の存在及び方向を明示することができる。したがって、表示装置の画面サイズが小さい場合でも、車両に接近する物体を見逃すことがなくなる。このように本発明によれば、車両の周囲の状況を見難くすることなく、車両に接近する障害物(物体)の存在を運転者に明示することが可能となる。
 また、前記明示画像出力部が、前記指標が複数ある場合に当該複数の指標どうしが一部重畳する位置に表示され、後に表示する指標と直前に表示した指標との重複部分については後に表示する指標を上書き表示するよう構成されてあると好適である。
 このような構成とすれば、指標が画面の中央に迫ってくるように表示することができる。したがって、運転者が障害物の接近を直感的に認識し易くなる。
 また、前記指標が、前記注目領域の中央側に突出する凸部を有する矢印形状に構成してあると好適である。
 このような構成とすれば、障害物の移動方向と凸部が向く方向とが一致しているので、運転者が直感的に障害物の移動方向を認識することができる。
 また、前記明示画像出力部は、前記物体が前記注目領域に進入した場合に前記指標の出力を中止するよう構成してあると好適である。
 このような構成とすれば、物体が注目領域内に映った時点で指標の表示を中止できるので、物体が指標に隠れることがない。したがって、車両に接近した物体を適切に視認することができる。
障害物警報装置の構成を模式的に示したブロック図である。 障害物警報装置の処理の一例を示した図である。 障害物警報装置の処理の一例を示した図である。 合成画像の一例を示した図である。 合成画像の一例を示した図である。 障害物警報装置の処理を模式的に示した図である。
 以下、本発明の実施の形態について、詳細に説明する。本発明に係る障害物警報装置100は、車両に接近する物体がある場合に当該車両の運転者に物体が接近していることを明示する機能を備えている。以下、図面を用いて説明する。
 図1は、障害物警報装置100の構成を模式的に示したブロック図である。図1に示されるように、障害物警報装置100は、撮影画像取得部11、注目領域設定部12、外側領域生成部13、物体存在判定部14、移動方向判定部15、明示画像出力部16、明示画像格納部17、合成画像生成部18、マスク領域設定部19、マスク領域強調表示部20、動作画像出力部30、動作画像格納部31の各機能部を備えて構成される。各機能部はCPUを中核部材として車両1の運転者に物体7の接近を明示する種々の処理を行うための上述の機能部がハードウェア又はソフトウェア或いはその両方で構築されている。
 撮影画像取得部11は、車両1の周囲の情景を撮影した撮影画像Gを取得する。ここで、車両1にはカメラ5が備えられる。本実施形態におけるカメラ5は、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を内蔵するとともに、撮影した情報を動画情報として出力するデジタルカメラにより構成される。このようなカメラ5は、図2(a)に示されるように、車両1の外側後部に備えられるライセンスププレートの近傍、或いは車両1の外側後部に備えられるエンブレムの近傍等に、車両1の後方に向けてやや俯角を有して配設される。また、カメラ5は広角レンズ(図示せず)を備えて構成される。これにより、車両1の後方を略180度に亘って、車両1の周囲の情景を撮影することができる。このような撮影範囲は、図2(a)の「広視野角」として示される。このカメラ5は、リアルタイムで動画を撮影画像Gとして出力する性能を有する。このような撮影画像Gは、撮影画像取得部11に伝達される。
 このような撮影画像Gの一例が図2(b)に示される。図2(b)の全幅は、図2(a)の広視野角に対応する。ここで、撮影画像Gは、図2(a)に示されるような車両1から後方を見て左側にいる物体7が、図2(b)に示されるように撮影画像G内の右側にいるように鏡像処理が行われる。これは、モニタ50に車両1の後方の情景を表示する際、車両1の運転者が撮影画像Gに含まれる物体7が車両1の左側にいるのか右側にいるのかを感覚的に理解し易くするためである。
 図1に戻り、注目領域設定部12は、撮影画像Gに注目領域Cを設定する。本実施形態では、撮影画像Gの撮影範囲は広視野角である。このため、注目領域設定部12は、撮影画像Gの中央部分に注目領域Cを設定する。撮影画像Gは上述の撮影画像取得部11から伝達される。本実施形態では、注目領域Cは、図2(b)に示される撮影画像Gの横方向の中央部分が相当する。このような注目領域Cは、図1(a)の「狭視野角」のような例えば車両1の後方120~130度程度の領域とすると好適である。
 外側領域生成部13は、注目領域Cの外側の外側領域Oを生成する。すなわち、撮影画像Gのうち注目領域Cの外側の外側領域Oを生成する。上述のように、撮影画像Gの横方向の中央部分に注目領域設定部12により注目領域Cが生成される。外側領域生成部13はこのような注目領域Cの横方向の外側に、図2(b)のような外側領域Oを生成する。外側領域生成部13により生成された外側領域Oは、後述する物体存在判定部14に伝達される。本障害物警報装置100では、このような外側領域O及び上述の注目領域Cが、後述するモニタ50に表示される表示画像に対応する(図2(c)参照)。
 物体存在判定部14は、外側領域Oに物体7が存在するか否かを判定する。外側領域Oは、外側領域生成部13から伝達される。物体7が存在するか否かの判定は、例えばパターンマッチング等の公知の画像認識処理を用いて行うことが可能である。もちろん、パターンマッチング以外の処理により、外側領域Oに物体7が存在するか否かを判定することは可能である。物体存在判定部14の判定結果は、後述する移動方向判定部15に伝達される。
 移動方向判定部15は、外側領域Oの物体7の移動方向を判定する。このような移動方向の判定は、物体存在判定部14により、外側領域Oに物体7が存在すると判定された場合に行われる。特に本実施形態では、移動方向判定部15により、外側領域Oの物体7が注目領域Cの側に移動するか否かが判定される。注目領域Cの側に移動するとは、車両1の後方において、車両1の幅方向外側から、車両1の真後ろの方向に移動することを示す。このような判定は、例えば現在の撮影画像Gにおける物体7の位置と所定時間前の撮影画像Gにおける物体7の位置とを比較して行うことも可能であるし、オプティカルフローを用いるなどの公知の手法を用いて行うことができる。このような移動方向の判定結果は、後述する明示画像出力部16に伝達される。
 明示画像出力部16は、移動方向判定部15により外側領域Oの物体7が注目領域Cの中央側に移動すると判定された場合に、注目領域Cのうち物体7が存在する外側領域Oの側から中央側に向けて、一定時間点灯したのち消灯する指標Sを順次異なる位置に表示させると共に、当該表示を繰り返し行う。したがって、明示画像出力部16は、外側領域Oの物体7が注目領域Cの中央側に移動する場合に、注目領域Cのうち物体7が存在する外側領域Oの側から中央側に向けて、一定時間点灯したのち消灯する指標Sを順次異なる位置に表示させると共に、当該表示を繰り返し行う。外側領域Oの物体7が注目領域Cの中央側に移動するか否かは、上述の移動方向判定部15により判定される。注目領域Cのうち物体7が存在する外側領域Oの側とは、物体7が左側の外側領域Oにいる場合には注目領域C内の左側の領域が相当する。一方、物体7が右側の外側領域Oにいる場合には注目領域C内の右側の領域が相当する。
 一定時間点灯したのち消灯する指標Sとは、指標Sが連続して表示されている状態ではなく、指標Sが点滅して表示されている状態を示す。本実施形態では、このような指標Sが表示されてから消灯し、更に次に表示される場合には、異なる位置に表示される。したがって、指標Sは、画面上の所定の2つの位置の間を点滅しながら移動している状態になる。明示画像出力部16は、このような指標Sの点滅しながらの移動を繰り返し行う。
 ここで、指標Sについて説明する。本実施形態に係る指標Sは、注目領域Cの中央側に突出する凸部を有する矢印形状に構成されている。このような指標Sは、図2(d)に示されるように明示画像格納部17に格納されている。図2(c)には、図2(b)に示されるような撮影画像G、すなわち右側の外側領域Oに物体7がいる場合に車両1のモニタ50に表示される画像が示される。図2(c)に示されるように、本実施形態ではモニタ50に複数の指標Sが表示されることがある。係る場合、複数の指標Sどうしが一部重畳する位置に表示される。一部重複するとは、本実施形態では、複数の指標Sのうちの一方の矢印形状の凸部の側の部分と、複数の指標Sのうちの他方の矢印形状の凸部でない側の部分とが重複することをいう。また、複数の指標Sがある場合には、後に表示する指標Sと直前に表示した指標Sとの重複部分については後に表示する指標Sを上書き表示するよう構成される。すなわち、直前に表示された指標Sよりも、後の表示される指標Sの方が上の層に配置されるように構成される。本実施形態では、このような直前に表示される指標Sは、後に表示される指標Sよりも透明度が高く表示される。すなわち、後に表示される指標Sが、直前に表示された指標Sよりも透明度が低く表示される。したがって、指標Sが複数表示されている場合には、最上層の指標Sが最も透明度が低く、最下層の指標Sが最も透明度が高くなる。
 また、指標Sは直前に表示された指標Sよりも、後に表示される指標Sの方が大きなサイズで構成される。したがって、指標Sが複数表示されている場合には、最上層の指標Sが最もサイズが大きく、最下層の指標Sが最もサイズが小さくなる。なお、夫々の指標Sは、互いに相似する形状でサイズの大小を設定しても良いし、指標Sの縦又は横の何れか一方の長さを変更してサイズの大小を設定しても良い。
 明示画像出力部16は、このような表示を繰り返し行う。ここで、本実施形態では、図2(c)に示されるように、指標Sは注目領域Cに合成してモニタ50に表示される。そこで、合成画像生成部18は、注目領域Cに指標Sを合成した合成画像を生成する。これにより、図2(c)に示されるような画像が生成される。また、上述のように、注目領域Cの両側には外側領域Oも表示される。
 このように指標Sを表示することにより、指標Sが次第に大きくなるように表示させることが可能となる。これにより、車両1の乗員に対して当該車両1に物体7が接近していることを視覚的に明示することができる。
 マスク領域設定部19は、撮影画像Gのうち、車両1の周囲の情景の少なくとも一部を非表示にするマスク領域Mを設定する。本実施形態では、マスク領域Mは図2(c)に示されるように、画面上部、すなわち、モニタ50に表示される表示画像内の上側部分に設定される。モニタ50に表示される表示画像とは、注目領域C及び外側領域Oの画像である。このマスク領域Mは、表示画像の横方向両側に亘って形成される。マスク領域M内は、車両1の上方の情景が見えないように、例えば黒色で彩色される。もちろん、他の色で彩色しても良い。
 動作画像出力部30は、外側領域Oの物体7が注目領域Cに進入した場合に、指標Sがマスク領域Mのうち物体7が存在する側の外側領域Oと注目領域Cとの境界部から吸収される画像を出力する(図3(d)参照)。外側領域Oの物体7が注目領域Cに進入したか否かは、移動方向判定部15により判定される。マスク領域Mのうち物体7が存在する側とは、右側の外側領域Oに物体7が存在していた場合には、マスク領域Mの右側部であり、左側の外側領域Oに物体7が存在していた場合には、マスク領域Mの左側部である。吸収される画像とは、マスク領域Mに指標Sが吸収されて消滅していく画像である。このような画像は、動作画像格納部31に予め格納されている。
 ここで、注目領域Cのうち物体7が存在する外側領域Oには、指標Sが表示されている。このため、図3(c)に示されるように、物体7が注目領域Cに進入した場合に、指標Sをマスク領域Mに吸収させることにより、注目領域Cに進入してきた物体7を指標Sにより隠すことなく表示することが可能となる。したがって、車両1の運転者に物体7の存在を適切に明示することが可能となる。
 また、動作画像出力部30は、マスク領域Mへの指標Sの吸収に伴い、当該指標Sが吸収された位置からマスク領域Mの表示色を変更するよう構成されている。すなわち、指標Sが右側の外側領域Oと注目領域Cとの境界部から吸収された場合には、マスク領域Mを右側の外側領域Oと注目領域Cとの境界部からマスク領域Mの両外側に向って彩色していく画像を出力し、指標Sが左側の外側領域Oと注目領域Cとの境界部から吸収された場合には、マスク領域Mを左側の外側領域Oと注目領域Cとの境界部からマスク領域Mの両外側に向って彩色していく画像を出力する。このようにマスク領域Mを彩色することにより、車両1の運転者に物体7が進入した側を明示することも可能となる。
 このような指標Sを表示すると共に、指標Sがマスク領域Mに進入した後、マスク領域Mが彩色されていく一連の画像の一例が、図4及び図5に示される。図4は、外側領域Oにいる物体7が注目領域Cの側に移動している場合に、注目領域Cに指標Sが重畳して表示されている例を示している。図5(a)に示されるように、物体7が右側の外側領域Oから注目領域Cに進入すると、図5(b)-(e)に示されるように、指標Sが右側の外側領域Oと注目領域Cとの境界部から吸い込まれるようにマスク領域Mに進入する。これに合わせて、マスク領域Mの両外側に向けて順次彩色され、最終的にはマスク領域Mの全域が彩色される(図5(f))。
 図1に戻り、マスク領域強調表示部20は、外側領域Oの物体7が注目領域Cに進入した場合にマスク領域Mを強調表示させる。本実施形態では、強調表示とは、点滅表示である。外側領域Oの物体7が注目領域Cに進入したか否かは、移動方向判定部15により判定される。マスク領域強調表示部20は、移動方向判定部15の判定結果に応じて、マスク領域Mを点滅させる。これにより、車両1の運転者に、注目領域Cに物体7が存在することを視覚的に明示することが可能となる。
 また、マスク領域強調表示部20は、物体7が注目領域Cから退出した場合にマスク領域Mの強調表示を中止する。物体7が注目領域Cから退出したか否かも、移動方向判定部15により判定することが可能である。すなわち、移動方向判定部15は、外側領域Oの注目領域C側から外側領域Oに進入する物体7があれば、物体7が注目領域Cから退出したと判定することが可能である。このような判定結果も、マスク領域強調表示部20に伝達される。また、本実施形態では、強調表示とは点滅表示である。したがって、マスク領域強調表示部20は、このような判定結果が伝達されると、マスク領域Mの点滅を中止する。これにより、車両1の運転者に、注目領域Cに物体7が存在していないことを視覚的に明示することが可能となる。
 次に、障害物警報装置100が、撮影画像Gに明示画像を重畳した合成画像をモニタ50に表示する一連の処理について、図6の模式図を用いて説明する。まず、撮影画像取得部11が、車両1のカメラ5により撮影された撮影画像Gを取得する(ステップ#1)。
 次に、注目領域設定部12が、取得された撮影画像Gの中央部分を注目領域Cとして設定する(ステップ#2)。一方、外側領域生成部13が、取得された撮影画像Gの横方向両側部分を外側領域Oとして生成する(ステップ#3)。このように生成された外側領域Oに物体7が存在しているか否か、物体存在判定部14により判定される(ステップ#4)。
 外側領域Oに物体7が存在していると判定されると、移動方向判定部15により当該物体7の移動方向が判定される(ステップ#5)。物体7の移動方向が、外側領域Oから注目領域Cの側へのものである場合、更に物体7が注目領域C内に進入したか否かが判定される(ステップ#6)。物体7が注目領域C内に進入していなければ、明示画像出力部16により明示画像が出力される(ステップ#7)。この明示画像は、明示画像格納部17に格納されている明示画像を参照して出力される。
 合成画像生成部18は、ステップ#2において生成された注目領域Cに、ステップ#6で出力された明示画像を重畳して合成画像を生成する(ステップ#8)。生成された合成画像は、モニタ50に表示される(ステップ#9)。
 一方、ステップ#6において、物体7が注目領域C内に進入していれば、動作画像出力部30により動作画像が出力される(ステップ#10)。この動作画像は、動作画像格納部31に格納されている動作画像を参照して出力される。
 合成画像生成部18は、ステップ#2において生成された注目領域Cに、ステップ#10で出力された動作画像を重畳して合成画像を生成する(ステップ#8)。生成された合成画像は、モニタ50に表示される(ステップ#9)。
 このように注目領域Cへの物体7の進入に合わせて、明示指標をマスク領域Mに進入させるので、車両1の運転者に注目領域Cの物体7を注視させることが可能である。したがって、車両1の周囲の状況を把握させることができる。
 このように本発明に係る障害物警報装置100によれば、車両1に接近する物体7に応じて指標Sを注目領域C内に表示するので、車両1に接近する物体7及び車両1の周囲の状況の視認性を低下させることなく、運転者に車両1に接近する物体7の存在及び方向を明示することができる。このため、モニタ50の画面サイズが小さい場合でも、車両1に接近する物体7を見逃すことがなくなる。このように、本発明によれば、車両1の周囲の状況を見難くすることなく、車両1に接近する障害物(物体7)の存在を運転者に明示することが可能となる。
〔その他の実施形態〕
 上記実施形態では、明示画像出力部16は、点滅表示した指標Sが移動する際、次第に大きくなるように表示するとして説明した。しかしながら、本発明に適用範囲はこれに限定されるものではない。指標Sを同じサイズで表示することも当然に可能である。もちろん、指標Sが、次第に小さくなるように表示することも当然に可能である。このような構成であっても、適切に車両1に接近する物体7を車両1の運転者に明示することが可能である。
 上記実施形態では、直前に表示された指標Sは、後に表示された指標Sの透明度よりも高いとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。例えば、直前に表示された指標Sは、後に表示された指標Sの透明度よりも低く表示することも可能であるし、直前に表示された指標Sは、後に表示された指標Sの透明度と同じように表示することも当然に可能である。
 上記実施形態では、指標Sが複数ある場合に当該複数の指標Sどうしが一部重畳する位置に表示されるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。複数の指標Sを表示する場合であっても、指標Sどうしが重畳しないように構成することも可能である。
 上記実施形態では、指標Sが、注目領域Cの中央側に突出する凸部を有する矢印形状に構成してあるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。指標Sを他の形状で構成することも当然に可能である。
 上記実施形態では、動作画像出力部30は、マスク領域Mへの指標Sの吸収に伴い、当該指標Sが吸収された位置からマスク領域Mの表示色を変更するよう構成されているとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。マスク領域Mへの指標Sの吸収に伴い、指標Sが吸収された位置とは異なる位置からマスク領域Mの表示色を変更するよう構成することも可能である。或いは、マスク領域Mへ指標Sが吸収されてもマスク領域Mの表示色を変更しないように構成することも当然に可能である。
 上記実施形態では、動作画像出力部30は、外側領域Oの物体7が注目領域Cに進入した場合に、指標Sがマスク領域Mのうち物体7が存在する側の外側領域Oと注目領域Cとの境界部から吸収される画像を出力するとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。明示画像出力部16は、物体7が注目領域Cに進入した場合に指標Sの出力を中止するように構成することも可能である。物体7が注目領域Cに進入したか否かは、上述の移動方向判定部15により判定される。物体7が注目領域Cに進入した場合には、注目領域Cの端部に物体7が表示される。このため、このように指標Sの出力することにより、車両1の運転者は注目領域Cの端部に表示される物体7を指標Sに隠されることなく視認することが可能となる。
 上記実施形態では、指標Sが画面内に複数表示される場合があるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。指標Sが画面内に一つのみ表示する構成とすることも可能である。
 上記実施形態では、物体7が存在するか否かの判定は、例えばパターンマッチング等の公知の画像認識処理を用いて行うことが可能であるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。例えば、ソナー等で検出することも当然に可能である。
 上記実施形態では、移動方向判定部15により外側領域Oの物体7が注目領域Cの中央側に移動すると判定された場合に、注目領域Cのうち物体7が存在する外側領域Oの側から中央側に向けて、指標Sが表示されるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。移動方向判定部15により外側領域Oの物体7が注目領域Cの中央側に移動すると判定された場合に、注目領域Cと当該注目領域Cのうち物体7が存在する外側領域Oとの境界位置から注目領域Cの中央側に向けて指標Sを表示する構成とすることも当然に可能である。
 本発明は、車両に接近する障害物の存在を乗員に明示する障害物警報装置に用いることが可能である。
 1:車両
 7:物体
 11:撮影画像取得部
 12:注目領域設定部
 14:物体存在判定部
 15:移動方向判定部
 16:明示画像出力部
 100:障害物警報装置
 C:注目領域
 G:撮影画像
 O:外側領域
 S:指標

Claims (4)

  1.  車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、
     前記撮影画像に注目領域を設定する注目領域設定部と、
     前記注目領域の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、
     前記外側領域の物体の移動方向を判定する移動方向判定部と、
     前記移動方向判定部により前記外側領域の物体が前記注目領域の中央側に移動すると判定された場合に、前記外側領域と共に表示される前記注目領域のうち前記物体が存在する外側領域の側から中央側に向けて、一定時間点灯したのち消灯する指標を順次異なる位置に表示させると共に、当該表示を繰り返し行なう明示画像出力部と、
    を備える障害物警報装置。
  2.  前記明示画像出力部が、前記指標が複数ある場合に当該複数の指標どうしが一部重畳する位置に表示され、後に表示する指標と直前に表示した指標との重複部分については後に表示する指標を上書き表示するよう構成されてある請求項1に記載の障害物警報装置。
  3.  前記指標が、前記注目領域の中央側に突出する凸部を有する矢印形状に構成してある請求項1又は2に記載の障害物警報装置。
  4.  前記明示画像出力部は、前記物体が前記注目領域に進入した場合に前記指標の出力を中止するよう構成してある請求項1から3のいずれか一項に記載の障害物警報装置。
PCT/JP2011/075127 2011-11-01 2011-11-01 障害物警報装置 WO2013065122A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2011/075127 WO2013065122A1 (ja) 2011-11-01 2011-11-01 障害物警報装置
PCT/JP2012/051360 WO2013065325A1 (ja) 2011-11-01 2012-01-23 障害物警報装置
JP2013541644A JP5674071B2 (ja) 2011-11-01 2012-01-23 障害物警報装置
US13/483,699 US9396401B2 (en) 2011-11-01 2012-05-30 Obstacle alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/075127 WO2013065122A1 (ja) 2011-11-01 2011-11-01 障害物警報装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/051360 Continuation-In-Part WO2013065325A1 (ja) 2011-11-01 2012-01-23 障害物警報装置

Publications (1)

Publication Number Publication Date
WO2013065122A1 true WO2013065122A1 (ja) 2013-05-10

Family

ID=48191518

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2011/075127 WO2013065122A1 (ja) 2011-11-01 2011-11-01 障害物警報装置
PCT/JP2012/051360 WO2013065325A1 (ja) 2011-11-01 2012-01-23 障害物警報装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/051360 WO2013065325A1 (ja) 2011-11-01 2012-01-23 障害物警報装置

Country Status (1)

Country Link
WO (2) WO2013065122A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6232759B2 (ja) 2013-06-07 2017-11-22 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム
JP6643659B2 (ja) * 2014-04-09 2020-02-12 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
JP6583385B2 (ja) * 2017-10-25 2019-10-02 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム
JP6773189B2 (ja) * 2019-09-05 2020-10-21 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257378A (ja) * 2007-04-03 2008-10-23 Honda Motor Co Ltd 物体検出装置
JP2009040272A (ja) * 2007-08-09 2009-02-26 Alpine Electronics Inc 車両周辺監視装置
JP2009265803A (ja) * 2008-04-23 2009-11-12 Panasonic Corp 車両視界支援装置
JP2010009607A (ja) * 2009-07-03 2010-01-14 Mazda Motor Corp 車両の障害物警報装置
JP2011151479A (ja) * 2010-01-19 2011-08-04 Aisin Seiki Co Ltd 車両周辺監視装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257378A (ja) * 2007-04-03 2008-10-23 Honda Motor Co Ltd 物体検出装置
JP2009040272A (ja) * 2007-08-09 2009-02-26 Alpine Electronics Inc 車両周辺監視装置
JP2009265803A (ja) * 2008-04-23 2009-11-12 Panasonic Corp 車両視界支援装置
JP2010009607A (ja) * 2009-07-03 2010-01-14 Mazda Motor Corp 車両の障害物警報装置
JP2011151479A (ja) * 2010-01-19 2011-08-04 Aisin Seiki Co Ltd 車両周辺監視装置

Also Published As

Publication number Publication date
WO2013065325A1 (ja) 2013-05-10

Similar Documents

Publication Publication Date Title
JP5692403B2 (ja) 障害物警報装置
WO2013065120A1 (ja) 障害物警報装置
US9396401B2 (en) Obstacle alarm device
JP5861449B2 (ja) 障害物警報装置
WO2013065122A1 (ja) 障害物警報装置
JP5660395B2 (ja) 障害物警報装置
JP5974476B2 (ja) 障害物警報装置
JP5845909B2 (ja) 障害物警報装置
JP5704416B2 (ja) 障害物警報装置
JP5787168B2 (ja) 障害物警報装置
JP5754605B2 (ja) 障害物警報装置
JP2008162550A (ja) 外部環境表示装置
JP5765576B2 (ja) 障害物警報装置
JP5674071B2 (ja) 障害物警報装置
JP5704417B2 (ja) 障害物警報装置
JP5821622B2 (ja) 障害物警報装置
WO2013094496A1 (ja) 障害物警報装置
JP2013131178A (ja) 障害物警報装置
JP5765575B2 (ja) 撮影領域明示装置
JP5825091B2 (ja) 撮影領域明示装置
WO2013094345A1 (ja) 撮影領域明示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11874990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11874990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP