WO2014156222A1 - 障害物検出装置、及びそれを備えた電動車両 - Google Patents

障害物検出装置、及びそれを備えた電動車両 Download PDF

Info

Publication number
WO2014156222A1
WO2014156222A1 PCT/JP2014/050583 JP2014050583W WO2014156222A1 WO 2014156222 A1 WO2014156222 A1 WO 2014156222A1 JP 2014050583 W JP2014050583 W JP 2014050583W WO 2014156222 A1 WO2014156222 A1 WO 2014156222A1
Authority
WO
WIPO (PCT)
Prior art keywords
reliability
obstacle detection
obstacle
detection device
unit
Prior art date
Application number
PCT/JP2014/050583
Other languages
English (en)
French (fr)
Inventor
藤田 英明
岡田 和久
剛英 松本
松岡 祐樹
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US14/759,284 priority Critical patent/US20150348416A1/en
Publication of WO2014156222A1 publication Critical patent/WO2014156222A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • B60L3/0007Measures or means for preventing or attenuating collisions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2200/00Type of vehicles
    • B60L2200/24Personal mobility vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2250/00Driver interactions
    • B60L2250/10Driver interactions by alarm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Definitions

  • the present invention relates to an obstacle detection device used by being mounted on an electric vehicle such as an electric wheelchair, and an electric vehicle equipped with the obstacle detection device.
  • An electric vehicle has a smaller vehicle body than an automobile and is often used by elderly people. For this reason, obstacles, such as a level
  • a technique for detecting an obstacle on the road by radar, ultrasonic waves, camera images, or the like has been proposed.
  • a step detection device described in Patent Document 1 and an electric vehicle including the same have disclosed an obstacle detection technique using a camera image, which is described in Patent Document 2.
  • the obstacle detection apparatus discloses an obstacle detection technique using ultrasonic waves.
  • Japanese Patent Publication “JP 2011-177334 A Japanese Patent Publication “Japanese Patent Laid-Open No. 2011-133247 (published July 7, 2011)” Japanese Patent Publication “Japanese Patent Laid-Open No. 2005-106649 (published on April 21, 2005)”
  • the level difference detection device disclosed in Patent Document 1 and the electric vehicle equipped with the same have proposed a technique for detecting an obstacle from camera images at different imaging times.
  • an erroneous determination is caused in a situation where a desired image cannot be obtained due to the illumination light irradiation state, the reflection of the object, or the like.
  • weather such as rainy weather or fog
  • lighting conditions such as a dark place or backlight, or reflection of a floor surface or reflection of surrounding scenery
  • the probability of erroneous determination increases.
  • Patent Document 2 presents a technique for irradiating an ultrasonic wave and detecting an obstacle from a time delay of a reflected wave from the object.
  • weather such as rain and fog
  • obstacles with curved surfaces and inclined surfaces that are difficult to return reflected waves concave steps such as down stairs and grooves that do not return reflected waves, or ultrasonic waves Obstacles that are absorbed have a higher probability of misjudgment.
  • the reliability of the determination result can be grasped in consideration of a risk factor that increases the probability of erroneous determination.
  • objects can be identified visually by facilities such as gas stations, convenience stores, restaurants, hotels, hot springs, public or other buildings, or topography of mountains, rivers, lakes, etc. "Is included.” It is intended for the landscape as described in, and is not related to the risk factor.
  • specific accuracy means the accuracy with which an instruction display (such as an arrow) superimposed on an actual landscape indicates an object, and a high specific accuracy (good) indicates an indication display (arrow This means that the object in the actual landscape is accurately pointed out, and the accuracy of the positional relationship with the landscape actually viewed by the driver is indicated. Therefore, it is not the determination accuracy for the risk level.
  • acceleration detection means includes vehicle vibration, vehicle behavior, vehicle occupant posture change, vehicle current position identification accuracy, apparent interval between multiple objects to be displayed, and appearance of objects to be displayed. The specific accuracy is detected based on the above size or the distance to the object to be displayed. "However, the detection means of this accuracy is not related to the detection of the risk factor.
  • Patent Document 3 can be said to be similar in that the specific accuracy is notified to the occupant, but the technical field and the object are different from those of the present invention, and the risk determination accuracy and accuracy detection means. Is also different from the present invention.
  • the present invention has been made in view of the above-described conventional problems, and an object of the present invention is to provide an obstacle detection device that can reduce erroneous determination and can be used more safely and safely, and an electric vehicle including the same. There is to do.
  • An obstacle detection apparatus includes an obstacle detection sensor that detects an obstacle, and the obstacle detection apparatus that notifies a user when an obstacle is detected by the obstacle detection sensor.
  • the reliability calculation unit that calculates the reliability of obstacle detection by the object detection sensor and the calculated reliability are compared with a threshold value. If the reliability is equal to or lower than the threshold value, the reliability decreases.
  • a first determination unit that determines that the user is present, and a first alerting unit that alerts the user when the reliability is determined to be reduced by the first determination unit. It is a feature.
  • An electric vehicle includes the obstacle detection device described above.
  • FIG. 1 It is a block diagram which shows the structure of the obstruction detection apparatus in Embodiment 1 of this invention.
  • (A) and (b) are perspective views which show the structure of the electric vehicle provided with the said obstacle detection apparatus. It is a perspective view which shows the structure of the obstacle detection sensor part in the said obstacle detection apparatus.
  • (A) is a figure which shows the 1st image imaged with the left camera
  • (b) is a figure which shows the 2nd image imaged with the right camera
  • (c) is a 1st image.
  • the second image are overlapped to extract only the boundary line between the sidewalk and the road surface.
  • (A) is explanatory drawing which shows the calculation method of distance, Comprising: The 1st image was shown in coordinate space, (b) is the side view which showed the focal plane of the camera, and the positional information on the camera. is there.
  • (A) shows the calculation method of parallax, is a side view which shows a camera,
  • (b) is a top view which shows a camera on either side.
  • (A) is a diagram showing the first image on the left side where the origin P can be seen at the coordinates of the origin (0, 0), and (b) is the second image on the right side where the origin P can be seen at the point ( ⁇ v1, 0).
  • FIG. (A) is a side view showing a case where the parallax v2 of the object is positive (larger than the parallax v1 on the road surface), and (b) is a case where the parallax v2 of the object is negative (smaller than the parallax v1 on the road surface).
  • FIG. (A) is a front view which shows the structure when the LED display part is lit in the alerting
  • the electric vehicle provided with the obstacle detection device of the present embodiment is a vehicle that can be moved by electric power, and represents, for example, a single-seat small vehicle such as an electric wheelchair or a senior car, an electric vehicle, or the like.
  • an obstacle is an obstacle that an electric vehicle passes through, for example, a step below a ground such as a ditch or a descending staircase, a pedestrian, a wall, or a ground above an upstairs. It represents a step in the direction, or a slope with a large inclination angle of, for example, 10 ° or more.
  • FIGS. 2A and 2B are perspective views showing the configuration of an electric vehicle equipped with the obstacle detection device of the present embodiment.
  • FIG. 3 is a perspective view illustrating a configuration of an obstacle detection sensor unit in the obstacle detection apparatus.
  • the electric vehicle 1 provided with the obstacle detection device 4 ⁇ / b> A has a sensor fixing portion provided at the forefront portion in the traveling direction of the electric vehicle 1.
  • the obstacle detection sensor unit 10 fixed to 2 is provided.
  • the steering wheel operation unit 3 of the electric vehicle 1 is provided with a notification unit 20 as an attention drawing unit.
  • the obstacle detection sensor unit 10 and the notification unit 20 function as components of the obstacle detection device 4A of the present embodiment.
  • reporting part 20 is attached to the position where a driver
  • the electric vehicle 1 It may be provided at other positions.
  • the obstacle detection sensor unit 10 detects an obstacle in the traveling direction. As shown in FIG. 3, the obstacle detection sensor and two cameras 12a and 12b as stereo cameras are provided on the sensor cover 11. Have. The distance between the cameras 12a and 12b is, for example, 15 to 25 cm. Also, in the sensor cover 11, a controller 13 (not shown) for calculating the distance to the obstacle and the height of the obstacle from the signals of the cameras 12a and 12b, and detection of the obstacle by the cameras 12a and 12b.
  • the reliability calculation unit 14 (not shown) that calculates the reliability of the image and the calculated reliability described above are compared with a threshold, and if the reliability is equal to or less than the threshold, it is determined that the reliability is reduced.
  • a determination unit 15 (not shown) to be described later is arranged.
  • the distance to the obstacle and the height of the obstacle are determined from the parallax of both cameras 12a and 12b by a stereo camera system using two cameras 12a and 12b. Measuring.
  • FIGS. 4 (a), 4 (b), and 4 (c) are diagrams illustrating a first image captured by the left camera
  • FIG. 4B is a diagram illustrating a second image captured by the right camera
  • (C) is a diagram in which only the boundary line between the sidewalk and the road surface is extracted by superimposing the first image and the second image.
  • the height of the detection area from the road surface is detected by comparing the parallax v1 on the flat road surface and the actual parallax v2 obtained by imaging the step detection area.
  • a detection area centered on an arbitrary coordinate (X, Y) of the first image it is assumed that the detection area is on the road surface from the Y coordinate and position information of the camera 12b.
  • the parallax v1 is obtained.
  • a comparison area centered on the coordinate (Xv1, Y) shifted by the parallax v1 is determined in the second image, and the height from the road surface of the detection area is determined from the parallax v2 between the image of the detection area and the image of the comparison area. Can be obtained.
  • FIG. 5A is an explanatory diagram showing a distance calculation method, and shows the first image in the coordinate space
  • FIG. 5B shows the focal plane of the camera and the position information of the camera. It is the side view which showed.
  • FIG. 6A shows a parallax calculation method and is a side view showing a camera.
  • FIG. 6B is a plan view showing left and right cameras.
  • 7A is a diagram showing the first image on the left side where the origin P can be seen at the coordinates of the origin (0, 0), and FIG.
  • FIG. 7B is a point where the origin P is ( ⁇ v1, 0). It is a figure which shows the 2nd image of the right side seen.
  • 8A is a side view showing a case where the parallax v2 of the object is positive (larger than the parallax v1 of the road surface)
  • FIG. 8B is a side view of FIG. 8 where the parallax v2 of the object is negative (parallax of the road surface). It is a side view showing a case of smaller than v1.
  • the first image is converted into a coordinate space CP in which the vertical axis is ⁇ w pixels and the horizontal axis is ⁇ h pixels with the coordinate center (0, 0) as the origin P.
  • the coordinate point (X, Y) of the step detection area is displayed in the coordinate space CP.
  • the coordinate space CP corresponds to a focal plane A1 that is a plane perpendicular to the optical axis of the cameras 12a and 12b shown in FIG.
  • A1 a focal plane perpendicular to the optical axis of the cameras 12a and 12b shown in FIG.
  • the distance d1 from the camera 12b to the origin P of the focal plane A1 when the coordinate point (X, Y) is assumed to be present on the road surface is obtained.
  • a distance d1 to the origin P of the surface A1 is calculated.
  • a parallax v1 between the first image and the second image when the road surface is on the focal plane A1 is obtained.
  • the parallax v1 may be obtained using the distance d1 obtained in the above (Equation 3).
  • the distance d1 may use another value or need to be corrected depending on lens distortion or the like.
  • the origin P located at the focal plane A1 of the left camera 12b is seen from the center at an angle ⁇ x in the right camera 12a.
  • This ⁇ x is obtained by the following equation, where g is the distance between the left and right cameras.
  • ⁇ x arctan (g / d1) (Formula 4)
  • the origin P appears as the coordinates of the origin (0, 0) in the first image on the left as shown in FIG.
  • the second image on the right side as shown in FIG. 7B, when the number of parallax pixels is v1, it appears as a point ( ⁇ v1, 0).
  • v1 is obtained by the following equation when ⁇ 1 is half of the horizontal angle of view of the camera 12a.
  • v1 w ⁇ tan ⁇ x / tan ⁇ 1 (Formula 5) Since v1 that is the number of pixels of the parallax is the same at the point P and the point (X, Y), it appears at the position of (Xr, Y) in the right image.
  • Xr X ⁇ v1 (Formula 6) It is.
  • the luminance of several pixels around the target point of the left and right images may be taken out and compared. If they match within the range of error factors such as noise of the cameras 12a and 12b, it can be determined that the point is the same height as the road surface. If it is determined that the two do not match and are shifted to the left or right, it can be determined that the position is higher or lower than the road surface according to the parallax.
  • the height hs of the road level difference can be known. That is, when the parallax v2 of the object is positive (larger than the parallax v1 of the road surface), as shown in FIG. 8A, the distance d2 to the object is smaller than the distance d1 to the road surface, and hs is positive. It can be judged that it is higher than the road surface. Conversely, when v2 is negative (smaller than the parallax v1 on the road surface), as shown in FIG.
  • the distance d2 to the object is larger than the distance d1 to the road surface, and hs is a negative value. Therefore, it can be judged that it is lower than the road surface. In this way, the height difference from the road surface of the coordinate point (X, Y) in the first image is known.
  • the method of calculating the distance and height from the obstacle from the parallax of the stereo camera is not necessarily limited to this, and other known methods can be used.
  • the notification unit 20 shown in FIGS. 2A and 2B indicates that it is dangerous to the driver by sound, voice, or light-emitting display. Notify the driver.
  • the notification unit 20 for example, the one shown in (a) and (b) of FIG. 9 can be used. That is, the notification unit 20 includes a speaker unit 21 that notifies the driver by sound or voice, an LED display unit 22 that notifies the driver by light display, and a switch 23 for turning on / off the operation of the notification unit 20. It is composed of In addition, in this Embodiment, although the alerting
  • obstacle detection by the stereo camera method is generally used because it can be measured with a simple configuration and with relatively high accuracy.
  • due to the use of camera images it may be difficult to accurately capture an image of the target obstacle depending on the lighting conditions such as darkness and backlight, and weather conditions such as rainy weather and fog, which may cause erroneous determination. is there. For example, it may be determined that there is an obstacle but not, or vice versa.
  • the obstacle detection apparatus 4A determines that the stereo camera system using the cameras 12a and 12b is likely to cause an erroneous determination, that is, a low reliability state. In order to do so, a reliability calculation unit 14 and a determination unit 15 are provided. And when reliability is low, alerting
  • the reliability calculation unit 14 calculates the reliability based on the signals of the cameras 12a and 12b.
  • the signal it is preferable to use luminance, correlation, contrast, exposure time, or a combination thereof. The calculation of each reliability will be described below.
  • the reliability is calculated from the luminance value of the image captured by the cameras 12a and 12b. For example, when the luminance is output in 255 gradations, the number of pixels with the luminance threshold value 230 or more is counted, and when the count number is a certain number or more, it is determined that the reliability is low. As a result, for example, when there is a lot of reflected light on a glossy surface such as a floor surface or metal, it is possible to prevent an erroneous determination from being easily caused, and that the obstacle detection is not working well for the user. You can call attention.
  • the luminance threshold and the count number can be set arbitrarily. In addition to counting by the number of pixels, when comparing the images of the cameras 12a and 12b for each fixed block region, if the number of pixels equal to or greater than the luminance threshold in the block is equal to or greater than a certain value, It may be ignored.
  • a method of calculating the parallax at the feature points of the left and right images in a block having a range of about 64 ⁇ 32 pixels as one block is generally used in the stereo camera system.
  • the reliability of determination in the block may be determined from the number of pixels greater than or equal to the luminance threshold included in the block, and the user may be notified when the number of blocks with low reliability is a certain number or more. .
  • the surrounding scenery when the surrounding scenery is reflected on the floor surface, it may be erroneously determined that there is no obstacle, but the reflected scenery is generally not clear and becomes a blurred image. In this case, since the degree of correlation also becomes low, it is possible to notify the user when a situation in which erroneous determination is likely to occur due to reflection and warn the user to be careful about traveling.
  • the contrast difference (distribution) in the block is calculated, and a block with a contrast lower than a certain value is determined to have low reliability.
  • the user may be notified when the number of blocks with low reliability is a certain number or more.
  • blocks with low reliability may be ignored during obstacle determination to reduce false detection of obstacles.
  • the imaging with the cameras 12a and 12b may be performed by automatic exposure, and the reliability may be calculated from the exposure time.
  • the exposure time is not less than a certain time or not more than a certain time, it is determined that the imaging environment is too dark or too bright, and it can be determined that the obstacle detection accuracy has decreased.
  • the brightness of the imaging environment can be determined without using a separate illuminance sensor or the like, and it can be configured at low cost.
  • the obstacle is detected by the stereo camera.
  • the signal of a stereo camera is utilized for determination of reliability.
  • the reliability is calculated from signals other than the parallax information of the stereo camera. Examples are brightness, correlation, contrast, and exposure time.
  • FIG. 10 is a flowchart showing a determination flow in the obstacle detection apparatus 4A.
  • the control unit 13 calculates the height and distance of the object from the parallax of the right camera 12a and the left camera 12b (S2), and calculates the risk (S3).
  • the degree of risk is determined from the distance from the object, height, and size. For example, it is determined that the risk level is high when the distance is short and the risk level is low when the distance is long.
  • the reliability calculation unit 14 calculates the reliability by the method described above (S4). Subsequently, it is determined whether or not the reliability is greater than a threshold value (S5).
  • the reliability is equal to or less than the threshold value, it is informed that it is “traveling caution” (S6). If the reliability is greater than the threshold, it is further determined whether or not the risk is greater than the threshold (S7). If the degree of risk is greater than the threshold, the notification unit 20 notifies the user of the obstacle detection result (S9). On the other hand, if the degree of risk is equal to or less than the threshold value, that is, if no obstacle is detected, the user is not notified (S8) or is notified that it is “safe”.
  • the obstacle detection device 4A includes the cameras 12a and 12b as the obstacle detection sensors for detecting the obstacles.
  • the obstacles are detected by the cameras 12a and 12b, the user is notified. Inform.
  • the reliability of the cameras 12a and 12b when the reliability of the cameras 12a and 12b is lowered due to fog or the like, the measurement cannot be performed successfully, and as a result, erroneous determination may occur. In this case, even when the reliability of the cameras 12a and 12b is low, when the user believes the determination as it is, for example, when it is determined that there is a step but there is no step, an accident occurs. It can also lead to
  • the reliability calculation unit 14 that calculates the reliability of obstacle detection by the cameras 12a and 12b and the calculated reliability are compared with a threshold, and the reliability is equal to or less than the threshold.
  • the determination unit 15 as a first determination unit that determines that the reliability is lowered, and a first caution that alerts the user when the determination unit 15 determines that the reliability is reduced
  • An informing unit 20 as an arousing unit is provided.
  • the obstacle detection device 4A that can reduce erroneous determination and can be used more safely and safely.
  • the obstacle detection sensor includes cameras 12a and 12b as stereo cameras that detect obstacles from the parallax of a plurality of cameras.
  • an obstacle detection apparatus can be easily produced with an inexpensive system by using a conventionally used stereo camera as the obstacle detection sensor.
  • the reliability calculation unit 14 calculates the reliability from images captured by the cameras 12a and 12b.
  • a separate sensor for measuring the reliability can be dispensed with, and the reliability can be detected at a low cost.
  • a luminance value, contrast, correlation, or exposure time can be used as a method for calculating the reliability from the image captured by the stereo camera.
  • the reliability can be easily determined, and it is easily determined that the reliability is low when the light intensity is low at night, the local light is incident during backlighting, or the parallax determination accuracy is reduced due to low contrast. be able to.
  • the correlation degree indicating the matching degree of the feature points of the left and right camera images of the stereo camera is used as a reliability calculation method.
  • the reliability can be determined, for example, in the case of image blur due to rain or reflection on the road surface, the decrease in the reliability is detected by utilizing the fact that the correlation is low, You can alert the user.
  • the reliability calculation unit 14 can calculate the reliability based on the luminance of the images captured by the cameras 12a and 12b.
  • the reliability can be easily determined by using the luminance value, and the reliability is reduced when the parallax determination accuracy decreases due to insufficient light quantity at night or local light incidence during backlighting. Can be determined. It is also possible to use both the luminance value and the correlation degree together. This makes it difficult to detect with a stereo camera system, such as weather such as rain or fog, lighting conditions such as dark places or backlight, or reflection of the floor surface or reflection of surrounding scenery. The user can be alerted that the reliability is low. In that case, the user can operate more safely by paying attention.
  • the notification unit 20 as the first alerting unit alerts the user that the reliability is reduced by at least one of sound, voice, and display. Then you can do it. Thereby, it can alert
  • the electric vehicle 1 according to the present embodiment includes the obstacle detection device 4A according to the present embodiment. According to said structure, the electric vehicle 1 which can drive
  • the electric vehicle 1 of the present embodiment is provided with a drive control unit that controls the drive operation, and the drive control unit controls the drive operation based on the detection result of the obstacle detection device. Can do.
  • the obstacle detection sensor unit 30 in the obstacle detection device 4B according to the present embodiment is shown in FIG. 11 in addition to the configuration of the obstacle detection sensor unit 10 having the cameras 12a and 12b which are the stereo cameras of the first embodiment. As shown, the reliability detection sensor 31 is different.
  • the obstacle detection sensor unit 30 in the obstacle detection device 4B of the present embodiment detects an obstacle with the cameras 12a and 12b which are stereo cameras. Further, for example, an illuminance sensor or a temperature / humidity sensor other than the stereo camera is used for the determination of the reliability.
  • FIG. 11 is a perspective view showing the configuration of the obstacle detection sensor unit 30 of the present embodiment.
  • the obstacle detection sensor unit 30 of the present embodiment includes cameras 12 a and 12 b and a reliability detection sensor 31 on the sensor cover 11.
  • the reliability detection sensor 31 can be, for example, an illuminance sensor or a temperature / humidity sensor.
  • an illuminance sensor is used as the reliability detection sensor 31, the illuminance around the obstacle detection sensor unit 30 is detected, and it is determined that the reliability is low when the illuminance is greater than or equal to a certain value. . That is, when the illuminance is high, there is a high possibility that the detection reliability of the cameras 12a and 12b, which are stereo cameras, is low due to the influence of backlight and reflected light. Further, when the illuminance is low, there is a high possibility that the detection reliability of the cameras 12a and 12b is low at night or in a dark place.
  • the reliability detection sensor 31 it is possible to predict a situation where rainy weather, fog, or condensation is likely to occur, and to calculate the reliability from the result.
  • the obstacle detection sensor unit 30 of the present embodiment by using data other than the stereo camera as the data for calculating the reliability, it is possible to calculate the reliability that is difficult to calculate using only the stereo camera. The reliability can be calculated more reliably.
  • FIG. 12 is a flowchart illustrating the obstacle detection operation of the obstacle detection device 4B according to the present embodiment.
  • the reliability is calculated by the reliability detection sensor 31 in parallel with the risk calculation by the stereo camera in S1 to S3 (S11, S12). Since the subsequent flows (S5 to S9) are the same as those described in the flowchart of FIG. 10, the description thereof is omitted.
  • the reliability calculation unit 14 includes the reliability detection sensor 31 as an illuminance sensor that detects the brightness of the surroundings, and the output of the reliability detection sensor 31. The reliability is calculated based on the value.
  • the reliability of the measurement environment is detected by the reliability detection sensor 31 as an illuminance sensor, and it is possible to easily determine the reliability by determining that the reliability is lowered when it is too dark or too bright. It becomes. Further, it is possible to make a determination even in a situation where it is difficult to determine the reliability with a camera image.
  • the notification unit 20 as the first attention calling unit alerts the user that the reliability is reduced by at least one of sound, voice, and display. Then you can do it. Thereby, it can alert
  • the electric vehicle 1 in the present embodiment includes the obstacle detection device 4B of the present embodiment. According to said structure, the electric vehicle 1 which can drive
  • the electric vehicle 1 in the present embodiment is provided with a drive control unit that controls the drive operation, and the drive control unit controls the drive operation based on the detection result of the obstacle detection device. Can do. As a result, the vehicle can be operated more safely, and when the reliability is low, the drive control of the electric vehicle is not performed, thereby preventing a control error due to an erroneous determination.
  • Embodiment 3 The following will describe still another embodiment of the present invention with reference to FIGS.
  • the configurations other than those described in the present embodiment are the same as those in the first embodiment and the second embodiment.
  • members having the same functions as those shown in the drawings of Embodiment 1 and Embodiment 2 are given the same reference numerals, and explanation thereof is omitted.
  • the obstacle detection sensor unit 40 in the obstacle detection device 4C according to the present embodiment is as shown in FIG. 13 in addition to the obstacle detection sensor unit 10 having the cameras 12a and 12b which are the stereo cameras of the first embodiment.
  • a plurality of obstacle detection sensors are used in combination, and the calculation of the reliability is performed based on the degree of coincidence of the plurality of obstacle detection sensors.
  • the plurality of obstacle detection sensors for example, at least two first detection sensors 41 and second detection sensors 42 such as a stereo camera, an ultrasonic sensor, a radar, and a laser are used.
  • FIG. 13 is a perspective view showing a configuration of the obstacle detection sensor unit 40 of the present embodiment.
  • the obstacle detection sensor unit 40 of the present embodiment includes a first detection sensor 41 and a second detection sensor 42 as shown in FIG.
  • a first detection sensor 41 and a second detection sensor 42 what is called distance sensors, such as a stereo camera, an ultrasonic sensor, a radar, a laser, can be used, for example.
  • first detection sensor 41 a stereo camera system
  • ultrasonic sensor is used as the second detection sensor 42.
  • FIG. 14 is a flowchart showing an operation flow of the obstacle detection apparatus 4C.
  • the obstacle detection device 4C includes the first detection sensor 41 and the second detection sensor 42 as the obstacle detection sensors each having a different detection method. Has been. Then, when the determination results between the plurality of first detection sensors 41 and the second detection sensors 42 are different, the determination unit 15 as a second determination unit that determines that the detection reliability is lowered, and the determination unit 15 When it is determined that the reliability is lowered, a notification unit 20 is provided as a second alerting unit that alerts the user.
  • the notification unit 20 as the second alerting unit alerts the user that the reliability is reduced by at least one of sound, voice, and display. Then you can do it. Thereby, it can alert
  • the electric vehicle 1 in the present embodiment includes the obstacle detection device 4C of the present embodiment. According to said structure, the electric vehicle 1 which can drive
  • the electric vehicle 1 is provided with a drive control unit that controls the drive operation, and the drive control unit controls the drive operation based on the detection result of the obstacle detection device 4C.
  • the vehicle can be operated more safely, and when the reliability is low, the drive control of the electric vehicle 1 is not performed, thereby preventing a control error due to an erroneous determination.
  • the obstacle detection device 4A has an obstacle detection sensor (cameras 12a and 12b) that detects an obstacle, and detects the obstacle by the obstacle detection sensor (cameras 12a and 12b).
  • the reliability calculation unit 14 that calculates the reliability of obstacle detection by the obstacle detection sensors (cameras 12a and 12b), and the calculated reliability as a threshold value
  • the first determination unit determines that the reliability is lowered and the first determination unit (determination unit 15) determine the reliability.
  • the first alerting part (notification part 20) for alerting the user when it is determined that the value is lowered is provided.
  • the reliability calculation unit that calculates the reliability of obstacle detection by the obstacle detection sensor, the calculated reliability is compared with a threshold value, and the reliability is equal to or less than the threshold value. Includes a first determination unit that determines that the reliability is lowered, and a first attention calling unit that alerts a user when the first determination unit determines that the reliability is reduced. Is provided.
  • the obstacle detection device 4A according to the second aspect of the present invention is the obstacle detection device 4A according to the first aspect, in which the obstacle detection sensor is a stereo camera (cameras 12a and 12b) that detects an obstacle from the parallax of a plurality of cameras. It can be said that
  • the reliability calculation unit 14 calculates the reliability from images captured by the stereo cameras (cameras 12a and 12b). It is preferable to do.
  • a separate sensor for measuring the reliability can be dispensed with, and the reliability can be detected at a low cost.
  • a luminance value, contrast, correlation, or exposure time can be used as a method for calculating the reliability from the image captured by the stereo camera.
  • the reliability can be easily determined, and it is easily determined that the reliability is low when the light intensity is low at night, the local light is incident during backlighting, or the parallax determination accuracy is reduced due to low contrast. be able to.
  • the correlation degree indicating the matching degree of the feature points of the left and right camera images of the stereo camera is used as a reliability calculation method.
  • the reliability can be determined, for example, in the case of image blur due to rain or reflection on the road surface, the decrease in the reliability is detected by utilizing the fact that the correlation is low, You can alert the user.
  • the obstacle detection device 4A according to aspect 4 of the present invention is the obstacle detection device 4A according to aspect 3, in which the reliability calculation unit 14 is based on the luminance of an image captured by the stereo camera (cameras 12a and 12b). It is possible to calculate the reliability.
  • the reliability can be easily determined by using the luminance value, and the reliability is reduced when the parallax determination accuracy decreases due to insufficient light quantity at night or local light incidence during backlighting. Can be determined.
  • the luminance value and the degree of correlation it is difficult to detect with the stereo camera method, such as rainy weather and foggy weather conditions, lighting conditions such as dark places and backlight, or floor surface conditions. When reflection or reflection of surrounding scenery occurs, it is possible to alert the user that the reliability is low, and in this case, the user can be operated more safely by paying attention.
  • the obstacle detection device 4B according to the fifth aspect of the present invention is the obstacle detection device according to any one of the first to fourth aspects, wherein the reliability calculation unit 14 includes an illuminance sensor (reliability) for detecting ambient brightness. It is possible to provide a detection sensor 31) and calculate the reliability based on the output value of the illuminance sensor (reliability detection sensor 31).
  • the reliability calculation unit 14 includes an illuminance sensor (reliability) for detecting ambient brightness. It is possible to provide a detection sensor 31) and calculate the reliability based on the output value of the illuminance sensor (reliability detection sensor 31).
  • the brightness of the measurement environment is detected by the illuminance sensor, and when it is too dark or too bright, it is determined that the reliability is lowered, so that the reliability can be easily determined. Further, it is possible to make a determination even in a situation where it is difficult to determine the reliability with a camera image.
  • the obstacle detection devices 4A and 4B according to aspect 6 of the present invention are the obstacle detection devices 4A and 4B according to any one of aspects 1 to 5, wherein the first alerting unit (notification unit 20) includes sound, At least one of the voice and the display can alert the user that the reliability is reduced.
  • the first alerting unit includes sound
  • At least one of the voice and the display can alert the user that the reliability is reduced.
  • the obstacle detection device 4C according to Aspect 7 of the present invention is the obstacle detection device according to any one of Aspects 1 to 6, wherein the obstacle detection sensor includes a plurality of obstacle detection sensors (first ones) having different detection methods. 1 detection sensor 41 and second detection sensor 42), and the determination results between the plurality of obstacle detection sensors (first detection sensor 41 and second detection sensor 42) are different.
  • the second determination unit determines that the detection reliability is decreased and the second determination unit (determination unit 15) determines that the reliability is decreased, the user is notified. It can be said that the 2nd alerting part (notification part 20) which performs alerting is provided.
  • the electric vehicle 1 includes the obstacle detection devices 4A, 4B, and 4C described in any one of the aspects 1 to 7.
  • the electric vehicle 1 according to the eighth aspect is provided with a drive control unit that controls a driving operation, and the drive control unit is provided with a detection result of the obstacle detection device. Based on this, the driving operation can be controlled.
  • the present invention relates to an obstacle detection device that is used by being mounted on an electric vehicle such as an electric wheelchair, and an electric vehicle including the obstacle detection device, and a three-wheel or four-wheel single-seat electric wheelchair made for an elderly person,
  • the present invention can be applied to an electric vehicle such as a senior car and an obstacle detection device mounted on the electric vehicle.
  • Obstacle detection sensor part Sensor cover 12a Camera (obstacle detection sensor, stereo camera) 12b Camera (obstacle detection sensor, stereo camera) 13 control unit 14 reliability calculation unit 15 determination unit (first determination unit, second determination unit) 20 Notification Department (1st alerting section, 2nd alerting section) 21 Speaker unit 22 LED display unit 23 Switch 30 Obstacle detection sensor unit 31 Reliability detection sensor (obstacle detection sensor) 40 Obstacle detection sensor unit 41 First detection sensor (obstacle detection sensor) 42 Second detection sensor (obstacle detection sensor)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Transportation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Energy (AREA)
  • Sustainable Development (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 本発明の障害物検出装置(4A)は、障害物を検出するカメラ(12a・12b)を有し、カメラ(12a・12b)により障害物を検知したときに利用者に知らせる。カメラ(12a・12b)による障害物の検知の信頼度を算出する信頼度算出部(14)と、算出された信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する判断部(15)と、判断部(15)により信頼度が低下している判断された場合に、利用者に注意喚起する報知部(20)とが設けられている。

Description

障害物検出装置、及びそれを備えた電動車両
 本発明は、電動車椅子等の電動車両に搭載して用いられる障害物検出装置、及びそれを備えた電動車両に関するものである。
 近年、高齢者向けに作られた三輪又は四輪の一人乗り電動車両が普及してきており、電動車椅子、シニアカーとして知られている。
 電動車両は、自動車に比較して車体が小さく、かつ高齢者が利用することが多い。このため、電動車両にとって、段差等の障害物は、転倒の可能性がある危険な場所であり、障害物を事前に検知して運転者に報知することが望まれている。
 そこで、従来、レーダー、超音波又はカメラ画像等により路上にある障害物を検知する技術が提案されている。具体的には、例えば、特許文献1に記載された段差検知装置及びこれを備えた電動車両には、カメラ画像を用いた障害物の検知技術が開示されており、特許文献2に記載された障害物検出装置には、超音波を用いた障害物の検知技術が開示されている。
日本国公開特許公報「特開2011-177334号公報(2011年9月15日公開)」 日本国公開特許公報「特開2011-133247号公報(2011年7月7日公開)」 日本国公開特許公報「特開2005-106649号公報(2005年4月21日公開)」
 しかしながら、上記従来の障害物検出装置、及びそれを備えた電動車両では、以下の問題点を有している。
 まず、電動車椅子やシニアカー等の電動車両は歩行者として取り扱われるため、屋外の歩道以外にも病院や店舗内の通路等、自動車が走行しない場所も通行する場合があり、幅広い状況下での使用を想定する必要がある。
 これに対して、特許文献1に開示された段差検知装置及びこれを備えた電動車両は、撮像時刻の異なるカメラ画像から障害物を検知する技術を提示している。しかし、カメラを用いた方式では、照明光の照射状態、対象物の反射等により所望の画像を得ることができない状況で誤判定を起こす場合が考えられる。例えば、雨天や霧のような天候、暗所や逆光のような照明条件、又は床面の反射や周辺景色の写り込みがある場合は、誤判定を起こす確率が高くなる。
 また、特許文献2に開示された技障害物検出装置は、超音波を照射し、対象物からの反射波の時間遅れから障害物を検知する技術を提示している。しかし、同様に、雨天や霧のような天候、曲面や傾斜面があり反射波が戻り難い形状の障害物、反射波が戻らない下り階段や溝のような凹形状の段差、又は超音波を吸収する障害物では、誤判定を起こす確率が高くなる。
 したがって、障害物検出装置においては、誤判定を起こす確率が高くなる危険要素を考慮して、判断結果の信頼度が把握できるようになっているのが好ましい。
 一方、本願発明とは異種分野であるカーナビゲーションの分野では、モニター画面を見なくても、フロントガラス等にナビ画面の風景を投影することによって視線を変えずに運転できるというナビ画面の視認可に関する技術が特許文献3に開示されている。
 この特許文献3では、「対象物には、ガソリンスタンド、コンビニエンスストア、レストラン、ホテル、温泉地、公共若しくはその他の建物等の施設、又は山、河、湖等の地形等の視覚によって識別できるものが含まれる。」と記載されているように風景を対象としており、危険要素に関するものではない。また、「特定精度とは、現実の風景に重畳して表示される指示表示(矢印等)が対象物を差す正確さを意味しており、特定精度が高い(良い)とは指示表示(矢印等)が正確に現実の風景中の対象物を差していることを意味し、」との記載があるように、運転者が実際に見ている風景との位置関係に対する精度を示している。したがって、危険度に対する判定精度ではない。
 さらに、「精度検出手段は、車両の振動、車両の挙動、車両の乗員の姿勢変化、車両の現在位置特定精度、表示すべき複数の対象物の見かけ上の間隔、表示すべき対象物の見かけ上の大きさ、又は表示すべき対象物までの距離に基づいて特定精度を検出する。」との記載があるが、この精度の検出手段も危険要素の検出に関するものではない。
 このように、特許文献3の技術は、特定精度を乗員に通知する点で類似するともいえるが、技術分野及び目的が本願発明とは異なっていると共に、危険度の判定精度及び精度の検出手段も本願発明とは異なっている。
 本発明は、上記従来の問題点に鑑みなされたものであって、その目的は、誤判定を低減し、より安全に安心して利用可能な障害物検出装置、及びそれを備えた電動車両を提供することにある。
 本発明の一態様における障害物検出装置は、障害物を検出する障害物検知センサを有し、上記障害物検知センサにより障害物を検知したときに利用者に知らせる障害物検出装置において、上記障害物検知センサによる障害物の検知の信頼度を算出する信頼度算出部と、算出された上記信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する第1判断部と、上記第1判断部により上記信頼度が低下している判断された場合に、上記利用者に注意喚起する第1注意喚起部とが設けられていることを特徴としている。
 本発明の一態様における電動車両は、上記記載の障害物検出装置を備えていることを特徴としている。
 本発明の一態様によれば、誤判定を低減し、より安全に安心して利用可能な障害物検出装置、及びそれを備えた電動車両を提供するという効果を奏する。
本発明の実施形態1における障害物検出装置の構成を示すブロック図である。 (a)(b)は、上記障害物検出装置を備えた電動車両の構成を示す斜視図である。 上記障害物検出装置における障害物検知センサ部の構成を示す斜視図である。 (a)は左側のカメラにて撮像した第1の画像を示す図であり、(b)は右側のカメラにて撮像した第2の画像を示す図であり、(c)は第1の画像と第2の画像とを重ねて、歩道と路面との境界線だけを抽出した図である。 (a)は距離の算出方法を示す説明図であって、第1の画像を座標空間に示したものであり、(b)はカメラの焦点面とカメラの位置情報とを示した側面図である。 (a)は視差の算出方法を示すものであって、カメラを示す側面図であり、(b)は、左右のカメラを示す平面図である。 (a)は原点Pが原点(0、0)の座標に見える左側の第1の画像を示す図であり、(b)は原点Pが(-v1、0)の地点に見える右側の第2の画像を示す図である。 (a)は物体の視差v2が正(路面の視差v1よりも大きい)の場合を示す側面図であり、(b)は、物体の視差v2が負(路面の視差v1よりも小さい)の場合を示す側面図である。 (a)は上記障害物検出装置の報知部における、LED表示部が点灯しているときの構成を示す正面図であり、(b)は上記障害物検出装置の報知部における、危険位置及び危険レベルを示す右上のLED表示部のみが点灯しているときの構成を示す正面図である。 上記障害物検出装置の障害物検知動作を示すフローチャートである。 本発明の実施形態2における障害物検出装置の障害物検知センサ部の構成を示す斜視図である。 上記障害物検出装置の障害物検知動作を示すフローチャートである。 本発明の実施形態3における障害物検出装置の障害物検知センサ部の構成を示す斜視図である。 上記障害物検出装置の障害物検知動作を示すフローチャートである。
  〔実施の形態1〕
 本発明の一実施形態について図1~図10に基づいて説明すれば、以下のとおりである。
 本実施の形態の障害物検出装置を備えた電動車両は、電気動力により移動することのできる車両であり、例えば、電動車椅子又はシニアカー等の一人乗りの小型車両や電気自動車等を表わす。
 また、障害物とは、電動車両が通行するのに障害となる物であり、例えば、溝、下り階段等の地面よりも下方向の段差、歩行者、壁、上り階段等の地面よりも上方向の段差、又は例えば10°以上の傾斜角度の大きい坂道等を表わす。
 本実施の形態の障害物検出装置を備えた電動車両の構成について、図2の(a)(b)、及び図3に基づいて説明する。図2の(a)(b)は、本実施の形態の障害物検出装置を備えた電動車両の構成を示す斜視図である。図3は、上記障害物検出装置における障害物検知センサ部の構成を示す斜視図である。
 本実施の形態の障害物検出装置4Aを備えた電動車両1は、図2の(a)(b)に示すように、該電動車両1における進行方向の最前方部に設けられたセンサ固定部2に固定された障害物検知センサ部10を備えている。上記電動車両1のハンドル操作部3には注意喚起部としての報知部20を備えている。上記障害物検知センサ部10及び報知部20は、本実施の形態の障害物検出装置4Aの構成品として機能している。尚、本実施の形態では、報知部20は、運転者(利用者)が視認し易い位置に取り付けられているが、音、及び音声のみの場合には、必ずしもこれに限らず、電動車両1の他の位置に設けられていてもよい。
 上記障害物検知センサ部10は、進行方向の障害物を検知するものであり、図3にも示すように、センサーカバー11に障害物検知センサ及びステレオカメラとしての2台のカメラ12a・12bを有している。これらカメラ12a・12bの間隔は、例えば15~25cmとなっている。また、上記センサーカバー11内には、カメラ12a・12bの信号から障害物との距離や障害物高さを算出するための図示しない後述する制御部13、上記カメラ12a・12bによる障害物の検知の信頼度を算出する図示しない後述する信頼度算出部14、及び算出された上記信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する図示しない後述する判断部15が配置されている。
 すなわち、本実施の形態の障害物検知センサ部10では、2台のカメラ12a・12bを使用したステレオカメラ方式により、両カメラ12a・12bの視差から障害物との距離及び障害物の高さを測定している。
 ここで、ステレオカメラの視差から障害物との距離や高さを算出する方法について、図4の(a)(b)(c)に基づいて説明する。図4の(a)は左側のカメラにて撮像した第1の画像を示す図であり、図4の(b)は右側のカメラにて撮像した第2の画像を示す図であり、図4の(c)は第1の画像と第2の画像とを重ねて、歩道と路面との境界線だけを抽出した図である。
 まず、各カメラ12a・12bにて前方を撮影すると、図4の(a)に示す左側のカメラ12bにて撮像した第1の画像と、図4の(b)に示す右側のカメラ12aにて撮像した第2の画像とが得られる。そして、これら両画像から、図4の(c)に示すように、左の画像と右の画像において境界線がずれた位置に撮像されていることが把握される。この左右方向のずれ量が視差であり、平坦な路面では、視差は手前から奥行き側に向かって一定の割合で減少する。
 本実施の形態では、このような平坦な路面における視差v1と、段差の検出領域を撮像した実際の視差v2とを比較することにより、検出領域の路面からの高さを検出する。
 具体的には、第1の画像の任意の座標(X、Y)を中心とする検出領域に対して、そのY座標とカメラ12bの位置情報等とから、検出領域が路面にあると仮定したときの視差v1を求める。そして、第2の画像で視差v1ずらした座標(X-v1、Y)を中心とする比較領域を定め、検出領域の画像と比較領域の画像との視差v2から検出領域の路面からの高さを求めることが可能である。
 具体的なステレオカメラの視差から障害物との距離や高さを算出する方法について、図5の(a)(b)~図8の(a)(b)に基づいて説明する。図5の(a)は距離の算出方法を示す説明図であって、第1の画像を、座標空間に示したものであり、図5の(b)はカメラの焦点面とカメラの位置情報とを示した側面図である。図6の(a)は視差の算出方法を示すものであって、カメラを示す側面図であり、図6の(b)は、左右のカメラを示す平面図である。図7の(a)は原点Pが原点(0、0)の座標に見える左側の第1の画像を示す図であり、図7の(b)は原点Pが(-v1、0)の地点に見える右側の第2の画像を示す図である。図8の(a)は、物体の視差v2が正(路面の視差v1よりも大きい)の場合を示す側面図であり、図8の(b)は、物体の視差v2が負(路面の視差v1よりも小さい)の場合を示す側面図である。
 まず、図5の(a)(b)に示すように、第1の画像の任意の座標(X、Y)を中心とする検出領域に対して、そのY座標値とカメラ12bの位置情報とから、検出領域が路面にあると仮定したときの第2の画像との視差v1を求める。
 視差v1を求めるには、まず、図の5(b)に示すように、カメラ12a・12bから画像の焦点面A1までの距離d1を算出する必要がある。そこで、図5の(a)に示すように、第1の画像を、座標の中心(0、0)を原点Pとする縦が±wピクセル、横が±hピクセルである座標空間CPに変換し、段差の検出領域の座標点(X、Y)を座標空間CPに表示する。
 次いで、座標空間CPにおいて、段差を検出する任意の検出領域の座標点(X、Y)を選択する。座標空間CPは、図5の(b)に示すカメラ12a・12bの光軸に垂直な面である焦点面A1に相当する。カメラ12a・12bのレンズの歪みがない場合、焦点面A1上に存在するものは全て同じ視差になるため、座標空間CPに存在する座標点(X、Y)と原点Pとも同じ視差となる。
 次に、座標点(X、Y)が路面に存在すると仮定したときのカメラ12bから焦点面A1の原点Pまでの距離d1を求める。ここで、座標点(X、Y)を基点として距離d1を算出すると複雑になる。そこで、焦点面A1に存在する座標点が全て同じ視差となることを利用して、座標点(X、Y)と同じ焦点面A1にある座標点Q(0、Y)を基点にして、焦点面A1の原点Pまでの距離d1を算出する。
 次に、図6の(a)に示すように、カメラ12bから座標点Qを見たときの下向きの角度θyは、カメラ12bの垂直画角の半分をθ2とすると、図5の(a)に示す座標点Qの高さがYであるから、θyは下記の式1で求めることができる。
θy=arctan(tanθ2×Y/h)       (式1)
 また、図5の(b)に示すように、カメラ12a・12bの取り付け高さをhcとして、カメラ12a・12bが俯角θ3で下向きに取付けられている場合、カメラ12bから座標点Qまでの距離d1´は、
d1´=hc/sin(θ3+θy)          (式2)
より求めることができる。
 したがって、カメラ12bから焦点面A1の原点Pまでの距離d1は、
d1=d1´×cos(θy)             (式3)
より求めることができる。
 次に、焦点面A1に路面があるとしたきの第1の画像と第2の画像との視差v1を求める。歪みのないレンズの場合、焦点面A1上にある点は全て同じ視差になると考えられるので、上記(式3)で求めた距離d1を使って視差v1を求めればよい。尚、距離d1は、レンズの歪み等によって、他の値を用いたり、補正が必要となったりする場合もある。
 図6の(b)に示すように、左のカメラ12bの焦点面A1に位置する原点Pは、右のカメラ12aでは中央から角度θxの方向に見える。このθxは、左右のカメラ間隔をgとすると、以下の式で求められる。
θx=arctan(g/d1)            (式4)
 このとき、原点Pは、左側の第1の画像では、図7の(a)に示すように、原点(0、0)の座標に見える。また、右側の第2の画像では、図7の(b)に示すように、視差のピクセル数をv1としたとき、(-v1、0)の地点に見える。v1は、図6の(b)に示すように、カメラ12aの水平画角の半分をθ1としたとき、以下の式で求められる。
v1=w×tanθx/tanθ1           (式5)
 視差のピクセル数であるv1は点Pと点(X、Y)とで同一であるので、右画像では(Xr、Y)の位置に見えることになる。ここで、
Xr=X-v1                    (式6)
である。
 次に、左側の第1の画像の検出領域(X、Y)の座標に写っている物体が路面と同じ高さにあるかどうかを判断する。このとき、左側の第1の画像の(X、Y)の座標に写っている物体と同一の物体が、右側の第2の画像の比較領域(Xr、Y)の位置に写っているかを確認すればよい。
 同一物体かどうかの確認方法は様々な方法があるが、例えば、左右画像の対象点の周辺数ピクセル分の輝度を取り出して比較すればよい。両者がカメラ12a・12bのノイズなどの誤差要因の範囲内で一致すれば、その地点は路面と同じ高さであると判断することができる。もし、両者が一致せず、左右どちらかにずれていると判断される場合には、その視差に応じて、路面より高い位置か、低い位置にあると判断することができる。
 例えば、左側の第1の画像の(X、Y)の位置にある物体が、右側の第2の画像で(Xr-v2、Y)の座標にあると判断された場合、物体までの実際の距離をd2とすると、(式4)及び(式5)より、
v1=(w×g)/(d1×tanθ1)
v1+v2=(w×g)/(d2×tanθ1)
となる。v1を消すと、
d2=(d×w×g)/(w×g+v2×tanθ1)  (式7)
となる。ここで、図8の(a)(b)に示すように、路面にある物体の高さhsは、
hs=hc×(d1-d2)/d1           (式8)
となり、これにより路面の段差の高さhsがわかる。すなわち、物体の視差v2が正(路面の視差v1よりも大きい)の場合は、図8の(a)に示すように、物体までの距離d2が路面までの距離d1より小さくなり、hsが正の値となって路面より高いと判断できる。逆にv2が負(路面の視差v1よりも小さい)の場合は、図8の(b)に示すように、物体までの距離d2が路面までの距離d1より大きくなり、hsは負の値となって、路面より低いと判断できる。このようにして、第1の画像中の座標点(X、Y)の路面からの高低差がわかる。
 上記手順を適切な間隔をもって他の座標点でも繰り返し、画像中の必要な範囲で路面からの高さの検出を完了したら終了する。
 尚、ステレオカメラの視差から障害物との距離や高さを算出する方法については、必ずしもこれに限らず、他の公知の方法を用いることができる。
 次に、図2の(a)(b)に示す報知部20は、障害物検知センサ部10にて障害物を検知した場合、運転者に危険であることを音、音声、又は発光表示により運転者に報知する。
 報知部20としては、例えば、図9の(a)(b)に示すものを使用することができる。すなわち、報知部20は、音や音声により運転者に報知するスピーカー部21と、光表示により運転者に報知するLED表示部22と、報知部20の動作をon/offするためのスイッチ23とから構成されている。尚、本実施の形態では、報知部20は、スピーカー部21及びLED表示部22との両方を備えているが、必ずしもこれに限らず、いずれか一方だけでも構わない。
 ところで、ステレオカメラ方式による障害物の検知は、簡易な構成で比較的高精度に測定が可能なことから一般に使用されている。しかしながら、カメラ画像を用いる都合上、暗闇や逆光のような照明条件、雨天や霧等の天候条件によっては対象とする障害物の画像を正確に撮像することが困難となり、誤判定を起こす場合がある。例えば、障害物が有るのに無いと判定したり、又はその逆であったりする場合である。
 また、路面上の障害物を検知するには、路面を含めて撮像する必要があるが、路面が鏡面状の場合や濡れている場合に、周辺の景色や照明が写り込み、障害物と誤判定する場合がある。
 そこで、本実施の形態の障害物検出装置4Aは、図1に示すように、カメラ12a・12bを用いたステレオカメラ方式にて誤判定を起こし易い状況つまり信頼度が低い状況であることを判定するために信頼度算出部14及び判断部15を有している。そして、信頼度が低い場合に、報知部20により運転者に注意喚起を行うようになっている。
 上記障害物検出装置4Aでは、信頼度算出部14は、カメラ12a・12bの信号に基づいて、信頼度を算出する。同信号としては、輝度、相関度、コントラスト、露出時間、又はこれらの組合せを用いることが好ましい。それぞれの信頼度の算出について以下に説明する。
 〔輝度〕
 カメラ12a・12bにて撮像した画像の輝度値から信頼度を算出する。例えば、輝度を255階調で出力している場合、輝度閾値230以上のピクセル数をカウントし、カウント数が一定数以上の場合は、信頼度が低いと判定する。このことにより、例えば、床面や金属のように光沢がある面での反射光が多い場合に誤判定を起こし易いことを防止でき、かつ利用者に障害物検知がうまく動作していないことを注意喚起することができる。
 また、輝度閾値以上のピクセルを無視して、ステレオカメラ方式にて障害物を検知することによって、誤判定を低減することがより好ましい。輝度閾値やカウント数は任意に設定することができる。そして、ピクセル数でカウントする以外にも、カメラ12a・12bの画像の比較を一定のブロック領域毎に行う場合は、そのブロック内に輝度閾値以上のピクセル数が一定値以上の場合にそのブロックを無視するようにしてもよい。例えば、64×32ピクセル程度の範囲を1ブロックとして、そのブロック内で左右の画像の特徴点での視差を算出する方法が、ステレオカメラ方式で一般に用いられている。この場合は、ブロック内に含まれる輝度閾値以上のピクセル数から、そのブロックでの判定の信頼度を判別し、信頼度が低いブロック数が一定数以上の場合に利用者に報知してもよい。
 〔相関度〕
 ステレオカメラ方式では左右のカメラ12a・12bの画像の一定領域にある特徴点の視差のずれ量を算出し、距離に換算する。このときに、特徴点の一致度である相関度を算出する。相関度が高いほど、結果の信頼度が高いと考え、相関度が任意の閾値以下の場合に、その領域の結果信頼度が低いと判定する。また、信頼度の低い領域が一定数以上であった場合に、検知結果自体の信頼度が低いと判定して、利用者に報知する。
 例えば、床面に周りの景色が写り込んだ場合、障害物がないのに有ると誤判定する場合があるが、写り込んだ景色は一般に鮮明ではなく、ぼやけた画像となる。この場合は、相関度も低くなることから、写り込みにより誤判定が生じ易い状況になった時に利用者に報知して、走行を注意するように警告することが可能となる。
 〔コントラスト〕
 ステレオカメラ方式にて、前述のようにブロック単位で左右画像の視差を算出する場合に、そのブロック内のコントラスト差(分布)を算出し、コントラストが一定値より低いブロックは信頼度が低いと判定し、信頼度が低いブロック数が一定数以上の場合に利用者に報知してもよい。また、信頼度が低いブロックは障害物判定時には無視することによって、障害物の誤検知を低減してもよい。
 コントラストにて信頼度を算出することによって、夜間のように暗い場所や、逆光等により画像が明るすぎる場合に誤判定しやすい状況にあることを利用者に知らせ、注意喚起することができる。
 〔露出時間〕
 カメラ12a・12bでの撮像を自動露出で行い、露出時間から信頼度を算出してもよい。露出時間が一定時間以上、又は一定時間以下の場合に、撮像環境が暗すぎる、又は明るすぎると判断し、障害物の検知精度が低下していると判定することができる。
 このことにより、暗所や逆光等の状況で障害物を誤判定し易い状況にあることを利用者に知らせ、注意喚起することができる。
 カメラ自体の信号を用いることによって、別途照度センサ等を用いなくても、撮像環境の明るさを判別することができ、安価に構成することが可能となる。
 このように、本実施の形態の障害物検出装置4Aでは、ステレオカメラにより障害物を検知する。そして、信頼度の判定としてステレオカメラの信号を利用する。また、ステレオカメラの視差情報以外の信号から信頼度を算出する。例として、輝度、相関度、コントラスト、露出時間である。
 上記構成の障害物検出装置4Aにおける信頼度の判定フローを、図10に基づいて説明する。図10は、障害物検出装置4Aにおける判定フローを示すフローチャートである。
 図10に示すように、ステレオカメラである右側のカメラ12a及び左側のカメラ12bにてカメラ画像を撮像する(S1)。次いで、制御部13にて、右側のカメラ12a及び左側のカメラ12bの視差から対象物の高さと距離を算出し(S2)、危険度を算出する(S3)。危険度は対象物との距離、高低、サイズから判断する。例えば、近距離にある場合は危険度大で遠距離にある場合は危険度小と判断する。その後、信頼度算出部14にて前述した方法により信頼度を算出する(S4)。続いて、信頼度が閾値よりも大きいか否かを判断し(S5)、信頼度が閾値以下の場合は、「走行注意」であることを報知する(S6)。また、信頼度が閾値よりも大きい場合は、さらに、危険度が閾値よりも大きいか否かを判断する(S7)。そして、危険度が閾値よりも大きい場合には、報知部20にて障害物の検知結果を利用者に報知する(S9)。一方、危険度が閾値以下の場合、つまり障害物が検知されなかった場合は、利用者への報知を行わないか(S8)又は「安全」であることを報知する。
 このように、本実施の形態の障害物検出装置4Aは、障害物を検出する障害物検知センサとしてのカメラ12a・12bを有し、カメラ12a・12bにより障害物を検知したときに利用者に知らせる。
 ここで、例えば、霧等によりカメラ12a・12bの信頼度が低くなった場合等においては、測定を旨く行うことができずに、結果的に、誤判定が生じる場合がある。この場合、カメラ12a・12bの信頼度が低くなった場合においても、利用者がそのまま該判定を信じた場合には、例えば、段差があるのに段差がないと判定された場合には、事故に繋がることもあり得る。
 そこで、本実施の形態では、カメラ12a・12bによる障害物の検知の信頼度を算出する信頼度算出部14と、算出された信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する第1判断部としての判断部15と、判断部15により信頼度が低下している判断された場合に、利用者に注意喚起する第1注意喚起部としての報知部20とが設けられている。
 これにより、判定の信頼度が低く、誤判定を起こし易い状況において、利用者に注意喚起することによって、利用者がより安全に安心して障害物検出装置4Aを利用することができる。例えば、霧等によりカメラ12a・12bの信頼度が低くなった場合等で、測定が旨く行えない状況になった場合に、利用者にそのことを注意喚起する。これによって、利用者は障害物検出装置4Aの結果を鵜呑みにせず、より注意して操作するようになり、事故を防止することができる。
 したがって、誤判定を低減し、より安全に安心して利用可能な障害物検出装置4Aを提供することができる。
 また、本実施の形態の障害物検出装置4Aでは、障害物検知センサは、複数のカメラの視差から障害物を検知するステレオカメラとしてのカメラ12a・12bからなっている。これにより、障害物検知センサとして、従来、一般に利用されているステレオカメラを使用することによって、安価なシステムにて、簡易に障害物検出装置を作製することができる。
 また、本実施の形態の障害物検出装置4Aでは、信頼度算出部14は、カメラ12a・12bにて撮像した画像から信頼度を算出する。
 これにより、信頼度の算出方法として、ステレオカメラにて撮像した画像を用いることによって、信頼度を計測するための別途のセンサを不要とすることができ、安価に信頼度を検出することができる。
 ここで、ステレオカメラにて撮像した画像から信頼度を算出する方法としては、例えば、輝度値、コントラスト、相関度、又は露出時間を用いることが可能である。これにより、簡易に信頼度を判定することができ、夜間の光量不足や逆光時の局所的な光入射、又は低コントラストによる視差判定精度の低下時に信頼性が低くなったことを簡易に判定することができる。
 また、上記相関度を利用する場合には、ステレオカメラの左右カメラ画像の特徴点のマッチング度を示す相関度を信頼度の算出方法として用いる。これにより、信頼度を判定することができ、例えば、雨天時や路面の反射等による画像のぼけが発生した場合に、相関度が低くなることを利用して、信頼度の低下を検知し、利用者に注意喚起することができる。
 また、本実施の形態の障害物検出装置4Aでは、信頼度算出部14は、カメラ12a・12bにて撮像した画像の輝度に基づいて信頼度を算出することが可能である。
 これにより、輝度値を用いることによって、簡易に信頼度を判定することができ、夜間の光量不足や逆光時の局所的な光入射による視差判定精度の低下時に信頼性が低くなったことを簡易に判定することができる。また、輝度値と相関度との両方を併用することも可能である。これによって、ステレオカメラ方式では検知が困難な状況である、雨天や霧のような天候、暗所や逆光のような照明条件、又は床面の反射や周辺景色の写り込みが発生した場合に、信頼度が低くなっていることを利用者に注意喚起できる。その場合に利用者は、注意することにより、より安心して操作することができる。
 また、本実施の形態の障害物検出装置4Aでは、第1注意喚起部としての報知部20は、音、音声及び表示の少なくとも1つにより利用者に信頼度が低下していることを注意喚起するとすることができる。これにより、聴覚及び視覚により、利用者に確実に信頼度が低下していることを報知することができる。
 また、本実施の形態の電動車両1は、本実施の形態の障害物検出装置4Aを備えている。上記の構成によれば、安全に安心して運転することができる電動車両1を提供することができる。
 また、本実施の形態の電動車両1は、駆動動作を制御する駆動制御部が設けられていると共に、駆動制御部は、前記障害物検出装置の検知結果に基づいて駆動動作を制御するとすることができる。
 これにより、より安全に運転を行えると共に、信頼度が低い場合には電動車両1の駆動制御を行わないことにより、誤判定による制御間違いを防止することができる。
  〔実施の形態2〕
 本発明の他の実施の形態について図11及び図12に基づいて説明すれば、以下のとおりである。尚、本実施の形態において説明すること以外の構成は、前記実施の形態1と同じである。また、説明の便宜上、前記の実施の形態1の図面に示した部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。
 本実施の形態の障害物検出装置4Bにおける障害物検知センサ部30は、前記実施の形態1のステレオカメラであるカメラ12a・12bを有する障害物検知センサ部10の構成に加えて、図11に示すように、信頼度検知センサ31を有している点が異なっている。
 すなわち、本実施の形態の障害物検出装置4Bにおける障害物検知センサ部30は、ステレオカメラであるカメラ12a・12bにより障害物を検知する。また、信頼度の判定としてステレオカメラ以外の例えば照度センサ又は温湿度センサを使用するようになっている。
 本実施の形態の障害物検知センサ部30の構成について、図11に基づいて説明する。図11は、本実施の形態の障害物検知センサ部30の構成を示す斜視図である。
 本実施の形態の障害物検知センサ部30は、図11に示すように、センサーカバー11に、カメラ12a・12bと信頼度検知センサ31とを備えている。
 上記信頼度検知センサ31は、例えば、照度センサや温湿度センサ等を使用することができる。信頼度検知センサ31として照度センサを用いた場合、障害物検知センサ部30の周辺の照度を検出し、照度が一定値以上、又は一定値以下の場合に信頼度が低くなっていると判断する。すなわち、照度が高い場合は、逆光や反射光の影響でステレオカメラであるカメラ12a・12bでの検知信頼性が低くなっている可能性が高い。また、照度が低い場合は、夜間や暗所においてカメラ12a・12bでの検知信頼性が低くなっている可能性が高い。
 また、信頼度検知センサ31として温湿度センサを用いることによって、雨天や霧、結露が生じ易い状況等を予想し、その結果から信頼度を算出することが可能である。
 このように、本実施の形態の障害物検知センサ部30のように、信頼度を算出するためのデータとして、ステレオカメラ以外を用いることによって、ステレオカメラのみでは算出が困難な信頼度を算出でき、より確実に信頼度を算出することができる。
 上記構成の障害物検知センサ部30を備えた障害物検出装置4Bの動作フローについて図12に基づいて説明する。図12は、本実施の形態の障害物検出装置4Bの障害物検知動作を示すフローチャートである。
 図12に示すように、S1~S3によるステレオカメラでの危険度算出と並行して、信頼度検知センサ31により信頼度を算出する(S11,S12)。尚、その後のフロー(S5~S9)に関しては、図10のフローチャートにおいて説明したものと同様であるのでその説明を省略する。
 このように、本実施の形態の障害物検出装置4Bでは、信頼度算出部14は、周辺の明るさを検出する照度センサとしての信頼度検知センサ31を備え、該信頼度検知センサ31の出力値に基づいて信頼度を算出する。
 これにより、照度センサとしての信頼度検知センサ31により測定環境の明暗を検知し、暗すぎる場合又は明る過ぎる場合に信頼度が低下していると判断することによって、簡易に信頼度の判定が可能となる。また、カメラ画像では信頼度を判定し難い状況でも判定を行うことが可能となる。
 また、本実施の形態の障害物検出装置4Bでは、第1注意喚起部としての報知部20は、音、音声及び表示の少なくとも1つにより利用者に信頼度が低下していることを注意喚起するとすることができる。これにより、聴覚及び視覚により、利用者に確実に信頼度が低下していることを報知することができる。
 また、本実施の形態における電動車両1は、本実施の形態の障害物検出装置4Bを備えている。上記の構成によれば、安全に安心して運転することができる電動車両1を提供することができる。
 また、本実施の形態における電動車両1は、駆動動作を制御する駆動制御部が設けられていると共に、駆動制御部は、前記障害物検出装置の検知結果に基づいて駆動動作を制御するとすることができる。これにより、より安全に運転を行えるとともに、信頼度が低い場合には電動車両の駆動制御を行わないことにより、誤判定による制御間違いを防止することができる。
  〔実施の形態3〕
 本発明のさらに他の実施の形態について図13及び図14に基づいて説明すれば、以下のとおりである。尚、本実施の形態において説明すること以外の構成は、前記実施の形態1及び実施の形態2と同じである。また、説明の便宜上、前記の実施の形態1及び実施の形態2の図面に示した部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。
 本実施の形態の障害物検出装置4Cにおける障害物検知センサ部40は、前記実施の形態1のステレオカメラであるカメラ12a・12bを有する障害物検知センサ部10に加えて、図13に示すように、複数の障害物検知センサを併用し、信頼度の判定として、複数の障害物検知センサの一致度から算出する点が異なっている。複数の障害物検知センサとしては、例えば、ステレオカメラ、超音波センサ、レーダー、レーザ等の少なくとも2つの第1の検知センサ41及び第2の検知センサ42を用いる。
 本実施の形態の障害物検出装置4Cにおける障害物検知センサ部40の構成について、図13に基づいて説明する。図13は、本実施の形態の障害物検知センサ部40の構成を示す斜視図である。
 本実施の形態の障害物検知センサ部40は、図13に示すように、第1の検知センサ41と第2の検知センサ42とを備えている。第1の検知センサ41及び第2の検知センサ42としては、例えば、ステレオカメラ、超音波センサ、レーダー、レーザ等のいわゆる距離センサを使用することができる。
 例えば、第1の検知センサ41としてステレオカメラ方式を用いると共に、第2の検知センサ42として超音波センサを用いる。このように、第1の検知センサ41と第2の検知センサ42とは異なる方式つまり異なる検出原理を備えたセンサを組み合わせることが好ましい。
 本実施の形態の障害物検知センサ部40を備えた障害物検出装置4Cの動作フローを、図14に基づいて説明する。図14は、障害物検出装置4Cの動作フローを示すフローチャートである。
 図14に示すように、まず、第1の検知センサ41での危険度算出(S21,S22)と並行して、第2の検知センサ42による危険度算出を行った後(S23,S24)、信頼度を算出する(S25)。信頼度の算出方法としては、第1の検知センサ41での検知結果と第2の検知センサ42での検知結果が一致した場合、信頼度が高いと判断し、検知結果が一致しない場合は、信頼度が低いと判断する。尚、その後のフロー(S5~S9)に関しては、図10及び図12のフローチャートにおいて説明したものと同様であるのでその説明を省略する。
 このように、本実施の形態における障害物検出装置4Cは、障害物検知センサは、互いに検知方式の異なる複数の障害物検知センサとしての第1の検知センサ41及び第2の検知センサ42から構成されている。そして、複数の第1の検知センサ41及び第2の検知センサ42間の判定結果が異なる場合に検知信頼度が低下していると判断する第2判断部としての判断部15と、判断部15により信頼度が低下している判断された場合に、利用者に注意喚起を行う第2注意喚起部としての報知部20とが設けられている。
 これにより、ステレオカメラと超音波センサのように特徴の異なる複数のセンサを用いて判定が同じ場合は信頼性が高く、異なる場合は信頼性が低いと判断することが可能である。この結果、より確実に信頼性の判断を行うことができる。すなわち、異なる方式の複数の障害物検知センサとしての第1の検知センサ41及び第2の検知センサ42にて障害物を検知し、両者の結果が一致しない場合は信頼度が低いと判定して利用者に知らせる。これにより、より確実に検知した場合のみ利用者に障害物があることを報知でき、非常に信頼性の高い障害物検出装置4Cを得ることができる。
 また、本実施の形態の障害物検出装置4Cでは、第2注意喚起部としての報知部20は、音、音声及び表示の少なくとも1つにより利用者に信頼度が低下していることを注意喚起するとすることができる。これにより、聴覚及び視覚により、利用者に確実に信頼度が低下していることを報知することができる。
 また、本実施の形態における電動車両1は、本実施の形態の障害物検出装置4Cを備えている。上記の構成によれば、安全に安心して運転することができる電動車両1を提供することができる。
 また、本実施の形態における電動車両1は、駆動動作を制御する駆動制御部が設けられていると共に、駆動制御部は、障害物検出装置4Cの検知結果に基づいて駆動動作を制御する。これにより、より安全に運転を行えると共に、信頼度が低い場合には電動車両1の駆動制御を行わないことにより、誤判定による制御間違いを防止することができる。
 〔まとめ〕
 本発明の一態様における障害物検出装置4Aは、障害物を検出する障害物検知センサ(カメラ12a・12b)を有し、上記障害物検知センサ(カメラ12a・12b)により障害物を検知したときに利用者に知らせる障害物検出装置4Aにおいて、上記障害物検知センサ(カメラ12a・12b)による障害物の検知の信頼度を算出する信頼度算出部14と、算出された上記信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する第1判断部(判断部15)と、上記第1判断部(判断部15)により上記信頼度が低下している判断された場合に、上記利用者に注意喚起する第1注意喚起部(報知部20)とが設けられていることを特徴としている。
 上記の構成によれば、障害物検知センサによる障害物の検知の信頼度を算出する信頼度算出部と、算出された上記信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する第1判断部と、第1判断部により上記信頼度が低下している判断された場合に、利用者に注意喚起する第1注意喚起部とが設けられている。
 これにより、判定の信頼度が低く、誤判定を起こし易い状況において、利用者に注意喚起することによって、利用者がより安全に安心して障害物検出装置を利用することができる。例えば、霧等により障害物検知センサの信頼度が低くなった場合等で、測定が旨く行えない状況になった場合に、利用者にそのことを注意喚起することによって、利用者は障害物検出装置の結果を鵜呑みにせず、より注意して操作するようになり、事故を防止することができる。
 したがって、誤判定を低減し、より安全に安心して利用可能な障害物検出装置を提供することができる。
 本発明の態様2における障害物検出装置4Aは、態様1の障害物検出装置4Aにおいて、前記障害物検知センサは、複数のカメラの視差から障害物を検知するステレオカメラ(カメラ12a・12b)からなっているとすることができる。
 これにより、障害物検知センサとして、従来、一般に利用されているステレオカメラを使用することによって、安価なシステムにて、簡易に障害物検出装置を作製することができる。
 本発明の態様3における障害物検出装置4Aは、態様2の障害物検出装置4Aにおいて、前記信頼度算出部14は、前記ステレオカメラ(カメラ12a・12b)にて撮像した画像から信頼度を算出することが好ましい。
 これにより、信頼度の算出方法として、ステレオカメラにて撮像した画像を用いることによって、信頼度を計測するための別途のセンサを不要とすることができ、安価に信頼度を検出することができる。
 ここで、ステレオカメラにて撮像した画像から信頼度を算出する方法としては、例えば、輝度値、コントラスト、相関度、又は露出時間を用いることが可能である。これにより、簡易に信頼度を判定することができ、夜間の光量不足や逆光時の局所的な光入射、又は低コントラストによる視差判定精度の低下時に信頼性が低くなったことを簡易に判定することができる。
 また、上記相関度を利用する場合には、ステレオカメラの左右カメラ画像の特徴点のマッチング度を示す相関度を信頼度の算出方法として用いる。これにより、信頼度を判定することができ、例えば、雨天時や路面の反射等による画像のぼけが発生した場合に、相関度が低くなることを利用して、信頼度の低下を検知し、利用者に注意喚起することができる。
 本発明の態様4における障害物検出装置4Aは、態様3の障害物検出装置4Aにおいて、前記信頼度算出部14は、前記ステレオカメラ(カメラ12a・12b)にて撮像した画像の輝度に基づいて信頼度を算出することが可能である。
 これにより、輝度値を用いることによって、簡易に信頼度を判定することができ、夜間の光量不足や逆光時の局所的な光入射による視差判定精度の低下時に信頼性が低くなったことを簡易に判定することができる。また、輝度値と相関度との両方を併用することによって、ステレオカメラ方式では検知が困難な状況である、雨天や霧のような天候、暗所や逆光のような照明条件、又は床面の反射や周辺景色の写り込みが発生した場合に、信頼度が低くなっていることを利用者に注意喚起でき、その場合に利用者が注意することにより、より安心して操作することができる。
 本発明の態様5における障害物検出装置4Bは、態様1~4のいずれか1に記載の障害物検出装置において、前記信頼度算出部14は、周辺の明るさを検出する照度センサ(信頼度検知センサ31)を備え、該照度センサ(信頼度検知センサ31)の出力値に基づいて信頼度を算出するとすることが可能である。
 これにより、照度センサにより測定環境の明暗を検知し、暗すぎる場合又は明る過ぎる場合に信頼度が低下していると判断することによって、簡易に信頼度の判定が可能となる。また、カメラ画像では信頼度を判定し難い状況でも判定を行うことが可能となる。
 本発明の態様6における障害物検出装置4A・4Bは、態様1~5のいずれか1に記載の障害物検出装置4A・4Bにおいて、前記第1注意喚起部(報知部20)は、音、音声及び表示の少なくとも1つにより利用者に信頼度が低下していることを注意喚起するとすることができる。
 これにより、聴覚及び視覚により、利用者に確実に信頼度が低下していることを報知することができる。
 本発明の態様7における障害物検出装置4Cは、態様1~6のいずれか1に記載の障害物検出装置において、前記障害物検知センサは、互いに検知方式の異なる複数の障害物検知センサ(第1の検知センサ41及び第2の検知センサ42)から構成されていると共に、上記複数の障害物検知センサ(第1の検知センサ41及び第2の検知センサ42)間の判定結果が異なる場合に検知信頼度が低下していると判断する第2判断部(判断部15)と、上記第2判断部(判断部15)により上記信頼度が低下している判断された場合に、利用者に注意喚起を行う第2注意喚起部(報知部20)とが設けられているとすることができる。
 これにより、ステレオカメラと超音波センサのように特徴の異なる複数のセンサを用いて判定が同じ場合は信頼性が高く、異なる場合は信頼性が低いと判断することが可能である。この結果、より確実に信頼性の判断を行うことができる。
 本発明の一態様における電動車両1は、態様1~7のいずれか1に記載の障害物検出装置4A・4B・4Cを備えていることを特徴としている。
 上記の構成によれば、安全に安心して運転することができる電動車両を提供することができる。
 本発明の態様9における電動車両1は、態様8記載の電動車両1において、駆動動作を制御する駆動制御部が設けられていると共に、上記駆動制御部は、前記障害物検出装置の検知結果に基づいて駆動動作を制御するとすることができる。
 これにより、より安全に運転を行えるとともに、信頼度が低い場合には電動車両の駆動制御を行わないことにより、誤判定による制御間違いを防止することができる。
 尚、本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、電動車椅子等の電動車両に搭載して用いられる障害物検出装置、及びこれを備えた電動車両に関するものであり、高齢者向けに作られた三輪又は四輪の一人乗り電動車椅子、シニアカー等の電動車両及び其れに搭載される障害物検出装置に適用することが可能である。
 1    電動車両
 2    センサ固定部
 3    ハンドル操作部
 4A   障害物検出装置
 4B   障害物検出装置
 4C   障害物検出装置
10    障害物検知センサ部
11    センサーカバー
12a   カメラ(障害物検知センサ、ステレオカメラ)
12b   カメラ(障害物検知センサ、ステレオカメラ)
13    制御部
14    信頼度算出部
15    判断部(第1判断部、第2判断部)
20    報知部(第1注意喚起部、第2注意喚起部)
21    スピーカー部
22    LED表示部
23    スイッチ
30    障害物検知センサ部
31    信頼度検知センサ(障害物検知センサ)
40    障害物検知センサ部
41    第1の検知センサ(障害物検知センサ)
42    第2の検知センサ(障害物検知センサ)

Claims (9)

  1.  障害物を検出する障害物検知センサを有し、上記障害物検知センサにより障害物を検知したときに利用者に知らせる障害物検出装置において、
     上記障害物検知センサによる障害物の検知の信頼度を算出する信頼度算出部と、
     算出された上記信頼度を閾値と比較し、該信頼度が閾値以下である場合には該信頼度が低下していると判断する第1判断部と、
     上記第1判断部により上記信頼度が低下している判断された場合に、上記利用者に注意喚起する第1注意喚起部とが設けられていることを特徴とする障害物検出装置。
  2.  前記障害物検知センサは、複数のカメラの視差から障害物を検知するステレオカメラからなっていることを特徴とする請求項1記載の障害物検出装置。
  3.  前記信頼度算出部は、前記ステレオカメラにて撮像した画像から信頼度を算出することを特徴とする請求項2記載の障害物検出装置。
  4.  前記信頼度算出部は、前記ステレオカメラにて撮像した画像の輝度に基づいて信頼度を算出することを特徴とする請求項3記載の障害物検出装置。
  5.  前記信頼度算出部は、周辺の明るさを検出する照度センサを備え、該照度センサの出力値に基づいて信頼度を算出することを特徴とする請求項1~4のいずれか1項に記載の障害物検出装置。
  6.  前記第1注意喚起部は、音、音声及び表示の少なくとも1つにより利用者に信頼度が低下していることを注意喚起することを特徴とする請求項1~5のいずれか1項に記載の障害物検出装置。
  7.  前記障害物検知センサは、互いに検知方式の異なる複数の障害物検知センサから構成されていると共に、
     上記複数の障害物検知センサ間の判定結果が異なる場合に検知信頼度が低下していると判断する第2判断部と、
     上記第2判断部により上記信頼度が低下している判断された場合に、利用者に注意喚起を行う第2注意喚起部とが設けられていることを特徴とする請求項1~6のいずれか1項に記載の障害物検出装置。
  8.  請求項1~7のいずれか1項に記載の障害物検出装置を備えていることを特徴とする電動車両。
  9.  駆動動作を制御する駆動制御部が設けられていると共に、
     上記駆動制御部は、前記障害物検出装置の検知結果に基づいて駆動動作を制御することを特徴とする請求項8記載の電動車両。
PCT/JP2014/050583 2013-03-26 2014-01-15 障害物検出装置、及びそれを備えた電動車両 WO2014156222A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/759,284 US20150348416A1 (en) 2013-03-26 2014-01-15 Obstacle detection device and electric-powered vehicle provided therewith

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013064962A JP2014191485A (ja) 2013-03-26 2013-03-26 障害物検出装置、及びそれを備えた電動車両
JP2013-064962 2013-03-26

Publications (1)

Publication Number Publication Date
WO2014156222A1 true WO2014156222A1 (ja) 2014-10-02

Family

ID=51623228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/050583 WO2014156222A1 (ja) 2013-03-26 2014-01-15 障害物検出装置、及びそれを備えた電動車両

Country Status (3)

Country Link
US (1) US20150348416A1 (ja)
JP (1) JP2014191485A (ja)
WO (1) WO2014156222A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107000608A (zh) * 2014-11-26 2017-08-01 爱信精机株式会社 移动体
CN108303697A (zh) * 2017-01-13 2018-07-20 杭州海康威视数字技术股份有限公司 一种障碍物的超声波检测方法、装置及系统
US10646387B2 (en) 2016-06-24 2020-05-12 Panasonic Corporation Electrically powered wheelchair
JP2020532276A (ja) * 2017-08-16 2020-11-05 スクーターバグ・インコーポレイテッドScooterBug, Inc. 制御および通信ユニットを備えた電動コンビニエンス輸送機器(ecv)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9465444B1 (en) * 2014-06-30 2016-10-11 Amazon Technologies, Inc. Object recognition for gesture tracking
JP6492677B2 (ja) * 2015-01-15 2019-04-03 株式会社デンソー 車載機
JP2016191617A (ja) * 2015-03-31 2016-11-10 シャープ株式会社 障害物判定装置
JP6447545B2 (ja) * 2016-03-11 2019-01-09 トヨタ自動車株式会社 車両用照明装置
GB2552487B (en) * 2016-07-25 2019-03-20 Ford Global Tech Llc Flow corridor detection and display system
JP6478414B2 (ja) * 2016-09-13 2019-03-06 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
WO2018109918A1 (ja) 2016-12-16 2018-06-21 本田技研工業株式会社 車両制御装置及び方法
JP2018169888A (ja) * 2017-03-30 2018-11-01 株式会社デンソー 道路パラメータ推定装置
US11247746B2 (en) 2017-08-16 2022-02-15 ScooterBug, Inc. Electric convenience vehicle (ECV) with control and communications unit
JP6479130B1 (ja) * 2017-10-11 2019-03-06 三菱電機株式会社 車両用走行支援装置
US11202055B2 (en) * 2018-02-28 2021-12-14 Blackberry Limited Rapid ground-plane discrimination in stereoscopic images
JP7301471B2 (ja) * 2019-05-15 2023-07-03 アルパイン株式会社 電子装置およびこれを搭載した移動体
JP7334572B2 (ja) * 2019-10-14 2023-08-29 株式会社デンソー 物体検知装置および物体検知プログラム
KR102077315B1 (ko) * 2019-11-04 2020-02-13 주식회사 세영 지능형 교통정보제공장치 및 정보제공방법
KR20210136567A (ko) * 2020-05-08 2021-11-17 현대자동차주식회사 차량의 커뮤니케이션 조명 시스템
JP7347343B2 (ja) * 2020-06-22 2023-09-20 株式会社デンソー 外界認識装置、外界認識方法、および外界認識プログラム
JP7400708B2 (ja) * 2020-12-11 2023-12-19 トヨタ自動車株式会社 センサ評価システム、センサ評価装置、車両
JP7377233B2 (ja) 2021-02-15 2023-11-09 株式会社日立製作所 列車制御システム
GB2610630A (en) * 2021-09-13 2023-03-15 Duchenne Uk Obstacle detection apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
JP2006195641A (ja) * 2005-01-12 2006-07-27 Nissan Motor Co Ltd 車両用情報提供装置
JP2009277063A (ja) * 2008-05-15 2009-11-26 National Institute Of Advanced Industrial & Technology 個人用移動車両運転支援装置
JP2010132056A (ja) * 2008-12-03 2010-06-17 Fujitsu Ten Ltd 検知装置、検知方法および車両制御装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3881280B2 (ja) * 2002-05-20 2007-02-14 三菱電機株式会社 運転支援装置
JP4937933B2 (ja) * 2008-01-18 2012-05-23 富士重工業株式会社 車外監視装置
JP5354514B2 (ja) * 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
JP5345350B2 (ja) * 2008-07-30 2013-11-20 富士重工業株式会社 車両の運転支援装置
US8594868B2 (en) * 2009-07-31 2013-11-26 Control Solutions LLC Controller and methods of controlling a personal electric motorized vehicle based on a weight of an operator
JP5143235B2 (ja) * 2009-10-07 2013-02-13 パナソニック株式会社 制御装置および車両周囲監視装置
JP5468426B2 (ja) * 2010-03-12 2014-04-09 日立オートモティブシステムズ株式会社 ステレオカメラ装置
JP5057183B2 (ja) * 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 風景マッチング用参照データ生成システム及び位置測位システム
DE102012016776A1 (de) * 2012-08-24 2014-02-27 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
JP5982298B2 (ja) * 2013-02-21 2016-08-31 シャープ株式会社 障害物検出装置および障害物検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
JP2006195641A (ja) * 2005-01-12 2006-07-27 Nissan Motor Co Ltd 車両用情報提供装置
JP2009277063A (ja) * 2008-05-15 2009-11-26 National Institute Of Advanced Industrial & Technology 個人用移動車両運転支援装置
JP2010132056A (ja) * 2008-12-03 2010-06-17 Fujitsu Ten Ltd 検知装置、検知方法および車両制御装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107000608A (zh) * 2014-11-26 2017-08-01 爱信精机株式会社 移动体
EP3225456A4 (en) * 2014-11-26 2018-02-14 Aisin Seiki Kabushiki Kaisha Moving body
CN107000608B (zh) * 2014-11-26 2020-01-07 爱信精机株式会社 移动体
US10646387B2 (en) 2016-06-24 2020-05-12 Panasonic Corporation Electrically powered wheelchair
CN108303697A (zh) * 2017-01-13 2018-07-20 杭州海康威视数字技术股份有限公司 一种障碍物的超声波检测方法、装置及系统
JP2020532276A (ja) * 2017-08-16 2020-11-05 スクーターバグ・インコーポレイテッドScooterBug, Inc. 制御および通信ユニットを備えた電動コンビニエンス輸送機器(ecv)

Also Published As

Publication number Publication date
US20150348416A1 (en) 2015-12-03
JP2014191485A (ja) 2014-10-06

Similar Documents

Publication Publication Date Title
WO2014156222A1 (ja) 障害物検出装置、及びそれを備えた電動車両
KR101708832B1 (ko) 카메라 모듈 및 광센서를 통합하는 시각 보조방법 및 장치
US8913128B2 (en) Image-based barrier detection and warning system and method thereof
US11034294B2 (en) Driving notification method and driving notification system
US11355014B1 (en) System for warning about intersection danger based on situation prediction
JP2019075150A (ja) 運転支援装置、及び運転支援システム
KR101655553B1 (ko) 운전자 보조 장치 및 방법
JP2018531332A6 (ja) 車両と視覚的に通信する装置および方法
JP2018531332A (ja) 車両と視覚的に通信する装置および方法
US20100201509A1 (en) Collision avoidance assisting system for vehicle
US20140176714A1 (en) Collision prevention warning method and device capable of tracking moving object
KR20160003715U (ko) 우회전 교통사고 예방 시스템
JP2017170933A (ja) 車両用表示制御装置
JP6286211B2 (ja) 後側方接近物警報装置
JP2009265842A (ja) 車両用警告装置、警告方法
JP2010113601A (ja) 車両用警告装置
TWI585723B (zh) 車輛監控系統及其方法
JP2008090748A (ja) 車輌用警報装置
JP2012099085A (ja) 車両用ウインドシールドガラス上のリアルタイム警報システム及びその作動方法
JP5484123B2 (ja) 車両周辺障害物検出装置
JP2015042952A (ja) 障害物検知装置および電動車両
WO2023250290A1 (en) Post drop-off passenger assistance
JP2007133644A (ja) 歩行者認識装置
IL265495B (en) Method for travel authorization
JP2005092516A (ja) 車載用移動体検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14772638

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14759284

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14772638

Country of ref document: EP

Kind code of ref document: A1