WO2010131331A1 - 視認領域推定装置および運転支援装置 - Google Patents

視認領域推定装置および運転支援装置 Download PDF

Info

Publication number
WO2010131331A1
WO2010131331A1 PCT/JP2009/058850 JP2009058850W WO2010131331A1 WO 2010131331 A1 WO2010131331 A1 WO 2010131331A1 JP 2009058850 W JP2009058850 W JP 2009058850W WO 2010131331 A1 WO2010131331 A1 WO 2010131331A1
Authority
WO
WIPO (PCT)
Prior art keywords
visual recognition
area
recognition area
driver
time
Prior art date
Application number
PCT/JP2009/058850
Other languages
English (en)
French (fr)
Inventor
森 大樹
真太郎 吉澤
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to US13/143,501 priority Critical patent/US8452528B2/en
Priority to DE112009004768.8T priority patent/DE112009004768B4/de
Priority to JP2011513149A priority patent/JP5257514B2/ja
Priority to PCT/JP2009/058850 priority patent/WO2010131331A1/ja
Publication of WO2010131331A1 publication Critical patent/WO2010131331A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Definitions

  • the present invention relates to a visual recognition area estimation device and a driving support device.
  • warning devices that warn the driver about obstacles around the vehicle have been studied.
  • an obstacle around the vehicle and the line-of-sight direction of the driver are detected, and the obstacle is visually recognized by the driver by comparing the detected obstacle position and line-of-sight direction. It is determined whether or not.
  • a warning is given to an obstacle determined that the driver has not visually recognized.
  • an object of the present invention is to provide a visual recognition area estimation device and a driving support device that can accurately estimate an area visually recognized by a driver in real time.
  • the visual recognition area estimation device of the present invention that has solved the above problems includes visual recognition area calculation means for calculating a visual recognition area that the driver visually recognizes based on the driver's line of sight, and a plurality of visual recognition areas calculated from a predetermined time in the past to the present.
  • Time-series visual recognition area estimation means for estimating a time-series visual recognition area that is an area that the driver is currently visually recognizing based on the history.
  • the visual recognition area visually recognized by the driver is calculated by the visual recognition area calculation means based on the driver's line of sight.
  • the time-series visual recognition area which is the area that the driver is currently viewing, is estimated by the time-series visual recognition area estimation means based on the history of a plurality of visual recognition areas calculated from the past to the present for a predetermined time.
  • attention level setting means for setting the attention level of the driver associated with the plurality of visual recognition areas calculated from the past to the present for a predetermined time for each of the multiple visual recognition areas. It can be set as the aspect provided.
  • the attention level of the driver associated with the plurality of viewing areas calculated from the past to the present for a predetermined time is set for each of the plurality of viewing areas by the attention level setting means.
  • the attention level can be weighted according to the degree of newness of the viewing area and the position in the viewing area. Since the time-series visual recognition area is estimated based on the history of the plurality of visual recognition areas thus weighted, the driver's attention state in the time-series visual recognition area can be accurately estimated.
  • the attention level setting means can set the attention level to a smaller value for a visual recognition area with an older time visually recognized by the driver.
  • the attention level of the current driver in the visual recognition area decreases as the past visual recognition area decreases.
  • the attention level is set smaller by the attention level setting means as the visual recognition area has the older time visually recognized by the driver. In this way, by reflecting the decrease in the driver's attention level with the passage of time in the visual recognition region, the driver's attention state in the time-series visual recognition region can be estimated more accurately.
  • the visual recognition area calculation means includes a basic visual recognition area calculation means for calculating a basic visual recognition area determined based on the direction of the driver's line of sight, and a driver generated by an obstacle present in the basic visual recognition area. And a blind spot area excluding unit that calculates the visual recognition area by estimating the blind spot area and excluding the blind spot area from the basic visual recognition area.
  • the basic visual recognition area calculation means calculates the basic visual recognition area determined based on the direction of the driver's line of sight. Also, the blind spot area is calculated by excluding the blind spot area of the driver caused by the obstacle present in the basic visual recognition area from the basic visual recognition area by the blind spot area exclusion means. Thus, by setting the area excluding the blind spot area as the viewing area, the blind spot area that is not actually visible to the driver is not included in the viewing area. Therefore, it is possible to prevent erroneous estimation such that the blind spot area is determined as the visual recognition area.
  • the visual recognition area calculation means includes basic visual recognition area calculation means for calculating a basic visual recognition area determined based on the direction of the driver's line of sight, and a mirror in the direction of the driver's visual line.
  • a mirror region adding means for estimating a mirror region that can be visually recognized by a driver via a mirror and calculating the visual recognition region by adding the mirror region to the basic visual recognition region can be provided.
  • the basic visual recognition area calculation means calculates the basic visual recognition area determined based on the direction of the driver's line of sight. Further, when a mirror is present in the direction of the driver's line of sight by the mirror area adding means, a viewing area is calculated by adding a mirror area that can be viewed by the driver via the mirror to the basic viewing area.
  • the visual recognition area includes an area that can be indirectly visually recognized by the driver via the mirror. Therefore, it is possible to estimate a visual recognition area not only by direct visual recognition but also by indirect visual recognition.
  • the driving support device of the present invention includes the above-described visual recognition area estimation device, and gaze point extraction means for extracting a gaze point to be watched by the driver from the driving environment, and the gaze point is located in the time-series visual recognition area.
  • a caution state determination unit that determines a driver's caution state with respect to the gaze point.
  • the gaze point that the driver should gaze out from the driving environment is extracted by the gaze point extraction means. Further, the attention state of the driver with respect to the gaze point is determined by the attention state determination unit depending on whether or not the gaze point is located within the time-series visual recognition area. In this way, the driver's attention state is determined by comparing the time-series visual recognition area and the gaze point, so that it is not necessary to associate the driver's line of sight with the gaze point. Therefore, it is possible to prevent the amount of processing from becoming excessive, and determination processing in real time is possible.
  • the area visually recognized by the driver can be accurately estimated in real time.
  • position and “region” are positions and regions represented by three-dimensional coordinates with reference to the world coordinate system, unless otherwise specified.
  • FIG. 1 is a block configuration diagram of a visual recognition area estimation device and a driving support device according to an embodiment of the present invention.
  • a driving support apparatus M shown in FIG. 1 is an apparatus that is mounted on the host vehicle and that supports driving of the driver of the host vehicle in the traveling environment of the host vehicle.
  • the visual recognition area estimation device Ma that constitutes a part of the driving support device M is an apparatus that estimates an area visually recognized by the driver.
  • the driving support device M includes a visual recognition area estimation ECU (electronic control unit) 1, a driving support ECU 2, a millimeter wave radar 3, a camera 4, a vehicle speed sensor 5, a navigation system 6, a speaker 7, and a display 8.
  • the visual recognition area estimation ECU 1, the millimeter wave radar 3, the camera 4, the vehicle speed sensor 5, and the navigation system 6 constitute a visual recognition area estimation device Ma.
  • the millimeter wave radar 3, the camera 4, the vehicle speed sensor 5, and the navigation system 6 are also collectively referred to as “sensors”.
  • the visual recognition area estimation ECU 1 includes a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the visual recognition area estimation ECU 1 generates a visual recognition time-space map by performing predetermined processing based on image signals and position signals output from sensors.
  • This visual recognition space-time map is a map obtained by estimating a time-series visual recognition area that is an area that the driver is currently viewing.
  • the visual recognition area estimation ECU 1 includes a visual recognition area calculation unit 11, an attention level setting unit 12, a visual recognition region recording unit 13, and a visual recognition time and space map generation unit 14.
  • the visual recognition area calculation unit 11 is a part that calculates a visual recognition area that the driver visually recognizes at a certain time based on image signals and position signals output from sensors. The calculation of the visual recognition area by the visual recognition area calculation unit 11 is performed every predetermined time.
  • the visual recognition area calculation unit 11 includes the components shown in FIG. 2, which will be described later.
  • the visual recognition area calculation unit 11 corresponds to visual recognition area calculation means.
  • the attention level setting unit 12 shown in FIG. 1 is a part that sets the driver's attention level for each of the plurality of visual recognition areas calculated by the visual recognition area calculation unit 11 every predetermined time. This degree of attention indicates the degree of attention of the driver in the visual recognition area.
  • the attention level setting unit 12 sets this attention level in association with each coordinate in each viewing area.
  • the attention level setting unit 12 stores a weighting coefficient used for updating the attention level. This weighting coefficient is a numerical value between 0 and 1.
  • the attention level setting unit 12 updates the attention level by multiplying the attention level by a weighting coefficient for the visual recognition area calculated from the past to the present for a predetermined time every time the visual recognition area is newly calculated.
  • the caution level setting unit 12 updates the caution level so that the caution level is set to be smaller in the visual recognition area where the time visually recognized by the driver is older.
  • the attention level setting unit 12 corresponds to attention level setting means.
  • the visual recognition area recording unit 13 is a part that sequentially records the visual recognition area calculated every predetermined time by the visual recognition area calculation unit 11 and the attention level set or updated for each visual recognition area by the attention level setting unit 12. is there.
  • the visual recognition area recording unit 13 stores a predetermined threshold value that is a criterion for determining whether or not to record the coordinates in the visual recognition area in which the attention level is updated.
  • the viewing area recording unit 13 determines whether or not the viewing area has been updated within a predetermined time.
  • the visual recognition area recording unit 13 determines whether or not the attention level updated by the attention level setting unit 12 with the update of the visual recognition area is smaller than a threshold value. Further, the visual recognition area recording unit 13 records or removes the coordinates in the visual recognition area as they are according to the determination result.
  • the visual recognition space-time map generation unit 14 is based on the visual recognition area calculated by the visual recognition area calculation unit 11, the past visual recognition areas recorded by the visual recognition area recording unit 13, and their attention levels. This is the part that generates the map.
  • the visual recognition area recording unit 13 generates a visual recognition space-time map by combining these visual recognition areas and attention levels. Further, when the visual recognition area is newly calculated and the attention level is updated, the visual recognition area recording unit 13 generates a new visual time-space map based on the updated visual recognition area and the attention level.
  • the visual recognition time space map generation unit 14 outputs the generated visual recognition time space map to the driving assistance ECU 2.
  • the visual recognition space-time map generation unit 14 corresponds to time-series visual recognition area estimation means.
  • Millimeter wave radar 3 detects obstacles existing around the vehicle.
  • the millimeter wave radar 3 scans a millimeter wave in a predetermined range in front, left and right sides, and rear of the host vehicle and receives the reflected wave, so that the distance from the host vehicle to the obstacle and the host vehicle are used as a reference.
  • the direction of the obstacle and the relative speed of the obstacle with respect to the host vehicle are detected.
  • Obstacle detection by the millimeter wave radar 3 is performed at predetermined time intervals.
  • the millimeter wave radar 3 generates an obstacle detection signal indicating the detected distance, direction, and relative speed, and outputs the generated obstacle detection signal to the visual recognition area estimation ECU 1.
  • the millimeter wave radar 3 also outputs the generated obstacle detection signal to the driving support ECU 2.
  • the camera 4 captures the driver of the own vehicle.
  • the camera 4 is attached in front of the passenger compartment and images a range including the driver's face, particularly both eyes.
  • the driver 4 images the camera 4 every predetermined time.
  • the camera 4 generates an image signal indicating the captured image, and outputs the generated image signal to the visual recognition area estimation ECU 1.
  • the vehicle speed sensor 5 detects the vehicle speed of the host vehicle.
  • the vehicle speed sensor 5 is provided on each of the four wheels of the host vehicle, and measures the rotational speed of each wheel.
  • the vehicle speed sensor 5 detects the vehicle speed of the vehicle based on the rotational speed of each wheel, generates a vehicle speed signal indicating the detected vehicle speed, and outputs the generated vehicle speed signal to the visual recognition area estimation ECU 1.
  • the navigation system 6 includes a map database, a GPS (Global Positioning System) receiver, an input / output device, and the like.
  • the navigation system 6 detects the position of the host vehicle using a map database or a GPS receiver. The position detection by the navigation system 6 is performed for each viewing area for a predetermined time.
  • the navigation system 6 detects the position of the host vehicle, the navigation system 6 generates a position signal indicating the detected position of the host vehicle and outputs the position signal to the ECU 1.
  • the navigation system 6 also outputs the generated position signal to the driving support ECU 2.
  • the visual recognition area calculation unit 11 includes a basic visual recognition area calculation unit 15, a blind spot area exclusion unit 16, a mirror region addition unit 17, and a visual recognition region determination unit 18.
  • the basic visual recognition area calculation unit 15 is a part that calculates a basic visual recognition area determined based on the direction of the driver's line of sight.
  • the basic visual recognition area calculation unit 15 acquires an image signal output from the camera 4, a vehicle speed signal output from the vehicle speed sensor 5, and a position signal output from the navigation system 6, and sequentially stores them. Further, the basic visual recognition area calculation unit 15 calculates the direction of the driver's line of sight by performing image processing on the acquired image signal. Further, the basic visual recognition area calculation unit 15 determines whether the image signal from the camera 4 and the position signal from the navigation system 6 have been updated within a predetermined time. Further, when it is determined that either the position of the host vehicle or the calculated direction of the line of sight has been updated, the basic visual recognition area calculation unit 15 determines the position of the host vehicle serving as a reference for calculating the basic visual recognition area.
  • the basic visual recognition area calculation unit 15 stores the effective viewing angle and range of the driver according to the vehicle speed of the host vehicle.
  • the basic visual recognition area calculation unit 15 calculates an effective viewing angle and range corresponding to the vehicle speed indicated in the vehicle speed signal. Further, the basic visual recognition area calculation unit 15 calculates the basic visual recognition area by combining the calculated line-of-sight direction, effective viewing angle, and range with the position of the host vehicle indicated by the position signal.
  • the basic visual recognition area calculation unit 15 corresponds to basic visual recognition area calculation means. Note that the basic visual recognition area calculation unit 15 may store a central viewing angle corresponding to the vehicle speed of the host vehicle and calculate the basic visual recognition area using the central viewing angle and the range.
  • the blind spot area exclusion unit 16 determines that the position of the obstacle is not outside the basic visual recognition area, the distance to the obstacle and the direction of the obstacle indicated in the obstacle detection signal and the acquired position signal are indicated.
  • the blind spot area of the driver is calculated by combining the position of the host vehicle.
  • the blind spot area exclusion unit 16 calculates the blind spot excluded visual area by excluding the blind spot area from the basic visual recognition area.
  • the blind spot excluded visual area calculated in this way is an area from which a blind spot area that is not actually visible to the driver is excluded.
  • the blind spot area exclusion unit 16 corresponds to blind spot area exclusion means.
  • the mirror area adding unit 17 is a part that estimates a mirror area that can be visually recognized by the driver through the mirror and adds the mirror area to the basic viewing area.
  • the mirrors include left and right door mirrors, fender mirrors, room mirrors, and the like.
  • the mirror area adding unit 17 sequentially stores the driver's line-of-sight direction calculated by the basic visual recognition area calculating unit 15. Further, the mirror area adding unit 17 stores the position of the mirror with respect to the own vehicle. Based on the driver's line-of-sight direction calculated by the basic visual recognition area calculation unit 15 and the stored mirror position, the mirror area adding unit 17 determines whether a mirror exists in the driver's line-of-sight direction. .
  • the mirror area adding unit 17 determines that a mirror is present in the direction of the driver's line of sight, calculates an area reflected in the mirror as a mirror area based on the direction of the line of sight and the position of the mirror.
  • the mirror area adding unit 17 adds the mirror area to the basic viewing area calculated by the basic viewing area calculating unit 15 or the blind spot excluded viewing area calculated by the blind spot area excluding unit 16, thereby adding the mirror added viewing area. calculate.
  • the mirror additional viewing area calculated in this way is an area including an area that can be indirectly viewed by the driver through the mirror.
  • the mirror area adding unit 17 corresponds to mirror area adding means.
  • region addition part 17 may calculate a mirror area
  • the visual recognition area determination unit 18 is a part that determines the visual recognition area.
  • the visual recognition area determination unit 18 excludes the basic visual recognition area and the blind spot based on the determination result of the obstacle detection signal update by the blind spot area exclusion unit 16 and the determination result of the mirror presence / absence determination in the gaze direction by the mirror area addition unit 17.
  • the visual recognition area or the mirror additional visual recognition area is determined as the visual recognition area.
  • the visual recognition area determined by the visual recognition area determination unit 18 is a visual recognition area calculated by the visual recognition area calculation unit 11.
  • the driving support ECU 2 is configured by a computer including a CPU, a ROM, a RAM, and the like, similarly to the visual recognition area estimation ECU 1.
  • the driving assistance ECU 2 performs predetermined processing based on the obstacle detection signal output from the millimeter wave radar 3, the position signal output from the navigation system 6, and the visual time space map output from the visual recognition area estimation ECU 1. Thus, driving assistance for the driver of the host vehicle is controlled.
  • the driving support ECU 2 includes a target object extraction ECU 21, a map comparison unit 22, and a driving support control unit 23.
  • the target object extraction ECU 21 generates a sensor detection map, a line-of-sight target map, and a target object extraction map by performing predetermined processing based on the obstacle detection signal, the position signal, and the visual recognition time-space map.
  • the sensor detection map, the line-of-sight target map, and the attention target extraction map will be described later.
  • the eye-target extraction ECU 21 includes a sensor detection map generator 24, a line-of-sight target map generator 25, and a eye map generator 26.
  • the sensor detection map generation unit 24 is a part that generates a sensor detection map based on the obstacle detection signal output from the millimeter wave radar 3 and the position signal output from the navigation system 6.
  • the sensor detection map generation unit 24 acquires an obstacle detection signal and a position signal.
  • the sensor detection map generator 24 calculates the relative speed between the host vehicle and the obstacle indicated in the obstacle detection signal for each obstacle detected by the millimeter wave radar 3.
  • the sensor detection map generation unit 24 calculates the time to collision for each obstacle (in the following description, referred to as TTC (TimeolliTo Collision)) based on the calculated relative speed.
  • TTC TimeolliTo Collision
  • the sensor detection map generator 24 stores a TTC threshold value.
  • the sensor detection map generation unit 24 extracts an obstacle having a TTC equal to or less than the threshold value by comparing the TTC calculated for each obstacle with the threshold value. Further, the sensor detection map generation unit 24 extracts the obstacle based on the distance to the obstacle and the direction of the obstacle indicated in the acquired obstacle detection signal and the position of the host vehicle indicated in the acquired position signal. Calculate the position of the object.
  • the sensor detection map generation unit 24 extracts obstacles every predetermined time, and stores the positions of the obstacles in time series for each direction in which the extracted obstacles are located.
  • the sensor detection map generator 24 generates a sensor detection map.
  • generation part 24 updates a sensor detection map sequentially by performing such a process for every predetermined time.
  • This sensor detection map is a map in which obstacles to be watched by the driver are extracted from obstacles detected by the millimeter wave radar 3 around the host vehicle.
  • the line-of-sight target map generation unit 25 generates a line-of-sight target map based on the visual time-space map output from the visual recognition area recording unit 13 of the visual recognition area estimation ECU 1 and the sensor detection map generated by the sensor detection map generation unit 24. This is the part to be generated.
  • the line-of-sight target map generation unit 25 acquires a visual time-space map output from the visual recognition area estimation ECU 1.
  • the line-of-sight target map generation unit 25 extracts an obstacle located in the time-series visual recognition area indicated in the acquired visual recognition space-time map from the obstacles stored in the sensor detection map.
  • the line-of-sight target map generation unit 25 extracts obstacles every predetermined time, and stores the position of each obstacle in time series for each direction in which the extracted obstacles are located. Thus, the line-of-sight target map generation unit 25 generates a line-of-sight target map. In addition, the line-of-sight target map generation unit 25 sequentially updates the line-of-sight target map by performing such processing every predetermined time.
  • This line-of-sight target map is a map showing obstacles included in an area that the driver is currently viewing among obstacles that the driver should watch around the host vehicle.
  • the attention map generation unit 26 is a part that generates an attention map based on the sensor detection map generated by the sensor detection map generation unit 24.
  • the attention map generation unit 26 stores the position where the detected time is the oldest and the newest position for the obstacles stored in the sensor detection map.
  • the attention map generation unit 26 detects the predicted position of the obstacle detected at a certain time in the sensor detection map and not detected in the sensor detection map updated after a predetermined time has elapsed from that time. Calculate and store.
  • the attention map generation unit 26 stores the position and predicted position of each obstacle in time series for each predetermined time and for each direction in which the obstacle is located. In this way, the attention map generation unit 26 generates an attention map. Moreover, the attention map production
  • This attention target extraction map is a map obtained by extracting, as gaze points, objects that the driver should focus on at a minimum in the traveling environment of the host vehicle.
  • the attention map generator 26 corresponds to gaze point extraction means.
  • the map comparison unit 22 detects an obstacle to be a driving support target by comparing the line-of-sight target map generated by the line-of-sight target map generation unit 25 with the attention map generated by the attention map generation unit 26. Part.
  • the map comparison unit 22 detects an obstacle that is not included in the line-of-sight target map among the obstacles stored in the attention target extraction map as an oversight obstacle.
  • the map comparison unit 22 detects a gaze point that is not included in the time-series visual recognition area among the gaze points extracted in the attention target extraction map.
  • the map comparison unit 22 corresponds to attention state determination means for determining the driver's attention state with respect to the gaze point.
  • the driving support control unit 23 is a part that controls driving support so as to present information about an overlooked obstacle detected by the driving support control unit 23 to the driver.
  • the driving support control unit 23 generates a driving support signal including the position of an oversight obstacle, and outputs the generated driving support signal to the speaker 7 and the display 8.
  • the speaker 7 is an in-vehicle speaker that outputs a predetermined sound to the driver based on the driving support signal output from the driving support control unit 23 of the driving support ECU 2.
  • the display 8 is an in-vehicle display that displays a predetermined image for the driver based on the driving support signal output from the driving support control unit 23 of the driving support ECU 2.
  • the speaker 7 and the display 8 acquire a driving support signal, and notify the driver of the position of an oversight obstacle indicated in the acquired driving support signal by sound and image.
  • each map generated by the configuration of the driving support device M and the visual recognition area estimation device Ma described above and driving support using the generated map is as shown in FIG.
  • a visual recognition time-space map M1 and a sensor detection map M2 are generated based on each signal output from the sensors.
  • a line-of-sight target map M3 is generated based on the visual recognition space-time map M1 and the sensor detection map M2.
  • an attention map M4 is generated based on the sensor detection map M2. Then, driving assistance is performed by comparing the line-of-sight target map M3 and the attention map M4.
  • FIG. 4 is a flowchart showing a processing procedure by the driving support apparatus M. The process shown in FIG. 4 is repeatedly executed from when the engine of the host vehicle is started until it is stopped.
  • the visual recognition area estimation ECU 1 and the driving support ECU 2 acquire each signal output from the sensors (S1).
  • the visual recognition area estimation ECU 1 acquires an obstacle detection signal from the millimeter wave radar 3, an image signal from the camera 4, a vehicle speed signal from the vehicle speed sensor 5, and a position signal from the navigation system 6 and sequentially stores them.
  • the driving assistance ECU 2 acquires the obstacle detection signal from the millimeter wave radar 3 and the position signal from the navigation system 6 and sequentially stores them.
  • the visual recognition area estimation ECU 1 calculates the visual recognition area (S2).
  • the visual recognition area calculation processing in the visual recognition area estimation ECU 1 is mainly executed by the visual recognition area calculation unit 11 according to the flowchart shown in FIG.
  • the basic visual recognition area calculation unit 15 determines whether or not the image signal and the position signal are updated within a predetermined time (S11).
  • the basic visual recognition area calculation unit 15 makes this determination by detecting whether or not there are newly stored image signals and position signals within a predetermined time.
  • the basic visual recognition area calculation unit 15 repeats this determination when determining that neither the image signal nor the position signal has been updated within a predetermined time.
  • the basic visual recognition area calculation unit 15 determines that at least one of the image signal and the position signal has been updated within a predetermined time. Further, the basic visual recognition area calculation unit 15 calculates the direction of the driver's line of sight by performing image processing on the acquired image signal. Next, the basic visual recognition area calculation unit 15 calculates a basic visual recognition area (S13). Here, as shown in FIG. 6, the basic visual recognition area calculation unit 15 calculates the effective viewing angle ⁇ and the ranges L1 and L2 corresponding to the vehicle speed indicated by the acquired vehicle speed signal.
  • the basic visual recognition area calculation unit 15 combines the calculated line-of-sight direction of the driver D, the effective viewing angle ⁇ , and the ranges L1 and L2 with the position of the host vehicle determined in step S12, thereby obtaining the basic visual recognition area. V is calculated.
  • the blind spot area exclusion unit 16 determines whether or not the obstacle detection signal has been updated within a predetermined time (S14).
  • the blind spot area excluding unit 16 makes this determination by detecting whether there is an obstacle detection signal newly stored within a predetermined time. If the blind spot area exclusion unit 16 determines that the obstacle detection signal has been updated within a predetermined time, whether the position of the obstacle indicated by the obstacle detection signal is outside the basic visual recognition area V calculated in step S13. It is determined whether or not (S15).
  • step S15 when the position of the obstacle Z is within the basic visual recognition area, the blind spot area exclusion unit 16 determines that the position of the obstacle is not outside the basic visual recognition area, A blind spot area is calculated (S16).
  • the blind spot area excluding unit 16 combines the distance to the obstacle Z and the direction of the obstacle indicated in the obstacle detection signal with the position of the host vehicle X indicated in the acquired position signal, thereby driving the driver.
  • a blind spot area A of D is calculated.
  • the blind spot area exclusion unit 16 excludes the blind spot area from the basic visual recognition area (S17).
  • the blind spot area exclusion unit 16 excludes the blind spot area A shown in FIG. 7 from the basic visual recognition area V shown in FIG. Further, the blind spot area exclusion unit 16 calculates the blind spot exclusion visual area Va by excluding the blind spot area A.
  • the blind spot area by the blind spot area excluding unit 16 is determined. The process proceeds to step S18 without being excluded.
  • the mirror area adding unit 17 determines whether or not there is a mirror in the direction of the driver's line of sight (S18).
  • the mirror area adding unit 17 makes this determination by detecting whether or not the stored mirror position is in the direction of the line of sight of the driver calculated by the basic visual recognition area calculating unit 15.
  • the mirror area adding unit 17 determines that a mirror exists in the direction of the line of sight of the driver, and calculates the mirror area ( S19).
  • the mirror area adding unit 17 calculates the area reflected on the mirror as the mirror area B based on the direction of the line of sight and the position of the mirror.
  • the mirror area adding unit 17 adds a mirror area (S20).
  • the mirror area B is added to the blind spot excluded visual recognition area Va calculated in step S17 or the basic visual recognition area V calculated in step S13.
  • the mirror region adding unit 17 calculates the mirror addition visual recognition region Vb by adding the mirror region B.
  • the mirror area adding unit 17 does not add a mirror area and the process proceeds to step S21.
  • the visual recognition area determination unit 18 determines the visual recognition area (S21).
  • the visual recognition area determination unit 18 uses the mirror additional visual recognition area Vb calculated in step S20, the blind spot excluded visual recognition area Va calculated in step S17, or the basic visual recognition area V calculated in step S13 as the visual recognition area. decide.
  • the visual recognition area determined in step S21 is a visual recognition area calculated by the visual recognition area calculation unit 11 shown in FIG.
  • the attention level setting unit 12 sets the driver's attention level for the visual recognition area calculated in steps S11 to S21 (S22).
  • the attention level setting unit 12 sets the attention level in association with each coordinate in the viewing area.
  • the attention level setting unit 12 sets a certain level of attention level “a” for the viewing area.
  • the attention level “b” is set for the coordinates located in the central viewing angle according to the position in the viewing area
  • the attention level “b” is set for the coordinates located in the peripheral viewing angle.
  • a small attention level “c” may be set.
  • the flow returns to the flowchart of FIG. 4 and the visual recognition area estimation ECU 1 records the visual recognition area (S3).
  • the viewing area recording process in the viewing area estimation ECU 1 is executed by the attention level setting unit 12 and the viewing area recording unit 13 in accordance with the flowchart shown in FIG.
  • the viewing area recording unit 13 determines whether or not the viewing area has been updated within a predetermined time (S31).
  • the visual recognition area recording unit 13 makes this determination by detecting whether or not there is a visual recognition area newly recorded within a predetermined time.
  • the visual recognition area recording unit 13 repeats this determination when determining that the visual recognition area has not been updated within a predetermined time.
  • the visual recognition area recording unit 13 determines that the visual recognition area has been updated within a predetermined time
  • the visual recognition area recording unit 13 records the updated visual recognition area and the attention level set for the visual recognition area (S32).
  • the attention level setting unit 12 updates the attention level (S33).
  • the attention level setting unit 12 updates the attention level with respect to the coordinates in each viewing area calculated from the past to the present for a predetermined time and recorded in the viewing area recording unit 13.
  • w (x, y, z) represents the degree of attention at the coordinates (x, y, z) in the visual recognition area V (t).
  • the visual recognition area recording unit 13 determines whether or not the attention level updated by the attention level setting unit 12 in step S33 is smaller than a threshold value (S34).
  • the visual recognition area recording unit 13 has the attention level w (x, y, z) of the coordinates (x, y, z) in each visual recognition area recorded from the past to the present for a predetermined time. This determination is made by detecting whether it is smaller than the threshold value.
  • the visual recognition area recording unit 13 removes the coordinates (x, y, z) when it is determined that the coordinates (x, y, z) are smaller than the threshold of attention (S35).
  • the visual recognition area recording unit 13 determines that the coordinates (x, y, z) are equal to or greater than the threshold of attention, the visual recognition area recording unit 13 records the coordinates (x, y, z) as they are without removing them.
  • the flow returns to the flowchart of FIG. 4, and the visual recognition time space map generation unit 14 of the visual recognition area estimation ECU 1 generates a visual recognition time space map (S4).
  • the visual-time space-time map generation unit 14 combines the visual recognition area calculated by the visual recognition area calculation unit 11, the past visual recognition areas recorded by the visual recognition area recording unit 13, and these attention levels. To generate a visual time-space map. Further, the visual recognition time space map generation unit 14 outputs the generated visual recognition time space map to the driving assistance ECU 2.
  • FIG. 12 is an explanatory diagram of the visual time-space map generated in step S4.
  • the visual recognition time space map generation unit 14 includes the visual recognition region V (T) calculated by the visual recognition region calculation unit 11 and the past visual recognition regions V (T ⁇ 1) and V (T ⁇ ) recorded by the visual recognition region recording unit 13. 2) and V (T-3) are combined to generate a visual time-space map M1.
  • the level of attention in each viewing area is represented by shades of paint.
  • the visual recognition time-space map M1 the visual recognition area is reduced and the degree of attention is reduced as the visual recognition area has an older time visually recognized by the driver.
  • a time-series visual recognition area that is an area that the driver is currently visually recognizing is estimated based on the visual recognition time-space map M1.
  • the processing shifts to processing by the driving support ECU 2, and the sensor detection map generation unit 24 of the attention target extraction ECU 21 generates a sensor detection map (S5).
  • the sensor detection map generation unit 24 calculates the relative velocity and TTC for each of the obstacles detected by the millimeter wave radar 3 based on the obstacle detection signal and the position signal acquired from the sensors. Further, the sensor detection map generation unit 24 extracts an obstacle having a TTC equal to or less than the threshold value by comparing the TTC calculated for each obstacle with the threshold value.
  • the sensor detection map generation unit 24 extracts the obstacle based on the distance to the obstacle and the direction of the obstacle indicated in the acquired obstacle detection signal and the position of the host vehicle indicated in the acquired position signal. Calculate the position of the object. Further, the sensor detection map generation unit 24 generates a sensor detection map by adding the newly calculated position of the obstacle to the sensor detection map stored in the past and storing it.
  • FIG. 13 is an explanatory diagram of the sensor detection map generated in step S5.
  • the host vehicle X is about to turn right on the T-junction.
  • the sensor detection map M2 shown in FIG. 13 obstacles detected by the millimeter wave radar 3 in front of the host vehicle X are shown in time series. For example, at times t1 to t5, the other vehicle A1 detected in front of the host vehicle X is continuously shown. Also, at time t2 to t3 and time t4 to t6, another vehicle B1 that is a motorcycle detected in front of the host vehicle X is also shown.
  • FIG. 13 shows only obstacles detected in front of the host vehicle X, obstacles detected in the left and right sides of the host vehicle X and in the rear are also shown in the sensor detection map M2.
  • the line-of-sight target map generator 25 generates a line-of-sight target map (S6).
  • the line-of-sight target map generation unit 25 acquires a visual recognition time space map output from the visual recognition time space map generation unit 14 of the visual recognition area estimation ECU 1. Further, the line-of-sight target map generation unit 25 extracts an obstacle located in the time-series visual recognition area indicated by the acquired visual recognition space-time map from the obstacles in the sensor detection map generated in step S5. Further, the line-of-sight target map generation unit 25 generates a line-of-sight target map by adding and storing the position of the newly extracted obstacle to the line-of-sight target map stored in the past.
  • the attention map generation unit 26 generates an attention map (S7).
  • the attention map generation unit 26 is the obstacle stored in the sensor detection map generated in step S5, and for the obstacles continuously detected, the detected time is the oldest and the newest. Memorize the position.
  • the attention map generation unit 26 calculates the predicted position of the obstacle detected at a certain time in the sensor detection map and not detected in the sensor detection map updated after a predetermined time from that time. And remember. Further, the attention map generation unit 26 generates the attention map by adding and storing the position of the newly stored obstacle to the attention map stored in the past.
  • FIG. 15 is an explanatory diagram of the attention map generated in step S7.
  • the attention map M4 among the other vehicles A1 continuously detected from time t1 to t5 in the sensor detection map M2, the oldest time t1 to t2 and the newest time t4 to t5 are shown. Only the other vehicle A1 is indicated by a black circle.
  • the other vehicle B1 detected at times t2 to t3 was not detected at times t3 to t4, but a black circle indicating the other vehicle B1 is added at times t3 to t4.
  • the predicted position calculated by the attention map generation unit 26 is stored in the black circle of the other vehicle B1 shown at times t3 to t4.
  • the other vehicle B1 added in the attention map M4 is a motorcycle that was detected by the millimeter wave radar 3 from time t2 to t3 but not from time t3 to t4.
  • the attention map generator 26 estimates that the other vehicle B1 that is no longer detected by the millimeter wave radar 3 is located behind the other vehicle A1.
  • the other vehicle B1 is in a position that cannot be visually recognized by the driver of the host vehicle X from time t3 to t4, but is considered to be an obstacle to be watched by the driver.
  • the object that the driver should focus on at least in the traveling environment of the host vehicle X is extracted as the gaze point.
  • the map comparison unit 22 performs map comparison (S8).
  • the map comparison unit 22 compares the line-of-sight target map generated in step S6 with the attention map generated in step S7.
  • the map comparison part 22 determines the obstruction which should be drive assistance object by the comparison of this map. More specifically, the map comparison unit 22 determines an obstacle that is not included in the line-of-sight target map among the obstacles stored in the attention target extraction map as an oversight obstacle.
  • FIG. 16 is an explanatory diagram of map comparison in the process of step S8.
  • the map comparison unit 22 determines that the other vehicle B1 indicated at times t2 to t3 is overlooked by the map comparison.
  • the other vehicle B1 thus determined is an object that the driver should focus on at least, but is not included in the time-series viewing area that is the area that the driver is currently viewing.
  • the driving support control unit 23 performs driving support (S9).
  • the driving support control unit 23 performs driving support so as to present information about the overlooked obstacle detected by the driving support control unit 23 to the driver. More specifically, the driving support control unit 23 generates a driving support signal including the position of an oversight obstacle, and outputs the generated driving support signal to the speaker 7 and the display 8. And the speaker 7 and the display 8 acquire the driving assistance signal from the driving assistance control part 23, and alert
  • the driving support by the driving support device M is executed by the series of processes described above.
  • FIG. 17 and FIG. 18 show a state in which driving assistance by the driving assistance apparatus M is performed at the intersection.
  • FIG. 17 shows a time-series visual recognition area V1 and gaze points P1 to P3 to be focused on. At this time, information about the pedestrian located at the gaze point P3 that is not included in the time-series visual recognition area V1 is presented to the driver.
  • the pedestrian located at the gaze point P6 in FIG. 18 has been a support target because it is out of the line of sight of the driver of the host vehicle X.
  • the information about the pedestrian is presented to the driver, which makes the driver feel bothersome.
  • the motorcycle existing in the area A1 is not supported because it is not detected in the line-of-sight direction of the driver of the host vehicle X.
  • no information about the bike was presented to the driver. For this reason, driving support for avoiding a collision between the host vehicle X and the motorcycle cannot be performed.
  • the visual recognition area visually recognized by the driver is calculated by the visual recognition area calculation unit 11 based on the line of sight of the driver.
  • the time-series visual recognition area that is currently recognized by the driver is visually recognized based on the history of a plurality of visual recognition areas V (T) to V (T-3) calculated from the past to the present for a predetermined time. It is estimated by the spatiotemporal map generation unit 14 (see FIG. 12).
  • the spatiotemporal map generation unit 14 see FIG. 12
  • the attention level w of the driver associated with the plurality of visual recognition areas V (t) calculated from the past to the present by the attention level setting unit 12 is obtained.
  • the attention level w it is possible to weight the attention level according to the degree of newness of the visual recognition area and the position in the visual recognition area. Since the time-series visual recognition area is estimated based on the history of the plurality of visual recognition areas thus weighted, the driver's attention state in the time-series visual recognition area can be accurately estimated.
  • the attention level setting unit 12 sets the attention level w to be smaller for a visual recognition area whose time viewed by the driver is older. In this way, by reflecting the decrease in the driver's attention level w over time in the visual recognition area, the driver's attention state in the time-series visual recognition area can be estimated more accurately.
  • the basic visual recognition area calculation unit 15 calculates the basic visual recognition area V determined based on the direction of the line of sight of the driver D (see FIG. 6).
  • the blind spot exclusion visual area Va is calculated by the blind spot area exclusion unit 16 excluding the blind spot area A of the driver D caused by the obstacle Z present in the basic visual recognition area V from the basic visual recognition area V (FIG. 7). reference).
  • the blind spot area A that is not actually visible to the driver D is not included in the viewing area. Therefore, it is possible to prevent erroneous estimation such that the blind spot area A is determined as the visual recognition area.
  • the visual recognition area estimation device Ma when a mirror is present in the direction of the line of sight of the driver D by the mirror area addition unit 17, the mirror area that can be visually recognized by the driver D via the mirror.
  • a mirror additional visual recognition area Vb is calculated (see FIG. 8).
  • the blind spot area A is excluded from the basic visual recognition area V by the visual recognition area estimation apparatus Ma, so that a jump out of an area hidden by an obstacle or the like is likely to occur.
  • the driver can be alerted by an alarm or the like.
  • the mirror area B is added to the basic visual recognition area V by the visual recognition area estimation device Ma, the driver is not alerted to obstacles that have been confirmed by the mirror, and the driver's trouble is reduced. it can.
  • the present invention is not limited to the above embodiment.
  • the case where the millimeter wave radar is used to detect an obstacle has been described, but a laser radar or a camera may be used.
  • the camera is used to calculate the direction of the driver's line of sight.
  • the wearable sensor that detects the movement of the muscle by measuring the electrooculogram around the driver's eyeball is used. Also good.
  • the effective viewing angle and range of the driver according to the vehicle speed of the host vehicle are stored.
  • the calculation condition of the viewing area is set according to the driver's visual acuity and surrounding brightness. It may be changed.
  • the attention level set for the visual recognition area is used for recording or removal determination in the visual recognition area recording unit 13.
  • the volume of the speaker 7 is changed according to the attention degree.
  • the mode of information presentation to the driver may be changed.
  • the area visually recognized by the driver can be accurately estimated in real time.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

 本発明の課題は、ドライバが視認している領域を実時間で精度良く推定できる視認領域推定装置を提供することにある。本発明の視認領域推定装置は、ドライバが視認する視認領域を、ドライバの視線に基づいて、視認領域算出部11により算出し、ドライバが現在視認している領域である時系列視認領域を、所定時間過去から現在までに算出された複数の視認領域の履歴に基づいて、視認時空間マップ生成部14によって推定する。このように過去の視認領域も含めて時系列視認領域を推定することにより、ドライバが現在視認している領域を精度良く推定することができ、また、ドライバの視線を障害物に対応させるのではなく領域を基準としているため、処理量が過大となることを防止でき、実時間での推定処理を可能とする。

Description

視認領域推定装置および運転支援装置
 本発明は、視認領域推定装置および運転支援装置に関する。
 従来、車両の周囲に存在する障害物について、ドライバに対して警告を行う警告装置が検討されている。たとえば、特許文献1に記載された警告装置では、車両の周囲の障害物およびドライバの視線方向をそれぞれ検出し、検出した障害物の位置と視線方向との比較により、その障害物をドライバが視認したか否かを判定している。また、この警告装置では、ドライバが視認していないと判定した障害物について警告を行うようにしている。
特開2006-163828号公報
 しかしながら、特許文献1に記載された警告装置では、障害物の位置とドライバの視線方向とを常に対応させながらドライバによる視認の有無を判定しているので、たとえば車両の周囲に障害物が多数存在する場合には、判定処理の処理量が過大となってしまう。そのため、実時間における処理が困難になるという問題があった。特に、動的シーンではこの問題が顕著であった。また、ドライバの視線方向は絶えず変化するため、判定精度が低下するという問題もあった。
 そこで、本発明の課題は、ドライバが視認している領域を実時間で精度良く推定できる視認領域推定装置および運転支援装置を提供することにある。
 上記課題を解決した本発明の視認領域推定装置は、ドライバの視線に基づいてドライバが視認する視認領域を算出する視認領域算出手段と、所定時間過去から現在までに算出された複数の視認領域の履歴に基づいてドライバが現在視認している領域である時系列視認領域を推定する時系列視認領域推定手段と、を備えるものである。
 本発明の視認領域推定装置によれば、ドライバが視認する視認領域は、ドライバの視線に基づいて、視認領域算出手段によって算出される。また、ドライバが現在視認している領域である時系列視認領域は、所定時間過去から現在までに算出された複数の視認領域の履歴に基づいて、時系列視認領域推定手段によって推定される。このように過去の視認領域も含めて時系列視認領域を推定することにより、ドライバが現在視認している領域を精度良く推定することができる。また、ドライバの視線を障害物に対応させるのではなく領域を基準としているため、実時間での推定処理が可能となる。
 ここで、本発明の視認領域推定装置において、所定時間過去から現在までに算出された複数の視認領域に関連づけたドライバの注意度を複数の視認領域のそれぞれに対して設定する注意度設定手段を備える態様とすることができる。
 この発明によれば、注意度設定手段によって、所定時間過去から現在までに算出された複数の視認領域に関連づけたドライバの注意度が、複数の視認領域のそれぞれに対して設定される。注意度が設定されることにより、視認領域の新しさの度合いや視認領域内の位置に応じた注意度の重み付けができる。こうして重み付けされた複数の視認領域の履歴に基づいて時系列視認領域が推定されるため、時系列視認領域におけるドライバの注意状態を正確に推定することができる。
 また、本発明の視認領域推定装置において、注意度設定手段は、ドライバによって視認された時刻が古い視認領域ほど注意度を小さく設定する態様とすることができる。
 通常、過去の視認領域であるほど、当該視認領域における現在のドライバの注意度は減少していると考えられる。この発明によれば、注意度設定手段によって、ドライバによって視認された時刻が古い視認領域ほど注意度が小さく設定される。このように時間の経過に伴うドライバの注意度の減少を視認領域に反映することにより、時系列視認領域におけるドライバの注意状態をより一層正確に推定することができる。
 また、本発明の視認領域推定装置において、視認領域算出手段は、ドライバの視線の方向に基づいて定まる基本視認領域を算出する基本視認領域算出手段と、基本視認領域に存在する障害物により生じるドライバの死角領域を推定し、基本視認領域から死角領域を除外することにより前記視認領域を算出する死角領域除外手段と、を備える態様とすることができる。
 この発明によれば、基本視認領域算出手段によって、ドライバの視線の方向に基づいて定まる基本視認領域が算出される。また、死角領域除外手段によって、基本視認領域に存在する障害物により生じるドライバの死角領域が基本視認領域から除外されることにより視認領域が算出される。こうして死角領域を除外した領域を視認領域とすることにより、ドライバにとって実際には視認し得ない死角領域は視認領域に含まれなくなる。よって、死角領域が視認領域と判定されるような誤推定を防止できる。
 また、本発明の視認領域推定装置において、視認領域算出手段は、ドライバの視線の方向に基づいて定まる基本視認領域を算出する基本視認領域算出手段と、ドライバの視線の方向にミラーが存在する場合に、ミラーを介してドライバにより視認可能となるミラー領域を推定し、基本視認領域にミラー領域を追加することにより視認領域を算出するミラー領域追加手段を備える態様とすることができる。
 この発明によれば、基本視認領域算出手段によって、ドライバの視線の方向に基づいて定まる基本視認領域が算出される。また、ミラー領域追加手段によって、ドライバの視線の方向にミラーが存在する場合に、ミラーを介してドライバにより視認可能となるミラー領域が基本視認領域に追加されることにより視認領域が算出される。こうしてミラー領域を追加した領域を視認領域とすることにより、ミラーを介してドライバにより間接的に視認されうる領域が視認領域に含まれる。よって、直接的な視認のみならず間接的な視認による視認領域を推定できる。
 また、本発明の運転支援装置は、上記視認領域推定装置を備え、走行環境の中からドライバが注視すべき注視ポイントを抽出する注視ポイント抽出手段と、時系列視認領域内に注視ポイントが位置するか否かに応じて、注視ポイントに対するドライバの注意状態を判定する注意状態判定手段と、を備えるものである。
 本発明の運転支援装置によれば、走行環境の中からドライバが注視すべき注視ポイントは、注視ポイント抽出手段によって抽出される。また、注視ポイントが時系列視認領域内に位置するか否かに応じて、注視ポイントに対するドライバの注意状態が注意状態判定手段によって判定される。このように時系列視認領域と注視ポイントとの比較によってドライバの注意状態が判定されるため、ドライバの視線と注視ポイントとを対応させる必要がなくなる。よって、処理量が過大となることを防止でき、実時間での判定処理が可能となる。
 本発明によれば、ドライバが視認している領域を実時間で精度良く推定できる。
本発明の実施形態に係る視認領域推定装置および運転支援装置のブロック構成図である。 図1中の視認領域算出部のブロック構成図である。 運転支援装置による運転支援の説明図である。 運転支援装置による処理手順を示すフローチャートである。 図4に示す処理手順の一部を示すフローチャートである。 図5の処理における基本視認領域算出の説明図である。 図5の処理における死角領域除外の説明図である。 図5の処理におけるミラー領域追加の説明図である。 図4に示す処理手順の一部を示すフローチャートである。 図9の処理における注意度更新の説明図である。 注意度更新に用いられる重み付け係数の説明図である。 図4の処理において生成される視認時空間マップの説明図である。 図4の処理において生成されるセンサ検出マップの説明図である。 図4の処理において生成される視線対象マップの説明図である。 図4の処理において生成される着眼マップの説明図である。 図4の処理におけるマップ比較の説明図である。 交差点において運転支援が行われる状態を示す図である。 図17の状態から所定時間が経過した後の状態を示す図である。
 以下、図面を参照しながら本発明の好適な実施形態について説明する。以下の説明において、「位置」および「領域」とは、特に説明しない場合、世界座標系を基準とする3次元座標にて表される位置および領域であるとする。
 図1は、本発明の実施形態に係る視認領域推定装置および運転支援装置のブロック構成図である。図1に示す運転支援装置Mは、自車両に搭載されて、自車両の走行環境において自車両のドライバに対する運転支援を行う装置である。また、運転支援装置Mの一部を構成する視認領域推定装置Maは、ドライバが視認している領域を推定する装置である。
 運転支援装置Mは、視認領域推定ECU(electronic control unit)1、運転支援ECU2、ミリ波レーダ3、カメラ4、車速センサ5、ナビゲーションシステム6、スピーカ7、およびディスプレイ8を備えている。このうち、視認領域推定ECU1、ミリ波レーダ3、カメラ4、車速センサ5、およびナビゲーションシステム6は、視認領域推定装置Maを構成している。以下の説明においては、ミリ波レーダ3、カメラ4、車速センサ5、およびナビゲーションシステム6を、総称して「センサ類」ともいう。
 まず、視認領域推定装置Maの各構成要素について説明する。視認領域推定ECU1は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などを含むコンピュータから構成されている。視認領域推定ECU1は、センサ類から出力される画像信号や位置信号などに基づいて所定の処理を行うことにより、視認時空間マップを生成するものである。この視認時空間マップは、ドライバが現在視認している領域である時系列視認領域を推定したマップである。
 視認領域推定ECU1は、視認領域算出部11、注意度設定部12、視認領域記録部13、および視認時空間マップ生成部14を備えている。
 視認領域算出部11は、センサ類から出力される画像信号や位置信号に基づいて、ある時刻においてドライバが視認する視認領域を算出する部分である。視認領域算出部11による視認領域の算出は、所定時間ごとに行われる。視認領域算出部11は、図2に示す構成要素を備えているが、これらについては後述する。視認領域算出部11は、視認領域算出手段に相当する。
 図1に示す注意度設定部12は、視認領域算出部11によって所定時間ごとに算出された複数の視認領域のそれぞれに対して、ドライバの注意度を設定する部分である。この注意度は、視認領域におけるドライバの注意の度合いを示すものである。注意度設定部12は、各視認領域内の各座標に関連づけて、この注意度を設定する。また、注意度設定部12は、注意度の更新に用いる重み付け係数を記憶している。この重み付け係数は、0以上1以下の数値である。注意度設定部12は、あらたに視認領域が算出される毎に、所定時間過去から現在までに算出された視認領域に対して、注意度に重み付け係数を乗じることにより注意度を更新する。注意度設定部12は、ドライバによって視認された時刻が古い視認領域ほど注意度を小さく設定するように、注意度を更新する。注意度設定部12は、注意度設定手段に相当する。
 視認領域記録部13は、視認領域算出部11によって所定時間ごとに算出された視認領域と、注意度設定部12によって各視認領域に対して設定または更新された注意度とを逐次記録する部分である。視認領域記録部13には、注意度が更新された視認領域内の座標を記録するか否かの判断基準となる所定のしきい値が記憶されている。視認領域記録部13は、所定時間内に視認領域が更新されたか否かを判断する。また、視認領域記録部13は、視認領域の更新に伴い注意度設定部12によって更新された注意度が、しきい値よりも小さいか否かを判断する。また、視認領域記録部13は、その判断結果に応じて、視認領域内の座標をそのまま記録するか、または除去する。
 視認時空間マップ生成部14は、視認領域算出部11によって算出された視認領域と、視認領域記録部13によって記録された過去の各視認領域と、これらの注意度とに基づいて、視認時空間マップを生成する部分である。視認領域記録部13は、これらの視認領域および注意度を合成することにより、視認時空間マップを生成する。また、視認領域記録部13は、あらたに視認領域が算出され注意度が更新されると、更新後の視認領域および注意度に基づくあらたな視認時空間マップを生成する。視認時空間マップ生成部14は、生成した視認時空間マップを運転支援ECU2へ出力する。視認時空間マップ生成部14は、時系列視認領域推定手段に相当する。
 ミリ波レーダ3は、自車両の周囲に存在する障害物を検出するものである。ミリ波レーダ3は、自車両の前方、左右側方、および後方の所定範囲においてミリ波を走査してその反射波を受信することにより、自車両から障害物までの距離、自車両を基準とした障害物の方向、および自車両に対する障害物の相対速度を検出する。ミリ波レーダ3による障害物の検出は、所定時間ごとに行われる。ミリ波レーダ3は、検出した距離、方向、および相対速度を示す障害物検出信号を生成し、生成した障害物検出信号を視認領域推定ECU1へ出力する。また、ミリ波レーダ3は、生成した障害物検出信号を運転支援ECU2へも出力する。
 カメラ4は、自車両のドライバを撮像するものである。カメラ4は、車室内の前方に取り付けられて、ドライバの顔、特に両眼を含む範囲を撮像する。カメラ4によるドライバの撮像は、所定時間ごとに行われる。カメラ4は、撮像した画像を示す画像信号を生成し、生成した画像信号を視認領域推定ECU1へ出力する。
 車速センサ5は、自車両の車速を検出するものである。車速センサ5は、自車両の4輪にそれぞれ設けられ、各車輪の回転速度を計測する。また、車速センサ5は、各車輪の回転速度に基づいて車両の車速を検出し、検出した車速を示す車速信号を生成し、生成した車速信号を視認領域推定ECU1へ出力する。
 ナビゲーションシステム6は、地図データベース、GPS(Global Positioning System)受信機、入出力装置などを備えて構成されている。ナビゲーションシステム6は、地図データベースやGPS受信機により自車両の位置を検出するものである。ナビゲーションシステム6による位置の検出は、所定時間視認領域ごとに行われる。ナビゲーションシステム6は、自車両の位置を検出すると、検出した自車両の位置を示す位置信号を生成し、ECU1へ出力する。また、ナビゲーションシステム6は、生成した位置信号を運転支援ECU2へも出力する。
 次に、視認領域算出部11が備える各構成要素について説明する。図2に示すように、視認領域算出部11は、基本視認領域算出部15、死角領域除外部16、ミラー領域追加部17、および視認領域決定部18を備えている。
 基本視認領域算出部15は、ドライバの視線の方向に基づいて定まる基本視認領域を算出する部分である。基本視認領域算出部15は、カメラ4から出力される画像信号、車速センサ5から出力される車速信号、およびナビゲーションシステム6から出力される位置信号を取得し、逐次記憶する。また、基本視認領域算出部15は、取得した画像信号に画像処理を施すことにより、ドライバの視線の方向を算出する。また、基本視認領域算出部15は、カメラ4からの画像信号およびナビゲーションシステム6からの位置信号が、所定時間内に更新されたか否かを判断する。さらに、基本視認領域算出部15は、自車両の位置および算出した視線の方向のいずれかが更新されたと判断すると、基本視認領域算出の基準となる自車両の位置を決定する。
 この基本視認領域算出部15には、自車両の車速に応じたドライバの有効視野角および射程が記憶されている。基本視認領域算出部15は、車速信号に示される車速に対応する有効視野角および射程を算出する。さらに、基本視認領域算出部15は、算出した視線の方向、有効視野角、および射程と、位置信号に示される自車両の位置とを合成することにより、基本視認領域を算出する。基本視認領域算出部15は、基本視認領域算出手段に相当する。なお、基本視認領域算出部15は、自車両の車速に応じた中心視野角を記憶し、中心視野角および射程を用いて基本視認領域を算出するものであってもよい。
 死角領域除外部16は、基本視認領域に存在する障害物により生じるドライバの死角領域を推定し、基本視認領域から死角領域を除外する部分である。死角領域除外部16は、ミリ波レーダ3から出力される障害物検出信号およびナビゲーションシステム6から出力される位置信号を取得し、逐次記憶する。死角領域除外部16は、ミリ波レーダ3からの障害物検出信号が所定時間内に更新されたか否かを判断する。また、死角領域除外部16は、障害物検出信号が所定時間内に更新されたと判断した場合、その障害物検出信号に示される障害物の位置が、基本視認領域算出部15によって算出された基本視認領域外にあるか否かを判断する。
 死角領域除外部16は、障害物の位置が基本視認領域外にはないと判断した場合、障害物検出信号に示される障害物までの距離および障害物の方向と、取得した位置信号に示される自車両の位置とを合成することにより、ドライバの死角領域を算出する。さらに、死角領域除外部16は、基本視認領域から死角領域を除外することにより、死角除外視認領域を算出する。こうして算出される死角除外視認領域は、ドライバにとって実際には視認し得ない死角領域が除外された領域である。死角領域除外部16は、死角領域除外手段に相当する。
 ミラー領域追加部17は、ミラーを介してドライバにより視認可能となるミラー領域を推定し、基本視認領域にミラー領域を追加する部分である。ここでいうミラーとは、左右のドアミラー、フェンダーミラー、ルームミラーなどである。ミラー領域追加部17は、基本視認領域算出部15によって算出されたドライバの視線の方向を逐次記憶する。また、ミラー領域追加部17には、自車両を基準としたミラーの位置が記憶されている。ミラー領域追加部17は、基本視認領域算出部15によって算出されたドライバの視線の方向と記憶されたミラーの位置とに基づいて、ドライバの視線の方向にミラーが存在するか否かを判断する。ミラー領域追加部17は、ドライバの視線の方向にミラーが存在すると判断した場合、視線の方向とミラーの位置とに基づいて、ミラーに映る領域をミラー領域として算出する。
 さらに、ミラー領域追加部17は、基本視認領域算出部15によって算出された基本視認領域または死角領域除外部16によって算出された死角除外視認領域にミラー領域を追加することにより、ミラー追加視認領域を算出する。こうして算出されるミラー追加視認領域は、ミラーを介してドライバにより間接的に視認されうる領域が含まれた領域である。ミラー領域追加部17は、ミラー領域追加手段に相当する。なお、ミラー領域追加部17は、ミラー角度調整装置からミラーの角度情報を取得し、この角度情報を加味することによりミラー領域を算出するものであってもよい。
 視認領域決定部18は、視認領域を決定する部分である。視認領域決定部18は、死角領域除外部16による障害物検出信号の更新有無判断結果や、ミラー領域追加部17による視線方向のミラー存在有無判断の判断結果に基づいて、基本視認領域、死角除外視認領域、またはミラー追加視認領域を、視認領域として決定する。視認領域決定部18によって決定された視認領域は、視認領域算出部11において算出される視認領域とされる。
 以上説明した視認領域推定装置Maの各構成要素に続いて、運転支援装置Mを構成する他の構成要素について説明する。
 運転支援ECU2は、視認領域推定ECU1と同様、CPU、ROM、およびRAMなどを含むコンピュータから構成されている。運転支援ECU2は、ミリ波レーダ3から出力される障害物検出信号、ナビゲーションシステム6から出力される位置信号、および視認領域推定ECU1から出力される視認時空間マップに基づいて所定の処理を行うことにより、自車両のドライバに対する運転支援を制御するものである。
 運転支援ECU2は、着眼対象抽出ECU21、マップ比較部22、および運転支援制御部23を備えている。着眼対象抽出ECU21は、障害物検出信号、位置信号、および視認時空間マップに基づいて所定の処理を行うことにより、センサ検出マップ、視線対象マップ、および着眼対象抽出マップを生成するものである。センサ検出マップ、視線対象マップ、および着眼対象抽出マップについては、後述する。
 着眼対象抽出ECU21は、センサ検出マップ生成部24、視線対象マップ生成部25、および着眼マップ生成部26を備えている。
 センサ検出マップ生成部24は、ミリ波レーダ3から出力される障害物検出信号およびナビゲーションシステム6から出力される位置信号に基づいて、センサ検出マップを生成する部分である。センサ検出マップ生成部24は、障害物検出信号および位置信号を取得する。センサ検出マップ生成部24は、ミリ波レーダ3によって検出された障害物のそれぞれについて、障害物検出信号に示される自車両と障害物との相対速度を算出する。また、センサ検出マップ生成部24は、算出した相対速度に基づいて各障害物についての衝突までの時間(以下の説明においては、TTC(Time To Collision)という)を算出する。
 また、センサ検出マップ生成部24には、TTCのしきい値が記憶されている。センサ検出マップ生成部24は、各障害物について算出したTTCとしきい値との比較により、しきい値以下のTTCを有する障害物を抽出する。さらに、センサ検出マップ生成部24は、取得した障害物検出信号に示される障害物までの距離および障害物の方向と、取得した位置信号に示される自車両の位置とに基づいて、抽出した障害物の位置を算出する。
 また、センサ検出マップ生成部24は、障害物の抽出を所定時間ごとに行い、抽出した障害物が位置する方向ごとに、各障害物の位置を時系列で記憶する。こうして、センサ検出マップ生成部24は、センサ検出マップを生成する。また、センサ検出マップ生成部24は、このような処理を所定時間ごとに行うことにより、センサ検出マップを逐次更新する。このセンサ検出マップは、自車両の周囲においてミリ波レーダ3により検出された障害物のうち、ドライバが注視すべき障害物を抽出したマップである。
 視線対象マップ生成部25は、視認領域推定ECU1の視認領域記録部13から出力される視認時空間マップと、センサ検出マップ生成部24によって生成されるセンサ検出マップとに基づいて、視線対象マップを生成する部分である。視線対象マップ生成部25は、視認領域推定ECU1から出力される視認時空間マップを取得する。また、視線対象マップ生成部25は、センサ検出マップに記憶された障害物のうち、取得した視認時空間マップに示される時系列視認領域内に位置する障害物を抽出する。
 また、視線対象マップ生成部25は、障害物の抽出を所定時間ごとに行い、抽出した障害物が位置する方向ごとに、各障害物の位置を時系列で記憶する。こうして、視線対象マップ生成部25は、視線対象マップを生成する。また、視線対象マップ生成部25は、このような処理を所定時間ごとに行うことにより、視線対象マップを逐次更新する。この視線対象マップは、自車両の周囲においてドライバが注視すべき障害物のうち、ドライバが現在視認している領域に含まれる障害物を示すマップである。
 着眼マップ生成部26は、センサ検出マップ生成部24によって生成されたセンサ検出マップに基づいて、着眼マップを生成する部分である。着眼マップ生成部26は、センサ検出マップにおいて記憶された障害物であって、連続して検出された障害物について、検出された時刻が最も古い位置と最も新しい位置とを記憶する。また、着眼マップ生成部26は、センサ検出マップにおいてある時刻に検出された障害物であって、その時刻から所定時間経過後に更新されたセンサ検出マップには検出されなかった障害物の予測位置を算出し、記憶する。
 また、着眼マップ生成部26は、所定時間ごとに、また、障害物が位置する方向ごとに、各障害物の位置および予測位置を時系列で記憶する。こうして、着眼マップ生成部26は、着眼マップを生成する。また、着眼マップ生成部26は、このような処理を所定時間ごとに行うことにより、視線対象マップを逐次更新する。この着眼対象抽出マップは、自車両の走行環境においてドライバが最低限着眼すべき対象物を、注視ポイントとして抽出したマップである。着眼マップ生成部26は、注視ポイント抽出手段に相当する。
 マップ比較部22は、視線対象マップ生成部25によって生成された視線対象マップと、着眼マップ生成部26によって生成された着眼マップとを比較することにより、運転支援対象とすべき障害物を検出する部分である。マップ比較部22は、着眼対象抽出マップに記憶された障害物のうち、視線対象マップには含まれていない障害物を、見落とし障害物として検出する。言い換えれば、マップ比較部22は、着眼対象抽出マップに抽出された注視ポイントのうち、時系列視認領域には含まれない注視ポイントを検出する。マップ比較部22は、注視ポイントに対するドライバの注意状態を判定する注意状態判定手段に相当する。
 運転支援制御部23は、運転支援制御部23によって検出された見落とし障害物についての情報をドライバへ提示するよう、運転支援を制御する部分である。運転支援制御部23は、見落とし障害物の位置などを含む運転支援信号を生成し、生成した運転支援信号をスピーカ7およびディスプレイ8へ出力する。
 スピーカ7は、運転支援ECU2の運転支援制御部23から出力された運転支援信号に基づいて、ドライバに対して所定の音声を出力する車載スピーカである。また、ディスプレイ8は、運転支援ECU2の運転支援制御部23から出力された運転支援信号に基づいて、ドライバに対して所定の画像を表示する車載ディスプレイである。スピーカ7およびディスプレイ8は、運転支援信号を取得し、取得した運転支援信号に示される見落とし障害物の位置などを、ドライバに対して音声および画像により報知する。
 以上説明した運転支援装置Mおよび視認領域推定装置Maの構成によって生成される各マップと、生成されるマップを用いた運転支援の関係は、図3に示すとおりである。図3に示すように、センサ類から出力される各信号に基づいて、視認時空間マップM1およびセンサ検出マップM2が生成される。また、視認時空間マップM1およびセンサ検出マップM2に基づいて、視線対象マップM3が生成される。さらに、センサ検出マップM2に基づいて、着眼マップM4が生成される。そして、視線対象マップM3と着眼マップM4とのマップ比較により、運転支援が行われる。
 続いて、運転支援装置Mおよび視認領域推定装置Maの動作について説明する。図4は、運転支援装置Mによる処理手順を示すフローチャートである。図4に示す処理は、自車両のエンジンが始動されてから停止されるまでの間、繰り返し実行される。
 まず、視認領域推定ECU1および運転支援ECU2は、センサ類から出力される各信号を取得する(S1)。ここでは、視認領域推定ECU1は、ミリ波レーダ3からの障害物検出信号、カメラ4からの画像信号、車速センサ5からの車速信号、およびナビゲーションシステム6からの位置信号を取得し、逐次記憶する。また、運転支援ECU2は、ミリ波レーダ3からの障害物検出信号およびナビゲーションシステム6からの位置信号を取得し、逐次記憶する。
 次に、視認領域推定ECU1は、視認領域を算出する(S2)。視認領域推定ECU1における視認領域の算出処理は、主に視認領域算出部11によって、図5に示すフローチャートに従って実行される。まず、基本視認領域算出部15は、画像信号および位置信号が、所定時間内に更新されたか否かを判断する(S11)。ここでは、基本視認領域算出部15は、所定時間内にあらたに記憶した画像信号および位置信号があるか否かを検出することによりこの判断を行う。基本視認領域算出部15は、画像信号および位置信号のいずれもが所定時間内に更新されなかったと判断した場合、この判断を繰り返す。
 基本視認領域算出部15は、画像信号および位置信号の少なくとも一方が所定時間内に更新されたと判断すると、自車両の位置を決定する(S12)。また、基本視認領域算出部15は、取得した画像信号に画像処理を施すことにより、ドライバの視線の方向を算出する。次に、基本視認領域算出部15は、基本視認領域を算出する(S13)。ここでは、図6に示すように、基本視認領域算出部15は、取得した車速信号に示される車速に対応する有効視野角φおよび射程L1,L2を算出する。さらに、基本視認領域算出部15は、算出したドライバDの視線の方向、有効視野角φ、および射程L1,L2と、ステップS12で決定した自車両の位置とを合成することにより、基本視認領域Vを算出する。
 次に、死角領域除外部16は、所定時間内に障害物検出信号が更新されたか否かを判断する(S14)。ここでは、死角領域除外部16は、所定時間内にあらたに記憶した障害物検出信号があるか否かを検出することによりこの判断を行う。死角領域除外部16は、所定時間内に障害物検出信号が更新されたと判断すると、その障害物検出信号に示される障害物の位置が、ステップS13で算出された基本視認領域V外にあるか否かを判断する(S15)。
 ステップS15の判断において、図7に示すように、障害物Zの位置が、基本視認領域内にある場合、死角領域除外部16は、障害物の位置は基本視認領域外にないと判断し、死角領域を算出する(S16)。ここでは、死角領域除外部16は、障害物検出信号に示される障害物Zまでの距離および障害物の方向と、取得した位置信号に示される自車両Xの位置とを合成することにより、ドライバDの死角領域Aを算出する。
 次に、死角領域除外部16は、基本視認領域から死角領域を除外する(S17)。ここでは、死角領域除外部16は、図6に示す基本視認領域Vから図7に示す死角領域Aを除外する。また、死角領域除外部16は、死角領域Aの除外により、死角除外視認領域Vaを算出する。一方、ステップS14で所定時間内に障害物検出信号が更新されなかったと判断されたり、ステップS15で障害物の位置は基本視認領域外にあると判断された場合、死角領域除外部16による死角領域の除外は行われることなくステップS18に移行する。
 次に、ミラー領域追加部17は、ドライバの視線の方向にミラーが存在するか否かを判断する(S18)。ここでは、ミラー領域追加部17は、基本視認領域算出部15によって算出されたドライバの視線の方向に、記憶されたミラーの位置があるか否かを検出することによりこの判断を行う。ここで、図8に示すように、ドライバDの視線の方向に左のドアミラーがある場合、ミラー領域追加部17は、ドライバの視線の方向にミラーが存在すると判断し、ミラー領域を算出する(S19)。ここでは、ミラー領域追加部17は、視線の方向とミラーの位置とに基づいて、ミラーに映る領域をミラー領域Bとして算出する。
 次に、ミラー領域追加部17は、ミラー領域を追加する(S20)。ここでは、ステップS17で算出された死角除外視認領域VaまたはステップS13で算出された基本視認領域Vに、ミラー領域Bを追加する。また、ミラー領域追加部17は、ミラー領域Bの追加により、ミラー追加視認領域Vbを算出する。一方、ステップS18でドライバの視線の方向にミラーが存在しないと判断された場合、ミラー領域追加部17によるミラー領域の追加は行われることなくステップS21に移行する。
 次に、視認領域決定部18は、視認領域を決定する(S21)。ここでは、視認領域決定部18は、ステップS20で算出されたミラー追加視認領域Vb、ステップS17で算出された死角除外視認領域Va、またはステップS13で算出された基本視認領域Vを、視認領域として決定する。ステップS21で決定された視認領域は、図1に示す視認領域算出部11において算出される視認領域とされる。
 次に、注意度設定部12は、ステップS11~S21において算出された視認領域に対して、ドライバの注意度を設定する(S22)。ここでは、注意度設定部12は、視認領域内の各座標に関連づけて、注意度を設定する。注意度設定部12は、視認領域に対して、一定値の注意度「a」を設定する。なお、視認領域内の位置に応じて、中心視野角内に位置する座標に対しては注意度「b」を設定し、周辺視野角に位置する座標に対しては注意度「b」よりも小さい注意度「c」を設定してもよい。このように視認領域内の位置に応じて注意度に変化をつけることにより、中心視野角の領域に対するドライバの注意状態は、周辺視野角の領域に対するドライバの注意状態よりも比較的高いと推定することができる。
 ステップS11~S22の処理により視認領域が算出されると、図4のフローチャートに戻り、視認領域推定ECU1は、視認領域を記録する(S3)。視認領域推定ECU1における視認領域の記録処理は、注意度設定部12および視認領域記録部13によって、図9に示すフローチャートに従って実行される。まず、視認領域記録部13は、所定時間内に視認領域が更新されたか否かを判断する(S31)。ここでは、視認領域記録部13は、所定時間内にあらたに記録した視認領域があるか否かを検出することによりこの判断を行う。視認領域記録部13は、所定時間内に視認領域が更新されなかったと判断した場合、この判断を繰り返す。
 視認領域記録部13は、所定時間内に視認領域が更新されたと判断すると、更新された視認領域およびその視認領域に対して設定された注意度を記録する(S32)。次に、注意度設定部12は、注意度を更新する(S33)。ここでは、注意度設定部12は、所定時間過去から現在までに算出され視認領域記録部13に記録された各視認領域内の座標に対して、注意度を更新する。
 ステップS33における注意度の更新について、図10および図11を参照して説明する。図10において、視認領域V(t)は、時刻T=tにおける視認領域および注意度を表している。また、w(x,y,z)は、視認領域V(t)内の座標(x,y,z)における注意度を表している。ここで、注意度設定部12は、時刻T=tにおいて注意度w(x,y,z)=aであった視認領域V(t)に対し、重み付け係数fを乗じて注意度w(x,y,z)=a×fと演算することにより、注意度を更新する。
 注意度設定部12に記憶される重み付け係数fは、図11に示すように、ドライバによって視認された時刻が古い視認領域ほど、小さくされている。たとえば、図11(a)に示すように、重み付け係数fは、時刻Tとの差が大きくなるほど小さくされる。図11(a)では、時刻Tとの差に比例して重み付け係数fが減少している。そのため、時刻T=-t0における視認領域では、重み付け係数fはゼロとされる。また、図11(b)に示すように、重み付け係数fは、時刻Tとの差が小さい場合には減少率が大きく、時刻Tとの差が大きくなるほど減少率が小さくされてゼロに漸近されてもよい。
 図9に戻り、視認領域記録部13は、ステップS33で注意度設定部12によって更新された注意度が、しきい値よりも小さいか否かを判断する(S34)。ここでは、視認領域記録部13は、所定時間過去から現在までに記録した各視認領域内の座標(x,y,z)について、その注意度w(x,y,z)が、注意度のしきい値よりも小さいか否かを検出することによりこの判断を行う。視認領域記録部13は、座標(x,y,z)が注意度のしきい値よりも小さいと判断した場合、座標(x,y,z)を除去する(S35)。一方、視認領域記録部13は、座標(x,y,z)は注意度のしきい値以上であると判断した場合、座標(x,y,z)を除去せずにそのまま記録する。
 ステップS31~S35の処理により視認領域が記録されると、図4のフローチャートに戻り、視認領域推定ECU1の視認時空間マップ生成部14は、視認時空間マップを生成する(S4)。ここでは、視認時空間マップ生成部14は、視認領域算出部11によって算出された視認領域と、視認領域記録部13によって記録された過去の各視認領域と、これらの注意度とを合成することにより、視認時空間マップを生成する。また、視認時空間マップ生成部14は、生成した視認時空間マップを運転支援ECU2へ出力する。
 図12は、ステップS4において生成される視認時空間マップの説明図である。視認時空間マップ生成部14は、視認領域算出部11によって算出された視認領域V(T)と、視認領域記録部13によって記録された過去の視認領域V(T-1),V(T-2),V(T-3)とを合成することにより、視認時空間マップM1を生成する。図12では、各視認領域における注意度の大きさは、塗りつぶしの濃淡によって表されている。図12に示すように、視認時空間マップM1においては、ドライバによって視認された時刻が古い視認領域ほど、視認領域が縮小されるとともに、注意度が小さくされる。このような視認時空間マップM1によって、ドライバが現在視認している領域である時系列視認領域が推定される。
 次に、運転支援ECU2による処理に移行し、着眼対象抽出ECU21のセンサ検出マップ生成部24は、センサ検出マップを生成する(S5)。ここでは、センサ検出マップ生成部24は、センサ類から取得した障害物検出信号および位置信号に基づいて、ミリ波レーダ3によって検出された障害物のそれぞれについて相対速度およびTTCを算出する。また、センサ検出マップ生成部24は、各障害物について算出したTTCとしきい値との比較により、しきい値以下のTTCを有する障害物を抽出する。
 さらに、センサ検出マップ生成部24は、取得した障害物検出信号に示される障害物までの距離および障害物の方向と、取得した位置信号に示される自車両の位置とに基づいて、抽出した障害物の位置を算出する。さらに、センサ検出マップ生成部24は、過去に記憶したセンサ検出マップに、あらたに算出した障害物の位置を追加して記憶することにより、センサ検出マップを生成する。
 図13は、ステップS5において生成されるセンサ検出マップの説明図である。図13中の平面図に示すように、自車両Xは、T字路において右折しようとしている。図13に示すセンサ検出マップM2では、自車両Xの前方においてミリ波レーダ3によって検出された障害物が、時系列で示されている。たとえば、時刻t1~t5では、自車両Xの前方において検出された他車両A1が連続して示されている。また、時刻t2~t3および時刻t4~t6では、同じく自車両Xの前方において検出されたバイクである他車両B1が示されている。
 このように、センサ検出マップM2では、TTCがしきい値以下である障害物を記憶することにより、自車両の周囲においてミリ波レーダ3により検出された障害物のうち、ドライバが注視すべき障害物を抽出している。なお、図13では自車両Xの前方において検出された障害物のみについて示しているが、自車両Xの左右側方、および後方のそれぞれにおいて検出される障害物についても同様にセンサ検出マップM2に記憶される。
 次に、視線対象マップ生成部25は、視線対象マップを生成する(S6)。ここでは、視線対象マップ生成部25は、視認領域推定ECU1の視認時空間マップ生成部14から出力される視認時空間マップを取得する。また、視線対象マップ生成部25は、ステップS5で生成されたセンサ検出マップ内の障害物のうち、取得した視認時空間マップに示される時系列視認領域内に位置する障害物を抽出する。さらに、視線対象マップ生成部25は、過去に記憶した視線対象マップに、あらたに抽出した障害物の位置を追加して記憶することにより、視線対象マップを生成する。
 図14は、ステップS6において生成される視線対象マップの説明図である。視線対象マップM3では、図13のセンサ検出マップに示された障害物のうち、時系列視認領域内に位置する障害物が示されている。図14に示す視線対象マップM3では、センサ検出マップM2に示された障害物である他車両A1,A2,B1は、いずれも時系列視認領域内にあったとして黒丸で示されている。この黒丸は、センサ検出マップM2に障害物の位置が記憶されていることを示すものである。このように、視線対象マップM3では、自車両Xの周囲においてドライバが注視すべき障害物のうち、ドライバが現在視認している領域に含まれる障害物を抽出している。
 次に、着眼マップ生成部26は、着眼マップを生成する(S7)。ここでは、着眼マップ生成部26は、ステップS5で生成されたセンサ検出マップに記憶された障害物であって、連続して検出された障害物について、検出された時刻が最も古い位置と最も新しい位置とを記憶する。また、着眼マップ生成部26は、センサ検出マップにおいてある時刻に検出された障害物であって、その時刻から所定時間経過後に更新されたセンサ検出マップでは検出されなかった障害物の予測位置を算出し、記憶する。さらに、着眼マップ生成部26は、過去に記憶した着眼マップに、あらたに記憶した障害物の位置を追加して記憶することにより、着眼マップを生成する。
 図15は、ステップS7において生成される着眼マップの説明図である。着眼マップM4では、センサ検出マップM2において時刻t1~t5で連続して検出された他車両A1のうち、最も古い時刻である時刻t1~t2と最も新しい時刻である時刻t4~t5とに示された他車両A1のみが黒丸で示されている。また、時刻t2~t3で検出された他車両B1は、時刻t3~t4では検出されていなかったが、時刻t3~t4には他車両B1を示す黒丸が追加されている。ここで、時刻t3~t4に示される他車両B1の黒丸には、着眼マップ生成部26によって算出された予測位置が記憶されている。
 着眼マップM4において追加された他車両B1は、時刻t2~t3ではミリ波レーダ3によって検出されたが、時刻t3~t4では検出されなかったバイクである。着眼マップ生成部26は、図15中の平面図に示すように、ミリ波レーダ3で検出されなくなった他車両B1は、他車両A1の背後に位置すると推定している。その場合、他車両B1は、時刻t3~t4において自車両Xのドライバからは視認し得ない位置にあるが、ドライバにとって注視すべき障害物であると考えられる。このように、着眼マップM4では、自車両Xの走行環境においてドライバが最低限着眼すべき対象物を、注視ポイントとして抽出している。
 次に、マップ比較部22は、マップ比較を行う(S8)。ここでは、マップ比較部22は、ステップS6で生成された視線対象マップと、ステップS7で生成された着眼マップとを比較する。また、マップ比較部22は、このマップの比較により、運転支援対象とすべき障害物を判定する。より具体的には、マップ比較部22は、着眼対象抽出マップに記憶された障害物のうち、視線対象マップには含まれていない障害物を、見落とし障害物と判定する。
 図16は、ステップS8の処理におけるマップ比較の説明図である。図16に示すように、マップ比較部22は、マップ比較により時刻t2~t3に示された他車両B1を見落とし対象物と判定している。こうして判定された他車両B1は、ドライバが最低限着眼すべき対象物であるが、ドライバが現在視認している領域である時系列視認領域には含まれない対象物である。
 次に、運転支援制御部23は、運転支援を行う(S9)。ここでは、運転支援制御部23は、運転支援制御部23によって検出された見落とし障害物についての情報をドライバへ提示するよう、運転支援を行う。より具体的には、運転支援制御部23は、見落とし障害物の位置などを含む運転支援信号を生成し、生成した運転支援信号をスピーカ7およびディスプレイ8へ出力する。そして、スピーカ7およびディスプレイ8は、運転支援制御部23からの運転支援信号を取得し、取得した運転支援信号に示される見落とし障害物の位置などを、ドライバに対して音声および画像により報知する。
 以上説明した一連の処理により、運転支援装置Mによる運転支援が実行される。
 運転支援装置Mによる運転支援が、交差点において行われる状態を、図17および図18に示す。図17は、時刻T=t-αにおける状態を示し、図18は、時刻T=tにおける状態を示している。なお、時間αは正の数である。図17においては、時系列視認領域V1および着眼すべき注視ポイントP1~P3が示されている。この時点では、時系列視認領域V1に含まれない注視ポイントP3に位置する歩行者についての情報が、ドライバへ提示される。
 さらに、図17の状態から時間αが経過した後の図18においては、時系列視認領域V2および着眼すべき注視ポイントP4~P10が示されている。また、他車両により死角領域となる死角領域Aは、死角領域除外部16によって除外されるため、時系列視認領域V2には含まれていない。この時点では、注視ポイントP9の一部である、注視ポイントP9と死角領域Aとの重なりの領域A1は、時系列視認領域V2に含まれていない。よって、領域A1に存在するバイクについての情報が、ドライバへ提示される。
 従来技術によれば、たとえば、図18の注視ポイントP6に位置する歩行者は、自車両Xのドライバの視線方向からははずれているため支援対象となっていた。しかしながら、時刻T=t-αから時刻T=tまでの間にドライバが現在視認している領域V2には注視ポイントP6が含まれている。このため、当該歩行者についての情報がドライバへ提示されることにより、ドライバに煩わしさを感じさせることとなっていた。また、従来技術では、領域A1に存在するバイクは、自車両Xのドライバの視線方向には検出されないため支援対象外となっていた。よって、当該バイクについての情報はドライバへ提示されなかった。このため、自車両Xと当該バイクとの衝突回避のための運転支援が行えなかった。
 以上説明したように、本実施形態に係る視認領域推定装置Maによれば、ドライバが視認する視認領域は、ドライバの視線に基づいて、視認領域算出部11によって算出される。また、ドライバが現在視認している領域である時系列視認領域は、所定時間過去から現在までに算出された複数の視認領域V(T)~V(T-3)の履歴に基づいて、視認時空間マップ生成部14によって推定される(図12参照)。このように過去の視認領域も含めて時系列視認領域を推定することにより、ドライバが現在視認している領域を精度良く推定することができる。また、ドライバの視線を障害物に対応させるのではなく領域を基準としているため、処理量が過大となることを防止でき、実時間での推定処理が可能となる。
 また、本実施形態に係る視認領域推定装置Maによれば、注意度設定部12によって、所定時間過去から現在までに算出された複数の視認領域V(t)に関連づけたドライバの注意度wが、複数の視認領域のそれぞれに対して設定される。注意度wが設定されることにより、視認領域の新しさの度合いや視認領域内の位置に応じた注意度の重み付けができる。こうして重み付けされた複数の視認領域の履歴に基づいて時系列視認領域が推定されるため、時系列視認領域におけるドライバの注意状態を正確に推定することができる。
 また、通常、過去の視認領域であるほど、当該視認領域における現在のドライバの注意度は減少していると考えられる。本実施形態に係る視認領域推定装置Maによれば、注意度設定部12によって、ドライバによって視認された時刻が古い視認領域ほど注意度wが小さく設定される。このように時間の経過に伴うドライバの注意度wの減少を視認領域に反映することにより、時系列視認領域におけるドライバの注意状態をより一層正確に推定することができる。
 また、本実施形態に係る視認領域推定装置Maによれば、基本視認領域算出部15によって、ドライバDの視線の方向に基づいて定まる基本視認領域Vが算出される(図6参照)。また、死角領域除外部16によって、基本視認領域Vに存在する障害物Zにより生じるドライバDの死角領域Aが基本視認領域Vから除外されることにより死角除外視認領域Vaが算出される(図7参照)。こうして死角領域Aを除外した領域を視認領域とすることにより、ドライバDにとって実際には視認し得ない死角領域Aは視認領域に含まれなくなる。よって、死角領域Aが視認領域と判定されるような誤推定を防止できる。
 また、本実施形態に係る視認領域推定装置Maによれば、ミラー領域追加部17によって、ドライバDの視線の方向にミラーが存在する場合に、ミラーを介してドライバDにより視認可能となるミラー領域Bが基本視認領域Vに追加されることによりミラー追加視認領域Vbが算出される(図8参照)。こうしてミラー領域Bを追加した領域を視認領域とすることにより、ミラーを介してドライバDにより間接的に視認されうる領域が視認領域に含まれる。よって、直接的な視認のみならず間接的な視認による視認領域を推定できる。
 また、本実施形態に係る運転支援装置Mによれば、走行環境の中からドライバが注視すべき注視ポイントは、着眼マップ生成部26によって抽出される(図15参照)。また、注視ポイントが時系列視認領域内に位置するか否かに応じて、注視ポイントに対するドライバの注意状態がマップ比較部22によって判定される(図16参照)。このように時系列視認領域と注視ポイントとの比較によってドライバの注意状態が判定されるため、ドライバの視線と注視ポイントとを対応させる必要がなくなる。よって、処理量が過大となることを防止でき、実時間での判定処理が可能となる。
 また、本実施形態に係る運転支援装置Mによれば、視認領域推定装置Maによって基本視認領域Vから死角領域Aが除外されるため、障害物などによって隠れた領域からの飛び出しなどが発生しそうな場合に、警報などによるドライバの注意喚起が可能となる。また、視認領域推定装置Maによって基本視認領域Vにミラー領域Bが追加されるため、ドライバがミラーにより確認済みの障害物に対して注意喚起などが行われることはなく、ドライバの煩わしさを低減できる。
 このように、本実施形態に係る運転支援装置Mおよび視認領域推定装置Maでは、ドライバの把握している領域を、シーンの時間的な変化を考慮した上で算出し、時々刻々変化する周辺環境の中から注視すべき注視ポイントを絞り込む。そして、絞り込んだポイントが算出した領域に含まれるか否かを判定することにより、見落としを検出することができる。よって、ドライバに不信感や煩わしさを与えることがなく、また、ドライバの過信を抑制できる。
 以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限られるものではない。たとえば、上記実施形態では、障害物を検出するためにミリ波レーダを用いる場合について示したが、レーザレーダやカメラを用いてもよい。また、上記実施形態では、ドライバの視線の方向を算出するためにカメラを用いる場合について示したが、ドライバの眼球の周囲における眼電位の測定により筋肉の動きを検知する、装着型センサを用いてもよい。
 また、上記実施形態では、自車両の車速に応じたドライバの有効視野角および射程が記憶されていることとしたが、たとえば、ドライバの視力や周辺の明るさに応じて視認領域の算出条件を変化させてもよい。また、上記実施形態では、視認領域に対して設定される注意度は、視認領域記録部13における記録または除去の判断のために用いたが、たとえば注意度に応じてスピーカ7の音量を変えるなど、ドライバへの情報提示の態様を変化させてもよい。
 本発明によれば、ドライバが視認している領域を実時間で精度良く推定できる。
 11…視認領域算出部(視認領域算出手段)、12…注意度設定部(注意度設定手段)、14…視認時空間マップ生成部(時系列視認領域推定手段)、15…基本視認領域算出部(基本視認領域算出手段)、16…死角領域除外部(死角領域除外手段)、17…ミラー領域追加部(ミラー領域追加手段)、22…マップ比較部(注視ポイント抽出手段)、26…着眼マップ生成部(注意状態判定手段)、A…死角領域、B…ミラー領域、M…運転支援装置、Ma…視認領域推定装置、P1~P10…注視ポイント、T…時刻、V…基本視認領域、V1,V2…時系列視認領域、Va…死角除外視認領域(視認領域)、Vb…ミラー追加視認領域(視認領域)、w…注意度、Z…障害物。

Claims (6)

  1.  ドライバの視線に基づいて前記ドライバが視認する視認領域を算出する視認領域算出手段と、
     所定時間過去から現在までに算出された複数の視認領域の履歴に基づいて前記ドライバが現在視認している領域である時系列視認領域を推定する時系列視認領域推定手段と、
    を備えることを特徴とする視認領域推定装置。
  2.  前記所定時間過去から現在までに算出された前記複数の視認領域に関連づけた前記ドライバの注意度を前記複数の視認領域のそれぞれに対して設定する注意度設定手段を備える請求項1記載の視認領域推定装置。
  3.  前記注意度設定手段は、前記ドライバによって視認された時刻が古い視認領域ほど前記注意度を小さく設定する請求項2記載の視認領域推定装置。
  4.  前記視認領域算出手段は、前記ドライバの視線の方向に基づいて定まる基本視認領域を算出する基本視認領域算出手段と、
     前記基本視認領域に存在する障害物により生じる前記ドライバの死角領域を推定し、前記基本視認領域から前記死角領域を除外することにより前記視認領域を算出する死角領域除外手段と、を備える請求項1~3のいずれか一項記載の視認領域推定装置。
  5.  前記視認領域算出手段は、前記ドライバの視線の方向に基づいて定まる基本視認領域を算出する基本視認領域算出手段と、
     前記ドライバの視線の方向にミラーが存在する場合に、前記ミラーを介して前記ドライバにより視認可能となるミラー領域を推定し、前記基本視認領域に前記ミラー領域を追加することにより前記視認領域を算出するミラー領域追加手段を備える請求項1~3のいずれか一項記載の視認領域推定装置。
  6.  請求項1~5のいずれか一項記載の視認領域推定装置を備え、
     走行環境の中からドライバが注視すべき注視ポイントを抽出する注視ポイント抽出手段と、
     前記時系列視認領域内に前記注視ポイントが位置するか否かに応じて、前記注視ポイントに対する前記ドライバの注意状態を判定する注意状態判定手段と、を備える運転支援装置。
PCT/JP2009/058850 2009-05-12 2009-05-12 視認領域推定装置および運転支援装置 WO2010131331A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/143,501 US8452528B2 (en) 2009-05-12 2009-05-12 Visual recognition area estimation device and driving support device
DE112009004768.8T DE112009004768B4 (de) 2009-05-12 2009-05-12 Abschätzvorrichtung für den visuellen erkennungsbereich und antriebsunterstützungsvorrichtung
JP2011513149A JP5257514B2 (ja) 2009-05-12 2009-05-12 視認領域推定装置および運転支援装置
PCT/JP2009/058850 WO2010131331A1 (ja) 2009-05-12 2009-05-12 視認領域推定装置および運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/058850 WO2010131331A1 (ja) 2009-05-12 2009-05-12 視認領域推定装置および運転支援装置

Publications (1)

Publication Number Publication Date
WO2010131331A1 true WO2010131331A1 (ja) 2010-11-18

Family

ID=43084721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/058850 WO2010131331A1 (ja) 2009-05-12 2009-05-12 視認領域推定装置および運転支援装置

Country Status (4)

Country Link
US (1) US8452528B2 (ja)
JP (1) JP5257514B2 (ja)
DE (1) DE112009004768B4 (ja)
WO (1) WO2010131331A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212357A (ja) * 2011-03-31 2012-11-01 Panasonic Corp 車載用表示装置
JP2014120112A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015170249A (ja) * 2014-03-10 2015-09-28 株式会社デンソーアイティーラボラトリ 安全確認判定装置、及び運転支援装置
JP2017162083A (ja) * 2016-03-08 2017-09-14 株式会社デンソー 報知装置
WO2018008085A1 (ja) * 2016-07-05 2018-01-11 三菱電機株式会社 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
US11804045B2 (en) 2019-01-11 2023-10-31 Nec Corporation Monitoring device, monitoring method, and recording medium

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130173378A1 (en) * 2012-01-03 2013-07-04 Really Epic Dog, Ltd. Systems and methods for adaptive marketing using interactive feedback
JP2015026004A (ja) * 2013-07-29 2015-02-05 いすゞ自動車株式会社 視認行動評価装置
US10115164B1 (en) 2013-10-04 2018-10-30 State Farm Mutual Automobile Insurance Company Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment
US20160147299A1 (en) * 2014-11-24 2016-05-26 Hyundai Motor Company Apparatus and method for displaying image of head up display
DE102014117830A1 (de) 2014-12-04 2016-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen eines fahrerspezifischen Totwinkelfeldes für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015117610A1 (de) * 2015-10-16 2017-04-20 Connaught Electronics Ltd. Verfahren zum Überprüfen einer Wahrnehmung eines visuellen Warnhinweises durch einen Fahrzeugnutzer, Fahrerassistenzsystem und Kraftfahrzeug
EP3414641B1 (en) * 2016-02-10 2023-05-24 HRL Laboratories, LLC System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation
US10755082B2 (en) 2016-10-25 2020-08-25 Deep North, Inc. Point to set similarity comparison and deep feature learning for visual recognition
JP2018097398A (ja) * 2016-12-07 2018-06-21 トヨタ自動車株式会社 視線推定システム
CN113574524A (zh) * 2018-10-18 2021-10-29 自动智能科技有限公司 用于障碍物检测的方法和系统
US10661776B1 (en) * 2018-11-21 2020-05-26 Hyundai Motor Company Apparatus and method for controlling transmission of vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205497A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2003080969A (ja) * 2001-09-11 2003-03-19 Nissan Motor Co Ltd 運転者状態検出装置
JP2006163828A (ja) * 2004-12-07 2006-06-22 Nissan Motor Co Ltd 車両用警報装置、車両周囲状況の警報方法
JP2007334810A (ja) * 2006-06-19 2007-12-27 Toshiba Corp 画像領域追跡装置及びその方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307C2 (de) * 1997-08-08 1999-06-10 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
JP4342708B2 (ja) * 2000-09-06 2009-10-14 本田技研工業株式会社 ドライバの視線領域の適合性を判定する車載情報処理装置
JP5179686B2 (ja) * 2001-09-25 2013-04-10 株式会社豊田中央研究所 運転行動危険度演算装置
DE60330980D1 (de) 2002-10-15 2010-03-04 Volvo Technology Corp Verfahren für die auswertung der kopf- und augenaktivität einer person
JP4277081B2 (ja) 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
WO2005114576A1 (ja) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha 動作内容判定装置
JP2008262388A (ja) 2007-04-12 2008-10-30 Toyota Central R&D Labs Inc 安全確認アドバイス装置
US8588466B2 (en) * 2007-07-05 2013-11-19 Nec Corporation Object area detection system, device, method, and program for detecting an object
JP5177515B2 (ja) * 2008-06-02 2013-04-03 アイシン精機株式会社 周辺認知支援システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205497A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2003080969A (ja) * 2001-09-11 2003-03-19 Nissan Motor Co Ltd 運転者状態検出装置
JP2006163828A (ja) * 2004-12-07 2006-06-22 Nissan Motor Co Ltd 車両用警報装置、車両周囲状況の警報方法
JP2007334810A (ja) * 2006-06-19 2007-12-27 Toshiba Corp 画像領域追跡装置及びその方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212357A (ja) * 2011-03-31 2012-11-01 Panasonic Corp 車載用表示装置
JP2014120112A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015170249A (ja) * 2014-03-10 2015-09-28 株式会社デンソーアイティーラボラトリ 安全確認判定装置、及び運転支援装置
JP2017162083A (ja) * 2016-03-08 2017-09-14 株式会社デンソー 報知装置
WO2018008085A1 (ja) * 2016-07-05 2018-01-11 三菱電機株式会社 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
JPWO2018008085A1 (ja) * 2016-07-05 2018-09-27 三菱電機株式会社 認知領域推定装置、認知領域推定方法および認知領域推定プログラム
CN109416884A (zh) * 2016-07-05 2019-03-01 三菱电机株式会社 识别区域推定装置、识别区域推定方法及识别区域推定程序
US10814788B2 (en) 2016-07-05 2020-10-27 Mitsubishi Electric Corporation Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
CN109416884B (zh) * 2016-07-05 2021-02-19 三菱电机株式会社 识别区域推定装置、识别区域推定方法及识别区域推定程序
US11804045B2 (en) 2019-01-11 2023-10-31 Nec Corporation Monitoring device, monitoring method, and recording medium

Also Published As

Publication number Publication date
JPWO2010131331A1 (ja) 2012-11-01
US20120046857A1 (en) 2012-02-23
JP5257514B2 (ja) 2013-08-07
DE112009004768T5 (de) 2012-10-11
US8452528B2 (en) 2013-05-28
DE112009004768B4 (de) 2018-01-04

Similar Documents

Publication Publication Date Title
JP5257514B2 (ja) 視認領域推定装置および運転支援装置
JP5718942B2 (ja) 輸送手段の安全な運転を補助する装置及び方法
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
KR102051142B1 (ko) 차량용 운전자 위험 지수 관리 시스템 및 그 방법
JP4981566B2 (ja) 運転支援装置および運転支援方法
JP4872245B2 (ja) 歩行者認識装置
JP4722777B2 (ja) 障害物認識判定装置
CN111976598A (zh) 车辆盲区监测方法及系统
EP2544161A1 (en) Surrounding area monitoring device for vehicle
JP2007094716A (ja) 車両の運転支援装置
WO2015166059A1 (en) Control apparatus and related method
JP7210929B2 (ja) 運転意識推定装置
JP5601930B2 (ja) 車両用表示装置
JPWO2011108217A1 (ja) 車両の周辺監視装置
US9830826B2 (en) Driving assistance apparatus
JP2016057839A (ja) 顔向き検出装置及び車両用警告システム
JP4647387B2 (ja) 車両の運転支援装置
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP2020071537A (ja) 運転支援装置
JP6213435B2 (ja) 注意過多状態判定装置及び注意過多状態判定プログラム
CN112092809A (zh) 一种辅助倒车方法、装置、系统及车辆
US11878698B2 (en) Display control device, display control method, and storage medium storing display control program
JP2020086907A (ja) 漫然運転判定装置
JP6552285B2 (ja) 車載表示装置及び車両後方映像表示方法
KR102604054B1 (ko) 차량 내 경보 발생 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09844605

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011513149

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13143501

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120090047688

Country of ref document: DE

Ref document number: 112009004768

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09844605

Country of ref document: EP

Kind code of ref document: A1