WO2020213105A1 - 画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020213105A1
WO2020213105A1 PCT/JP2019/016531 JP2019016531W WO2020213105A1 WO 2020213105 A1 WO2020213105 A1 WO 2020213105A1 JP 2019016531 W JP2019016531 W JP 2019016531W WO 2020213105 A1 WO2020213105 A1 WO 2020213105A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
vehicle
movement range
unit
Prior art date
Application number
PCT/JP2019/016531
Other languages
English (en)
French (fr)
Inventor
亮磨 大網
秀樹 雨宮
一気 尾形
洸陽 柴田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/016531 priority Critical patent/WO2020213105A1/ja
Priority to JP2021514728A priority patent/JP7238973B2/ja
Priority to US17/603,663 priority patent/US20220198809A1/en
Publication of WO2020213105A1 publication Critical patent/WO2020213105A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to an image presentation device, an image presentation method, and a non-temporary computer-readable medium in which a program is stored.
  • Patent Document 1 discloses an in-vehicle navigation device.
  • the device according to Patent Document 1 includes a speed detecting means for detecting the speed of a vehicle, a calculating means for calculating a stoptable range associated with a deceleration operation of the vehicle according to the speed of the vehicle detected by the speed detecting means, and a display means.
  • the display means displays together with the map data displaying the stoptable range of the vehicle calculated by the calculation means.
  • Patent Document 2 describes a vehicle capable of alerting any driver to avoid a collision with an obstacle reliably and accurately regardless of the driver's sense and skill.
  • the device according to Patent Document 2 includes an imaging unit mounted on a vehicle to capture an image captured around the vehicle, an information acquisition unit for acquiring vehicle speed information, and an image signal of the captured image output from the imaging unit. It has an image processing unit for processing. Further, the image processing unit includes an image superimposing unit that superimposes an image relating to the braking range according to the speed information of the vehicle acquired by the information acquisition unit on the captured image.
  • Patent Document 3 discloses an obstacle detection device for a vehicle that predicts the moving direction and moving distance of the own vehicle and the obstacle and determines the possibility of contact between the own vehicle and the obstacle.
  • an obstacle is detected from the images taken by the first camera and the second camera.
  • the obstacle position calculation unit and the own vehicle position calculation unit calculate prediction vectors representing the future movement direction and movement distance of the obstacle and the own vehicle based on the past movement direction and movement distance, respectively, of the first camera. It is superimposed and displayed on the captured image.
  • the determination unit determines the possibility of contact between the own vehicle and an obstacle based on the prediction vector, and issues an alarm based on the determination result.
  • the technique according to Patent Document 2 merely superimposes an image relating to a braking range according to the speed information of the vehicle on the captured image, and does not recognize an obstacle. Therefore, in the technique according to Patent Document 2, there is a possibility that the presentation for avoiding the collision between the vehicle and the obstacle cannot be appropriately performed until the vehicle stops. Further, in the technique according to Patent Document 3, only the moving direction and the moving distance of the own vehicle and the obstacle are predicted and the possibility of contact between the own vehicle and the obstacle is determined, and until the vehicle stops. No consideration is given to the range of movement. Therefore, in the technique according to Patent Document 3, there is a possibility that the presentation for avoiding the collision between the vehicle and the obstacle cannot be appropriately performed until the vehicle stops.
  • the purpose of the present disclosure is to solve such a problem, and to present an image capable of assisting in avoiding a collision between the vehicle and an obstacle before the vehicle stops.
  • the purpose is to provide an apparatus, an image presentation method, and a program.
  • the image presenting device includes a vehicle speed acquisition means for acquiring a vehicle speed which is a vehicle speed, and a movement range calculation means for calculating a pre-stop movement range in which the vehicle moves before the vehicle stops based on the vehicle speed.
  • the sensor information acquisition means for acquiring the object detection information about the detected object around the vehicle detected by the sensor, the movement range before stopping, and the position of the detected object included in the object detection information are displayed on the screen.
  • the position of the detection object which is superimposed on the above and is estimated to have an overlap with the movement range before the stop based on the position information of the detection object, is displayed more emphasized than the positions of other detection objects. It has an image superimposing means for generating a superposed image to be generated, and an image presenting means for presenting the generated superposed image.
  • the vehicle speed which is the speed of the vehicle
  • the movement range before the stop in which the vehicle moves until the vehicle stops is calculated based on the vehicle speed, and is detected by using a sensor.
  • the object detection information about the detected object around the vehicle is acquired, the movement range before stopping and the position of the detected object included in the object detection information are superimposed on the screen, and the position information of the detected object is superimposed.
  • a superposed image is generated in which the position of the detected object estimated to have an overlap with the pre-stop movement range is emphasized and displayed more than the position of the other detected object, and the generated superimposition is generated.
  • the generated superimposition is generated.
  • the program according to the present disclosure uses a sensor, a step of acquiring a vehicle speed which is a vehicle speed, a step of calculating a pre-stop movement range in which the vehicle moves before the vehicle stops, based on the vehicle speed.
  • the step of acquiring the detected object detection information about the detected object around the vehicle, the movement range before the stop, and the position of the detected object included in the object detection information are superimposed on the screen, and the detected object is superimposed.
  • the step of generating a superposed image that displays the position of the detection object estimated to have an overlap with the movement range before the stop based on the position information of the other detection objects more emphasized than the positions of other detection objects.
  • the computer perform the steps of presenting the generated superimposed image.
  • an image presentation device an image presentation method, and a program capable of assisting in avoiding a collision between a vehicle and an obstacle before the vehicle stops.
  • FIG. It is a figure which shows the outline of the image presenting apparatus which concerns on embodiment of this disclosure. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the image presentation method executed by the image presentation apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which illustrates the moving range which moves before the vehicle stops. It is a figure which illustrates the moving range which moves before the vehicle stops. It is a figure which illustrates the moving range which moves before the vehicle stops. It is a graph which shows the example of the change of speed from the start of a braking operation to the stop of a vehicle. It is a figure which illustrates the own vehicle relative coordinate system.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 1.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 1.
  • FIG. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the image presentation method executed by the image presentation apparatus which concerns on Embodiment 2.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 2.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 2.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 2.
  • FIG. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 3.
  • FIG. 5 is a flowchart showing an image presentation method executed by the image presentation device according to the third embodiment. It is a figure which illustrates the superimposition image which concerns on Embodiment 3.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 3.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 3.
  • FIG. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 4.
  • FIG. It is a flowchart which shows the image presentation method executed by the image presentation apparatus which concerns on Embodiment 4.
  • FIG. It is a figure which illustrates the superimposition image which concerns on Embodiment 4.
  • FIG. 5 is a flowchart showing an image presentation method executed by the image presentation device according to the fifth embodiment. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 6. It is a flowchart which shows the image presentation method executed by the image presenting apparatus which concerns on Embodiment 6. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 7.
  • FIG. 5 is a flowchart showing an image presentation method executed by the image presentation device according to the seventh embodiment. It is a figure which shows the structure of the image presenting apparatus which concerns on Embodiment 8.
  • FIG. 9 is a flowchart showing an image presentation method executed by the image presentation device according to the ninth embodiment. It is a figure which illustrates the hardware configuration for realizing the image presenting apparatus.
  • FIG. 1 is a diagram showing an outline of an image presentation device 1 according to an embodiment of the present disclosure.
  • the image presentation device 1 includes a vehicle speed acquisition unit 2, a movement range calculation unit 4, a sensor information acquisition unit 6, an image superimposition unit 8, and an image presentation unit 10.
  • the vehicle speed acquisition unit 2, the movement range calculation unit 4, the sensor information acquisition unit 6, the image superimposition unit 8 and the image presentation unit 10 respectively have a vehicle speed acquisition means, a movement range calculation means, a sensor information acquisition means, an image superimposition means and an image presentation. Functions as a means.
  • the vehicle speed acquisition unit 2 acquires the vehicle speed, which is the speed of the vehicle.
  • the vehicle is, for example, a passenger car, etc., but is not limited to this.
  • the movement range calculation unit 4 calculates the pre-stop movement range in which the vehicle moves before the vehicle stops, based on the vehicle speed.
  • the sensor information acquisition unit 6 acquires object detection information regarding the detected objects around the vehicle detected by using the sensor.
  • the image superimposing unit 8 superimposes the movement range before stopping and the position of the detected object included in the object detection information on the screen. Further, the image superimposing unit 8 sets the position of the detected object, which is estimated to have an overlap with the movement range before stopping based on the position information of the detected object included in the object detection information, from the position of another detected object. Generates a superimposed image that also emphasizes and displays.
  • the image presentation unit 10 presents the generated superimposed image.
  • a device has been proposed that calculates the stop position when decelerating based on the current vehicle speed and presents it to the driver.
  • the stoptable distance is calculated from the current vehicle speed and stopped on the map together with the target point.
  • a vehicle-mounted navigation device that superimposes possible ranges will be disclosed.
  • the speed of the vehicle is detected, and the distance at which the vehicle can stop is obtained based on the ideal deceleration operation with respect to the detected speed.
  • the range in which the vehicle can be stopped is required in consideration of vehicle information such as weight, road surface information, driving time zone, and habit of deceleration operation of the driver.
  • the stoptable range is presented by a method of presenting with a figure whose width gradually widens as it approaches the ideal stop position, and is colored according to the degree of deceleration.
  • Patent Document 2 when the image of the camera is presented to the driver when the vehicle is lowered to the rear, the area that can be moved to the stop at the vehicle speed at that time is obtained as a dangerous area, and the area is superimposed on the image and presented. Disclose how to do this.
  • braking characteristics such as vehicle weight, road surface condition, and driver's braking operation are also taken into consideration.
  • the free running distance from the recognition to the actual braking may be considered.
  • Hazardous areas are presented using blinking, striped patterns or arrows, in addition to being indicated by borders.
  • Patent Document 1 On the other hand, what is superimposed and presented on the map in Patent Document 1 is only the information of the distance traveled until the target point is reached, and the superimposed range itself stops the vehicle from the start of the braking operation. It does not indicate the area through which the vehicle body passes. Patent Document 1 also discloses that road or facility data included in the stoptable range is displayed in a conspicuous manner. However, this display does not present an object that can collide, but merely presents a target that can be used as a reference when stopping. Therefore, this display is not intended to avoid collisions. Therefore, the technique according to Patent Document 1 cannot support collision avoidance with an obstacle.
  • Patent Document 2 presents an area that can be passed by the time the vehicle stops as a dangerous area.
  • it is a method of simply superimposing on the image, it is difficult to grasp whether or not the object on the image may collide with the vehicle.
  • the farther the object is from the vehicle the shallower the depression angle from the camera, making it difficult to grasp the distance. Therefore, it is difficult for the driver to judge whether or not the object is included in the danger zone even when viewed from the image.
  • Patent Document 2 since the obstacle itself is not detected, it is not possible to highlight an object that may collide or issue an alert for avoiding a collision.
  • Patent Document 2 detects an object that can collide and presents the object in consideration of the measurement error of the position of the object, and can collide with the vehicle in consideration of the relative speed of the object with respect to the vehicle. It does not disclose the determination of sex. Therefore, in the technique according to Patent Document 2, it is difficult to appropriately support the driver when there is an error in the estimated position of the object or when the object that may collide with the vehicle is moving. There is a problem.
  • the position of the detection object presumed to have an overlap with the movement range before stopping is set to the position of another detection object. Generates a superposed image that is emphasized rather than the position.
  • “there is a possibility of having an overlap with the movement range before stopping” may include, for example, that the error range overlaps with the movement range before stopping when there is an error in the estimated position of the object.
  • “may have overlap with the movement range before stopping” may include the possibility of colliding with the vehicle when the object is moving. Therefore, by presenting this generated superimposed image, the driver can grasp the urgency of the collision of the object with the vehicle at an early stage and avoid the collision between the vehicle and the obstacle before the vehicle stops. It is possible to perform such an operation. Therefore, the image presenting device 1 according to the present disclosure can provide support so as to avoid a collision between the vehicle and an obstacle until the vehicle stops.
  • FIG. 2 is a diagram showing the configuration of the image presentation device 100 according to the first embodiment.
  • FIG. 3 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the first embodiment.
  • the image presenting device 100 corresponds to the image presenting device 1 shown in FIG. 1 and functions as a vehicle surrounding object presenting device that presents information about objects around the vehicle (the same applies to other embodiments).
  • the image presentation device 100 includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, a position estimation error calculation unit 104, an image superimposition unit 105, and an image. It has a presentation unit 106.
  • the vehicle speed acquisition unit 101 corresponds to the vehicle speed acquisition unit 2 shown in FIG. 1 and functions as a vehicle speed acquisition means.
  • the vehicle stop movement range calculation unit 102 corresponds to the movement range calculation unit 4 shown in FIG. 1 and functions as a vehicle stop movement range calculation means.
  • the sensor information acquisition unit 103 corresponds to the sensor information acquisition unit 6 shown in FIG. 1 and functions as a sensor information acquisition unit.
  • the position estimation error calculation unit 104 functions as a position estimation error calculation means.
  • the image superimposing unit 105 corresponds to the image superimposing unit 8 shown in FIG. 1 and functions as an image superimposing means.
  • the image presentation unit 106 corresponds to the image presentation unit 10 shown in FIG. 1 and functions as an image presentation means.
  • the vehicle speed acquisition unit 101 acquires vehicle speed information indicating the speed of the vehicle and outputs the vehicle speed information to the movement range calculation unit 102 before the vehicle stops (step S102). Based on the vehicle speed information, the vehicle stop movement range calculation unit 102 calculates the movement range information indicating the range in which the vehicle can move before stopping when the brake is pressed at that time, and outputs the movement range information to the image superimposition unit 105. (Step S104).
  • the sensor information acquisition unit 103 detects an object using the sensor, acquires the object detection information, and outputs the object detection information to the image superimposition unit 105 and the position estimation error calculation unit 104 (step S106).
  • the position estimation error calculation unit 104 estimates the position error of the detected object (calculates the position estimation error), and outputs the position estimation error information indicating the estimated error to the image superimposition unit 105 (step S108). ..
  • the image superimposition unit 105 generates a superposed image in which the movement range information, the object detection information, and the position estimation error information are superposed, and outputs the superposed image information indicating the superposed image to the image presenting unit 106 (step S110). ..
  • the image presenting unit 106 presents (displays) the superimposed image information output from the image superimposing unit 105 (step S112).
  • the vehicle speed acquisition unit 101 acquires speed information of a vehicle (hereinafter referred to as own vehicle) on which the image presenting device 100 is mounted.
  • the vehicle speed acquisition unit 101 can acquire vehicle speed information using, for example, a vehicle speed sensor mounted on the vehicle.
  • the acquired vehicle speed information is output to the movement range calculation unit 102 before the vehicle stops.
  • the vehicle movement range calculation unit 102 calculates the range in which the vehicle can move and pass when the deceleration operation is performed at the present time (hereinafter, referred to as the movement range before stop, or simply the movement range). ..
  • the vehicle speed at the present time is v and the vehicle decelerates at a constant acceleration ⁇ a (where a> 0)
  • the distance d traveled until the vehicle stops is given by the following equation 1.
  • FIG. 4 to 6 are diagrams illustrating a movement range in which the vehicle moves before the vehicle stops. Assuming that the vehicle travels straight before the vehicle stops, as shown in FIG. 4, a rectangular region determined by the vehicle width w and the distance d represented by the equation 1 is the movement range before stopping. As described above, basically, the movement range (movement range) before stopping is determined by the vehicle width w and the distance d to travel to the stop.
  • the range of movement before stopping may gradually expand as the distance from the vehicle increases.
  • the shape may be a trapezoid whose traveling direction side is widened by ⁇ w.
  • the degree of widening ⁇ w may be a predetermined value.
  • ⁇ w may be calculated by estimating the degree to which the traveling direction of the vehicle sways laterally based on the driving history of the driver. That is, in the case of a driver whose traveling direction sways laterally, ⁇ w may be set larger than that of a normal driver.
  • the degree of lateral sway can be determined by acquiring the driving history and obtaining the average sway.
  • the movement range before stopping may be determined according to the shape of the road. For example, when the road curves to the right as shown in FIG. 6, the movement range before stopping may be bent according to the curve of the road.
  • the distance d that the vehicle moves before stopping changes not only with the vehicle speed v but also with the acceleration a.
  • a predetermined value may be used as the value of the acceleration a.
  • the value of the acceleration a may change depending on the condition of the road surface, the slope of the road, or the like. Therefore, if it is possible to separately obtain information such as whether or not the road surface is wet, weather information, or information on the slope of the road, the acceleration may be determined in consideration of these information as well. That is, when the road surface is wet, frozen, or snow is piled up, the movement range calculation unit 102 before the vehicle stops obtains the value of the distance d using an acceleration whose absolute value is smaller than the normal time. It may be.
  • the acceleration can also change depending on the habit of deceleration operation such as how much the driver depresses the brake when stepping on the brake, or the weight of the vehicle including people and loads. Therefore, the movement range calculation unit 102 before stopping the vehicle monitors the vehicle speed, records the history of the speed and acceleration up to the previous time, and statistically processes and calculates the value of the acceleration during the deceleration operation. Good. For example, the average value, the median value, the mode value, or the like of the acquired values can be used.
  • the acceleration is uniform, but the acceleration does not necessarily have to be uniform.
  • the acceleration may change accordingly.
  • the speed is represented by the function v (t) of the time t and the current time is t 0
  • the distance d to be moved before the vehicle stops is calculated by the following equation 2.
  • the time ⁇ is the time required for the speed to reach 0, that is, the time required for the vehicle to stop (hereinafter referred to as the elapsed time before stopping), and is a value satisfying the following equation 3. Therefore, the vehicle speed pre-stop movement range calculation unit 102 learns the tendency of the vehicle speed change with time during the deceleration operation of the driver from the vehicle speed history information, obtains the function v (t), and uses it to calculate the pre-stop movement range. You may do so.
  • FIG. 7 is a graph showing an example of the change in speed from the start of the braking operation to the stop of the vehicle.
  • the braking operation starts at time t0, that is, the brake is stepped on.
  • the function v (t) is a function related to the graph shown in FIG. 7, the vehicle stop movement range calculation unit 102 can calculate the distance d by obtaining the area of the shaded portion.
  • the vehicle stop movement range calculation unit 102 moves to ⁇ t from the time when the driver recognizes the necessity of stepping on the brake until the driver actually steps on the brake, that is, the distance d in consideration of the so-called free running distance v ⁇ t. May be sought. That is, the moving range calculation unit 102 before stopping the vehicle may increase the distance d by the amount of the free running distance v ⁇ t.
  • the movement range calculation unit 102 before the vehicle stops may calculate a plurality of movement range information.
  • the vehicle stop movement range calculation unit 102 may calculate the movement range information indicating the movement range before the stop for each of the plurality of accelerations, and output the calculated movement range information.
  • the vehicle stop movement range calculation unit 102 may add the pre-stop elapsed time information indicating the pre-stop elapsed time ⁇ to the movement range information.
  • the acceleration is constant at ⁇ a
  • the vehicle moving range calculation unit 102 before stopping may obtain the elapsed time ⁇ before stopping by learning the tendency of the driver's deceleration operation from the history information of the vehicle speed.
  • the movement range information calculated in this way is output to the image superimposing unit 105.
  • the sensor information acquisition unit 103 acquires the position information of the object (detection object) detected by the sensor.
  • the sensor is a sensor attached to the vehicle for detecting an object existing around the vehicle, and is a millimeter wave radar, LiDAR (Light Detection and Ringing), a camera, or the like.
  • the sensor is not limited to these, and any sensor used for the same purpose may be used.
  • the object information detected by these sensors is output as the object detection information.
  • the object detection information may differ depending on the type of sensor, but at least includes the position information of the detected object.
  • the position information can be calculated as the relative coordinates with respect to the own vehicle. That is, the position information of the detection object is converted into coordinate values in a coordinate system determined based on the reference position of the own vehicle (hereinafter referred to as the relative coordinate system of the own vehicle) and output.
  • FIG. 8 is a diagram illustrating the relative coordinate system of the own vehicle.
  • the center of the front part of the vehicle is the origin
  • the width direction of the vehicle is the X axis (right direction is positive)
  • the front-rear direction of the vehicle is the Y axis (front direction). It is a coordinate system that is positive).
  • the sensor is a millimeter-wave radar
  • the distance from the sensor and the direction to the sensor are acquired for each detected object.
  • This acquired position information is converted into the above-mentioned own vehicle relative coordinate system and output.
  • the sensor is a camera
  • object detection processing is performed on the captured image
  • the object position on the image is acquired.
  • This object position is converted into a real-world coordinate system using camera parameters acquired by calibration or the like, and further converted into the above-mentioned own vehicle relative coordinate system and output.
  • the object detection information may include information on the size or height of the object or other attribute information in addition to the position information.
  • the size and height values of the object can also be obtained from the result of object detection.
  • the object detection information may include information on an external feature amount (visual feature amount) such as an object color or pattern.
  • the object detection information may include as many object information as the number of detected objects. For example, when N objects are detected, the object detection information includes N object information including the position information of each object. At this time, the sensor information acquisition unit 103 assigns an object ID to the detection result so that each detection result can be distinguished for which object.
  • the object detection information obtained in this way is output to the position estimation error calculation unit 104 and the image superimposition unit 105.
  • the position estimation error calculation unit 104 calculates the position estimation error (position estimation error) for each of the detected objects.
  • the position estimation error calculation unit 104 outputs the position estimation error information indicating the calculated position estimation error to the image superimposition unit 105.
  • the position estimation error is information for estimating how much error the observed position information has spatially.
  • the magnitude of the error generally depends on the position of the observed object. For example, if the sensor is a millimeter-wave radar, observation errors may occur in the detected distance to the object and the information on the orientation of the object. The error in the directional direction (horizontal direction) increases as the distance from the sensor to the object increases.
  • the position estimation error calculation unit 104 models the tendency of such an error and stores this model. Then, the position estimation error calculation unit 104 uses this model to calculate how much error can be included in the position coordinates of the object according to the observed position.
  • the position estimation error calculation unit 104 calculates errors in the distance direction and the azimuth direction for each detection object and outputs them as position estimation error information.
  • the sensor is a camera
  • the depression angle to the detected object becomes smaller as the distance from the vehicle increases.
  • a position estimation error in the distance direction depth direction
  • the position estimation error calculation unit 104 models the tendency of such an error and stores this model. Then, the position estimation error calculation unit 104 can estimate the error according to the observed position by using this model.
  • the object position estimation error information calculated for each object in this way is output to the image superimposition unit 105.
  • the image superimposition unit 105 generates a superposed image in which the movement range information, the position information of the detected objects, and the position estimation error information of each detected object are superimposed.
  • An example of the superimposed image according to the first embodiment will be described below.
  • FIG. 9 and 10 are diagrams illustrating the superimposed image according to the first embodiment.
  • the superimposed image illustrated in FIG. 9 displays the positions of objects detected around the position of the own vehicle, and the movement range R (the area indicated by diagonal lines in the figure) that can be moved before stopping. ) Is displayed.
  • the positions P1 to P5 indicated by circles represent the positions of the detected objects.
  • the ellipses E1 to E5 shown by the alternate long and short dash lines around each of the positions P1 to P5 represent the estimation error of the positions P1 to P5 of each object, respectively.
  • the image superimposition unit 105 highlights the detected object as an object that may collide with the vehicle when the ellipse indicating the corresponding estimation error overlaps with the movement range R.
  • the detection objects that may collide are the objects corresponding to the positions P1 and P2. Therefore, the image superimposing unit 105 displays the marks indicating the positions P1 and P2 in a conspicuous color (for example, red). Alternatively, the image superimposing unit 105 may display the marks indicating the positions P1 and P2 as large circles.
  • the image superimposition unit 105 further highlights the position indicating such an object.
  • an object that is inside the range of movement and closer to the vehicle is more likely to collide with the object. Therefore, the image superimposing unit 105 may make the mark indicating the position of such an object more highlighted.
  • a mark indicating the position of the object may be blinked, or a text (warning information) calling attention may be superimposed.
  • the moving range is presented in a plurality of stages.
  • the image superimposition unit 105 can be presented in stages in this way. ..
  • the superimposed image shown in FIG. 10 superimposes the movement ranges R1 to R3 for brakes (absolute values of acceleration) of three different strengths.
  • the darkest moving range R1 represents the moving range when the absolute value of acceleration is maximized (when the brake is strongly pressed).
  • the movement range of three stages is shown discontinuously, but the boundary of the region may be continuously changed.
  • the method of presenting the area may be changed not only in the color depth but also in the color itself.
  • the moving range R1 may be shown in red
  • the moving range R2 may be shown in orange
  • the moving range R3 may be shown in yellow. That is, the display mode of the moving range may be changed stepwise. By presenting in this way, it becomes easier for the driver to judge the urgency and strength of applying the brake.
  • the image superimposing unit 105 adjusts the scale on the map and maps.
  • the superimposed image may be generated by superimposing on the current position of.
  • the image superimposing unit 105 may generate the superimposed image by associating with the object on the map. By doing so, it is possible to more accurately convey information about the surroundings to the driver.
  • the image presenting unit 106 displays a superimposed image (superimposed image information) on a predetermined monitor (input / output interface 1100 or the like described later), and presents information on objects around the vehicle to the driver or passengers. Perform the processing of. For example, when the image presentation device 100 is incorporated as a part of the car navigation device, the image presentation unit 106 displays the generated superimposed image information on the screen of the car navigation device. When there is an object that may collide, the image presenting unit 106 presents the superimposed image information on the screen, and the sound presenting means (for example, a speaker) attached to the image presenting unit 106 gives a warning sound or caution. A warning such as a voice prompting the user may be output.
  • the image presenting device 100 calculates the pre-stop movement range according to the current vehicle speed, and superimposes and displays the pre-stop movement range and the positions of objects detected in the surroundings. To do. Then, the image presenting device 100 estimates an error in the position of the object, superimposes and displays the position estimation error information indicating the error, and emphasizes the object that may collide with the vehicle before stopping. indicate. As a result, it is possible to accurately convey information such as surrounding obstacles to the driver. As a result, it is possible to increase the possibility of avoiding a collision with an object that may collide with the vehicle before stopping.
  • the image presentation device 100 estimates an error in the position of the object, and superimposes and displays the position estimation error information indicating the error. Then, the image presentation device 100 superimposes the movement range before stopping, the position of the object included in the object detection information, and the position estimation error information on the screen, and the position estimation error information overlaps with the movement range before stopping. In this case, the position of the detected object is highlighted. In this way, by considering the measurement error of the object (obstacle), it is possible to more reliably convey the information such as surrounding obstacles to the driver. As a result, it is possible to increase the possibility of avoiding a collision more reliably.
  • FIG. 11 is a diagram showing the configuration of the image presentation device 100 according to the second embodiment.
  • the image presentation device 100 according to the second embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, an object tracking unit 207, a collision possibility calculation unit 208, and an image. It has a superimposing unit 205 and an image presenting unit 106.
  • the object tracking unit 207, the collision possibility calculating unit 208, and the image superimposing unit 205 function as an object tracking means, a collision possibility calculating means, and an image superimposing means, respectively.
  • the position estimation error calculation unit 104 is removed, while the object tracking unit 207 and the collision possibility calculation unit 208 are newly added, and the image superimposition unit is added.
  • an image superimposing unit 205 is provided.
  • FIG. 12 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the second embodiment.
  • the vehicle speed acquisition unit 101 acquires vehicle speed information indicating the speed of the vehicle and outputs the vehicle speed information to the vehicle stop movement range calculation unit 102 (step S202).
  • the vehicle stop movement range calculation unit 102 calculates the movement range information (movement range before stoppage) based on the vehicle speed information, and outputs it to the image superimposition unit 205 and the collision possibility calculation unit 208 (step S204).
  • the sensor information acquisition unit 103 detects an object using the sensor, acquires the object detection information, and outputs the object detection information to the object tracking unit 207 (step S206).
  • the object tracking unit 207 performs object tracking based on the object detection information to generate object tracking information, and outputs the object tracking information to the image superimposition unit 205 and the collision possibility calculation unit 208 (step S207).
  • the collision possibility calculation unit 208 calculates the collision possibility of each tracked object based on the movement range information and the object tracking information, and outputs the collision possibility information indicating the collision possibility to the image superimposition unit 205.
  • the image superimposing unit 205 generates a superposed image in which the movement range information, the object tracking information, and the collision possibility information are superposed, and outputs the superposed image information indicating the superposed image to the image presenting unit 106 (step S210). ..
  • the image presentation unit 106 presents (displays) the superposed image information output from the image superimposing unit 205 (step S212).
  • the operation of the vehicle speed acquisition unit 101, the movement range calculation unit 102 before stopping the vehicle, the sensor information acquisition unit 103, and the image presentation unit 106 is substantially the same as that of the image presentation device 100 according to the first embodiment shown in FIG. Is similar to.
  • the movement range information includes the above-mentioned elapsed time before the stop.
  • the object tracking unit 207 performs tracking processing based on the detection result, which is called Tracking by Detection, based on the object detection information output from the sensor information acquisition unit 103. Specifically, the object tracking unit 207 is included in the object tracking result up to the previous time (sampling time), and each object to be tracked corresponds to the detected object in the object detection result at the current time. Determine if it can be attached. Then, the object tracking unit 207 updates the object tracking result. At this time, the object tracking unit 207 may predict the position of each object to be tracked by the Kalman filter or the particle filter, and then associate the object with the detected object at the current time.
  • the object tracking unit 207 updates the tracking target object information (object tracking result) using the associated detection object information.
  • the object tracking unit 207 newly generates a tracking target object corresponding to the detected object and adds it to the object tracking result.
  • the object tracking unit 207 performs a process of deleting the tracking target object from the object tracking result.
  • the object tracking unit 207 may delete the tracked object when it has not been matched several times, instead of deleting it once it has not been matched.
  • the object tracking unit 207 may define a likelihood representing the certainty of the tracked object for the above control. Then, the object tracking unit 207 may increase the likelihood when the tracking target object is associated with the detection object from the time when the tracking target object is newly generated. In addition, the object tracking unit 207 lowers the likelihood when the tracked object is not associated with the detected object, and deletes the tracked object when the likelihood falls below a certain value. You may. In this likelihood calculation, not only the information on whether or not the detection result and the tracked object are associated with each other, but also the certainty when the detection result and the tracked object are associated with each other are taken into consideration. You may. In this way, the object tracking unit 207 generates the object tracking result at the current time and outputs it as the object tracking information.
  • the object tracking information is associated with the position (relative position) of the object in the vehicle relative coordinate system, the ID information assigned to each tracking object, and the tracking object for each tracking object. Contains ID information of the detected object.
  • the information indicating that the tracking object is not supported may be included instead of the ID information of the detection object.
  • the object tracking unit 207 also holds a tracking history a little before, and calculates the relative speed of the object with respect to the own vehicle by using this tracking history as well. Then, the object tracking unit 207 outputs the object tracking information including the relative velocity. Further, when information on the position estimation error is also obtained as in the case of tracking by the Kalman filter, the object tracking unit 207 may output this information as well.
  • the collision possibility calculation unit 208 predicts the position of each tracking target object when the elapsed time before stopping elapses, based on the object tracking information and the movement range information including the elapsed time before stopping. The collision possibility calculation unit 208 determines whether or not each tracked object may collide with the vehicle based on the predicted position and the movement range. Then, the collision possibility calculation unit 208 calculates the degree of collision possibility as a collision possibility index.
  • the collision possibility calculation unit 208 collides with such an object depending on whether or not it is included in the movement range. The possibility can be judged.
  • the collision possibility calculation unit 208 determines the collision possibility by determining whether or not there is a possibility that the object may enter the movement range within the elapsed time before the stop.
  • the collision possibility calculation unit 208 calculates the position of the tracked object when the time elapses by ⁇ , and whether the calculated position is included in the movement range. The possibility of collision is determined by whether or not.
  • speed of the vehicle is (v x, v y), position (X (t 0), Y (t 0)) at the current time t 0 of the object, the relative velocity (u x, u y ),
  • the actual velocity V (V x , V y ) of the object is expressed by the following equation 4.
  • the position coordinates of the object when only ⁇ has elapsed are the values obtained by adding V ⁇ to the current position, and are therefore expressed by the following equation 5.
  • the collision possibility calculation unit 208 can determine the collision possibility depending on whether or not this position coordinate is included in the movement range (movement range before stopping). Then, the closer the position coordinates are to the inside of the moving range, the higher the possibility of collision with the own vehicle. Therefore, the collision possibility calculation unit 208 calculates the value of the collision possibility index according to the degree of the possibility of the collision. That is, the collision possibility calculation unit 208 calculates the collision possibility index so that the value of the collision possibility index becomes higher as the position coordinates move closer to the inside of the movement range.
  • the position calculated by the above equation 5 is the position when the speed of the object does not change while the object moves. Therefore, when the speed of the object changes, the position of the object changes from the position calculated by the equation 5. Therefore, the collision possibility calculation unit 208 may calculate the position coordinates in consideration of a predetermined speed change, and determine the collision possibility depending on whether or not the calculated position coordinates are included in the movement range. Further, when a plurality of pre-stop elapsed time information is output, the collision possibility calculation unit 208 uses one of them (for example, the one having the longest pre-stop elapsed time) to perform the above calculation. It should be. Alternatively, the collision possibility calculation unit 208 may calculate the average of them and perform the above calculation.
  • the collision possibility calculation unit 208 may increase the value of the collision possibility index as the object reaches the inside of the moving range to a large extent and reaches closer to the vehicle.
  • the image superimposing unit 205 generates a superposed image in which the movement range information and the position information of the tracking target object are superimposed. At this time, the image superimposing unit 205 considers the value of the collision possibility of each object, and emphasizes and displays the object having a higher collision possibility.
  • An example of the superimposed image according to the second embodiment will be described below.
  • FIG. 13 to 15 are diagrams illustrating the superimposed image according to the second embodiment.
  • the superimposed image illustrated in FIG. 13 displays the positions of objects detected around the position of the own vehicle as the center, and also displays the movement range R (area shown by diagonal lines) that can be moved before stopping. indicate.
  • the positions P1 to P6 indicated by circles represent the positions of the detected objects.
  • the objects A and B (positions P6 and P2) indicated by the white circles are highlighted because they are determined to have a high collision possibility value.
  • the object B is a stationary object, since it is within the movement range R, the value of the possibility of collision is high.
  • the object A is located outside the movement range R, but is moving in the direction toward the own vehicle, so the value of the collision possibility index becomes high and is highlighted.
  • the positions of objects that may collide are displayed in a large circle and in a conspicuous color.
  • the highlighting method is not limited to this, as described in the above description in FIGS. 9 to 10, and any highlighting method can be used.
  • the superimposed image presents the moving range divided into a plurality of stages.
  • the direction is indicated by an arrow to indicate that the object is moving in the direction toward the own vehicle.
  • the arrow itself is also highlighted because the object A may be within the moving range before the vehicle stops.
  • the range in which the position can be displaced is indicated by an ellipse E'assuming that the speed of the object A (position P6) changes. This makes it easier to determine the urgency of the collision and increases the possibility of avoiding the collision.
  • it is displayed as an ellipse, but it can be set to display only the worst value.
  • the position closest to the vehicle of the ellipse may be presented by an arrow or the like as an assumed position when stopped.
  • the image superimposing unit 205 adjusts the scale on the map and superimposes it on the current position of the map. In this way, the superimposed image may be generated. By doing so, it is possible to more accurately convey information about the surroundings to the driver.
  • the image presenting device 100 determines the collision possibility of the object by using the relative speed of the object by using the tracking result of the object and presents it to the driver. This makes it possible to appropriately present information on objects around the vehicle to the driver even when the object that may collide is a moving object. Therefore, even if the object is a moving object, it is possible to increase the possibility of avoiding a collision with the object that may collide with the vehicle before stopping.
  • the image presenting device 100 determines the position of each tracking target object when the elapsed time before stopping has elapsed, based on the elapsed time before stopping and the relative position and relative speed of the tracking target object. Predict.
  • the image presenting device 100 according to the second embodiment calculates a collision possibility index indicating the possibility that each tracked object collides with the vehicle based on the predicted position and the movement range before stopping.
  • the image presentation device 100 according to the second embodiment superimposes the movement range before stopping and the position of the detection object on the screen.
  • the image presenting apparatus 100 according to the second embodiment generates an image in which the position of the corresponding detection object is emphasized and displayed as the calculated collision possibility index becomes larger. As a result, the driver can properly grasp the tracked object that is likely to collide with the vehicle.
  • FIG. 16 is a diagram showing the configuration of the image presentation device 100 according to the third embodiment.
  • the image presentation device 100 according to the third embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, an object tracking unit 207, a collision possibility calculation unit 208, and a position estimation error calculation unit 304.
  • the image superimposing unit 305 and the image presenting unit 106 Compared with the image presenting apparatus 100 according to the second embodiment shown in FIG. 11, the position estimation error calculation unit 304 is added, and the image superimposition unit 305 is provided instead of the image superimposition unit 205.
  • the position estimation error calculation unit 304 and the image superimposition unit 305 function as a position estimation error calculation means and an image superimposition means, respectively.
  • the connection relationship other than the connection relationship between the position estimation error calculation unit 304 and the image superimposition unit 305 is substantially the same as the configuration shown in FIG.
  • FIG. 17 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the third embodiment.
  • the vehicle speed acquisition unit 101 acquires vehicle speed information representing the speed of the vehicle and outputs the vehicle speed information to the vehicle stop movement range calculation unit 102 (step S302).
  • the vehicle stop movement range calculation unit 102 calculates the movement range information (movement range before stoppage) based on the vehicle speed information, and outputs it to the image superimposition unit 305 and the collision possibility calculation unit 208 (step S304).
  • the sensor information acquisition unit 103 detects an object using the sensor, acquires the object detection information, and outputs the object detection information to the object tracking unit 207 (step S306).
  • the object tracking unit 207 performs object tracking based on the object detection information to generate object tracking information, and outputs the object tracking information to the image superimposition unit 305, the collision possibility calculation unit 208, and the position estimation error calculation unit 304.
  • the collision possibility calculation unit 208 calculates the collision possibility of each tracked object based on the movement range information and the object tracking information, and outputs the collision possibility information indicating the collision possibility to the image superimposing unit 305. (Step S308).
  • the position estimation error calculation unit 304 estimates the position error of the object (calculates the position estimation error) based on the object tracking information output from the object tracking unit 207, and transfers the position estimation error information to the image superimposition unit 305.
  • Output step S309.
  • the image superimposing unit 305 generates a superposed image based on the movement range information, the object tracking information, the collision possibility information, and the position estimation error information, and transmits the superposed image information indicating the superposed image to the image presenting unit 106.
  • Output step S310.
  • the image presenting unit 106 presents (displays) the superimposed image information output from the image superimposing unit 305 (step S312).
  • the operation of the position estimation error calculation unit 304 is basically the same as the operation of the position estimation error calculation unit 104 shown in FIG.
  • the position estimation error is the position estimation error obtained by tracking the object.
  • the position estimation error calculation unit 304 calculates the object tracking information including the information of the covariance matrix of the state variable representing the position, and estimates based on the value of the information representing this position.
  • the error information may be calculated.
  • the operation of the image superimposing unit 305 is basically the same as the operation of the image superimposing unit 205 shown in FIG. However, similarly to the image superimposing unit 105 shown in FIG. 2, the image superimposing unit 305 also superimposes the position estimation error information.
  • An example of the superimposed image according to the third embodiment will be described below.
  • FIGS. 18 to 20 are diagrams illustrating superimposed images according to the third embodiment.
  • the superimposed images illustrated in FIGS. 18 to 20 are obtained by superimposing a position estimation error on the superimposed images illustrated in FIGS. 13 to 15, respectively. That is, in the examples of FIGS. 18 to 20, ellipses E1 to E6 representing the estimation error of the positions P1 to P5 of each object are superimposed around each of the positions P1 to P6 of each object.
  • the driver can recognize that there is a possibility of collision not only with the objects corresponding to the positions P6 and P2 but also with the objects corresponding to the positions P1. Therefore, as compared with the case of the second embodiment, it becomes possible to more appropriately present the information of the objects around the vehicle to the driver. Therefore, it is possible to further increase the possibility of avoiding a collision with an object that may collide with the vehicle before stopping.
  • FIG. 21 is a diagram showing the configuration of the image presentation device 100 according to the fourth embodiment.
  • the image presentation device 100 according to the fourth embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, a position estimation error calculation unit 104, and a video information acquisition unit 409. It has an image superimposing unit 405 and an image presenting unit 106.
  • a video information acquisition unit 409 is added, and an image superimposing unit 405 is provided instead of the image superimposing unit 105.
  • the video information acquisition unit 409 and the image superimposition unit 405 function as video information acquisition means and image superimposition means, respectively.
  • the connection relationship other than the connection relationship between the video information acquisition unit 409 and the image superimposition unit 405 is substantially the same as the configuration shown in FIG.
  • FIG. 22 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the fourth embodiment.
  • the vehicle speed acquisition unit 101 acquires vehicle speed information indicating the speed of the vehicle and outputs the vehicle speed information to the vehicle stop movement range calculation unit 102 (step S402). Based on the vehicle speed information, the movement range calculation unit 102 before stopping the vehicle calculates the movement range information indicating the range in which the vehicle can move before stopping when the brake is pressed at that time, and outputs the movement range information to the image superimposing unit 405. (Step S404).
  • the sensor information acquisition unit 103 detects an object using the sensor, acquires the object detection information, and outputs the object detection information to the image superimposition unit 405 and the position estimation error calculation unit 104 (step S406).
  • the position estimation error calculation unit 104 estimates the position error of the detected object (calculates the position estimation error), and outputs the position estimation error information indicating the estimated error to the image superimposition unit 405 (step S408). ..
  • the video information acquisition unit 409 acquires video information indicating the captured image and outputs it to the image superimposition unit 405 (step S409).
  • the image superimposing unit 405 generates a superposed image based on the movement range information, the object detection information, the position estimation error information, and the video information, and outputs the superposed image to the image presenting unit 106 (step S410).
  • the image presentation unit 106 presents (displays) the superposed image information output from the image superimposing unit 405 (step S412).
  • the operation of the components other than the video information acquisition unit 409 and the image superimposition unit 405 is substantially the same as that of the image presentation device 100 according to the first embodiment shown in FIG.
  • the video information acquisition unit 409 is a means for capturing an image of the surroundings of the own vehicle, and may basically be composed of a camera (imaging device) mounted on the own vehicle. Alternatively, the video information acquisition unit 409 may acquire video information indicating a video taken by an external camera of the image presentation device 100 from the camera.
  • the camera may be any camera that can capture images. However, as described in the embodiment described later, when the image analysis is performed to detect and recognize the object, the camera needs to be able to shoot the image at a resolution, image quality and frame rate capable of detecting and recognizing the object. There is. If this is not the case, the camera may be any camera as long as it can ensure the resolution and image quality at which the object can be visually confirmed.
  • the captured video time-series frame image
  • the operation of the image superimposing unit 405 is basically the same as the operation of the image superimposing unit 105 according to the first embodiment shown in FIG. However, the image superimposing unit 405 also superimposes the video (frame image) obtained by the video information acquisition unit 409. In addition, the image superimposing unit 405 may also superimpose information on the field of view of the camera (the range captured by the camera).
  • FIG. 23 is a diagram illustrating the superimposed image according to the fourth embodiment.
  • FIG. 23 illustrates an superimposed image in which the image Im of the camera for photographing the front of the own vehicle is superimposed and the field of view of the camera is also superimposed.
  • the area R'shown by vertical stripes corresponds to the field of view of the camera.
  • the image superimposing unit 405 may generate the superimposed image so as not only presenting the image as it is but also enlarging the vicinity where the object is detected.
  • the position where the object is detected corresponds to which position on the video (image) can be calculated using camera parameters that can be calculated by performing calibration in advance. Therefore, the image superimposition unit 405 calculates an image area in which the detection object is captured on the image, and generates a superimposition image so as to enlarge and present that portion. This allows the driver to more easily see what the detected object is.
  • the driver will be able to grasp which position is being shot.
  • the driver will be able to confirm (visually recognize) the detected object through the video. Therefore, the driver can take more appropriate collision avoidance behavior.
  • the driver can take more appropriate collision avoidance behavior.
  • by presenting the video together it becomes possible to grasp what the detected object is. Therefore, as compared with the case of the first embodiment shown in FIG. 2, the driver can more easily grasp the surrounding situation.
  • FIG. 24 is a diagram showing the configuration of the image presentation device 100 according to the fifth embodiment.
  • the image presentation device 100 according to the fifth embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, an object tracking unit 207, a collision possibility calculation unit 208, and a video information acquisition unit 409. It has an image superimposing unit 505 and an image presenting unit 106.
  • a video information acquisition unit 409 is added, and an image superimposing unit 505 is provided instead of the image superimposing unit 205.
  • the video information acquisition unit 409 and the image superimposition unit 505 function as video information acquisition means and image superimposition means, respectively.
  • the connection relationship other than the connection relationship between the video information acquisition unit 409 and the image superimposition unit 505 is substantially the same as the configuration shown in FIG.
  • FIG. 25 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the fifth embodiment. Since the processes of S502 to S508 are substantially the same as the processes of S202 to S208 shown in FIG. 12, the description thereof will be omitted.
  • the video information acquisition unit 409 acquires the video information and outputs it to the image superimposition unit 505 (step S509).
  • the image superimposition unit 505 generates a superimposition image based on the movement range information, the object tracking information, the collision possibility information, and the video information, and outputs the superimposition image information to the image presentation unit 106 (step S510). ..
  • the image presentation unit 106 presents (displays) the superposed image information output from the image superimposing unit 505 (step S512).
  • the operation of the image presentation device 100 according to the fifth embodiment shown in FIG. 24 will be described.
  • the operations of the components other than the video information acquisition unit 409 and the image superimposition unit 505 are substantially the same as those of the image presentation device 100 according to the second embodiment shown in FIG. Further, the operation of the video information acquisition unit 409 is the same as that of the image presentation device 100 according to the fourth embodiment shown in FIG.
  • the operation of the image superimposing unit 505 is basically the same as the operation of the image superimposing unit 205 according to the second embodiment shown in FIG. However, the image superimposing unit 505 also superimposes the video (frame image) obtained by the video information acquisition unit 409.
  • the superimposition of the image and the presentation of the field of view information of the camera are the same as those of the image superimposition unit 405 according to the fourth embodiment shown in FIG.
  • the generated image is output to the image presentation unit 106 and presented to the driver.
  • the driver will be able to grasp which position is being shot.
  • the driver will be able to confirm (visually recognize) the detected object through the video. Therefore, the driver can take more appropriate collision avoidance behavior.
  • the driver can take more appropriate collision avoidance behavior.
  • by presenting the video together it becomes possible to grasp what the detected object is. Therefore, as compared with the case of the second embodiment shown in FIG. 11, the driver can more easily grasp the surrounding situation.
  • FIG. 26 is a diagram showing the configuration of the image presentation device 100 according to the sixth embodiment.
  • the image presentation device 100 according to the sixth embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, an object tracking unit 207, a collision possibility calculation unit 208, and a position. It has an estimation error calculation unit 304.
  • the image presenting apparatus 100 according to the sixth embodiment includes a video information acquisition unit 409, an image superimposing unit 605, and an image presenting unit 106. Compared with the image presenting apparatus 100 according to the third embodiment shown in FIG. 16, a video information acquisition unit 409 is added, and an image superimposing unit 605 is provided instead of the image superimposing unit 305.
  • the video information acquisition unit 409 and the image superimposition unit 605 function as a video information acquisition means and an image superimposition means, respectively.
  • the connection relationship other than the connection relationship between the video information acquisition unit 409 and the image superimposition unit 605 is substantially the same as the configuration shown in FIG.
  • FIG. 27 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the sixth embodiment. Since the processes of S602 to S609 are substantially the same as the processes of S302 to S309 shown in FIG. 17, the description thereof will be omitted.
  • the video information acquisition unit 409 acquires the video information and outputs it to the image superimposition unit 605 (step S610).
  • the image superimposition unit 605 generates a superimposition image based on the movement range information, the object tracking information, the collision possibility information, the position estimation error information, and the video information, and transfers the superimposition image information to the image presentation unit 106. Output (step S611).
  • the image presenting unit 106 presents (displays) the superimposed image information output from the image superimposing unit 505 (step S612).
  • the operation of the image presentation device 100 according to the sixth embodiment shown in FIG. 26 will be described.
  • the operations of the components other than the video information acquisition unit 409 and the image superimposition unit 605 are substantially the same as those of the image presentation device 100 according to the third embodiment shown in FIG. Further, the operation of the video information acquisition unit 409 is the same as that of the image presentation device 100 according to the fourth embodiment shown in FIG.
  • the operation of the image superimposing unit 605 is basically the same as the operation of the image superimposing unit 305 according to the third embodiment shown in FIG. However, the image superimposing unit 605 also superimposes the video (frame image) obtained by the video information acquisition unit 409.
  • the superimposition of the image and the presentation of the field of view information of the camera are the same as those of the image superimposition unit 405 according to the fourth embodiment shown in FIG.
  • the generated image is output to the image presentation unit 106 and presented to the driver.
  • the driver will be able to grasp which position is being shot.
  • the driver will be able to confirm (visually recognize) the detected object through the video. Therefore, the driver can take more appropriate collision avoidance behavior.
  • the driver can take more appropriate collision avoidance behavior.
  • by presenting the video together it becomes possible to grasp what the detected object is. Therefore, as compared with the case of the third embodiment shown in FIG. 16, the driver can more easily grasp the surrounding situation.
  • FIG. 28 is a diagram showing the configuration of the image presentation device 100 according to the seventh embodiment.
  • the image presentation device 100 according to the seventh embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, and a position estimation error calculation unit 104. Further, the image presentation device 100 according to the seventh embodiment includes a video information acquisition unit 409, an object detection unit 710, an association unit 711, an image superimposition unit 705, and an image presentation unit 106. Compared with the image presenting apparatus 100 according to the fourth embodiment shown in FIG. 21, an object detection unit 710 and an association unit 711 are added, and an image superimposition unit 705 is provided instead of the image superimposition unit 405.
  • the object detection unit 710, the mapping unit 711, and the image superimposition unit 705 function as object detection means, association means, and image superimposition means, respectively.
  • the connection relationship other than the connection relationship between the object detection unit 710, the association unit 711, and the image superimposition unit 705 is substantially the same as the configuration shown in FIG.
  • FIG. 29 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the seventh embodiment. Since the processes of S702 to S709 are substantially the same as the processes of S402 to S409 shown in FIG. 22, the description thereof will be omitted.
  • the object detection unit 710 performs object detection processing on the video (image) output from the video information acquisition unit 409 to acquire the second object detection information, and outputs the second object detection information to the association unit 711.
  • the association unit 711 performs a process of associating the second object detection information output from the object detection unit 710 with the object detection information output from the sensor information acquisition unit 103, and outputs the association information to the image superimposition unit 705.
  • the image superimposition unit 705 generates a superimposition image based on the movement range information, the object detection information, the position estimation error information, the video information, and the association information, and outputs the superimposition image information to the image presentation unit 106.
  • the image presentation unit 106 presents (displays) the superposed image information output from the image superimposing unit 705 (step S722).
  • the operation of the image presentation device 100 according to the seventh embodiment shown in FIG. 28 will be described.
  • the operations of the components other than the object detection unit 710, the association unit 711, and the image superimposition unit 705 are substantially the same as those of the image presentation device 100 according to the fourth embodiment shown in FIG.
  • the object detection unit 710 performs object detection processing on the video (frame image) acquired by the video information acquisition unit 409, and outputs the detection result as the second object detection information.
  • Various methods can be used to detect objects from images. For example, visual features such as HOG (Histograms of Oriented Gradients) features and SIFT (Scale Invariant Feature Transform) features can be extracted from an image, and an object can be detected using a detector trained based on the extracted features. it can.
  • a detector that detects an object directly from an image using a CNN (Convolutional Neural Network) may be used.
  • the object detection unit 710 aggregates the detected object information and generates it as the second object detection information.
  • the second object detection information includes, for example, the detection position and size of the object, and the type (class) of the object.
  • the detection position (and size) when the detection position (and size) is represented by a position on the screen, it may be represented by the coordinates of the vertices of the rectangle surrounding the object (for example, the coordinates of the upper left and lower right vertices of the rectangle).
  • the detection position (and size) may be represented by information on one vertex of the rectangle (for example, the upper left vertex), and the width and height of the rectangle.
  • the second object detection information includes the information of the detected plurality of objects.
  • the second object detection information may also include ID information that distinguishes the detected objects in the same image.
  • the generated second object detection information is output to the association unit 711.
  • the association unit 711 includes the object detection result included in the second object detection information and the object detection result included in the object detection information (hereinafter referred to as the first object detection information) output from the sensor information acquisition unit 103. Corresponds to. That is, the association unit 711 determines which of the detected objects in both the second object detection information and the first object detection information is presumed to be the same. Then, the association unit 711 associates the object in the second object detection information and the object in the first object detection information, which are determined to be the same.
  • the association unit 711 converts the position information of the detected object included in the second object detection information into the position coordinates in the vehicle relative coordinate system using the camera parameters calculated by the camera calibration. Then, when the distance between the positions in the coordinate system is closer than the predetermined threshold value, the association unit 711 sets the detection object included in the second object detection information as the detection object included in the first object detection information. Correspond with.
  • the association unit 711 converts the position information of the first object detection information into the position coordinates on the image using the camera parameters. Then, the association unit 711 associates the position information of the first object detection information with the detection object included in the second object detection information when the distance of the position on the image is closer than the predetermined threshold value. It may be.
  • the association unit 711 adds the ID information of the object included in the associated first object detection information to the second object detection information with respect to the object associated as described above, and associates the objects. Generate as information. That is, the association information is information indicating the result of the association. At this time, the association unit 711 may add information indicating that the objects have not been associated with each other. For example, when the ID of the object is defined as a non-negative integer, the mapping unit 711 sets the ID of the object that was not associated to a negative value to indicate that the object was not associated. Just do it. The generated association information is output to the image superimposing unit 705.
  • the operation of the image superimposing unit 705 is basically the same as the operation of the image superimposing unit 405 according to the fourth embodiment shown in FIG.
  • the image superimposition unit 705 may generate a superposed image in which the object related to the object detection information included in the association information is superposed on the video information (camera image) and presented.
  • the image superimposition unit 705 may generate a superposed image in which the rectangle and type of the detected object are superposed on the camera image and presented.
  • the image superimposing unit 705 may change the superimposition mode according to the type of the associated object.
  • the image superimposing unit 705 may change the superimposing mark according to the type of the object.
  • the image superimposing unit 705 may change the superimposing mode according to the type of the object in consideration of the difference in the influence at the time of collision.
  • the image superimposing unit 705 may preferentially present an object whose degree of influence at the time of collision is larger than a predetermined threshold value.
  • the image superimposing unit 705 may change the degree of enhancement according to the degree of influence at the time of collision.
  • the image superimposing unit 705 may increase the degree of emphasis as the degree of influence at the time of collision increases.
  • the above-mentioned "superimposition mode" also includes "degree of emphasis".
  • the image superimposition unit 705 may also perform highlighting when superimposing the detection result on the camera image.
  • the image superimposition unit 705 may, for example, enclose the corresponding object in a thicker rectangle, present it in a prominent color, or blink the rectangle.
  • the image superimposing unit 705 may enlarge the object itself and present it together. That is, the image superimposition unit 705 may calculate the image area corresponding to the position where the object to be emphasized and displayed in the video exists, and enlarge and superimpose the calculated image area. Especially when the object is small, the visibility is improved by enlarging the display.
  • the image presentation device 100 according to the seventh embodiment performs the object detection process on the video to generate the second object detection information. Further, the image presenting apparatus 100 according to the seventh embodiment associates an object included in the object detection information with an object included in the second object detection information to generate association information indicating the result of the association. Further, the image presentation device 100 according to the seventh embodiment generates a superimposed image in which an object related to the object detection information shown in the association information is superimposed on the image and presented. That is, in the seventh embodiment, the video is also presented, the result of object recognition is superimposed and displayed, and the overlay method is controlled based on the result. This allows the driver to more reliably recognize the detected object through the video. Therefore, the driver can take more appropriate collision avoidance behavior. In addition, by presenting the video together, it becomes possible to grasp what the detected object is. Therefore, as compared with the case of the fourth embodiment shown in FIG. 21, the driver can more easily grasp the surrounding situation.
  • the image presentation device 100 according to the seventh embodiment is configured to change the superimposing mode according to the type of the associated object. As a result, the driver can more reliably grasp the degree of influence of each object when it collides. Therefore, the driver can take more appropriate collision avoidance behavior.
  • FIG. 30 is a diagram showing the configuration of the image presentation device 100 according to the eighth embodiment.
  • the image presentation device 100 according to the eighth embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, an object tracking unit 207, and a collision possibility calculation unit 208. .. Further, the image presentation device 100 according to the eighth embodiment includes a video information acquisition unit 409, an object detection unit 710, an association unit 811, an image superimposition unit 805, and an image presentation unit 106.
  • an object detection unit 710 and an association unit 811 are added, and an image superimposition unit 805 is provided instead of the image superimposition unit 505.
  • the object detection unit 710, the mapping unit 811 and the image superimposition unit 805 function as object detection means, association means, and image superimposition means, respectively.
  • the connection relationship other than the connection relationship between the object detection unit 710, the association unit 811 and the image superimposition unit 705 is substantially the same as the configuration shown in FIG. 24.
  • FIG. 31 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the eighth embodiment. Since the processes of S802 to S809 are substantially the same as the processes of S502 to S509 shown in FIG. 25, the description thereof will be omitted.
  • the object detection unit 710 performs object detection processing on the video (image) output from the video information acquisition unit 409 to acquire the second object detection information, and outputs the second object detection information to the association unit 811.
  • the association unit 811 performs a process of associating the second object detection information output from the object detection unit 710 with the object tracking information output from the object tracking unit 207, and outputs the association information to the image superimposition unit 805.
  • the image superimposition unit 805 generates a superimposition image based on the movement range information, the object tracking information, the collision possibility information, the video information, and the association information, and outputs the superimposition image information to the image presentation unit 106.
  • the image presentation unit 106 presents (displays) the superposed image information output from the image superimposing unit 805 (step S822).
  • the operations of the components other than the object detection unit 710, the association unit 811 and the image superimposition unit 805 are substantially the same as those of the image presentation device 100 according to the fifth embodiment shown in FIG. 24. Further, the operation of the object detection unit 710 is substantially the same as the operation of the object detection unit 710 according to the seventh embodiment shown in FIG. 28.
  • the operation of the association unit 811 is basically the same as the operation of the association unit 711 according to the seventh embodiment shown in FIG. 28. However, the association unit 811 does not associate with the detection result by the sensor, but associates with the object tracking information obtained by the object tracking unit 207.
  • the associating method itself is the same as the method in the associating unit 711 shown in FIG. 28. That is, the association unit 811 associates the two with each other based on the closeness of the position of the detected object included in the second object detection information and the position of the tracked object included in the object tracking information. Then, the association unit 811 adds the ID information of the object included in the associated object tracking information to the second object detection information for the associated object, and generates it as the association information.
  • the generated association information is output to the image superimposing unit 805.
  • the operation of the image superimposing unit 805 is basically the same as the operation of the image superimposing unit 505 according to the fifth embodiment shown in FIG. 24.
  • the image superimposition unit 805 presents the detection result of the object by the video, and changes the superimposition method of the information based on the association information to generate the superimposition image.
  • the method of presenting the object detection result by the video and changing the information superimposition method based on the association information is the same as the image superimposition unit 705 according to the seventh embodiment shown in FIG. 28.
  • the generated image is output to the image presentation unit 106 and presented to the driver.
  • the image is also presented, the result of object recognition is superimposed and displayed, and the overlay method is controlled based on the result.
  • This allows the driver to more reliably recognize the detected object through the video. Therefore, the driver can take more appropriate collision avoidance behavior.
  • the driver can take more appropriate collision avoidance behavior.
  • by presenting the video together it becomes possible to grasp what the detected object is. Therefore, as compared with the case of the fifth embodiment shown in FIG. 24, the driver can more easily grasp the surrounding situation.
  • FIG. 32 is a diagram showing the configuration of the image presentation device 100 according to the ninth embodiment.
  • the image presentation device 100 according to the ninth embodiment includes a vehicle speed acquisition unit 101, a vehicle stop movement range calculation unit 102, a sensor information acquisition unit 103, an object tracking unit 207, a collision possibility calculation unit 208, and a position. It has an estimation error calculation unit 304. Further, the image presentation device 100 according to the ninth embodiment includes a video information acquisition unit 409, an object detection unit 710, an association unit 811, an image superimposition unit 905, and an image presentation unit 106. Compared with the image presenting apparatus 100 according to the sixth embodiment shown in FIG.
  • an object detection unit 710 and an association unit 811 are added, and an image superimposition unit 905 is provided instead of the image superimposition unit 605.
  • the object detection unit 710, the mapping unit 811 and the image superimposition unit 905 function as object detection means, association means, and image superimposition means, respectively.
  • the connection relationship other than the connection relationship of the object detection unit 710, the association unit 811 and the image superimposition unit 905 is substantially the same as the configuration shown in FIG. 26.
  • FIG. 33 is a flowchart showing an image presentation method executed by the image presentation device 100 according to the ninth embodiment. Since the processes of S902 to S910 are substantially the same as the processes of S602 to S610 shown in FIG. 27, the description thereof will be omitted.
  • the object detection unit 710 performs object detection processing on the video (image) output from the video information acquisition unit 409 to acquire the second object detection information, and outputs the second object detection information to the association unit 811.
  • the association unit 811 performs a process of associating the second object detection information output from the object detection unit 710 with the object tracking information output from the object tracking unit 207, and outputs the association information to the image superimposition unit 905.
  • the image superimposition unit 905 generates a superimposition image based on the movement range information, the object tracking information, the collision possibility information, the position estimation error information, the video information, and the association information, and generates the superimposition image information.
  • Output to the image presentation unit 106 (step S920).
  • the image presenting unit 106 presents (displays) the superimposed image information output from the image superimposing unit 905 (step S922).
  • the operations of the components other than the object detection unit 710, the association unit 811 and the image superimposition unit 905 are substantially the same as those of the image presentation device 100 according to the sixth embodiment shown in FIG. Further, the operations of the object detection unit 710 and the association unit 811 are substantially the same as the operations of the object detection unit 710 and the association unit 811 according to the eighth embodiment shown in FIG. 30, respectively.
  • the operation of the image superimposing unit 905 is basically the same as the operation of the image superimposing unit 605 according to the sixth embodiment shown in FIG.
  • the image superimposition unit 905 presents the detection result of the object by the video, and changes the superimposition method of the information based on the association information to generate the superimposition image.
  • the method of presenting the object detection result by the video and changing the information superimposition method based on the association information is the same as the image superimposition unit 705 according to the seventh embodiment shown in FIG. 28.
  • the generated image is output to the image presentation unit 106 and presented to the driver.
  • the image is also presented, the result of object recognition is superimposed and displayed, and the overlay method is controlled based on the result.
  • This allows the driver to more reliably recognize the detected object through the video. Therefore, the driver can take more appropriate collision avoidance behavior.
  • the driver can take more appropriate collision avoidance behavior.
  • by presenting the video together it becomes possible to grasp what the detected object is. Therefore, as compared with the case of the sixth embodiment shown in FIG. 26, the driver can more easily grasp the surrounding situation.
  • Each component of the image presentation device 100 may be realized by hardware (eg, a hard-wired electronic circuit or the like) that realizes each component.
  • each component of the image presenting apparatus 100 may be realized by a combination of hardware and software (eg, a combination of an electronic circuit and a program that controls the electronic circuit).
  • a case where each component of the image presentation device 100 is realized by a combination of hardware and software will be further described.
  • FIG. 34 is a diagram illustrating a hardware configuration for realizing the image presentation device 100.
  • the hardware configuration may include a computer 1000, a sensor 1200, a vehicle speed sensor 1300, a camera 1400 and a display 1500.
  • the computer 1000 is an arbitrary computer (information processing device).
  • the computer 1000 is a personal computer (PC) or an industrial computer.
  • the computer 1000 may be a dedicated computer designed to realize the image presenting device 100, or may be a general-purpose computer.
  • the computer 1000 has a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a peripheral device interface 1120.
  • the bus 1020 is a data transmission line for the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the peripheral device interface 1120 to transmit and receive data to and from each other.
  • the method of connecting the processors 1040 and the like to each other is not limited to the bus connection.
  • the processor 1040 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 1060 is a main storage device realized by using a RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device realized by using a hard disk, an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the input / output interface 1100 is an interface for connecting the computer 1000 and the input / output device.
  • an input device such as a keyboard and an output device such as a display device are connected to the input / output interface 1100.
  • the display 1500 is connected to the input / output interface 1100, and the display 1500 can correspond to the image presentation unit 106 of the image presentation device 100.
  • Peripheral device interface 1120 is an interface for connecting peripheral devices to the computer 1000.
  • the peripheral device interface 1120 is an interface such as USB (Universal Serial Bus) or IEEE 1394.
  • the peripheral device interface 1120 is a wired or wireless network interface, or an interface such as Bluetooth®.
  • a sensor 1200, a vehicle speed sensor 1300, and a camera 1400 are connected to the peripheral device interface 1120, and these devices and the computer 1000 can communicate with each other via the peripheral device interface 1120.
  • the sensor 1200, the vehicle speed sensor 1300, and the camera 1400 can correspond to the sensor information acquisition unit 103, the vehicle speed acquisition unit 101, and the video information acquisition unit 409 of the image presentation device 100, respectively.
  • the sensor information acquisition unit 103 is realized by software
  • the sensor information acquisition unit 103 acquires sensor information from the sensor 1200.
  • the vehicle speed acquisition unit 101 is realized by software
  • the vehicle speed acquisition unit 101 acquires vehicle speed information from the vehicle speed sensor 1300.
  • the video information acquisition unit 409 is realized by software, the video information acquisition unit 409 acquires video information from the camera 1400.
  • the storage device 1080 stores a program module that realizes each component of the image presentation device 100.
  • the processor 1040 realizes the function corresponding to each program module by reading each of these program modules into the memory 1060 and executing the program module.
  • the present invention is not limited to the above embodiment, and can be appropriately modified without departing from the spirit.
  • one or more of the processes in each step of the flowchart described above may be omitted.
  • the order of each step in the above-mentioned flowchart can be changed as appropriate.
  • the processes S102 to S104 may be executed after the processes S106 to S108.
  • the process of S409 may be executed before the process of S402 to S408.
  • the vehicle on which the image presentation device 100 is mounted is not limited to a passenger car, but also includes a work vehicle such as a forklift that operates in a distribution warehouse or the like. Further, the image presentation device 100 does not necessarily have to be mounted on the vehicle.
  • the image presenting device 100 is realized by the computer 1000, the sensor 1200, the vehicle speed sensor 1300, the camera 1400, and the display 1500 may be mounted on the vehicle. In this case, the image presenting device 100 (computer 1000) may wirelessly communicate with the sensor 1200, the vehicle speed sensor 1300, the camera 1400, and the display 1500.
  • the image presenting device 100 may receive various information from the sensor 1200, the vehicle speed sensor 1300, and the camera 1400, perform the above-described processing, and transmit the superimposed image to the display 1500.
  • the process of "presenting the superimposed image" of the image presenting unit includes the process of transmitting the superimposed image to the display 1500.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media are magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical disks), CD-ROMs, CD-Rs, CD-R / Ws. , Semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM).
  • the program may also be supplied to the computer by various types of temporary computer readable media. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • Vehicle speed acquisition means for acquiring vehicle speed, which is the speed of the vehicle
  • a movement range calculation means for calculating a pre-stop movement range in which the vehicle moves before the vehicle stops based on the vehicle speed.
  • a sensor information acquisition means for acquiring object detection information regarding a detection object around the vehicle detected by using a sensor, and It is said that the pre-stop movement range and the position of the detected object included in the object detection information may be superimposed on the screen and may overlap with the pre-stop movement range based on the position information of the detected object.
  • An image superimposition means for generating a superposed image that displays the estimated position of the detected object with a higher emphasis than the position of the other detected object.
  • An image presenting apparatus having an image presenting means for presenting the generated superimposed image. (Appendix 2) Further, it has a position estimation error calculation means that estimates the position error of each detection object based on the position information of the detection object and generates the position estimation error information representing the estimated error.
  • the image superimposing means superimposes the movement range before stopping, the position of the detected object included in the object detection information, and the position estimation error information on the screen, and the position estimation error information moves before stopping.
  • the image presenting apparatus according to Appendix 1 which generates the superimposed image so as to emphasize and display the position of the detected object when it overlaps with the range.
  • An object tracking means that performs a process of tracking a detection object included in the object detection information to generate object tracking information including the relative position and relative speed of the tracked object to be tracked, which is the tracked detection object, with respect to the vehicle.
  • Collision probability calculation that predicts the position of the target object and calculates a collision probability index that indicates the degree of possibility that each tracked object collides with the vehicle based on the predicted position and the movement range before stopping.
  • the image superimposing means superimposes the movement range before stopping and the position of the detected object on the screen, and the larger the calculated collision possibility index is, the more the position of the corresponding detected object is emphasized and displayed.
  • the image presenting apparatus according to Appendix 1, which generates the superimposed image. (Appendix 4)
  • there is a position estimation error calculation means that estimates the position error of each detected object based on the position information of the tracked object included in the object tracking information and generates position estimation error information representing the estimated error.
  • the image superimposing means further superimposes the position estimation error information on the screen, and when the position estimation error information overlaps with the movement range before stopping, the position of the detection object is highlighted and displayed.
  • the image presenting apparatus for generating the superimposed image.
  • Appendix 5 It also has a video information acquisition means to acquire video information showing the video,
  • the image presenting device according to any one of Supplementary note 1 to 4, wherein the image superimposing means generates the superposed image on which the video information is superposed.
  • Appendix 6 The image superimposing means calculates an image area corresponding to a position where an object to be emphasized and displayed in the image exists, and generates the superposed image so as to enlarge the calculated image area.
  • Image presentation device It also has a video information acquisition means to acquire video information showing the video,
  • the image presenting device according to any one of Supplementary note 1 to 4, wherein the image superimposing means generates the superposed image on which the video information is superposed.
  • the image superimposing means calculates an image area corresponding to a position where an object to be emphasized and displayed in the image exists, and generates the superposed image so as to enlarge the calculated image area.
  • Image presentation device
  • (Appendix 7) An object detection means that performs object detection processing on the video to generate second object detection information, Further having a mapping means for generating mapping information indicating the result of mapping by associating an object included in the object detection information with an object included in the second object detection information.
  • the image presenting device according to Appendix 5 or 6, wherein the image superimposing means generates a superposed image in which an object related to the object detection information shown in the association information is superposed on the video and presented.
  • the second object detection information includes information on the type of detected object.
  • the image presenting device according to Appendix 7, wherein the image superimposing means changes the superimposing mode according to the type of the associated object.
  • the movement range calculation means calculates the movement range before stopping for each of the plurality of accelerations,
  • the image superimposing means superimposes the pre-stop movement range by gradually changing the display mode based on the pre-stop movement range calculated for each of the plurality of accelerations.
  • the image presentation device according to. (Appendix 10)
  • the movement range calculation means calculates the movement range before stopping from at least one of the road surface condition, the slope of the road, the weight of the vehicle, and the history information of the vehicle speed, any one of Supplementary notes 1 to 9.
  • the image presentation device according to the section.
  • the image superimposing means acquires map information of the current position and surroundings of the vehicle, superimposes the map information on the current position, and generates the superposed image according to any one of the appendices 1 to 10.
  • the image presentation device described. (Appendix 12)
  • the image superimposing means generates the superposed image so as to more emphasize the position of the detected object estimated to have an overlap at a position close to the vehicle in the pre-stop movement range.
  • the image presenting apparatus according to any one of Supplementary note 1 to 11.
  • the image presenting means makes the color of the mark indicating the position of the detection object conspicuous, or increases the size of the mark.
  • the position of the detection object is emphasized and presented by at least one of the above, blinking the mark, further superimposing the warning information by text, and giving a warning by sound.
  • the image presenting apparatus according to any one of Appendix 1 to 12, which generates a superposed image.
  • Appendix 14 Get the vehicle speed, which is the speed of the vehicle, Based on the vehicle speed, the pre-stop movement range in which the vehicle moves before it stops is calculated.
  • the object detection information about the detection object around the vehicle detected by using the sensor is acquired, and the object detection information is acquired. It is said that the movement range before stopping and the position of the detection object included in the object detection information may be superimposed on the screen and may overlap with the movement range before stopping based on the position information of the detection object.
  • An image presentation method for presenting the generated superimposed image (Appendix 15)
  • the position error of each detected object is estimated based on the position information of the detected objects, and the position estimation error information representing the estimated error is generated.
  • the position of the detected object included in the object detection information, and the position estimation error information are superimposed on the screen, and the position estimation error information overlaps with the pre-stop movement range.
  • the image presentation method according to Appendix 14 which generates the superimposed image so as to emphasize and display the position of the detection object.
  • the process of tracking the detected object included in the object detection information is performed to generate object tracking information including the relative position and relative speed of the tracked object to be tracked, which is the tracked detection object, with respect to the vehicle.
  • object tracking information including the relative position and relative speed of the tracked object to be tracked, which is the tracked detection object, with respect to the vehicle.
  • the position of the target object is predicted, and a collision possibility index indicating the degree of possibility that each tracked object collides with the vehicle is calculated based on the predicted position and the movement range before stopping.
  • the movement range before stopping and the position of the detected object are superimposed on the screen, and the larger the calculated collision possibility index is, the more the position of the corresponding detected object is emphasized and the superimposed image is generated.
  • the image presentation method according to Appendix 14. (Appendix 17) Based on the position information of the tracked object included in the object tracking information, the position error of each detected object is estimated, and the position estimation error information representing the estimated error is generated. The superposed image is generated so that the position estimation error information is further superimposed on the screen and the position of the detected object is emphasized and displayed when the position estimation error information overlaps with the movement range before stopping.
  • (Appendix 18) Acquire video information showing the video, The image presentation method according to any one of Supplementary note 14 to 17, which generates the superimposed image on which the video information is superimposed.
  • (Appendix 19) The image presentation method according to Appendix 18, which calculates an image area corresponding to a position where an object to be emphasized and displayed in the video exists, and generates the superimposed image so as to enlarge the calculated image area.
  • (Appendix 20) Object detection processing is performed on the video to generate second object detection information, By associating the object included in the object detection information with the object included in the second object detection information, association information indicating the result of the association is generated.
  • the second object detection information includes information on the type of detected object.
  • Appendix 22 Calculate the movement range before stopping for each of multiple accelerations, The image presentation method according to any one of Supplementary note 14 to 21, wherein the display mode is changed stepwise to superimpose the pre-stop movement range based on the pre-stop movement range calculated for each of the plurality of accelerations. ..
  • Appendix 23 The image presentation method according to any one of Appendix 14 to 22, which calculates the movement range before stopping from at least one of the road surface condition, the slope of the road, the weight of the vehicle, and the history information of the vehicle speed. ..
  • Appendix 24 The image presentation method according to any one of Supplementary note 14 to 23, wherein map information of the current position and surroundings of the vehicle is acquired and superimposed on the current position of the map information to generate the superimposed image.
  • Appendix 25 Addendum 14 to 24 to generate the superimposed image so that the position of the detection object estimated to have an overlap at a position close to the vehicle in the movement range before stopping is displayed with more emphasis.
  • the image presentation method according to any one of the items.
  • the step to get the vehicle speed which is the speed of the vehicle, Based on the vehicle speed, a step of calculating the pre-stop movement range in which the vehicle moves before the vehicle stops, and A step of acquiring object detection information regarding a detection object around the vehicle detected by using a sensor, and It is said that the movement range before stopping and the position of the detection object included in the object detection information may be superimposed on the screen and may overlap with the movement range before stopping based on the position information of the detection object.
  • a step of generating a superimposed image that displays the estimated position of the detected object with a higher emphasis than the position of the other detected object.
  • a non-transitory computer-readable medium containing a program that causes a computer to perform the steps of presenting the generated superimposed image.
  • Image presentation device 2 Vehicle speed acquisition unit 4 Movement range calculation unit 6
  • Sensor information acquisition unit 8 Image superimposition unit 10
  • Image presentation unit 100 Image presentation device 101
  • Vehicle speed acquisition unit 102 Vehicle speed acquisition unit 102 Movement range calculation unit before vehicle stop 103
  • Sensor information acquisition unit 104 Position estimation Error calculation unit 105
  • Image superimposition unit 106 Image presentation unit 205
  • Image superimposition unit 207 Object tracking unit 208
  • Collision possibility calculation unit 304
  • Position estimation error calculation unit 305 Image superimposition unit 405 Image superimposition unit 409 Image information acquisition unit 505 Image superimposition unit 605 Image Superimposition 705 Image superimposition 710 Object detection unit 711 Corresponding part 805 Image superimposition 811 Correspondence part 905 Image superimposition part

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両が停止するまでの間に車両と障害物との衝突を回避するように支援を行うことが可能な画像提示装置を提供する。車速取得部(2)は、車両の速度である車速を取得する。移動範囲算出部(4)は、車速に基づいて、車両が停止するまでに移動する停止前移動範囲を算出する。センサ情報取得部(6)は、センサを用いて検出された車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得する。画像重畳部(8)は、停止前移動範囲と、オブジェクト検出情報に含まれる検出オブジェクトの位置とを画面上で重畳する。また、画像重畳部(8)は、オブジェクト検出情報に含まれる検出オブジェクトの位置情報に基づいて停止前移動範囲と重なりを有する可能性があると推定された検出オブジェクトの位置を他の検出オブジェクトの位置よりも強調して表示する重畳画像を生成する。画像提示部(10)は、生成された重畳画像を提示する。

Description

画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
 本発明は、画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
 車両の周囲の状況を運転者に提示する技術が提案されている。例えば、特許文献1は、車載ナビゲーション装置を開示する。特許文献1にかかる装置は、車両の速度を検出する速度検出手段と、速度検出手段が検出した車両の速度に応じた当該車両の減速操作に伴う停止可能範囲を算出する算出手段と、表示手段とを備える。表示手段は、算出手段が算出した車両の停止可能範囲を表示している地図データとともに表示する。
 また、特許文献2は、運転者の感覚や技量に関わらず、どのような運転者に対しても確実に且つ正確に障害物との衝突を回避させるための注意喚起を行うことができる車両の走行支援装置を開示する。特許文献2にかかる装置は、車両に搭載されて車両周辺の撮像画像を撮像する撮像部と、車両の速度情報を取得する情報取得部と、撮像部から出力される前記撮像画像の画像信号を処理する画像処理部とを有する。さらに、画像処理部は、情報取得部で取得した車両の速度情報に応じた制動範囲に関する画像を撮像画像に重畳させる画像重畳部を含む。
 また、特許文献3は、自車両および障害物の移動方向および移動距離を予測して自車両と障害物との接触可能性の判定を行う車両用障害物検出装置を開示する。特許文献3にかかる装置において、第一カメラおよび第二カメラで撮影された映像から、障害物が検出される。障害物位置算出部および自車両位置算出部により、障害物及び自車両のこれからの移動方向および移動距離を表す予測ベクトルが、過去の移動方向および移動距離に基づいてそれぞれ算出され、第一カメラの撮影映像に重畳表示される。また、判定部により、予測ベクトルに基づいて自車両と障害物との接触可能性が判断され、判断結果に基づいて警報が行われる。
特開2007-024599号公報 国際公開第2012/102391号 特開2007-069806号公報
 車両の周囲の状況を運転者に提示する技術において、車両が停止するまでの間に車両と障害物との衝突を回避するように支援を行うことが望ましい。ここで、特許文献2にかかる技術では、単に、車両の速度情報に応じた制動範囲に関する画像を撮像画像に重畳させるのみであって、障害物を認識していない。したがって、特許文献2にかかる技術では、車両が停止するまでの間に車両と障害物との衝突を回避するための提示を適切に行うことができないおそれがある。また、特許文献3にかかる技術では、自車両および障害物の移動方向および移動距離を予測して自車両と障害物との接触可能性の判定を行うのみであって、車両が停止するまでの移動範囲について考慮されていない。したがって、特許文献3にかかる技術では、車両が停止するまでの間に車両と障害物との衝突を回避するための提示を適切に行うことができないおそれがある。
 本開示の目的は、このような課題を解決するためになされたものであり、車両が停止するまでの間に車両と障害物との衝突を回避するように支援を行うことが可能な画像提示装置、画像提示方法、及びプログラムを提供することにある。
 本開示にかかる画像提示装置は、車両の速度である車速を取得する車速取得手段と、前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出する移動範囲算出手段と、センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得するセンサ情報取得手段と、前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成する画像重畳手段と、生成された前記重畳画像を提示する画像提示手段とを有する。
 また、本開示にかかる画像提示方法は、車両の速度である車速を取得し、前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出し、センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得し、前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成し、生成された前記重畳画像を提示する。
 また、本開示にかかるプログラムは、車両の速度である車速を取得するステップと、前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出するステップと、センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得するステップと、前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成するステップと、生成された前記重畳画像を提示するするステップとをコンピュータに実行させる。
 本開示によれば、車両が停止するまでの間に車両と障害物との衝突を回避するように支援を行うことが可能な画像提示装置、画像提示方法、及びプログラムを提供できる。
本開示の実施の形態にかかる画像提示装置の概要を示す図である。 実施の形態1にかかる画像提示装置の構成を示す図である。 実施の形態1にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 車両が停止するまでに移動する移動範囲を例示する図である。 車両が停止するまでに移動する移動範囲を例示する図である。 車両が停止するまでに移動する移動範囲を例示する図である。 制動動作の開始から車両が停止するまでの速度の変化の例を表すグラフである。 自車相対座標系を例示する図である。 実施の形態1にかかる重畳画像を例示する図である。 実施の形態1にかかる重畳画像を例示する図である。 実施の形態2にかかる画像提示装置の構成を示す図である。 実施の形態2にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態2にかかる重畳画像を例示する図である。 実施の形態2にかかる重畳画像を例示する図である。 実施の形態2にかかる重畳画像を例示する図である。 実施の形態3にかかる画像提示装置の構成を示す図である。 実施の形態3にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態3にかかる重畳画像を例示する図である。 実施の形態3にかかる重畳画像を例示する図である。 実施の形態3にかかる重畳画像を例示する図である。 実施の形態4にかかる画像提示装置の構成を示す図である。 実施の形態4にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態4にかかる重畳画像を例示する図である。 実施の形態5にかかる画像提示装置の構成を示す図である。 実施の形態5にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態6にかかる画像提示装置の構成を示す図である。 実施の形態6にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態7にかかる画像提示装置の構成を示す図である。 実施の形態7にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態8にかかる画像提示装置の構成を示す図である。 実施の形態8にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 実施の形態9にかかる画像提示装置の構成を示す図である。 実施の形態9にかかる画像提示装置によって実行される画像提示方法を示すフローチャートである。 画像提示装置を実現するためのハードウェア構成を例示する図である。
(本開示にかかる実施の形態の概要)
 本開示の実施の形態の説明に先立って、本開示にかかる実施の形態の概要について説明する。図1は、本開示の実施の形態にかかる画像提示装置1の概要を示す図である。画像提示装置1は、車速取得部2と、移動範囲算出部4と、センサ情報取得部6と、画像重畳部8と、画像提示部10とを有する。車速取得部2、移動範囲算出部4、センサ情報取得部6、画像重畳部8及び画像提示部10は、それぞれ、車速取得手段、移動範囲算出手段、センサ情報取得手段、画像重畳手段及び画像提示手段として機能する。
 車速取得部2は、車両の速度である車速を取得する。車両は、例えば乗用車等であるが、これに限られない。移動範囲算出部4は、車速に基づいて、車両が停止するまでに移動する停止前移動範囲を算出する。センサ情報取得部6は、センサを用いて検出された車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得する。画像重畳部8は、停止前移動範囲と、オブジェクト検出情報に含まれる検出オブジェクトの位置とを画面上で重畳する。また、画像重畳部8は、オブジェクト検出情報に含まれる検出オブジェクトの位置情報に基づいて停止前移動範囲と重なりを有する可能性があると推定された検出オブジェクトの位置を他の検出オブジェクトの位置よりも強調して表示する重畳画像を生成する。画像提示部10は、生成された重畳画像を提示する。以下、関連技術に関する問題点について説明する。
 現在の車速に基づいて減速操作したときの停止位置を演算し、運転者に提示する装置が提案されている。例えば、特許文献1は、運転に不慣れな運転者であっても確実に目標地点に到達できるようにするために、現在の車速から停止可能距離を計算し、目標地点と併せて地図上に停止可能範囲を重畳する車載ナビゲーション装置について開示する。停止可能範囲の算出では、車両の速度を検出し、検出した速度に対して理想的な減速操作に基づいて停止できる距離を求める。また、車両の速度に加え、重量などの車両情報や路面情報、運転する時間帯、あるいは運転者の減速操作の癖を考慮して、停止可能範囲が求められる。また、停止可能範囲は、理想的な停止位置に近づくにつれて徐々に幅が広くなる図形により提示する方式、減速の度合いに合わせて色付けして提示される。
 また、特許文献2は、車が後ろに下がるときにカメラの映像を運転者に提示する際、そのときの車速で停止までに移動し得るエリアを危険領域として求め、画像上に重畳して提示する方法を開示する。危険領域の算出では、車速に加え、車重、路面状況、運転者のブレーキ操作等の制動特性も考慮している。また、認知してから実際にブレーキを踏むまでに進む空走距離を考慮してもよい。危険領域は、枠線で表示する以外に、点滅、ストライプ模様又は矢印を用いて提示される。
 一方、特許文献1で地図上に重畳して提示しているのは、あくまでも目標地点に到達するまでに進む距離の情報であり、重畳している範囲自体が、制動動作の開始から車両が止まるまでに車体が通過する領域を示すものではない。また、特許文献1は、停止可能範囲に含まれる道路又は施設データを目立つ態様で表示することも開示している。しかしながら、この表示は、衝突し得る物体を提示しているのではなく、あくまでも停止する際に参考となる目標物を提示しているにすぎない。したがって、この表示は、衝突を回避する目的で行うわけではない。このため、特許文献1にかかる技術では、障害物との衝突回避を支援することはできない。
 また、特許文献2では、車両が停止するまでに通過し得る領域を危険領域として提示している。しかしながら、単に画像上に重畳する方式であるため、画像上の物体が車両と衝突する可能性があるのか否かを把握しにくい。特に、オブジェクトの位置が車両から離れるほどカメラからの俯角が浅くなるため、距離を把握しにくくなる。したがって、運転者は、画像で見ても物体が危険領域に含まれるか否かの判断をすることは困難となる。また、特許文献2においては、障害物自体を検出しているわけではないため、衝突する可能性のあるオブジェクトを強調表示したり、衝突を回避するためのアラートを発したりすることができない。また、特許文献2は、衝突し得るオブジェクトを検知し、そのオブジェクトの位置の測定誤差を考慮して提示を行うこと、及び、そのオブジェクトの車両に対する相対速度を考慮して車両への衝突の可能性を判定することを開示していない。したがって、特許文献2にかかる技術では、オブジェクトの推定位置に誤差があったり、車両に衝突する可能性があるオブジェクトが動いていたりする場合には、運転者を適切に支援することが困難であるという問題がある。
 これに対し、本開示にかかる画像提示装置1は、上記のように構成されているので、停止前移動範囲と重なりを有する可能性があると推定された検出オブジェクトの位置を他の検出オブジェクトの位置よりも強調して表示する重畳画像を生成する。ここで、「停止前移動範囲と重なりを有する可能性がある」とは、例えば、オブジェクトの推定位置に誤差がある場合にその誤差範囲が停止前移動範囲と重なることを含み得る。また、「停止前移動範囲と重なりを有する可能性がある」とは、オブジェクトが動いている場合に車両に衝突する可能性があることを含み得る。したがって、この生成された重畳画像を提示することで、運転者は、車両に対するオブジェクトの衝突の緊急性を早い段階で把握でき、車両が停止するまでの間に車両と障害物との衝突を回避するような動作を行い得る。よって、本開示にかかる画像提示装置1は、車両が停止するまでの間に車両と障害物との衝突を回避するように支援を行うことが可能となる。
(実施の形態1)
 以下、実施形態について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図2は、実施の形態1にかかる画像提示装置100の構成を示す図である。また、図3は、実施の形態1にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。画像提示装置100は、図1に示した画像提示装置1に対応し、車両の周囲のオブジェクトに関する情報を提示する車両周囲オブジェクト提示装置として機能する(他の実施の形態においても同様)。
 実施の形態1にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、位置推定誤差算出部104と、画像重畳部105と、画像提示部106とを有する。車速取得部101は、図1に示した車速取得部2に対応し、車速取得手段として機能する。車停止前移動範囲算出部102は、図1に示した移動範囲算出部4に対応し、車停止前移動範囲算出手段として機能する。センサ情報取得部103は、図1に示したセンサ情報取得部6に対応し、センサ情報取得手段として機能する。位置推定誤差算出部104は、位置推定誤差算出手段として機能する。画像重畳部105は、図1に示した画像重畳部8に対応し、画像重畳手段として機能する。画像提示部106は、図1に示した画像提示部10に対応し、画像提示手段として機能する。
 車速取得部101は、車両の速度を表す車速情報を取得し、車停止前移動範囲算出部102へ出力する(ステップS102)。車停止前移動範囲算出部102は、車速情報に基づいて、そのときにブレーキを踏んだときに停止までに車両が移動し得る範囲を表す移動範囲情報を算出し、画像重畳部105へ出力する(ステップS104)。センサ情報取得部103は、センサを用いてオブジェクトを検出してオブジェクト検出情報を取得し、オブジェクト検出情報を画像重畳部105及び位置推定誤差算出部104へ出力する(ステップS106)。位置推定誤差算出部104は、検出されたオブジェクトの位置の誤差を推定し(位置推定誤差を算出し)、推定された誤差を示す位置推定誤差情報を画像重畳部105へ出力する(ステップS108)。画像重畳部105は、移動範囲情報と、オブジェクト検出情報と、位置推定誤差情報とが重畳された重畳画像を生成し、重畳画像を示す重畳画像情報を画像提示部106へ出力する(ステップS110)。画像提示部106は、画像重畳部105から出力される重畳画像情報を提示(表示)する(ステップS112)。
 次に、図2に示した画像提示装置100の具体的な動作について説明する。車速取得部101は、画像提示装置100が搭載されている車両(以後自車と呼ぶ)の速度情報を取得する。車速取得部101は、例えば、車両に搭載されている車速センサを用いて車速情報を取得することが可能である。取得された車速情報は、車停止前移動範囲算出部102へ出力される。
 車停止前移動範囲算出部102は、車速情報から、現時点で減速操作を行った際に車両が移動し、通過し得る範囲(以後、停止前移動範囲、あるいは単に移動範囲と呼ぶ)を算出する。例えば、現時点での車速がvのときに、等加速度-a(但しa>0)で減速したときに、車両が停止するまでに進む距離dは、以下の式1で与えられる。
Figure JPOXMLDOC01-appb-M000001
 図4~図6は、車両が停止するまでに移動する移動範囲を例示する図である。
 車両が停止するまでの間に直進すると仮定すれば、図4に示すように、車幅wと式1で示す距離dとで定まる矩形領域が、停止前移動範囲となる。このように、基本的には、停止前移動範囲(移動範囲)は、車幅wと停止までに進む距離dとによって定まる。
 ただし、車両は必ずしも直進するとは限らないため、停止前移動範囲は、車両から離れるにつれ、少しずつ広がりを持つようにしてもよい。例えば、図5に示すように、進行方向側がΔwだけ広い台形のような形にしてもよい。この場合、幅を広げる程度Δwは、予め定めた値であってもよい。あるいは、Δwは、運転者の運転履歴に基づいて、車両の進行方向が横に揺れる程度を推測することによって算出されてもよい。すなわち、進行方向が横に揺れる程度が大きい運転者の場合には、通常の運転者よりもΔwを大きく設定してもよい。なお、横に揺れる程度は、運転履歴を取得し、平均的な揺れを求めることによって定めることができる。
 あるいは、車両は道路に沿って進む可能性が高いと考えられる。このため、現在位置及び地図情報を別途取得することができる場合には、道路の形状に合わせて、停止前移動範囲を決定してもよい。たとえば、図6に示すように道路が右側にカーブしている場合には、道のカーブに合わせて停止前移動範囲を曲げるようにしてもよい。
 また、停止するまでに車両が移動する距離dは、式1からわかるように、車速vだけでなく、加速度aによっても変化する。加速度aの値として、予め定めた値を用いてもよい。あるいは、加速度aの値は、路面の状態又は道路の勾配等によっても変化し得る。よって、路面が濡れているか否かといった情報、天候情報、又は道路の勾配に関する情報を別途取得可能な場合には、これらの情報も考慮して加速度を決定するようにしてもよい。すなわち、車停止前移動範囲算出部102は、路面が濡れていたり、凍っていたり、雪が積もっていたりする場合には、通常時よりも絶対値が小さい加速度を用いて距離dの値を求めるようにしてもよい。
 また、加速度は、運転者がブレーキを踏む際にどの程度ブレーキを踏み込むかといった減速操作の癖、又は、人及び積載物を含む車両の重量によっても変化し得る。このため、車停止前移動範囲算出部102は、車速をモニタリングし、直前までの速度及び加速度の履歴を記録しておき、減速操作時の加速度の値を統計処理して算出するようにしてもよい。例えば、取得した値の平均値、中央値、又は最頻値などを用いることができる。
 なお、上記は加速度が等加速度であることを前提としたが、必ずしも加速度は等加速度でなくてもよい。例えば、ブレーキは数段階に分けて踏み込まれることが想定されるため、それによって、加速度も変化し得る。このとき、速度を時刻tの関数v(t)で表すことにし、現時刻をtとすると、車が停止するまでに移動する距離dは、以下の式2によって算出される。
Figure JPOXMLDOC01-appb-M000002
 ここで、時間τは、速度が0となるまでにかかる時間、すなわち、車両が停止するまでに要する時間(以後、停止前経過時間と呼ぶ)であり、以下の式3を満たす値である。
Figure JPOXMLDOC01-appb-M000003
 よって、車停止前移動範囲算出部102は、車速の履歴情報から運転者の減速操作時の車速の時間変化の傾向を学習して関数v(t)を求め、停止前移動範囲の算出に用いるようにしてもよい。
 図7は、制動動作の開始から車両が停止するまでの速度の変化の例を表すグラフである。図7に示す例では、時刻t0で制動動作が開始した、つまりブレーキが踏まれたとする。関数v(t)が図7に示すグラフに関する関数の場合には、車停止前移動範囲算出部102は、斜線部分の面積を求めることによって、距離dを算出することができる。
 また、車停止前移動範囲算出部102は、運転者がブレーキを踏む必要性を認識してから、実際にブレーキを踏むまでの間Δtに移動する、いわゆる空走距離vΔtも考慮して距離dを求めてよい。すなわち、車停止前移動範囲算出部102は、空走距離vΔtの分だけ、距離dを長くしてもよい。
 なお、車停止前移動範囲算出部102は、複数の移動範囲情報を算出してもよい。例えば、車停止前移動範囲算出部102は、複数の加速度それぞれに対して停止前移動範囲を示す移動範囲情報を算出し、算出された複数の移動範囲情報を出力するようにしてもよい。また、車停止前移動範囲算出部102は、移動範囲情報に、停止前経過時間τを示す停止前経過時間情報を付加してもよい。なお、加速度が-aで一定の場合には、停止前経過時間τは、τ=v/aにより求めることができる。車停止前移動範囲算出部102は、車速の履歴情報から運転者の減速操作の傾向を学習することで、停止前経過時間τを求めるようにしてもよい。このようにして算出された移動範囲情報は、画像重畳部105へ出力される。
 センサ情報取得部103は、センサによって検出されたオブジェクト(検出オブジェクト)の位置情報を取得する。ここで、センサとは、車両の周囲に存在する物体を検出するために車両に取り付けられたセンサであり、ミリ波レーダ、LiDAR(Light Detection and Ranging)、又はカメラ等である。ただし、センサは、これらに限定されず、同じ目的で用いる任意のセンサでよい。これらのセンサによって検出されたオブジェクトの情報が、オブジェクト検出情報として出力される。
 オブジェクト検出情報は、センサの種類によって含む情報が異なり得るが、少なくとも、検出オブジェクトの位置情報を含む。ここで、位置情報は、自車に対する相対座標として算出され得る。すなわち、検出オブジェクトの位置情報は、自車の基準位置に基づいて定まる座標系(以後、自車相対座標系と呼ぶ)での座標値に変換されて、出力される。
 図8は、自車相対座標系を例示する図である。図8に示すように、自車相対座標系は、車両の前部の中央を原点とし、車両の幅方向をX軸(右方向を正)とし、車両の前後方向をY軸(前方向を正)とする座標系である。センサがミリ波レーダである場合は、検出された各オブジェクトに対し、センサからの距離及びセンサに対する方向が取得される。この取得された位置情報は、上記の自車相対座標系に変換されて、出力される。センサがカメラである場合は、撮影された画像に対してオブジェクト検出処理が行われ、画像上でのオブジェクト位置が取得される。このオブジェクト位置は、キャリブレーション等によって取得されるカメラパラメータを用いて実世界座標系に変換され、さらに、上述の自車相対座標系に変換されて、出力される。
 なお、オブジェクト検出情報は、位置情報以外にも、オブジェクトの大きさ又は高さに関する情報、又はその他の属性情報を含んでもよい。例えば、センサがカメラの場合には、オブジェクト検出の結果から、オブジェクトの大きさ及び高さの値も一緒に取得され得る。あるいは、オブジェクト検出情報は、オブジェクトの色又は模様などの外見的な特徴量(視覚特徴量)に関する情報を含んでいてもよい。
 なお、複数のオブジェクトが検出された場合には、オブジェクト検出情報は、検出されたオブジェクトの数だけ、オブジェクトの情報を含み得る。例えば、N個のオブジェクトが検出された場合には、オブジェクト検出情報は、各オブジェクトの位置情報を含む、N個のオブジェクト情報を含む。この際、センサ情報取得部103は、各検出結果がどのオブジェクトに対するものであるか区別できるように、検出結果にオブジェクトIDを付与する。このようにして得られたオブジェクト検出情報は、位置推定誤差算出部104及び画像重畳部105へ出力される。
 位置推定誤差算出部104は、検出された各オブジェクトに対し、位置の推定誤差(位置推定誤差)を算出する。位置推定誤差算出部104は、算出された位置推定誤差を示す位置推定誤差情報を、画像重畳部105に出力する。ここで、位置推定誤差は、観測された位置情報がどの程度の誤差を空間的に有するかを推定する情報である。
 誤差の大きさは、一般的に、観測されたオブジェクトの位置に依存する。例えば、センサがミリ波レーダである場合は、検出されたオブジェクトまでの距離及びオブジェクトの方位の情報のそれぞれに観測誤差が生じ得る。そして、方位方向(水平方向)に関する誤差は、センサからオブジェクトまでの距離が大きくなればなるほど増大する。位置推定誤差算出部104は、このような誤差の傾向をモデル化しておき、このモデルを格納しておく。そして、位置推定誤差算出部104は、このモデルを用いて、観測された位置に応じて、そのオブジェクトの位置座標にどの程度の誤差が含まれ得るかを算出する。
 例えば、センサがミリ波レーダである場合は、位置推定誤差算出部104は、距離方向及び方位方向の誤差を各検出オブジェクトに対して算出し、位置推定誤差情報として出力する。一方、センサがカメラである場合は、車両からの距離が離れるにつれ、検出オブジェクトへの俯角が小さくなる。これにより、距離方向(奥行き方向)の位置推定誤差が生じやすくなる。すなわち、奥行き方向の位置推定誤差は、車両からの距離が大きくなるにつれ増大する。よって、位置推定誤差算出部104は、このような誤差の傾向をモデル化しておき、このモデルを格納しておく。そして、位置推定誤差算出部104は、このモデルを用いて、観測された位置に応じて、誤差を推定することができる。このようにして個々のオブジェクトに対して算出されたオブジェクトの位置推定誤差情報は画像重畳部105へ出力される。
 画像重畳部105は、移動範囲情報と、検出オブジェクトの位置情報と、各検出オブジェクトの位置推定誤差情報とを重畳した重畳画像を生成する。実施の形態1にかかる重畳画像の例を、以下に説明する。
 図9及び図10は、実施の形態1にかかる重畳画像を例示する図である。
 例えば、図9に例示する重畳画像は、自車の位置を中心として、その周囲で検出されたオブジェクトの位置を表示するとともに、停止前に移動し得る移動範囲R(図中斜線で示した領域)を表示する。図9において、円で示した位置P1~P5が、検出オブジェクトの位置を表している。また、位置P1~P5それぞれの周囲の一点鎖線で示した楕円E1~E5は、それぞれ、各オブジェクトの位置P1~P5の推定誤差を表している。
 画像重畳部105は、検出オブジェクトの中で、対応する推定誤差を示す楕円が移動範囲Rと重なりを持つ場合には、車両と衝突する可能性があるオブジェクトとして強調表示する。図9の例では、衝突する可能性がある検出オブジェクトは、位置P1,P2に対応するオブジェクトである。したがって、画像重畳部105は、位置P1,P2を示すマークを目立つ色(例えば赤)で表示する。あるいは、画像重畳部105は、位置P1,P2を示すマークを大きな円で表示してもよい。
 さらに、より車両に近いエリアにある検出オブジェクトほど、車両がそのオブジェクトとの衝突までにかかる時間が短くなる(あるいは、ブレーキをかけても衝突してしまう可能性が大きくなる)。したがって、画像重畳部105は、このようなオブジェクトを示す位置を、より強調表示する。あるいは、移動範囲のより内側にあり、車両に近い位置にあるオブジェクトほど、車両がそのオブジェクトとの衝突する可能性が高い。したがって、画像重畳部105は、このようなオブジェクトの位置を示すマークを、より強調表示するようにしてもよい。強調の方法としては、上述した方法以外に、オブジェクトの位置を示すマークを点滅させるようにしてもよいし、あるいは、注意を促すテキスト(警告情報)を重畳するようにしてもよい。
 また、図10に示した重畳画像は、移動範囲を複数の段階に分けて提示している。車停止前移動範囲算出部102から複数の加速度に対する停止前移動範囲を示す移動範囲情報が出力される場合には、画像重畳部105は、このように段階に分けて提示することが可能となる。図10に示す重畳画像は、3つの異なる強さのブレーキ(加速度の絶対値)に対する移動範囲R1~R3を重畳している。そして、最も濃い色の移動範囲R1が、最も加速度の絶対値を大きくした場合(ブレーキを強く踏んだ場合)の移動範囲を表している。なお、図10の例では、不連続的に3段階の移動範囲を示しているが、領域の境界を連続的に変化させるようにしてもよい。また、領域の提示方法も、色の濃さだけでなく、色そのものを変化させるようにしてもよい。例えば、移動範囲R1を赤色で示し、移動範囲R2を橙色で示し、移動範囲R3を黄色で示してもよい。つまり、移動範囲の表示態様を段階的に変化させてもよい。このように提示することにより、ブレーキをかける緊急度とその強さを運転者が判断しやすくなる。
 なお、GPS(Global Positioning System)又は準天頂衛星等の利用により、自車の現在の位置情報及び周囲の地図情報を利用できる場合には、画像重畳部105は、地図上に縮尺を合わせて地図の現在位置に重畳するようにして、重畳画像を生成するようにしてもよい。この際、検出されたオブジェクトと地図上のオブジェクトとが対応付けられる場合には、画像重畳部105は、地図上のオブジェクトと対応付けて、重畳画像を生成するようにしてもよい。このようにすることで、運転者に対して、より的確に、周囲の情報を伝達することができる。
 画像提示部106は、所定のモニタ(後述する入出力インタフェース1100等)上に重畳画像(重畳画像情報)を表示し、運転者、あるいは同乗者に自車の周囲のオブジェクトの情報を提示するための処理を行う。例えば、カーナビゲーション装置の一部として画像提示装置100が組み込まれる場合には、画像提示部106は、カーナビゲーション装置の画面に、生成された重畳画像情報を表示する。衝突の可能性があるオブジェクトが存在する場合には、画像提示部106は、重畳画像情報を画面に提示するとともに、画像提示部106に付随する音提示手段(例えばスピーカ)から、警告音又は注意を促す音声等による警告を出力するようにしてもよい。
 このように、実施の形態1にかかる画像提示装置100は、現在の車速に応じて停止前移動範囲を算出し、停止前移動範囲と、周囲で検出されたオブジェクトの位置とを重畳して表示する。そして、画像提示装置100は、オブジェクトの位置の誤差を推定して、その誤差を示す位置推定誤差情報を重畳して表示し、停止までに車両と衝突の可能性があるオブジェクトについては強調して表示する。これにより、運転者に周囲の障害物等の情報を的確に伝えることができる。その結果、停止までに車両と衝突の可能性があるオブジェクトについて、未然に衝突を回避できる可能性を高めることができる。
 また、実施の形態1にかかる画像提示装置100は、オブジェクトの位置の誤差を推定して、その誤差を示す位置推定誤差情報を重畳して表示する。そして、画像提示装置100は、停止前移動範囲と、オブジェクト検出情報に含まれるオブジェクトの位置と、位置推定誤差情報とを画面上で重畳し、位置推定誤差情報が停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示する。このように、オブジェクト(障害物)の計測の誤差を考慮することで、より確実に、運転者に周囲の障害物等の情報を的確に伝えることができる。その結果、より確実に、未然に衝突を回避できる可能性を高めることができる。
(実施の形態2)
 次に、実施の形態2について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図11は、実施の形態2にかかる画像提示装置100の構成を示す図である。実施の形態2にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、オブジェクト追跡部207と、衝突可能性算出部208と、画像重畳部205と、画像提示部106とを有する。オブジェクト追跡部207、衝突可能性算出部208及び画像重畳部205は、それぞれ、オブジェクト追跡手段、衝突可能性算出手段及び画像重畳手段として機能する。図2に示した実施の形態1にかかる画像提示装置100と比較すると、位置推定誤差算出部104が除かれる一方、オブジェクト追跡部207及び衝突可能性算出部208が新たに追加され、画像重畳部105の代わりに、画像重畳部205が設けられている。
 図12は、実施の形態2にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。車速取得部101は、車両の速度を表す車速情報を取得し、車停止前移動範囲算出部102へ出力する(ステップS202)。車停止前移動範囲算出部102は、車速情報に基づいて移動範囲情報(停止前移動範囲)を算出し、画像重畳部205及び衝突可能性算出部208へ出力する(ステップS204)。センサ情報取得部103は、センサを用いてオブジェクトを検出してオブジェクト検出情報を取得し、オブジェクト検出情報をオブジェクト追跡部207へ出力する(ステップS206)。オブジェクト追跡部207は、オブジェクト検出情報に基づいてオブジェクト追跡を行ってオブジェクト追跡情報を生成し、オブジェクト追跡情報を画像重畳部205及び衝突可能性算出部208へ出力する(ステップS207)。衝突可能性算出部208は、移動範囲情報とオブジェクト追跡情報とに基づいて、追跡された各オブジェクトの衝突可能性を算出し、衝突可能性を示す衝突可能性情報を画像重畳部205へ出力する(ステップS208)。画像重畳部205は、移動範囲情報と、オブジェクト追跡情報と、衝突可能性情報とが重畳された重畳画像を生成し、重畳画像を示す重畳画像情報を画像提示部106へ出力する(ステップS210)。画像提示部106は、画像重畳部205から出力される重畳画像情報を提示(表示)する(ステップS212)。
 次に、図11に示した実施の形態2にかかる画像提示装置100の具体的な動作について説明する。なお、車速取得部101、車停止前移動範囲算出部102、センサ情報取得部103及び画像提示部106の動作は、図2に示した実施の形態1にかかる画像提示装置100のものと実質的に同様である。ただし、実施の形態2においては、移動範囲情報は、上述の停止前経過時間を含むとする。
 オブジェクト追跡部207は、センサ情報取得部103から出力されるオブジェクト検出情報に基づいて、Tracking by Detectionと呼ばれる、検出結果に基づいた追跡処理を行う。具体的には、オブジェクト追跡部207は、1つ前の時刻(サンプリング時刻)までのオブジェクト追跡結果に含まれ、追跡対象となっている各オブジェクトが、現時刻のオブジェクト検出結果における検出オブジェクトと対応付けられるかを判定する。そして、オブジェクト追跡部207は、オブジェクト追跡結果を更新する。この際、オブジェクト追跡部207は、追跡対象となっている各オブジェクトの位置をカルマンフィルタ又はパーティクルフィルタによって予測してから、現時刻の検出オブジェクトと対応付けるようにしてもよい。
 追跡対象オブジェクトと検出オブジェクトとが対応付けられた場合には、オブジェクト追跡部207は、対応付けられた検出オブジェクトの情報を用いて、追跡対象オブジェクトの情報(オブジェクト追跡結果)を更新する。一方、検出オブジェクトがどの追跡対象オブジェクトとも対応付けられなかった場合には、新たに表れたオブジェクトである可能性が高い。したがって、オブジェクト追跡部207は、その検出オブジェクトに対応する追跡対象オブジェクトを新たに生成し、オブジェクト追跡結果に追加する。逆に、どの検出オブジェクトとも対応付けられない追跡対象オブジェクトが存在する場合には、その追跡対象オブジェクトは、センサの検知領域外に出た等の理由により、消失したと考えられる。よって、オブジェクト追跡部207は、その追跡対象オブジェクトをオブジェクト追跡結果から削除する処理を行う。ただし、オブジェクト追跡部207は、その追跡対象オブジェクトについて、一度の未対応で削除するのではなく、数回未対応が続いたときに削除するようにしてもよい。
 オブジェクト追跡部207は、上記の制御のために、追跡対象オブジェクトの確からしさを表す尤度を定義しておいてもよい。そして、オブジェクト追跡部207は、追跡対象オブジェクトの新規生成時から、追跡対象オブジェクトが検出オブジェクトと対応付けられた場合には尤度を上げてもよい。また、オブジェクト追跡部207は、追跡対象オブジェクトが検出オブジェクトと対応付けられなかった場合には尤度を下げるようにし、尤度が一定値を下回った時点で、その追跡対象オブジェクトを削除するようにしてもよい。なお、この尤度の計算では、検出結果と追跡対象オブジェクトとが対応付けられたか否かという情報だけでなく、検出結果と追跡対象オブジェクトとが対応付けられた際の確からしさも合わせて考慮してもよい。このようにして、オブジェクト追跡部207は、現時刻におけるオブジェクト追跡結果を生成し、オブジェクト追跡情報として出力する。
 ここで、オブジェクト追跡情報は、追跡対象オブジェクトごとに、自車相対座標系でのオブジェクトの位置(相対位置)、追跡対象オブジェクトごとに付与されたID情報、及び、追跡対象オブジェクトに対応付けられた検出オブジェクトのID情報を含む。なお、追跡対象オブジェクトが検出オブジェクトと対応付けられなかった場合には、検出オブジェクトのID情報の代わりに、未対応であることを表す情報を含んでもよい。
 また、オブジェクト追跡部207は、少し前の追跡履歴も保持しており、この追跡履歴も用いてオブジェクトの自車に対する相対速度を算出する。そして、オブジェクト追跡部207は、相対速度を含むオブジェクト追跡情報を出力する。また、カルマンフィルタによる追跡のように、位置の推定誤差に関する情報も一緒に得られる場合には、オブジェクト追跡部207は、この情報も併せて出力するようにしてもよい。
 衝突可能性算出部208は、オブジェクト追跡情報と、停止前経過時間を含む移動範囲情報とに基づいて、停止前経過時間が経過したときの各追跡対象オブジェクトの位置を予測する。衝突可能性算出部208は、予測された位置と移動範囲とに基づいて、各追跡対象オブジェクトが車両に衝突する可能性があるか否かを判定する。そして、衝突可能性算出部208は、衝突の可能性の度合を衝突可能性指標として算出する。
 例えば、道路に設置された標識のポールのように動かない物体がオブジェクトとして検出され追跡された場合には、オブジェクトの相対速度は、車速と同じ大きさで向きが逆(すなわち、自車に対して向かってくる向き)になる。この場合、その位置が移動範囲(停止前移動範囲)に含まれていなければ衝突しないため、衝突可能性算出部208は、そのようなオブジェクトに対しては移動範囲に含まれるか否かによって衝突可能性を判定できる。
 一方、自車の前方から自車に近づく自転車のように、自車の方向に動きを持つ物体がオブジェクトとして検出され追跡された場合には、オブジェクトの相対速度は、静止しているオブジェクトの場合と比較して、その絶対値が大きくなる。このようなオブジェクトの場合、オブジェクトの位置が移動範囲に含まれていなかったとしても、自車に衝突する可能性がある。このような場合、衝突可能性算出部208は、停止前経過時間内に移動範囲内にオブジェクトが入ってくる可能性があるか否かを判定することで、衝突可能性を判定する。移動範囲に含まれる停止前経過時間をτとすると、衝突可能性算出部208は、τだけ時刻が経過したときの追跡対象オブジェクトの位置を算出し、算出された位置が移動範囲に含まれるか否かによって衝突可能性を判定する。
 具体的には、自車の速度が(v,v)、オブジェクトの現在時刻tにおける位置が(X(t),Y(t))、相対速度が(u,u)の場合、オブジェクトの実際の速度V=(V,V)は、以下の式4で表される。
Figure JPOXMLDOC01-appb-M000004
 よって、τだけ経過したときのオブジェクトの位置座標は、現在の位置にVτを加算した値となるので、以下の式5で表される。
Figure JPOXMLDOC01-appb-M000005
 したがって、衝突可能性算出部208は、この位置座標が移動範囲(停止前移動範囲)に含まれるか否かによって衝突可能性を判定できる。そして、この位置座標が移動範囲のより内側に来るほど自車との衝突の可能性が高くなる。よって、衝突可能性算出部208は、この衝突の可能性の程度に応じて衝突可能性指標の値を算出する。つまり、衝突可能性算出部208は、位置座標が移動範囲のより内側に来るほど衝突可能性指標の値を高くするように、衝突可能性指標を算出する。
 なお、上記の式5で算出される位置は、オブジェクトが移動する間にオブジェクトの速度が変化しなかった場合の位置である。このため、オブジェクトの速度が変化すると、オブジェクトの位置は、式5で算出される位置から変化する。よって、衝突可能性算出部208は、所定の速度変化を考慮して位置座標を算出し、算出された位置座標が移動範囲に含まれるか否かによって衝突可能性を判定してもよい。また、複数の停止前経過時間情報が出力される場合には、衝突可能性算出部208は、その中の1つ(例えば停止前経過時間が最も長いもの)を用いて上述の計算を行うようにすればよい。あるいは、衝突可能性算出部208は、それらの平均を算出して上述の計算を行うようにしてもよい。
 なお、衝突可能性指標の値は、衝突する可能性が高い場合ほど大きくなる。この際、式5で算出された値が移動範囲のより内側、かつ車両に近い位置に対応するほど、対応するオブジェクトと車両との衝突の可能性が高いと考えられる。このため、衝突可能性算出部208は、移動範囲の内側に入る度合いが大きく、車両の近くに到達するオブジェクトほど、衝突可能性指標の値を大きくするようにすればよい。
 画像重畳部205は、移動範囲情報と、追跡対象オブジェクトの位置情報とを重畳した重畳画像を生成する。この際、画像重畳部205は、各オブジェクトの衝突可能性の値を考慮し、衝突可能性が高いオブジェクトほど強調して表示するようにする。実施の形態2にかかる重畳画像の例を、以下に説明する。
 図13~図15は、実施の形態2にかかる重畳画像を例示する図である。
 例えば、図13に例示する重畳画像は、自車の位置を中心として、その周囲で検出されたオブジェクトの位置を表示するとともに、停止前に移動し得る移動範囲R(斜線で示した領域)を表示する。図13において、円で示した位置P1~P6が、検出オブジェクトの位置を表している。そして、白い円で示されたオブジェクトA及びB(位置P6,P2)は、衝突可能性の値が高いと判定されて、強調表示されている。オブジェクトBは、静止したオブジェクトであるが、移動範囲Rの中に入っているため、衝突可能性の値が高くなっている。一方、オブジェクトAは、移動範囲Rの外に位置しているが、自車に向かってくる方向に移動している物体であるので、その衝突可能性指標の値が高くなり、強調表示されている。図13の例では、衝突する可能性があるオブジェクトの位置は大きな円で表示するとともに、目立つ色で表示するようにしている。ただし、強調表示の方法はこれに限らないのは、上述の図9~図10における説明でも述べた通りであり、任意の強調方法を用いることができる。
 一方、図14の例では、図10と同様に、重畳画像は、移動範囲を複数の段階に分けて提示している。さらに、オブジェクトA(位置P6)に対しては、この物体が自車に向かってくる方向に動いていることを表すために、その方向が矢印で示されている。また、このオブジェクトAは、車両が停止するまでに移動範囲内に入ってくる可能性があることから、矢印自体も強調表示されている。このように、静止物体以外の物体については、移動方向も示すことによって、オブジェクトが強調表示された根拠を運転者が理解しやすくなり、より適切な情報提示が可能となる。
 さらに、図15の例では、重畳画像は、オブジェクトA(位置P6)の速度が変化する場合を想定したときの、位置がずれ得る範囲を楕円E’で示している。これにより、より衝突の緊急性を判定しやすくなり、衝突を回避できる可能性が高まる。なお、この例では楕円で表示したが、最悪値のみを表示するように設定することもできる。この場合は、重畳画像は、楕円の最も車両に近い位置を、停止時の想定位置として矢印等で提示するようにすればよい。
 なお、実施の形態1にかかる画像重畳部105と同様に、自車の位置情報及び地図情報を利用できる場合には、画像重畳部205は、地図上に縮尺を合わせて地図の現在位置に重畳するようにして、重畳画像を生成するようにしてもよい。このようにすることで、運転者に対して、より的確に、周囲の情報を伝達することができる。
 このように、実施の形態2にかかる画像提示装置100は、オブジェクトの追跡結果を用いて、オブジェクトの相対速度を用いてオブジェクトの衝突可能性を判定し、運転者に提示する。これにより、衝突の可能性があるオブジェクトが移動物体である場合にも、適切に車両の周囲のオブジェクトの情報を運転者に提示できるようになる。したがって、オブジェクトが移動物体である場合であっても、停止までに車両と衝突の可能性があるオブジェクトについて、未然に衝突を回避できる可能性を高めることができる。
 また、実施の形態2にかかる画像提示装置100は、停止前経過時間と、追跡対象オブジェクトの相対位置及び相対速度とに基づいて、停止前経過時間が経過したときの各追跡対象オブジェクトの位置を予測する。実施の形態2にかかる画像提示装置100は、予測された位置と停止前移動範囲とに基づいて、各追跡対象オブジェクトが車両と衝突する可能性を表す衝突可能性指標を算出する。実施の形態2にかかる画像提示装置100は、停止前移動範囲と、検出オブジェクトの位置とを画面上で重畳する。そして、実施の形態2にかかる画像提示装置100は、算出された衝突可能性指標が大きい程、対応する検出オブジェクトの位置を強調して表示する画像を生成する。これにより、運転者は、車両と衝突する可能性の高い追跡対象オブジェクトを適切に把握することができる。
(実施の形態3)
 次に、実施の形態3について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図16は、実施の形態3にかかる画像提示装置100の構成を示す図である。実施の形態3にかかる画像提示装置100は、車速取得部101、車停止前移動範囲算出部102、センサ情報取得部103、オブジェクト追跡部207、衝突可能性算出部208、位置推定誤差算出部304、画像重畳部305及び画像提示部106を有する。図11に示した実施の形態2にかかる画像提示装置100と比較すると、位置推定誤差算出部304が追加され、画像重畳部205の代わりに、画像重畳部305が設けられている。位置推定誤差算出部304及び画像重畳部305は、それぞれ、位置推定誤差算出手段及び画像重畳手段として機能する。なお、位置推定誤差算出部304と画像重畳部305との接続関係以外の接続関係は、図11に示した構成と実質的に同様である。
 図17は、実施の形態3にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。車速取得部101は、車両の速度を表す車速情報を取得し、車停止前移動範囲算出部102へ出力する(ステップS302)。車停止前移動範囲算出部102は、車速情報に基づいて移動範囲情報(停止前移動範囲)を算出し、画像重畳部305及び衝突可能性算出部208へ出力する(ステップS304)。センサ情報取得部103は、センサを用いてオブジェクトを検出してオブジェクト検出情報を取得し、オブジェクト検出情報をオブジェクト追跡部207へ出力する(ステップS306)。オブジェクト追跡部207は、オブジェクト検出情報に基づいてオブジェクト追跡を行ってオブジェクト追跡情報を生成し、オブジェクト追跡情報を、画像重畳部305、衝突可能性算出部208及び位置推定誤差算出部304へ出力する(ステップS307)。衝突可能性算出部208は、移動範囲情報とオブジェクト追跡情報とに基づいて、追跡された各オブジェクトの衝突可能性を算出し、衝突可能性を示す衝突可能性情報を画像重畳部305へ出力する(ステップS308)。
 位置推定誤差算出部304は、オブジェクト追跡部207から出力されるオブジェクト追跡情報に基づいて、オブジェクトの位置の誤差を推定し(位置推定誤差を算出し)、位置推定誤差情報を画像重畳部305へ出力する(ステップS309)。画像重畳部305は、移動範囲情報と、オブジェクト追跡情報と、衝突可能性情報と、位置推定誤差情報とに基づいて、重畳画像を生成し、重畳画像を示す重畳画像情報を画像提示部106へ出力する(ステップS310)。画像提示部106は、画像重畳部305から出力される重畳画像情報を提示(表示)する(ステップS312)。
 次に、図16に示した画像提示装置100の動作について説明する。なお、位置推定誤差算出部304及び画像重畳部305以外の構成要素の動作は、図11に示した実施の形態2にかかる画像提示装置100のものと実質的に同様である。
 位置推定誤差算出部304の動作は、基本的には、図2に示した位置推定誤差算出部104の動作と実質的に同様である。ただし、位置の推定誤差は、オブジェクトの追跡によって得られた位置の推定誤差である。例えば、カルマンフィルタによる追跡を行う場合には、位置推定誤差算出部304は、位置を表す状態変数の共分散行列の情報を含むオブジェクト追跡情報を算出し、この位置を表す情報の値に基づいて推定誤差情報を算出するようにしてもよい。
 画像重畳部305の動作は、基本的には、図11に示した画像重畳部205の動作と実質的にと同様である。ただし、図2に示した画像重畳部105と同様に、画像重畳部305は、位置の推定誤差情報も併せて重畳する。実施の形態3にかかる重畳画像の例を、以下に説明する。
 図18~図20は、実施の形態3にかかる重畳画像を例示する図である。図18~図20に例示する重畳画像は、それぞれ、図13~図15に例示する重畳画像に対して、さらに位置の推定誤差を重畳したものになっている。つまり、図18~図20の例では、各オブジェクトの位置P1~P6それぞれの周囲に、各オブジェクトの位置P1~P5の推定誤差を表す楕円E1~E6が重畳されている。
 このように、位置の推定誤差情報も併せて提示することにより、図13~図15に例示する重畳画像よりも、衝突の可能性を正確に提示できるようになる。特に、位置P1について、図13~図15の例では位置P1に対応するオブジェクトは車両と衝突する可能性がない(低い)と判定されている。したがって、図13~図15の例では、位置P1は強調表示されていない。一方、図18~図20の例では、位置P1の推定誤差を表す楕円E1が移動範囲Rと重なりを持つので、位置P1に対応するオブジェクトは、車両と衝突する可能性があるオブジェクトとして強調表示されている。したがって、運転者は、位置P6,P2に対応するオブジェクトだけでなく、位置P1に対応するオブジェクトについても、衝突の可能性があると認識することができる。したがって、実施の形態2の場合と比較して、さらに適切に車両の周囲のオブジェクトの情報を運転者に提示できるようになる。したがって、停止までに車両と衝突の可能性があるオブジェクトについて、未然に衝突を回避できる可能性をさらに高めることができる。
(実施の形態4)
 次に、実施の形態4について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図21は、実施の形態4にかかる画像提示装置100の構成を示す図である。実施の形態4にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、位置推定誤差算出部104と、映像情報取得部409と、画像重畳部405と、画像提示部106とを有する。図2に示した実施の形態1にかかる画像提示装置100と比較すると、映像情報取得部409が追加され、画像重畳部105の代わりに、画像重畳部405が設けられている。映像情報取得部409及び画像重畳部405は、それぞれ、映像情報取得手段及び画像重畳手段として機能する。なお、映像情報取得部409と画像重畳部405との接続関係以外の接続関係は、図2に示した構成と実質的に同様である。
 図22は、実施の形態4にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。車速取得部101は、車両の速度を表す車速情報を取得し、車停止前移動範囲算出部102へ出力する(ステップS402)。車停止前移動範囲算出部102は、車速情報に基づいて、そのときにブレーキを踏んだときに停止までに車両が移動し得る範囲を表す移動範囲情報を算出し、画像重畳部405へ出力する(ステップS404)。センサ情報取得部103は、センサを用いてオブジェクトを検出してオブジェクト検出情報を取得し、オブジェクト検出情報を画像重畳部405及び位置推定誤差算出部104へ出力する(ステップS406)。位置推定誤差算出部104は、検出されたオブジェクトの位置の誤差を推定し(位置推定誤差を算出し)、推定された誤差を示す位置推定誤差情報を画像重畳部405へ出力する(ステップS408)。
 映像情報取得部409は、撮影された映像を示す映像情報を取得し、画像重畳部405へ出力する(ステップS409)。画像重畳部405は、移動範囲情報と、オブジェクト検出情報と、位置推定誤差情報と、映像情報とに基づいて、重畳画像を生成し、画像提示部106へ出力する(ステップS410)。画像提示部106は、画像重畳部405から出力される重畳画像情報を提示(表示)する(ステップS412)。
 次に、図21に示した実施の形態4にかかる画像提示装置100の動作について説明する。なお、映像情報取得部409及び画像重畳部405以外の構成要素の動作は、図2に示した実施の形態1にかかる画像提示装置100のものと実質的に同様である。
 映像情報取得部409は、自車の周囲の映像を撮影する手段であり、基本的には自車に搭載されたカメラ(撮像装置)で構成され得る。あるいは、映像情報取得部409は、画像提示装置100の外部のカメラで撮影された映像を示す映像情報を、カメラから取得してもよい。カメラは映像が撮影できるものであればどのようなものでもよい。ただし、後述する実施の形態で述べるように、映像解析を行って物体の検出及び認識を行う場合は、カメラは、検出及び認識の処理が可能な解像度、画質及びフレームレートで映像を撮影できる必要がある。そうでない場合には、カメラは、目視で物体が確認できる解像度及び画質が確保できるカメラであればどのようなカメラであってもよい。撮影された映像(時系列のフレーム画像)は、画像重畳部405へ出力される。
 画像重畳部405の動作は、基本的には、図2に示した実施の形態1にかかる画像重畳部105の動作と同様である。ただし、画像重畳部405は、映像情報取得部409で得られた映像(フレーム画像)も重畳する。また、画像重畳部405は、カメラの視界(カメラで撮影されている範囲)の情報も併せて重畳するようにしてもよい。
 図23は、実施の形態4にかかる重畳画像を例示する図である。図23は、自車の前方を撮影するカメラの映像Imが重畳され、カメラの視界も併せて重畳された重畳画像を例示している。図中、縦縞で示した領域R’が、カメラの視界に相当する。
 また、画像重畳部405は、映像を提示する際に、単に映像をそのまま提示するだけでなく、オブジェクトが検出されている付近を拡大して提示するように、重畳画像を生成してもよい。オブジェクトが検出された位置が映像(画像)上でどの位置に相当するかについては、事前にキャリブレーションを行って算出することができるカメラパラメータを用いて算出することができる。したがって、画像重畳部405は、画像上で検出オブジェクトが撮影されている画像領域を算出し、その部分を拡大して提示するように、重畳画像を生成する。これにより、運転者は、検出された物体が何であるかをより容易に視認することができる。
 このように、映像も併せて提示することで、運転者はどの位置が撮影されているかを把握できるようになる。また、運転者は、映像を通じて、検出されているオブジェクトを確認(視認)できるようになる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。また、映像も併せて提示することで、検知されたオブジェクトが何であるかを把握できるようになる。したがって、図2に示した実施の形態1の場合と比較して、運転者は、周囲の状況をより容易に把握することができる。
(実施の形態5)
 次に、実施の形態5について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図24は、実施の形態5にかかる画像提示装置100の構成を示す図である。実施の形態5にかかる画像提示装置100は、車速取得部101、車停止前移動範囲算出部102、センサ情報取得部103、オブジェクト追跡部207、衝突可能性算出部208、映像情報取得部409、画像重畳部505及び画像提示部106を有する。図11に示した実施の形態2にかかる画像提示装置100と比較すると、映像情報取得部409が追加され、画像重畳部205の代わりに、画像重畳部505が設けられている。映像情報取得部409及び画像重畳部505は、それぞれ、映像情報取得手段及び画像重畳手段として機能する。なお、映像情報取得部409と画像重畳部505との接続関係以外の接続関係は、図11にした構成と実質的に同様である。
 図25は、実施の形態5にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。S502~S508の処理は、それぞれ、図12に示したS202~S208の処理と実質的に同様であるので、説明を省略する。映像情報取得部409は、映像情報を取得し、画像重畳部505へ出力する(ステップS509)。画像重畳部505は、移動範囲情報と、オブジェクト追跡情報と、衝突可能性情報と、映像情報とに基づいて、重畳画像を生成し、重畳画像情報を画像提示部106へ出力する(ステップS510)。画像提示部106は、画像重畳部505から出力される重畳画像情報を提示(表示)する(ステップS512)。
 次に、図24に示した実施の形態5にかかる画像提示装置100の動作について説明する。映像情報取得部409及び画像重畳部505以外の構成要素の動作は、図11に示した実施の形態2にかかる画像提示装置100のものと実質的に同様である。また、映像情報取得部409の動作は、図21に示した実施の形態4にかかる画像提示装置100のものと同様である。
 画像重畳部505の動作は、基本的には、図11に示した実施の形態2にかかる画像重畳部205の動作と同様である。ただし、画像重畳部505は、映像情報取得部409で得られた映像(フレーム画像)も重畳する。映像の重畳及びカメラの視界情報の提示については、図21に示した実施の形態4にかかる画像重畳部405と同様である。生成された画像は、画像提示部106へ出力され、運転者に提示される。
 このように、映像も併せて提示することで、運転者はどの位置が撮影されているかを把握できるようになる。また、運転者は、映像を通じて、検出されているオブジェクトを確認(視認)できるようになる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。また、映像も併せて提示することで、検知されたオブジェクトが何であるかを把握できるようになる。したがって、図11に示した実施の形態2の場合と比較して、運転者は、周囲の状況をより容易に把握することができる。
(実施の形態6)
 次に、実施の形態6について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図26は、実施の形態6にかかる画像提示装置100の構成を示す図である。実施の形態6にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、オブジェクト追跡部207と、衝突可能性算出部208と、位置推定誤差算出部304とを有する。また、実施の形態6にかかる画像提示装置100は、映像情報取得部409と、画像重畳部605と、画像提示部106とを有する。図16に示した実施の形態3にかかる画像提示装置100と比較すると、映像情報取得部409が追加され、画像重畳部305の代わりに、画像重畳部605が設けられている。映像情報取得部409及び画像重畳部605は、それぞれ、映像情報取得手段及び画像重畳手段として機能する。なお、映像情報取得部409と画像重畳部605との接続関係以外の接続関係は、図16に示した構成と実質的に同様である。
 図27は、実施の形態6にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。S602~S609の処理は、それぞれ、図17に示したS302~S309の処理と実質的に同様であるので、説明を省略する。映像情報取得部409は、映像情報を取得し、画像重畳部605へ出力する(ステップS610)。画像重畳部605は、移動範囲情報と、オブジェクト追跡情報と、衝突可能性情報と、位置推定誤差情報と、映像情報とに基づいて、重畳画像を生成し、重畳画像情報を画像提示部106へ出力する(ステップS611)。画像提示部106は、画像重畳部505から出力される重畳画像情報を提示(表示)する(ステップS612)。
 次に、図26に示した実施の形態6にかかる画像提示装置100の動作について説明する。映像情報取得部409及び画像重畳部605以外の構成要素の動作は、図16に示した実施の形態3にかかる画像提示装置100のものと実質的に同様である。また、映像情報取得部409の動作は、図21に示した実施の形態4にかかる画像提示装置100のものと同様である。
 画像重畳部605の動作は、基本的には、図16に示した実施の形態3にかかる画像重畳部305の動作と同様である。ただし、画像重畳部605は、映像情報取得部409で得られた映像(フレーム画像)も重畳する。映像の重畳及びカメラの視界情報の提示については、図21に示した実施の形態4にかかる画像重畳部405と同様である。生成された画像は、画像提示部106へ出力され、運転者に提示される。
 このように、映像も併せて提示することで、運転者はどの位置が撮影されているかを把握できるようになる。また、運転者は、映像を通じて、検出されているオブジェクトを確認(視認)できるようになる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。また、映像も併せて提示することで、検知されたオブジェクトが何であるかを把握できるようになる。したがって、図16に示した実施の形態3の場合と比較して、運転者は、周囲の状況をより容易に把握することができる。
(実施の形態7)
 次に、実施の形態7について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図28は、実施の形態7にかかる画像提示装置100の構成を示す図である。実施の形態7にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、位置推定誤差算出部104とを有する。また、実施の形態7にかかる画像提示装置100は、映像情報取得部409と、オブジェクト検出部710と、対応付け部711と、画像重畳部705と、画像提示部106とを有する。図21に示した実施の形態4にかかる画像提示装置100と比較すると、オブジェクト検出部710と対応付け部711が追加され、画像重畳部405の代わりに、画像重畳部705が設けられている。オブジェクト検出部710、対応付け部711及び画像重畳部705は、それぞれ、オブジェクト検出手段、対応付け手段及び画像重畳手段として機能する。なお、オブジェクト検出部710、対応付け部711及び画像重畳部705の接続関係以外の接続関係は、図21に示した構成と実質的に同様である。
 図29は、実施の形態7にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。S702~S709の処理は、それぞれ、図22に示したS402~S409の処理と実質的に同様であるので、説明を省略する。
 オブジェクト検出部710は、映像情報取得部409から出力される映像(画像)に対してオブジェクト検出処理を行って第二オブジェクト検出情報を取得し、第二オブジェクト検出情報を対応付け部711へ出力する(ステップS710)。対応付け部711は、オブジェクト検出部710から出力される第二オブジェクト検出情報と、センサ情報取得部103から出力されるオブジェクト検出情報とを対応付ける処理を行い、対応付け情報を画像重畳部705へ出力する(ステップS712)。画像重畳部705は、移動範囲情報と、オブジェクト検出情報と、位置推定誤差情報と、映像情報と、対応付け情報とに基づいて、重畳画像を生成し、重畳画像情報を画像提示部106へ出力する(ステップS720)。画像提示部106は、画像重畳部705から出力される重畳画像情報を提示(表示)する(ステップS722)。
 次に、図28に示した実施の形態7にかかる画像提示装置100の動作について説明する。オブジェクト検出部710、対応付け部711及び画像重畳部705以外の構成要素の動作は、図21に示した実施の形態4にかかる画像提示装置100のものと実質的に同様である。
 オブジェクト検出部710は、映像情報取得部409で取得した映像(フレーム画像)に対してオブジェクト検出処理を行い、検出結果を第二オブジェクト検出情報として出力する。画像からのオブジェクト検出方式としては様々なものを用いることが可能である。例えば、HOG(Histograms of Oriented Gradients)特徴やSIFT(Scale Invariant Feature Transform)特徴などの視覚特徴量を画像から抽出し、抽出した特徴に基づいて学習させた検出器を用いてオブジェクトを検出することができる。あるいは、CNN(Convolutional Neural Network)を用いて画像から直接オブジェクトを検出する検出器を用いてもよい。
 オブジェクト検出部710は、検出されたオブジェクトの情報を集約して、第二オブジェクト検出情報として生成する。ここで、第二オブジェクト検出情報は、例えば、オブジェクトの検出位置、大きさ、及びオブジェクトの種類(クラス)を含む。例えば、検出位置(及び大きさ)を画面上の位置で表す場合には、オブジェクトを囲う矩形の頂点の座標(例えば矩形の左上及び右下の頂点の座標)で表せばよい。あるいは、検出位置(及び大きさ)を、矩形の1つの頂点(例えば左上の頂点)、矩形の幅及び高さの情報で表してもよい。また、複数のオブジェクトが検出された場合には、第二オブジェクト検出情報は、検出された複数のオブジェクトの情報を含むことになる。また、第二オブジェクト検出情報は、検出オブジェクトを同一画像内で区別するID情報も含み得る。生成された第二オブジェクト検出情報は、対応付け部711へ出力される。
 対応付け部711は、第二オブジェクト検出情報に含まれるオブジェクトの検出結果と、センサ情報取得部103から出力されるオブジェクト検出情報(以後、第一オブジェクト検出情報と呼ぶ)に含まれるオブジェクトの検出結果との対応付けを行う。すなわち、対応付け部711は、第二オブジェクト検出情報及び第一オブジェクト検出情報の両方における検出オブジェクトの中で同一と推定されるものを判定する。そして、対応付け部711は、同一と判定された、第二オブジェクト検出情報におけるオブジェクトと第一オブジェクト検出情報におけるオブジェクトとを対応付ける。
 両者を対応付ける方法としては様々な方法がある。例えば、対応付け部711は、第二オブジェクト検出情報に含まれる検出オブジェクトの位置情報を、カメラのキャリブレーションによって算出されるカメラパラメータを用いて自車相対座標系での位置座標に変換する。そして、対応付け部711は、この座標系での位置の距離が予め定められた閾値よりも近い場合に、第二オブジェクト検出情報に含まれる検出オブジェクトを、第一オブジェクト検出情報に含まれる検出オブジェクトと対応付ける。
 あるいは、対応付け部711は、第一オブジェクト検出情報の位置情報を、カメラパラメータを用いて画像上の位置座標に変換する。そして、対応付け部711は、画像上での位置の距離が予め定められた閾値よりも近い場合に、第一オブジェクト検出情報の位置情報を、第二オブジェクト検出情報に含まれる検出オブジェクトと対応付けるようにしてもよい。
 対応付け部711は、上記のようにして対応付けられたオブジェクトに対して、第二オブジェクト検出情報に、対応付けられた第一オブジェクト検出情報に含まれるオブジェクトのID情報を付加して、対応付け情報として生成する。つまり、対応付け情報は、対応付けの結果を示す情報である。この際、対応付け部711は、対応付けられなかったオブジェクトに対しては、対応付けられなかったことを示す情報を付加するようにすればよい。例えば、オブジェクトのIDが非負整数で定義される場合には、対応付け部711は、対応付けられなかったオブジェクトのIDを負の値に設定して、対応付けられなかったことを示すようにすればよい。生成された対応付け情報は、画像重畳部705へ出力される。
 画像重畳部705の動作は、基本的には、図21に示した実施の形態4にかかる画像重畳部405の動作と同じである。ただし、画像重畳部705は、対応付け情報に含まれるオブジェクト検出情報に関するオブジェクトを、映像情報(カメラ画像)に重畳して提示する重畳画像を生成するようにしてもよい。例えば、画像重畳部705は、検出されたオブジェクトの矩形及び種類を、カメラ画像に重畳して提示する重畳画像を生成するようにしてもよい。
 また、第一オブジェクト検出情報に含まれるオブジェクトの情報を重畳する際に、そのオブジェクトが対応付け情報によって第二オブジェクト検出情報における検出オブジェクトのいずれかと対応付けられている場合には、画像重畳部705は、対応付けられたオブジェクトの種類に応じて、重畳する態様を変化させるようにしてもよい。例えば、画像重畳部705は、オブジェクトの種類に応じて、重畳するマークを変えるようにしてもよい。また、画像重畳部705は、オブジェクトの種類に応じて、衝突したときの影響の違いを考慮して、重畳する態様を変化させるようにしてもよい。例えば、画像重畳部705は、衝突したときの影響の度合が予め定められた閾値よりも大きいオブジェクトを優先して提示するようにしてもよい。あるいは、画像重畳部705は、衝突したときの影響の度合に応じて強調の程度を変化させてもよい。例えば、画像重畳部705は、衝突したときの影響の度合が大きい程、強調の程度を高くしてもよい。上記「重畳する態様」は、「強調の程度」も包含する。
 また、画像重畳部705は、強調表示を、カメラ画像上に検出結果を重畳する際にも合わせて行うようにしてもよい。画像重畳部705は、例えば、対応するオブジェクトを、より太い矩形で囲ったり、目立つ色で提示したり、あるいは、矩形を点滅さたりするようにしてもよい。あるいは、画像重畳部705は、そのオブジェクト自体を拡大して併せて提示するようにしてもよい。つまり、画像重畳部705は、映像において強調して表示するオブジェクトが存在する位置に対応する画像領域を算出し、算出された画像領域を拡大して重畳するようにしてもよい。特にオブジェクトが小さい場合には、拡大表示することにより、視認性が向上する。
 このように、実施の形態7にかかる画像提示装置100は、映像に対してオブジェクト検出処理を行って第二オブジェクト検出情報を生成する。また、実施の形態7にかかる画像提示装置100は、オブジェクト検出情報に含まれるオブジェクトと第二オブジェクト検出情報に含まれるオブジェクトとを対応付けて、対応付けの結果を示す対応付け情報を生成する。また、実施の形態7にかかる画像提示装置100は、対応付け情報に示されたオブジェクト検出情報に関するオブジェクトを、映像に重畳して提示する重畳画像を生成する。つまり、実施の形態7では、映像も併せて提示するとともに、オブジェクト認識を行った結果も重畳して表示し、かつ、その結果に基づいて重畳方法を制御する。これにより、運転者は、映像を通じて、検出されているオブジェクトを、より確実に認識できるようになる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。また、映像も併せて提示することで、検知されたオブジェクトが何であるかを把握できるようになる。したがって、図21に示した実施の形態4の場合と比較して、運転者は、周囲の状況をより容易に把握することができる。
 また、実施の形態7にかかる画像提示装置100は、対応付けられたオブジェクトの種類に応じて、重畳する態様を変化させるように構成されている。これにより、運転者は、各オブジェクトの衝突したときの影響の度合を、より確実に把握することができる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。
(実施の形態8)
 次に、実施の形態8について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図30は、実施の形態8にかかる画像提示装置100の構成を示す図である。実施の形態8にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、オブジェクト追跡部207と、衝突可能性算出部208とを有する。また、実施の形態8にかかる画像提示装置100は、映像情報取得部409と、オブジェクト検出部710と、対応付け部811と、画像重畳部805と、画像提示部106とを有する。図24に示した実施の形態5にかかる画像提示装置100と比較すると、オブジェクト検出部710及び対応付け部811が追加され、画像重畳部505の代わりに、画像重畳部805が設けられている。オブジェクト検出部710、対応付け部811及び画像重畳部805は、それぞれ、オブジェクト検出手段、対応付け手段及び画像重畳手段として機能する。なお、オブジェクト検出部710、対応付け部811及び画像重畳部705の接続関係以外の接続関係は、図24に示した構成と実質的に同様である。
図31は、実施の形態8にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。S802~S809の処理は、それぞれ、図25に示したS502~S509の処理と実質的に同様であるので、説明を省略する。
 オブジェクト検出部710は、映像情報取得部409から出力される映像(画像)に対してオブジェクト検出処理を行って第二オブジェクト検出情報を取得し、第二オブジェクト検出情報を対応付け部811へ出力する(ステップS810)。対応付け部811は、オブジェクト検出部710から出力される第二オブジェクト検出情報と、オブジェクト追跡部207から出力されるオブジェクト追跡情報とを対応付ける処理を行い、対応付け情報を画像重畳部805へ出力する(ステップS812)。画像重畳部805は、移動範囲情報と、オブジェクト追跡情報と、衝突可能性情報と、映像情報と、対応付け情報とに基づいて、重畳画像を生成し、重畳画像情報を画像提示部106へ出力する(ステップS820)。画像提示部106は、画像重畳部805から出力される重畳画像情報を提示(表示)する(ステップS822)。
 次に、図30に示した実施の形態8にかかる画像提示装置100の動作について説明する。オブジェクト検出部710、対応付け部811及び画像重畳部805以外の構成要素の動作は、図24に示した実施の形態5にかかる画像提示装置100のものと実質的に同様である。また、オブジェクト検出部710の動作は、図28に示した実施の形態7にかかるオブジェクト検出部710の動作と実質的に同様である。
 対応付け部811の動作は、基本的には、図28に示した実施の形態7にかかる対応付け部711の動作と同様である。ただし、対応付け部811は、センサによる検出結果に対して対応付けを行うのではなく、オブジェクト追跡部207で得られたオブジェクト追跡情報を用いて対応付けを行う。対応付けの手法自体は、図28に示した対応付け部711における手法と同様である。つまり、対応付け部811は、第二オブジェクト検出情報に含まれる検出オブジェクトの位置と、オブジェクト追跡情報に含まれる追跡対象オブジェクトとの位置の近さに基づいて、両者の対応付けを行う。そして、対応付け部811は、対応付けられたオブジェクトに対して、第二オブジェクト検出情報に、対応付けられたオブジェクト追跡情報に含まれるオブジェクトのID情報を付加して、対応付け情報として生成する。生成された対応付け情報は、画像重畳部805へ出力される。
 画像重畳部805の動作は、基本的には、図24に示した実施の形態5にかかる画像重畳部505の動作と同様である。ただし、画像重畳部805は、映像によるオブジェクトの検出結果を提示するとともに、対応付け情報に基づいて、情報の重畳方法を変えて重畳画像を生成する。映像によるオブジェクトの検出結果の提示、及び、対応付け情報に基づいて情報の重畳方法を変える手法は、図28に示した実施の形態7にかかる画像重畳部705と同様である。生成された画像は、画像提示部106へ出力され、運転者に提示される。
 このように、実施の形態8では、映像も併せて提示するとともに、オブジェクト認識を行った結果も重畳して表示し、かつ、その結果に基づいて重畳方法を制御する。これにより、運転者は、映像を通じて、検出されているオブジェクトを、より確実に認識できるようになる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。また、映像も併せて提示することで、検知されたオブジェクトが何であるかを把握できるようになる。したがって、図24に示した実施の形態5の場合と比較して、運転者は、周囲の状況をより容易に把握することができる。
(実施の形態9)
 次に、実施の形態9について、図面を参照しながら説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図32は、実施の形態9にかかる画像提示装置100の構成を示す図である。実施の形態9にかかる画像提示装置100は、車速取得部101と、車停止前移動範囲算出部102と、センサ情報取得部103と、オブジェクト追跡部207と、衝突可能性算出部208と、位置推定誤差算出部304とを有する。また、実施の形態9にかかる画像提示装置100は、映像情報取得部409と、オブジェクト検出部710と、対応付け部811と、画像重畳部905と、画像提示部106とを有する。図26に示した実施の形態6にかかる画像提示装置100と比較すると、オブジェクト検出部710及び対応付け部811が追加され、画像重畳部605の代わりに、画像重畳部905が設けられている。オブジェクト検出部710、対応付け部811及び画像重畳部905は、それぞれ、オブジェクト検出手段、対応付け手段及び画像重畳手段として機能する。なお、オブジェクト検出部710、対応付け部811及び画像重畳部905の接続関係以外の接続関係は、図26に示した構成と実質的に同様である。
 図33は、実施の形態9にかかる画像提示装置100によって実行される画像提示方法を示すフローチャートである。S902~S910の処理は、それぞれ、図27に示したS602~S610の処理と実質的に同様であるので、説明を省略する。
 オブジェクト検出部710は、映像情報取得部409から出力される映像(画像)に対してオブジェクト検出処理を行って第二オブジェクト検出情報を取得し、第二オブジェクト検出情報を対応付け部811へ出力する(ステップS912)。対応付け部811は、オブジェクト検出部710から出力される第二オブジェクト検出情報と、オブジェクト追跡部207から出力されるオブジェクト追跡情報とを対応付ける処理を行い、対応付け情報を画像重畳部905へ出力する(ステップS914)。画像重畳部905は、移動範囲情報と、オブジェクト追跡情報と、衝突可能性情報と、位置推定誤差情報と、映像情報と、対応付け情報とに基づいて、重畳画像を生成し、重畳画像情報を画像提示部106へ出力する(ステップS920)。画像提示部106は、画像重畳部905から出力される重畳画像情報を提示(表示)する(ステップS922)。
 次に、図32に示した実施の形態9にかかる画像提示装置100の動作について説明する。オブジェクト検出部710、対応付け部811及び画像重畳部905以外の構成要素の動作は、図26に示した実施の形態6にかかる画像提示装置100のものと実質的に同様である。また、オブジェクト検出部710及び対応付け部811の動作は、それぞれ、図30に示した実施の形態8にかかるオブジェクト検出部710及び対応付け部811の動作と実質的に同様である。
 画像重畳部905の動作は、基本的には、図26に示した実施の形態6にかかる画像重畳部605の動作と同様である。ただし、画像重畳部905は、映像によるオブジェクトの検出結果を提示するとともに、対応付け情報に基づいて、情報の重畳方法を変えて重畳画像を生成する。映像によるオブジェクトの検出結果の提示、及び、対応付け情報に基づいて情報の重畳方法を変える手法は、図28に示した実施の形態7にかかる画像重畳部705と同様である。生成された画像は、画像提示部106へ出力され、運転者に提示される。
 このように、実施の形態9では、映像も併せて提示するとともに、オブジェクト認識を行った結果も重畳して表示し、かつ、その結果に基づいて重畳方法を制御する。これにより、運転者は、映像を通じて、検出されているオブジェクトを、より確実に認識できるようになる。したがって、運転者は、より適切な衝突回避行動をとることができるようになる。また、映像も併せて提示することで、検知されたオブジェクトが何であるかを把握できるようになる。したがって、図26に示した実施の形態6の場合と比較して、運転者は、周囲の状況をより容易に把握することができる。
(ハードウェア構成例)
 ここで、画像提示装置100のハードウェア構成について以下に説明する。画像提示装置100の各構成要素は、各構成要素を実現するハードウェア(例:ハードワイヤードされた電子回路など)で実現されてもよい。あるいは、画像提示装置100の各構成要素は、ハードウェアとソフトウェアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、画像提示装置100の各構成要素がハードウェアとソフトウェアとの組み合わせで実現される場合について、さらに説明する。
 図34は、画像提示装置100を実現するためのハードウェア構成を例示する図である。ハードウェア構成は、計算機1000、センサ1200、車速センサ1300、カメラ1400及びディスプレイ1500を含み得る。計算機1000は、任意の計算機(情報処理装置)である。例えば計算機1000は、Personal Computer(PC)又は産業用コンピュータなどである。計算機1000は、画像提示装置100を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
 計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及び周辺機器インタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及び周辺機器インタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置、及び、ディスプレイ装置などの出力装置が接続される。図34では、入出力インタフェース1100にディスプレイ1500が接続されているが、このディスプレイ1500は、画像提示装置100の画像提示部106に対応し得る。
 周辺機器インタフェース1120は、周辺機器を計算機1000に接続するためのインタフェースである。例えば、周辺機器インタフェース1120は、USB(Universal Serial Bus)又はIEEE1394などのインタフェースである。あるいは、例えば、周辺機器インタフェース1120は、有線又は無線のネットワークインターフェース、又はBluetooth(登録商標)などのインタフェースである。
 さらに、周辺機器インタフェース1120には、センサ1200、車速センサ1300、及びカメラ1400が接続されており、これらの機器と計算機1000とは、周辺機器インタフェース1120を介して通信できるようになっている。ここで、センサ1200、車速センサ1300、及びカメラ1400は、それぞれ、画像提示装置100の、センサ情報取得部103、車速取得部101、及び映像情報取得部409に対応し得る。センサ情報取得部103がソフトウェアによって実現される場合は、センサ情報取得部103は、センサ1200からセンサ情報を取得する。車速取得部101がソフトウェアによって実現される場合は、車速取得部101は、車速センサ1300から、車速情報を取得する。映像情報取得部409がソフトウェアによって実現される場合は、映像情報取得部409は、カメラ1400から、映像情報を取得する。
 ストレージデバイス1080は、画像提示装置100の各構成要素を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
(変形例)
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述したフローチャートの各ステップの処理の1つ以上は、省略され得る。また、上述したフローチャートの各ステップの順序は、適宜、変更可能である。例えば、図3において、S102~S104の処理は、S106~S108の処理の後で実行されてもよい。また、図22において、S409の処理は、S402~S408の処理の前に実行されてもよい。これらのことは、他のフローチャートでも同様である。
 また、画像提示装置100が搭載される車両は、乗用車に限られず、物流倉庫等で稼働するフォークリフト等の作業用車両も含む。また、画像提示装置100は、必ずしも車両に搭載される必要はない。画像提示装置100が計算機1000によって実現される場合、センサ1200、車速センサ1300、カメラ1400及びディスプレイ1500が車両に搭載されていればよい。この場合、画像提示装置100(計算機1000)は、センサ1200、車速センサ1300、カメラ1400及びディスプレイ1500と無線等により通信を行ってもよい。そして、画像提示装置100は、センサ1200、車速センサ1300及びカメラ1400から各種情報を受信して上述した処理を行い、重畳画像を、ディスプレイ1500に送信してもよい。この場合、画像提示部の「重畳画像を提示する」処理は、ディスプレイ1500に重畳画像を送信する処理を包含する。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 車両の速度である車速を取得する車速取得手段と、
 前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出する移動範囲算出手段と、
 センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得するセンサ情報取得手段と、
 前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成する画像重畳手段と、
 生成された前記重畳画像を提示する画像提示手段と
 を有する画像提示装置。
 (付記2)
 前記検出オブジェクトの位置情報に基づいて各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成する位置推定誤差算出手段
 をさらに有し、
 前記画像重畳手段は、前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置と、前記位置推定誤差情報とを画面上で重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
 付記1に記載の画像提示装置。
 (付記3)
 前記オブジェクト検出情報に含まれる検出オブジェクトを追跡する処理を行って、前記追跡された検出オブジェクトである追跡対象オブジェクトの前記車両に対する相対位置及び相対速度を含むオブジェクト追跡情報を生成するオブジェクト追跡手段と、
 前記車両が停止するまでに経過する停止前経過時間と、前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの相対位置及び前記相対速度とに基づいて、前記停止前経過時間が経過したときの各追跡対象オブジェクトの位置を予測し、予測された位置と前記停止前移動範囲とに基づいて、各追跡対象オブジェクトが前記車両と衝突する可能性の度合を表す衝突可能性指標を算出する衝突可能性算出手段と、
 をさらに有し、
 前記画像重畳手段は、前記停止前移動範囲と、前記検出オブジェクトの位置とを画面上で重畳し、算出された前記衝突可能性指標が大きい程、対応する前記検出オブジェクトの位置を強調して表示する前記重畳画像を生成する
 付記1に記載の画像提示装置。
 (付記4)
 前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの位置情報に基づいて、各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成する位置推定誤差算出手段
 をさらに有し、
 前記画像重畳手段は、前記位置推定誤差情報を画面上でさらに重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
 付記3に記載の画像提示装置。
 (付記5)
 映像を示す映像情報を取得する映像情報取得手段
 をさらに有し、
 前記画像重畳手段は、前記映像情報が重畳された前記重畳画像を生成する
 付記1~4のいずれか1項に記載の画像提示装置。
 (付記6)
 前記画像重畳手段は、前記映像において強調して表示するオブジェクトが存在する位置に対応する画像領域を算出し、算出された画像領域を拡大するように、前記重畳画像を生成する
 付記5に記載の画像提示装置。
 (付記7)
 前記映像に対してオブジェクト検出処理を行って第二オブジェクト検出情報を生成するオブジェクト検出手段と、
 前記オブジェクト検出情報に含まれるオブジェクトと前記第二オブジェクト検出情報に含まれるオブジェクトとを対応付けて、対応付けの結果を示す対応付け情報を生成する対応付け手段と
 をさらに有し、
 前記画像重畳手段は、前記対応付け情報に示されたオブジェクト検出情報に関するオブジェクトを、前記映像に重畳して提示する重畳画像を生成する
 付記5又は6に記載の画像提示装置。
 (付記8)
 前記第二オブジェクト検出情報は、検出されたオブジェクトの種類の情報を含み、
 前記画像重畳手段は、対応付けられたオブジェクトの種類に応じて、重畳する態様を変化させる
 付記7に記載の画像提示装置。
 (付記9)
 前記移動範囲算出手段は、複数の加速度それぞれに対して停止前移動範囲を算出し、
 前記画像重畳手段は、前記複数の加速度それぞれに対して算出された停止前移動範囲に基づいて、表示態様を段階的に変化させて停止前移動範囲を重畳する
 付記1~8のいずれか1項に記載の画像提示装置。
 (付記10)
 前記移動範囲算出手段は、路面の状態、道路の勾配、前記車両の重量、及び前記車速の履歴情報のうちの少なくとも1つから、前記停止前移動範囲を算出する
 付記1~9のいずれか1項に記載の画像提示装置。
 (付記11)
 前記画像重畳手段は、前記車両の現在位置及び周囲の地図情報を取得し、前記地図情報の前記現在位置に重畳するようにして、前記重畳画像を生成する
 付記1~10のいずれか1項に記載の画像提示装置。
 (付記12)
 前記画像重畳手段は、前記停止前移動範囲の前記車両に近い位置において重なりを有する可能性があると推定された前記検出オブジェクトの位置を、より強調して表示するように、前記重畳画像を生成する
 付記1~11のいずれか1項に記載の画像提示装置。
 (付記13)
 前記画像提示手段は、前記検出オブジェクトの位置を強調して表示する前記重畳画像を提示する際に、前記検出オブジェクトの位置を示すマークの色を目立つ色とするか、前記マークの大きさを大きくするか、前記マークを点滅させるか、テキストによる警告情報をさらに重畳するか、音による警告を行うかの少なくとも1つを行うことによって、前記検出オブジェクトの位置を強調して提示するように、前記重畳画像を生成する
 付記1~12のいずれか1項に記載の画像提示装置。
 (付記14)
 車両の速度である車速を取得し、
 前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出し、
 センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得し、
 前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成し、
 生成された前記重畳画像を提示する
 画像提示方法。
 (付記15)
 前記検出オブジェクトの位置情報に基づいて各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成し、
 前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置と、前記位置推定誤差情報とを画面上で重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
 付記14に記載の画像提示方法。
 (付記16)
 前記オブジェクト検出情報に含まれる検出オブジェクトを追跡する処理を行って、前記追跡された検出オブジェクトである追跡対象オブジェクトの前記車両に対する相対位置及び相対速度を含むオブジェクト追跡情報を生成し、
 前記車両が停止するまでに経過する停止前経過時間と、前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの相対位置及び前記相対速度とに基づいて、前記停止前経過時間が経過したときの各追跡対象オブジェクトの位置を予測し、予測された位置と前記停止前移動範囲とに基づいて、各追跡対象オブジェクトが前記車両と衝突する可能性の度合を表す衝突可能性指標を算出し、
 前記停止前移動範囲と、前記検出オブジェクトの位置とを画面上で重畳し、算出された前記衝突可能性指標が大きい程、対応する前記検出オブジェクトの位置を強調して表示する前記重畳画像を生成する
 付記14に記載の画像提示方法。
 (付記17)
 前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの位置情報に基づいて、各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成し、
 前記位置推定誤差情報を画面上でさらに重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
 付記16に記載の画像提示方法。
 (付記18)
 映像を示す映像情報を取得し、
 前記映像情報が重畳された前記重畳画像を生成する
 付記14~17のいずれか1項に記載の画像提示方法。
 (付記19)
 前記映像において強調して表示するオブジェクトが存在する位置に対応する画像領域を算出し、算出された画像領域を拡大するように、前記重畳画像を生成する
 付記18に記載の画像提示方法。
 (付記20)
 前記映像に対してオブジェクト検出処理を行って第二オブジェクト検出情報を生成し、
 前記オブジェクト検出情報に含まれるオブジェクトと前記第二オブジェクト検出情報に含まれるオブジェクトとを対応付けて、対応付けの結果を示す対応付け情報を生成し、
 前記対応付け情報に示されたオブジェクト検出情報に関するオブジェクトを、前記映像に重畳して提示する重畳画像を生成する
 付記18又は19に記載の画像提示方法。
 (付記21)
 前記第二オブジェクト検出情報は、検出されたオブジェクトの種類の情報を含み、
 対応付けられたオブジェクトの種類に応じて、重畳する態様を変化させる
 付記20に記載の画像提示方法。
 (付記22)
 複数の加速度それぞれに対して停止前移動範囲を算出し、
 前記複数の加速度それぞれに対して算出された停止前移動範囲に基づいて、表示態様を段階的に変化させて停止前移動範囲を重畳する
 付記14~21のいずれか1項に記載の画像提示方法。
 (付記23)
 路面の状態、道路の勾配、前記車両の重量、及び前記車速の履歴情報のうちの少なくとも1つから、前記停止前移動範囲を算出する
 付記14~22のいずれか1項に記載の画像提示方法。
 (付記24)
 前記車両の現在位置及び周囲の地図情報を取得し、前記地図情報の前記現在位置に重畳するようにして、前記重畳画像を生成する
 付記14~23のいずれか1項に記載の画像提示方法。
 (付記25)
 前記停止前移動範囲の前記車両に近い位置において重なりを有する可能性があると推定された前記検出オブジェクトの位置を、より強調して表示するように、前記重畳画像を生成する
 付記14~24のいずれか1項に記載の画像提示方法。
 (付記26)
 前記検出オブジェクトの位置を強調して表示する前記重畳画像を提示する際に、前記検出オブジェクトの位置を示すマークの色を目立つ色とするか、前記マークの大きさを大きくするか、前記マークを点滅させるか、テキストによる警告情報をさらに重畳するか、音による警告を行うかの少なくとも1つを行うことによって、前記検出オブジェクトの位置を強調して提示するように、前記重畳画像を生成する
 付記14~25のいずれか1項に記載の画像提示方法。
 (付記27)
 車両の速度である車速を取得するステップと、
 前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出するステップと、
 センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得するステップと、
 前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成するステップと、
 生成された前記重畳画像を提示するするステップと
 をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
1 画像提示装置
2 車速取得部
4 移動範囲算出部
6 センサ情報取得部
8 画像重畳部
10 画像提示部
100 画像提示装置
101 車速取得部
102 車停止前移動範囲算出部
103 センサ情報取得部
104 位置推定誤差算出部
105 画像重畳部
106 画像提示部
205 画像重畳部
207 オブジェクト追跡部
208 衝突可能性算出部
304 位置推定誤差算出部
305 画像重畳部
405 画像重畳部
409 映像情報取得部
505 画像重畳部
605 画像重畳部
705 画像重畳部
710 オブジェクト検出部
711 対応付け部
805 画像重畳部
811 対応付け部
905 画像重畳部

Claims (27)

  1.  車両の速度である車速を取得する車速取得手段と、
     前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出する移動範囲算出手段と、
     センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得するセンサ情報取得手段と、
     前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成する画像重畳手段と、
     生成された前記重畳画像を提示する画像提示手段と
     を有する画像提示装置。
  2.  前記検出オブジェクトの位置情報に基づいて各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成する位置推定誤差算出手段
     をさらに有し、
     前記画像重畳手段は、前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置と、前記位置推定誤差情報とを画面上で重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
     請求項1に記載の画像提示装置。
  3.  前記オブジェクト検出情報に含まれる検出オブジェクトを追跡する処理を行って、前記追跡された検出オブジェクトである追跡対象オブジェクトの前記車両に対する相対位置及び相対速度を含むオブジェクト追跡情報を生成するオブジェクト追跡手段と、
     前記車両が停止するまでに経過する停止前経過時間と、前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの相対位置及び前記相対速度とに基づいて、前記停止前経過時間が経過したときの各追跡対象オブジェクトの位置を予測し、予測された位置と前記停止前移動範囲とに基づいて、各追跡対象オブジェクトが前記車両と衝突する可能性の度合を表す衝突可能性指標を算出する衝突可能性算出手段と、
     をさらに有し、
     前記画像重畳手段は、前記停止前移動範囲と、前記検出オブジェクトの位置とを画面上で重畳し、算出された前記衝突可能性指標が大きい程、対応する前記検出オブジェクトの位置を強調して表示する前記重畳画像を生成する
     請求項1に記載の画像提示装置。
  4.  前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの位置情報に基づいて、各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成する位置推定誤差算出手段
     をさらに有し、
     前記画像重畳手段は、前記位置推定誤差情報を画面上でさらに重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
     請求項3に記載の画像提示装置。
  5.  映像を示す映像情報を取得する映像情報取得手段
     をさらに有し、
     前記画像重畳手段は、前記映像情報が重畳された前記重畳画像を生成する
     請求項1~4のいずれか1項に記載の画像提示装置。
  6.  前記画像重畳手段は、前記映像において強調して表示するオブジェクトが存在する位置に対応する画像領域を算出し、算出された画像領域を拡大するように、前記重畳画像を生成する
     請求項5に記載の画像提示装置。
  7.  前記映像に対してオブジェクト検出処理を行って第二オブジェクト検出情報を生成するオブジェクト検出手段と、
     前記オブジェクト検出情報に含まれるオブジェクトと前記第二オブジェクト検出情報に含まれるオブジェクトとを対応付けて、対応付けの結果を示す対応付け情報を生成する対応付け手段と
     をさらに有し、
     前記画像重畳手段は、前記対応付け情報に示されたオブジェクト検出情報に関するオブジェクトを、前記映像に重畳して提示する重畳画像を生成する
     請求項5又は6に記載の画像提示装置。
  8.  前記第二オブジェクト検出情報は、検出されたオブジェクトの種類の情報を含み、
     前記画像重畳手段は、対応付けられたオブジェクトの種類に応じて、重畳する態様を変化させる
     請求項7に記載の画像提示装置。
  9.  前記移動範囲算出手段は、複数の加速度それぞれに対して停止前移動範囲を算出し、
     前記画像重畳手段は、前記複数の加速度それぞれに対して算出された停止前移動範囲に基づいて、表示態様を段階的に変化させて停止前移動範囲を重畳する
     請求項1~8のいずれか1項に記載の画像提示装置。
  10.  前記移動範囲算出手段は、路面の状態、道路の勾配、前記車両の重量、及び前記車速の履歴情報のうちの少なくとも1つから、前記停止前移動範囲を算出する
     請求項1~9のいずれか1項に記載の画像提示装置。
  11.  前記画像重畳手段は、前記車両の現在位置及び周囲の地図情報を取得し、前記地図情報の前記現在位置に重畳するようにして、前記重畳画像を生成する
     請求項1~10のいずれか1項に記載の画像提示装置。
  12.  前記画像重畳手段は、前記停止前移動範囲の前記車両に近い位置において重なりを有する可能性があると推定された前記検出オブジェクトの位置を、より強調して表示するように、前記重畳画像を生成する
     請求項1~11のいずれか1項に記載の画像提示装置。
  13.  前記画像提示手段は、前記検出オブジェクトの位置を強調して表示する前記重畳画像を提示する際に、前記検出オブジェクトの位置を示すマークの色を目立つ色とするか、前記マークの大きさを大きくするか、前記マークを点滅させるか、テキストによる警告情報をさらに重畳するか、音による警告を行うかの少なくとも1つを行うことによって、前記検出オブジェクトの位置を強調して提示するように、前記重畳画像を生成する
     請求項1~12のいずれか1項に記載の画像提示装置。
  14.  車両の速度である車速を取得し、
     前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出し、
     センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得し、
     前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成し、
     生成された前記重畳画像を提示する
     画像提示方法。
  15.  前記検出オブジェクトの位置情報に基づいて各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成し、
     前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置と、前記位置推定誤差情報とを画面上で重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
     請求項14に記載の画像提示方法。
  16.  前記オブジェクト検出情報に含まれる検出オブジェクトを追跡する処理を行って、前記追跡された検出オブジェクトである追跡対象オブジェクトの前記車両に対する相対位置及び相対速度を含むオブジェクト追跡情報を生成し、
     前記車両が停止するまでに経過する停止前経過時間と、前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの相対位置及び前記相対速度とに基づいて、前記停止前経過時間が経過したときの各追跡対象オブジェクトの位置を予測し、予測された位置と前記停止前移動範囲とに基づいて、各追跡対象オブジェクトが前記車両と衝突する可能性の度合を表す衝突可能性指標を算出し、
     前記停止前移動範囲と、前記検出オブジェクトの位置とを画面上で重畳し、算出された前記衝突可能性指標が大きい程、対応する前記検出オブジェクトの位置を強調して表示する前記重畳画像を生成する
     請求項14に記載の画像提示方法。
  17.  前記オブジェクト追跡情報に含まれる前記追跡対象オブジェクトの位置情報に基づいて、各検出オブジェクトの位置の誤差を推定し、推定された誤差を表す位置推定誤差情報を生成し、
     前記位置推定誤差情報を画面上でさらに重畳し、前記位置推定誤差情報が前記停止前移動範囲と重なりを有する場合に、当該検出オブジェクトの位置を強調して表示するように、前記重畳画像を生成する
     請求項16に記載の画像提示方法。
  18.  映像を示す映像情報を取得し、
     前記映像情報が重畳された前記重畳画像を生成する
     請求項14~17のいずれか1項に記載の画像提示方法。
  19.  前記映像において強調して表示するオブジェクトが存在する位置に対応する画像領域を算出し、算出された画像領域を拡大するように、前記重畳画像を生成する
     請求項18に記載の画像提示方法。
  20.  前記映像に対してオブジェクト検出処理を行って第二オブジェクト検出情報を生成し、
     前記オブジェクト検出情報に含まれるオブジェクトと前記第二オブジェクト検出情報に含まれるオブジェクトとを対応付けて、対応付けの結果を示す対応付け情報を生成し、
     前記対応付け情報に示されたオブジェクト検出情報に関するオブジェクトを、前記映像に重畳して提示する重畳画像を生成する
     請求項18又は19に記載の画像提示方法。
  21.  前記第二オブジェクト検出情報は、検出されたオブジェクトの種類の情報を含み、
     対応付けられたオブジェクトの種類に応じて、重畳する態様を変化させる
     請求項20に記載の画像提示方法。
  22.  複数の加速度それぞれに対して停止前移動範囲を算出し、
     前記複数の加速度それぞれに対して算出された停止前移動範囲に基づいて、表示態様を段階的に変化させて停止前移動範囲を重畳する
     請求項14~21のいずれか1項に記載の画像提示方法。
  23.  路面の状態、道路の勾配、前記車両の重量、及び前記車速の履歴情報のうちの少なくとも1つから、前記停止前移動範囲を算出する
     請求項14~22のいずれか1項に記載の画像提示方法。
  24.  前記車両の現在位置及び周囲の地図情報を取得し、前記地図情報の前記現在位置に重畳するようにして、前記重畳画像を生成する
     請求項14~23のいずれか1項に記載の画像提示方法。
  25.  前記停止前移動範囲の前記車両に近い位置において重なりを有する可能性があると推定された前記検出オブジェクトの位置を、より強調して表示するように、前記重畳画像を生成する
     請求項14~24のいずれか1項に記載の画像提示方法。
  26.  前記検出オブジェクトの位置を強調して表示する前記重畳画像を提示する際に、前記検出オブジェクトの位置を示すマークの色を目立つ色とするか、前記マークの大きさを大きくするか、前記マークを点滅させるか、テキストによる警告情報をさらに重畳するか、音による警告を行うかの少なくとも1つを行うことによって、前記検出オブジェクトの位置を強調して提示するように、前記重畳画像を生成する
     請求項14~25のいずれか1項に記載の画像提示方法。
  27.  車両の速度である車速を取得するステップと、
     前記車速に基づいて、前記車両が停止するまでに移動する停止前移動範囲を算出するステップと、
     センサを用いて検出された前記車両の周囲の検出オブジェクトに関するオブジェクト検出情報を取得するステップと、
     前記停止前移動範囲と、前記オブジェクト検出情報に含まれる前記検出オブジェクトの位置とを画面上で重畳し、前記検出オブジェクトの位置情報に基づいて前記停止前移動範囲と重なりを有する可能性があると推定された前記検出オブジェクトの位置を他の前記検出オブジェクトの位置よりも強調して表示する重畳画像を生成するステップと、
     生成された前記重畳画像を提示するするステップと
     をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/016531 2019-04-17 2019-04-17 画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 WO2020213105A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/016531 WO2020213105A1 (ja) 2019-04-17 2019-04-17 画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2021514728A JP7238973B2 (ja) 2019-04-17 2019-04-17 画像提示装置、画像提示方法、及びプログラム
US17/603,663 US20220198809A1 (en) 2019-04-17 2019-04-17 Image presentation device, image presentation method, and non-transitory computer-readable medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/016531 WO2020213105A1 (ja) 2019-04-17 2019-04-17 画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2020213105A1 true WO2020213105A1 (ja) 2020-10-22

Family

ID=72837200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016531 WO2020213105A1 (ja) 2019-04-17 2019-04-17 画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20220198809A1 (ja)
JP (1) JP7238973B2 (ja)
WO (1) WO2020213105A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019216598A1 (de) * 2019-10-29 2021-04-29 Deere & Company Verfahren zum Überwachen einer Umgebung eines Fahrzeugs und System zum Überwachen einer Umgebung eines Fahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185940A (ja) * 2012-03-07 2013-09-19 Toyota Motor Corp 情報提供装置および情報提供方法
JP2014099078A (ja) * 2012-11-15 2014-05-29 Toyota Motor Corp 運転支援装置及び運転支援方法
JP2016172469A (ja) * 2015-03-16 2016-09-29 株式会社デンソー 画像生成装置
JP2018032240A (ja) * 2016-08-25 2018-03-01 株式会社Subaru 車両の表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011108091A1 (ja) * 2010-03-03 2011-09-09 株式会社 東芝 車載用表示装置及び表示方法
CN104737216B (zh) * 2012-10-17 2017-03-08 丰田自动车株式会社 驾驶辅助装置
JP5918167B2 (ja) * 2013-04-09 2016-05-18 アイシン精機株式会社 車両挙動制御装置および車両挙動制御システム
JP2020158047A (ja) * 2019-03-28 2020-10-01 本田技研工業株式会社 車両制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185940A (ja) * 2012-03-07 2013-09-19 Toyota Motor Corp 情報提供装置および情報提供方法
JP2014099078A (ja) * 2012-11-15 2014-05-29 Toyota Motor Corp 運転支援装置及び運転支援方法
JP2016172469A (ja) * 2015-03-16 2016-09-29 株式会社デンソー 画像生成装置
JP2018032240A (ja) * 2016-08-25 2018-03-01 株式会社Subaru 車両の表示装置

Also Published As

Publication number Publication date
US20220198809A1 (en) 2022-06-23
JP7238973B2 (ja) 2023-03-14
JPWO2020213105A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
US10246030B2 (en) Object detection apparatus and driving assistance apparatus
US6838980B2 (en) Camera-based precrash detection system
JP4173901B2 (ja) 車両周辺監視装置
JP4775391B2 (ja) 障害物検出装置
JP4456086B2 (ja) 車両周辺監視装置
JP4171501B2 (ja) 車両の周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
EP2784763A1 (en) Vehicle periphery monitoring device
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
JP5439876B2 (ja) 画像処理装置および方法、並びに、プログラム
JP4521642B2 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP2007164671A (ja) 障害物接近判断装置および障害物衝突警告システム
JP2007241898A (ja) 停止車両分別検出装置および車両の周辺監視装置
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
JP2018101295A (ja) 物体検知装置
JP2018048949A (ja) 物体識別装置
JP2021197009A (ja) リスク判定システム、リスク判定プログラム
WO2019193928A1 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
US11554774B2 (en) Control apparatus, control method, and program
WO2020213105A1 (ja) 画像提示装置、画像提示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP5192007B2 (ja) 車両の周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
US20220324387A1 (en) Display control system, display control method, and non-transitory storage medium
JP4629638B2 (ja) 車両の周辺監視装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19924998

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021514728

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19924998

Country of ref document: EP

Kind code of ref document: A1