WO2017029740A1 - 表示制御装置、表示装置及び表示制御方法 - Google Patents

表示制御装置、表示装置及び表示制御方法 Download PDF

Info

Publication number
WO2017029740A1
WO2017029740A1 PCT/JP2015/073306 JP2015073306W WO2017029740A1 WO 2017029740 A1 WO2017029740 A1 WO 2017029740A1 JP 2015073306 W JP2015073306 W JP 2015073306W WO 2017029740 A1 WO2017029740 A1 WO 2017029740A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
distance
vehicle
unit
entity
Prior art date
Application number
PCT/JP2015/073306
Other languages
English (en)
French (fr)
Inventor
英一 有田
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2017535202A priority Critical patent/JP6494764B2/ja
Priority to PCT/JP2015/073306 priority patent/WO2017029740A1/ja
Publication of WO2017029740A1 publication Critical patent/WO2017029740A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a display control unit and a display control method for controlling a display unit, and a display device including the display control device.
  • HUD head-up display
  • a HUD that displays an image on a windshield of a vehicle.
  • a HUD that displays a virtual image that looks as if it actually exists in a real landscape in front of the vehicle
  • Patent Document 1 proposes a HUD that changes a distance (virtual image distance) between an apparent position of a virtual image and a driver according to the vehicle speed.
  • live-action display device a display device that captures a video in front of the vehicle, adds an image such as an arrow to the captured video, and displays the video and the image (hereinafter, “live-action display device”) Is also proposed).
  • the present invention has been made in view of the above-described problems, and an object thereof is to provide a technique capable of enhancing driving support for a driver by display.
  • a display control device is a display control device that controls a display unit, and the display unit is provided in a vehicle and can display a display object that is visible from a driver's seat of the vehicle.
  • An entity recognition unit that recognizes an entity
  • a traveling state acquisition unit that acquires a traveling speed of a traveling vehicle
  • a control unit that controls display of a display unit.
  • the control unit is a display object that indicates a first distance that should alert the driver of the traveling vehicle based on the recognition result in the entity recognition unit and the traveling speed acquired in the traveling state acquisition unit.
  • the display unit is controlled so that a certain safety distance display object is displayed in association with the entity recognized by the entity recognition unit.
  • FIG. 1 is a block diagram illustrating a configuration of a display control device according to a first embodiment.
  • 6 is a diagram for explaining a display object according to Embodiment 1.
  • FIG. 6 is a block diagram illustrating a configuration of a display device according to Embodiment 2.
  • FIG. 6 is a flowchart illustrating an operation of the display device according to the second embodiment.
  • 10 is a diagram for explaining display on a display device according to Embodiment 2.
  • FIG. 10 is a diagram for explaining display on a display device according to Embodiment 2.
  • FIG. 10 is a diagram for explaining display on a display device according to modification example 1; It is a figure for demonstrating the display of the display apparatus which concerns on the modification 2.
  • FIG. 10 is a diagram for explaining a display object according to Embodiment 1.
  • FIG. 6 is a block diagram illustrating a configuration of a display device according to Embodiment 2.
  • FIG. 6 is a flowchart illustrating an operation of the display
  • FIG. 10 is a block diagram illustrating a configuration of a display device according to Embodiment 3.
  • FIG. 10 is a diagram for explaining display on a display device according to Embodiment 3.
  • FIG. 10 is a diagram for explaining display on a display device according to Embodiment 3. It is a block diagram which shows an example of the hardware constitutions of a display control apparatus. It is a block diagram which shows an example of the hardware constitutions of a display control apparatus.
  • Embodiment 1 the display control apparatus according to Embodiment 1 of the present invention will be described as being mounted on a vehicle.
  • the vehicle on which the display control device is mounted and which is a target of attention will be described as “own vehicle”.
  • FIG. 1 is a block diagram showing the configuration of the display control apparatus according to the first embodiment.
  • the display control device 1 in FIG. 1 controls the display unit 21.
  • the display unit 21 is provided in the host vehicle and can display a display object that is visible from the driver's seat of the host vehicle. For example, a display function of a HUD or a display function of a live-action display device is applied to the display unit 21.
  • FIG. 2 is a diagram for explaining a display object 82 displayed by the display unit 21 having a HUD display function.
  • the display unit 21 can display a virtual image that can be viewed from the driver's seat of the host vehicle through the windshield 81 of the host vehicle as the display object 82.
  • the actual display position of the display object 82 is the position on the windshield 81, but for the driver, it is as if the display object 82 is a virtual image position (pseudo display position) whose position in the perspective direction is different from the actual display position. ) As if it were real.
  • the virtual image position is defined by the virtual image direction and the virtual image distance.
  • the virtual image direction is the direction of the virtual image (display object 82) based on a specific position of the vehicle (for example, the driver's seat or the windshield 81).
  • the virtual image direction substantially corresponds to the position of the display object 82 on the windshield 81 (substantially two-dimensional plane) viewed from the driver 83, and is represented by, for example, a deviation angle ⁇ i and an elevation angle ⁇ i of a three-dimensional polar coordinate system.
  • a polar coordinate-orthogonal coordinate conversion it can also be expressed in an orthogonal coordinate system.
  • the virtual image distance is a distance to a virtual image (display object 82) based on a specific position of the host vehicle (for example, the driver's seat or the windshield 81).
  • the virtual image distance substantially corresponds to a distance in the perspective direction from the driver 83 to the display object 82, and is represented by, for example, a moving radius (ri) of a three-dimensional polar coordinate system.
  • ri moving radius
  • the position of the eyes of the driver 83 is the origin
  • the front of the host vehicle is the Y axis
  • the left direction is the X axis
  • the overhead direction is the Z axis
  • the position Pi of the display object 82 is the orthogonal coordinate system. And (xi, yi, zi).
  • the driver 83 can visually recognize the display object 82 at the virtual image position represented by three-dimensional polar coordinates (ri, ⁇ i, ⁇ i) or the like by adjusting the distance of the focus (focus) of his / her eyes to the virtual image distance.
  • the display unit 21 displays, for example, a video in front of the host vehicle captured by a camera mounted on the host vehicle (in this specification, the video is a concept included in the image) with a display object added thereto.
  • a liquid crystal display device or the like is applied to the display unit 21.
  • the display function of the live-action display device may have a display function capable of realizing binocular stereopsis so that the real-action video can be represented by three-dimensional stereovision.
  • two cameras are installed in order to generate binocular parallax, and the display unit 21 provides the driver with real images captured by the two cameras so as to generate parallax in the driver's left eye and right eye. indicate.
  • the display object may be stereoscopically displayed by adding the display object to the left and right images in front of the host vehicle as a right-eye image and a left-eye image for three-dimensional stereoscopic viewing.
  • the function of displaying a monocular image can be realized at a lower cost than the function of displaying an image in three-dimensional stereoscopic view.
  • the display control device 1 includes an entity recognition unit 11, a traveling state acquisition unit 12, a display object storage unit 13, and a control unit 14.
  • entity recognition unit 11, the traveling state acquisition unit 12, and the control unit 14 are realized, for example, by a processor executing a program stored in a memory, as will be described later.
  • the entity recognition unit 11 recognizes an entity in front of the host vehicle.
  • the entity is, for example, a portion in front of the host vehicle, a moving body in front of the host vehicle (for example, another vehicle), or a non-moving body in front of the host vehicle (for example, a falling object).
  • Etc. apply.
  • acquisition of a relative position of the entity with respect to the host vehicle, acquisition of an image of the entity, or the like is applied.
  • the entity recognition unit 11 acquires, for example, a video in front of the host vehicle from a camera, and an image processing device that performs image processing on the video, for example, a road scene in front of the host vehicle that is an entity in front of the host vehicle.
  • an image processing device that performs image processing on the video, for example, a road scene in front of the host vehicle that is an entity in front of the host vehicle.
  • the presence / absence of a cautionary object such as a moving body such as another vehicle, and the distance to it, the presence / absence of a static cautionary object such as a falling object, and the distance to it.
  • Infrared illumination may be performed at night, and an image in front of the vehicle may be acquired with an infrared camera.
  • a recognition of a moving object or a falling object it may be detected using a millimeter wave radar, a laser radar, an ultrasonic sensor, or the like.
  • a recognition of the road scenery ahead of the host vehicle the current position of the host vehicle detected by a position detector such as GPS (Global Positioning System) and the road shape and road width in the traveling direction are acquired. Also good. According to such a configuration, it is possible to estimate the contour of the road as recognition of the road scenery ahead of the host vehicle.
  • the entity recognition unit 11 has been described as being separate from the above-described camera and the like. However, the present invention is not limited to this, and the entity recognition unit 11 may include the above-described camera and the like.
  • the traveling state acquisition unit 12 acquires the traveling speed of the traveling vehicle from an ECU (Electronic Control Unit) of the vehicle.
  • ECU Electronic Control Unit
  • the traveling state acquisition unit 12 has been described as being separate from the ECU.
  • the present invention is not limited to this, and the traveling state acquisition unit 12 may include an ECU or the like.
  • the display object storage unit 13 stores a plurality of display objects indicating arrows, for example.
  • the control unit 14 comprehensively controls each component of the display control device 1 and controls the display of the display unit 21.
  • the control unit 14 performs control to display a display object or the like stored in the display object storage unit 13 on the display unit 21.
  • the control unit 14 may display the display object on the display unit 21 and the control unit 14 may display the display object.
  • the display object to be displayed may be generated by the control unit 14 based on information acquired by the entity recognition unit 11 and the traveling state acquisition unit 12.
  • Other standard display objects may be received by the control unit 14 from the display object storage unit 13, or the display objects received by the control unit 14 from the display object storage unit 13 may be modified.
  • the control unit 14 is based on the recognition result obtained by the entity recognition unit 11 and the traveling speed acquired by the traveling state acquisition unit 12.
  • the display unit 21 is controlled so that a safety distance display object that is a display object indicating the first distance to be alerted to is displayed in association with the entity in front of the host vehicle recognized by the entity recognition unit 11. To do.
  • the safety distance display object is displayed in association with the entity in front of the host vehicle. Displayed superimposed on the outline of an entity (for example, a road) (for example, FIGS. 5, 6, 7, 8, 9, 14, and 15 extracted from a part of a scene that is actually visible), A virtual-image safety distance display object viewed from the driver's seat is displayed along with the entity via the windshield 81 (for example, FIG. 10, FIG. 11, FIG. 12 in which a part of a scene that is actually visible is extracted), etc. Is included.
  • the configuration in which the display unit 21 is a HUD will be described in the second and subsequent embodiments.
  • the windshield 81 is a curved surface of various shapes such as a trapezoid.
  • a rectangular shape is often used for a display screen of a live-action display device that displays a live-action image.
  • an entity a shape of a road scenery in front of the own vehicle, a moving object such as another vehicle, a cautionary object, a falling object, etc.
  • Image recognition processing for recognizing the static object of interest and a process of superimposing the safe distance display object on the image (image) of the entity is displayed on the display screen of the display unit 21.
  • the entity recognition unit 11 performs image processing.
  • HUD by controlling the virtual image direction, the scenery in front of the host vehicle and the safe distance display object are displayed so as to overlap each other.
  • the safe distance display object is superimposed on the live-action video, and the center display or It is displayed on a display device (display) in the meter cluster.
  • a display device display
  • a configuration in which the display unit 21 is a live-action display device will be described in Modification 8.
  • the display control apparatus 1 is a safety distance display that is a display object indicating the first distance based on the recognition result in the entity recognition unit 11 and the traveling speed of the host vehicle.
  • the object is displayed in association with the entity recognized by the entity recognition unit 11.
  • FIG. 3 is a block diagram showing a configuration of a display device according to Embodiment 2 of the present invention.
  • the same or similar components as those in the first embodiment are denoted by the same reference numerals, and different components are mainly described.
  • the display device 2 in FIG. 3 includes a display control device 1 and a display unit 21.
  • the display control device 1 in FIG. 3 includes the same components (the entity recognition unit 11, the traveling state acquisition unit 12, the display object storage unit 13, and the control unit 14 in FIG. 1) as in the first embodiment.
  • the display unit 21 is assumed to be a HUD capable of displaying a virtual image display object. This is the same as in the second and subsequent embodiments to the third embodiment described later. To do.
  • the entity recognition unit 11 acquires the relative position of the entity with respect to the host vehicle as recognition of the entity ahead of the host vehicle.
  • the control unit 14 calculates the stop distance of the host vehicle based on the traveling speed acquired by the traveling state acquisition unit 12.
  • the stop distance is a distance from a point where the driver determines to stop the traveling vehicle to a point where the vehicle is stopped by an operation on the braking device.
  • the stopping distance is the distance that the vehicle travels between the state in which the driver is stepping on the accelerator pedal and the state in which the brake pedal is pressed (idle distance), and the time from when braking is started by the braking device until the vehicle stops. This corresponds to the sum of the distance (braking distance). Therefore, the control unit 14 may calculate the idling distance and the braking distance by applying the above traveling speed to a well-known equation, and calculate the stop distance by taking the sum of them.
  • the stop distance varies depending on various conditions such as vehicle characteristics, braking characteristics, driver operation timing, road surface conditions, and the like, and may be set dynamically or statically according to these characteristics and conditions.
  • the control unit 14 may correct the stop distance based on the road surface state. In this case, for example, when the road surface state is a wet state or a snowy state, the control unit 14 may correct the stop distance to be longer.
  • the road surface friction coefficient may be measured by a road surface sensor or the like installed in the vehicle, and the control unit 14 may correct the stop distance based on the friction coefficient.
  • the control unit 14 Based on the relative position acquired by the entity recognition unit 11, the control unit 14 displays a virtual image safe distance display object whose first distance is a stop distance so as to be displayed superimposed on the entity. 21 (HUD) is controlled.
  • a portion in front of the host vehicle hereinafter referred to as “road front portion” of the road on which the host vehicle is traveling is applied to the entity. That is, based on the relative position acquired by the entity recognition unit 11, the control unit 14 according to the second embodiment displays a virtual image safety distance display object indicating the stop distance superimposed on the front portion of the road.
  • the display unit 21 (HUD) is controlled.
  • FIG. 4 is a flowchart showing the operation of the display device 2 according to the second embodiment.
  • step S1 the entity recognition unit 11 acquires the relative position of the road front portion.
  • the entity recognition unit 11 acquires relative positions for a plurality of portions of the road front portion.
  • the traveling state acquisition unit 12 acquires the traveling speed of the host vehicle.
  • step S2 the control unit 14 calculates the stop distance of the host vehicle based on the traveling speed acquired by the traveling state acquisition unit 12.
  • step S ⁇ b> 3 based on the relative position acquired by the entity recognition unit 11, the control unit 14 displays a virtual image safety distance display object indicating the stop distance superimposed on the front part of the road via the windshield 81. To do. Then, it returns to step S1.
  • FIG. 5 is a diagram for explaining the display of the display device 2 according to the second embodiment (display in step S3).
  • the scenery in front of the host vehicle the scenery including the front part of the road
  • the safety distance display object 82a displayed by the display device 2 display unit 21
  • the control unit 14 calculates a range corresponding to the front part of the road in the scenery in front of the host vehicle (hereinafter referred to as “front scenery”). Moreover, the control part 14 calculates the distance corresponding to the stop distance of step S2 among the front scenery. Then, the control unit 14 determines a position away from the position of the host vehicle (the lower side in FIG. 5) by the calculated distance (distance corresponding to the stop distance) in the calculated range (range corresponding to the road front portion). decide. Then, the control unit 14 displays a virtual distance safe distance display object 82a that overlaps the front portion of the road over a range between the position of the host vehicle (the lower side in FIG. 5) and the determined position. Thereby, the display as shown in FIG. 5 can be realized.
  • the virtual image distance of the safety distance display object is preferably near the stop distance.
  • the virtual image distance may be adjusted in consideration of the fact that the viewpoint distance of the driver varies depending on the driver's driving skill, personality, and surrounding environment.
  • the display range (stop distance) of the safety distance display object may be changed automatically or manually.
  • stop position corresponding position has a bold line so that it is conspicuous, has transparency so as not to obstruct the road display
  • a safe distance display object 82a with a red color corresponding to hatching of a small point in FIG. 5 that easily attracts the attention of the person is shown.
  • the safety distance display object is not limited to the safety distance display object 82a, and may be, for example, a safety distance display object described later.
  • the control unit 14 according to the second embodiment matches the virtual image position of the safety distance display object 82a with the stop distance corresponding position (the position of the thick line in FIG. 5), but the virtual image position is limited to this. It is not a thing.
  • the display device 2 calculates the stop distance of the host vehicle based on the traveling speed acquired by the traveling state acquisition unit 12, and recognizes the recognition result (the entity's own object) by the entity recognition unit 11. Based on the relative position with respect to the vehicle, a virtual distance safety distance display object indicating the stop distance is superimposed on the entity and displayed. As a result, the driver can easily know which area ahead of the host vehicle is to be noted when the host vehicle is traveling.
  • the safety distance display object 82a includes the host vehicle and the stop distance. Is displayed so as to overlap with the other vehicle 87a located between the two.
  • the display method is not limited to this, and the apparent shape of the other vehicle 87a may be image-recognized, and the shape of the safety distance display object may be changed so as not to overlap the scenery where the other vehicle 87a exists.
  • the live-action display device may recognize the image of the other vehicle in front of the host vehicle from the live-action image, deform the safety distance display object so as not to overlap the image of the other vehicle, and perform superimposition processing.
  • the control unit 14 displays a safety distance display object 82a that overlaps the front portion of the road over the range from the position of the host vehicle (lower side in FIG. 5) to the stop distance corresponding position on the display unit 21. Displayed.
  • the present invention is not limited to this, and the control unit 14 may cause the display unit 21 to display a safe distance display object 82b that overlaps the road front portion only in the vicinity of the stop distance corresponding position, as shown in FIG.
  • the virtual distance of the safety distance display object extending from the vicinity of the host vehicle to the stop distance corresponding position is matched with the stop distance corresponding position.
  • the driver's focal distance and the virtual image distance can be appropriately adjusted, so that the driver can easily see the display. Can be realized.
  • ⁇ Modification 2> When the driver performs an operation to stop the traveling vehicle, the traveling speed of the traveling vehicle decreases as the position approaches the stop distance corresponding position. In other words, the traveling speed of the host vehicle becomes faster as it is closer to the current position of the host vehicle. For this reason, the impact at the time of collision increases as the distance from the host vehicle increases, and the degree of attention indicating the degree to which the driver should be alerted also increases in the range closer to the host vehicle. Therefore, the control unit 14 calculates a caution level indicating the degree to which the driver should be alerted based on the relative position of the entity recognized by the entity recognition unit 11, and identifies the caution level corresponding to the relative position.
  • the safe distance display object may be displayed on the display unit 21 in a possible display mode.
  • the transparency of the safety distance display object 82c is increased in view of the fact that the degree of caution decreases as it approaches the stop distance corresponding position from the position of the host vehicle (lower side of FIG. 8) (FIG. 8). 8 corresponds to an increase in transparency and a decrease in the density of hatching points due to the constraints shown in the figure).
  • the safety distance display object 82c is displayed in a display mode in which the gradation changes step by step (a display mode in which the attention level changes step by step), but the gradation changes continuously.
  • the safety distance display object may be displayed in a display mode (a display mode in which the degree of attention changes continuously). According to the above configuration, the driver can easily know the relationship between the relative position and the caution level for the safety distance display object 82c.
  • an area far from the own vehicle of the safety distance display object is a far virtual image distance
  • an area near the own vehicle is a near virtual image distance. You may make it display with. According to such a configuration, the degree of recognition of the driver's safety distance display object is improved.
  • the control unit 14 determines that the quasi-safe distance display object 88a is the entity recognition based on the recognition result in the entity recognition unit 11 and the traveling speed acquired by the traveling state acquisition unit 12.
  • the display unit 21 may be controlled so as to be further displayed in association with the entity recognized by the unit 11.
  • the quasi-safe distance display object 88a is a display object that indicates a second distance that is less likely to alert the driver than the first distance.
  • the control unit 14 may display the safety distance display object 82 c on the display unit 21 in a display mode in which the caution level corresponding to the relative position can be identified, as in the second modification. .
  • the control unit 14 calculates a range corresponding to the front portion of the road in the front scenery based on the relative position acquired by the entity recognition unit 11. In addition, the control unit 14 calculates a distance corresponding to a distance longer than the stop distance in step S2 (for example, a distance obtained by multiplying the stop distance by a coefficient larger than 1) in the front scene. Then, the control unit 14 determines a position away from the position of the host vehicle (the lower side in FIG. 9) by the calculated distance in the calculated range (a range corresponding to the road front portion). Then, the control unit 14 displays a quasi-safe distance display object 88a of a virtual image that overlaps the road front portion over a range between the stop distance corresponding position and the determined position. Thereby, the display of the semi-safe distance display object 88a as shown in FIG. 9 can be realized.
  • An example of a specific operation for realizing the display of the safe distance display object 82c is as described in the second embodiment.
  • the control unit 14 calculates a degree of attention indicating the degree to which the driver should be alerted based on the relative position of the entity recognized by the entity recognition unit 11,
  • the quasi-safe distance display object 88a may be displayed on the display unit 21 in a display mode (for example, gradation) that can identify the caution level corresponding to the relative position. According to such a configuration, the driver can easily know the relationship between the relative position and the attention level for the semi-safe distance display object 88a.
  • the control unit 14 controls the display unit 21 such that a virtual image safe distance display object 82a indicating a stop distance is displayed so as to be superimposed on the front portion of the road.
  • the present invention is not limited to this, and the control unit 14 displays a virtual distance safety distance display object 82d indicating a stop distance, such as a road installation such as a pole shown in FIG.
  • the display unit 21 may be controlled. Note that the fact that the safe distance display object 82d is attached to the road front portion includes that the safety distance display object 82d is close to, adjacent to, or partially overlaps the road front portion. Even in such a configuration, the driver can easily know to which part of the front of the host vehicle should be noted by traveling of the host vehicle.
  • control part 14 is a virtual image which shows the distance (2nd distance) where the degree which should alert a driver
  • the quasi-safe distance display object 88b may also be displayed so as to be displayed along with the road front portion. Even in such a configuration, as in the third modification, the driver can easily know how far in front of the host vehicle it is sufficient to pay attention to the traveling of the host vehicle.
  • the entity is the front part of the road.
  • the present invention is not limited to this, and the entity may be a moving body (for example, another vehicle) in front of the host vehicle.
  • the control unit 14 calculates the stop distance of the host vehicle based on the traveling speed acquired by the traveling state acquisition unit 12. Then, as shown in FIG. 11, the control unit 14 determines the safety distance display object 82e of the virtual image of the x mark based on the recognition result in the entity recognition unit 11 (for example, the relative position of the other vehicles 87b and 87c with respect to the host vehicle). However, you may control the display part 21 so that it may be displayed accompanying the other vehicle 87b. Even with the configuration as described above, the driver can easily know to which part of the front of the host vehicle the vehicle should be careful.
  • the control unit 14 does not attach the safety distance display object 82e to the other vehicle 87c that does not exist within the range from the position of the host vehicle (the lower side in FIG. 11) to the stop distance corresponding position, and within the range. It is comprised so that it may accompany the other vehicle 87b which exists in. According to such a configuration, the stop distance can be indicated by the presence or absence of the safe distance display object 82e. Further, since it is possible to suppress the safety distance display object 82e from being displayed more than necessary, the driver can check the road and the like with a wide field of view.
  • the entity is the front part of the road.
  • the present invention is not limited to this, and the entity may be a non-moving object (for example, a falling object) in front of the host vehicle.
  • the control unit 14 calculates the stop distance of the host vehicle based on the traveling speed acquired by the traveling state acquisition unit 12. Then, as shown in FIG. 12, the control unit 14 determines the safety distance display object 82f of the virtual image of the x mark based on the recognition result in the entity recognition unit 11 (for example, the relative position of the falling objects 87d and 87e with respect to the host vehicle). However, you may control the display part 21 so that it may be displayed accompanying the falling object 87d. Even with the configuration as described above, the driver can easily know to which part of the front of the host vehicle the vehicle should be careful.
  • the control unit 14 does not attach the safety distance display object 82f to the fallen object 87e that does not exist within the range from the position of the host vehicle (the lower side in FIG. 12) to the stop distance corresponding position. It is configured to accompany the fallen object 87d existing in. According to such a configuration, the stop distance can be indicated by the presence or absence of the safety distance display object 82f. In addition, since it is possible to suppress the safety distance display object 82f from being displayed more than necessary, the driver can check the road and the like with a wide field of view.
  • the safe distance display object indicates the stop distance.
  • the present invention is not limited to this, and the safety distance display object may indicate the braking distance described in the second embodiment. Even in this case, substantially the same effect as described above can be obtained.
  • FIG. 13 is a block diagram showing a configuration of a display device according to Embodiment 3 of the present invention.
  • the same or similar components as those in the first embodiment are denoted by the same reference numerals, and different components are mainly described.
  • the display control device 1 in FIG. 13 includes the display control device 1 and the display unit 21.
  • the display control device 1 in FIG. 13 includes lane information in addition to the same components (the entity recognition unit 11, the traveling state acquisition unit 12, the display object storage unit 13, and the control unit 14 in FIG. 1) as in the first embodiment.
  • An acquisition unit 15 is provided.
  • the lane information acquisition unit 15 acquires a lane attention level indicating the degree to which the driver should be alerted for each lane of the road on which the vehicle is traveling. For example, the image processing device of the own vehicle moves for each lane of the road on which the own vehicle is traveling by performing image processing on the image around the own vehicle (front, side, rear, etc.) captured by the camera. It is determined whether a body and a non-moving body exist.
  • the lane information acquisition unit 15 acquires the determination result, increases the lane attention level of the lane where the moving body and the non-moving body exist, and decreases the lane attention level of the lane where neither the moving body nor the non-moving body exists. To do.
  • the lane information acquisition unit 15 has been described as being separate from the above-described image processing device. However, the present invention is not limited to this, and the lane information acquisition unit 15 may include the above-described image processing device. .
  • the control unit 14 displays a safety distance display of a virtual image indicating the lane attention acquired by the lane information acquisition unit 15 in a display mode (for example, a color difference) that can be identified for each lane.
  • the object is displayed on the display unit 21.
  • the caution level of the lane in which the host vehicle is traveling is high, and the caution level of the lanes adjacent to both sides of the lane is relatively high, although lower than the caution level.
  • a virtual-image safety distance display object 82g indicating is displayed.
  • a virtual image safe distance display object 82h is displayed indicating that the caution level of the lane in which the host vehicle is traveling is high and the caution level of other lanes is low. According to such a configuration, the driver can easily know which lane the vehicle can travel with peace of mind.
  • safety distance display objects 82g and 82h that overlap the front part of the road are displayed over the range from the position of the host vehicle to the stop distance corresponding position.
  • the present invention is not limited to this, and the control unit 14 displays the safety distance display objects 82g and 82h with horizontal bars (thin strips) so as not to overlap the road except in the vicinity of the stop distance corresponding position, as in FIG. May be.
  • the display unit 21 is described as being a HUD.
  • the display unit 21 is not limited to the HUD, and may be a live-action display device that superimposes and displays a display object on the image ahead of the host vehicle as described in the first embodiment.
  • the safety distance display object in the display screen of the live-action display device not the virtual distance safety distance display object, is displayed so as to be superimposed on the image of the road front portion in the display screen. If the display unit 21 (actual display device) is controlled, a configuration similar to that of the second embodiment can be realized.
  • control unit 14 controls the display unit 21 so that the safe distance display object in the display screen of the live-action display device is displayed along with the video (image) of the front part of the road in the display screen. Then, the same configuration as that of the fourth modification can be realized. Similarly, for example, the control unit 14 displays the display unit so that the safety distance display object in the display screen of the live-action display device is displayed along with the moving body or non-moving body video (image) in the display screen. If 21 is controlled, the same configuration as that of Modification 5 or Modification 6 can be realized.
  • the display unit 21 has been described on the assumption that it is a display device having a function of displaying a monocular image, but of course, even a display device having a function of displaying an image in three-dimensional stereoscopic view. Good.
  • the display device 2 performs image processing on an image in front of the host vehicle imaged by the camera, acquires map information and the position of the host vehicle, and the lane in which the host vehicle is permitted to travel You may be comprised so that the lane (For example, one-way lane etc.) which is not permitted can be acquired. And in the structure, the control part 14 may control the display part 21 so that the display object which shows the said lane so that identification is possible is displayed in relation to the said lane.
  • the entity recognition unit 11, the traveling state acquisition unit 12, the control unit 14, and the lane information acquisition unit 15 (hereinafter referred to as “entity recognition unit 11 etc.”) in the display control apparatus 1 described above include a processing circuit 91 illustrated in FIG. 16. It is realized by. That is, the processing circuit 91 recognizes the entity recognition unit 11 that recognizes the entity in front of the host vehicle, the traveling state acquisition unit 12 that acquires the traveling speed of the host vehicle that is traveling, and the recognition by the entity recognition unit 11. Based on the result and the traveling speed acquired by the traveling state acquisition unit 12, a safety distance display object, which is a display object indicating the first distance to be alerted to the driver of the traveling vehicle, is an entity.
  • a control unit 14 that controls the display unit 21 so as to be displayed in association with the entity recognized by the recognition unit 11.
  • Dedicated hardware may be applied to the processing circuit 91, or a processor (Central Processing Unit, central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, Digital, which executes a program stored in the memory Signal Processor) may be applied.
  • a processor Central Processing Unit, central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, Digital, which executes a program stored in the memory Signal Processor
  • the processing circuit 91 When the processing circuit 91 is dedicated hardware, the processing circuit 91 corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, an ASIC, an FPGA, or a combination thereof. .
  • Each function of each unit such as the entity recognition unit 11 may be realized by a plurality of processing circuits 91, or the functions of each unit may be realized by a single processing circuit 91.
  • the processing circuit 91 When the processing circuit 91 is a processor, the functions of the entity recognition unit 11 and the like are realized by a combination with software or the like (software, firmware, or software and firmware). Software or the like is described as a program and stored in a memory. As shown in FIG. 17, the processor 92 applied to the processing circuit 91 implements the functions of the respective units by reading and executing the program stored in the memory 93. That is, the display control device 1, when executed by the processing circuit 91, recognizes an entity ahead of the host vehicle, acquires a traveling speed of the traveling host vehicle, and an entity recognition result And a safety distance display object, which is a display object indicating the first distance to be alerted to the driver of the traveling vehicle based on the acquired traveling speed, in relation to the recognized entity.
  • software or the like is described as a program and stored in a memory.
  • the processor 92 applied to the processing circuit 91 implements the functions of the respective units by reading and executing the program stored in the memory 93. That is, the display control
  • a step of controlling the display unit 21 so as to be displayed and a memory 93 for storing a program to be executed as a result are provided.
  • this program causes the computer to execute procedures and methods of the entity recognition unit 11 and the like.
  • the memory 93 is a non-volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), or the like.
  • a volatile semiconductor memory HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk), and a drive device thereof are applicable.
  • each function of the entity recognition unit 11 and the like is realized by either hardware or software.
  • the present invention is not limited to this, and a configuration in which a part of the entity recognition unit 11 or the like is realized by dedicated hardware and another part is realized by software or the like.
  • the function of the control unit 14 is realized by a processing circuit as dedicated hardware, and the function of the control unit 14 is read and executed by the processing circuit 91 as the processor 92 by reading and executing a program stored in the memory 93. Can be realized.
  • the processing circuit 91 can realize the functions described above by hardware, software, or the like, or a combination thereof.
  • the display object storage unit 13 is composed of the memory 93, but they may be composed of one memory 93, or each may be composed of an individual memory 93.
  • the display control device described above includes an installed navigation device that can be mounted on a vehicle, a Portable Navigation Device, a communication terminal (for example, a mobile terminal such as a mobile phone, a smartphone, and a tablet), and an application installed in these devices. It is possible to apply to a display control system constructed as a system by appropriately combining these functions and a server. In this case, each function or each component of the display control device described above may be distributed and arranged in each device that constructs the system, or may be concentrated on any device. .
  • the present invention can be freely combined with each embodiment and each modification within the scope of the invention, or can be appropriately modified and omitted with each embodiment and each modification.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

表示による運転者に対する運転のサポートを高めることが可能な技術を提供することを目的とする。表示制御部1は、車両前方の実体物を認識する実体物認識部11と、走行している車両の走行速度を取得する走行状態取得部12と、制御部14とを備える。制御部14は、実体物認識部11での認識結果と、走行状態取得部12で取得された走行速度とに基づいて、安全距離表示オブジェクトが、実体物認識部11で認識された実体物に関連して表示されるように、表示部21を制御する。

Description

表示制御装置、表示装置及び表示制御方法
 本発明は、表示部を制御する表示制御部及び表示制御方法、並びに、当該表示制御装置を備える表示装置に関する。
 車両のウィンドシールドに画像を表示するヘッドアップディスプレイ(HUD)に関して様々な技術が提案されている。例えば運転者にとって、あたかも車両前方の実風景に実在するかのように見える虚像の画像を表示するHUDが提案されている。また例えば特許文献1には、虚像の画像の見かけ上の位置と運転者との間の距離(虚像距離)を、車速に応じて変更するHUDが提案されている。
 また、HUD以外にも車両の表示装置に関して様々な技術が提案されている。例えば実写ナビゲーション装置の表示装置などのように、車両前方の映像を撮像し、当該撮像した映像に矢印などの画像を付加して、それら映像及び画像を表示する表示装置(以下「実写表示装置」と記す)も提案されている。
特開平6-115381号公報
 しかしながら、上述のHUD及び実写表示装置では、運転者の運転をサポートするための表示に改善の余地があった。
 そこで、本発明は、上記のような問題点を鑑みてなされたものであり、表示による運転者に対する運転のサポートを高めることが可能な技術を提供することを目的とする。
 本発明に係る表示制御装置は、表示部を制御する表示制御装置であって、表示部は、車両に設けられ、当該車両の運転席から視認可能な表示オブジェクトを表示可能であり、車両前方の実体物を認識する実体物認識部と、走行している車両の走行速度を取得する走行状態取得部と、表示部の表示を制御する制御部とを備える。制御部は、実体物認識部での認識結果と、走行状態取得部で取得された走行速度とに基づいて、走行している車両の運転者に注意喚起すべき第1距離を示す表示オブジェクトである安全距離表示オブジェクトが、実体物認識部で認識された実体物に関連して表示されるように、表示部を制御する。
 本発明によれば、実体物認識部での認識結果と、車両の走行速度とに基づいて、第1距離を示す表示オブジェクトである安全距離表示オブジェクトが、実体物認識部で認識された実体物に関連して表示される。これにより、表示による運転者に対する運転のサポートを高めることができる。
 本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る表示制御装置の構成を示すブロック図である。 実施の形態1に係る表示オブジェクトを説明するための図である。 実施の形態2に係る表示装置の構成を示すブロック図である。 実施の形態2に係る表示装置の動作を示すフローチャートである。 実施の形態2に係る表示装置の表示を説明するための図である。 実施の形態2に係る表示装置の表示を説明するための図である。 変形例1に係る表示装置の表示を説明するための図である。 変形例2に係る表示装置の表示を説明するための図である。 変形例3に係る表示装置の表示を説明するための図である。 変形例4に係る表示装置の表示を説明するための図である。 変形例5に係る表示装置の表示を説明するための図である。 変形例6に係る表示装置の表示を説明するための図である。 実施の形態3に係る表示装置の構成を示すブロック図である。 実施の形態3に係る表示装置の表示を説明するための図である。 実施の形態3に係る表示装置の表示を説明するための図である。 表示制御装置のハードウェア構成の一例を示すブロック図である。 表示制御装置のハードウェア構成の一例を示すブロック図である。
 <実施の形態1>
 以下、本発明の実施の形態1に係る表示制御装置が、車両に搭載されているものと説明する。そして、当該表示制御装置が搭載され、着目の対象となる車両を「自車両」と記載して説明する。
 図1は、本実施の形態1に係る表示制御装置の構成を示すブロック図である。図1の表示制御装置1は、表示部21を制御する。表示部21は、自車両に設けられ、当該自車両の運転席から視認可能な表示オブジェクトを表示可能である。この表示部21には、例えばHUDの表示機能、または、実写表示装置の表示機能が適用される。
 図2は、HUDの表示機能を有する表示部21によって表示される表示オブジェクト82を説明するための図である。図2に示すように、表示部21は、自車両の運転席から自車両のウィンドシールド81を介して視認可能な虚像を、表示オブジェクト82として表示することが可能となっている。表示オブジェクト82の実際の表示位置は、ウィンドシールド81上の位置であるが、運転者にとっては、あたかも表示オブジェクト82が、実際の表示位置と遠近方向における位置が異なる虚像位置(疑似的な表示位置)に実在するかのように見えるようになっている。ここで、虚像位置は、虚像方向と虚像距離とによって規定される。
 虚像方向は、自車両の特定位置(例えば運転席またはウィンドシールド81)を基準とする虚像(表示オブジェクト82)の方向である。虚像方向は、実質的に、運転者83から見たウィンドシールド81(略二次元平面)における表示オブジェクト82の位置に相当し、例えば3次元極座標系の偏角θi及び仰角φiで表される。もちろん、極座標-直交座標変換を行えば直交座標系でも表すことができる。
 虚像距離は、自車両の特定位置(例えば運転席またはウィンドシールド81)を基準とする虚像(表示オブジェクト82)までの距離である。虚像距離は、実質的に、運転者83から見た表示オブジェクト82までの遠近方向の距離に相当し、例えば3次元極座標系の動径(ri)などで表される。厳密にいうと、同一平面上の表示オブジェクト82と運転者83との間の距離は、表示オブジェクト82ごとの偏角θi及び仰角φiによりそれぞれ異なるが、遠近方向の距離が十分遠い場合には、偏角θi及び仰角φiによる距離の相違は無視できる。ここで、運転者83の目の位置を原点とし、自車両の前方をY軸、左方向をX軸、頭上方向をZ軸とした場合に、表示オブジェクト82の位置Piの位置が直交座標系で(xi,yi,zi)であったとする。この場合、ri=(xi+yi+zi1/2、tan(θi)=xi/yi、tan(φi)=zi/(xi+yi1/2という関係式が成り立つ。以下では説明を簡単にするために、yi>>xi、yi>>zi、すなわち表示オブジェクト82が自車両から十分遠いものとする。この場合、ri≒yi、tan(θi)=xi/yi、tan(φi)≒zi/yiという関係式が成り立つ。
 運転者83は、自身の目の焦点(ピント)の距離を虚像距離に合わせることによって、3次元極座標(ri,θi,φi)などで表される虚像位置の表示オブジェクト82を視認することができる。ここで、運転者83の目の焦点の距離xd=ri≒yiである。
 次に、実写表示装置の表示機能を有する表示部21について説明する。表示部21は、例えば自車両に搭載されたカメラなどによって撮像された自車両前方の映像(なお本明細書では、映像は画像に含まれる概念である)を、表示オブジェクトを付加して表示する。この表示部21には、例えば液晶表示装置などが適用される。
 なお、実写表示装置の表示機能として、実写映像を3次元立体視で表現できるように両眼立体視を実現可能な表示機能を有してもよい。この場合、両眼視差を発生させるために2つのカメラを設置し、表示部21は、運転者の左目及び右目に視差を生じさせるように、2つのカメラで撮像された実写映像を運転者に表示する。このとき表示オブジェクトを、3次元立体視用の右目用の画像及び左目用の画像として自車両前方の左右の映像に付加して、表示オブジェクトを立体表示してもよい。これにより、運転者にとっては、あたかも表示オブジェクトが、実際の表示位置(表示画面の位置)と遠近方向における位置が異なる見かけ上の表示位置(疑似的な表示位置)に実在するかのように見えるようになっている。なお、一般的に単眼映像を表示する機能のほうが、3次元立体視で映像を表示する機能よりも安価に実現することができる。
 図1に戻って、表示制御装置1は、実体物認識部11と、走行状態取得部12と、表示オブジェクト記憶部13と、制御部14とを備えている。なお、表示オブジェクト記憶部13には、例えば後述するメモリが適用される。実体物認識部11、走行状態取得部12及び制御部14は、例えば後述するように、プロセッサがメモリに記憶されたプログラム等を実行することによって実現される。
 次に、表示制御装置1の各構成要素について説明する。
 実体物認識部11は、自車両前方の実体物を認識する。ここで実体物には、例えば自車両が走行している道路のうち自車両前方の部分、自車両前方の移動体(例えば他車両)、または、自車両前方の非移動体(例えば落下物)などが適用される。また、自車両前方の実体物の認識には、実体物の自車両に対する相対位置の取得、または、実体物の映像の取得などが適用される。
 具体的には、実体物認識部11は、例えばカメラから自車両前方の映像を取得し、当該映像に画像処理を行う画像処理装置などによって自車両前方の実体物である自車両前方の道路風景の形状、他車両などの移動体などの要注意物の有無及びそれとの距離、並びに、落下物などの静的な要注意物の有無及びそれとの距離などを認識する。夜間は赤外照明を行い、赤外線カメラで自車両前方の映像を取得してもよい。また、移動体や落下物の認識として、ミリ波レーダ、レーザレーダ、超音波センサーなどを用いて検出してもよい。また、自車両前方の道路風景の認識として、地図データベースから、GPS(Global Positioning System)などの位置検出部で検出された自車両の現在の位置及び走行方向における道路形状や道路幅を取得してもよい。このような構成によれば、自車両前方の道路風景の認識として道路の輪郭を推定することが可能である。なおここでは、実体物認識部11は、上述のカメラなどと別体であるとして説明したが、これに限ったものではなく、実体物認識部11は、上述のカメラなどを含んでもよい。
 走行状態取得部12は、自車両のECU(Electronic Control Unit)などから、走行している自車両の走行速度を取得する。ただしここでは、走行状態取得部12は、ECUと別体であるとして説明したが、これに限ったものではなく、走行状態取得部12は、ECUなどを含んでもよい。
 表示オブジェクト記憶部13は、例えば矢印などを示す複数の表示オブジェクトを記憶する。
 制御部14は、表示制御装置1の各構成要素を統括的に制御するとともに、表示部21の表示を制御する。表示部21の表示の制御として、制御部14は、表示オブジェクト記憶部13に記憶されている表示オブジェクトなどを、表示部21に表示させる制御を行う。なお、以下の説明では便宜上、制御部14が、表示部21に表示オブジェクトを表示させることを、制御部14が表示オブジェクトを表示すると記載することもある。
 このとき、表示すべき表示オブジェクトは、実体物認識部11と走行状態取得部12とで取得された情報に基づいて制御部14により生成されてもよい。また、その他定型の表示オブジェクトは、制御部14が表示オブジェクト記憶部13から受け付けてもよいし、制御部14が表示オブジェクト記憶部13から受け付けた表示オブジェクトを変形させてもよい。
 ここで本実施の形態1では、制御部14は、実体物認識部11での認識結果と、走行状態取得部12で取得された走行速度とに基づいて、走行している自車両の運転者に注意喚起すべき第1距離を示す表示オブジェクトである安全距離表示オブジェクトが、実体物認識部11で認識された自車両前方の実体物に関連して表示されるように、表示部21を制御する。
 表示部21がHUDである構成では、安全距離表示オブジェクトが自車両前方の実体物に関連して表示されることには、運転席から見て虚像の安全距離表示オブジェクトがウィンドシールド81を介して実体物(例えば道路)の輪郭に重ねられて表示されること(例えば実際に見える景色の一部を抜き出した図5、図6、図7、図8、図9、図14、図15)、運転席から見て虚像の安全距離表示オブジェクトがウィンドシールド81を介して実体物に付随して表示されること(例えば実際に見える景色の一部を抜き出した図10、図11、図12)などが含まれる。表示部21がHUDである構成については、実施の形態2以降で説明する。
 なお、図5等の図面は、説明を簡単にするために長方形の平面で示されるが、ウィンドシールド81は、台形などの各種形状の曲面であることは言うまでもない。一方、実写映像を表示する実写表示装置の表示画面には、長方形の形状が多く採用される。
 表示部21が実写表示装置である構成では、前方風景を撮影したカメラ映像などから、実体物(自車両前方の道路風景の形状、他車両などの移動体など要注意物、及び、落下物などの静的な要注意物)を認識する画像認識処理を実施し、当該実体物の映像(画像)に安全距離表示オブジェクトを重ねる処理を行って表示部21の表示画面に表示する。画像処理は実体物認識部11が行う。HUDでは虚像方向が制御されることにより、自車両前方の風景と安全距離表示オブジェクトとが重なるように表示されるが、実写表示装置では実写映像に安全距離表示オブジェクトが重畳されて、センターディスプレイまたはメータークラスタ内の表示装置(表示器)などに表示される。表示部21が実写表示装置である構成については、変形例8で説明する。
 <実施の形態1のまとめ>
 以上のような本実施の形態1に係る表示制御装置1は、実体物認識部11での認識結果と、自車両の走行速度とに基づいて、第1距離を示す表示オブジェクトである安全距離表示オブジェクトが、実体物認識部11で認識された実体物に関連して表示される。これにより、運転者は、自車両前方のどの辺りまで自車両の走行により注意すべきかを知ることができる。よって、表示による運転者に対する運転のサポートを高めることができる。
 <実施の形態2>
 図3は、本発明の実施の形態2に係る表示装置の構成を示すブロック図である。以下、本実施の形態2に係る表示装置2のうち、実施の形態1と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 図3の表示装置2は、表示制御装置1と表示部21とを備える。図3の表示制御装置1は、実施の形態1と同様の構成要素(図1の実体物認識部11、走行状態取得部12、表示オブジェクト記憶部13及び制御部14)を備えている。なお、本実施の形態2では、表示部21は、虚像の表示オブジェクトを表示可能なHUDであるものとし、このことは本実施の形態2以降、後述する実施の形態3まで同様であるものとする。
 本実施の形態2では、実体物認識部11は、自車両前方の実体物の認識として、当該実体物の自車両に対する相対位置を取得する。
 また本実施の形態2では、制御部14は、走行状態取得部12で取得された走行速度に基づいて、自車両の停止距離を算出する。ここで停止距離は、運転者が、走行中の車両を停止させようと判断した地点から、制動装置に対する操作によって車両を停止させた地点までの距離である。停止距離は、運転者がアクセルペダルを踏んでいる状態からブレーキペダルを踏む状態までの間に車両が進む距離(空走距離)と、制動装置により制動が開始してから車両が停止するまでの距離(制動距離)との和に相当する。そこで、制御部14は、周知の式に、上記走行速度を適用することによって空走距離及び制動距離を算出し、それらの和をとって停止距離を算出してもよい。
 なお、停止距離は、車両特性、制動特性、運転者の操作タイミング、路面状況などの種々の状況で異なるので、これらの特性や状態に応じて動的または静的に設定してもよい。例えば表示装置2が、カメラで撮像された自車両前方の映像に画像処理を行うことによって、自車両が走行している道路の路面状態を取得可能に構成されている場合などには、制御部14は、当該路面状態に基づいて停止距離を補正してもよい。この場合に例えば、路面状態が、濡れている状態または積雪状態などである場合には、制御部14は、停止距離がより長くなるように補正してもよい。また、路面の摩擦係数を、車両に設置された路面センサーなどで測定してもよく、制御部14は、当該摩擦係数に基づいて停止距離を補正してもよい。
 制御部14は、実体物認識部11で取得された相対位置に基づいて、第1距離が停止距離である虚像の安全距離表示オブジェクトが、実体物に重ねられて表示されるように、表示部21(HUD)を制御する。なお本実施の形態2では、実体物に、自車両が走行している道路のうち自車両前方の部分(以下「道路前方部分」と記す)が適用されている。つまり、本実施の形態2に係る制御部14は、実体物認識部11で取得された相対位置に基づいて、停止距離を示す虚像の安全距離表示オブジェクトが、道路前方部分に重ねられて表示されるように、表示部21(HUD)を制御する。
 図4は、本実施の形態2に係る表示装置2の動作を示すフローチャートである。
 まず、ステップS1にて、実体物認識部11は、道路前方部分の相対位置を取得する。なおここでは、実体物認識部11は、道路前方部分のうちの複数の部分について相対位置を取得する。また、走行状態取得部12は、自車両の走行速度を取得する。
 ステップS2にて、制御部14は、走行状態取得部12で取得された走行速度に基づいて、自車両の停止距離を算出する。
 ステップS3にて、制御部14は、実体物認識部11で取得された相対位置に基づいて、停止距離を示す虚像の安全距離表示オブジェクトを、ウィンドシールド81を介して道路前方部分に重ねて表示する。その後、ステップS1に戻る。
 図5は、本実施の形態2に係る表示装置2の表示(ステップS3における表示)を説明するための図である。図5の例では、自車両前方の景色(道路前方部分を含む景色)と、表示装置2(表示部21)によって表示される安全距離表示オブジェクト82aとが示されている。
 以下、図5のような表示を実現するための具体的な動作の一例について説明する。
 制御部14は、実体物認識部11で取得された相対位置に基づいて、自車両前方の景色(以下「前方景色」と記す)のうち、道路前方部分に対応する範囲を算出する。また制御部14は、前方景色のうち、ステップS2の停止距離に対応する距離を算出する。そして、制御部14は、算出した範囲(道路前方部分に対応する範囲)のうち自車両の位置(図5の下側)から、算出した距離(停止距離に対応する距離)だけ離れた位置を決定する。それから、制御部14は、自車両の位置(図5の下側)と当該決定した位置との間の範囲に亘って、道路前方部分と重なる虚像の安全距離表示オブジェクト82aを表示する。これにより、図5のような表示を実現することができる。
 このとき、運転者の焦点距離(視点距離)を考慮すると、安全距離表示オブジェクトの虚像距離は停止距離近辺が望ましい。ただし、運転者の運転の習熟度や個性や周辺環境により運転者の視点距離は異なることを考慮して虚像距離を調整するようにしてもよい。同様に運転者の習熟度や運転状態により実際の停止距離は異なるので、安全距離表示オブジェクトの表示範囲(停止距離)は自動または手動により変化させてもよい。
 なお図5の例では、停止距離に対応する位置(以下「停止距離対応位置」と記す)が目立つように太線を有し、道路の表示を阻害しないように透過性を有し、さらに、運転者の注意を惹きやすい赤色(図5では小さい点のハッチングに相当)が付された安全距離表示オブジェクト82aが図示されている。しかし安全距離表示オブジェクトは、安全距離表示オブジェクト82aに限ったものではなく、例えば後述する安全距離表示オブジェクトなどであってもよい。また本実施の形態2に係る制御部14は、安全距離表示オブジェクト82aの虚像位置を、停止距離対応位置(図5の太線の位置)に合わせているが、当該虚像位置は、これに限ったものではない。
 <実施の形態2のまとめ>
 本実施の形態2に係る表示装置2は、走行状態取得部12で取得された走行速度に基づいて、自車両の停止距離を算出し、実体物認識部11での認識結果(実体物の自車両に対する相対位置)に基づいて、当該停止距離を示す虚像の安全距離表示オブジェクトを実体物に重ねて表示する。これにより、運転者は、自車両前方のどの辺りまで自車両の走行により注意すべきかを容易に知ることができる。
 なお、自車両前方に他車両が存在する場合、本実施の形態2に係る制御部14の上記動作によれば、図6に示すように、安全距離表示オブジェクト82aが、自車両と停止距離との間に位置する他車両87aと重なるように表示される。しかし表示方法はこれに限ったものではなく、他車両87aの見かけ上の形状を画像認識し、他車両87aが存在する風景に重ならないように安全距離表示オブジェクトの形状を変更してもよい。この場合、自車両前方の他車両(移動体)に安全距離表示オブジェクトが重ならないので、見やすい表示となる。実写表示装置では実写映像から自車両前方の他車両の画像を認識して、当該他車両の画像と重ならないように安全距離表示オブジェクトを変形して重畳処理を行えばよい。
 <変形例1>
 実施の形態2では、制御部14は、自車両の位置(図5の下側)から停止距離対応位置までの範囲に亘って、道路前方部分と重なる安全距離表示オブジェクト82aを、表示部21に表示させた。しかしこれに限ったものではなく、制御部14は、図7に示すように、停止距離対応位置近傍のみで道路前方部分と重なる安全距離表示オブジェクト82bを、表示部21に表示させてもよい。図5の例では、自車両近傍から停止距離対応位置まで伸びる安全距離表示オブジェクトの虚像距離を停止距離対応位置に合わせたので、道路の近い部分ほど運転者の焦点距離が合わなくなる。これに対して図7の例では、安全距離表示オブジェクトが停止距離対応位置近傍のみに表示されるので、運転者の焦点距離と虚像距離とを適切に合わせることができるので、運転者にとって見やすい表示を実現することができる。
 <変形例2>
 運転者が、走行中の自車両を停止させる操作を行った場合、自車両の走行速度は、停止距離対応位置に近づくほど小さくなる。言い換えれば、自車両の走行速度は、自車両の現在位置に近い程早くなる。このため、衝突した場合の衝撃は自車両に近い程大きくなり、運転者に注意喚起すべき度合を示す注意度も、自車両に近い範囲ほど高くなる。そこで、制御部14は、実体物認識部11で認識された実体物の相対位置に基づいて、運転者に注意喚起すべき度合を示す注意度を算出し、相対位置に対応する注意度を識別可能な表示態様で、安全距離表示オブジェクトを表示部21に表示させてもよい。
 図8の例では、自車両の位置(図8の下側)から停止距離対応位置に近づくほど注意度が低くなることに鑑みて、安全距離表示オブジェクト82cの透過性が大きくなっている(図8では図示の制約上、透過性が大きくなることとハッチングの点の密度が低くなることを対応させている)。なお、図8の例では、段階的にグラデーションが変化する表示態様(段階的に注意度が変化する表示態様)で、安全距離表示オブジェクト82cが表示されているが、連続的にグラデーションが変化する表示態様(連続的に注意度が変化する表示態様)で、安全距離表示オブジェクトが表示されてもよい。以上のような構成によれば、運転者は、安全距離表示オブジェクト82cについて、相対位置と注意度との関係を容易に知ることができる。
 なお、複数の虚像距離で複数の安全距離表示オブジェクトを表示することが可能なHUDの場合は、安全距離表示オブジェクトの自車両から遠い領域は遠い虚像距離で、自車両から近い領域は近い虚像距離で表示するようにしてもよい。このような構成によれば、運転者の安全距離表示オブジェクトに対する認知度が向上する。
 <変形例3>
 図9に示すように、制御部14は、実体物認識部11での認識結果と、走行状態取得部12で取得された走行速度とに基づいて、準安全距離表示オブジェクト88aが、実体物認識部11で認識された実体物に関連してさらに表示されるように、表示部21を制御してもよい。なお、準安全距離表示オブジェクト88aは、第1距離よりも運転者に注意喚起すべき度合が低い第2距離を示す表示オブジェクトである。また図9に示すように、制御部14は、変形例2と同様に、相対位置に対応する注意度を識別可能な表示態様で、安全距離表示オブジェクト82cを表示部21に表示させてもよい。
 ここで、図9のような表示を行うための具体的な動作の一例について説明する。
 制御部14は、実体物認識部11で取得された相対位置に基づいて、前方景色のうち、道路前方部分に対応する範囲を算出する。また制御部14は、前方景色のうち、ステップS2の停止距離よりも長い距離(例えば、停止距離に1よりも大きい係数を乗じて得られる距離など)に対応する距離を算出する。そして、制御部14は、算出した範囲(道路前方部分に対応する範囲)のうち自車両の位置(図9の下側)から、算出した距離だけ離れた位置を決定する。それから、制御部14は、停止距離対応位置と当該決定した位置との間の範囲に亘って、道路前方部分と重なる虚像の準安全距離表示オブジェクト88aを表示する。これにより、図9のような準安全距離表示オブジェクト88aの表示を実現することができる。なお、安全距離表示オブジェクト82cの表示を実現するための具体的な動作の一例は、実施の形態2で説明したとおりである。
 以上のように、準安全距離表示オブジェクト88aを表示する構成によれば、運転者は、自車両前方のどの辺りまで自車両の走行により注意すれば十分かを容易に知ることができる。なお、制御部14は、安全距離表示オブジェクト82cと同様に、実体物認識部11で認識された実体物の相対位置に基づいて、運転者に注意喚起すべき度合を示す注意度を算出し、相対位置に対応する注意度を識別可能な表示態様(例えばグラデーション)で、準安全距離表示オブジェクト88aを表示部21に表示させてもよい。このような構成によれば、運転者は、準安全距離表示オブジェクト88aについて、相対位置と注意度との関係を容易に知ることができる。
 <変形例4>
 実施の形態2では、制御部14は、停止距離を示す虚像の安全距離表示オブジェクト82aが、道路前方部分と重ねられて表示されるように、表示部21を制御した。しかしこれに限ったものではなく、制御部14は、図10に示されるポールなどの道路設置物のような、停止距離を示す虚像の安全距離表示オブジェクト82dが、道路前方部分に付随して表示されるように、表示部21を制御してもよい。なお、安全距離表示オブジェクト82dが道路前方部分に付随することには、安全距離表示オブジェクト82dが道路前方部分に近接したり、隣接したり、部分的に重なることなどが含まれる。このような構成であっても、運転者は、自車両前方のどの辺りまで自車両の走行により注意すべきかを容易に知ることができる。
 なお、制御部14は、図10に示されるポールなどの道路設置物のような、停止距離(第1距離)よりも運転者に注意喚起すべき度合が低い距離(第2距離)を示す虚像の準安全距離表示オブジェクト88bも、道路前方部分に付随して表示されるように、表示部21を制御してもよい。このような構成であっても変形例3と同様に、運転者は、自車両前方のどの辺りまで自車両の走行により注意すれば十分かを容易に知ることができる。
 <変形例5>
 実施の形態2では、実体物は道路前方部分であった。しかしこれに限ったものではなく、実体物は自車両前方の移動体(例えば他車両など)であってもよい。例えば、制御部14は、走行状態取得部12で取得された走行速度に基づいて、自車両の停止距離を算出する。そして図11に示すように、制御部14は、実体物認識部11での認識結果(例えば他車両87b,87cの自車両に対する相対位置)に基づいて、×印の虚像の安全距離表示オブジェクト82eが、他車両87bに付随して表示されるように、表示部21を制御してもよい。以上のような構成によっても、運転者は、自車両前方のどの辺りまで自車両の走行により注意すべきかを容易に知ることができる。
 ここで制御部14は、安全距離表示オブジェクト82eを、自車両の位置(図11の下側)から停止距離対応位置までの範囲内に存在しない他車両87cには付随させずに、当該範囲内に存在する他車両87bに付随させるように構成されている。このような構成によれば、安全距離表示オブジェクト82eの有無によって、停止距離を示すことができる。また、安全距離表示オブジェクト82eを必要以上に表示してしまうことを抑制できるので、運転者は道路などを広い視界で確認することができる。
 <変形例6>
 実施の形態2では、実体物は道路前方部分であった。しかしこれに限ったものではなく、実体物は自車両前方の非移動体(例えば落下物など)であってもよい。例えば、制御部14は、走行状態取得部12で取得された走行速度に基づいて、自車両の停止距離を算出する。そして図12に示すように、制御部14は、実体物認識部11での認識結果(例えば落下物87d,87eの自車両に対する相対位置)に基づいて、×印の虚像の安全距離表示オブジェクト82fが、落下物87dに付随して表示されるように、表示部21を制御してもよい。以上のような構成によっても、運転者は、自車両前方のどの辺りまで自車両の走行により注意すべきかを容易に知ることができる。
 ここで制御部14は、安全距離表示オブジェクト82fを、自車両の位置(図12の下側)から停止距離対応位置までの範囲内に存在しない落下物87eには付随させずに、当該範囲内に存在する落下物87dに付随させるように構成されている。このような構成によれば、安全距離表示オブジェクト82fの有無によって、停止距離を示すことができる。また、安全距離表示オブジェクト82fを必要以上に表示してしまうことを抑制できるので、運転者は道路などを広い視界で確認することができる。
 <変形例7>
 以上では、安全距離表示オブジェクトは停止距離を示すとして説明した。しかしこれに限ったものではなく、安全距離表示オブジェクトは実施の形態2で説明した制動距離を示してもよい。この場合であっても、以上で説明した効果とほぼ同様の効果を得ることができる。
 <実施の形態3>
 図13は、本発明の実施の形態3に係る表示装置の構成を示すブロック図である。以下、本実施の形態3に係る表示装置2のうち、実施の形態1と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
 図13の表示装置2は、表示制御装置1と表示部21とを備える。図13の表示制御装置1は、実施の形態1と同様の構成要素(図1の実体物認識部11、走行状態取得部12、表示オブジェクト記憶部13及び制御部14)に加えて、車線情報取得部15を備えている。
 車線情報取得部15は、自車両が走行している道路の車線ごとに、運転者に注意喚起すべき度合を示す車線注意度を取得する。例えば自車両の画像処理装置が、カメラで撮像された自車両周辺(前方、側方、後方など)の映像に画像処理を行うことによって、自車両が走行している道路の車線ごとに、移動体及び非移動体が存在するか否かを判定する。
 車線情報取得部15は、当該判定結果を取得し、移動体及び非移動体が存在する車線の車線注意度を高くし、移動体及び非移動体がいずれも存在しない車線の車線注意度を低くする。なおここでは、車線情報取得部15は、上述の画像処理装置と別体であるとして説明したが、これに限ったものではなく、車線情報取得部15は、上述の画像処理装置を含んでもよい。
 図14及び図15に示すように、制御部14は、車線情報取得部15で取得した車線注意度を、車線ごとに識別可能な表示態様(例えば色の違いなど)で示す虚像の安全距離表示オブジェクトを表示部21に表示させる。ここで図14の例では、自車両が走行している車線の注意度が高いこと、及び、その注意度よりも低いが、当該車線の両側に隣接する車線の注意度が比較的高いこと、を示す虚像の安全距離表示オブジェクト82gが表示されている。図15の例では、自車両が走行している車線の注意度が高いこと、及び、それ以外の車線の注意度が低いことを示す虚像の安全距離表示オブジェクト82hが表示されている。このような構成によれば、運転者は、どの車線を走行すれば安心して走行できるかを容易に知ることができる。
 なお、図14及び図15では、自車両の位置から停止距離対応位置までの範囲に亘って、道路前方部分と重なる安全距離表示オブジェクト82g,82hを表示した。しかしこれに限ったものではなく、制御部14は、図7と同様に、停止距離対応位置近傍以外では道路と重ならないように、横棒(細い帯状)で安全距離表示オブジェクト82g,82hを表示してもよい。
 <変形例8>
 実施の形態2、実施の形態3及び変形例1~7では、表示部21は、HUDであるものとして説明した。しかし表示部21は、HUDに限ったものではなく、実施の形態1で説明したように、自車両前方の映像に表示オブジェクトを重畳して表示する実写表示装置であってもよい。この場合例えば、虚像の安全距離表示オブジェクトではなく、実写表示装置の表示画面内の安全距離表示オブジェクトが、当該表示画面内の道路前方部分の映像に重ねられて表示されるように、制御部14が表示部21(実写表示装置)を制御すれば、実施の形態2と同様の構成を実現することができる。
 同様に例えば、実写表示装置の表示画面内の安全距離表示オブジェクトが、当該表示画面内の道路前方部分の映像(画像)に付随して表示されるように、制御部14が表示部21を制御すれば、変形例4と同様の構成を実現することができる。同様に例えば、実写表示装置の表示画面内の安全距離表示オブジェクトが、当該表示画面内の移動体または非移動体の映像(画像)に付随して表示されるように、制御部14が表示部21を制御すれば、変形例5または変形例6と同様の構成を実現することができる。
 また、ここでは、表示部21は、単眼映像を表示する機能を有する表示装置であることを想定して説明したが、もちろん3次元立体視で映像を表示する機能を有する表示装置であってもよい。
 <変形例9>
 表示装置2は、例えばカメラで撮像された自車両前方の映像に画像処理を行ったり、地図情報と自車両の位置とを取得したりすることによって、自車両の走行が許可されている車線と許可されていない車線(例えば一方通行の車線など)を取得可能に構成されてもよい。そしてその構成において、制御部14は、当該車線を識別可能に示す表示オブジェクトが、当該車線に関連して表示されるように、表示部21を制御してもよい。
 <その他の変形例>
 上述した表示制御装置1における実体物認識部11、走行状態取得部12、制御部14、車線情報取得部15(以下「実体物認識部11等」と記す)は、図16に示す処理回路91により実現される。すなわち、処理回路91は、自車両前方の実体物を認識する実体物認識部11と、走行している自車両の走行速度を取得する走行状態取得部12と、実体物認識部11での認識結果と、走行状態取得部12で取得された走行速度とに基づいて、走行している自車両の運転者に注意喚起すべき第1距離を示す表示オブジェクトである安全距離表示オブジェクトが、実体物認識部11で認識された実体物に関連して表示されるように、表示部21を制御する制御部14とを備える。処理回路91には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサ(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、Digital Signal Processor)が適用されてもよい。
 処理回路91が専用のハードウェアである場合、処理回路91は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものが該当する。実体物認識部11等の各部の機能それぞれは、複数の処理回路91で実現されてもよいし、各部の機能をまとめて一つの処理回路91で実現されてもよい。
 処理回路91がプロセッサである場合、実体物認識部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図17に示すように、処理回路91に適用されるプロセッサ92は、メモリ93に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、表示制御装置1は、処理回路91により実行されるときに、自車両前方の実体物を認識するステップと、走行している自車両の走行速度を取得するステップと、実体物の認識結果と、取得された走行速度とに基づいて、走行している自車両の運転者に注意喚起すべき第1距離を示す表示オブジェクトである安全距離表示オブジェクトが、認識された実体物に関連して表示されるように、表示部21を制御するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ93を備える。換言すれば、このプログラムは、実体物認識部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ93には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)及びそのドライブ装置等が該当する。
 以上、実体物認識部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、実体物認識部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、制御部14については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ92としての処理回路91がメモリ93に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路91は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。なお、表示オブジェクト記憶部13は、メモリ93から構成されるが、それらは一のメモリ93から構成されてもよいし、それぞれは個別のメモリ93から構成されてもよい。
 また、以上で説明した表示制御装置は、車両に搭載可能な備え付けられたナビゲーション装置、Portable Navigation Device、通信端末(例えば携帯電話、スマートフォン、及びタブレットなどの携帯端末)、及びこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせてシステムとして構築される表示制御システムに適用することができる。この場合、以上で説明した表示制御装置の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
 1 表示制御装置、11 実体物認識部、12 走行状態取得部、14 制御部、15 車線情報取得部、21 表示部、81 ウィンドシールド、82 表示オブジェクト、82a~82h 安全距離表示オブジェクト、87a~87c 他車両、87d,87e 落下物、88a,88b 準安全距離表示オブジェクト、91 処理回路、92 プロセッサ、93 メモリ。

Claims (15)

  1.  表示部を制御する表示制御装置であって、
     前記表示部は、
     車両に設けられ、当該車両の運転席から視認可能な表示オブジェクトを表示可能であり、
     前記車両前方の実体物を認識する実体物認識部と、
     走行している前記車両の走行速度を取得する走行状態取得部と、
     前記表示部の表示を制御する制御部と
    を備え、
     前記制御部は、
     前記実体物認識部での認識結果と、前記走行状態取得部で取得された前記走行速度とに基づいて、走行している前記車両の運転者に注意喚起すべき第1距離を示す前記表示オブジェクトである安全距離表示オブジェクトが、前記実体物認識部で認識された前記実体物に関連して表示されるように、前記表示部を制御する、表示制御装置。
  2.  請求項1に記載の表示制御装置であって、
     前記実体物認識部は、前記実体物の認識として、前記実体物の前記車両に対する相対位置を取得し、
     前記制御部は、
     前記実体物認識部での認識結果と、前記走行状態取得部で取得された前記走行速度とに基づいて、前記安全距離表示オブジェクトが、前記車両の運転席から見て前記実体物に重ねられて表示されるか、または前記実体物の画像に重ねられて表示されるように、前記表示部を制御する、表示制御装置。
  3.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     前記走行状態取得部で取得された前記走行速度に基づいて、前記車両の制動距離または停止距離を算出し、前記実体物認識部での前記認識結果に基づいて、前記第1距離が前記制動距離または前記停止距離である前記安全距離表示オブジェクトが、前記車両の運転席から見て前記実体物に重ねられて表示されるか、または前記実体物の画像に重ねられて表示されるように、前記表示部を制御する、表示制御装置。
  4.  請求項1に記載の表示制御装置であって、
     前記実体物認識部は、前記実体物の認識として、前記実体物の前記車両に対する相対位置を取得し、
     前記制御部は、
     前記相対位置に基づいて、前記運転者に注意喚起すべき度合を示す注意度を算出し、前記相対位置に対応する前記注意度を識別可能な表示態様で、前記安全距離表示オブジェクトを前記表示部に表示させる、表示制御装置。
  5.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     前記実体物認識部での前記認識結果と、前記走行状態取得部で取得された前記走行速度とに基づいて、前記第1距離よりも前記運転者に注意喚起すべき度合が低い第2距離を示す前記表示オブジェクトである準安全距離表示オブジェクトが、前記実体物認識部で認識された前記実体物に関連してさらに表示されるように、前記表示部を制御する、表示制御装置。
  6.  請求項5に記載の表示制御装置であって、
     前記実体物認識部は、前記実体物の認識として、前記実体物の前記車両に対する相対位置を取得し、
     前記制御部は、
     前記相対位置に基づいて、前記運転者に注意喚起すべき度合を示す注意度を算出し、前記相対位置に対応する前記注意度を識別可能な表示態様で、前記準安全距離表示オブジェクトを前記表示部に表示させる、表示制御装置。
  7.  請求項1に記載の表示制御装置であって、
     前記車両が走行している道路の車線ごとに、前記運転者に注意喚起すべき度合を示す車線注意度を取得する車線情報取得部をさらに備え、
     前記制御部は、
     前記車線情報取得部で取得した前記車線注意度を、前記車線ごとに識別可能な表示態様で示す前記安全距離表示オブジェクトを前記表示部に表示させる、表示制御装置。
  8.  請求項1に記載の表示制御装置であって、
     前記実体物は、前記車両が走行している道路のうち前記車両前方の部分を含む、表示制御装置。
  9.  請求項8に記載の表示制御装置であって、
     前記制御部は、
     前記走行状態取得部で取得された前記走行速度に基づいて、前記車両の制動距離または停止距離を算出し、前記実体物認識部での前記認識結果に基づいて、前記第1距離が前記制動距離または前記停止距離である前記安全距離表示オブジェクトが、前記車両の運転席から見て前記道路の前記部分に付随して表示されるか、または前記道路の前記部分の画像に付随して表示されるように、前記表示部を制御する、表示制御装置。
  10.  請求項1に記載の表示制御装置であって、
     前記実体物は、前記車両前方の移動体を含み
     前記制御部は、
     前記走行状態取得部で取得された前記走行速度に基づいて、前記車両の制動距離または停止距離を算出し、前記実体物認識部での前記認識結果に基づいて、前記第1距離が前記制動距離または前記停止距離である前記安全距離表示オブジェクトが、前記車両の運転席から見て前記移動体に付随して表示されるか、または前記移動体の画像に付随して表示されるように、前記表示部を制御する、表示制御装置。
  11.  請求項1に記載の表示制御装置であって、
     前記実体物は、前記車両前方の非移動体を含み
     前記制御部は、
     前記走行状態取得部で取得された前記走行速度に基づいて、前記車両の制動距離または停止距離を算出し、前記実体物認識部での前記認識結果に基づいて、前記第1距離が前記制動距離または前記停止距離である前記安全距離表示オブジェクトが、前記車両の運転席から見て前記非移動体に付随して表示されるか、または前記非移動体の画像に付随して表示されるように、前記表示部を制御する、表示制御装置。
  12.  請求項1に記載の表示制御装置であって、
     前記表示部は、
     前記車両の運転席から前記車両のウィンドシールドを介して視認可能な虚像を、前記安全距離表示オブジェクトとして表示可能なヘッドアップディスプレイである、表示制御装置。
  13.  請求項1に記載の表示制御装置であって、
     前記表示部は、
     前記安全距離表示オブジェクトを付加して前記車両前方の映像を表示可能である、表示制御装置。
  14.  請求項1に記載の表示制御装置と、
     前記表示部と
    を備える、表示装置。
  15.  表示部を制御する表示制御方法であって、
     前記表示部は、
     車両に設けられ、当該車両の運転席から視認可能な表示オブジェクトを表示可能であり、
     前記表示制御方法は、
     前記車両前方の実体物を認識し、
     走行している前記車両の走行速度を取得し、
     前記実体物の認識結果と、取得された前記走行速度とに基づいて、走行している前記車両の運転者に注意喚起すべき第1距離を示す前記表示オブジェクトである安全距離表示オブジェクトが、認識された前記実体物に関連して表示されるように、前記表示部を制御する、表示制御方法。
PCT/JP2015/073306 2015-08-20 2015-08-20 表示制御装置、表示装置及び表示制御方法 WO2017029740A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017535202A JP6494764B2 (ja) 2015-08-20 2015-08-20 表示制御装置、表示装置及び表示制御方法
PCT/JP2015/073306 WO2017029740A1 (ja) 2015-08-20 2015-08-20 表示制御装置、表示装置及び表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/073306 WO2017029740A1 (ja) 2015-08-20 2015-08-20 表示制御装置、表示装置及び表示制御方法

Publications (1)

Publication Number Publication Date
WO2017029740A1 true WO2017029740A1 (ja) 2017-02-23

Family

ID=58051471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/073306 WO2017029740A1 (ja) 2015-08-20 2015-08-20 表示制御装置、表示装置及び表示制御方法

Country Status (2)

Country Link
JP (1) JP6494764B2 (ja)
WO (1) WO2017029740A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176448A1 (ja) * 2018-03-15 2019-09-19 マクセル株式会社 情報表示装置
JP2020091148A (ja) * 2018-12-04 2020-06-11 株式会社デンソー 表示制御装置および表示制御プログラム
JP2021046079A (ja) * 2019-09-18 2021-03-25 株式会社デンソー 表示制御装置、表示制御方法および表示制御プログラム
CN113401055A (zh) * 2020-02-28 2021-09-17 本田技研工业株式会社 注意提醒装置和注意提醒方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175936A (ja) * 2004-12-21 2006-07-06 Nissan Motor Co Ltd 車両用運転操作補助装置用の表示装置および表示方法
JP2006309552A (ja) * 2005-04-28 2006-11-09 Denso Corp 車両用表示装置
JP2014099078A (ja) * 2012-11-15 2014-05-29 Toyota Motor Corp 運転支援装置及び運転支援方法
JP2014239326A (ja) * 2013-06-07 2014-12-18 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175936A (ja) * 2004-12-21 2006-07-06 Nissan Motor Co Ltd 車両用運転操作補助装置用の表示装置および表示方法
JP2006309552A (ja) * 2005-04-28 2006-11-09 Denso Corp 車両用表示装置
JP2014099078A (ja) * 2012-11-15 2014-05-29 Toyota Motor Corp 運転支援装置及び運転支援方法
JP2014239326A (ja) * 2013-06-07 2014-12-18 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176448A1 (ja) * 2018-03-15 2019-09-19 マクセル株式会社 情報表示装置
JP2020091148A (ja) * 2018-12-04 2020-06-11 株式会社デンソー 表示制御装置および表示制御プログラム
JP7206867B2 (ja) 2018-12-04 2023-01-18 株式会社デンソー 表示制御装置および表示制御プログラム
JP2021046079A (ja) * 2019-09-18 2021-03-25 株式会社デンソー 表示制御装置、表示制御方法および表示制御プログラム
JP7200891B2 (ja) 2019-09-18 2023-01-10 株式会社デンソー 表示制御装置、表示制御方法および表示制御プログラム
CN113401055A (zh) * 2020-02-28 2021-09-17 本田技研工业株式会社 注意提醒装置和注意提醒方法
CN113401055B (zh) * 2020-02-28 2024-06-11 本田技研工业株式会社 注意提醒装置和注意提醒方法

Also Published As

Publication number Publication date
JPWO2017029740A1 (ja) 2017-12-14
JP6494764B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6381807B2 (ja) 表示制御装置、表示装置および表示制御方法
JP6304628B2 (ja) 表示装置および表示方法
JP6608146B2 (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
JP6559253B2 (ja) 車両の車両周囲を表示するための方法
US10166923B2 (en) Image generation device and image generation method
JP6459205B2 (ja) 車両用表示システム
US20140160012A1 (en) Automatic correction device of vehicle display system and method thereof
WO2017022047A1 (ja) 表示制御装置、表示装置及び表示制御方法
WO2015146068A1 (ja) 情報表示装置、情報表示方法及びプログラム
US11325470B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
JP6494764B2 (ja) 表示制御装置、表示装置及び表示制御方法
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
CN105793909B (zh) 用于借助车辆周围环境的通过摄像机采集的两个图像产生警告的方法和设备
US9849835B2 (en) Operating a head-up display of a vehicle and image determining system for the head-up display
JP2020032866A (ja) 車両用仮想現実提供装置、方法、及びコンピュータ・プログラム
JP6456504B2 (ja) 表示制御装置、表示装置及び表示制御方法
JP2017056747A (ja) 表示制御装置、表示装置および音像位置制御方法
JPWO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2018163501A (ja) 情報表示装置、情報表示方法及びプログラム
JP6448806B2 (ja) 表示制御装置、表示装置及び表示制御方法
JP6482431B2 (ja) 表示制御装置、表示装置および表示制御方法
JP2016097921A (ja) 車両用運転支援表示装置
WO2020158601A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2007218655A (ja) ナビゲーション装置
JP2020158014A (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15901722

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017535202

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15901722

Country of ref document: EP

Kind code of ref document: A1