WO2016199345A1 - 路面表示装置 - Google Patents

路面表示装置 Download PDF

Info

Publication number
WO2016199345A1
WO2016199345A1 PCT/JP2016/002291 JP2016002291W WO2016199345A1 WO 2016199345 A1 WO2016199345 A1 WO 2016199345A1 JP 2016002291 W JP2016002291 W JP 2016002291W WO 2016199345 A1 WO2016199345 A1 WO 2016199345A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
road surface
vehicle
road
range
Prior art date
Application number
PCT/JP2016/002291
Other languages
English (en)
French (fr)
Inventor
成宏 羽田
林 邦彦
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/577,451 priority Critical patent/US10737611B2/en
Publication of WO2016199345A1 publication Critical patent/WO2016199345A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/2615Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic mounted on the vehicle body, e.g. with magnets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/44Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating braking action or preparation for braking, e.g. by detection of the foot approaching the brake pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits

Definitions

  • the present disclosure relates to a road surface display device that is mounted on a vehicle and displays an image on a road surface.
  • Patent Document 1 discloses a technique for displaying a road surface image in which a planned arrival range is expressed in a different color for each of a plurality of planned arrival times on a road surface.
  • the present disclosure has been made in view of the above points, and when a road surface image is displayed on a plurality of road surfaces, it is possible to cause the subject to appropriately determine the degree of danger of the road on which the road surface image is displayed.
  • the object is to provide a road surface display device.
  • the road surface display device is a display device that is mounted on the host vehicle and displays an image on the road surface, and includes a road surface image control unit, a detection unit, and a display adjustment unit.
  • the road surface image control unit generates a road surface image in which an image representing a predicted arrival range that the host vehicle is predicted to reach when a predetermined estimated arrival time has elapsed is arranged for each of a plurality of expected arrival times, and the road surface The image is displayed on the road surface ahead of the traveling direction of the host vehicle.
  • the detection unit acquires a display state on the road surface of the other vehicle image representing the road surface image displayed on the road surface by the other vehicle on which the road surface display device is mounted and the own vehicle image representing the road surface image displayed on the road surface by the own vehicle. Then, based on the display state, the presence / absence of the overlap or proximity of the other vehicle image and the own vehicle image is detected.
  • the display adjustment unit when the detection unit detects that there is an overlap or proximity, the estimated time of arrival of the other vehicle image and the host vehicle image in the region of the road surface where the overlap or proximity is detected The output by the road surface image control unit is adjusted so that a road surface image indicating that the road is short is displayed.
  • a road surface image generated for each of a plurality of scheduled arrival times is displayed on the road surface, which represents an estimated arrival range that the host vehicle is expected to reach when a predetermined estimated arrival time has elapsed.
  • a road surface image indicating that the estimated arrival time is shorter of these is displayed.
  • FIG. 1 is a block diagram illustrating a configuration of an in-vehicle road surface display device according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram showing an example of a projected image
  • FIG. 3 is a flowchart showing an example of a road surface display process.
  • FIG. 4 is a diagram illustrating an example of the overlap processing.
  • FIG. 5 is a diagram illustrating an example of the proximity process.
  • FIG. 6 is a diagram showing the effect of the proximity process and the overlap process.
  • FIG. 7 is a diagram illustrating another example of the overlap processing.
  • FIG. 8 is a diagram illustrating another example of the proximity process.
  • An in-vehicle road surface display device 1 shown as an example in FIG. 1 is a device that is mounted on a vehicle and displays an image on the road surface.
  • the on-vehicle road surface display device 1 includes a vehicle state detection unit 10, a projection unit 30, and a control unit 50.
  • the detection unit 10 includes a camera 11 and a vehicle speed sensor 12 as an example.
  • the camera 11 is installed on the front side of a vehicle (hereinafter referred to as the host vehicle) on which the vehicle-mounted road surface display device 1 is mounted, and repeatedly images the ground surface in front of the host vehicle, that is, the road surface of the road in front of the host vehicle.
  • the camera 11 is a camera for color photography.
  • the camera 11 outputs captured image data that is image data representing a captured image to the control unit 50.
  • the vehicle speed sensor 12 generates a vehicle speed signal according to the rotation of the axle, and detects the vehicle speed of the host vehicle based on the vehicle speed signal.
  • the vehicle speed sensor 12 outputs the detected vehicle speed to the control unit 50.
  • the projection unit 30 includes a projector 31 as an example.
  • image data hereinafter referred to as projection image data
  • the projector 31 displays a color image in accordance with the projection image data.
  • the projector 31 is arranged on the front side of the host vehicle so that the displayed video is projected on the road surface of the road ahead of the host vehicle.
  • a projected image an image projected on the road surface by the projector 31 is referred to as a projected image.
  • the projected image is an image in which an image representing an expected arrival range that the host vehicle 7 is predicted to reach when a predetermined estimated arrival time has elapsed is arranged for each of a plurality of expected arrival times.
  • three scheduled arrival times of a braking disabled period, a sudden braking period, and a braking enabled period are set in advance, and it is predicted that the host vehicle 7 will arrive in a different manner for each scheduled arrival time.
  • An image showing the expected reach range is displayed as a projected image.
  • a different aspect means that the elements appealing to vision, such as a color and a pattern, differ.
  • the first position predetermined from the starting point is set with the current position of the host vehicle 7 as the starting point, that is, the temporary time at the current position of the own vehicle 7 is set to 0 (seconds).
  • a period until the set time x (second) elapses is set as a non-braking period, and a predetermined second set time y (second) elapses after the first set time x (second) elapses.
  • the period is defined as an abrupt braking period, and the period from when the second set time z (second) elapses until the third set time z (second) elapses is set as a brakeable period (x ⁇ y ⁇ z).
  • the estimated range that the host vehicle 7 is expected to reach during this period is a walking that exists in the range due to sudden braking or steering operation of the host vehicle 7. It is determined that the object such as a person is in an unavoidable range.
  • the expected arrival range where the host vehicle 7 is predicted to reach during the period is determined by a pedestrian who exists in the range due to a sudden brake operation or steering operation of the host vehicle 7. It is determined to be within a range where such an object can be avoided.
  • the braking possible period (y to z (seconds)) is a target such as a pedestrian whose expected range that the host vehicle 7 is expected to reach during this period is present in the range by a normal brake operation of the host vehicle 7 It is determined to be within a range where things can be avoided.
  • the projected image 80 is a belt-like image extending in front of the host vehicle 7 starting from the current position of the host vehicle 7 on the road surface 70 of the road ahead of the host vehicle. This is an image in which band-like images represented in three colors of red, yellow, and green are arranged in order from the side closer to the vehicle 7.
  • the range in which the red belt-like image 81 is arranged corresponds to a planned arrival range in which the host vehicle 7 is predicted to arrive during the non-braking period (0 to x (seconds)).
  • the range in which the red band-like image 81 is arranged on the road surface 70 is the most dangerous range for an object such as a pedestrian among the range occupied by the projection image 80 on the road surface 70. .
  • it can be said that it is a dangerous range for the passenger of the own vehicle because there is a possibility of collision with a pedestrian.
  • the range in which the yellow belt-like image 82 is arranged corresponds to the expected arrival range where the host vehicle 7 is predicted to arrive during the sudden braking period (x to y (seconds)).
  • the range in which the yellow belt-like image 82 is arranged on the road surface 70 is the second most dangerous range for an object such as a pedestrian among the range occupied by the projection image 80 on the road surface 70. It can be said.
  • the reaction may cause an impact on the passenger of the own vehicle. This is a dangerous range.
  • the range in which the green belt-like image 83 is arranged corresponds to the expected arrival range where the host vehicle 7 is predicted to arrive during the braking possible period (y to z (seconds)).
  • the range in which the green belt-like image 83 is arranged is the third most dangerous range for an object such as a pedestrian among the range occupied by the projection image 80 on the road surface 70, that is, This is the safest range for an object such as a pedestrian. It can also be said to be a safe range for the passengers of the vehicle.
  • the projected image 80 is an image showing the degree of danger of the road for an object such as a pedestrian on the road ahead of the host vehicle 7 in the traveling direction.
  • a projected image 80 is projected onto the road surface by the projector 31 so that a pedestrian can determine the degree of road danger based on the projected image 80.
  • the control unit 50 includes a known microcomputer having a CPU 51, a ROM 52, a RAM 53, and the like.
  • the control unit 50 executes processing for realizing various functions based on a program recorded in the ROM 52.
  • the control unit 50 executes a road surface display process described later.
  • the road surface display process is a process for generating projection image data for representing the above-described projection image 80 and causing the projection unit 30 (projector 31) to project the projection image 80 onto the road surface 70.
  • This road surface display process is repeatedly executed while the ACC switch is on.
  • CPU51 is made into a subject.
  • a planned arrival range that the host vehicle 7 is predicted to reach in the above-described braking impossible period, sudden braking period, and braking possible period is calculated.
  • the expected arrival range is expressed as a distance (m) that the host vehicle 7 travels during the braking disabled period, the sudden braking period, and the braking enabled period. Specifically, values of the braking disabled period, the sudden braking period, and the braking enabled period are recorded in the ROM 52 in advance.
  • the values of the non-braking period, the sudden braking period, and the braking possible period are acquired from the ROM 52, and values obtained by multiplying these values by the vehicle speed of the host vehicle 7 acquired in S110 are scheduled to be reached in each period. Calculate as a range.
  • projection image data for displaying the projection image 80 is generated on the basis of the expected arrival range calculated in S115. Specifically, as described above, in the range occupied by the projected image 80 on the road surface 70, the red belt-like image is arranged in the planned arrival range corresponding to the non-braking period, and the sudden braking period is supported. The projection image data is generated so that the green belt-like image is arranged in the planned arrival range corresponding to the braking possible period so that the yellow belt-like image is arranged in the planned arrival range.
  • the projection image data generated in S120 is output to the projection unit 30 (projector 31).
  • the projection unit 30 displays the projection image 80 based on the projection image data on the road surface 70.
  • captured image data representing an image obtained by capturing the road surface 70 of the road ahead of the host vehicle is acquired.
  • overlapping means a state in which the other vehicle image is displayed overlapping the host vehicle image.
  • the host vehicle image refers to a projection image 80 displayed by the host vehicle 7 on the road surface 70 of the road ahead of the host vehicle 7 in the traveling direction
  • the other vehicle image refers to another vehicle on which the in-vehicle road surface display device 1 is mounted.
  • the display color of the host vehicle image and the display color of the other vehicle image are displayed at the same time within the range where the overlap occurs.
  • these display colors are mixed and displayed. In other words, when such an overlap occurs, there is a risk that a pedestrian who has seen a projected image within the range in which the overlap has occurred may make a determination over the degree of road danger.
  • the projection image on the road surface 70 of the road ahead of the host vehicle 7 means that there is proximity.
  • a plurality of projection images that is, the host vehicle image and the other vehicle image are substantially parallel.
  • the own vehicle image and the other vehicle image are displayed differently.
  • a pedestrian can see these different display colors. That is, when such a proximity occurs, there is a risk that a pedestrian who has seen a projected image within the range where the proximity has occurred may make a determination that the degree of danger of the road is exceeded.
  • the positions of the host vehicle image and the other vehicle image on the road surface 70 of the road 70 ahead of the traveling direction of the host vehicle 7 are included based on the image represented by the captured image data acquired in S130.
  • a display state is acquired and the presence or absence of an overlap and the presence or absence of proximity
  • contact are detected about an other vehicle image and the own vehicle image.
  • S140 which is shifted when it is determined that there is an overlap or proximity, is the display mode based on the own vehicle image higher in risk than the display mode based on the other vehicle image within the overlapping range or within the close range?
  • Judge whether or not is the display color based on the host vehicle image is compared with the display color based on the other vehicle image.
  • red indicates the highest risk
  • yellow is the highest risk
  • green indicates the lowest risk.
  • the process proceeds to S145, and if it is determined that the risk level is low, the process proceeds to S150.
  • S150 in which it is determined that the degree of risk is low in S140 and shifts, it is determined whether or not it is determined that there is an overlap in S135, that is, whether it is determined that there is an overlap or whether there is proximity. If it is determined that there is an overlap, the process proceeds to S155, and if it is determined that there is no overlap, that is, there is proximity, the process proceeds to S165.
  • an overlap process is executed. Specifically, as shown in FIG. 4A described above, in a region where it is detected on the road surface 70 that the other vehicle 9 overlaps the own vehicle image of the own vehicle 7. As shown in FIG. 4B, the projection image data is adjusted so that the color of the image of the other vehicle is displayed instead of the color of the own vehicle image.
  • proximity processing is executed. Specifically, as shown in FIG. 5A as an example, in a region where it is detected on the road surface 70 that the vehicle image of the vehicle 7 is close to the vehicle image of the vehicle 7. As shown in FIG. 5B, the projection image data is adjusted so that the color of the image of the other vehicle is displayed instead of the color of the own vehicle image.
  • the image of the host vehicle image is projected so that the color of the image of the other vehicle is displayed instead of the color of the host vehicle image in the area close to the other vehicle 9 itself.
  • Adjust the image data In the example of FIG. 5B, a diagram in which the projection image data is similarly adjusted in the other vehicle 9 on which the vehicle-mounted road surface display device 1 is mounted is shown.
  • the projection image data generated in S155 or S165 is output to the projection unit 30 (projector 31).
  • a projected image indicating that the estimated arrival time is short among the other vehicle image and the host vehicle image is displayed in the overlapping region ((c) of FIG. 4).
  • a projected image indicating that the estimated arrival time is short among the other vehicle image and the host vehicle image is displayed in the close region ((b) of FIG. 5).
  • a road surface 70 is used to generate a projection image generated for each of a plurality of scheduled arrival times, which represents an estimated arrival range that the host vehicle is expected to reach when a predetermined estimated arrival time has elapsed. To display. However, when the projection image from another vehicle overlaps or comes close to the projection image from the own vehicle, a projection image indicating that the estimated arrival time is shorter is displayed.
  • the projection image 80 (own vehicle image) of the own vehicle 7 overlaps with the projection image (other vehicle image) of the other vehicle, or when close proximity occurs, the estimated arrival time is shorter than these.
  • a projection image representing is displayed. According to this, since only one type of projection image representing a certain degree of danger is displayed on the road surface 70, the degree of danger of the road is appropriately determined by a subject such as a pedestrian based on the projection image. Can be made.
  • the overlapped range is changed to the color of the image by the other vehicle 9. Also good. As shown in FIG. 6A, within the range where overlap is detected, the degree of road danger is different depending on the own vehicle image and the other vehicle image within the overlapping region. If the color images are displayed in an overlapping manner, a pedestrian who sees the display may feel that the road danger level is unknown.
  • the host vehicle image and the other vehicle image are in the same color representing the degree of danger and represent a higher degree of danger. Displayed in color. For this reason, it is possible to make the pedestrian appropriately determine the road risk level based on the projection image.
  • the region in which the proximity has occurred is changed to the color of the image by the other vehicle 9 May be. If the arrival time is longer than that of the other vehicle, the overlapping range is changed to the color of the other vehicle. As shown in FIG. 6 (a), images of different modes (for example, colors) indicating the degree of danger of the road are paralleled by the own vehicle image and the other vehicle image within the range in which proximity is detected. If a plurality of images are displayed, for example, the pedestrian who has seen the display on the side closer to the pedestrian may apologize that the road risk is low.
  • modes for example, colors
  • the own vehicle image and the other vehicle image represent the same risk level and represent a higher risk level.
  • a projected image is displayed in color. For this reason, a pedestrian who has seen the projected image can accurately determine the degree of danger of the road such that the degree of danger of the road is high.
  • control unit 50 corresponds to an example of a road surface display device.
  • S125 corresponds to an example of processing as a road surface image control unit
  • S135 corresponds to an example of processing as a detection unit
  • S155 and S165 correspond to an example of processing as a display adjustment unit.
  • a group of the projection image data generated by the control unit 50 and the projection image 80 projected by the projection unit 30 on the road surface 70 based on the projection image data corresponds to a road surface image.
  • the projected image is displayed so that the color of the image of the other vehicle is displayed instead of the color of the own vehicle image in the region where the overlap is detected in the overlapping process (S155) in the road surface display process.
  • the process executed as the overlap process is not limited to this.
  • the projection image data may be adjusted so that the image of the host vehicle image is not displayed, that is, the display of the image is stopped.
  • a projected image indicating that the estimated arrival time is short among the other vehicle image and the own vehicle image is displayed in the overlapping region (FIG. 7 (c)). Similar effects are produced.
  • the image corresponding to the non-braking period in the projected image 80 is displayed in red, but is not limited to this, and is suitable for recognizing that it is the most dangerous area for pedestrians. Any image may be used.
  • the image corresponding to the sudden braking period in the projected image 80 is not limited to yellow, and may be an image in a mode suitable for alerting the pedestrian.
  • the image corresponding to the brakeable period in the projected image 80 is not limited to green, and may be an image suitable for recognizing that it is safe for a pedestrian.
  • the projected image is displayed so that the color of the image of the other vehicle is displayed instead of the color of the own vehicle image in the area where the proximity is detected.
  • the process executed as the proximity process is not limited to this.
  • the projection image data may be adjusted so that an image 205 by another vehicle is displayed in parallel with the image 204 of the own vehicle image. According to this, a pedestrian who has seen such a projected image can be alerted to the road on which the projected image is displayed.
  • the functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Moreover, you may abbreviate
  • the present disclosure can be realized in various forms such as the above-described on-vehicle road surface display device 1 and the control unit 50, a program for causing the control unit 50 to function, a medium on which the program is recorded, a road surface display method, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)

Abstract

自車両に搭載され、路面に画像を表示させる路面表示装置は、所定到達予定時間が経過したときに自車両が到達すると予測される到達予定範囲を表す画像を複数の到達予定時間毎に配置した路面画像を生成し、該路面画像を、自車両の進行方向前方の路面に表示させる路面画像制御部(S125)と、当該路面表示装置が搭載された他車両により路面に表示された路面画像を表す他車両画像及び自車両により路面に表示された路面画像を表す自車両画像の路面における表示状態を取得し、該表示状態に基づいて、他車両画像及び自車両画像の重なりの有無又は近接の有無を検出する検出部(S135)と、重なり又は近接の有ることが検出された場合、路面のうちの該重なり又は近接の有ることが検出された領域に、他車両画像及び自車両画像のうち到達予定時間が短いことを表す路面画像が表示されるように、画像出力を調整する表示調整部(S155、S165)と、を備える。

Description

路面表示装置 関連出願の相互参照
 本出願は、2015年6月9日に出願された日本特許出願番号2015-116670号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両に搭載されて路面に画像を表示させる路面表示装置に関する。
 従来、車両の走行する路面に、予め定められた到達予定時間が経過したときに該車両が到達すると予測される範囲である到達予定範囲を表す画像(路面画像)を表示する路面表示装置が知られている。特許文献1には、路面に、到達予定範囲を複数の到達予定時間ごとに異なる色で表した路面画像を表示する技術が開示されている。
特開2006-96326号公報
 しかしながら、特許文献1に記載の技術では、例えば、自車両による路面画像に対する他車両による路面画像への重なりが生じた場合には、自車両による路面画像の表示色と他車両による路面画像の表示色とが混ざって路面に表示されることが有り得る。また、幅の狭い道路において、自車両と対向車両としての他車両とが存在するとき、例えば、自車両による路面画像に対する他車両による路面画像の近接が生じた場合には、すなわち、複数の車両による路面画像が路面に表示される場合には、歩行者から複数の車両による路面画像が見えることが有り得る。
 このような重なり又は近接の生じた状況における路面画像は、例えば道路を横断しようとする際に、該路面画像に基づいて道路の危険の度合いを判断しようとする歩行者を混乱させる。つまり、特許文献1に記載の技術では、道路の危険の度合いを表す路面画像が路面に複数表示された場合、対象者に、これらの路面画像に基づいて道路の危険の度合いを適切に判断させることが困難であるという問題があった。
 本開示は、上記点に鑑みてなされたものであり、路面画像が複数路面に表示された場合に、路面画像が表示された道路の危険の度合いを対象者に適切に判断させることが可能な路面表示装置を提供することを目的としている。
 本開示の一態様による路面表示装置は、自車両に搭載され、路面に画像を表示させる表示装置であって、路面画像制御部と、検出部と、表示調整部と、を備える。路面画像制御部は、予め定められた到達予定時間が経過したときに自車両が到達すると予測される到達予定範囲を表す画像を複数の到達予定時間毎に配置した路面画像を生成し、該路面画像を、自車両の進行方向前方の路面に表示させる。検出部は、当該路面表示装置が搭載された他車両により路面に表示された路面画像を表す他車両画像及び自車両により路面に表示された路面画像を表す自車両画像の路面における表示状態を取得し、該表示状態に基づいて、他車両画像及び自車両画像の重なりの有無又は近接の有無を検出する。表示調整部は、検出部によって重なり又は近接の有ることが検出された場合、路面のうちの該重なり又は近接の有ることが検出された領域に、他車両画像及び自車両画像のうち到達予定時間が短いことを表す路面画像が表示されるように、路面画像制御部による出力を調整する。
 このような構成では、予め定められた到達予定時間が経過したときに自車両が到達すると予測される到達予定範囲を表す画像を複数の到達予定時間毎に生成した路面画像を、路面に表示させる。ただし、自車両による路面画像に対して他車両による路面画像が重なった場合または近接した場合は、これらのうちのより到達予定時間の短いことを表す路面画像を表示させる。
 これによれば、路面には、ある危険の度合いを表す路面画像が1種類だけ表示されるため、該路面画像に基づいて道路の危険の度合いを対象者に適切に判断させることができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、本開示の一実施形態による車載路面表示装置の構成を示すブロック図であり、 図2は、投影画像の一例を示す図であり、 図3は、路面表示処理の一例を示すフローチャートであり、 図4は、重なり処理の一例を示す図であり、 図5は、近接処理の一例を示す図であり、 図6は、近接処理及び重なり処理による効果を示す図であり、 図7は、重なり処理の他の一例を示す図であり、 図8は、近接処理の他の一例を示す図。
 以下、本開示が適用された実施形態について、図面を用いて説明する。
 図1に一例として示す車載路面表示装置1は、車両に搭載され、路面に画像を表示させる装置である。車載路面表示装置1は、車両状態検出部10と、投射部30と、制御部50と、を備える。
 検出部10は、一例として、カメラ11と、車速センサ12とを備える。
 カメラ11は、車載路面表示装置1を搭載した車両(以下、自車両という)の前側に設置されており、自車両前方の地上面を、すなわち自車両前方の道路の路面を、繰り返し撮像する。カメラ11は、カラー撮影用のカメラである。カメラ11は、撮像した画像を表す画像データである撮像画像データを制御部50へ出力する。
 車速センサ12は、車軸の回転に応じて車速信号を生成し、該車速信号に基づいて自車両の車速を検出する。車速センサ12は、検出した車速を制御部50へ出力する。
 投射部30は、一例として、プロジェクタ31を備える。プロジェクタ31は、制御部50から後述する投影画像を表すための画像データ(以下、投影画像データという)が入力されると、該投影画像データに従ってカラーの映像を表示するものである。プロジェクタ31は、その表示した映像が自車両前方の道路の路面に投影されるように、自車両の前側に配置されている。以下では、プロジェクタ31によって路面に投影された映像を投影画像という。
 ここで、制御部50から入力される投影画像データに従ってプロジェクタ31が路面に投影する投影画像について説明する。投影画像は、予め定められた到達予定時間が経過したときに自車両7が到達すると予測される到達予定範囲を表す画像を、複数の到達予定時間毎に配置した画像である。
 ここで、投影画像の一例を図2に基づいて説明する。
 一例として本実施形態では、制動不可期間、急制動期間、制動可能期間の3つの到達予定時間が予め設定されており、該到達予定時間毎に異なる態様で、自車両7が到達すると予測される到達予想範囲を示した画像が投影画像として表示される。異なる態様とは、例えば、色や模様等の視覚に訴える要素が異なることをいう。
 図2に示すように、本実施形態では、自車両7の現在位置を起点として、すなわち、自車両7の現在位置における仮の時刻を0(秒)として、起点から予め定められた第1の設定時間x(秒)が経過するまでの期間を制動不可期間とし、第1の設定時間x(秒)が経過してから予め定められた第2の設定時間y(秒)が経過するまでの期間を急制動期間とし、第2の設定時間z(秒)が経過してから第3の設定時間z(秒)が経過するまでの期間を制動可能期間とする(x<y<z)。
 なお、制動不可期間(0~x(秒))は、該期間に自車両7が到達すると予測される到達予定範囲が、自車両7の急なブレーキ操作やハンドル操作によって該範囲に存在する歩行者のような対象物を回避不可能な範囲となるように、定められている。
 急制動期間(x~y(秒))は、該期間に自車両7が到達すると予測される到達予定範囲が、自車両7の急なブレーキ操作やハンドル操作によって該範囲に存在する歩行者のような対象物を回避可能な範囲となるように、定められている。
 制動可能期間(y~z(秒))は、該期間に自車両7が到達すると予測される到達予定範囲が、自車両7の通常のブレーキ操作によって該範囲に存在する歩行者のような対象物を回避可能な範囲となるように、定められている。
 そして、投影画像80は、自車両前方の道路の路面70において、自車両7の現在位置を起点として自車両7の前方に延びる帯状の画像であり、前述の3つの到達予定時間毎に、自車両7に近い側から順に赤、黄、緑の3色で表された、帯状の画像が配置された画像である。
 赤色の帯状の画像81が配置された範囲は、制動不可期間(0~x(秒))に自車両7が到達すると予測される到達予定範囲に相当する。換言すれば、路面70にて赤色の帯状の画像81が配置された範囲は、路面70にて投影画像80が占める範囲のうち、歩行者のような対象物にとって最も危険な範囲であるといえる。また、自車両の乗車員にとっても、歩行者との衝突が生じるおそれがあるため、危険な範囲であるといえる。
 黄色の帯状の画像82が配置された範囲は、急制動期間(x~y(秒))に自車両7が到達すると予測される到達予定範囲に相当する。換言すれば、路面70にて黄色の帯状の画像82が配置された範囲は、路面70にて投影画像80が占める範囲のうち、歩行者のような対象物にとって2番目に危険な範囲であるといえる。また、自車両の乗車員にとっても、急なブレーキ操作や急なハンドル操作を行うことで、歩行者との衝突を避けられたとしても、その反動で自車両の乗車員に衝撃が加えられるおそれがあるため、危険な範囲であるといえる。
 緑色の帯状の画像83が配置された範囲は、制動可能期間(y~z(秒))に自車両7が到達すると予測される到達予定範囲に相当する。換言すれば、緑色の帯状の画像83が配置された範囲は、路面70にて投影画像80が占める範囲のうち、歩行者のような対象物にとって3番目に危険な範囲であるといえる、すなわち、歩行者のような対象物にとって最も安全な範囲であるといえる。また、自車両の乗車員にとっても安全な範囲といえる。
 つまり、投影画像80は、自車両7の進行方向前方の道路について、歩行者のような対象物にとっての該道路の危険の度合いを示している画像である。本実施形態は、このような投影画像80をプロジェクタ31によって路面に投影させることで、投影画像80に基づいて道路の危険の度合いを歩行者に判断させるためのものである。
 図1に戻り説明を続ける。制御部50は、CPU51、ROM52、RAM53等を有する周知のマイクロコンピュータを備える。制御部50は、ROM52に記録されたプログラムに基づいて、各種機能を実現するための処理を実行する。一例として制御部50は、後述する路面表示処理を実行する。
 次に、CPU51が実行する路面表示処理について、図3のフローチャートを用いて説明する。路面表示処理は、前述の投影画像80を表すための投影画像データを生成し、投射部30(プロジェクタ31)に該投影画像80を路面70上に投影させるための処理である。本路面表示処理は、ACCスイッチがオンされている間、繰り返し実行される。なお、以下の説明において主語が省略されている場合は、CPU51を主語とする。
 はじめに、S(ステップ)110では、自車両7の車速を取得する。
 S115では、S110にて取得した自車両7の車速に基づいて、前述の制動不可期間、急制動期間、制動可能期間に、自車両7が到達すると予測される到達予定範囲を算出する。到達予定範囲は、制動不可期間、急制動期間、制動可能期間に自車両7が走行する距離(m)として表される。具体的には、制動不可期間、急制動期間、及び制動可能期間の値は、予めROM52に記録されている。本ステップでは、ROM52から制動不可期間、急制動期間、及び制動可能期間の値を取得し、これらの値とS110で取得した自車両7の車速とを乗じた値を、それぞれの期間における到達予定範囲として算出する。
 S120では、S115で算出された到達予定範囲に基づいて、投影画像80を表示するための投影画像データを生成する。具体的には、前述のように、路面70にて投影画像80が占める範囲内において、制動不可期間に対応する到達予定範囲に赤色の帯状の画像が配置されるように、急制動期間に対応する到達予定範囲に黄色の帯状の画像が配置されるように、制動可能期間に対応する到達予定範囲に緑色の帯状の画像が配置されるように、投影画像データを生成する。
 S125では、S120にて生成した投影画像データを、投射部30(プロジェクタ31)へ出力する。これにより、投射部30によって該投影画像データに基づく投影画像80が路面70に表示される。
 S130では、自車両前方の道路の路面70を撮像した画像を表す撮像画像データを取得する。
 S135では、S130にて取得した撮像画像データに基づいて、自車両前方の道路の路面70における投影画像について、重なりあるいは近接が有るか否かを判断する。
 ここで、自車両前方の道路の路面70における投影画像について、重なりが有るとは、自車両画像に対して他車両画像が重なって表示される状態をいう。自車両画像とは、自車両7の進行方向前方の道路の路面70において、自車両7により表示された投影画像80をいい、他車両画像とは、車載路面表示装置1が搭載された他車両により表示された投影画像80をいう。
 重なりが生じた場合は、該重なりが生じた範囲内において、自車両画像の表示色と他車両画像の表示色とが同時に表示されるため、自車両画像と他車両画像とが異なる表示色を表示しているときには、これらの表示色が混ざって表示されてしまう。つまり、このような重なりが生じた場合、該重なりが生じた範囲内における投影画像を見た歩行者に、道路の危険の度合いを過って判断させてしまうおそれがある。
 一方、自車両7前方の道路の路面70における投影画像について、近接が有るとは、自車両前方の道路の路面70において、複数の投影画像すなわち自車両画像と他車両画像とが略平行に、所定の近接閾値未満の距離だけ離れて表示される状態をいう。このような状態は、例えば、幅の狭い道路において、自車両と対向車両としての他車両とが存在するときに生じ得る。
 近接が生じた場合は、該近接が生じた範囲内において、歩行者が路面70を見ると該歩行者からは複数の車両による投影画像が見えるため、自車両画像と他車両画像とが異なる表示色を表示しているときには、歩行者からはこれらの異なる複数の表示色が見えてしまう。つまり、このような近接が生じた場合、該近接が生じた範囲内における投影画像を見た歩行者に、道路の危険の度合いを過って判断させてしまうおそれがある。
 そこで、本ステップでは、S130にて取得された撮像画像データが表す画像に基づいて、自車両7の進行方向前方の道路の路面70における自車両画像及び他車両画像の、路面70における位置を含む表示状態を取得し、他車両画像及び自車両画像について、重なりの有無、及び近接の有無を検出する。
 具体的には、S130にて取得された撮像画像データが表す画像において、自車両画像が表示されている範囲内に、赤、黄、緑以外の色が表示された範囲が存在する場合に、重なりが有ると判断する。また、S130にて取得された撮像画像データが表す画像において、自車両画像が表示されている範囲内に対して近接閾値未満の距離だけ離れて略平行に、赤、黄、緑のうち少なくとも1色で表された投影画像が存在する場合に、近接が有ると判断する。重なり又は近接が有る場合は処理をS140へ移行させ、重なりも近接も無い場合は処理をS110へ移行させる。なお、S130にて取得された撮像画像データが表す画像において、他車両画像が存在していない場合、処理をS110へ移行させる。
 重なり又は近接が有ると判断された場合に移行するS140では、重なりが有る範囲内、又は近接が有る範囲内において、自車両画像による表示態様が他車両画像による表示態様よりも危険度が高いか否かを判断する。具体的には、自車両画像による表示色と他車両画像による表示色とを比較する。ここでは、赤が最も危険度が高いことを示し、続いて黄色の危険度が高く、緑が最も危険度が低いことを示す。
 ここで、S135にて重なりが有ると判断されて本S140に移行した場合は、一例として図4の(a)に示すように、S130にて取得された撮像画像データが表す画像において、自車両画像における重なりが有る範囲外であって且つ該範囲に接する範囲101の色と、他車両画像における重なりが有る範囲外であって且つ該範囲に接する範囲102の色と、を比較する。
 一方、S135にて近接が有ると判断されて本S140に移行した場合、一例として図5の(a)に示すように、S130にて取得された撮像画像データが表す画像において、自車両画像における近接が有る範囲201内の色と、他車両画像における近接が有る範囲202内の色とを比較する。
 自車両画像による表示態様が他車両画像による表示態様よりも危険度が高いと判断した場合は処理をS145へ移行させ、危険度が低いと判断した場合は処理をS150へ移行させる。
 S140にて危険度が高いと判断されて移行するS145では、S125で生成された投影画像データと同じ投影画像データを投射部30へ継続して出力する。これにより、路面70には、図2に示す投影画像80と同様の画像が表示される。
 S140にて危険度が低いと判断されて移行するS150では、S135にて重なり有りと判断されたのか否か、すなわち、重なり有りと判断されたのか近接有りと判断されたのかを判断する。重なり有りと判断された場合は処理をS155へ移行させ、重なり無しすなわち近接有りと判断された場合は処理をS165へ移行させる。
 S155では、重なり処理を実行する。具体的には、前述の図4の(a)に示すように、路面70において自車両7の自車両画像に対して他車両9による他車両画像の重なりの有ることが検出された領域内において、図4の(b)に示すように、自車両画像の色ではなく他車両の画像の色が表示されるように、投影画像データを調整する。
 S165では、近接処理を実行する。具体的には、一例として図5の(a)に示すように、路面70において自車両7の自車両画像に対して他車両9による他車両画像の近接の有ることが検出された領域内において、図5の(b)に示すように、自車両画像の色ではなく他車両の画像の色が表示されるように、投影画像データを調整する。
 また、本実施形態では、図5の(b)に示すように、近接の有ることが検出された領域内において、他車両画像の色が赤色であった場合には、他車両9による赤色の画像に近接している領域内に加えて他車両9そのものに近接している領域内についても、自車両画像の色ではなく他車両の画像の色が表示されるように、自車両画像の投影画像データを調整する。なお、図5の(b)の例では、車載路面表示装置1を搭載した他車両9においても同様に投影画像データが調整された図が示されている。
 S175では、S155又はS165にて生成した投影画像データを、投射部30(プロジェクタ31)へ出力する。これにより、重なりの有る領域内では、他車両画像及び自車両画像のうち到達予定時間が短いことを表す投影画像が表示されるようになる(図4の(c))。また、これにより、近接の有る領域内では、他車両画像及び自車両画像のうち到達予定時間が短いことを表す投影画像が表示されるようになる(図5の(b))。
 つまり、本路面表示処理では、予め定められた到達予定時間が経過したときに自車両が到達すると予測される到達予定範囲を表す画像を複数の到達予定時間毎に生成した投影画像を、路面70に表示させる。ただし、自車両による投影画像に対して他車両による投影画像が重なった場合または近接した場合は、これらの内のより到達予定時間の短いことを表す投影画像を表示させる。
 以上詳述した実施形態によれば、以下の効果が得られる。
 自車両7による投影画像80(自車両画像)に対して他車両による投影画像(他車両画像)の重なりが生じた場合または近接が生じた場合は、これらの内のより到達予定時間の短いことを表す投影画像を表示させる。これによれば、路面70には、ある危険の度合いを表す投影画像が1種類だけ表示されるため、該投影画像に基づいて道路の危険の度合いを歩行者のような対象者に適切に判断させることができる。
 具体的には、重なりが生じた領域内において、自車両画像よりも他車両9による画像が到達時間が短いことを示す場合は、重なった範囲内を他車両9による画像の色に変更してもよい。仮に、図6の(a)に示すように、重なりの有ることが検出された範囲内において、該重なりが生じた領域内に、自車両画像及び他車両画像によって道路の危険の度合いを示す異なる色の画像が重なって表示されると、該表示を見た歩行者に、道路の危険度が不明であると感じさせるおそれがある。
 これに対して、本実施形態によれば、図6の(c)に示すように、自車両画像及び他車両画像は、同じ危険度を表す色で、且つ、より危険度の高いことを表す色で、表示される。このため、該投影画像に基づいて道路の危険度を歩行者に適切に判断させることができる。
 具体的には、近接が生じた領域内において、自車両画像よりも他車両9による画像が到達時間が短いことを示す場合は、近接が生じた領域内を他車両9による画像の色に変更してもよい。他車両よりも到達時間が長い場合は、重なった範囲内を他車両の色に変更する。仮に図6の(a)に示すように、近接の有ることが検出された範囲内において、自車両画像及び他車両画像によって道路の危険の度合いを示す異なる態様(例えば色)の画像が平行に複数表示されると、例えば歩行者に近い側の表示を見た該歩行者に、道路の危険度が低いと謝った判断をさせるおそれがある。
 これに対して、本実施形態によれば、図6の(b)に示すように、自車両画像及び他車両画像によって、同じ危険度を表す色で、且つ、より危険度の高いことを表す色で、投影画像が表示される。このため、該投影画像を見た歩行者に、例えば該道路の危険度が高いというように、道路の危険の度合いを正確に判断させることができる。
 なお、実施形態では、制御部50が路面表示装置としての一例に相当する。また、S125が路面画像制御部としての処理の一例に相当し、S135が検出部としての処理の一例に相当し、S155、S165が表示調整部としての処理の一例に相当する。また、制御部50が生成した投影画像データ、及び投射部30が投影画像データに基づいて路面70に投影した投影画像80をひとまとめにしたものが、路面画像に相当する。
 (他の実施形態)
 以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
 上記実施形態では、路面表示処理における重なり処理(S155)において、重なりの有ることが検出された領域内において、自車両画像の色ではなく他車両の画像の色が表示されるように、投影画像データを調整していたが、重なり処理として実行される処理はこれに限るものではない。例えば、一例として図7の(a)に示すように、路面70において自車両7の自車両画像に対して他車両9による他車両画像の重なりの有ることが検出された領域100内において、図7の(b)に示すように、自車両画像の画像が非表示となるように、すなわち画像の表示が中止されるように投影画像データを調整してもよい。これによっても、重なりの有る領域内では、他車両画像及び自車両画像のうち到達予定時間が短いことを表す投影画像が表示されるようになり(図7の(c))、上記実施形態と同様の効果が奏される。
 上記実施形態では、投影画像80のうち制動不可期間に対応する画像は、赤色で表示されていたが、これに限るものではなく、歩行者にとって最も危険な領域であることを認識させるに適した態様の画像であればよい。同様に、投影画像80のうち急制動期間に対応する画像は、黄色に限るものではなく、歩行者にとって注意を喚起させるに適した態様の画像であればよい。また、投影画像80のうち制動可能期間に対応する画像は、緑色に限るものではなく、歩行者にとって安全であることを認識させるに適した態様の画像であればよい。
 上記実施形態では、路面表示処理における近接処理(S165)において、近接の有ることが検出された領域内において、自車両画像の色ではなく他車両の画像の色が表示されるように、投影画像データを調整していたが、近接処理として実行される処理はこれに限るものではない。例えば、一例として図8の(a)に示すように、路面70において自車両7の自車両画像に対して他車両9による他車両画像の近接の有ることが検出された領域203内において、図8の(b)に示すように、自車両画像の画像204と平行に他車両による画像205が表示されるように投影画像データを調整してもよい。これによれば、このような投影画像を見た歩行者に、該投影画像が表示された道路に対しての注意を促すことができる。
 上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。
 本開示は、前述した車載路面表示装置1、制御部50の他、制御部50を機能させるためのプログラム、このプログラムを記録した媒体、路面表示方法など、種々の形態で実現することができる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。

 

Claims (4)

  1.  自車両に搭載され、路面に画像を表示させる路面表示装置であって、
     予め定められた到達予定時間が経過したときに自車両が到達すると予測される到達予定範囲を表す画像を複数の到達予定時間毎に配置した路面画像を生成し、該路面画像を、自車両の進行方向前方の路面に表示させる路面画像制御部(S125)と、
     当該路面表示装置が搭載された他車両により路面に表示された路面画像を表す他車両画像及び自車両により路面に表示された路面画像を表す自車両画像の路面における表示状態を取得し、該表示状態に基づいて、前記他車両画像及び前記自車両画像の重なりの有無又は近接の有無を検出する検出部(S135)と、
     前記検出部によって前記重なり又は前記近接の有ることが検出された場合、前記路面のうちの該重なり又は近接の有ることが検出された領域に、前記他車両画像及び前記自車両画像のうち前記到達予定時間が短いことを表す路面画像が表示されるように、前記路面画像制御部による出力を調整する表示調整部(S155、S165)と、
     を備える路面表示装置。
  2.  請求項1に記載の路面表示装置であって、
     前記表示調整部(S155)は、前記検出部によって前記重なりの有ることが検出され、かつ前記他車両画像が前記自車両画像よりも到達予定時間が短いことを表す場合、前記路面画像制御部に対して、路面における少なくとも前記重なりの有ることが検出された範囲内において他車両と同じ路面画像を表示させる
     路面表示装置。
  3.  請求項1に記載の路面表示装置であって、
     前記表示調整部(S155)は、前記検出部によって前記重なりの有ることが検出され、かつ前記他車両画像が前記自車両画像よりも到達予定時間が短いことを表す場合、前記路面画像制御部に対して、路面における前記重なりの有ることが検出された範囲内において路面画像の表示を中止させる
     路面表示装置。
  4.  請求項1から請求項3のいずれか一項に記載の路面表示装置であって、
     前記表示調整部(S165)は、前記検出部によって前記近接の有ることが検出され、かつ前記他車両画像が前記自車両画像よりも到達予定時間が短いことを表す場合、前記路面画像制御部に対して、路面における少なくとも前記近接の有ることが検出された範囲内において他車両と同じ路面画像を表示させる
     路面表示装置。
PCT/JP2016/002291 2015-06-09 2016-05-10 路面表示装置 WO2016199345A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/577,451 US10737611B2 (en) 2015-06-09 2016-05-10 Road surface display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015116670A JP6485234B2 (ja) 2015-06-09 2015-06-09 路面表示装置
JP2015-116670 2015-06-09

Publications (1)

Publication Number Publication Date
WO2016199345A1 true WO2016199345A1 (ja) 2016-12-15

Family

ID=57504883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/002291 WO2016199345A1 (ja) 2015-06-09 2016-05-10 路面表示装置

Country Status (3)

Country Link
US (1) US10737611B2 (ja)
JP (1) JP6485234B2 (ja)
WO (1) WO2016199345A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159699A (ja) * 2016-03-07 2017-09-14 トヨタ自動車株式会社 車両用照明装置
CN109094566A (zh) * 2017-06-21 2018-12-28 奥迪股份公司 车辆驾驶辅助系统和方法
WO2021093013A1 (zh) * 2019-11-12 2021-05-20 深圳大学 一种驾驶行为危险度的监测方法及装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6515125B2 (ja) 2017-03-10 2019-05-15 株式会社Subaru 画像表示装置
JP6465317B2 (ja) * 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6465318B2 (ja) * 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6593803B2 (ja) 2017-03-10 2019-10-23 株式会社Subaru 画像表示装置
JP6497818B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6497819B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6429413B2 (ja) 2017-03-10 2018-11-28 株式会社Subaru 画像表示装置
JP7031133B2 (ja) * 2017-03-28 2022-03-08 セイコーエプソン株式会社 表示装置、表示システム及び表示装置の制御方法
CN107856737B (zh) * 2017-11-06 2019-09-13 吉林大学 一种基于危险程度变权重的人机协同转向控制方法
JP2020015471A (ja) * 2018-07-27 2020-01-30 パイオニア株式会社 投影制御装置、投影制御方法、投影制御プログラム、及び記憶媒体
US11437850B2 (en) 2019-02-21 2022-09-06 Lippert Components Inc. Wirelessly electrically-coupled deployable apparatus
JP7037611B1 (ja) 2020-09-11 2022-03-16 株式会社 日立産業制御ソリューションズ 車両走行支援装置、車両走行支援方法及び車両走行支援プログラム
JP2023137474A (ja) * 2022-03-18 2023-09-29 トヨタ自動車株式会社 報知方法、報知装置、及び報知プログラム
DE102022203952A1 (de) 2022-04-25 2023-10-26 Psa Automobiles Sa Verfahren und Vorrichtung zum Erfassen einer Umgebung eines Fahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243794A (ja) * 2003-02-10 2004-09-02 Toyota Motor Corp 車両用安全補助装置
JP2006096326A (ja) * 2004-09-03 2006-04-13 Denso Corp 車両用報知装置
WO2013145984A1 (ja) * 2012-03-28 2013-10-03 株式会社デンソー ライト照射制御装置、ライト照射警告システム、ライト制御システム、及びライト照射制御プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4161584B2 (ja) * 2002-02-07 2008-10-08 トヨタ自動車株式会社 移動体用安全装置
JP2004220257A (ja) 2003-01-14 2004-08-05 Toyota Motor Corp 車両用安全補助装置および車両用安全補助システム
JP4561499B2 (ja) * 2005-06-29 2010-10-13 トヨタ自動車株式会社 車両用運転支援装置
JP2009248598A (ja) 2008-04-01 2009-10-29 Toyota Motor Corp 路面描写装置
JP5262394B2 (ja) * 2008-07-25 2013-08-14 トヨタ自動車株式会社 衝突予測装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243794A (ja) * 2003-02-10 2004-09-02 Toyota Motor Corp 車両用安全補助装置
JP2006096326A (ja) * 2004-09-03 2006-04-13 Denso Corp 車両用報知装置
WO2013145984A1 (ja) * 2012-03-28 2013-10-03 株式会社デンソー ライト照射制御装置、ライト照射警告システム、ライト制御システム、及びライト照射制御プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159699A (ja) * 2016-03-07 2017-09-14 トヨタ自動車株式会社 車両用照明装置
CN109094566A (zh) * 2017-06-21 2018-12-28 奥迪股份公司 车辆驾驶辅助系统和方法
WO2021093013A1 (zh) * 2019-11-12 2021-05-20 深圳大学 一种驾驶行为危险度的监测方法及装置
US11738761B2 (en) 2019-11-12 2023-08-29 Shenzhen University Method and device for monitoring driving behavior risk degree

Also Published As

Publication number Publication date
JP6485234B2 (ja) 2019-03-20
US10737611B2 (en) 2020-08-11
JP2017001501A (ja) 2017-01-05
US20180141484A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
WO2016199345A1 (ja) 路面表示装置
JP6036724B2 (ja) 車両周辺状況認識装置および車両制御装置
CN108156822B (zh) 车辆控制装置,以及车辆控制方法
US8878935B2 (en) In-vehicle camera and in-vehicle camera system
US9797734B2 (en) Object recognition apparatus
JP5890803B2 (ja) 車両の運転支援制御装置
JP6372228B2 (ja) 衝突予想時間算出装置
JP5855272B2 (ja) ブレーキ状況を認識する方法および装置
JP6462629B2 (ja) 運転支援装置及び運転支援プログラム
JP4946807B2 (ja) 車線逸脱防止制御装置
US20120226423A1 (en) Vehicle driving support apparatus
WO2018088224A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP6834657B2 (ja) 車線逸脱警報装置の制御装置、車両および車線逸脱警報制御方法
US10578714B2 (en) Vehicle control apparatus and vehicle control method
WO2014103223A1 (ja) 暗視装置
JP4696792B2 (ja) 車載警報装置
JP6729463B2 (ja) 車線逸脱警報装置の制御装置、車両および車線逸脱警報制御方法
JP2010231337A (ja) 車両の車線逸脱警報装置
JP2018081363A (ja) 運転支援装置
JP2004310522A (ja) 車両用画像処理装置
JP5761089B2 (ja) 車両の運転支援システム
JP2006176069A (ja) インターチェンジ合流支援装置
US20190143966A1 (en) Vehicle control apparatus
JP2016011088A (ja) 車両制御装置、車両制御方法、及び、車両制御用プログラム
JP2009211498A (ja) 車両用警報装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807064

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15577451

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16807064

Country of ref document: EP

Kind code of ref document: A1