JP2008007079A - Device and method for road surface projection - Google Patents
Device and method for road surface projection Download PDFInfo
- Publication number
- JP2008007079A JP2008007079A JP2006182599A JP2006182599A JP2008007079A JP 2008007079 A JP2008007079 A JP 2008007079A JP 2006182599 A JP2006182599 A JP 2006182599A JP 2006182599 A JP2006182599 A JP 2006182599A JP 2008007079 A JP2008007079 A JP 2008007079A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- vehicle
- unit
- road surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/525—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2400/00—Special features or arrangements of exterior signal lamps for vehicles
- B60Q2400/50—Projected symbol or information, e.g. onto the road or car body
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、路面投影装置及び路面投影方法に関するものである。 The present invention relates to a road surface projection apparatus and a road surface projection method.
歩行者の安全を確保することは、重要な問題である。このような歩行者の安全を確保するため、歩行者に報知する従来のシステムとして、走行音等が極端に小さい電気自動車に搭載された警報装置がある(例えば、特許文献1参照)。この警報装置は、光量検出器と発音器とを備え、電気自動車が歩行者に接近したときに、光量検出器が周囲の光量を検出し、その光量検出器の出力に基づいて発音器を駆動させている。 Ensuring the safety of pedestrians is an important issue. In order to ensure the safety of such pedestrians, as a conventional system for informing pedestrians, there is an alarm device mounted on an electric vehicle with extremely low running noise (for example, see Patent Document 1). This alarm device has a light intensity detector and a sound generator. When the electric vehicle approaches a pedestrian, the light intensity detector detects the ambient light intensity and drives the sound generator based on the output of the light intensity detector. I am letting.
この警報装置は、このように発音器を駆動させることにより、昼間か夜間か、周囲が繁華街か閑静な地区か、その周囲環境に応じて、適確な音量の接近音を電気自動車の接近を歩行者に報知するようにしている。 By driving the sound generator in this way, this alarm device makes an approaching sound of an appropriate volume depending on whether it is daytime or nighttime, whether it is a busy or quiet area, or the surrounding environment. To the pedestrian.
また、赤外線カメラと警告灯とを備えた車両用照明システムもある(例えば、特許文献2参照)。この車両用照明システムでは、前照灯で照明されない領域に歩行者が存在している場合に、赤外線カメラで歩行者の熱を検知して、可視光による警告灯をこの領域に向けて点灯させて、可視光で歩行者を照明するようにしている。 There is also a vehicular lighting system including an infrared camera and a warning light (see, for example, Patent Document 2). In this vehicle lighting system, when there is a pedestrian in an area that is not illuminated by the headlamp, the infrared camera detects the heat of the pedestrian and turns on the warning light with visible light toward this area. The pedestrians are illuminated with visible light.
また、この車両照明システムでは、フロントガラスに、警告灯の光を遮光するフィルタが配置されており、運転者に気づかれないように警告灯の光を点灯させるようにしている。これにより、路面の熱によって歩行者を誤検出して警告灯を点灯しても、運転者の注意をそらさないようにしている。このようにしてこの車両用照明システムは、車両の接近を歩行者に適確に報知するようにしている。 Further, in this vehicle lighting system, a filter that blocks the light of the warning light is arranged on the windshield so that the light of the warning light is turned on so as not to be noticed by the driver. Thereby, even if a pedestrian is erroneously detected by the heat of the road surface and the warning light is turned on, the driver's attention is not distracted. In this manner, this vehicle illumination system accurately notifies the pedestrian of the approach of the vehicle.
また、赤外線ステレオカメラと可視光ステレオカメラとを備えた車両用障害物検出装置もある(特許文献3参照)。この車両用障害物検出装置では、赤外線ステレオカメラで障害物として歩行者を検出し、可視光ステレオカメラで道路に表示された白線を検出する。 There is also a vehicle obstacle detection device including an infrared stereo camera and a visible light stereo camera (see Patent Document 3). In this vehicle obstacle detection device, a pedestrian is detected as an obstacle with an infrared stereo camera, and a white line displayed on a road is detected with a visible light stereo camera.
そして、この車両用障害物検出装置は、歩行者が白線から所定領域内に存在しているときに、前照灯の照射方向を切り換えて歩行者に対して可視照明を行うようにしている。この車両用障害物検出装置は、このようにして、夜間運転時の歩行者の安全を確保するようにしている。
しかし、特許文献1のもののように、単に接近音を報知するだけでは、車両の接近を報知すべき歩行者が特定されないため、歩行者に、自身に対する報知なのか否かを判別させることができず、歩行者に対して分かり易く注意を喚起させることができない。 However, since the pedestrian who should notify the approach of the vehicle is not specified only by notifying the approaching sound as in the case of Patent Document 1, the pedestrian can determine whether the notification is for himself / herself. Therefore, it is impossible to draw attention to pedestrians in an easy-to-understand manner.
また、特許文献2、3のもののように、単に警告灯で歩行者を照明するだけでは、歩行者は、なぜ、照明を受けているのか判断できず、違和感もあり、誰のための照明なのか、その状況を判断できず、歩行者に対して分かり易く注意を喚起させることができない。
In addition, as in
また、歩行者に対して分かり易く注意を喚起させることができなければ、歩行者の安全を十分に確保したとはいえない。 Moreover, it cannot be said that the safety of the pedestrian is sufficiently ensured if the pedestrian cannot be alerted easily.
本発明は、このような従来の問題点に鑑みてなされたもので、歩行者のような移動体に対して、分かり易く注意を喚起させることが可能な路面投影装置及び路面投影方法を提供することを目的とする。
また、本発明は、歩行者のような移動体の安全を確保することが可能な路面投影装置及び路面投影方法を提供することを目的とする。
The present invention has been made in view of such a conventional problem, and provides a road surface projection device and a road surface projection method that can easily draw attention to a moving body such as a pedestrian. For the purpose.
It is another object of the present invention to provide a road surface projection device and a road surface projection method that can ensure the safety of a moving body such as a pedestrian.
この目的を達成するため、本発明の第1の観点に係る路面投影装置は、
自車両の周囲領域を監視する監視部と、
前記監視部の監視結果に基づいて、移動体を判別する移動体判別部と、
路面に投影するイメージのイメージデータを予め記憶するイメージデータ記憶部と、
イメージを投影するように作動制御されたときに、前記イメージデータ記憶部から前記イメージデータを読み出し、前記移動体近傍の路面位置に前記イメージを投影する投影部と、
前記監視部が監視した周囲領域に判別領域を設定し、前記移動体判別部が判別した前記移動体が、前記判別領域に存在しているときに、前記イメージを投影するように前記投影部を作動制御する作動制御部と、を備えたことを特徴とする。
In order to achieve this object, a road surface projection device according to the first aspect of the present invention provides:
A monitoring unit that monitors the surrounding area of the vehicle;
Based on the monitoring result of the monitoring unit, a moving body determination unit for determining a moving body;
An image data storage unit for storing in advance image data of an image to be projected on the road surface;
A projection unit that reads out the image data from the image data storage unit and projects the image on a road surface in the vicinity of the moving body when the operation is controlled to project an image;
A determination area is set in the surrounding area monitored by the monitoring section, and the projection section is configured to project the image when the moving body determined by the moving body determination section exists in the determination area. And an operation control unit that controls the operation.
道路が延びる方向を道路方向として、停車している前記自車両の前記道路方向に対する傾き角度を検出する車両傾き検出部と、
前記車両傾き検出部が検出した傾き角度に基づいて、前記イメージデータ記憶部が予め記憶するイメージデータに基づくイメージの傾きを補正し、補正したイメージデータを前記イメージデータ記憶部に格納するイメージデータ補正部と、を備え、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記イメージデータ補正部が補正したイメージデータを読み出し、前記移動体近傍の路面位置に、補正された前記イメージを投影するようにしてもよい。
A vehicle inclination detection unit that detects an inclination angle of the vehicle that is stopped with respect to the road direction, with a direction in which the road extends as a road direction;
Image data correction for correcting an image inclination based on image data stored in advance by the image data storage unit based on the inclination angle detected by the vehicle inclination detection unit, and storing the corrected image data in the image data storage unit And comprising
The projection unit is controlled by the operation control unit so as to project an image, and reads out the image data corrected by the image data correction unit from the image data storage unit, to the road surface position near the moving body, The corrected image may be projected.
前記車両傾き検出部は、
前記自車両が走行しているときに、前記自車両の走行方向が変化する毎に前記自車両のヨーレートを計測するヨーレート計測部と、
前記ヨーレート計測部が計測した前記自車両のヨーレートを逐次記憶するヨーレート記憶部と、
前記自車両が停車したとき、前記自車両が直進走行しているときの前記自車両の傾き角度を0°として、前記ヨーレート記憶部が逐次記憶したヨーレートを積算することにより、停車している前記自車両の前記道路方向に対する傾き角度を取得する傾き角度取得部と、を備えたものであってもよい。
The vehicle inclination detector is
A yaw rate measuring unit that measures the yaw rate of the host vehicle each time the traveling direction of the host vehicle changes when the host vehicle is traveling;
A yaw rate storage unit that sequentially stores the yaw rate of the host vehicle measured by the yaw rate measurement unit;
When the host vehicle stops, the tilt angle of the host vehicle when the host vehicle is traveling straight ahead is set to 0 °, and the yaw rate stored in the yaw rate storage unit is added up sequentially to stop the host vehicle. An inclination angle acquisition unit that acquires an inclination angle of the host vehicle with respect to the road direction.
前記イメージデータ記憶部は、前記イメージデータとして、前記移動体への注意喚起を促すための移動体用安全確認イメージのイメージデータを予め記憶し、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記移動体用安全確認イメージのイメージデータを読み出し、前記移動体近傍の路面位置に、前記移動体用安全確認イメージを投影するようにしてもよい。
The image data storage unit stores, as the image data, image data of a safety confirmation image for a moving body for urging attention to the moving body in advance,
The projection unit is controlled by the operation control unit so as to project an image, and reads out image data of the safety confirmation image for the moving body from the image data storage unit. The mobile body safety confirmation image may be projected.
前記移動体判別部は、前記移動体として歩行者を判別し、
前記イメージデータ記憶部は、前記イメージデータとして横断歩道のイメージデータを予め記憶し、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記横断歩道のイメージデータを読み出し、前記移動体近傍の路面位置に、前記横断歩道のイメージを前記移動体用安全確認イメージとともに投影するようにしてもよい。
The mobile body determination unit determines a pedestrian as the mobile body,
The image data storage unit stores in advance image data of a pedestrian crossing as the image data,
The projection unit is controlled by the operation control unit to project an image, reads the image data of the pedestrian crossing from the image data storage unit, and the road surface position near the moving body You may make it project an image with the said safety confirmation image for moving bodies.
前記イメージデータ記憶部は、前記イメージデータの部分イメージデータを予め複数記憶し、
前記イメージデータ記憶部が記憶する複数の部分イメージデータから、前記路面に投影するイメージデータの生成に必要な部分イメージデータを選択し、選択した部分イメージデータを配置することにより、前記イメージデータを生成し、生成した前記イメージデータを前記イメージデータ記憶部に記憶する投影イメージ生成部を備えてもよい。
The image data storage unit stores in advance a plurality of partial image data of the image data,
The image data is generated by selecting partial image data necessary for generating image data to be projected onto the road surface from a plurality of partial image data stored in the image data storage unit, and arranging the selected partial image data. In addition, a projection image generation unit that stores the generated image data in the image data storage unit may be provided.
前記イメージデータ記憶部は、自車両に接近して側方を通過する接近車両への注意喚起を促すための接近車両用安全確認イメージのイメージデータを予め記憶し、
前記投影部は、前記自車両の周囲領域に前記移動体が存在すると前記移動体判別部が判別し、前記接近車両が接近したときに、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記接近車両用安全確認イメージのイメージデータを読み出し、前記接近車両の進行方向前方に前記接近車両用安全確認イメージを投影するようにしてもよい。
The image data storage unit stores in advance image data of an approaching vehicle safety confirmation image for encouraging an approaching vehicle approaching the host vehicle and passing sideways,
The projecting unit is controlled by the operation control unit to project an image when the moving body determining unit determines that the moving body is present in a surrounding area of the host vehicle and the approaching vehicle approaches. Then, the image data of the approaching vehicle safety confirmation image may be read from the image data storage unit, and the approaching vehicle safety confirmation image may be projected in front of the approaching vehicle in the traveling direction.
前記監視部は、
自車両の周囲領域を可視光で撮影して可視光画像を取得する可視光撮影部と、
前記歩行者から発せられる赤外線を検知する赤外線検知部と、を備え、
前記移動体判別部は、前記赤外線検知部が検知した赤外線に基づいて前記移動体として歩行者を判別し、
前記作動制御部は、前記可視光撮影部が取得した可視光画像に基づいて、前記監視部が監視した周囲領域に判別領域を設定し、前記移動体判別部が判別した前記歩行者が、前記判別領域に存在しているときに、前記イメージを投影するように前記投影部を作動制御するようにしてもよい。
The monitoring unit
A visible light photographing unit that obtains a visible light image by photographing the surrounding area of the vehicle with visible light;
An infrared detector that detects infrared rays emitted from the pedestrian,
The mobile body determination unit determines a pedestrian as the mobile body based on infrared rays detected by the infrared detection unit,
The operation control unit sets a determination region in a surrounding region monitored by the monitoring unit based on a visible light image acquired by the visible light photographing unit, and the pedestrian determined by the moving body determination unit is The projection unit may be operated and controlled to project the image when the image is present in the determination area.
前記イメージデータ補正部は、前記路面に投影されるイメージと前記イメージデータ記憶部に予め記憶された補正前イメージとが対応するように、前記投影部が前記路面に前記イメージを投影する投影角度に基づいて前記補正前イメージの逆歪補正を行うようにしてもよい。 The image data correction unit adjusts the projection angle at which the projection unit projects the image onto the road surface so that the image projected onto the road surface corresponds to the pre-correction image stored in advance in the image data storage unit. Based on this, reverse distortion correction of the pre-correction image may be performed.
前記イメージデータ記憶部は、前記路面投影用のイメージデータを記憶するための投影イメージ記憶領域が設定されたものであり、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部の前記投影イメージ記憶領域から、前記イメージデータを読み出し、前記移動体近傍の路面位置に前記イメージを投影するようにしてもよい。
The image data storage unit is set with a projection image storage area for storing the image data for road surface projection,
The projection unit is controlled by the operation control unit to project an image, reads out the image data from the projection image storage area of the image data storage unit, and the image is located at a road surface position near the moving body. May be projected.
前記作動制御部は、前記移動体の進行方向を判別し、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記作動制御部が判別した前記移動体の進行方向前方の路面位置に前記イメージを投影するようにしてもよい。
The operation control unit determines a traveling direction of the moving body,
The projection unit may be controlled by the operation control unit so as to project an image, and project the image on a road surface position in front of the moving body determined by the operation control unit.
本発明の第2の観点に係る路面投影方法は、
路面に投影するイメージのイメージデータを予め記憶するステップと、
自車両の周囲領域を監視するステップと、
監視結果に基づいて、移動体を判別するステップと、
監視した周囲領域に判別領域を設定し、判別した前記移動体が、前記判別領域に存在しているときに、予め記憶する前記イメージデータを読み出して、前記移動体近傍の路面位置に前記イメージを投影するステップと、を備えたことを特徴とする。
A road surface projection method according to a second aspect of the present invention includes:
Storing in advance image data of an image to be projected onto the road surface;
Monitoring the surrounding area of the vehicle;
Determining a moving object based on the monitoring result;
When a discriminating area is set in the monitored surrounding area, and the discriminating moving body exists in the discriminating area, the image data stored in advance is read out, and the image is placed at a road surface position near the moving body. And a step of projecting.
本発明によれば、移動体に対して、分かり易く注意を喚起させることができる。また、移動体の安全を確保することができる。 According to the present invention, it is possible to call attention to a mobile object in an easy-to-understand manner. Moreover, the safety of the moving body can be ensured.
以下、本発明の実施形態に係る路面投影装置を図面を参照して説明する。
本実施形態に係る路面投影装置の構成を図1に示す。
本実施形態に係る路面投影装置1は、図2に示す車両41に備えられたものであり、可視光カメラ11−1〜11−4と、赤外線カメラ12−1〜12−4と、プロジェクタ13−1,13−2と、車両傾き検出部14と、バッテリ15と、メインスイッチ16と、スイッチ17〜19と、ECU(Electronic Control Unit)20と、を備える。
Hereinafter, a road projection device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows the configuration of the road surface projection apparatus according to this embodiment.
A road surface projection device 1 according to this embodiment is provided in a
可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4は、図2に示す路肩55の側方に停車している車両41の周囲領域を監視するためのカメラである。
The visible light cameras 11-1 to 11-4 and the infrared cameras 12-1 to 12-4 are cameras for monitoring the surrounding area of the
可視光カメラ11−1〜11−4は、図2に示すように、車両41の屋根に取り付けられ、それぞれ、周囲領域として、車両41の前方、後方、右側、左側の路面を可視光で撮影する。
As shown in FIG. 2, the visible light cameras 11-1 to 11-4 are attached to the roof of the
可視光カメラ11−1〜11−4は、それぞれ、光学レンズと、撮像部と、を備える(いずれも図示せず)。撮像部は、例えば、CCD(Charge Coupled Device;電荷結合素子)、CMOS(Complementary Metal Oxide Semiconductor)センサ等からなる。可視光カメラ11−1〜11−4は、スイッチ17がオンすると、それぞれ、バッテリ15から電流が供給されて作動し、可視光で撮影を行う。
Each of the visible light cameras 11-1 to 11-4 includes an optical lens and an imaging unit (all not shown). The imaging unit includes, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) sensor, and the like. When the
尚、図2に示す領域51〜54は、移動体としての歩行者2の存在を判別するための判別領域である。特に、判別領域51は、車両41の側方を後方から接近する車両の死角となる死角領域である。可視光カメラ11−1〜11−4は、それぞれ、この判別領域51〜54を含めて撮影を行うため、いずれも、広角カメラが用いられる。
2 are determination areas for determining the presence of the
尚、車両41の後方に取り付けられた可視光カメラ11−2は、車両41後方の路面を撮影するとともに、車両41の後方から接近する車両も撮影可能なものとする。
Note that the visible light camera 11-2 attached to the rear of the
また、車両41の右側に取り付けられた可視光カメラ11−3は、歩行者が車線を道路を渡り切ったか否かを判定するため、道路の中央線まで撮影可能なものとする。
Further, the visible light camera 11-3 attached to the right side of the
赤外線カメラ12−1〜12−4は、歩行者等を判別するためのカメラである。赤外線カメラ12−1〜12−4は、それぞれ、図2に示すように、車両41の前方、後方、右側、左側の屋根に、可視光カメラ11−1〜11−4と並べて取り付けられる。
The infrared cameras 12-1 to 12-4 are cameras for discriminating pedestrians and the like. As shown in FIG. 2, the infrared cameras 12-1 to 12-4 are attached to the front, rear, right, and left roofs of the
赤外線カメラ12−1〜12−4は、それぞれ、光学レンズと、赤外線センサと、を備え(いずれも図示せず)、スイッチ17がオンすると、バッテリ15から電流が供給されて作動し、歩行者等から発せられる赤外線を検知する。赤外線カメラ12−1〜12−4が備える赤外線センサには、例えば、サーモパイルセンサ、焦電型パイロセンサ等が用いられる。
Each of the infrared cameras 12-1 to 12-4 includes an optical lens and an infrared sensor (both not shown). When the
サーモパイルセンサは、歩行者の熱による赤外線を赤外線吸収体で熱エネルギーに変換し、ゼーベック効果を利用して熱検知信号を出力するセンサである。焦電型センサは、熱によって表面電荷が発生する現象を利用して熱検知信号を出力するセンサである。 The thermopile sensor is a sensor that converts infrared rays due to the heat of a pedestrian into heat energy using an infrared absorber and outputs a heat detection signal using the Seebeck effect. The pyroelectric sensor is a sensor that outputs a heat detection signal using a phenomenon in which surface charges are generated by heat.
赤外線カメラ12−1〜12−4は、それぞれ、このような赤外線センサを備え、赤外線による赤外線画像を生成する。この赤外線カメラ12−1〜12−4には、それぞれ、可視光カメラ11−1〜11−4と対応する画角を有するカメラが用いられる。 Each of the infrared cameras 12-1 to 12-4 includes such an infrared sensor and generates an infrared image using infrared rays. As the infrared cameras 12-1 to 12-4, cameras having an angle of view corresponding to the visible light cameras 11-1 to 11-4 are used.
プロジェクタ13−1,13−2は、路面にイメージを投影するためのものである。プロジェクタ13−1,13−2は、図2、図3に示すように、それぞれ、車両41の前部、後部に取り付けられる。
The projectors 13-1 and 13-2 are for projecting an image on the road surface. As shown in FIGS. 2 and 3, the projectors 13-1 and 13-2 are attached to the front part and the rear part of the
プロジェクタ13−1,13−2は、それぞれ、スイッチ18,19がオンすると、バッテリ15から電流が供給されて作動する。
The projectors 13-1 and 13-2 operate when supplied with current from the
車両傾き検出部14は、図4に示すように、道路が延びる方向を道路方向Xとして、車両41の道路方向Xに対する傾き角度θを検出するためのものである。
As shown in FIG. 4, the vehicle
道路に投影されるイメージは、方向Xに対して車両41が傾いていると、補正されなければ、傾いてしまう。傾き角度θは、この路面イメージの傾きを補正する角度補正値として用いられる。
If the
車両傾き検出部14は、ヨーレート(Yaw Rate)を計測することにより、この傾き角度θを検出する。ヨーレートは、カーブ等で車両41が回転する速度を示すパラメータであり、傾き角度θは、次の式(1)に従って算出される。
θ=ΣΨidt ・・・・・・・(1)
但し、Ψi:i番目に計測された車両41のヨーレート
The
θ = ΣΨidt (1)
Where ψi: the yaw rate of the
車両傾き検出部14は、式(1)に従って車両41の傾き角度θを求めるため、ヨーレートセンサ14aと、メモリ14bと、演算部14cと、を備える。
The vehicle
ヨーレートセンサ14aは、車両41のヨーレートを計測するセンサであり、車両41が走行しているときに、車両41の走行方向が変化する毎に、車両41のヨーレートを計測する。
The
メモリ14bは、ヨーレートセンサ14aが計測した車両41のヨーレートを逐次記憶するものであり、ヨーレートセンサ14aは、計測する毎に、車両41のヨーレートを、このメモリ14bに格納する。
The memory 14b sequentially stores the yaw rate of the
演算部14cは、車両41が停車したときに、車両41の道路方向Xに対する傾き角度θを取得するものである。演算部14cは、車両41が直進走行しているときの車両の傾き角度θを0°として、メモリ14bが逐次記憶したヨーレートを、式(1)に従って演算することにより、傾き角度θを取得する。演算部14cは、演算した傾き角度θをメモリ14bに格納する。
The calculation unit 14c acquires the inclination angle θ of the
バッテリ15は、各部に電流を供給するための直流電源である。メインスイッチ16は、バッテリ15からの電流をオン、オフするためのものであり、例えば、ハンドル(図示せず)の下に設置されて車両41の運転者によって操作される。
The
スイッチ17は、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4をオン、オフするためのスイッチであり、バッテリ15と、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4と、の間に接続される。
The
スイッチ18は、イメージを投影するようにプロジェクタ13−1を作動制御するためのスイッチであり、バッテリ15とプロジェクタ13−1と、の間に接続される。
The switch 18 is a switch for controlling the operation of the projector 13-1 so as to project an image, and is connected between the
スイッチ19は、イメージを投影するようにプロジェクタ13−2を作動制御するためのスイッチであり、バッテリ15とプロジェクタ13−2と、の間に接続される。
The
ECU20は、路面投影装置1全体を制御するための電子制御装置であり、画像メモリ31と、画像処理部32と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34と、CPU(Central Processing Unit)35と、からなる。
The
画像メモリ31は、路面に投影する安全確認用のイメージデータを予め記憶するとともに、撮影画像等を記憶するものである。画像メモリ31には、図5に示すように、撮影画像記憶領域31aと、イメージパターン記憶領域31bと、処理イメージ記憶領域31cと、投影イメージ記憶領域31d,31eと、が設定されている。
The
撮影画像記憶領域31aは、可視光カメラ11−1〜11−4の撮影によって得られた可視光画像、赤外線カメラ12−1〜12−4の撮影によって得られた赤外線画像を記憶する領域である。可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4は、撮影する毎に、それぞれ、可視光画像、赤外線画像を撮影画像記憶領域31aに格納する。
The captured
イメージパターン記憶領域31bは、安全確認用のイメージデータの部分イメージデータとして、図6(a)に示すような停止線61のイメージパターン、図6(b)〜(d)に示すような文字「止まれ」62、文字「STOP」63、文字「左右確認」64のイメージパターンの各データを記憶する。さらに、イメージパターン記憶領域31bは、図6(e),(f)にそれぞれ示すような横断歩道65,66のイメージパターンの各データを記憶するための領域である。図6に示すイメージパターンは、移動体用安全確認イメージ及び/又は接近車両用安全確認イメージとして使用される。
The image
処理イメージ記憶領域31cは、処理中のイメージデータを記憶するための領域である。 The processing image storage area 31c is an area for storing image data being processed.
投影イメージ記憶領域31d,31eは、それぞれ、プロジェクタ13−1,13−2が投影する処理済みのイメージデータを記憶するための領域である。プロジェクタ13−1,13−2は、作動すると、それぞれ、投影イメージ記憶領域31d,31eに記憶されているイメージのデータを読み出して、このイメージを路面に投影する。
The projection
画像処理部32は、画像メモリ31が記憶したイメージデータに対して画像処理等を行うものである。
The
画像処理部32は、CPU35から指示されて、路面に投影するイメージを生成する。まず、画像処理部32は、、画像メモリ31のイメージパターン記憶領域31bに記憶されている図6(a)〜(f)に示すようなイメージパターンから、生成するイメージに必要なイメージパターンを選択する。
The
例えば、CPU35から、図7に示すようなイメージ67を生成するように指示された場合、画像処理部32は、図6(a)に示す停止線61のイメージパターンと、図6(c)に示すような文字「STOP」63のイメージパターンと、図6(e)に示す横断歩道65のイメージパターンと、を選択する。
For example, when the
そして、画像処理部32は、画像メモリ31のイメージパターン記憶領域31bから、これらのイメージパターンのデータを取得し、各イメージパターンを、その角度、投影する場所に対応する位置を指定して配置し、このイメージ67を生成する。
Then, the
画像処理部32は、このイメージ67を生成すると、生成したイメージデータを画像メモリ31の処理イメージ記憶領域31cに格納する。
When the
次に、画像処理部32は、生成したイメージに対し、車両傾き検出部14が検出した傾き角度θに基づいて、イメージの傾きを補正する。
Next, the
例えば、図4に示すように、車両41が道路方向Xに対して傾き角度θだけ傾いて駐車・停車した場合、図8に示すように、画像処理部32が生成したイメージ67も傾いてしまう。画像処理部32は、この傾きを補正して、図9に示すようなイメージ67−1を生成する。
For example, as shown in FIG. 4, when the
このため、画像処理部32は、画像メモリ31の処理イメージ記憶領域31cから、イメージデータを読み出す。画像処理部32は、車両傾き検出部14が検出した傾き角度θに基づいて、読み出したイメージデータを補正し、図9に示すようなイメージ67−1を生成する。
Therefore, the
画像処理部32は、イメージ67−1を生成すると、生成したイメージ67−1のイメージデータを、画像メモリ31の処理イメージ記憶領域31cに格納する。
When the
また、画像処理部32は、逆歪補正を行う。プロジェクタ13−1,13−2が、それぞれ、車両41の前後に取り付けられているため、イメージ67をそのまま投影すると、イメージ67が歪んでしまう。
The
このため、画像処理部32は、この画像の歪みを補正するため、路面に投影されるイメージと処理イメージ記憶領域31cに記憶されている補正前イメージとが対応するように、補正前イメージの逆歪補正を行う。
Therefore, in order to correct the distortion of the image, the
例えば、図10(a)に示すように、頂点p11〜p14からなる矩形p1のイメージを路面に投影した場合、路面には、頂点q11〜q14からなる歪んだ矩形q1が投影される。 For example, as shown in FIG. 10A, when an image of a rectangle p1 composed of vertices p11 to p14 is projected onto a road surface, a distorted rectangle q1 composed of vertices q11 to q14 is projected onto the road surface.
この場合、画像処理部32は、矩形p1の頂点p11と矩形q1の頂点q11、頂点p12と頂点q12、頂点p13と頂点q13、頂点p14と頂点q14、を対応付けつつ、図10(a)に示す矩形q1を図10(b)に示すような頂点q21〜q24からなる矩形q2に変形する補正を行う。この変形により、図10(a)に示す矩形p1は、図10(b)に示す矩形p2に変形する。
In this case, the
この矩形p2を路面に投影することにより、路面には、図10(a)の矩形p1に対応する図10(c)に示す矩形p3が投影される。 By projecting the rectangle p2 onto the road surface, a rectangle p3 shown in FIG. 10C corresponding to the rectangle p1 in FIG. 10A is projected onto the road surface.
例えば、補正前のイメージが図11(a)に示すような停止線のイメージ68である場合、画像処理部32は、このような補正を行うことにより、図11(b)に示すようなイメージ68−1を生成する。プロジェクタ13−1がこのイメージ68−1を路面に投影することにより、路面に投影されるイメージは、図11(a)に示すイメージ68となる。
For example, when the pre-correction image is a
画像処理部32は、このような逆歪補正を行うと、補正したイメージを、画像メモリ31の投影イメージ記憶領域31d、31eのうち、CPU35によって指定された記憶領域に格納する。
When such reverse distortion correction is performed, the
尚、画像処理部32がこのような逆歪補正を行うためには、プロジェクタ13−1、13−2が路面にイメージを投影する投影角度が必要であり、画像メモリ31は、この投影角度を予め記憶する。
In order for the
また、この投影角度は、プロジェクタ13−1、13−2が一旦、車両41に取り付けられば、一定となるため、画像メモリ31がこの投影角度を記憶することにより、投影角度を検出するセンサ等は不要である。尚、プロジェクタ13−1,13−2の投影角度を可変にすることもできる。
The projection angle is constant once the projectors 13-1 and 13-2 are once attached to the
ROM33は、CPU35が処理を実行するためのプログラム、メッセージデータ等を記憶するためのものである。ROM33は、プログラムとして、後述する移動体判別処理としての歩行者判別処理、投影制御処理のプログラムを記憶する。RAM34は、CPU35が処理に必要なデータを記憶するための作業用メモリである。
The
CPU35は、路面投影装置1を制御するためのものであり、本実施形態においては、メインスイッチ16がオフすると、車両41が停車したと判定し、ROM33から、歩行者判別処理のプログラムを読み出して、この処理を実行する。
The
まず、CPU35は、スイッチ17をオンし、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4を作動させる。
First, the
CPU35は、画像メモリ31の撮影画像記憶領域31aから、可視光カメラ11−1〜11−4のそれぞれの可視光画像、赤外線カメラ12−1〜12−4のそれぞれの赤外線画像を取得する。
The
そして、CPU35は、赤外線画像に基づいて、歩行者2を判別する。この判別を行うため、画像メモリ31は、イメージパターン記憶領域31bに、歩行者2の画像をパターン化して予め記憶する。
And CPU35 discriminate | determines the
CPU35は、赤外線カメラ12−1〜12−4から取得した赤外線画像と、画像メモリ31に予め記憶されているパターン化された歩行者2の画像と、を比較して、ほぼ一致したときに、この赤外線画像が歩行者2の赤外線画像であることを判別する。
The
次に、CPU35は、ROM33から、投影制御処理のプログラムを読み出して、この処理を実行する。
Next, the
CPU35は、車両傾き検出部14のメモリ14bから、車両41の傾き角度θを取得し、取得した傾き角度θを画像処理部32に供給する。
The
次に、CPU35は、図2に示すように、可視光カメラ11−1〜11−4のそれぞれの画角と、赤外線カメラ12−1〜12−4のそれぞれの画角と、が対応する領域内に、判別領域51〜54を設定する。このうち、特に領域51は、車両41の側方を後方から該車両41に接近する車両に対する死角領域である。
Next, as shown in FIG. 2, the
次に、CPU35は、設定した判別領域51〜54のいずれかの領域に歩行者2が存在するか否かを判定する。判別された歩行者2の赤外線画像が一部でも判別領域51〜54のいずれかの領域に存在している場合、CPU35は、設定した判別領域51〜54のいずれかの領域に歩行者2が存在すると判定する。
Next, the
CPU35は、設定した判別領域51〜54のいずれかの領域に歩行者2が存在すると判定した場合、画像処理部32に、生成すべきイメージと、生成したイメージデータの格納先を指定して、イメージの生成を指示する。
When the
例えば、歩行者2が判別領域51に存在していると判定した場合、CPU35は、画像処理部32に、図7に示すイメージ67を生成し、生成したイメージ67のデータを画像メモリ31の投影イメージ記憶領域31dに格納するように指示する。
For example, when it is determined that the
また、歩行者2が判別領域52に存在していると判定した場合、CPU35は、画像処理部32に、図7に示すイメージ67を生成し、生成したイメージ67のデータを画像メモリ31の投影イメージ記憶領域31eに格納するように指示する。
If the
そして、画像処理部32が、生成したイメージデータを画像メモリ31の投影イメージ記憶領域31d,31eのいずれかに格納すると、CPU35は、スイッチ18,19のいずれかをオンして、イメージを投影するようにプロジェクタ13−1又はプロジェクタ13−2を作動制御する。
When the
また、CPU35は、可視光カメラ11−2の可視光画像に基づいて、車両41に接近して側方を通過する車両を判別する。CPU35は、接近する車両を判別するため、例えば、可視光カメラ11−2の可視光画像内に、判別領域52を除く車両41の後方に判定領域を設定し、この判定領域で、接近する車両の画像を検出した場合、この車両が、車両41に接近する車両であると判別する。
Moreover, CPU35 discriminate | determines the vehicle which approaches the
接近する車両があると判定した場合、CPU35は、画像処理部32に、図6(a)に示す停止線65のイメージパターンを画像メモリ31の投影イメージ記憶領域31eに格納するように指示する。
When determining that there is an approaching vehicle, the
そして、画像処理部32が、図6(a)に示す停止線61のイメージパターンを画像メモリ31の投影イメージ記憶領域31eに格納すると、CPU35は、プロジェクタ13−2作動用のスイッチ19をオンして、このイメージを投影するようにプロジェクタ13−2を作動制御する。
When the
尚、歩行者2が判別領域51に存在している場合、この判別領域51は、接近する車両にとっては、車両41による死角領域となるため、CPU35は、画像処理部32に対し、投影するイメージを強調表示させるように指示する。
When the
次に、CPU35は、歩行者2が判別領域51〜54外に移動したか否かを判定する。歩行者2が判別領域51〜54外に移動していないと判定した場合、CPU35は、歩行者2が移動したと判定するまで、待機する。
Next, the
尚、歩行者2が判別領域51〜54のいずかの領域にいつまでも留まっていることもあるため、CPU35は、待機時間をカウントし、予め設定された時間が経過したときには、判別領域51〜54のいずれかの領域から移動するように、音声によって歩行者2を案内してもよい。
Since the
この場合、ROM33は、待機時間のカウント値に対して予め設定された閾値と音声データとを記憶し、車両41は、音声を出力するためのスピーカ(図示せず)を備える。そして、CPU35は、待機時間のカウント値が閾値を越えたとき、ROM33から音声データを読み出して、スピーカに供給する。
In this case, the
歩行者2が判別領域51〜54外に移動したと判定した場合、CPU35は、歩行者2の赤外線画像の移動方向を判別して、歩行者2が道路を横断する方向に移動したか否かを判定する。
When it is determined that the
歩行者2が路肩55側に移動した場合、CPU35は、歩行者2が道路の横断しないと判定して、スイッチ18,19をオフする。
When the
歩行者2が道路を横断する方向に移動したと判定した場合、CPU35は、歩行者2が道路を渡り切ったか否かを判定する。
When it is determined that the
CPU35は、この判定を、可視光カメラ11−3によって撮影された道路の中央線と赤外線カメラ12−3によって撮影された歩行者2との位置関係に基づいて行う。
The
歩行者2の位置が道路の中央線の位置より手前の場合、CPU35は、歩行者2が道路を横断中と判定する。CPU35は、このように判定すると、歩行者2が道路を渡り切ったと判定するまで待機する。
When the position of the
歩行者2の位置が道路の中央線を越えた場合、CPU35は、歩行者2が道路を渡り切ったと判定する。CPU35は、このように判定すると、スイッチ18、19をオフし、プロジェクタ13−1,13−2の作動を停止させる。
When the position of the
CPU35は、プロジェクタ13−1,13−2の作動を停止させると、メインスイッチ16がオンになったか否かを判定する。メインスイッチ16がオフしたままであると判定した場合、CPU35は、再度、判別領域51〜54のいずれかの領域に歩行者2が存在しているか否かの判定を行う。
When the operation of the projectors 13-1 and 13-2 is stopped, the
メインスイッチ16がオンしたと判定した場合、CPU35は、車両41が発進すると判定し、スイッチ17をオフして、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4の作動を停止させる。
If it is determined that the
次に本実施形態に係る路面投影装置1の動作を説明する。
メインスイッチ16がオフすると、CPU35は、ROM33から、歩行者判別処理のプログラムを読み出して、この歩行者判別処理を繰り返し、実行する。
Next, the operation of the road surface projection device 1 according to this embodiment will be described.
When the
CPU35は、図12に示すフローチャートに従って、この歩行者判別処理を実行する。
CPU35は、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4作動用のスイッチ17をオンする(ステップS11)。
CPU35 performs this pedestrian discrimination | determination process according to the flowchart shown in FIG.
The
CPU35は、画像メモリ31の撮影画像記憶領域31aから、可視光カメラ11−1〜11−4のそれぞれの可視光画像を取得する(ステップS12)。
The
CPU35は、画像メモリ31の撮影画像記憶領域31aから、赤外線カメラ12−1〜12−4のそれぞれの赤外線画像を取得する(ステップS13)。
CPU35 acquires each infrared image of infrared camera 12-1 to 12-4 from the picked-up
CPU35は、赤外線画像に基づいて、歩行者2を判別する(ステップS15)。そして、CPU35は、この歩行者判別処理を終了させる。
CPU35 discriminate | determines the
次に、CPU35は、ROM33から、投影制御処理のプログラムを読み出して、この投影制御処理を実行する。
Next, the
CPU35は、図13及び図14に示すフローチャートに従って、この投影制御処理を実行する。
CPU35は、車両傾き検出部14の演算部14cから、車両傾き角度θを取得し、取得した車両傾き角度θを画像処理部32に供給する(ステップS21)。
The
CPU35 acquires vehicle inclination angle (theta) from the calculating part 14c of the vehicle
CPU35は、可視光カメラ11−1〜11−4のそれぞれの画角と、赤外線カメラ12−1〜12−4のそれぞれの画角と、が対応する領域に判別領域51〜54を設定する(ステップS22)。
The
CPU35は、歩行者2が、設定した判別領域51〜54のいずれかの領域に存在するか否かを判定する(ステップS23)。
CPU35 determines whether the
歩行者2が、設定した判別領域51〜54のいずれの領域にも存在しないと判定した場合(ステップS23においてNo)、CPU35は、メインスイッチ16がオンしたか否かを判定する(ステップS33)。
When it is determined that the
メインスイッチ16がオンしていないと判定した場合(ステップS33においてNo)、CPU35は、再度、歩行者2が、設定した判別領域51〜54のいずれかの領域に存在するか否かを判定する(ステップS23)。
When it is determined that the
歩行者2が、設定した判別領域51〜54のいずれかの領域に存在すると判定した場合(ステップS23においてYes)、CPU35は、画像処理部32に、生成するイメージと生成したイメージの格納先とを指定して、指定したイメージを生成するように指示する(ステップS24)。
When it is determined that the
CPU35は、生成するイメージとして、図7に示すイメージ67を指定し、生成したイメージの格納先として、画像メモリ31の投影イメージ記憶領域31dを指定する。
The
画像処理部32は、CPU35にイメージの生成を指示されると、図15に示すフローチャートに従って、投影イメージ生成処理を実行する。
When the
即ち、画像処理部32は、画像メモリ31のイメージパターン記憶領域31bを検索して、必要なイメージパターンを選択し、選択したイメージパターンを取得する(ステップS41)。
That is, the
画像処理部32は、選択したイメージパターンを配置して、CPU35から供給された車両傾き角度θに基づいて、配置したイメージパターンの傾き補正を行う(ステップS42)。
The
画像処理部32は、逆歪補正を行う(ステップS43)。
画像処理部32は、補正したイメージのデータを画像メモリ31の投影イメージ記憶領域31dに格納する(ステップS44)。
The
The
画像処理部32がこのような投影イメージ生成処理を実行すると、CPU35は、プロジェクタ13−1作動用のスイッチ18をオンする(ステップS25)。
When the
CPU35は、可視光カメラ11−2から取得した可視光画像に基づいて、接近する車両42を判別し、接近する車両42があるか否かを判定する(ステップS26)。
CPU35 discriminate | determines the approaching
接近する車両42があると判定した場合(ステップS26においてYes)、CPU35は、画像処理部32に、生成するイメージと生成したイメージの格納先とを指定して、指定したイメージを生成するように指示する(ステップS27)。
When it is determined that there is an approaching vehicle 42 (Yes in step S26), the
CPU35は、生成するイメージとして停止線68のイメージを指定し、生成したイメージの格納先として、画像メモリ31の投影イメージ記憶領域31eを指定する。
The
画像処理部32は、この指示に従って、停止線68のイメージを生成し、このイメージを投影イメージ記憶領域31eに格納する(ステップS41〜S44)。
In accordance with this instruction, the
画像処理部32がこのような投影イメージ生成処理を実行すると、CPU35は、プロジェクタ13−2作動用のスイッチ19をオンする(ステップS28)。
When the
一方、接近する車両42がないと判定した場合(ステップS26においてNo)、CPU35は、プロジェクタ13−2作動用のスイッチ19をオフのままとする。
On the other hand, when determining that there is no approaching vehicle 42 (No in step S26), the
CPU35は、歩行者2が判別領域51〜54のいずれかの領域から外に移動したか否かを判定する(ステップS29)。
The
歩行者2が判別領域51〜54のいずれかの領域から外に移動していないと判定した場合(ステップS29においてNo)、CPU35は、再び、ステップS26〜S28を実行する。
When it is determined that the
歩行者2が判別領域51〜54のいずれかの領域から外に移動したと判定した場合(ステップS29においてYes)、CPU35は、赤外線画像の移動方向に基づいて、歩行者2が道路を横断する方向に移動したか否かを判定する(ステップS30)。
When it is determined that the
歩行者2が道路を横断する方向に移動してはいないと判定した場合(ステップS30においてNo)、CPU35は、歩行者2が路肩側に戻ったと判定し、スイッチ18,19をオフする(ステップS32)。
If it is determined that the
歩行者2が道路を横断する方向に移動したと判定した場合(ステップS30においてYes)、CPU35は、歩行者2が道路を渡り切ったか否かを判定する(ステップS31)。
When it is determined that the
歩行者2が道路を渡り切ってはいないと判定した場合(ステップS31においてNo)、CPU35は、歩行者2が道路を渡り切るまで待機する。
When it is determined that the
歩行者2が道路を渡り切ったと判定した場合(ステップS31においてYes)、CPU35は、スイッチ18,19をオフする(ステップS32)。
When it is determined that the
CPU35は、メインスイッチ16がオンになったか否かを判定し、メインスイッチ16がオンになったと判定した場合(ステップS33においてYes)、CPU35は、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4作動用のスイッチ17をオフする(ステップS34)。そして、CPU35は、この投影制御処理を終了させる。
The
次に、路面投影装置1の動作を具体的に説明する。
車両41の走行中、車両傾き検出部14のヨーレートセンサ14aは、車両41がカーブ等を曲がると、車両41のヨーレートを検出してメモリ14bに格納する。ヨーレートセンサ14aは、このような処理を、車両41が曲がる毎に行う。
Next, the operation of the road surface projection device 1 will be specifically described.
While the
車両41が停車すると、車両傾き検出部14の演算部14cは、メモリ14bから、ヨーレートを読み出し、読み出したヨーレートに基づき、式(1)に従って傾き角度θを演算する。演算部14cは、演算した結果の傾き角度θをメモリ14bに格納する。
When the
メインスイッチ16がオフすると、CPU35がスイッチ17をオンして(ステップS11の処理)、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4が作動する。
When the
可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4は、撮影する毎に、それぞれ、可視光画像、赤外線画像を撮影画像記憶領域31aに格納する。
The visible light cameras 11-1 to 11-4 and the infrared cameras 12-1 to 12-4 each store a visible light image and an infrared image in the captured
図16に示すように、歩行者2が路肩55側から判別領域51に入った場合(ステップS23においてYes)、CPU35は、画像処理部32に、図7に示すイメージ67を生成して画像メモリ31の投影イメージ記憶領域31dに格納するように指示する(ステップS24の処理)。
As shown in FIG. 16, when the
画像処理部32は、イメージ67を生成する。尚、イメージ67が車両41が傾いて停車・駐車して、イメージ67が図8に示すように傾いてしまう場合、画像処理部32は、車両41の傾き角度θに基づいて、イメージ67を補正して、図9に示すようなイメージ67−1を生成する(ステップS41,S42の処理)。
The
画像処理部32は、逆歪補正を行って、イメージ67のイメージデータを投影イメージ記憶領域31dに格納する(ステップS43,44の処理)。CPU35は、画像処理部32がイメージデータを投影イメージ記憶領域31dに格納すると、スイッチ18をオンし(ステップS25の処理)、プロジェクタ13−1は、作動する。
The
プロジェクタ13−1は、このようにCPU35に作動制御されて、画像メモリ31の投影イメージ記憶領域31dから、イメージ67のイメージデータを読み出し、図17に示すように、歩行者2の前の路面上に、このイメージ67を投影する。このとき、CPU35は、歩行者2の進行方向を判別し、プロジェクタ13−1は、歩行者2の進行方向前方にイメージ67を投影する。
The projector 13-1 is controlled by the
図18に示すように、車両42が接近した場合(ステップS26においてYes)、CPU35は、画像処理部32に、イメージ68を画像メモリ31の投影イメージ記憶領域31eに格納するように指示する(ステップS27の処理)。
As shown in FIG. 18, when the
この場合、歩行者2が判別領域51に存在しているので、CPU35は、画像処理部32に対し、投影するイメージを強調表示させるように指示する。
In this case, since the
画像処理部32が強調表示したイメージ68を生成して、このイメージデータを投影イメージ記憶領域31eに格納すると、CPU35はスイッチ19をオンし(ステップS28の処理)、プロジェクタ13−2は、作動する。
When the
プロジェクタ13−2は、このようにCPU35に作動制御されて、画像メモリ31の投影イメージ記憶領域31eから、イメージ68のイメージデータを読み出し、図19に示すように、接近する車両42の前方の路面上に、このイメージ68を投影する。
The projector 13-2 is thus controlled by the
図20に示すように、歩行者2が道路を渡り切ると、CPU35は、スイッチ18,19をオフし(ステップS32の処理)、プロジェクタ13−1,13−2は作動を停止する。そして、イメージ67、イメージ68が消えて、車両42は発進する。
As shown in FIG. 20, when the
CPU35は、メインスイッチ16がオンすると(ステップS33においてYes)、スイッチ17をオフする(ステップS34の処理)。スイッチ17がオフすると、可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4は、作動を停止する。
When the
以上説明したように、本実施形態によれば、歩行者2が判別領域51〜54のいずれかの領域に存在する場合、CPU35は、画像処理部32に、安全確認用の停止線のイメージを生成するように指示して、プロジェクタ13−1を作動させるようにした。
As described above, according to the present embodiment, when the
従って、プロジェクタ13−1は、イメージを投影するようにCPU35に作動制御されて、路面に、停止線61、文字「STOP」62、横断歩道65からなるイメージ67を投影するので、歩行者2に対して、分かり易く注意を喚起させることができる。即ち、歩行者2に対して、一旦停止を促すことができ、左右確認などの注意を喚起させることができる。また、歩行者2を安全に誘導することができ、歩行者2の安全を確保することができる。
Accordingly, the projector 13-1 is controlled by the
また、車両傾き検出部14は、停車した車両41の傾き角度θを検出し、画像処理部32は、この傾き角度θに基づいて、イメージ67、68の各イメージパターンの配置、傾きを補正するようにした。
In addition, the vehicle
従って、車両41が道路方向Xに対して傾けて駐車・停車した場合でも、路面に投影されるイメージは、歩行者2、接近する車両42に対して傾かないため、歩行者2、接近する車両42を、分かり易く案内表示することができる。
Accordingly, even when the
また、車両42が接近した場合、CPU35は、画像処理部32に停止線のイメージ68を生成するように指示して、このイメージ68を投影するようにプロジェクタ13−2を作動制御するようにした。
When the
従って、プロジェクタ13−2が、接近する車両42の前方の路面上に、停止線のイメージ68を投影するので、接近する車両42に対して,歩行者2が判別領域51〜54のいずれかの領域に存在していることを、報知することができ、歩行者2の安全を確保することができる。
Accordingly, since the projector 13-2 projects the
また、歩行者2が死角領域に存在している場合、CPU35は、画像処理部32に対し、投影するイメージを強調表示させるように指示し、プロジェクタ13−2は、強調表示したイメージ68を接近する車両42の前方に投影するようにした。
When the
従って、停車している車両41のために、車両42の運転者が歩行者2を判別できないような場合でも、この運転者に対して、歩行者2の存在をより確実に判別させることができる。
Therefore, even when the driver of the
また、画像メモリ31のイメージパターン記憶領域31bには、生成する安全確認用のイメージデータの部分イメージデータとしてのイメージパターンが予め記憶され、画像処理部32が、このイメージパターンを選択して配置することにより、路面に投影するイメージを生成するようにした。
The image
従って、路面に投影するイメージのデータを低減することができ、状況に応じたイメージを路面に投影することができる。 Accordingly, it is possible to reduce the image data to be projected onto the road surface, and to project an image according to the situation onto the road surface.
尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限られるものではない。
例えば、上記実施形態では、例として、画像処理部32が、図7に示すイメージ67、図11(a)、(b)に示すイメージ68を生成するようにした。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, in the above embodiment, as an example, the
しかし、路面に投影するイメージはこのものに限られるものではなく、状況に応じて、図6(a)〜(f)のイメージパターンから、他のいくつかのイメージパターンを選択してイメージを生成することもできる。また、イメージパターンも図6(a)〜(f)に示すものに限られるものではない。 However, the image to be projected onto the road surface is not limited to this, and an image is generated by selecting several other image patterns from the image patterns in FIGS. 6A to 6F according to the situation. You can also Further, the image pattern is not limited to that shown in FIGS.
路面投影装置1は、状況に応じて、路面に投影するイメージの色を変えたり、イメージのサイズを変えたり、明るさを変えたりすることもできる。 The road surface projection device 1 can change the color of the image projected on the road surface, change the size of the image, or change the brightness according to the situation.
また、路面にイメージを投影する際、ハザードランプを点滅させたり、音声で案内するようにしてもよい。 Further, when an image is projected on the road surface, a hazard lamp may be blinked or guided by voice.
歩行者2を検知するセンサは、赤外線カメラ12−1〜12−4に限られるものではなく、赤外線カメラ12−1〜12−4にそれぞれ備えられた赤外線センサだけであってもよい。また、歩行者2を検知するセンサは、赤外線センサだけでなく、超音波センサであってもよい。
The sensors for detecting the
可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4の取付位置は、車両41の屋根の上でなくてもよく、車両41の屋内であってもよい。また、車両42の接近を判別する場合、サイドミラー等を利用し、車内に設置された可視光カメラがサイドミラー等で反射した画像を撮影し、CPU35は、この画像に基づいて、接近する車両42を判別するようにしてもよい。
The attachment positions of the visible light cameras 11-1 to 11-4 and the infrared cameras 12-1 to 12-4 do not have to be on the roof of the
また、プロジェクタ13−1,13−2の取付位置も、車両41の屋根、車内であってもよい。プロジェクタ13−1,13−2が車両41の屋根、車内に取り付けられることにより、万が一、他の車両と接触するようなことがあっても、プロジェクタ13−1,13−2の破損を防止することができる。
The mounting positions of the projectors 13-1 and 13-2 may also be on the roof of the
可視光カメラ11−1〜11−4、赤外線カメラ12−1〜12−4は、オードフォーカス、ズーム機能を備えたものであってもよい。このような機能を備えることにより、車両接近報知装置1は、正確に、判別領域51〜54のいずれかの領域に存在する歩行者2、接近する車両42を判別することができる。
The visible light cameras 11-1 to 11-4 and the infrared cameras 12-1 to 12-4 may be provided with an autofocus and zoom function. By providing such a function, the vehicle approach notification device 1 can accurately determine the
また、上記実施形態では、移動体として歩行者2の場合を主に説明した。しかし、移動体は、歩行者2に限られるものではなく、車両、2輪車、シニアカー等であってもよい。
Moreover, in the said embodiment, the case of the
十字路や道路側方の駐車場等から自車両41の前方あるいは後方を、他車両が横断する可能性もありうる。移動体を車両とした場合、路面投影装置1が、投影制御処理等を実行することにより、自車両41の前方や後方を横断する他車両や、自車両41の側方を通過する車両42の運転者に対して、注意を喚起させることが可能となる。
There may be a possibility that another vehicle crosses the front or rear of the
また、本実施形態においては、車両41が停車した場合に、移動体判別処理、投影制御処理等が実行されるようになっている。しかし、本実施形態は、これに限られるものではなく、自車両41が走行中であっても、移動体判別処理、投影制御処理等を実行することができる。
Moreover, in this embodiment, when the
例えば、車両41の走行中に、他車両が道路側方の駐車場等から道路に進入しようとし、走行している車両41が減速して、他車両を道路に進入させることがある。一方、車両41の左側を走行する2輪車がある場合、他車両と2輪車との接触を誘発するおそれがある(いわゆるサンキュー事故)。
For example, while the
このような場合、例えば、プロジェクタ13−1が他車両及び2輪車のすくなくとも一方の前方の路面に、一時停止する旨の文字画像を投影することにより、2輪車と車両42との接触を防止することができる。
In such a case, for example, the projector 13-1 projects a character image indicating that the other vehicle and the two-wheeled vehicle are temporarily stopped on at least one road surface in front of the other vehicle and the two-wheeled vehicle, thereby bringing the two-wheeled vehicle and the
この場合、走行中でも報知処理を行うためには、プロジェクタ13−1,13−2の投影角度を可変にして、車両41が走行していても、プロジェクタ13−1,13−2が移動体としての他車両に対してイメージを投影するようにする。
In this case, in order to perform the notification process even while traveling, the projection angles of the projectors 13-1 and 13-2 are made variable so that even if the
尚、路面投影装置1は、車両41の車速に応じて移動体判別処理、投影制御処理等を実行するようにしてもよい。また、車室内に処理を実行するためのスイッチを設けてもよい。CPU35は、このスイッチのオン、オフ情報を取得し、このスイッチがオンしたときに、、移動体判別処理、投影制御処理等を実行するようにしてもよい。
Note that the road surface projection device 1 may execute a moving body determination process, a projection control process, and the like according to the vehicle speed of the
また、本実施形態では、車両42が車両41の後方から接近するものとして説明した。しかし、車両42は、車両41の前方から接近する場合であっても、上記実施形態を適用することができる。
In the present embodiment, the
例えば、他車両が、車両41の前方から接近して、車両41の左側に位置する施設に進入するために右折しようとして、車両41が停止又は減速する場合がある。
For example, another vehicle may approach from the front of the
さらに、車両41の左側を2輪車等の車両が走行している場合、車両用報知装置1は、車両41の前方から接近する他車両を移動体、2輪車を接近する車両42として、あるいは、プロジェクタ13−1、13−2が、2輪車の接近、進入する他車両があることを示す画像を投影するように構成されることもできる。
Furthermore, when a vehicle such as a two-wheeled vehicle is traveling on the left side of the
このように構成されることにより、他車両の運転者と2輪車の運転者とは、お互いを認識することができ、車両同士の接触を未然に防止することが可能となる。 By being configured in this manner, the driver of the other vehicle and the driver of the two-wheeled vehicle can recognize each other and can prevent the vehicles from contacting each other.
この場合、前方に配置されている可視光カメラ11−1は、自車両41の前方から接近する車両42を監視し、CPU35は、可視光カメラ11−1の可視光画像に基づいて、この車両42を判別する。
In this case, the visible light camera 11-1 disposed in front of the vehicle monitors the
また、本実施形態においては、自車両41の前方、後方、右側、左側にそれぞれ1つの判別領域を設定するものとした。しかし、判別領域の設定は、これに限られるものではない。
In the present embodiment, one determination area is set for each of the front, rear, right side, and left side of the
例えば、自車両41や周囲の状況等に応じて、判別領域を適宜変更することも可能である。特に、判別領域51〜54のうち、他車両の死角領域51のみを判別領域として設定することもできる。また、判別領域をさらに細分化することも可能である。また、自車両41から所定距離内の領域を判別領域として設定することもできる。
For example, it is possible to appropriately change the discrimination area according to the
本実施形態では、停止線と「STOP」との文字画像のみからなる注意喚起イメージと横断歩道のイメージとが、歩行車2の前方の路面に同時に投影されるものとして説明した。しかし、注意喚起イメージと横断歩道のイメージとを別々に投影することもできる。
In the present embodiment, the description has been given on the assumption that a warning image and an image of a pedestrian crossing composed of only a stop line and a character image of “STOP” are simultaneously projected onto the road surface in front of the walking
例えば、CPU35は、判別領域51〜54のいずれかの領域に歩行者2が存在すると判定した場合には、図6(a)に示す停止線61のイメージパターンと、図6(c)に示すような文字「STOP」63のイメージパターンとからなる注意喚起イメージのみを歩行者2の前方に投影させる。
For example, when the
CPU35は、車両42の減速や停止を判別し、車両42が減速又は停止してときに、図7に示す横断歩道のイメージパターン65を、プロジェクタ13−1に投影させる。
The
1 路面投影装置
2 歩行者(移動体)
11−1〜11−4 可視光カメラ(監視部)
12−1〜12−4 赤外線カメラ(監視部)
13−1,13−2 プロジェクタ(投影部)
31 画像メモリ(イメージデータ記憶部)
35 CPU(移動体判別部、作動制御部)
41〜43 車両
51〜54 判別領域
1 Road
11-1 to 11-4 Visible light camera (monitoring unit)
12-1 to 12-4 Infrared camera (monitoring unit)
13-1, 13-2 Projector (projection unit)
31 Image memory (image data storage unit)
35 CPU (moving body discrimination unit, operation control unit)
41-43 Vehicle 51-54 Discrimination area
Claims (10)
前記監視部の監視結果に基づいて、移動体を判別する移動体判別部と、
路面に投影するイメージのイメージデータを予め記憶するイメージデータ記憶部と、
イメージを投影するように作動制御されたときに、前記イメージデータ記憶部から前記イメージデータを読み出し、前記移動体近傍の路面位置に前記イメージを投影する投影部と、
前記監視部が監視した周囲領域に判別領域を設定し、前記移動体判別部が判別した前記移動体が、前記判別領域に存在しているときに、前記イメージを投影するように前記投影部を作動制御する作動制御部と、を備えた、
ことを特徴とする路面投影装置。 A monitoring unit that monitors the surrounding area of the vehicle;
Based on the monitoring result of the monitoring unit, a moving body determination unit for determining a moving body;
An image data storage unit for storing in advance image data of an image to be projected on the road surface;
A projection unit that reads out the image data from the image data storage unit and projects the image on a road surface in the vicinity of the moving body when the operation is controlled to project an image;
A determination area is set in the surrounding area monitored by the monitoring section, and the projection section is configured to project the image when the moving body determined by the moving body determination section exists in the determination area. An operation control unit for controlling operation,
A road surface projection device characterized by that.
前記車両傾き検出部が検出した傾き角度に基づいて、前記イメージデータ記憶部が予め記憶するイメージデータに基づくイメージの傾きを補正し、補正したイメージデータを前記イメージデータ記憶部に格納するイメージデータ補正部と、を備え、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記イメージデータ補正部が補正したイメージデータを読み出し、前記移動体近傍の路面位置に、補正された前記イメージを投影する、
ことを特徴とする請求項1に記載の路面投影装置。 A vehicle inclination detection unit that detects an inclination angle of the vehicle that is stopped with respect to the road direction, with a direction in which the road extends as a road direction;
Image data correction for correcting an image inclination based on image data stored in advance by the image data storage unit based on the inclination angle detected by the vehicle inclination detection unit, and storing the corrected image data in the image data storage unit And comprising
The projection unit is controlled by the operation control unit so as to project an image, and reads out the image data corrected by the image data correction unit from the image data storage unit, to the road surface position near the moving body, Project the corrected image,
The road surface projection device according to claim 1.
前記自車両が走行しているときに、前記自車両の走行方向が変化する毎に前記自車両のヨーレートを計測するヨーレート計測部と、
前記ヨーレート計測部が計測した前記自車両のヨーレートを逐次記憶するヨーレート記憶部と、
前記自車両が停車したとき、前記自車両が直進走行しているときの前記自車両の傾き角度を0°として、前記ヨーレート記憶部が逐次記憶したヨーレートを積算することにより、停車している前記自車両の前記道路方向に対する傾き角度を取得する傾き角度取得部と、を備えたものである、
ことを特徴とする請求項2に記載の路面投影装置。 The vehicle inclination detector is
A yaw rate measuring unit that measures the yaw rate of the host vehicle each time the traveling direction of the host vehicle changes when the host vehicle is traveling;
A yaw rate storage unit that sequentially stores the yaw rate of the host vehicle measured by the yaw rate measurement unit;
When the host vehicle stops, the tilt angle of the host vehicle when the host vehicle is traveling straight ahead is set to 0 °, and the yaw rate stored in the yaw rate storage unit is added up sequentially to stop the host vehicle. An inclination angle acquisition unit that acquires an inclination angle of the host vehicle with respect to the road direction.
The road surface projection apparatus according to claim 2.
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記移動体用安全確認イメージのイメージデータを読み出し、前記移動体近傍の路面位置に、前記移動体用安全確認イメージを投影する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の路面投影装置。 The image data storage unit stores, as the image data, image data of a safety confirmation image for a moving body for urging attention to the moving body in advance,
The projection unit is controlled by the operation control unit so as to project an image, and reads out image data of the safety confirmation image for the moving body from the image data storage unit. Projecting the safety confirmation image for the moving object,
The road surface projection apparatus according to any one of claims 1 to 3, wherein
前記イメージデータ記憶部は、前記イメージデータとして横断歩道のイメージデータを予め記憶し、
前記投影部は、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記横断歩道のイメージデータを読み出し、前記移動体近傍の路面位置に、前記横断歩道のイメージを前記移動体用安全確認イメージとともに投影する、
ことを特徴とする請求項4に記載の路面投影装置。 The mobile body determination unit determines a pedestrian as the mobile body,
The image data storage unit stores in advance image data of a pedestrian crossing as the image data,
The projection unit is controlled by the operation control unit to project an image, reads the image data of the pedestrian crossing from the image data storage unit, and the road surface position near the moving body Project the image together with the safety confirmation image for the moving object,
The road surface projection device according to claim 4, wherein:
前記イメージデータ記憶部が記憶する複数の部分イメージデータから、前記路面に投影するイメージデータの生成に必要な部分イメージデータを選択し、選択した部分イメージデータを配置することにより、前記イメージデータを生成し、生成した前記イメージデータを前記イメージデータ記憶部に記憶する投影イメージ生成部を備えた、
ことを特徴とする請求項1乃至5のいずれか1項に記載の路面投影装置。 The image data storage unit stores in advance a plurality of partial image data of the image data,
The image data is generated by selecting partial image data necessary for generating image data to be projected onto the road surface from a plurality of partial image data stored in the image data storage unit, and arranging the selected partial image data. A projection image generation unit that stores the generated image data in the image data storage unit,
The road surface projection device according to any one of claims 1 to 5, wherein
前記投影部は、前記自車両の周囲領域に前記移動体が存在すると前記移動体判別部が判別し、前記接近車両が接近したときに、イメージを投影するように前記作動制御部に作動制御されて、前記イメージデータ記憶部から、前記接近車両用安全確認イメージのイメージデータを読み出し、前記接近車両の進行方向前方に前記接近車両用安全確認イメージを投影する、
ことを特徴とする請求項4乃至6のいずれか1項に記載の路面投影装置。 The image data storage unit stores in advance image data of an approaching vehicle safety confirmation image for encouraging an approaching vehicle approaching the host vehicle and passing sideways,
The projecting unit is controlled by the operation control unit to project an image when the moving body determining unit determines that the moving body is present in a surrounding area of the host vehicle and the approaching vehicle approaches. From the image data storage unit, the image data of the approaching vehicle safety confirmation image is read, and the approaching vehicle safety confirmation image is projected forward in the traveling direction of the approaching vehicle.
The road surface projection device according to any one of claims 4 to 6, wherein
自車両の周囲領域を可視光で撮影して可視光画像を取得する可視光撮影部と、
前記歩行者から発せられる赤外線を検知する赤外線検知部と、を備え、
前記移動体判別部は、前記赤外線検知部が検知した赤外線に基づいて前記移動体として歩行者を判別し、
前記作動制御部は、前記可視光撮影部が取得した可視光画像に基づいて、前記監視部が監視した周囲領域に判別領域を設定し、前記移動体判別部が判別した前記歩行者が、前記判別領域に存在しているときに、前記イメージを投影するように前記投影部を作動制御する、
ことを特徴とする請求項5に記載の路面投影装置。 The monitoring unit
A visible light photographing unit that obtains a visible light image by photographing the surrounding area of the vehicle with visible light;
An infrared detector that detects infrared rays emitted from the pedestrian,
The mobile body determination unit determines a pedestrian as the mobile body based on infrared rays detected by the infrared detection unit,
The operation control unit sets a determination region in a surrounding region monitored by the monitoring unit based on a visible light image acquired by the visible light photographing unit, and the pedestrian determined by the moving body determination unit is Controlling the operation of the projection unit to project the image when present in the discrimination region;
The road surface projection device according to claim 5.
ことを特徴とする請求項2に記載の路面投影装置。 The image data correction unit adjusts the projection angle at which the projection unit projects the image onto the road surface so that the image projected onto the road surface corresponds to the pre-correction image stored in advance in the image data storage unit. Performing reverse distortion correction of the pre-correction image based on
The road surface projection apparatus according to claim 2.
自車両の周囲領域を監視するステップと、
監視結果に基づいて、移動体を判別するステップと、
監視した周囲領域に判別領域を設定し、判別した前記移動体が、前記判別領域に存在しているときに、予め記憶する前記イメージデータを読み出して、前記移動体近傍の路面位置に前記イメージを投影するステップと、を備えた、
ことを特徴とする路面投影方法。 Storing in advance image data of an image to be projected onto the road surface;
Monitoring the surrounding area of the vehicle;
Determining a moving object based on the monitoring result;
When a discriminating area is set in the monitored surrounding area, and the discriminating moving body exists in the discriminating area, the image data stored in advance is read out, and the image is placed at a road surface position near the moving body Projecting, comprising:
A road surface projection method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006182599A JP4720650B2 (en) | 2006-06-30 | 2006-06-30 | Road surface projection apparatus and road surface projection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006182599A JP4720650B2 (en) | 2006-06-30 | 2006-06-30 | Road surface projection apparatus and road surface projection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008007079A true JP2008007079A (en) | 2008-01-17 |
JP4720650B2 JP4720650B2 (en) | 2011-07-13 |
Family
ID=39065649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006182599A Expired - Fee Related JP4720650B2 (en) | 2006-06-30 | 2006-06-30 | Road surface projection apparatus and road surface projection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4720650B2 (en) |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009184428A (en) * | 2008-02-04 | 2009-08-20 | Toyota Central R&D Labs Inc | Vehicular lighting system |
JP2009202866A (en) * | 2008-01-31 | 2009-09-10 | Yaskawa Electric Corp | Moving body |
JP2012216132A (en) * | 2011-04-01 | 2012-11-08 | Isuzu Motors Ltd | Vehicle warning device |
JP2014531358A (en) * | 2011-09-08 | 2014-11-27 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | Method and apparatus for in-vehicle assistant system for implementing autonomous or partially autonomous driving maneuvers |
WO2014192369A1 (en) * | 2013-05-31 | 2014-12-04 | 日立オートモティブシステムズ株式会社 | Vehicular risk alert control device |
JP2015143093A (en) * | 2015-02-12 | 2015-08-06 | 株式会社デンソー | Pedestrian notification device |
US9224052B2 (en) | 2012-12-19 | 2015-12-29 | Industrial Technology Research Institute | Method for in-image periodic noise pixel inpainting |
WO2016072483A1 (en) * | 2014-11-07 | 2016-05-12 | 大日本印刷株式会社 | Optical apparatus |
JP2016107761A (en) * | 2014-12-04 | 2016-06-20 | 株式会社小糸製作所 | Road drawing lamp unit |
JP2016135629A (en) * | 2015-01-23 | 2016-07-28 | 株式会社小糸製作所 | Lighting unit for road face drawing |
JP2016164348A (en) * | 2015-03-06 | 2016-09-08 | Ihi運搬機械株式会社 | Parking apparatus |
JP2017007502A (en) * | 2015-06-22 | 2017-01-12 | 株式会社デンソー | Alarm device |
WO2017038126A1 (en) * | 2015-09-03 | 2017-03-09 | オムロン株式会社 | Offense stopping device and offense stopping system provided therewith |
WO2017102695A1 (en) * | 2015-12-16 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Control unit and method for defining movement regions |
WO2017102259A1 (en) * | 2015-12-16 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Communication between road users |
JP2017159866A (en) * | 2016-03-11 | 2017-09-14 | トヨタ自動車株式会社 | Vehicular lighting system |
JP2017159698A (en) * | 2016-03-07 | 2017-09-14 | トヨタ自動車株式会社 | Lighting device for vehicle |
JP2017165178A (en) * | 2016-03-15 | 2017-09-21 | トヨタ自動車株式会社 | Illuminating device for vehicle |
KR101816068B1 (en) * | 2016-04-19 | 2018-01-08 | 한국과학기술연구원 | Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof |
JP2018098066A (en) * | 2016-12-14 | 2018-06-21 | トヨタ自動車株式会社 | Lighting device for vehicle |
WO2018128946A1 (en) * | 2017-01-06 | 2018-07-12 | Pcms Holdings, Inc. | Method for providing vulnerable road user warnings in a blind spot of a parked vehicle |
CN108569204A (en) * | 2017-03-10 | 2018-09-25 | 株式会社斯巴鲁 | Image display device |
JP2018530467A (en) * | 2015-09-14 | 2018-10-18 | ヴァレオ ビジョンValeo Vision | Projection method for an automobile for projecting an image onto a projection plane |
CN108995581A (en) * | 2017-06-06 | 2018-12-14 | 大众汽车(中国)投资有限公司 | Alarming method for power and alarming device for vehicle |
US10272830B2 (en) | 2017-03-10 | 2019-04-30 | Subaru Corporation | Image display device |
CN109795482A (en) * | 2017-11-15 | 2019-05-24 | 罗伯特·博世有限公司 | For vehicle of leading the way, the second vehicle, the method for third vehicle and equipment and computer program |
US10300846B2 (en) | 2017-03-10 | 2019-05-28 | Subaru Corporation | Image display apparatus |
US10311718B2 (en) | 2017-03-10 | 2019-06-04 | Subaru Corporation | Image display device for displaying images on a road surface |
US10308172B2 (en) | 2017-03-10 | 2019-06-04 | Subaru Corporation | Image display device |
JP6523561B1 (en) * | 2017-09-15 | 2019-06-05 | 三菱電機株式会社 | Irradiation apparatus and irradiation method |
US10325488B2 (en) | 2017-03-10 | 2019-06-18 | Subaru Corporation | Image display device |
CN110182204A (en) * | 2018-02-21 | 2019-08-30 | 现代自动车株式会社 | Vehicle and its control method |
JP6591096B1 (en) * | 2018-07-04 | 2019-10-16 | 三菱電機株式会社 | Information display device and information display method |
CN110520915A (en) * | 2017-04-24 | 2019-11-29 | 三菱电机株式会社 | Notify control device and notification control method |
US10558416B2 (en) | 2017-03-10 | 2020-02-11 | Subaru Corporation | Image display device |
EP3653440A1 (en) * | 2018-11-16 | 2020-05-20 | Hyundai Mobis Co., Ltd. | Control system of an autonomous vehicle and control method thereof |
WO2020115517A1 (en) * | 2018-12-03 | 2020-06-11 | 日産自動車株式会社 | Vehicle travel control device and vehicle travel control method for parking |
DE112017007284B4 (en) * | 2017-04-24 | 2020-08-13 | Mitsubishi Electric Corporation | Message controller and method for controlling message |
JP2020149598A (en) * | 2019-03-15 | 2020-09-17 | 豊田合成株式会社 | On-vehicle warning device |
JP2020183184A (en) * | 2019-05-08 | 2020-11-12 | トヨタ自動車株式会社 | Vehicle, operation management device, operation management method, and program |
CN112019825A (en) * | 2020-08-13 | 2020-12-01 | 广景视睿科技(深圳)有限公司 | Projection method and projection equipment |
CN112026641A (en) * | 2015-04-10 | 2020-12-04 | 麦克赛尔株式会社 | Vehicle with a steering wheel |
WO2021045250A1 (en) * | 2019-09-04 | 2021-03-11 | 엘지전자 주식회사 | Method for providing safety service in wireless communication system and vehicle for same |
US11338803B2 (en) * | 2018-12-17 | 2022-05-24 | Honda Motor Co., Ltd. | Traveling track determination processing and automated drive device |
CN114572108A (en) * | 2020-11-30 | 2022-06-03 | 丰田自动车株式会社 | Attention reminding system |
JP2022126739A (en) * | 2017-09-01 | 2022-08-30 | 株式会社小糸製作所 | Vehicular lighting system, vehicle system, lamp fitting unit, and vehicular lamp fitting |
EP3974254A4 (en) * | 2019-07-15 | 2022-09-07 | Great Wall Motor Company Limited | Method for using vehicle light to project pattern, vehicle light system, and vehicle |
WO2023013442A1 (en) * | 2021-08-02 | 2023-02-09 | 株式会社小糸製作所 | Display device for vehicle |
JP7468401B2 (en) | 2021-02-22 | 2024-04-16 | トヨタ自動車株式会社 | Information processing device, information processing system, information processing method, and display device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6351888B2 (en) * | 2016-02-12 | 2018-07-04 | 三菱電機株式会社 | Information display device and information display method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004306894A (en) * | 2003-04-10 | 2004-11-04 | Suzuki Motor Corp | Lighting system for vehicle |
JP2004331021A (en) * | 2003-05-12 | 2004-11-25 | Nissan Motor Co Ltd | Night obstacle informing device at night |
JP2005161977A (en) * | 2003-12-02 | 2005-06-23 | Honda Motor Co Ltd | Vehicular travel supporting device |
-
2006
- 2006-06-30 JP JP2006182599A patent/JP4720650B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004306894A (en) * | 2003-04-10 | 2004-11-04 | Suzuki Motor Corp | Lighting system for vehicle |
JP2004331021A (en) * | 2003-05-12 | 2004-11-25 | Nissan Motor Co Ltd | Night obstacle informing device at night |
JP2005161977A (en) * | 2003-12-02 | 2005-06-23 | Honda Motor Co Ltd | Vehicular travel supporting device |
Cited By (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009202866A (en) * | 2008-01-31 | 2009-09-10 | Yaskawa Electric Corp | Moving body |
JP2009184428A (en) * | 2008-02-04 | 2009-08-20 | Toyota Central R&D Labs Inc | Vehicular lighting system |
JP2012216132A (en) * | 2011-04-01 | 2012-11-08 | Isuzu Motors Ltd | Vehicle warning device |
JP2014531358A (en) * | 2011-09-08 | 2014-11-27 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | Method and apparatus for in-vehicle assistant system for implementing autonomous or partially autonomous driving maneuvers |
US9224052B2 (en) | 2012-12-19 | 2015-12-29 | Industrial Technology Research Institute | Method for in-image periodic noise pixel inpainting |
WO2014192369A1 (en) * | 2013-05-31 | 2014-12-04 | 日立オートモティブシステムズ株式会社 | Vehicular risk alert control device |
JP2017174449A (en) * | 2013-05-31 | 2017-09-28 | 日立オートモティブシステムズ株式会社 | Danger notification controller for vehicle |
CN105324804A (en) * | 2013-05-31 | 2016-02-10 | 日立汽车系统株式会社 | Vehicular risk alert control device |
JPWO2014192369A1 (en) * | 2013-05-31 | 2017-02-23 | 日立オートモティブシステムズ株式会社 | Danger notification control device for vehicle |
US9583003B2 (en) | 2013-05-31 | 2017-02-28 | Hitachi Automotive Systems, Ltd. | Vehicle danger notification control apparatus |
EP3007151A4 (en) * | 2013-05-31 | 2017-02-22 | Hitachi Automotive Systems, Ltd. | Vehicular risk alert control device |
WO2016072483A1 (en) * | 2014-11-07 | 2016-05-12 | 大日本印刷株式会社 | Optical apparatus |
JP2017107242A (en) * | 2014-11-07 | 2017-06-15 | 大日本印刷株式会社 | Optical device |
JPWO2016072483A1 (en) * | 2014-11-07 | 2017-04-27 | 大日本印刷株式会社 | Optical device |
JP2016107761A (en) * | 2014-12-04 | 2016-06-20 | 株式会社小糸製作所 | Road drawing lamp unit |
US10160376B2 (en) | 2014-12-04 | 2018-12-25 | Koito Manufacturing Co., Ltd. | Road surface drawing lamp unit |
JP2016135629A (en) * | 2015-01-23 | 2016-07-28 | 株式会社小糸製作所 | Lighting unit for road face drawing |
JP2015143093A (en) * | 2015-02-12 | 2015-08-06 | 株式会社デンソー | Pedestrian notification device |
JP2016164348A (en) * | 2015-03-06 | 2016-09-08 | Ihi運搬機械株式会社 | Parking apparatus |
CN112026641A (en) * | 2015-04-10 | 2020-12-04 | 麦克赛尔株式会社 | Vehicle with a steering wheel |
CN112026640A (en) * | 2015-04-10 | 2020-12-04 | 麦克赛尔株式会社 | Vehicle with a steering wheel |
CN112026638A (en) * | 2015-04-10 | 2020-12-04 | 麦克赛尔株式会社 | Vehicle with a steering wheel |
CN112046391A (en) * | 2015-04-10 | 2020-12-08 | 麦克赛尔株式会社 | Image projection apparatus and method |
CN112061021A (en) * | 2015-04-10 | 2020-12-11 | 麦克赛尔株式会社 | Vehicle with a steering wheel |
US11752870B2 (en) | 2015-04-10 | 2023-09-12 | Maxell, Ltd. | Vehicle |
JP2017007502A (en) * | 2015-06-22 | 2017-01-12 | 株式会社デンソー | Alarm device |
CN107710300A (en) * | 2015-09-03 | 2018-02-16 | 欧姆龙株式会社 | It is violating the regulations to prevent device and possess its deterrent system violating the regulations |
JP2017049885A (en) * | 2015-09-03 | 2017-03-09 | オムロン株式会社 | Violation suppression device and violation suppression system including the same |
WO2017038126A1 (en) * | 2015-09-03 | 2017-03-09 | オムロン株式会社 | Offense stopping device and offense stopping system provided therewith |
JP2018530467A (en) * | 2015-09-14 | 2018-10-18 | ヴァレオ ビジョンValeo Vision | Projection method for an automobile for projecting an image onto a projection plane |
US11267398B2 (en) | 2015-12-16 | 2022-03-08 | Bayerische Motoren Werke Aktiengesellschaft | Control unit and method for defining movement regions |
WO2017102259A1 (en) * | 2015-12-16 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Communication between road users |
WO2017102695A1 (en) * | 2015-12-16 | 2017-06-22 | Bayerische Motoren Werke Aktiengesellschaft | Control unit and method for defining movement regions |
JP2017159698A (en) * | 2016-03-07 | 2017-09-14 | トヨタ自動車株式会社 | Lighting device for vehicle |
JP2017159866A (en) * | 2016-03-11 | 2017-09-14 | トヨタ自動車株式会社 | Vehicular lighting system |
JP2017165178A (en) * | 2016-03-15 | 2017-09-21 | トヨタ自動車株式会社 | Illuminating device for vehicle |
KR101816068B1 (en) * | 2016-04-19 | 2018-01-08 | 한국과학기술연구원 | Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof |
JP2018098066A (en) * | 2016-12-14 | 2018-06-21 | トヨタ自動車株式会社 | Lighting device for vehicle |
WO2018128946A1 (en) * | 2017-01-06 | 2018-07-12 | Pcms Holdings, Inc. | Method for providing vulnerable road user warnings in a blind spot of a parked vehicle |
US10358083B2 (en) | 2017-03-10 | 2019-07-23 | Subaru Corporation | Image display device |
US10272830B2 (en) | 2017-03-10 | 2019-04-30 | Subaru Corporation | Image display device |
US10325488B2 (en) | 2017-03-10 | 2019-06-18 | Subaru Corporation | Image display device |
CN108569204B (en) * | 2017-03-10 | 2022-11-01 | 株式会社斯巴鲁 | Image display device |
CN108569204A (en) * | 2017-03-10 | 2018-09-25 | 株式会社斯巴鲁 | Image display device |
US10300846B2 (en) | 2017-03-10 | 2019-05-28 | Subaru Corporation | Image display apparatus |
US10311718B2 (en) | 2017-03-10 | 2019-06-04 | Subaru Corporation | Image display device for displaying images on a road surface |
US10308172B2 (en) | 2017-03-10 | 2019-06-04 | Subaru Corporation | Image display device |
US10558416B2 (en) | 2017-03-10 | 2020-02-11 | Subaru Corporation | Image display device |
US10885788B2 (en) | 2017-04-24 | 2021-01-05 | Mitsubishi Electric Corporation | Notification control apparatus and method for controlling notification |
CN110520915B (en) * | 2017-04-24 | 2022-03-01 | 三菱电机株式会社 | Notification control device and notification control method |
CN110520915A (en) * | 2017-04-24 | 2019-11-29 | 三菱电机株式会社 | Notify control device and notification control method |
DE112017007284B4 (en) * | 2017-04-24 | 2020-08-13 | Mitsubishi Electric Corporation | Message controller and method for controlling message |
DE112017007471T5 (en) | 2017-04-24 | 2020-01-02 | Mitsubishi Electric Corporation | Message control device and message control method |
CN108995581A (en) * | 2017-06-06 | 2018-12-14 | 大众汽车(中国)投资有限公司 | Alarming method for power and alarming device for vehicle |
US11805587B2 (en) | 2017-09-01 | 2023-10-31 | Koito Manufacturing Co., Ltd. | Vehicle illumination system, vehicle system, lamp unit and vehicle lamp |
JP2022126739A (en) * | 2017-09-01 | 2022-08-30 | 株式会社小糸製作所 | Vehicular lighting system, vehicle system, lamp fitting unit, and vehicular lamp fitting |
JP7357116B2 (en) | 2017-09-01 | 2023-10-05 | 株式会社小糸製作所 | Vehicle lighting systems, vehicle systems, light units and vehicle lights |
CN111065547A (en) * | 2017-09-15 | 2020-04-24 | 三菱电机株式会社 | Irradiation apparatus and irradiation method |
US11318879B2 (en) | 2017-09-15 | 2022-05-03 | Mitsubishi Electric Corporation | Irradiation apparatus and irradiation method |
CN111065547B (en) * | 2017-09-15 | 2022-12-06 | 三菱电机株式会社 | Irradiation apparatus and irradiation method |
JP6523561B1 (en) * | 2017-09-15 | 2019-06-05 | 三菱電機株式会社 | Irradiation apparatus and irradiation method |
CN109795482B (en) * | 2017-11-15 | 2024-03-15 | 罗伯特·博世有限公司 | Method, device and computer program for guiding a vehicle, second vehicle, third vehicle |
CN109795482A (en) * | 2017-11-15 | 2019-05-24 | 罗伯特·博世有限公司 | For vehicle of leading the way, the second vehicle, the method for third vehicle and equipment and computer program |
JP2019091451A (en) * | 2017-11-15 | 2019-06-13 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | Method for preceding vehicle |
CN110182204A (en) * | 2018-02-21 | 2019-08-30 | 现代自动车株式会社 | Vehicle and its control method |
JP6591096B1 (en) * | 2018-07-04 | 2019-10-16 | 三菱電機株式会社 | Information display device and information display method |
US10981497B2 (en) | 2018-11-16 | 2021-04-20 | Hyundai Mobis Co., Ltd. | Control system of autonomous vehicle and control method thereof |
US10843622B2 (en) | 2018-11-16 | 2020-11-24 | Hyundai Mobis Co., Ltd. | Control system of autonomous vehicle and control method thereof |
US20200156535A1 (en) * | 2018-11-16 | 2020-05-21 | Hyundai Mobis Co., Ltd. | Control system of autonomous vehicle and control method thereof |
EP3653440A1 (en) * | 2018-11-16 | 2020-05-20 | Hyundai Mobis Co., Ltd. | Control system of an autonomous vehicle and control method thereof |
WO2020115517A1 (en) * | 2018-12-03 | 2020-06-11 | 日産自動車株式会社 | Vehicle travel control device and vehicle travel control method for parking |
US11383700B2 (en) | 2018-12-03 | 2022-07-12 | Nissan Motor Co., Ltd. | Vehicle travel control device and vehicle travel control method for parking |
US11338803B2 (en) * | 2018-12-17 | 2022-05-24 | Honda Motor Co., Ltd. | Traveling track determination processing and automated drive device |
JP2020149598A (en) * | 2019-03-15 | 2020-09-17 | 豊田合成株式会社 | On-vehicle warning device |
US11454986B2 (en) | 2019-05-08 | 2022-09-27 | Toyota Jidosha Kabushiki Kaisha | Vehicle, operation management device, operation management method, and computer-readable recording medium |
JP7207142B2 (en) | 2019-05-08 | 2023-01-18 | トヨタ自動車株式会社 | Vehicle, operation control device, operation control method, and program |
JP2020183184A (en) * | 2019-05-08 | 2020-11-12 | トヨタ自動車株式会社 | Vehicle, operation management device, operation management method, and program |
EP3974254A4 (en) * | 2019-07-15 | 2022-09-07 | Great Wall Motor Company Limited | Method for using vehicle light to project pattern, vehicle light system, and vehicle |
US11900813B2 (en) | 2019-09-04 | 2024-02-13 | Lg Electronics, Inc. | Method for providing safety service in wireless communication system and vehicle for same |
WO2021045250A1 (en) * | 2019-09-04 | 2021-03-11 | 엘지전자 주식회사 | Method for providing safety service in wireless communication system and vehicle for same |
CN112019825A (en) * | 2020-08-13 | 2020-12-01 | 广景视睿科技(深圳)有限公司 | Projection method and projection equipment |
CN114572108A (en) * | 2020-11-30 | 2022-06-03 | 丰田自动车株式会社 | Attention reminding system |
CN114572108B (en) * | 2020-11-30 | 2023-12-29 | 丰田自动车株式会社 | Attention reminding system |
JP7468401B2 (en) | 2021-02-22 | 2024-04-16 | トヨタ自動車株式会社 | Information processing device, information processing system, information processing method, and display device |
WO2023013442A1 (en) * | 2021-08-02 | 2023-02-09 | 株式会社小糸製作所 | Display device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP4720650B2 (en) | 2011-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4720650B2 (en) | Road surface projection apparatus and road surface projection method | |
JP6089957B2 (en) | Lighting control device | |
JP2008009941A (en) | Alarm device for vehicle and alarm method for vehicle | |
CN111699680B (en) | Automobile data recorder, display control method, and storage medium | |
JP5217950B2 (en) | Driving assistance device | |
JP2000318513A (en) | Obstacle detection device for vehicle | |
JP2008193339A (en) | Rear monitoring system | |
JP2009113621A (en) | Occupant picture photographing device, and driving assisting device | |
EP1912157A1 (en) | Digital image processing system for automatically representing surrounding scenes to the driver of a vehicle for driving assistance, and corresponding operating method | |
JP2009078597A (en) | Rear side confirmation system | |
JP5082923B2 (en) | Vehicle obstacle detection device | |
JP2011114467A (en) | Vehicle display device and display method | |
JP2004312638A (en) | Obstacle detection apparatus | |
CN111527533A (en) | Image processing device, imaging device, moving object, and image processing method | |
JP2010095202A (en) | Room mirror position rear-view camera image display | |
JP2009284386A (en) | Parking support device for vehicle | |
JP4735090B2 (en) | Infrared imaging device | |
JP4731177B2 (en) | Infrared imaging display device and infrared imaging display method for vehicle | |
JP2016038226A (en) | Vehicle distance measurement device | |
KR101601500B1 (en) | System and Method for assisting vehicle driving for using smartphone | |
JP2006311216A (en) | Monitoring system for periphery of vehicle | |
KR101169337B1 (en) | Vehicles controlling apparatus and controlling method thereof | |
JP2004328240A (en) | Peripheral image display equipment | |
KR101533285B1 (en) | Car safety system to get and display infrared images for sensing dangers in dark environments and photographing method for infrared images | |
JP3850021B2 (en) | Imaging device with infrared illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100903 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20100903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100903 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110321 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140415 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140415 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150415 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |