WO2019159683A1 - 運転支援システム及び運転支援方法 - Google Patents

運転支援システム及び運転支援方法 Download PDF

Info

Publication number
WO2019159683A1
WO2019159683A1 PCT/JP2019/002901 JP2019002901W WO2019159683A1 WO 2019159683 A1 WO2019159683 A1 WO 2019159683A1 JP 2019002901 W JP2019002901 W JP 2019002901W WO 2019159683 A1 WO2019159683 A1 WO 2019159683A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
captured
abnormal image
unit
Prior art date
Application number
PCT/JP2019/002901
Other languages
English (en)
French (fr)
Inventor
智啓 下沢
Original Assignee
いすゞ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by いすゞ自動車株式会社 filed Critical いすゞ自動車株式会社
Publication of WO2019159683A1 publication Critical patent/WO2019159683A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • This disclosure relates to a driving support system and a driving support method.
  • the driver of a vehicle such as a truck is driving in various environments. For example, depending on the time zone in which the vehicle travels and the traveling direction, the driver cannot visually recognize the front appropriately because the light from the front (for example, sunlight) is dazzling.
  • the present disclosure has been made in view of these points, and an object thereof is to predict a point at which the field of view becomes dazzling and appropriately call attention.
  • an image acquisition unit that sequentially acquires captured images generated by an imaging unit mounted on a vehicle imaging a traveling direction at predetermined intervals, a position of the vehicle, and a traveling direction of the vehicle And an information acquisition unit that acquires vehicle information including information related to time, an abnormality determination unit that determines whether there is an abnormal image having an abnormality in luminance among the plurality of captured images that are sequentially acquired, and an abnormal image
  • a driving support system comprising: a map creation unit that creates support map information for assisting driving based on the vehicle information corresponding to the timing at which the abnormal image is captured when determined to be present I will provide a.
  • the abnormality determination unit obtains the luminance magnitudes of the plurality of captured images sequentially acquired, and determines that an image having a luminance greater than a predetermined value from the average luminance value is the abnormal image. It is good.
  • the map creation unit may create the support map information including information indicating a position and a traveling direction of the vehicle at the time when the abnormal image is captured.
  • the driving support system based on the support map information, when a running vehicle is assumed to approach a point where the captured image that is the abnormal image is captured, an attention calling unit that calls attention It is good also as providing further.
  • a step of acquiring vehicle information including information regarding, a step of determining whether there is an abnormal image having an abnormality in brightness among the plurality of captured images acquired sequentially includes a step of creating support map information for assisting driving based on the vehicle information corresponding to the timing at which the abnormal image is captured.
  • FIG. 1 is a block diagram for explaining a configuration of a driving support system S according to an embodiment of the present invention.
  • FIG. 2 is a diagram for describing imaging of a captured image by the imaging device 2.
  • FIG. 3 is a diagram illustrating a distribution example of luminance values of each captured image acquired within a predetermined time.
  • FIG. 4A is a schematic diagram for explaining support map information.
  • FIG. 4B is a schematic diagram for explaining support map information.
  • FIG. 4C is a schematic diagram for explaining support map information.
  • FIG. 4D is a schematic diagram for explaining support map information. It is a flowchart for demonstrating the creation process of support map information.
  • FIG. 1 is a block diagram for explaining a configuration of a driving support system S according to an embodiment.
  • the driving support system S specifies a warning point where the light is bright in advance and warns the driver 1 so that the driving is smoothly performed.
  • the driving support system S includes a vehicle 1 and a management device 50.
  • the vehicle 1 is a truck as an example. As illustrated in FIG. 1, the vehicle 1 includes an imaging device 2, a GPS 3, an alarm device 4, a storage unit 5, and a vehicle control device 6.
  • the imaging device 2 is provided in the driver's seat of the vehicle 1 (for example, a truck cab) so as to face the front (driver's field of view) (see FIG. 2), and includes, for example, a CCD camera.
  • the imaging device 2 images the front of the traveling vehicle 1 and generates a captured image.
  • the imaging device 2 images the front at a predetermined interval, and sequentially outputs the generated captured images to the vehicle control device 6.
  • FIG. 2 is a diagram for explaining the imaging of the captured image by the imaging device 2.
  • the imaging device 2 captures the field of view of the driver of the vehicle 1, but captures a captured image including direct sunlight and reflected light as shown in FIG. 2 depending on the traveling direction and traveling time. For this reason, the picked-up images picked up by the image pickup device 2 include images with different luminances. For example, when the field of view suddenly becomes brighter, the brightness of the captured image captured at that time increases.
  • the GPS 3 is a global positioning system using, for example, an artificial satellite, and measures the position of the vehicle 1.
  • the GPS 3 outputs the positioning result to the vehicle control device 6.
  • the warning device 4 is a device that gives a warning to the driver in order to support driving. For example, the warning device 4 issues a warning when it is predicted that the amount of light entering the driver's field of view will increase (sunlight from the front is dazzling).
  • the alarm device 4 includes, for example, a speaker that emits a sound such as an alarm, a display unit that displays a warning screen, and a vibration generator that generates vibration.
  • the storage unit 5 includes, for example, ROM (Read Only Memory) and RAM (Random Access Memory).
  • the storage unit 5 stores a program to be executed by the vehicle control device 6 and various data.
  • the storage unit 5 stores a captured image generated by the imaging device 2 and a control map for driving support.
  • the vehicle control device 6 is, for example, a CPU (Central Processing Unit).
  • the vehicle control device 6 executes a control map creation process by executing a program stored in the storage unit 5.
  • the vehicle control device 6 includes an image acquisition unit 12, a vehicle information acquisition unit 13, an image determination unit 14, a communication control unit 15, and an alarm control unit 16.
  • the image acquisition unit 12 acquires a captured image obtained by capturing the traveling direction of the vehicle 1 (the driver's field of view). That is, the image acquisition unit 12 sequentially acquires the captured images that the imaging device 2 has captured at predetermined intervals while the vehicle 1 is traveling.
  • the image acquisition unit 12 stores captured images acquired sequentially in the storage unit 5.
  • the vehicle information acquisition unit 13 is an information acquisition unit that acquires vehicle information including information on the position, traveling direction, and time of the vehicle 1. For example, the vehicle information acquisition unit 13 specifies the position and the traveling direction of the vehicle 1 based on the positioning result of the GPS 3. Moreover, the vehicle information acquisition part 13 also acquires the time which GPS3 measured.
  • the image determination unit 14 determines the captured image acquired by the image acquisition unit 12.
  • the image determination unit 14 has a function of an abnormality determination unit that determines whether there is an abnormal image having an abnormality in luminance among a plurality of captured images sequentially acquired. For example, the image determination unit 14 determines the luminance levels of a plurality of captured images sequentially acquired within a predetermined time, and determines that an image having a luminance greater than a predetermined value from the average luminance is an abnormal image.
  • the image determination unit 14 obtains a distribution of luminance values (for example, average values of luminances of the respective captured images) of the captured images sequentially acquired by the image acquisition unit 12 within the past predetermined time.
  • luminance values for example, average values of luminances of the respective captured images
  • the luminance value distribution of each captured image is as shown in FIG. 3, for example.
  • FIG. 3 is a diagram illustrating a distribution example of luminance values of each captured image acquired within a predetermined time.
  • the horizontal axis indicates luminance
  • the vertical axis indicates frequency.
  • the image determination unit 14 determines that the luminance is abnormal when a luminance value corresponding to the portion of the region C2 is detected.
  • the advantage of determining the abnormal image is as follows. Usually, when the brightness is stable, the driver has a habit of getting used to the eyes regardless of the magnitude of the brightness. And when brightness increases from such a stable state, it feels dazzling. Therefore, by determining that the image is an abnormal image when the luminance changes greatly from a state where the luminance is stable, it is possible to appropriately detect the timing at which the driver feels dazzling.
  • the image determination unit 14 determines an image having an abnormality in luminance among a plurality of captured images as an abnormal image, but is not limited thereto.
  • the image determination unit 14 may determine an image having an abnormality in whiteness as an abnormal image instead of the luminance.
  • the communication control unit 15 controls transmission / reception of information to / from the management device 50.
  • the communication control unit 15 causes the management device 50 to transmit the vehicle information acquired by the vehicle information acquisition unit 13 when the image determination unit 14 determines that there is an abnormal image.
  • the communication control unit 15 causes the management device 50 to transmit vehicle information when a captured image determined to be an abnormal image is captured.
  • the communication control unit 15 receives support map information created by the management device 50 described later.
  • the alarm control unit 16 controls the operation of the alarm device 4.
  • the warning control unit 16 functions as a warning calling unit that calls attention by the warning device 4 when the amount of light entering the driver's field of view is expected to increase while the vehicle 1 is traveling. For example, the warning control unit 16 captures a captured image at a point where the amount of light entering the driver's field of view from the support map information increases (in other words, a point where a captured image determined to have abnormal luminance is captured). When it is assumed that the vehicle 1 is approaching the time zone where the image is taken, the alarm device 4 alerts the user.
  • the management device 50 is, for example, a management server provided in the management center, and transmits / receives information to / from a plurality of vehicles 1 (in FIG. 1, only one vehicle 1 is shown for convenience of explanation). .
  • the management device 50 manages the driving situation of the vehicle 1 and transmits support map information that supports driving to the vehicle 1.
  • the management device 50 includes a communication unit 52, a management control unit 53, and a storage unit 54.
  • the communication unit 52 receives vehicle information from the vehicle 1 when it is determined that there is an abnormal image in the captured image.
  • the storage unit 54 stores programs and various data to be executed by the management control unit 53.
  • the storage unit 54 stores vehicle information received from the vehicle 1.
  • the management control unit 53 controls the operation of the management device 50. For example, if the image determination unit 14 of the vehicle 1 determines that there is an abnormal image, the management control unit 53 supports to support driving based on vehicle information corresponding to the timing at which the abnormal image was captured. It functions as a map information creation unit that creates map information. That is, the management control unit 53 creates support map information based on the vehicle information received from the vehicle 1. At this time, the management control unit 53 creates support map information including information indicating the position and traveling direction of the vehicle 1 at the time when the abnormal image is captured.
  • FIG. 4 is a schematic diagram for explaining the support map information.
  • the management control unit 53 creates support map information for each predetermined time zone.
  • Each piece of support map information includes information I1 (star mark) indicating a point where the luminance is abnormal, and information I2 (arrow direction) indicating the passing direction (traveling direction) of the vehicle 1 at that point.
  • I1 star mark
  • I2 arrow direction
  • the information I1 and I2 are not included.
  • the communication unit 51 transmits the support map information created by the management control unit 53 to the vehicle 1. Based on the received support map information, the vehicle 1 approaches a point where the amount of light entering the driver's field of view increases and the passing direction of the vehicle 1 at the point is the same as the support map information.
  • the alarm device 4 issues an alarm.
  • FIG. 5 is a flowchart for explaining support map information creation processing. The flowchart of FIG. 5 is started from the point where the vehicle 1 starts traveling.
  • the image acquisition unit 12 sequentially acquires captured images captured by the imaging device 2 at predetermined intervals (step S102).
  • the vehicle information acquisition unit 13 acquires vehicle information including information on the position, traveling direction, and time of the vehicle 1.
  • the image determination unit 14 obtains each luminance of the plurality of captured images acquired by the image acquisition unit 12 (step S104). For example, the image determination unit 14 obtains the luminance distribution of each captured image as shown in FIG.
  • the image determination unit 14 determines whether or not there is an abnormal image having a luminance abnormality in the obtained luminance distribution (step S106). If it is determined in step S106 that there is an abnormal image (Yes), the communication control unit 15 transmits the vehicle information when the captured image determined to be an abnormal image is captured to the management device 50 ( Step S108).
  • the management control unit 53 of the management device 50 creates support map information based on the vehicle information received from the vehicle 1 (step S110). For example, the management control unit 53 creates support map information as shown in FIGS. 4A to 4D. Thereafter, the management device 50 transmits the created support map information to the vehicle 1.
  • the driving support system S determines whether or not there is an abnormal image having an abnormality in luminance among a plurality of captured images sequentially acquired by the imaging device 2 that images the front of the vehicle 1.
  • the driving support system S creates support map information for supporting driving based on vehicle information corresponding to the timing at which the abnormal image is captured.
  • determining the abnormal image it is possible to specify a point where a captured image in which the field of view suddenly becomes dazzled by sunlight while the vehicle 1 is traveling is captured. Then, by creating support map information based on the position, traveling direction, and time of the vehicle 1 when the captured image is captured, a caution point (a point at which the field of view suddenly becomes dazzled) can be obtained. Predict in advance and alert the driver.
  • the management control unit 53 of the management device 50 creates the support map information.
  • the present invention is not limited to this.
  • the vehicle control device 6 of the vehicle 1 may have a function of creating support map information.
  • the driving support system and the driving support method of the present disclosure are useful in that it is possible to predict a spot where the field of view becomes dazzling and appropriately call attention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

運転支援システムSは、車両1に搭載された撮像装置2が進行方向を所定間隔で撮像して生成した撮像画像を順次取得する画像取得部12と、車両1の位置、車両1の進行方向及び時刻に関する情報を含む車両情報を取得する車両情報取得部13と、順次取得された複数の撮像画像中に輝度の異常がある異常画像があるか否かを判定する画像判定部14と、異常画像があると判定された場合には、異常画像を撮像したタイミングに対応する車両情報に基づいて、運転を支援するための支援用地図情報を作成する管理制御部53と、を備える。

Description

運転支援システム及び運転支援方法
 本開示は、運転支援システム及び運転支援方法に関する。
 トラック等の車両の運転者は、様々な環境下で運転を行っている。例えば、車両が走行する時間帯や進行方向によっては、運転者は、前方からの光(例えば太陽光)が眩しいため前方を適切に視認できない。
日本国特開2009-37493号公報
 上記の光から運転者を保護するためにサングラス等が利用されるが、運転者が眩しいと感じた後にサングラス等を掛けることになり、事前に対応できない。このため、運転者に事前に注意を喚起できる方策の実現が要請されているが、従来では具体的な解決策が存在しなかった。
 そこで、本開示はこれらの点に鑑みてなされたものであり、視界が眩しくなる地点を予測して適切に注意喚起することを目的とする。
 本開示の第1の態様においては、車両に搭載された撮像部が進行方向を所定間隔で撮像して生成した撮像画像を順次取得する画像取得部と、前記車両の位置、前記車両の進行方向及び時刻に関する情報を含む車両情報を取得する情報取得部と、順次取得された複数の前記撮像画像中に輝度の異常がある異常画像があるか否かを判定する異常判定部と、異常画像があると判定された場合には、前記異常画像を撮像したタイミングに対応する前記車両情報に基づいて、運転を支援するための支援用地図情報を作成する地図作成部と、を備える、運転支援システムを提供する。
 また、前記異常判定部は、順次取得された複数の前記撮像画像の輝度の大きさをそれぞれ求め、前記輝度の平均値から所定値以上大きい輝度の画像を、前記異常画像であると判定することとしてもよい。
 また、前記地図作成部は、前記異常画像を撮像した時刻における前記車両の位置、進行方向を示す情報を含む前記支援用地図情報を作成することとしてもよい。
 また、前記運転支援システムは、前記支援用地図情報に基づいて、走行中の車両が、前記異常画像である撮像画像を撮像した地点に近づくと想定される場合に、注意を喚起する注意喚起部を更に備えることとしてもよい。
 本開示の第2の態様においては、車両に搭載された撮像部が進行方向を所定間隔で撮像して生成した撮像画像を順次取得するステップと、前記車両の位置、前記車両の進行方向及び時刻に関する情報を含む車両情報を取得するステップと、順次取得された複数の前記撮像画像中に輝度の異常がある異常画像があるか否かを判定するステップと、異常画像があると判定された場合には、前記異常画像を撮像したタイミングに対応する前記車両情報に基づいて、運転を支援するための支援用地図情報を作成するステップと、を備える、運転支援方法を提供する。
 本開示によれば、視界が眩しくなる地点を予測して適切に注意喚起できるという効果を奏する。
図1は、本発明の一の実施形態に係る運転支援システムSの構成を説明するためのブロック図である。 図2は、撮像装置2による撮像画像の撮像を説明するための図である。 図3は、所定時間内に取得した各撮像画像の輝度値の分布例を示す図である。 図4Aは、支援用地図情報を説明するための模式図である。 図4Bは、支援用地図情報を説明するための模式図である。 図4Cは、支援用地図情報を説明するための模式図である。 図4Dは、支援用地図情報を説明するための模式図である。 支援用地図情報の作成処理を説明するためのフローチャートである。
 <運転支援システムの構成>
 本発明の一の実施形態に係る運転支援システムの構成について、図1を参照しながら説明する。
 図1は、一の実施形態に係る運転支援システムSの構成を説明するためのブロック図である。運転支援システムSは、車両1を運転する際に事前に光が眩しい注意地点を特定して警告することで、運転を円滑に行わせる。運転支援システムSは、図1に示すように、車両1と、管理装置50とを含む。
 車両1は、一例としてトラックである。車両1は、図1に示すように、撮像装置2と、GPS3と、警報装置4と、記憶部5と、車両制御装置6とを有する。
 撮像装置2は、車両1の運転席(例えばトラックのキャブ)に前方(運転者の視界)を向くように設けられており(図2参照)、例えばCCDカメラを含む。撮像装置2は、走行中の車両1の前方を撮像して、撮像画像を生成する。本実施形態では、撮像装置2は、所定間隔で前方を撮像し、生成した撮像画像を車両制御装置6へ順次出力する。
 図2は、撮像装置2による撮像画像の撮像を説明するための図である。撮像装置2は、車両1の運転者の視界を撮像するが、進行方向や走行時刻によっては、図2に示すように太陽の直接光や反射光も含むような撮像画像を撮像する。このため、撮像装置2が撮像した撮像画像には、輝度が異なるものが含まれる。例えば、視界が急に明るくなった場合には、その際に撮像した撮像画像の輝度が大きくなる。
 図1に戻り、GPS3は、例えば人工衛星を利用した全地球測位システムであり、車両1の位置を測位する。GPS3は、測位結果を車両制御装置6に出力する。
 警報装置4は、運転を支援するために、運転者に対して警報を行う装置である。例えば、警報装置4は、運転者の視界に入る光量が多くなる(前方からの太陽光が眩しい)と予測される場合に、警報を行う。警報装置4は、例えば、アラーム等の音を鳴らすスピーカ、警告画面を表示する表示部、振動を発生する振動発生部を含む。
 記憶部5は、例えばROM(Read Only Memory)及びRAM(Random Access Memory)を含む。記憶部5は、車両制御装置6が実行するためのプログラムや各種データを記憶する。例えば、記憶部5は、撮像装置2が生成した撮像画像や、運転支援用の制御地図を記憶している。
 車両制御装置6は、例えばCPU(Central Processing Unit)である。車両制御装置6は、記憶部5に記憶されたプログラムを実行することにより、制御地図作成処理を実行する。車両制御装置6は、画像取得部12と、車両情報取得部13と、画像判定部14と、通信制御部15と、警報制御部16とを有する。
 画像取得部12は、車両1の進行方向(運転者の視界)を撮像した撮像画像を取得する。すなわち、画像取得部12は、車両1の走行中に撮像装置2が所定間隔で撮像して、生成した撮像画像を順次取得する。画像取得部12は、順次取得した撮像画像を記憶部5に記憶させる。
 車両情報取得部13は、車両1の位置、進行方向及び時刻に関する情報を含む車両情報を取得する情報取得部である。例えば、車両情報取得部13は、GPS3の測位結果に基づいて、車両1の位置及び進行方向を特定する。また、車両情報取得部13は、GPS3が測定した時刻も、併せて取得する。
 画像判定部14は、画像取得部12が取得した撮像画像を判定する。画像判定部14は、順次取得された複数の撮像画像中に輝度の異常がある異常画像があるか否かを判定する異常判定部の機能を有する。例えば、画像判定部14は、所定時間内に順次取得された複数の撮像画像の輝度の大きさをそれぞれ求め、輝度の平均値から所定値以上大きい輝度の画像を異常画像であると判定する。
 ここで、画像判定部14の異常画像の判定方法の一例を説明する。
 まず、画像判定部14は、過去の所定時間内に画像取得部12が順次取得した各撮像画像の輝度値(例えば、各撮像画像の輝度の平均値)の分布を求める。ここでは、各撮像画像の輝度値の分布が、例えば図3に示すようなものであったとする。
 図3は、所定時間内に取得した各撮像画像の輝度値の分布例を示す図である。図3のグラフの横軸は輝度を示し、縦軸は頻度を示す。車両1の走行中に視界の明るさの変化が小さい場合(運転者がまぶしく感じない場合)には、輝度値は、図3の所定範囲C1(例えば、平均値+3σ)内に分布する。しかし、視界が急に明るくなる場合(運転者がまぶしく感じる場合)には、その際に撮像した撮像画像の輝度値は、図3の所定範囲C1から離れて大きな値(領域C2の部分)を示す。画像判定部14は、領域C2の部分に相当する輝度値が検出された場合に、輝度が異常であると判定する。
 上記の異常画像の判定をする利点は、以下の点にある。通常、運転者にとっては輝度が安定している状態では、輝度の大きさに関係なく目が慣れる習性を有する。そして、このような安定した状態から輝度が大きくなると、眩しく感じる。そこで、輝度が安定した状態から輝度が大きく変化した際に異常画像であると判定することで、運転者が眩しいと感じるタイミングを適切に検出できる。
 上記では、画像判定部14は、複数の撮像画像中に輝度に異常がある画像を異常画像として判定することとしたが、これに限定されない。例えば、画像判定部14は、画像形式によっては、輝度に代えて白色度に異常がある画像を異常画像として判定してもよい。
 図1に戻り、通信制御部15は、管理装置50との間の情報の送受信を制御する。例えば、通信制御部15は、画像判定部14によって異常画像があると判定された場合には、車両情報取得部13によって取得された車両情報を管理装置50に送信させる。具体的には、通信制御部15は、異常画像と判定された撮像画像を撮像した際の車両情報を、管理装置50に送信させる。また、通信制御部15は、後述する管理装置50が作成した支援用地図情報を受信する。
 警報制御部16は、警報装置4の動作を制御する。警報制御部16は、車両1の走行中に運転者の視界に入る光量が多くなると予測される場合には、警報装置4によって注意を喚起する注意喚起部として機能する。例えば、警報制御部16は、支援用地図情報から運転者の視界に入る光量が多くなる地点(別言すれば、輝度が異常であると判定された撮像画像を撮像した地点)に、撮像画像を撮像した時刻帯に車両1が近づくと想定される場合には、警報装置4によって注意を喚起する。
 管理装置50は、例えば管理センターに設けられた管理サーバーであり、複数の車両1との間で情報の送受信を行う(図1では、説明の便宜上、一つの車両1のみが示されている)。管理装置50は、車両1の運転状況を管理すると共に、運転を支援する支援用地図情報を車両1に送信する。管理装置50は、通信部52と、管理制御部53と、記憶部54とを有する。
 通信部52は、車両1から、撮像画像中に異常画像があると判定された際の車両情報を受信する。記憶部54は、管理制御部53が実行するためのプログラムや各種データを記憶する。記憶部54は、車両1から受信した車両情報を記憶する。
 管理制御部53は、管理装置50の動作を制御する。例えば、管理制御部53は、車両1の画像判定部14によって異常画像があると判定された場合には、異常画像を撮像したタイミングに対応する車両情報に基づいて、運転を支援するための支援用地図情報を作成する地図情報作成部として機能する。すなわち、管理制御部53は、車両1から受信した車両情報に基づいて、支援用地図情報を作成する。この際、管理制御部53は、異常画像を撮像した時刻における車両1の位置、進行方向を示す情報を含む支援用地図情報を作成する。
 図4は、支援用地図情報を説明するための模式図である。管理制御部53は、例えば図4A~4Dに示すように、所定の時刻帯毎の支援用地図情報を作成する。各支援用地図情報には、輝度が異常を示す地点を示す情報I1(星のマーク)と、その地点の車両1の通過方向(進行方向)を示す情報I2(矢印の向き)が含まれる。なお、図4Dでは、輝度の異常が無いので、上記の情報I1、I2が含まれていない。
 通信部51は、管理制御部53が作成した支援用地図情報を、車両1に送信する。車両1は、受信した支援用地図情報に基づいて、運転者の視界に入る光量が多くなる地点に同時刻帯に近づき、かつ当該地点の車両1の通過方向が支援用地図情報と同じ場合には、警報装置4によって警報を行うことになる。
 <支援用地図情報の作成処理>
 支援用地図情報の作成処理について、図5を参照しながら説明する。
 図5は、支援用地図情報の作成処理を説明するためのフローチャートである。図5のフローチャートは、車両1が走行を開始したところから開始される。
 まず、画像取得部12は、撮像装置2が所定間隔で撮像した撮像画像を、順次取得する(ステップS102)。この際、車両情報取得部13は、車両1の位置、進行方向及び時刻に関する情報を含む車両情報を取得する。
 次に、画像判定部14は、画像取得部12が取得した複数の撮像画像の各輝度を求める(ステップS104)。例えば、画像判定部14は、図3に示すような各撮像画像の輝度の分布を求める。
 次に、画像判定部14は、求めた輝度の分布において、輝度の異常がある異常画像があるか否かを判定する(ステップS106)。ステップS106で異常画像があると判定された場合には(Yes)、通信制御部15は、異常画像であると判定された撮像画像の撮像した際の車両情報を、管理装置50に送信する(ステップS108)。
 管理装置50の管理制御部53は、車両1から受信した車両情報に基づいて、支援用地図情報を作成する(ステップS110)。例えば、管理制御部53は、図4A~4Dに示すような支援用地図情報を作成する。その後、管理装置50は、作成した支援用地図情報を車両1に送信する。
 <本実施形態における効果>
 上述した実施形態において、運転支援システムSは、車両1の前方を撮像する撮像装置2が順次取得した複数の撮像画像中に輝度の異常がある異常画像があるか否かを判定する。そして、運転支援システムSは、異常画像があると判定された場合には、異常画像を撮像したタイミングに対応する車両情報に基づいて、運転を支援するための支援用地図情報を作成する。
 異常画像の判定によって、車両1の走行中に太陽光によって視界が急に眩しくなる撮像画像を撮像した地点を特定できる。そして、当該撮像画像を撮像した際の車両1の位置、進行方向、時刻に基づいて支援用地図情報を作成することで、その後の運転の際に注意地点(視界が急に眩しくなる地点)を事前に予測して運転者に注意を喚起できる。
 なお、上記においては、管理装置50の管理制御部53が支援用地図情報を作成することとしたが、これに限定されない。例えば、車両1の車両制御装置6が支援用地図情報を作成する機能を有してもよい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
 本出願は、2018年2月14日付で出願された日本国特許出願(特願2018-023687)に基づくものであり、その内容はここに参照として取り込まれる。
 本開示の運転支援システム及び運転支援方法は、視界が眩しくなる地点を予測して適切に注意喚起することができるという点において有用である。
 S  運転支援システム
 1  車両
 2  撮像装置
 12  画像取得部
 13  車両情報取得部
 14  画像判定部
 16  警報制御部
 50  管理装置
 53  管理制御部

Claims (5)

  1.  車両に搭載された撮像部が進行方向を所定間隔で撮像して生成した撮像画像を順次取得する画像取得部と、
     前記車両の位置、前記車両の進行方向及び時刻に関する情報を含む車両情報を取得する情報取得部と、
     順次取得された複数の前記撮像画像中に輝度の異常がある異常画像があるか否かを判定する異常判定部と、
     異常画像があると判定された場合には、前記異常画像を撮像したタイミングに対応する前記車両情報に基づいて、運転を支援するための支援用地図情報を作成する地図作成部と、
     を備える、運転支援システム。
  2.  前記異常判定部は、
     順次取得された複数の前記撮像画像の輝度の大きさをそれぞれ求め、
     前記輝度の平均値から所定値以上大きい輝度の画像を、前記異常画像であると判定する、
     請求項1に記載の運転支援システム。
  3.  前記地図作成部は、前記異常画像を撮像した時刻における前記車両の位置、進行方向を示す情報を含む前記支援用地図情報を作成する、
     請求項1又は2に記載の運転支援システム。
  4.  前記支援用地図情報に基づいて、走行中の車両が、前記異常画像である撮像画像を撮像した地点に近づくと想定される場合に、注意を喚起する注意喚起部を更に備える、
     請求項3に記載の運転支援システム。
  5.  車両に搭載された撮像部が進行方向を所定間隔で撮像して生成した撮像画像を順次取得するステップと、
     前記車両の位置、前記車両の進行方向及び時刻に関する情報を含む車両情報を取得するステップと、
     順次取得された複数の前記撮像画像中に輝度の異常がある異常画像があるか否かを判定するステップと、
     異常画像があると判定された場合には、前記異常画像を撮像したタイミングに対応する前記車両情報に基づいて、運転を支援するための支援用地図情報を作成するステップと、
     を備える、運転支援方法。
PCT/JP2019/002901 2018-02-14 2019-01-29 運転支援システム及び運転支援方法 WO2019159683A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-023687 2018-02-14
JP2018023687A JP7073769B2 (ja) 2018-02-14 2018-02-14 運転支援システム及び運転支援方法

Publications (1)

Publication Number Publication Date
WO2019159683A1 true WO2019159683A1 (ja) 2019-08-22

Family

ID=67618698

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002901 WO2019159683A1 (ja) 2018-02-14 2019-01-29 運転支援システム及び運転支援方法

Country Status (2)

Country Link
JP (1) JP7073769B2 (ja)
WO (1) WO2019159683A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295072A1 (en) * 2020-03-18 2021-09-23 Honda Motor Co., Ltd. Apparatus, method, and program for determining abnormality in internal devices

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101917120B1 (ko) * 2016-12-21 2018-11-09 김조섭 차량 변속기용 부품의 스플라인 성형 장치
JP7264018B2 (ja) * 2019-11-22 2023-04-25 トヨタ自動車株式会社 システム、情報処理装置、及び、プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0953917A (ja) * 1995-08-16 1997-02-25 Nissan Motor Co Ltd 車両用視線方向計測装置
JP2003200734A (ja) * 2002-01-09 2003-07-15 Hitachi Ltd 移動体の防眩装置
JP2007076452A (ja) * 2005-09-13 2007-03-29 Denso Corp 車両用防眩装置及びプログラム
JP2007276766A (ja) * 2006-03-15 2007-10-25 Omron Corp 監視装置および方法、記録媒体、並びに、プログラム
JP2007295525A (ja) * 2006-03-27 2007-11-08 Seiko Epson Corp 撮像装置、撮像システム及び撮像方法
JP2009006946A (ja) * 2007-06-29 2009-01-15 Aisin Aw Co Ltd 車両挙動学習装置及び車両挙動学習プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3550765B2 (ja) * 1994-12-02 2004-08-04 株式会社デンソー 車両用経路案内装置
JP6819076B2 (ja) 2016-05-17 2021-01-27 株式会社デンソー 走行計画作成装置及びセンタ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0953917A (ja) * 1995-08-16 1997-02-25 Nissan Motor Co Ltd 車両用視線方向計測装置
JP2003200734A (ja) * 2002-01-09 2003-07-15 Hitachi Ltd 移動体の防眩装置
JP2007076452A (ja) * 2005-09-13 2007-03-29 Denso Corp 車両用防眩装置及びプログラム
JP2007276766A (ja) * 2006-03-15 2007-10-25 Omron Corp 監視装置および方法、記録媒体、並びに、プログラム
JP2007295525A (ja) * 2006-03-27 2007-11-08 Seiko Epson Corp 撮像装置、撮像システム及び撮像方法
JP2009006946A (ja) * 2007-06-29 2009-01-15 Aisin Aw Co Ltd 車両挙動学習装置及び車両挙動学習プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295072A1 (en) * 2020-03-18 2021-09-23 Honda Motor Co., Ltd. Apparatus, method, and program for determining abnormality in internal devices
US11790670B2 (en) * 2020-03-18 2023-10-17 Honda Motor Co., Ltd. Apparatus, method, and program for determining abnormality in internal devices

Also Published As

Publication number Publication date
JP2019139609A (ja) 2019-08-22
JP7073769B2 (ja) 2022-05-24

Similar Documents

Publication Publication Date Title
US9195894B2 (en) Vehicle and mobile device traffic hazard warning techniques
WO2019159683A1 (ja) 運転支援システム及び運転支援方法
CA2998600C (en) Vehicular display apparatus and vehicular display method
WO2011132388A1 (ja) 車両の周辺監視装置
JPWO2011108218A1 (ja) 車両の周辺監視装置
WO2017163514A1 (ja) 眼鏡型ウェアラブル端末、その制御方法および制御プログラム
JP2009244959A (ja) 運転支援装置、運転支援方法
US20140270392A1 (en) Apparatus and Method for Measuring Road Flatness
US20180270444A1 (en) Image recording system, image recording method and storage medium recording image recording program
JP2016078484A (ja) 画像生成装置および画像生成方法
KR20140041005A (ko) 차선 이탈 경고 및 블랙 박스 시스템 및 그 이용 방법
JP2007139564A (ja) 障害物検出システム、障害物検出方法及びコンピュータプログラム
JP2014102743A (ja) 報知制御方法、報知制御装置および報知制御プログラム
JP2019220009A (ja) 半導体装置、メッセージ画像出力方法、およびプログラム
KR102518576B1 (ko) 차간 거리 경고 시스템을 위한 처리 유닛 및 처리 방법, 차간 거리 경고 시스템, 및 모터사이클
WO2016121406A1 (ja) 画像処理装置、画像処理システム、車両、撮像装置、および画像処理方法
JP2014164375A (ja) 情報処理装置、情報処理システム並びに情報処理方法及び情報処理装置用プログラム
JP2022186922A (ja) 処理装置
JP6266022B2 (ja) 画像処理装置、警報装置、および画像処理方法
JP2010118767A (ja) 画像処理装置及び画像処理方法
JP2017037400A (ja) 情報表示装置
US10076998B2 (en) Image display control apparatus, electronic mirror system, and image display control program
JP2019220007A (ja) 半導体装置、メッセージ画像信号出力方法、およびプログラム
CN111566711A (zh) 驾驶状态判定装置及驾驶状态判定方法
JP2018113622A (ja) 画像処理装置、画像処理システム、及び、画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19754858

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19754858

Country of ref document: EP

Kind code of ref document: A1