JP2011192070A - Apparatus for monitoring surroundings of vehicle - Google Patents

Apparatus for monitoring surroundings of vehicle Download PDF

Info

Publication number
JP2011192070A
JP2011192070A JP2010058280A JP2010058280A JP2011192070A JP 2011192070 A JP2011192070 A JP 2011192070A JP 2010058280 A JP2010058280 A JP 2010058280A JP 2010058280 A JP2010058280 A JP 2010058280A JP 2011192070 A JP2011192070 A JP 2011192070A
Authority
JP
Japan
Prior art keywords
vehicle
display
displayed
good
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010058280A
Other languages
Japanese (ja)
Other versions
JP5192009B2 (en
Inventor
Hiroshi Iwami
浩 岩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010058280A priority Critical patent/JP5192009B2/en
Publication of JP2011192070A publication Critical patent/JP2011192070A/en
Application granted granted Critical
Publication of JP5192009B2 publication Critical patent/JP5192009B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of performing display that urges a driver to look directly at the front side without depending on an image on a display device, regardless of the condition of a view field, while allowing the driver to quickly recognize the degree of risk. <P>SOLUTION: A predetermined object around a vehicle is detected based on an image acquired by a photographing device, and a display image generated based on a captured image is displayed on the display device visibly by an occupant of the vehicle, while the target on the displayed image is highlighted when the object is in a predetermined positional relationship with the vehicle. Furthermore, the view field condition around the vehicle is estimated. When it is estimated that the view field condition is good, on a display image, first highlighted display is displayed in a first position at a predetermined distance from the vehicle. When it is estimated that the view field condition is not good, the first highlighted display is displayed closer to the vehicle side than that displayed when it is determined that the view field condition is good. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺の監視に応じて表示の形態を制御する装置に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more specifically to an apparatus for controlling a display form according to monitoring of the periphery of the vehicle.

従来より、車両の周辺の対象物を検出するための装置を該車両に搭載し、該検出された対象物について警報を発行することが行われている。下記の特許文献1には、レーダで検知した障害物への到達時間を予測し、該到達時間が2秒以内であれば直ちに警報音を発し、該到達時間が2秒以上であれば、表示警報を提示する装置が開示されている。   Conventionally, a device for detecting an object around a vehicle is mounted on the vehicle, and an alarm is issued for the detected object. The following Patent Document 1 predicts an arrival time to an obstacle detected by a radar, immediately sounds an alarm if the arrival time is within 2 seconds, and displays if the arrival time is 2 seconds or more. An apparatus for presenting an alarm is disclosed.

特開2001−23094号公報JP 2001-23094 A

上記のような警報は、運転者に、危険性を認知させることができるような形態で発せられるのが好ましい。特に、運転者が視認するのに視線移動を必要とする場所に表示装置が設けられている場合、該表示装置上での警報は、運転者に、より短時間で危険性を認知させることができるような形態で表示されるのが望ましい。   The alarm as described above is preferably issued in a form that allows the driver to recognize the danger. In particular, when a display device is provided in a place where the driver needs to move the line of sight for visual recognition, an alarm on the display device can cause the driver to recognize the danger in a shorter time. It is desirable to display it in a form that allows it.

上記の特許文献では、障害物への到達時間を予測し、予測した到達時間が所定時間以内か否かで、警報形態を変更している。しかしながら、警報表示の具体的な形態については記載されていない。   In said patent document, the arrival time to an obstacle is estimated and the warning form is changed depending on whether or not the predicted arrival time is within a predetermined time. However, the specific form of alarm display is not described.

他方、車両の周辺の視界の状態が良好な場合には、上記のような危険性認知のための表示によって運転者に危険度合いを認識させることにより、運転者は、視線を前方に移せば容易に注意すべき対象物を発見し、回避動作を行うことができる。しかしながら、雨天や雪など視界の状態が不良な場合には、視線を前方に移しても注意すべき対象物の発見が困難となりうる。その結果、表示装置上の映像に依存してしまうおそれがあり、よって、前方に迫る危険な状況を発見する機会を逃してしまうおそれがある。   On the other hand, when the visibility around the vehicle is good, it is easy for the driver to move his / her line of sight forward by making the driver recognize the degree of danger by the above-mentioned display for danger recognition. It is possible to find an object to be aware of and to perform an avoidance operation. However, in the case of poor visibility such as rain or snow, it may be difficult to find an object to be careful even if the line of sight is moved forward. As a result, there is a risk of depending on the video on the display device, and thus there is a risk of missing an opportunity to find a dangerous situation approaching the front.

したがって、この発明の一つの目的は、危険性の度合いについて運転者の速やかな認識を可能にしつつ、視界の状態にかかわらず、表示装置上の映像に依存せずに直接的な前方の目視を運転者に促すような表示を行う手法を提供することである。   Therefore, one object of the present invention is to enable the driver to quickly recognize the degree of danger, and to directly view the front without depending on the image on the display device regardless of the state of view. It is to provide a method for performing a display prompting the driver.

この発明の一つの側面によると、車両の周辺監視装置は、車両の周辺を撮像する撮像装置によって取得された画像に基づいて、車両の周辺の所定の対象物を検出する手段と、前記画像に基づいて生成される表示画像を、車両の乗員が視認可能なように表示装置上に表示するとともに、前記対象物が該車両に対して所定の位置関係にある場合に、該表示画像上の該対象物を強調的に表示する表示手段と、を備える。さらに、該装置は、車両の周辺の視界状態を推定する手段を備え、前記表示手段は、前記視界状態が良好と推定された場合には、前記表示画像上で、前記車両から所定距離の位置に第1の強調表示を表示し、前記視界状態が良好ではないと推定された場合には、前記視界状態が良好と推定された場合に比べ、該第1の強調表示を、前記車両側に近づけて表示する。   According to one aspect of the present invention, a vehicle periphery monitoring device detects a predetermined object around a vehicle based on an image acquired by an imaging device that images the periphery of the vehicle, and the image includes The display image generated based on the display image is displayed on the display device so that the vehicle occupant can visually recognize the display image. When the object is in a predetermined positional relationship with the vehicle, the display image on the display image is displayed. Display means for highlighting the object. The apparatus further includes means for estimating a visibility state around the vehicle, and the display means is located at a predetermined distance from the vehicle on the display image when the visibility state is estimated to be good. If the first state of highlight is displayed and the visibility state is estimated to be not good, the first highlight is displayed on the vehicle side compared to the case where the state of visibility is estimated to be good. Display close.

この発明によれば、第1の強調表示が、車両から所定距離の位置に表示されるため、該第1の強調表示の表示により、運転者は、危険性の度合いを容易に認識することができる。また、対象物が、たとえば予測された車両の進路内に存在して表示装置上に強調的に表示される場合には、該対象物と第1の強調表示との位置関係を瞬時に理解できるので、該対象物に対する衝突の危険性の度合いを、速やかに認識することができる。運転者は、このような表示によって危険性を認識した後、視線を前方に移すことで、歩行者等の注意すべき対象物を容易に発見できる。視界が不良な場合に、視界が良好な場合と同じ位置に第1の強調表示を表示すると、運転者は、実際の目視で該対象物を発見できないために表示画面を注視してしまうおそれがあるが、この発明では、視界が不良な場合には、該第1の強調表示を車両側に近づけて表示する。したがって、該表示画面を注視してしまうことを防止することができる。視界が良好な場合と同様に、該第1の強調表示によって危険度合いを認識し、前方に視線を移すことで対象物を発見することができる。   According to the present invention, since the first highlight is displayed at a predetermined distance from the vehicle, the driver can easily recognize the degree of risk by the display of the first highlight. it can. In addition, when the object is present in the predicted course of the vehicle and is displayed on the display device in an emphasized manner, for example, the positional relationship between the object and the first highlighted display can be instantly understood. Therefore, the degree of danger of collision with the object can be quickly recognized. After recognizing the danger by such display, the driver can easily find an object to be noted such as a pedestrian by moving the line of sight forward. If the first highlight display is displayed at the same position as when the visibility is good when the visibility is poor, the driver may not be able to find the object by actual visual observation, and may gaze at the display screen. However, in the present invention, when the field of view is poor, the first highlight is displayed close to the vehicle side. Therefore, it is possible to prevent the display screen from being watched. As in the case where the field of view is good, the degree of danger is recognized by the first highlighting, and the object can be found by moving the line of sight ahead.

この発明の一実施形態によると、前記表示手段は、前記視界状態が良好ではないと推定された場合、前記第1の強調表示を、該視界状態が良好でない状況で運転者による目視が可能であると設定された所定位置まで、前記車両側に近づけて表示する。こうして、視界が良好でない場合でも、運転者は、第1の強調表示に対応する実空間上の位置を目視することができるので、運転者が表示画面を注視するのを防止することができる。   According to an embodiment of the present invention, when it is estimated that the visibility state is not good, the display means allows the driver to visually check the first highlighting in a situation where the visibility state is not good. The image is displayed close to the vehicle side up to a predetermined position set as there is. In this way, even when the field of view is not good, the driver can view the position in the real space corresponding to the first highlight display, so that the driver can be prevented from gazing at the display screen.

この発明の一実施形態によると、車両の速度を検出する手段を備え、視界状態が良好と推定された場合に前記第1の強調表示が表示される前記所定距離の位置は、該車両の速度に基づいて算出される該車両の所定の予想到達時間に応じた位置である。こうして、車両の所定の到達時間に応じた位置に第1の強調表示が表示されるので、対象物の位置を、該到達時間と関連づけて把握することができる。   According to an embodiment of the present invention, the vehicle is provided with means for detecting the speed of the vehicle, and the position of the predetermined distance at which the first highlight is displayed when the visibility state is estimated to be good is the speed of the vehicle. It is a position according to the predetermined expected arrival time of the vehicle calculated based on. Thus, since the first highlight is displayed at a position corresponding to the predetermined arrival time of the vehicle, the position of the object can be grasped in association with the arrival time.

この発明の一実施形態によると、 前記所定距離の位置は、前記予想到達時間が第1の所定値である場合に応じた第1の位置である。前記表示手段は、さらに、前記車両の速度に基づいて算出される予想到達時間が、前記第1の所定値よりも小さい第2の所定値である場合に応じた第2の位置に、第2の強調表示を表示する。前記表示手段は、前記視界状態が良好と推定された場合と良好ではないと推定された場合の両方において、前記表示画像において該第2の強調表示を同じ位置に表示する。こうして、危険性の比較的低いことを示す第1の強調表示については、視界状態に応じて表示位置を変更するが、危険性の比較的高いことを示す第2の強調表示については、その位置を変更することなく表示を行う。   According to an embodiment of the present invention, the position of the predetermined distance is a first position corresponding to a case where the expected arrival time is a first predetermined value. The display means further has a second position at a second position corresponding to a case where an expected arrival time calculated based on the speed of the vehicle is a second predetermined value smaller than the first predetermined value. Display the highlighting. The display means displays the second highlighted display at the same position in the display image both when the visibility state is estimated as good and when it is estimated as not good. Thus, for the first highlight indicating that the risk is relatively low, the display position is changed according to the visibility state, but for the second highlight indicating that the risk is relatively high, the position is changed. Display without changing.

この発明の一実施形態によると、前記視界状態が良好ではないと推定された場合、前記表示手段は、前記第1の強調表示を、前記車両のヘッドライトの照射範囲内の所定位置に対応する前記表示画像上の位置に表示する。こうして、視界が良好でない場合でも、運転者は、第1の強調表示に対応する実空間上の位置を、ヘッドライトにより、より確実に目視することができる。したがって、運転者が表示画面を注視するのを防止することができる。一実施形態では、該ヘッドライトの照射範囲内の所定位置は、該ヘッドライトがハイビームの照射を行っているか否かに応じて変更される。   According to an embodiment of the present invention, when it is estimated that the visibility state is not good, the display means corresponds the first highlight to a predetermined position within the irradiation range of the headlight of the vehicle. It is displayed at a position on the display image. In this way, even when the field of view is not good, the driver can more reliably visually observe the position in the real space corresponding to the first highlight display with the headlight. Therefore, it is possible to prevent the driver from gazing at the display screen. In one embodiment, the predetermined position within the irradiation range of the headlight is changed depending on whether or not the headlight is irradiating a high beam.

本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。   Other features and advantages of the present invention will be apparent from the detailed description that follows.

この発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the vehicle periphery monitoring apparatus according to one Example of this invention. この発明の一実施例に従う、表示装置およびカメラの取り付け位置を示す図。The figure which shows the attachment position of a display apparatus and a camera according to one Example of this invention. この発明の一実施例に従う、補助線(強調表示)の表示の一例を示す図。The figure which shows an example of the display of an auxiliary line (highlighting display) according to one Example of this invention. この発明の一実施例に従う、視界状態に応じた補助線が表示される位置の一例を示す図。The figure which shows an example of the position where the auxiliary line according to a visual field state is displayed according to one Example of this invention. この発明の一実施例に従う、視界状態に応じた補助線が表示される位置の一例を示す図。The figure which shows an example of the position where the auxiliary line according to a visual field state is displayed according to one Example of this invention. この発明の一実施例に従う、視界状態に応じた補助線が表示される位置の一例を示す図。The figure which shows an example of the position where the auxiliary line according to a visual field state is displayed according to one Example of this invention. この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。3 is a flowchart illustrating a process in an image processing unit according to an embodiment of the present invention. この発明の一実施例に従う、補助線の表示の他の例、および対象物の強調表示の一例を示す図。The figure which shows the other example of the display of an auxiliary line according to one Example of this invention, and an example of the highlight display of an object. この発明の一実施例に従う、対象物検出処理のプロセスを示すフローチャート。The flowchart which shows the process of the target object detection process according to one Example of this invention.

次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、ナビゲーション装置の表示装置を利用した、車両の周辺監視装置の構成を示すブロック図であり、図2は、表示装置とカメラの車両への取り付けを示す図である。   Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device using a display device of a navigation device according to an embodiment of the present invention, and FIG. 2 shows attachment of the display device and a camera to the vehicle. FIG.

車両には、ナビゲーション装置が搭載されており、該ナビゲーション装置は、ナビゲーションユニット5と、表示装置4とを備えている。表示装置4は、図2の(a)に示すように、車両のハンドル(ステアリング・ホイール)21の中心を通り、かつ車両の前後方向に伸長する線L1(図には、わかりやすいよう図の垂直方向に伸長するよう示されている)に対して所定距離だけ離れた位置に、運転者が視認可能なように取り付けられている。この実施例では、表示装置4は、車両のダッシュボード23にはめこまれている。   A navigation device is mounted on the vehicle, and the navigation device includes a navigation unit 5 and a display device 4. As shown in FIG. 2A, the display device 4 passes through the center of the vehicle handle (steering wheel) 21 and extends in the front-rear direction of the vehicle. It is attached so as to be visible to the driver at a position separated by a predetermined distance with respect to (shown to extend in the direction). In this embodiment, the display device 4 is embedded in the dashboard 23 of the vehicle.

ナビゲーションユニット5は、中央処理装置(CPU)およびメモリを備えたコンピュータで実現される。ナビゲーションユニット5は、たとえば人工衛星を利用して車両10の位置を測定するためのGPS信号を、該ナビゲーションユニット5に備えられた通信装置(図示せず)を介して受信し、該GPS信号に基づいて、車両10の現在位置を検出する。ナビゲーションユニット5は、車両の周辺の地図情報(これは、ナビゲーション装置の記憶装置に記憶されることもできるし、該通信装置を介して所定のサーバから受信することもできる)に、該現在位置を示す画像を重畳させて、表示装置4の表示画面25に表示する。また、表示装置4の表示画面25はタッチパネルを構成しており、該タッチパネルを介して、またはキーやボタン等の他の入力装置27を介して、乗員はナビゲーションユニット5に目的地を入力することができる。ナビゲーションユニット5は、該目的地までの車両の最適経路を算出し、該最適経路を示す画像を地図情報に重畳させて、表示装置4の表示画面25に表示することができる。   The navigation unit 5 is realized by a computer having a central processing unit (CPU) and a memory. The navigation unit 5 receives, for example, a GPS signal for measuring the position of the vehicle 10 using an artificial satellite via a communication device (not shown) provided in the navigation unit 5, and receives the GPS signal. Based on this, the current position of the vehicle 10 is detected. The navigation unit 5 stores the current position in the map information around the vehicle (which can be stored in a storage device of the navigation device or can be received from a predetermined server via the communication device). Is displayed on the display screen 25 of the display device 4. The display screen 25 of the display device 4 constitutes a touch panel, and the occupant inputs the destination to the navigation unit 5 via the touch panel or another input device 27 such as a key or a button. Can do. The navigation unit 5 can calculate the optimal route of the vehicle to the destination, superimpose an image showing the optimal route on the map information, and display it on the display screen 25 of the display device 4.

また、ナビゲーションユニット5には、スピーカ3が接続されており、必要に応じて、たとえば一時停止や交差点等の経路案内を行う際に、表示装置4上への表示だけでなく、スピーカ3を介して音または音声によって乗員に知らせることができる。なお、最近のナビゲーション装置には、交通情報の提供や車両近傍の施設案内等、他にも様々な機能が搭載されており、この実施形態では、任意の適切なナビゲーション装置を利用することができる。   Further, a speaker 3 is connected to the navigation unit 5 and, when necessary, for example, when performing route guidance such as a pause or an intersection, not only the display on the display device 4 but also the speaker 3 is used. The passenger can be notified by sound or voice. Note that recent navigation devices are equipped with various other functions such as providing traffic information and facility guidance in the vicinity of the vehicle. In this embodiment, any appropriate navigation device can be used. .

車両の周辺監視装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって撮像された画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、を備えている。画像処理ユニット2は、表示装置4およびスピーカ3に接続されている。表示装置4は、カメラ1Rまたは1Lの撮像を介して得られた画像を表示すると共に、該画像から検出された車両周辺の対象物の存在について警報表示を行うのに利用される。また、スピーカ3は、該対象物の検出結果に基づいて音または音声で警報を発行するのに利用される。   The vehicle periphery monitoring device is mounted on a vehicle and is used to detect objects around the vehicle based on two infrared cameras 1R and 1L capable of detecting far infrared rays and image data captured by the cameras 1R and 1L. And an image processing unit 2. The image processing unit 2 is connected to the display device 4 and the speaker 3. The display device 4 is used to display an image obtained through imaging by the camera 1R or 1L and to display an alarm about the presence of an object around the vehicle detected from the image. The speaker 3 is used to issue an alarm by sound or voice based on the detection result of the object.

この実施例では、図2の(b)に示すように、カメラ1Rおよび1Lは、車両10の前方を撮像するよう、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。   In this embodiment, as shown in FIG. 2B, the cameras 1R and 1L are symmetrical with respect to the central axis passing through the center of the vehicle width at the front portion of the vehicle 10 so as to image the front of the vehicle 10. It is arranged in the position. The two cameras 1R and 1L are fixed to the vehicle so that their optical axes are parallel to each other and their height from the road surface is equal. The infrared cameras 1R and 1L have a characteristic that the level of the output signal becomes higher (that is, the luminance in the captured image becomes higher) as the temperature of the object is higher.

画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号および表示装置4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。   The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a central processing unit (CPU) that performs various arithmetic processing, and a data RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs to be executed by the CPU and data to be used (including tables and maps), driving signals for the speaker 3, and display for the display device 4 An output circuit for outputting signals and the like is provided. The output signals of the cameras 1R and 1L are converted into digital signals and input to the CPU.

走行状態検出部7は、車両の速度を検出するセンサを含む。車両の速度を検出するためのセンサは、いわゆる車速センサでもよいし、代替的に、加速度センサや車輪速センサでもよい。さらに、この実施形態では、走行状態検出部7は、車両の進路を予測するのに用いられる他の走行状態を検出するためのセンサを含む。一実施形態では、車両のヨーレートを検出するためのヨーレートセンサや、車両の操舵角を検出するための舵角センサを含むことができる。こうして、走行状態検出部7によって検出された車両の走行状態を示すデータは、画像処理ユニット2に送られる。   The traveling state detection unit 7 includes a sensor that detects the speed of the vehicle. The sensor for detecting the speed of the vehicle may be a so-called vehicle speed sensor, or may alternatively be an acceleration sensor or a wheel speed sensor. Furthermore, in this embodiment, the traveling state detection unit 7 includes a sensor for detecting another traveling state used for predicting the course of the vehicle. In one embodiment, a yaw rate sensor for detecting the yaw rate of the vehicle and a rudder angle sensor for detecting the steering angle of the vehicle can be included. In this way, data indicating the running state of the vehicle detected by the running state detection unit 7 is sent to the image processing unit 2.

視界状態推定部9は、画像処理ユニット2の機能の一つとして設けられており(代替的に、視界状態推定部9の機能を、他の電子制御ユニットによって実現してもよい)、運転者から見た車両周辺の視界状態が良好な状態か否かを推定する。視界状態推定部9は、任意の適切な手法で該推定を行うことができる。一例では、雨滴センサ(図示せず)を車両に設け、該センサにより雨滴が検知されたならば、視界状態が良好ではないと推定し、検知されなければ、良好であると推定する。他の例では、ナビゲーションユニット5が、所定のサーバに接続することによって天気に関する情報を取得することを利用する。車両の現在位置を含む地域の天気情報を取得し、該天気情報が、晴れまたは曇りを示していれば、良好であると推定し、雨または雪、あるいは霧の発生等を示していれば、良好ではないと推定する。   The visibility state estimation unit 9 is provided as one of the functions of the image processing unit 2 (alternatively, the function of the visibility state estimation unit 9 may be realized by another electronic control unit), and the driver It is estimated whether the visibility state around the vehicle viewed from the above is good. The visibility state estimation unit 9 can perform the estimation by any appropriate method. In one example, a raindrop sensor (not shown) is provided in the vehicle, and if a raindrop is detected by the sensor, it is estimated that the visibility state is not good, and if it is not detected, it is estimated to be good. In another example, the navigation unit 5 utilizes the acquisition of information related to the weather by connecting to a predetermined server. If the weather information of the area including the current position of the vehicle is acquired and the weather information indicates clear or cloudy, it is estimated to be good, and if it indicates the occurrence of rain or snow or fog, Estimated not good.

さらなる他の例では、夜間は、昼間に比べて視界状態が良好でないことが多いため、昼間の場合には視界状態が良好であると推定し、夜間の場合には視界状態が良好ではないと推定してもよい。ここで、車両のヘッドライトの照射がオンされているか否かで、視界状態を推定してもよい。該ライトの照射がオンされていなければ、昼間であって視界状態が良好と推定し、オンされていなければ、夜間であって、もしくは昼間でも薄暗いため、視界状態が良好ではないと推定してもよい。   In yet another example, visibility is often poor at night compared to daytime, so it is assumed that visibility is good at daytime and visibility is not good at night. It may be estimated. Here, the visibility state may be estimated depending on whether or not the headlight irradiation of the vehicle is turned on. If the illumination of the light is not turned on, it is estimated that the visibility state is good in the daytime, and if it is not turned on, it is assumed that the visibility state is not good because it is nighttime or dim even in the daytime. Also good.

画像処理ユニット2は、走行状態検出部7によって検出された該走行状態に基づいて、車両の進路を予測すると共に、カメラ1R、1Lによって撮像され表示装置4上に表示される画像上の該予測進路の領域に、運転者に危険性の度合いを知らせるための強調表示を行う。   The image processing unit 2 predicts the course of the vehicle based on the traveling state detected by the traveling state detection unit 7, and also predicts the prediction on the image captured by the cameras 1R and 1L and displayed on the display device 4. Emphasis is given in the course area to inform the driver of the degree of danger.

このように、この実施例では、ナビゲーション装置の表示装置4を、カメラ1Rおよび1Lによる撮像を介して得られた画像の表示、および該画像から検出された所定の対象物の存在を運転者に通知(警報)するための表示に利用する。 前述したように、フロントウィンドウ上の、運転者の前方位置に画面が表示されるように設けられたヘッドアップディスプレイ(HUD)と異なり、表示装置4は、ハンドル21から、車幅方向に所定距離だけ離れた位置に設けられているので、HUDに比べて、運転者が運転中に表示装置4の画面を視認するには水平方向に視線を移動させる必要がある。したがって、より短時間で、運転者に危険性の度合いを認識させることのできる表示を行うのが好ましく、本願発明では、これを、強調表示によって実現する。   Thus, in this embodiment, the display device 4 of the navigation device is used to display to the driver the display of an image obtained through imaging by the cameras 1R and 1L and the presence of a predetermined object detected from the image. Used for display for notification (alarm). As described above, unlike the head-up display (HUD) provided so that the screen is displayed in front of the driver on the front window, the display device 4 is a predetermined distance from the handle 21 in the vehicle width direction. Therefore, it is necessary to move the line of sight in the horizontal direction in order for the driver to visually recognize the screen of the display device 4 during driving as compared with the HUD. Therefore, it is preferable to perform display that allows the driver to recognize the degree of danger in a shorter time. In the present invention, this is realized by highlighting.

この実施形態では、該強調表示の一例として、補助線の重畳表示を行う。この点について、図3を参照すると、表示装置4上の表示画像101上に重畳表示された補助線111の一例が示されている。表示画像101は、カメラ1R,1Lの撮像を介して得られたグレースケール画像であり(なお、図では、見やすくするため、細かい輝度変化は示されていない)、該画像101上で、ライン103と105で囲まれた領域が、予測された進路に対応する画像領域である。補助線111は、該予測進路上に重畳表示されている。補助線は、後述するように、車両から所定の距離の位置に表示されるので、運転者は、該補助線の表示により、前方の距離感を容易に把握することができ、危険度合いを認識することができる。たとえば、補助線近傍に、歩行者等の注意すべき対象物が撮像していれば、該対象物の位置を実感として捉えることができ、前方に視線を移すことにより、容易に対象物を発見して回避動作を行うことができる。   In this embodiment, auxiliary lines are superimposed and displayed as an example of the highlighted display. In this regard, referring to FIG. 3, an example of the auxiliary line 111 superimposed on the display image 101 on the display device 4 is shown. The display image 101 is a grayscale image obtained through the imaging of the cameras 1R and 1L (note that, in the drawing, a fine change in luminance is not shown for easy viewing), the line 103 is displayed on the image 101. And an area surrounded by 105 is an image area corresponding to the predicted course. The auxiliary line 111 is superimposed on the predicted course. As will be described later, since the auxiliary line is displayed at a predetermined distance from the vehicle, the driver can easily grasp the sense of distance ahead by the display of the auxiliary line and recognize the degree of danger. can do. For example, if a target object such as a pedestrian is picked up in the vicinity of an auxiliary line, the position of the target object can be grasped as an actual feeling, and the target object can be easily found by moving the line of sight ahead Thus, an avoidance operation can be performed.

さらに、本願発明では、該補助線の表示位置を、視界状態推定部9によって推定された視界状態に応じて変更する。この変更手法について、いくつかの形態を説明する。   Further, in the present invention, the display position of the auxiliary line is changed according to the visual field state estimated by the visual field state estimation unit 9. Several forms of this changing method will be described.

図4は、第1の形態を示しており、車両からどの程度の距離に対応する表示位置に補助線を表示するかを示している。この形態では、(a)に示すように、視界状態が良好と推定された場合には、車両10から所定距離Daの位置に対応する表示位置に、補助線111を表示する。(b)に示すように、視界状態が良好ではないと推定された場合には、車両10から所定距離Dbの位置に対応する表示位置に、補助線111を表示する。ここで、距離Dbは、距離Daよりも小さい。このように、視界が良好でない場合には、視界が良好な場合に比べて、補助線を車両側に近づけて表示する。   FIG. 4 shows the first embodiment, and shows how much distance from the vehicle the auxiliary line is displayed at the display position corresponding to it. In this embodiment, as shown in (a), when the visibility state is estimated to be good, the auxiliary line 111 is displayed at the display position corresponding to the position of the predetermined distance Da from the vehicle 10. As shown in (b), when it is estimated that the visibility state is not good, the auxiliary line 111 is displayed at the display position corresponding to the position of the predetermined distance Db from the vehicle 10. Here, the distance Db is smaller than the distance Da. Thus, when the field of view is not good, the auxiliary line is displayed closer to the vehicle side than when the field of view is good.

視界が良好な場合には、補助線表示で危険度合いを認識し、前方に視線を移すことで、該補助線付近の対象物についても容易に発見することができる。しかしながら、視界が良好でない場合に、同様の位置に補助線を表示すると、赤外線カメラでは該補助線近傍の対象物についても検出することがほぼ可能であるものの、運転者の目視では、該補助線近傍を見ることができないおそれがある。その結果、表示装置4上に表示された画像を注視しつづけてしまうおそれがあり、前方への注意がおろそかになるおそれがある。   When the field of view is good, the degree of danger is recognized by the auxiliary line display, and the object near the auxiliary line can be easily found by moving the line of sight ahead. However, if the auxiliary line is displayed at the same position when the field of view is not good, the infrared camera can almost detect the object in the vicinity of the auxiliary line. There is a possibility that the vicinity cannot be seen. As a result, there is a possibility that the image displayed on the display device 4 may continue to be watched, and attention to the front may be neglected.

これを防止するため、補助線111を、車両10に近づけて表示する。これにより、視界が良好な場合と同様に、補助線表示で危険度合いを認識し、前方に視線を移すことで、該補助線付近の対象物を発見することができる。   In order to prevent this, the auxiliary line 111 is displayed close to the vehicle 10. Thus, as in the case where the field of view is good, the degree of danger is recognized by the auxiliary line display, and the object near the auxiliary line can be found by moving the line of sight ahead.

このように、強調表示としての上記補助線は、対象物の存在を初めて運転者に知らせて、運転者の目視によって対象物の発見を促す働きがある。したがって、好ましくは、D1は、視界が良好な場合に車両の運転者が目視可能な距離値に設定され、D2は、視界が不良な場合でも車両の運転者が目視可能な距離値に設定される。これらの該目視可能な距離値は、たとえば実験等によって予め設定される所定値とすることができる。   As described above, the auxiliary line as the highlighting has a function of notifying the driver of the existence of the object for the first time and prompting the driver to find the object by visual observation. Therefore, preferably, D1 is set to a distance value that is visible to the driver of the vehicle when the visibility is good, and D2 is set to a distance value that is visible to the driver of the vehicle even when the visibility is poor. The These visually observable distance values can be set to predetermined values set in advance by experiments or the like, for example.

補助線表示の第2の形態では、視界状態が良好と推定された場合の所定距離Daが、車両10の速度に応じて設定される。たとえば、所定距離Daを、走行状態検出部7によって検出された車両の速度に基づいて算出された所定の予想到達時間TTCに対応する距離とすることができる。ここで、予想到達時間TTCは、任意の適切な時間(たとえば、数秒)に設定されることができる。現在の車速Vとすると、距離Daは、V×TTCにより算出され、この距離に対応する位置に補助線111が表示される。視界状態が良好でない場合には、前述したように、Da>Dbとなるように距離Dbが決定され、該距離Dbに対応する表示位置に、補助線111が表示される。   In the second form of the auxiliary line display, the predetermined distance Da when the visibility state is estimated to be good is set according to the speed of the vehicle 10. For example, the predetermined distance Da can be a distance corresponding to a predetermined expected arrival time TTC calculated based on the vehicle speed detected by the traveling state detection unit 7. Here, the expected arrival time TTC can be set to any appropriate time (for example, several seconds). Assuming the current vehicle speed V, the distance Da is calculated by V × TTC, and the auxiliary line 111 is displayed at a position corresponding to this distance. When the visibility state is not good, as described above, the distance Db is determined so that Da> Db, and the auxiliary line 111 is displayed at the display position corresponding to the distance Db.

この形態では、補助線111は、車両が所定時間後に到達する位置を示すこととなるので、運転者は、対象物と到達時間との関係を速やかに認識することができる。補助線付近に対象物が存在すれば、運転者は、該到達時間TTC後に該対象物に到達することを認識できるので、目視で該対象物を発見して該対象物をより確実に回避することができる。また、視界が不良な場合には、良好な場合よりも補助線が車両近くに表示されるので、前述したように、運転者が表示装置4上の画像を注視しつづけることを防止して、前方への目視を促すことができる。   In this embodiment, the auxiliary line 111 indicates a position where the vehicle reaches after a predetermined time, so that the driver can quickly recognize the relationship between the object and the arrival time. If there is an object in the vicinity of the auxiliary line, the driver can recognize that the object will be reached after the arrival time TTC, so that the object is visually detected and the object can be avoided more reliably. be able to. In addition, since the auxiliary line is displayed closer to the vehicle than when it is good when the field of view is poor, as described above, the driver is prevented from continuing to watch the image on the display device 4, It is possible to promote the forward viewing.

上記のように、視界状態が不良である場合でも、運転者が目視可能な場所に補助線の位置を決定するのが好ましい。これにより、表示画面上の補助線表示により示される危険性を認知して前方に視線を移せば、注意すべき対象物を、より確実に発見することができる。そのため、図5に示す第3の形態では、(b)に示すように、視界状態が良好ではないと推定された場合の補助線111の位置は、車両10のヘッドライトからの光の照射範囲内151に設定される。該照射範囲151は予め決まっているので、該照射範囲内に補助線の位置が含まれるように、距離Dbを決定することができる。こうすることにより、前方に視線を移せば、ヘッドライトの光で対象物を発見することができる。   As described above, even when the visibility state is poor, it is preferable to determine the position of the auxiliary line at a place where the driver can see. Thereby, if the danger shown by the auxiliary line display on the display screen is recognized and the line of sight is moved forward, the target object to be noted can be found more reliably. Therefore, in the third embodiment shown in FIG. 5, as shown in FIG. 5B, the position of the auxiliary line 111 when it is estimated that the visibility state is not good is the irradiation range of light from the headlight of the vehicle 10. Of these, 151 is set. Since the irradiation range 151 is determined in advance, the distance Db can be determined so that the position of the auxiliary line is included in the irradiation range. In this way, if the line of sight is moved forward, the object can be found with the light of the headlight.

ここで、ヘッドライトがロービームとハイビームとの間で切り換えられたことに応じて、上記の照射範囲151の大きさを変更してもよい。ヘッドライトがロービームの照射を行っているかハイビームの照射を行っているかを、任意の適切な手段で検出し、ロービームの照射を行っていれば、該ロービームで照射される範囲151に応じて決定された距離Dbに補助線111を表示し、ハイビームの照射を行っていれば、該ハイビームで照射される範囲151に応じて決定された距離Dbに補助線111を表示することができる。   Here, the size of the irradiation range 151 may be changed in accordance with the switching of the headlight between the low beam and the high beam. Whether the headlight is performing low beam irradiation or high beam irradiation is detected by any appropriate means, and if low beam irradiation is performed, it is determined according to the range 151 irradiated with the low beam. If the auxiliary line 111 is displayed at the distance Db and high beam irradiation is performed, the auxiliary line 111 can be displayed at the distance Db determined according to the range 151 irradiated with the high beam.

なお、この第3の形態では、(a)に示す視界状態が良好な場合の補助線111の位置は、図4を参照して説明した第1または第2の形態と同じであり、距離Daは、距離Dbよりも大きくなるよう設定される。   In the third embodiment, the position of the auxiliary line 111 when the visibility state shown in (a) is good is the same as that in the first or second embodiment described with reference to FIG. Is set to be larger than the distance Db.

図6は、第4の形態を示しており、ここでは、複数の強調表示を用いる。この例では、複数の強調表示として、複数の補助線を用いる。補助線111は第1の補助線であり、これに加え、第2の補助線112および第3の補助線113が用いられる。第1の補助線111は、前述した第1〜第3の形態に従って表示されることができる。第2の補助線112は、第1の補助線111よりも高い危険度を運転者に認識させるためのものであり、第1の補助線111よりも車両近くに表示される。第3の補助線は、さらに高い危険度を運転者に認識させるためのものであり、第2の補助線112よりも車両近くに表示される。   FIG. 6 shows a fourth embodiment, and here, a plurality of highlight displays are used. In this example, a plurality of auxiliary lines are used as a plurality of highlights. The auxiliary line 111 is a first auxiliary line, and in addition to this, a second auxiliary line 112 and a third auxiliary line 113 are used. The first auxiliary line 111 can be displayed according to the first to third modes described above. The second auxiliary line 112 is used to make the driver recognize a higher degree of risk than the first auxiliary line 111 and is displayed closer to the vehicle than the first auxiliary line 111. The third auxiliary line is for causing the driver to recognize a higher degree of risk and is displayed closer to the vehicle than the second auxiliary line 112.

したがって、(a)に示すように、視界状態が良好であると推定された場合、Da>Da2>Da3であり、(b)に示すように、視界状態が良好ではないと推定された場合、Db>Db2>Db3である。DaとDbの比率が、Da2とDb2の比率と同じとなるように、第2の補助線112の距離Da2およびDb2を決定することができる。   Therefore, when it is estimated that the visibility state is good as shown in (a), Da> Da2> Da3, and when it is estimated that the visibility state is not good as shown in (b), Db> Db2> Db3. The distances Da2 and Db2 of the second auxiliary line 112 can be determined so that the ratio between Da and Db is the same as the ratio between Da2 and Db2.

第3の補助線113は、最も高い危険性を示すものなので、図に示すように、視界の良好性に関係なく同じ位置に表示されるのがよい。したがって、図において、Da3=Db3である。   Since the third auxiliary line 113 indicates the highest risk, it is preferable that the third auxiliary line 113 be displayed at the same position regardless of the visibility. Therefore, in the figure, Da3 = Db3.

第1の補助線111の表示位置が、予想到達時間TTCに基づいて決定される場合には、第2の補助線112および第3の補助線113の表示位置も、予想到達時間TTCに基づいて決定されることができる。ここで、第1の補助線111の表示位置の決定に使用される第1のTTC時間よりも、第2の補助線112の表示位置の決定に使用される第2のTTC時間は小さく、該第2のTTC時間よりも、第3の補助線113の表示位置の決定に使用される第3のTTC時間は小さい。   When the display position of the first auxiliary line 111 is determined based on the estimated arrival time TTC, the display positions of the second auxiliary line 112 and the third auxiliary line 113 are also based on the estimated arrival time TTC. Can be determined. Here, the second TTC time used for determining the display position of the second auxiliary line 112 is smaller than the first TTC time used for determining the display position of the first auxiliary line 111, The third TTC time used for determining the display position of the third auxiliary line 113 is smaller than the second TTC time.

好ましくは、第3の補助線113の距離Da3、Db3は、車両が現時点で所定の減速度のブレーキ操作を行った場合に停止可能な距離となるように決定される。たとえば、ブレーキの所定の減速度(正値で表す)をGとし、車両の現在の速度をVとすると、V/(2・G)が、車両の停止可能な最小の距離値となる。したがって、第3の補助線113の距離Da3、DB3は、車両から、当該距離値以上の値を有するように決定されるのがよい。こうすることにより、第3の補助線113の位置に対象物が存在するのを認知したことに応じてブレーキ操作を行った場合でも、該対象物をより確実に回避することができる。 Preferably, the distances Da3 and Db3 of the third auxiliary line 113 are determined so that they can be stopped when the vehicle performs a braking operation at a predetermined deceleration at the current time. For example, assuming that a predetermined deceleration of the brake (represented by a positive value) is G and the current speed of the vehicle is V, V 2 / (2 · G) is the minimum distance value at which the vehicle can be stopped. Accordingly, the distances Da3 and DB3 of the third auxiliary line 113 are preferably determined so as to have a value equal to or greater than the distance value from the vehicle. By doing so, even when a brake operation is performed in response to recognizing that an object is present at the position of the third auxiliary line 113, the object can be avoided more reliably.

なお、この例では、3つの補助線を用いているが、この数に限定されるものではなく、この数よりも多くしてもよいし、少なくしてもよい。たとえば、第1および第3の補助線のみを表示してもよい。   In this example, three auxiliary lines are used, but the number is not limited to this number, and may be larger or smaller than this number. For example, only the first and third auxiliary lines may be displayed.

また、上記の例では、補助線を用いた強調表示を行っているが、該強調表示は、補助線の形態に制限されるものではなく、他の形態(たとえば、マークのような何らかの図形を重畳表示する等)で実現してもよい。   In the above example, highlighting using an auxiliary line is performed. However, the highlighting is not limited to the form of the auxiliary line, and other forms (for example, some figure such as a mark) are used. It may be realized by superimposing display).

図7は、この発明の一実施形態に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。このプロセスは、上記の第4の形態(図6)に基づいている。   FIG. 7 is a flowchart illustrating a process performed by the image processing unit 2 according to one embodiment of the present invention. The process is performed at predetermined time intervals. This process is based on the fourth form (FIG. 6) described above.

ステップS11において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像であり、これが、表示装置4上に表示される画像(表示画像)となる。   In step S11, output signals of the cameras 1R and 1L (that is, captured image data) are received as input, A / D converted, and stored in the image memory. The stored image data is a grayscale image including luminance information, and this is an image (display image) displayed on the display device 4.

ステップS12において、走行状態検出部7によって検出された車両の走行状態に基づいて、車両の進路を予測する。該進路の予測手法には、任意の適切な手法を用いることができる。一実施形態では、検出された車速およびヨーレートに基づいて、車両の進路を予測することができる。たとえば、特開平7−104062号公報に記載された手法を用いることができる。ヨーレートに代えて、舵角センサによって検出された操舵角を用いてもよい。車速と操舵角に基づいて車両の進路を予測する手法は、たとえば特開2009−16663号公報に記載されている。   In step S12, the course of the vehicle is predicted based on the running state of the vehicle detected by the running state detection unit 7. Any appropriate method can be used as the route prediction method. In one embodiment, the course of the vehicle can be predicted based on the detected vehicle speed and yaw rate. For example, the technique described in Japanese Patent Laid-Open No. 7-104062 can be used. Instead of the yaw rate, the steering angle detected by the steering angle sensor may be used. A method for predicting the course of the vehicle based on the vehicle speed and the steering angle is described in, for example, Japanese Patent Application Laid-Open No. 2009-16663.

なお、進路の予測に、ナビゲーションユニット5によって取得される情報を用いてもよい。たとえば、車両が現在の進行方向を維持すると仮定して、車両の現在位置から進路となる経路を、地図情報に基づいて求める。たとえば、或る道路を走行している車両の場合、該道路を”道なり”に進行する経路が、予測された進路となる。あるいは、ナビゲーションユニット5によって算出された最適経路に沿って車両が誘導されている場合には、該最適経路を、予測進路としてもよい。   In addition, you may use the information acquired by the navigation unit 5 for the course prediction. For example, assuming that the vehicle maintains the current traveling direction, a route that becomes a course from the current position of the vehicle is obtained based on the map information. For example, in the case of a vehicle traveling on a certain road, a route that travels along the road “in a road” is the predicted route. Alternatively, when the vehicle is guided along the optimum route calculated by the navigation unit 5, the optimum route may be used as the predicted route.

ステップS13において、走行状態検出部7によって検出された車両の速度に基づいて、車両の所定の予想到達時間TTCに対応する位置を算出する。第4の形態について前述したように、この実施形態では、予想到達時間TTC(秒)として、第1のTTC時間、第2のTTC時間、第3のTTC時間という3つの値を用いる(第1のTTC時間>第2のTTC時間>第3のTTC時間)。予想到達時間TTCが第1のTTC時間である場合の対応位置(第1のTTC位置と呼ぶ)は、車両が、検出された現在の速度で、上記の予測された進路を現時点から第1のTTC時間にわたって走行した場合に該車両が到達する位置を示す。したがって、車両の現在の速度をVとし、第1のTTC時間をt1秒とすると、車両の現在位置から、V×t1により算出された距離だけ予測進路を進んだ位置が、第1のTTC位置として特定される。第2のTTC時間に対応する第2のTTC位置、および第3のTTC時間に対応する第3のTTC位置についても同様である。結果として、車両からの距離は、第1のTTC位置>第2のTTC位置>第3のTTC位置となる。前述したように、好ましくは、第3のTTC位置の車両からの距離が、現時点で所定の減速度のブレーキ操作により停止可能な距離となるように、第3のTTC時間が決定される。   In step S13, a position corresponding to a predetermined expected arrival time TTC of the vehicle is calculated based on the vehicle speed detected by the traveling state detection unit 7. As described above with respect to the fourth mode, in this embodiment, three values of the first TTC time, the second TTC time, and the third TTC time are used as the expected arrival time TTC (seconds) (first time) TTC time> second TTC time> third TTC time). The corresponding position (referred to as the first TTC position) when the predicted arrival time TTC is the first TTC time is the first position from the present time when the vehicle is at the detected current speed. The position where the vehicle reaches when traveling for TTC time is shown. Therefore, if the current speed of the vehicle is V and the first TTC time is t1 seconds, the position that has traveled the predicted course from the current position of the vehicle by the distance calculated by V × t1 is the first TTC position. Identified as The same applies to the second TTC position corresponding to the second TTC time and the third TTC position corresponding to the third TTC time. As a result, the distance from the vehicle is first TTC position> second TTC position> third TTC position. As described above, preferably, the third TTC time is determined such that the distance from the vehicle at the third TTC position is a distance that can be stopped by a braking operation at a predetermined deceleration at the present time.

ステップS14において、視界状態推定部9によって、車両周辺の視界の状態が良好か否かを推定する。前述したように、たとえば雨滴センサの検出結果に基づいて、もしくはヘッドライトの照射がオンされているか否かに基づいて、視界状態を推定してもよい。代替的に、ナビゲーションユニット5を介して取得した、車両の現在位置を含む地域の天気に関する情報に基づいて、視界状態を推定してもよい。   In step S14, the visibility state estimation unit 9 estimates whether the visibility around the vehicle is good. As described above, the visibility state may be estimated based on, for example, the detection result of the raindrop sensor or based on whether or not the headlight irradiation is turned on. Alternatively, the visibility state may be estimated based on information about the weather in the area including the current position of the vehicle acquired through the navigation unit 5.

視界状態が良好と推定されたならば(S15がYes)、ステップS16に進み、ステップS11で得られた表示画像上で、予測進路に対応する画像領域を見極め、該予測進路上の、第1〜第3のTTC位置に対応する画像上の位置に、第1〜第3の補助線111〜113を重畳し、該重畳した画像を、表示装置4上に表示する。ここで、第1〜第3の補助線111〜113は、互いに、異なる色、および(または)異なる形状で表示されるのが好ましい。   If it is estimated that the visibility state is good (S15 is Yes), the process proceeds to step S16, the image area corresponding to the predicted path is identified on the display image obtained in step S11, and the first on the predicted path is determined. The first to third auxiliary lines 111 to 113 are superimposed at positions on the image corresponding to the third TTC position, and the superimposed images are displayed on the display device 4. Here, the first to third auxiliary lines 111 to 113 are preferably displayed in different colors and / or different shapes.

ここで、図8(a)を参照すると、表示画像101上に重畳表示された第1〜第3の補助線111〜113の一例が示されている。前述したように、表示画像は、撮像を介して得られたグレースケール画像であり(なお、図では、見やすくするため、細かい輝度変化は示されていない)、該画像上で、ライン103と105で囲まれた領域が、予測された進路に対応する画像領域である。第1の補助線111が、第1のTTC位置に対応し、第2の補助線112が、第2のTTC位置に対応し、第3の補助線113が、第3のTTC位置に対応している。   Here, with reference to FIG. 8A, an example of the first to third auxiliary lines 111 to 113 superimposed on the display image 101 is shown. As described above, the display image is a grayscale image obtained through imaging (note that fine luminance changes are not shown in the figure for easy viewing), and lines 103 and 105 are displayed on the image. A region surrounded by is an image region corresponding to the predicted course. The first auxiliary line 111 corresponds to the first TTC position, the second auxiliary line 112 corresponds to the second TTC position, and the third auxiliary line 113 corresponds to the third TTC position. ing.

この実施例では、これらの補助線は、互いに異なる色で表示されており(図には、ハッチングの異なる種類によって示されている)、たとえば、第1の補助線111は緑ないし青色で表示され、第2の補助線112は黄色で表示され、第3の補助線113は赤色で表示される。こうして、信号機と同様に、最も危険性の高い第3のTTC位置に対しては赤色表示が行われ、最も危険性の低い第1のTTC位置に対しては緑または青色表示が行われる。このような色表示とすることにより、運転者に、第1から第3の補助線に向かうにつれて危険性が高いことを速やかに知らせることができ、また、危険性が高、中、低の位置が、車両からどの程度の場所に存在するかを、運転者に実感させることができる。   In this embodiment, these auxiliary lines are displayed in different colors (indicated by different types of hatching in the figure), for example, the first auxiliary line 111 is displayed in green or blue. The second auxiliary line 112 is displayed in yellow, and the third auxiliary line 113 is displayed in red. Thus, as with the traffic light, the red display is performed for the third TTC position with the highest risk, and the green or blue display is performed for the first TTC position with the lowest risk. By using such color display, it is possible to promptly inform the driver that the risk is high as it goes from the first auxiliary line to the third auxiliary line, and the position where the risk is high, medium, and low. However, it is possible to make the driver feel how much the vehicle is located from the vehicle.

この例では、第1〜第3の補助線111〜113は、互いに異なる色で表示されるが、代替的に、または該色の相違に加え、互いに異なる形状で表示してもよい。たとえば、第1のTTC位置に表示される第1の補助線111を、最も細い線で表示し、第3のTTC位置に表示される第3の補助線113を、最も太い線で表示し、第2のTTC位置に表示される補助線を、その中間の太さの線で表示することができる。こうして運転者は、色または形状の違いにより、危険性の度合いを瞬時に把握することができる。また、対象物が撮像されている場合には、該対象物と補助線との位置関係から、該対象物の危険性の度合いを瞬時に理解することができる。したがって、運転者が、対象物がどの辺りに存在するかを見極めようとして表示装置4上に視線を釘付けにするのを回避することができる。   In this example, the first to third auxiliary lines 111 to 113 are displayed in different colors, but alternatively or in addition to the differences in color, they may be displayed in different shapes. For example, the first auxiliary line 111 displayed at the first TTC position is displayed as the thinnest line, the third auxiliary line 113 displayed at the third TTC position is displayed as the thickest line, The auxiliary line displayed at the second TTC position can be displayed as a line having an intermediate thickness. Thus, the driver can instantly grasp the degree of danger from the difference in color or shape. Further, when the object is imaged, the degree of danger of the object can be instantly understood from the positional relationship between the object and the auxiliary line. Therefore, it is possible to avoid the driver from nailing the line of sight on the display device 4 in order to determine where the object is present.

図7に戻り、視界状態が良好ではないと推定されたならば(S15がNo)、ステップS17において、ステップS11で得られた表示画像上で、予測進路に対応する画像領域を見極め、該予測進路に対応する画像領域に、視界不良用のTTC位置の表示を行う。この実施例では、視界不良用のTTC位置として、図6の(b)に示すような形態が用いられる。したがって、視界状態が良好な場合(ステップS16の場合)に比べて、第1および第2のTTC位置を車両に近づけ、該近づけた第1および第2のTTC位置に対応する画像上の位置に、それぞれ、第1の補助線111および第2の補助線112を重畳表示すると共に、視界状態が良好な場合と同じ第3のTTC位置に対応する画像上の位置に、第3の補助線113を重畳表示する。前述したように、第1のTTC位置を、目視可能として予め設定された距離に対応する位置まで、あるいはヘッドライトの照射範囲内の所定位置に対応する位置まで、近づけることができる。そして、やはり前述したように、第1のTTC位置を近づけたのと同じ比率で、第2のTTC位置を近づけることができる。ステップS16を参照して述べたのと同様に、ステップS17においても、第1〜第3の補助線111〜113を、互いに異なる色および(または)異なる形状で表示することができる。   Returning to FIG. 7, if it is estimated that the visibility state is not good (No in S15), in step S17, the image region corresponding to the predicted course is identified on the display image obtained in step S11, and the prediction is performed. The TTC position for poor visibility is displayed in the image area corresponding to the course. In this embodiment, a form as shown in FIG. 6B is used as the TTC position for poor visibility. Accordingly, the first and second TTC positions are closer to the vehicle than in the case where the visibility state is good (in the case of step S16), and the positions on the image corresponding to the closer first and second TTC positions are closer to the vehicle. The first auxiliary line 111 and the second auxiliary line 112 are displayed in a superimposed manner, and the third auxiliary line 113 is positioned at a position on the image corresponding to the same third TTC position as in the case where the visibility state is good. Is superimposed. As described above, the first TTC position can be brought close to a position corresponding to a distance set in advance so as to be visible, or to a position corresponding to a predetermined position within the irradiation range of the headlight. As described above, the second TTC position can be brought closer to the same ratio as the first TTC position is brought closer. In the same manner as described with reference to step S16, also in step S17, the first to third auxiliary lines 111 to 113 can be displayed in different colors and / or different shapes.

ステップS21以下において、撮像画像から検出された所定の対象物(この処理は、図9を参照して後述される)についての警報表示に関する処理が行われる。ステップS21では、該検出された所定の対象物が、予測された進路内に存在するかどうかを判断する。存在するならば(S21がYes)、ステップS22において、該対象物までの予想到達時間TTCを算出する。具体的には、該対象物までの自車両からの距離と、該車両の該対象物に対する相対速度に基づいて、該予想到達時間TTC(=距離/相対速度)を算出することができる。一実施形態では、車両の進路を横切る対象物を想定し、該相対速度に、自車両の速度Vを設定することができる。代替的に、対象物を時間的に追跡して、対象物の車両に対する相対速度を算出するようにしてもよく、この具体的な手法は、たとえば特開2001−6096号公報に記載されている。   In step S <b> 21 and subsequent steps, processing related to alarm display is performed on a predetermined object detected from the captured image (this processing will be described later with reference to FIG. 9). In step S21, it is determined whether or not the detected predetermined object exists in the predicted course. If it exists (Yes in S21), an expected arrival time TTC to the object is calculated in step S22. Specifically, the expected arrival time TTC (= distance / relative speed) can be calculated based on the distance from the host vehicle to the object and the relative speed of the vehicle with respect to the object. In one embodiment, it is possible to set the speed V of the host vehicle as the relative speed assuming an object that crosses the course of the vehicle. Alternatively, the object may be tracked in time to calculate the relative speed of the object with respect to the vehicle. This specific method is described in, for example, Japanese Patent Application Laid-Open No. 2001-6096. .

ステップS23において、第1〜第3のTTC時間のうち、該対象物について算出された予想到達時間TTCに最も近いTTC時間を選択し、該選択したTTC時間に対応するTTC位置を特定する。こうして、対象物までの予想到達時間TTCと、第1〜第3のTTC時間を互いに比較することにより、対象物が存在している位置が、どの程度の危険性を有するかを判断することができる。代替的に、第1〜第3のTTC位置のうち、対象物の車両からの現在の距離に最も近いTTC位置を選択するようにしてもよい。   In step S23, a TTC time closest to the expected arrival time TTC calculated for the object is selected from the first to third TTC times, and a TTC position corresponding to the selected TTC time is specified. Thus, by comparing the estimated arrival time TTC to the object and the first to third TTC times with each other, it is possible to determine how dangerous the position where the object exists is. it can. Alternatively, the TTC position closest to the current distance of the object from the vehicle may be selected from the first to third TTC positions.

ステップS24において、ステップ23で特定されたTTC位置における上記のTTC表示と相関を持たせて、表示画像上の該対象物を強調的に表示する。   In step S24, the object on the display image is displayed with a correlation with the TTC display at the TTC position specified in step 23.

ここで、図8(b)を参照すると、図8(a)のような表示画像101に対し、対象物の強調表示が行われた場合の一例が示されている。この例では、前述したように、第1のTTC位置には、緑または青色の第1の補助線111が表示される。したがって、対象物の予想到達時間TTCに最も近いTTC時間に対応するTTC位置が第1のTTC位置であると特定されたならば、符号131に示すように、該対象物を緑または青色で表示する。同様に、対象物の予想到達時間TTCに最も近いTTC時間に対応するTTC位置が第2のTTC位置であると特定されたならば、符号132に示すように、該対象物を黄色で表示する。対象物の予想到達時間TTCに最も近いTTC時間に対応するTTC位置が第3のTTC位置であると特定されたならば、符号133に示すように、該対象物を赤色で表示する。   Here, with reference to FIG. 8B, an example in which the object is highlighted on the display image 101 as shown in FIG. 8A is shown. In this example, as described above, the first auxiliary line 111 of green or blue is displayed at the first TTC position. Therefore, if the TTC position corresponding to the TTC time closest to the predicted arrival time TTC of the object is specified as the first TTC position, the object is displayed in green or blue as indicated by reference numeral 131. To do. Similarly, if the TTC position corresponding to the TTC time closest to the expected arrival time TTC of the object is specified as the second TTC position, the object is displayed in yellow as indicated by reference numeral 132. . If the TTC position corresponding to the TTC time closest to the expected arrival time TTC of the target object is specified as the third TTC position, the target object is displayed in red as indicated by reference numeral 133.

なお、対象物を所定の色で表示する手法は、たとえば、対象物として抽出された領域の画素の色を、該所定の色に変換して表示してもよいし、該所定の色の人間を模したアイコン画像を該対象物として抽出された領域上に重畳表示させてもよい。こうして、対象物は、最も近いと判定されたTTC位置の色と相関を持つように表示される。   The method for displaying the target object in a predetermined color may be, for example, converting the color of the pixel in the region extracted as the target object into the predetermined color for display, or the human of the predetermined color. An icon image imitating the image may be superimposed on the area extracted as the object. Thus, the object is displayed so as to correlate with the color of the TTC position determined to be the closest.

上記のように、対象物を、各TTC位置に応じた色で表示することに代えて、該対象物を囲むように強調枠を表示し、該強調枠の色を、各TTC位置に応じた色としてもよい。   As described above, instead of displaying the object in a color corresponding to each TTC position, an emphasis frame is displayed so as to surround the object, and the color of the emphasis frame is determined according to each TTC position. It is good also as a color.

また、第1〜第3の補助線111〜113の形状が互いに異なる場合には、対象物を、上記のように特定された最も近いTTC位置の形状と相関を持つように表示してもよい。たとえば、それぞれのTTC位置に、互いに異なるマークを付して表示する。そして、最も近いと判定されたTTC位置に付されたマークと同じマークを、その対象物にも付して表示する。こうして、互いに関連していることを、マークで表すことができる。   When the shapes of the first to third auxiliary lines 111 to 113 are different from each other, the object may be displayed so as to have a correlation with the shape of the nearest TTC position specified as described above. . For example, different TTC positions are displayed with different marks. Then, the same mark as the mark attached to the TTC position determined to be the closest is attached to the object and displayed. In this way, the fact that they are related to each other can be represented by a mark.

こうして、対象物を、対応するTTC位置と同様の表示形態となるよう表示させることにより、どの到達時間に関連した対象物が存在するかを、運転者は速やかに把握することができる。TTC位置が、危険の度合いに応じて段階的に表示されるので、対象物の位置する危険性を、瞬時に見極めることができる。   Thus, by displaying the target object in a display form similar to the corresponding TTC position, the driver can quickly grasp which arrival time is related to the target object. Since the TTC position is displayed in stages according to the degree of danger, it is possible to instantly determine the danger that the object is located.

図3に戻り、ステップS25は、対象物が存在することを、上述したような強調表示による警報表示だけでなく、スピーカ3を介した警報音でも知らせるために設けられており、これは、任意の処理である。この警報音についても、TTC位置毎に異ならせることができる。たとえば、対象物が第1のTTC位置と相関するよう表示された場合には、1つの短い音(たとえば、ピッという音)を出力し、対象物が第2のTTC位置と相関するよう表示された場合には、2つの短い音(たとえば、ピッピッという音)を出力し、対象物が第3のTTC位置と相関するよう表示された場合には、1つの長い音(たとえば、ピーーッという音)を出力することができる。なお、複数の対象物が予測進路内に存在し、それぞれが異なるTTC位置と相関するよう表示された場合には、最も危険性の高いTTC位置用の警報音を出力すればよい。たとえば、図8の(b)に示すように、第1〜第3のTTC位置に相関して3人の歩行者131〜133が存在する場合には、最も危険性の度合いが大きい第3のTTC位置用の警報音を出力する。   Returning to FIG. 3, step S25 is provided not only for alarm display by highlighting as described above, but also for alarm sound through the speaker 3 as described above. It is processing of. This alarm sound can also be made different for each TTC position. For example, if the object is displayed to correlate with the first TTC position, one short sound (eg, a beep) is output and the object is displayed to correlate with the second TTC position. Two short sounds (eg, a beeping sound) are output, and one long sound (eg, a beeping sound) is displayed if the object is displayed to correlate with the third TTC position. Can be output. When a plurality of objects exist in the predicted course and are displayed so as to correlate with different TTC positions, an alarm sound for the TTC position with the highest risk may be output. For example, as shown in FIG. 8B, when there are three pedestrians 131 to 133 in correlation with the first to third TTC positions, the third risk level is the highest. Outputs an alarm sound for TTC position.

ステップS21に戻り、撮像画像から検出された所定の対象物が、予測された進路内に存在しなければ(S21がNo)、これは、該対象物が予測進路外に存在することを示す。この場合、ステップS26に進み、該対象物を、ステップS24での対象物に対する警報表示に比べて、強調度合いを低減した状態で表示する。一例では、該対象物には、何ら強調表示を施さないようにすることができる。他の例では、ステップS24の強調表示に比べて見分けにくい(識別しにくい)所定の色で該対象物を表示することができる。たとえば、ステップS24では、カラーを用いて強調表示を行ったが、ステップS26では、モノクロの色(たとえば、白と黒の間の中間色)で、該対象物を強調表示する。たとえば、所定のモノクロの色で、該対象物を表示してもよいし、該モノクロの色の枠で、該対象物を囲むようにしてもよい。ステップS24の強調表示と明瞭に区別するため、ステップS26では、第1〜第3のTTC位置に関連して用いた色とは異なる色を用いるのがよい。   Returning to step S21, if the predetermined object detected from the captured image does not exist in the predicted course (No in S21), this indicates that the object exists outside the predicted course. In this case, the process proceeds to step S26, and the object is displayed in a state in which the degree of emphasis is reduced as compared with the alarm display for the object in step S24. In one example, the object may not be highlighted at all. In another example, the object can be displayed in a predetermined color that is harder to distinguish (difficult to identify) than the highlighting in step S24. For example, in step S24, highlighting is performed using color, but in step S26, the object is highlighted with a monochrome color (for example, an intermediate color between white and black). For example, the object may be displayed in a predetermined monochrome color, or the object may be surrounded by the monochrome color frame. In order to distinguish clearly from the highlighting in step S24, in step S26, a color different from the color used in connection with the first to third TTC positions may be used.

図8の(b)には、このような対象物の表示例も示されており、符号135に示す歩行者は、予測進路外に存在しているため、所定のグレー値に着色されて表示されている。こうして、予測された進路外にいる対象物については、危険性が低いため、単なる通知にとどめることができる。   FIG. 8B also shows a display example of such an object. Since the pedestrian indicated by reference numeral 135 exists outside the predicted course, it is displayed in a predetermined gray value. Has been. In this way, the object outside the predicted course has a low risk and can be merely a notification.

なお、当然ながら、撮像を介して取得された画像から所定の対象物が検出されなかった場合には、ステップS21以下の処理を実行することなく、補助線が表示された表示画像のみを表示装置4上に表示すればよい。   Of course, when a predetermined object is not detected from an image acquired through imaging, only the display image on which the auxiliary line is displayed is displayed without executing the processing in step S21 and the subsequent steps. 4 may be displayed.

図9は、撮像画像から対象物を検出するプロセスのフローチャートを示す。 ステップS31において、カメラ1Rで撮像された右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。この2値化処理により、たとえば生体のような所定の温度より高い対象物が、白領域として抽出される。輝度閾値ITHは、任意の適切な手法で決定されることができる。   FIG. 9 shows a flowchart of a process for detecting an object from a captured image. In step S31, the right image captured by the camera 1R is used as a reference image (alternatively, the left image may be used as a reference image), and the image signal is binarized. Specifically, a process of setting a region brighter than the luminance threshold value ITH to “1” (white) and a dark region to “0” (black) is performed. By this binarization processing, an object having a temperature higher than a predetermined temperature such as a living body is extracted as a white region. The luminance threshold value ITH can be determined by any appropriate technique.

ステップS32において、2値化した画像データを、ランレングスデータに変換する。具体的には、2値化により白となった領域について、各画素行の該白領域(ラインと呼ぶ)の開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで、ランレングスデータを表す。ここで、画像における垂直方向にy軸をとり、水平方向にx軸をとる。たとえば、y座標がy1である画素行における白領域が、(x1,y1)から(x3,y1)までのラインであるとすると、このラインは3画素からなるので、(x1,y1,3)というランレングスデータで表される。   In step S32, the binarized image data is converted into run-length data. Specifically, with respect to an area that has become white due to binarization, the coordinates of the start point (the leftmost pixel of each line) of the white area (referred to as a line) of each pixel row and the end point (each The run length data is represented by the length (expressed by the number of pixels) up to the pixel on the right end of the line. Here, the y-axis is taken in the vertical direction in the image, and the x-axis is taken in the horizontal direction. For example, if the white region in the pixel row whose y coordinate is y1 is a line from (x1, y1) to (x3, y1), this line consists of three pixels, so (x1, y1, 3) This is represented by run-length data.

ステップS33およびS34において、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを合わせて1つの対象物とみなし、これにラベルを付与する。こうして、1または複数の対象物が抽出される。   In steps S33 and S34, the object is labeled and a process of extracting the object is performed. That is, of the lines converted into run length data, a line having a portion overlapping in the y direction is regarded as one object, and a label is given thereto. Thus, one or a plurality of objects are extracted.

ステップS35において、こうして抽出された対象物のそれぞれについて、注意すべき所定の対象物か否かを判定する。この実施形態では、該注意すべき所定の対象物は、歩行者であり、該歩行者に加えて動物を含めてもよい。ここで、対象物が歩行者か動物かを判定する処理は、任意の適切な手法で実現されることができる。たとえば、周知のパターンマッチングを利用し、上記のように抽出された対象物と、歩行者を表す所定のパターンとの類似度を算出し、該類似度が高ければ、歩行者であると判定することができる。動物についても、同様に判定することができる。このような判定処理の例示として、歩行者かどうかを判定する処理は、たとえば特開2007−241740号公報、特開2007−334751号公報等に記載されている。動物かどうかを判定する処理は、たとえば特開2007−310705号公報、特開2007−310706号公報等に記載されている。   In step S35, it is determined whether each of the objects thus extracted is a predetermined object to be noted. In this embodiment, the predetermined object to be noted is a pedestrian, and may include animals in addition to the pedestrian. Here, the process of determining whether the object is a pedestrian or an animal can be realized by any appropriate technique. For example, using known pattern matching, the similarity between the object extracted as described above and a predetermined pattern representing a pedestrian is calculated, and if the similarity is high, the object is determined to be a pedestrian. be able to. An animal can be similarly determined. As an example of such determination processing, processing for determining whether or not a person is a pedestrian is described in, for example, Japanese Patent Application Laid-Open No. 2007-241740, Japanese Patent Application Laid-Open No. 2007-334751, and the like. The process for determining whether or not an animal is described in, for example, Japanese Patent Application Laid-Open Nos. 2007-310705 and 2007-310706.

こうして、歩行者と判定された対象物について、図7のステップS21以下の処理が実行されることとなる。   In this way, the process after step S21 in FIG. 7 is executed for the object determined to be a pedestrian.

なお、車両から所定の距離の範囲内にある対象物について、上記のステップS24およびS26のような強調表示を行うようにしてもよい。この場合、該所定の距離は、上記の第1のTTC位置の距離以上を有するように設定されるのがよい。たとえば、第1のTTC時間がt1秒とすると、“t2(≧t1)×車両の速度V”により算出される値を、該所定の距離とすることができる。図9のステップS35では、ステップS34で抽出された対象物のうち、該所定の距離の範囲内に対する対象物について判定を行い、その結果、歩行者(動物を含めてもよい)と判定された対象物について、図7のステップS21以下の処理を実行すればよい。   Note that highlighting as in steps S24 and S26 described above may be performed on an object within a predetermined distance from the vehicle. In this case, it is preferable that the predetermined distance is set to be equal to or greater than the distance of the first TTC position. For example, when the first TTC time is t1 seconds, a value calculated by “t2 (≧ t1) × vehicle speed V” can be set as the predetermined distance. In step S35 of FIG. 9, among the objects extracted in step S34, an object is determined for the predetermined distance range, and as a result, the object is determined to be a pedestrian (may include an animal). What is necessary is just to perform the process after step S21 of FIG.

また、上記のように視界状態が良好でないと推定された場合に補助線の表示位置が変更されたとき、該変更されたことが乗員にわかるようにしてもよい。たとえば、表示装置4上に、現在表示されている補助線が、車両からどの程度の距離に対応するかを乗員に知らせるために、補助線に、対応する距離値を付して表示してもよい。あるいは、視界状態が良好でないと推定された場合に、補助線の位置が車両にどの程度近づいたかわかるような表示を行ったり、近づいた距離を音声で知らせてもよい。 Further, when it is estimated that the visibility state is not good as described above, when the display position of the auxiliary line is changed, the occupant may be notified of the change. For example, in order to inform the occupant of how far the currently displayed auxiliary line corresponds to the vehicle, the auxiliary line may be displayed with a corresponding distance value. Good. Alternatively, when it is estimated that the visibility state is not good, a display that shows how close the position of the auxiliary line is to the vehicle may be performed, or the approached distance may be notified by voice.

上記の実施形態では、ナビゲーション装置に備えられた表示装置を用いている。上記に述べたように、本願発明では、視界状態に応じて上記のような強調表示(実施形態では、補助線)を表示するので、運転者による視線移動が必要な該表示装置を用いても、危険性の度合いを速やかに運転者に認識させることができる。しかしながら、表示装置として、前述したようなHUDを用いてもよい。   In the above embodiment, the display device provided in the navigation device is used. As described above, in the present invention, the above-described highlight display (in the embodiment, auxiliary line) is displayed according to the visibility state, so even if the display device that requires the driver to move the line of sight is used. This makes it possible for the driver to promptly recognize the degree of danger. However, the HUD as described above may be used as the display device.

さらに、上記の実施形態では、遠赤外線カメラを用いているが、本願発明は、他のカメラ(たとえば、可視カメラ)にも適用可能である。   Furthermore, although the far-infrared camera is used in the above embodiment, the present invention is applicable to other cameras (for example, a visible camera).

以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。   As described above, specific embodiments of the present invention have been described. However, the present invention is not limited to these embodiments.

1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 表示装置
1R, 1L infrared camera (imaging means)
2 Image processing unit 3 Speaker 4 Display device

Claims (6)

車両の周辺を撮像する撮像装置によって取得された画像に基づいて、前記車両の周辺の所定の対象物を検出する手段と、
前記画像に基づいて生成される表示画像を、前記車両の乗員が視認可能なように表示装置上に表示するとともに、前記対象物が該車両に対して所定の位置関係にある場合に、該表示画像上の該対象物を強調的に表示する表示手段と、を有する車両の周辺監視装置であって、
さらに、前記車両の周辺の視界状態を推定する手段を備え、
前記表示手段は、前記視界状態が良好と推定された場合には、前記表示画像上で、前記車両から所定距離の位置に第1の強調表示を表示し、前記視界状態が良好ではないと推定された場合には、前記視界状態が良好と推定された場合に比べ、該第1の強調表示を、前記車両側に近づけて表示する、車両の周辺監視装置。
Means for detecting a predetermined object around the vehicle based on an image acquired by an imaging device that images the periphery of the vehicle;
A display image generated based on the image is displayed on a display device so that an occupant of the vehicle can visually recognize, and the display is displayed when the object is in a predetermined positional relationship with the vehicle. A vehicle surrounding monitoring device having display means for highlighting the object on the image,
Furthermore, it comprises means for estimating the visibility state around the vehicle,
When the visibility state is estimated to be good, the display means displays a first highlight on the display image at a predetermined distance from the vehicle, and estimates that the visibility state is not good. When it is, the vehicle periphery monitoring device that displays the first highlight closer to the vehicle side than when the visibility state is estimated to be good.
さらに、前記表示手段は、前記視界状態が良好ではないと推定された場合、前記第1の強調表示を、該視界状態が良好でない状況で運転者による目視が可能であると設定された所定位置まで、前記車両側に近づけて表示する、
請求項1に記載の車両の周辺監視装置。
Further, when the display means is estimated that the visibility state is not good, the first highlight is set to a predetermined position set to be visible by the driver in a situation where the visibility state is not good. Until close to the vehicle side,
The vehicle periphery monitoring apparatus according to claim 1.
さらに、前記車両の速度を検出する手段を備え、
前記視界状態が良好と推定された場合に前記第1の強調表示が表示される前記所定距離の位置は、該車両の速度に基づいて算出される該車両の所定の予想到達時間に応じた位置である、
請求項1または2に記載の車両の周辺監視装置。
And a means for detecting the speed of the vehicle.
The position of the predetermined distance at which the first highlight is displayed when the visibility state is estimated to be good is a position corresponding to the predetermined expected arrival time of the vehicle calculated based on the speed of the vehicle Is,
The vehicle periphery monitoring device according to claim 1 or 2.
前記所定距離の位置は、前記予想到達時間が第1の所定値である場合に応じた第1の位置であり、
前記表示手段は、さらに、前記車両の速度に基づいて算出される予想到達時間が、前記第1の所定値よりも小さい第2の所定値である場合に応じた第2の位置に、第2の強調表示を表示し、
前記表示手段は、前記視界状態が良好と推定された場合と良好ではないと推定された場合の両方において、前記表示画像において該第2の強調表示を同じ位置に表示する、
請求項3に記載の車両の周辺監視装置。
The position of the predetermined distance is a first position corresponding to a case where the expected arrival time is a first predetermined value,
The display means further has a second position at a second position corresponding to a case where an expected arrival time calculated based on the speed of the vehicle is a second predetermined value smaller than the first predetermined value. Display highlighting,
The display means displays the second highlight at the same position in the display image both when the visibility state is estimated as good and when it is estimated as not good.
The vehicle periphery monitoring apparatus according to claim 3.
前記視界状態が良好ではないと推定された場合、前記表示手段は、前記第1の強調表示を、前記車両のヘッドライトの照射範囲内の所定位置に対応する前記表示画像上の位置に表示する、
請求項1から4のいずれかに記載の車両の周辺監視装置。
When it is estimated that the visibility state is not good, the display means displays the first highlight at a position on the display image corresponding to a predetermined position within the irradiation range of the headlight of the vehicle. ,
The vehicle periphery monitoring device according to any one of claims 1 to 4.
前記車両のヘッドライトの照射範囲内の所定位置は、該ヘッドライトがハイビームの照射を行っているか否かに応じて変更される、
請求項5のいずれかに記載の車両の周辺監視装置。
The predetermined position within the irradiation range of the headlight of the vehicle is changed according to whether or not the headlight is radiating a high beam.
The vehicle periphery monitoring apparatus according to claim 5.
JP2010058280A 2010-03-15 2010-03-15 Vehicle periphery monitoring device Expired - Fee Related JP5192009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010058280A JP5192009B2 (en) 2010-03-15 2010-03-15 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010058280A JP5192009B2 (en) 2010-03-15 2010-03-15 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011192070A true JP2011192070A (en) 2011-09-29
JP5192009B2 JP5192009B2 (en) 2013-05-08

Family

ID=44796899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010058280A Expired - Fee Related JP5192009B2 (en) 2010-03-15 2010-03-15 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5192009B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207746A (en) * 2012-03-29 2013-10-07 Mazda Motor Corp Device for photographing rear lateral side of vehicle
JP2015070280A (en) * 2013-09-26 2015-04-13 京セラ株式会社 Image processing system, camera system, and image processing method
JP2020024570A (en) * 2018-08-07 2020-02-13 日立オートモティブシステムズ株式会社 Driving assistance device
JP2021127071A (en) * 2020-02-17 2021-09-02 株式会社小糸製作所 Lighting fixture system
CN113950432A (en) * 2019-06-11 2022-01-18 株式会社小糸制作所 Head-up display device and head-up display system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211542A (en) * 1999-01-26 2000-08-02 Mazda Motor Corp Vehicular driving supporting device
JP2006123610A (en) * 2004-10-26 2006-05-18 Toyota Motor Corp Vehicle posture control system
JP2007272350A (en) * 2006-03-30 2007-10-18 Honda Motor Co Ltd Driving support device for vehicle
JP2009040107A (en) * 2007-08-06 2009-02-26 Denso Corp Image display control device and image display control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211542A (en) * 1999-01-26 2000-08-02 Mazda Motor Corp Vehicular driving supporting device
JP2006123610A (en) * 2004-10-26 2006-05-18 Toyota Motor Corp Vehicle posture control system
JP2007272350A (en) * 2006-03-30 2007-10-18 Honda Motor Co Ltd Driving support device for vehicle
JP2009040107A (en) * 2007-08-06 2009-02-26 Denso Corp Image display control device and image display control system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207746A (en) * 2012-03-29 2013-10-07 Mazda Motor Corp Device for photographing rear lateral side of vehicle
JP2015070280A (en) * 2013-09-26 2015-04-13 京セラ株式会社 Image processing system, camera system, and image processing method
JP2020024570A (en) * 2018-08-07 2020-02-13 日立オートモティブシステムズ株式会社 Driving assistance device
JP7189695B2 (en) 2018-08-07 2022-12-14 日立Astemo株式会社 Driving support device
CN113950432A (en) * 2019-06-11 2022-01-18 株式会社小糸制作所 Head-up display device and head-up display system
JP2021127071A (en) * 2020-02-17 2021-09-02 株式会社小糸製作所 Lighting fixture system
JP7530721B2 (en) 2020-02-17 2024-08-08 株式会社小糸製作所 Lighting System

Also Published As

Publication number Publication date
JP5192009B2 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
JP5706874B2 (en) Vehicle periphery monitoring device
JP5503728B2 (en) Vehicle periphery monitoring device
EP2759999B1 (en) Apparatus for monitoring surroundings of vehicle
JP5577398B2 (en) Vehicle periphery monitoring device
US8174375B2 (en) Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
JP4872245B2 (en) Pedestrian recognition device
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP6307895B2 (en) Vehicle periphery monitoring device
JP5299026B2 (en) Vehicle display device
US20080198226A1 (en) Image Processing Device
WO2011132388A1 (en) Device for monitoring vicinity of vehicle
JPWO2012169029A1 (en) Lane departure prevention support apparatus, lane departure prevention method, and storage medium
US10866416B2 (en) Display control device and display control method
JP4528283B2 (en) Vehicle periphery monitoring device
JP5888339B2 (en) Display control device
GB2550472A (en) Adaptive display for low visibility
JP5192009B2 (en) Vehicle periphery monitoring device
JP2012099085A (en) Real-time warning system on windshield glass for vehicle, and operating method thereof
JP5192007B2 (en) Vehicle periphery monitoring device
JP5003473B2 (en) Warning device
US11858414B2 (en) Attention calling device, attention calling method, and computer-readable medium
JP4701961B2 (en) Pedestrian detection device
JP2015032107A (en) Vehicle periphery monitoring device
JP2012142832A (en) Imaging apparatus
JP2017224067A (en) Looking aside state determination device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130130

R150 Certificate of patent or registration of utility model

Ref document number: 5192009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees