JP5192007B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5192007B2
JP5192007B2 JP2010055567A JP2010055567A JP5192007B2 JP 5192007 B2 JP5192007 B2 JP 5192007B2 JP 2010055567 A JP2010055567 A JP 2010055567A JP 2010055567 A JP2010055567 A JP 2010055567A JP 5192007 B2 JP5192007 B2 JP 5192007B2
Authority
JP
Japan
Prior art keywords
vehicle
ttc
display
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010055567A
Other languages
Japanese (ja)
Other versions
JP2011191859A (en
Inventor
浩 岩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010055567A priority Critical patent/JP5192007B2/en
Publication of JP2011191859A publication Critical patent/JP2011191859A/en
Application granted granted Critical
Publication of JP5192007B2 publication Critical patent/JP5192007B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺の監視に応じて表示の形態を制御する装置に関する。   The present invention relates to an apparatus for monitoring the periphery of a vehicle, and more specifically to an apparatus for controlling a display form according to monitoring of the periphery of the vehicle.

従来より、車両の周辺の対象物を検出するための装置を該車両に搭載し、該検出された対象物について警報を発行することが行われている。下記の特許文献1には、レーダで検知した障害物への到達時間を予測し、該到達時間が2秒以内であれば直ちに警報音を発し、該到達時間が2秒以上であれば、表示警報を提示する装置が開示されている。   Conventionally, a device for detecting an object around a vehicle is mounted on the vehicle, and an alarm is issued for the detected object. The following Patent Document 1 predicts an arrival time to an obstacle detected by a radar, immediately sounds an alarm if the arrival time is within 2 seconds, and displays if the arrival time is 2 seconds or more. An apparatus for presenting an alarm is disclosed.

特開2001−23094号公報JP 2001-23094 A

上記のような警報は、運転者に、危険性を認知させることができるような形態で発せられるのが好ましい。特に、運転者が視認するのに視線移動を必要とする場所に表示装置が設けられている場合、該表示装置上での警報は、運転者に、より短時間で危険性を認知させることができるような形態で表示されるのが望ましい。   The alarm as described above is preferably issued in a form that allows the driver to recognize the danger. In particular, when a display device is provided in a place where the driver needs to move the line of sight for visual recognition, an alarm on the display device can cause the driver to recognize the danger in a shorter time. It is desirable to display it in a form that allows it.

上記の特許文献では、障害物への到達時間を予測し、予測した到達時間が所定時間以内か否かで、警報形態を変更している。しかしながら、警報表示の具体的な形態については記載されていない。   In said patent document, the arrival time to an obstacle is estimated and the warning form is changed depending on whether or not the predicted arrival time is within a predetermined time. However, the specific form of alarm display is not described.

したがって、この発明の一つの目的は、より短い時間で、危険性の度合いを運転者に認識させることができるような表示を行う手法を提供することである。   Accordingly, an object of the present invention is to provide a technique for performing display so that the driver can recognize the degree of danger in a shorter time.

この発明の一つの側面によると、車両の周辺監視装置は、車両の周辺を撮像する撮像装置によって取得された画像に基づいて、車両の周辺の所定の対象物を検出する手段と、前記撮像画像に基づいて生成される表示画像を、車両の乗員が視認可能なように表示装置上に表示するとともに、前記対象物が該車両に対して所定の位置関係にある場合に、該表示画像上の該対象物に対し強調表示を行う表示手段と、車両の速度を検出する手段と、を備え、前記表示手段は、さらに、前記表示画像上に、前記車速に基づいて算出される異なる予想到達時間に応じた複数の補助線を表示するとともに、それぞれの該補助線の色および形状の少なくとも一方を異ならせる。   According to one aspect of the present invention, a vehicle periphery monitoring device detects a predetermined object around a vehicle based on an image acquired by an imaging device that images the periphery of the vehicle, and the captured image The display image generated based on the vehicle is displayed on the display device so that the vehicle occupant can visually recognize the image, and when the object is in a predetermined positional relationship with the vehicle, the display image Display means for emphasizing the object and means for detecting the speed of the vehicle, wherein the display means further includes different expected arrival times calculated on the display image based on the vehicle speed. A plurality of auxiliary lines corresponding to the above are displayed, and at least one of the color and shape of each auxiliary line is made different.

この発明によれば、車両の到達時間ごとに補助線を表示するので、運転者は、該補助線の色または形状により、車両が所定時間後に到達する位置を、段階的かつ速やかに認識することができる。したがって、危険性の度合いを速やかに認識することができる。また、対象物が、たとえば予測された車両の進路内に存在して表示装置上に強調表示される場合には、該対象物と補助線との位置関係を瞬時に理解できるので、該対象物に対する衝突の危険性の度合いを、速やかに認識することができる。   According to the present invention, since the auxiliary line is displayed for each arrival time of the vehicle, the driver can recognize the position where the vehicle reaches after a predetermined time stepwise and quickly by the color or shape of the auxiliary line. Can do. Therefore, the degree of danger can be recognized quickly. In addition, for example, when the object is present in the predicted course of the vehicle and is highlighted on the display device, the positional relationship between the object and the auxiliary line can be instantly understood. It is possible to quickly recognize the degree of danger of a collision with respect to.

この発明の一実施形態によると、前記複数の補助線のうち、前記検出された対象物に最も近い補助線を特定し、該対象物に対する前記強調表示の色および形状の少なくとも一方を、該特定した補助線の色および形状の少なくとも一方と相関を持たせるように表示する。   According to an embodiment of the present invention, among the plurality of auxiliary lines, an auxiliary line closest to the detected object is specified, and at least one of the highlight color and shape for the object is specified. Displayed so as to correlate with at least one of the color and shape of the auxiliary line.

このような相関を持たせることにより、運転者は、対象物が、どの程度危険な位置に存在するかを瞬時に把握することができる。たとえば、t秒後の到達時間に対応する補助線と相関を持つように対象物が表示された場合には、運転者は、t秒後に該対象物に到達する危険があることを速やかに認識することができる。   By giving such a correlation, the driver can instantly grasp how dangerous the target object is. For example, when an object is displayed so as to correlate with an auxiliary line corresponding to the arrival time after t seconds, the driver quickly recognizes that there is a risk of reaching the object after t seconds. can do.

この発明の一実施形態によると、前記車両の進路を予測する手段を備え、前記対象物が、該予測した進路に存在しない場合には、該対象物に対する強調表示の強調度合いを低減する。こうして、車両の進路に存在せず、危険性が低い対象物については、強調度合いを低減することにより、運転者に、危険性は低いものの対象物が存在していることを知らせることができる。   According to one embodiment of the present invention, the vehicle is provided with means for predicting the course of the vehicle, and when the object does not exist on the predicted path, the degree of emphasis on the object is reduced. In this way, by reducing the degree of emphasis on an object that is not present in the course of the vehicle and has a low risk, the driver can be informed that an object having a low risk is present.

本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。   Other features and advantages of the present invention will be apparent from the detailed description that follows.

この発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図。The block diagram which shows the structure of the vehicle periphery monitoring apparatus according to one Example of this invention. この発明の一実施例に従う、表示装置およびカメラの取り付け位置を示す図。The figure which shows the attachment position of a display apparatus and a camera according to one Example of this invention. この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。3 is a flowchart illustrating a process in an image processing unit according to an embodiment of the present invention. この発明の一実施例に従う、車両の到達時間ごとの補助線の表示の一例を示す図。The figure which shows an example of the display of the auxiliary line for every arrival time of the vehicle according to one Example of this invention. この発明の一実施例に従う、対象物検出処理のプロセスを示すフローチャート。The flowchart which shows the process of the target object detection process according to one Example of this invention.

次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、ナビゲーション装置の表示装置を利用した、車両の周辺監視装置の構成を示すブロック図であり、図2は、表示装置とカメラの車両への取り付けを示す図である。   Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device using a display device of a navigation device according to an embodiment of the present invention, and FIG. 2 shows attachment of the display device and a camera to the vehicle. FIG.

車両には、ナビゲーション装置が搭載されており、該ナビゲーション装置は、ナビゲーションユニット5と、表示装置4とを備えている。表示装置4は、図2の(a)に示すように、車両のハンドル(ステアリング・ホイール)21の中心を通り、かつ車両の前後方向に伸長する線L1(図には、わかりやすいよう図の垂直方向に伸長するよう示されている)に対して所定距離だけ離れた位置に、運転者が視認可能なように取り付けられている。この実施例では、表示装置4は、車両のダッシュボード23にはめこまれている。   A navigation device is mounted on the vehicle, and the navigation device includes a navigation unit 5 and a display device 4. As shown in FIG. 2A, the display device 4 passes through the center of the vehicle handle (steering wheel) 21 and extends in the front-rear direction of the vehicle. It is attached so as to be visible to the driver at a position separated by a predetermined distance with respect to (shown to extend in the direction). In this embodiment, the display device 4 is embedded in the dashboard 23 of the vehicle.

ナビゲーションユニット5は、中央処理装置(CPU)およびメモリを備えたコンピュータで実現される。ナビゲーションユニット5は、たとえば人工衛星を利用して車両10の位置を測定するためのGPS信号を、該ナビゲーションユニット5に備えられた通信装置(図示せず)を介して受信し、該GPS信号に基づいて、車両の現在位置を検出する。ナビゲーションユニット5は、車両の周辺の地図情報(これは、ナビゲーション装置の記憶装置に記憶されることもできるし、該通信装置を介して所定のサーバから受信することもできる)に、該現在位置を示す画像を重畳させて、表示装置4の表示画面25に表示する。また、表示装置4の表示画面25はタッチパネルを構成しており、該タッチパネルを介して、またはキーやボタン等の他の入力装置27を介して、乗員はナビゲーションユニット5に目的地を入力することができる。ナビゲーションユニット5は、該目的地までの車両の最適経路を算出し、該最適経路を示す画像を地図情報に重畳させて、表示装置4の表示画面25に表示することができる。   The navigation unit 5 is realized by a computer having a central processing unit (CPU) and a memory. The navigation unit 5 receives, for example, a GPS signal for measuring the position of the vehicle 10 using an artificial satellite via a communication device (not shown) provided in the navigation unit 5, and receives the GPS signal. Based on this, the current position of the vehicle is detected. The navigation unit 5 stores the current position in the map information around the vehicle (which can be stored in a storage device of the navigation device or can be received from a predetermined server via the communication device). Is displayed on the display screen 25 of the display device 4. The display screen 25 of the display device 4 constitutes a touch panel, and the occupant inputs the destination to the navigation unit 5 via the touch panel or another input device 27 such as a key or a button. Can do. The navigation unit 5 can calculate the optimal route of the vehicle to the destination, superimpose an image showing the optimal route on the map information, and display it on the display screen 25 of the display device 4.

また、ナビゲーションユニット5には、スピーカ3が接続されており、必要に応じて、たとえば一時停止や交差点等の経路案内を行う際に、表示装置4上への表示だけでなく、スピーカ3を介して音または音声によって乗員に知らせることができる。なお、最近のナビゲーション装置には、交通情報の提供や車両近傍の施設案内等、他にも様々な機能が搭載されており、この実施形態では、任意の適切なナビゲーション装置を利用することができる。   Further, a speaker 3 is connected to the navigation unit 5 and, when necessary, for example, when performing route guidance such as a pause or an intersection, not only the display on the display device 4 but also the speaker 3 is used. The passenger can be notified by sound or voice. Note that recent navigation devices are equipped with various other functions such as providing traffic information and facility guidance in the vicinity of the vehicle. In this embodiment, any appropriate navigation device can be used. .

車両の周辺監視装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって撮像された画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、を備えている。画像処理ユニット2は、表示装置4およびスピーカ3に接続されている。表示装置4は、カメラ1Rまたは1Lの撮像を介して得られた画像を表示すると共に、該画像から検出された車両周辺の対象物の存在について警報表示を行うのに利用される。また、スピーカ3は、該対象物の検出結果に基づいて音または音声で警報を発行するのに利用される。   The vehicle periphery monitoring device is mounted on a vehicle and is used to detect objects around the vehicle based on two infrared cameras 1R and 1L capable of detecting far infrared rays and image data captured by the cameras 1R and 1L. And an image processing unit 2. The image processing unit 2 is connected to the display device 4 and the speaker 3. The display device 4 is used to display an image obtained through imaging by the camera 1R or 1L and to display an alarm about the presence of an object around the vehicle detected from the image. The speaker 3 is used to issue an alarm by sound or voice based on the detection result of the object.

この実施例では、図2の(b)に示すように、カメラ1Rおよび1Lは、車両10の前方を撮像するよう、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。   In this embodiment, as shown in FIG. 2B, the cameras 1R and 1L are symmetrical with respect to the central axis passing through the center of the vehicle width at the front portion of the vehicle 10 so as to image the front of the vehicle 10. It is arranged in the position. The two cameras 1R and 1L are fixed to the vehicle so that their optical axes are parallel to each other and their height from the road surface is equal. The infrared cameras 1R and 1L have a characteristic that the level of the output signal becomes higher (that is, the luminance in the captured image becomes higher) as the temperature of the object is higher.

画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号および表示装置4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。   The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a central processing unit (CPU) that performs various arithmetic processing, and a data RAM (Random Access Memory) used to store data, ROM (Read Only Memory) that stores programs to be executed by the CPU and data to be used (including tables and maps), driving signals for the speaker 3, and display for the display device 4 An output circuit for outputting signals and the like is provided. The output signals of the cameras 1R and 1L are converted into digital signals and input to the CPU.

走行状態検出部7は、車両の速度を検出するセンサを含む。車両の速度を検出するためのセンサは、いわゆる車速センサでもよいし、代替的に、加速度センサや車輪速センサでもよい。さらに、この実施形態では、走行状態検出部7は、車両の進路を予測するのに用いられる他の走行状態を検出するためのセンサを含む。一実施形態では、車両のヨーレートを検出するためのヨーレートセンサや、車両の操舵角を検出するための舵角センサを含むことができる。   The traveling state detection unit 7 includes a sensor that detects the speed of the vehicle. The sensor for detecting the speed of the vehicle may be a so-called vehicle speed sensor, or may alternatively be an acceleration sensor or a wheel speed sensor. Furthermore, in this embodiment, the traveling state detection unit 7 includes a sensor for detecting another traveling state used for predicting the course of the vehicle. In one embodiment, a yaw rate sensor for detecting the yaw rate of the vehicle and a rudder angle sensor for detecting the steering angle of the vehicle can be included.

走行状態検出部7によって検出された車両の走行状態を示すデータは、画像処理ユニット2に送られる。画像処理ユニット2は、検出された該走行状態に基づいて、車両の進路を予測すると共に、カメラ1R、1Lによって撮像され表示装置4上に表示される画像上の該予測進路の領域に、運転者に危険性の度合いを知らせるための補助線の表示を行う。   Data indicating the traveling state of the vehicle detected by the traveling state detection unit 7 is sent to the image processing unit 2. The image processing unit 2 predicts the course of the vehicle on the basis of the detected traveling state, and drives the region of the predicted course on the image captured by the cameras 1R and 1L and displayed on the display device 4. An auxiliary line is displayed to inform the person of the degree of danger.

このように、この実施例では、ナビゲーション装置の表示装置4を、カメラ1Rおよび1Lによる撮像を介して得られた画像の表示、および該画像から検出された所定の対象物の存在を運転者に通知(警報)するための表示に利用する。 前述したように、フロントウィンドウ上の、運転者の前方位置に画面が表示されるように設けられたヘッドアップディスプレイ(HUD)と異なり、表示装置4は、ハンドル21から、車幅方向に所定距離だけ離れた位置に設けられているので、HUDに比べて、運転者が運転中に表示装置4の画面を視認するには水平方向に視線を移動させる必要がある。したがって、より短時間で、運転者に危険性の度合いを認識させることのできる表示を行うのが好ましい。本願発明は、これを、補助線の表示によって実現するものであり、この具体的な手法を、以下に述べる。   Thus, in this embodiment, the display device 4 of the navigation device is used to display to the driver the display of an image obtained through imaging by the cameras 1R and 1L and the presence of a predetermined object detected from the image. Used for display for notification (alarm). As described above, unlike the head-up display (HUD) provided so that the screen is displayed in front of the driver on the front window, the display device 4 is a predetermined distance from the handle 21 in the vehicle width direction. Therefore, it is necessary to move the line of sight in the horizontal direction in order for the driver to visually recognize the screen of the display device 4 during driving as compared with the HUD. Therefore, it is preferable to perform display that allows the driver to recognize the degree of danger in a shorter time. The present invention realizes this by displaying auxiliary lines, and a specific method will be described below.

図3は、この発明の一実施形態に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。   FIG. 3 is a flowchart illustrating a process performed by the image processing unit 2 according to one embodiment of the present invention. The process is performed at predetermined time intervals.

ステップS11で、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像であり、これが、表示装置4上に表示される画像(表示画像)となる。   In step S11, output signals of the cameras 1R and 1L (that is, captured image data) are received as input, A / D converted, and stored in the image memory. The stored image data is a grayscale image including luminance information, and this is an image (display image) displayed on the display device 4.

ステップS12において、走行状態検出部7によって検出された車両の走行状態に基づいて、車両の進路を予測する。該進路の予測手法には、任意の適切な手法を用いることができる。一実施形態では、検出された車速およびヨーレートに基づいて、車両の進路を予測することができる。たとえば、特開平7−104062号公報に記載された手法を用いることができる。ヨーレートに代えて、舵角センサによって検出された操舵角を用いてもよい。車速と操舵角に基づいて車両の進路を予測する手法は、たとえば特開2009−16663号公報に記載されている。   In step S12, the course of the vehicle is predicted based on the running state of the vehicle detected by the running state detection unit 7. Any appropriate method can be used as the route prediction method. In one embodiment, the course of the vehicle can be predicted based on the detected vehicle speed and yaw rate. For example, the technique described in Japanese Patent Laid-Open No. 7-104062 can be used. Instead of the yaw rate, the steering angle detected by the steering angle sensor may be used. A method for predicting the course of the vehicle based on the vehicle speed and the steering angle is described in, for example, Japanese Patent Application Laid-Open No. 2009-16663.

なお、進路の予測に、ナビゲーションユニット5によって取得される情報を用いてもよい。たとえば、車両が現在の進行方向を維持すると仮定して、車両の現在位置から進路となる経路を、地図情報に基づいて求める。たとえば、或る道路を走行している車両の場合、該道路を”道なり”に進行する経路が、予測された進路となる。あるいは、ナビゲーションユニット5によって算出された最適経路に沿って車両が誘導されている場合には、該最適経路を、予測進路としてもよい。   In addition, you may use the information acquired by the navigation unit 5 for the course prediction. For example, assuming that the vehicle maintains the current traveling direction, a route that becomes a course from the current position of the vehicle is obtained based on the map information. For example, in the case of a vehicle traveling on a certain road, a route that travels along the road “in a road” is the predicted route. Alternatively, when the vehicle is guided along the optimum route calculated by the navigation unit 5, the optimum route may be used as the predicted route.

ステップS13において、走行状態検出部7によって検出された車両の速度に基づいて、車両の所定の予想到達時間TTCに対応する位置を算出する。この実施形態では、予想到達時間TTC(秒)として、第1のTTC時間、第2のTTC時間、第3のTTC時間という3つの値を用いる。ここで、第1のTTC時間>第2のTTC時間>第3のTTC時間の関係にある。予想到達時間TTCが第1のTTC時間である場合の対応位置(第1のTTC位置と呼ぶ)は、車両が、検出された現在の速度で、上記の予測された進路を現時点から、第1のTTC時間にわたって走行した場合に該車両が到達する位置を示す。したがって、車両の現在の速度をVとし、第1のTTC時間をt1秒とすると、車両の現在位置から、V×t1により算出された距離だけ予測進路を進んだ位置が、第1のTTC位置として特定される。第2のTTC時間に対応する第2のTTC位置、および第3のTTC時間に対応する第3のTTC位置についても同様である。結果として、車両からの距離は、第1のTTC位置>第2のTTC位置>第3のTTC位置となる。   In step S13, a position corresponding to a predetermined expected arrival time TTC of the vehicle is calculated based on the vehicle speed detected by the traveling state detection unit 7. In this embodiment, three values of the first TTC time, the second TTC time, and the third TTC time are used as the expected arrival time TTC (seconds). Here, the relationship is first TTC time> second TTC time> third TTC time. The corresponding position (referred to as the first TTC position) when the predicted arrival time TTC is the first TTC time is the first position that the vehicle has detected at the current speed detected from the current predicted route. When the vehicle travels over the TTC time, the position where the vehicle reaches is shown. Therefore, if the current speed of the vehicle is V and the first TTC time is t1 seconds, the position that has traveled the predicted course from the current position of the vehicle by the distance calculated by V × t1 is the first TTC position. Identified as The same applies to the second TTC position corresponding to the second TTC time and the third TTC position corresponding to the third TTC time. As a result, the distance from the vehicle is first TTC position> second TTC position> third TTC position.

好ましくは、第3のTTC位置の車両からの距離が、現時点で所定の減速度のブレーキ操作により停止可能な距離となるように、第3のTTC時間を決定する。たとえば、ブレーキの所定の減速度(正値で表す)をGとすると、速度V/(2・G)が、車両の停止可能な最小の距離値となる。したがって、第3のTTC位置の車両からの距離が、当該距離値以上の値を有するように、第3のTTC時間を決定するのが好ましい。こうすることにより、第3のTTC位置に対象物が存在したことを認知したことに応じてブレーキ操作を行った場合でも、該対象物をより確実に回避することができる。 Preferably, the third TTC time is determined so that the distance from the vehicle at the third TTC position is a distance that can be stopped by a braking operation at a predetermined deceleration at the present time. For example, if the predetermined deceleration of the brake (represented by a positive value) is G, the speed V 2 / (2 · G) is the minimum distance value at which the vehicle can stop. Therefore, it is preferable to determine the third TTC time so that the distance from the vehicle at the third TTC position has a value equal to or greater than the distance value. By doing so, even when a brake operation is performed in response to recognizing that an object is present at the third TTC position, the object can be avoided more reliably.

ステップS14において、ステップS11で得られた表示画像上で、予測進路に対応する画像領域を見極め、該予測進路上の、第1〜第3のTTC位置に対応する画像上の位置に、所定のTTC表示を重畳し、該重畳した画像を、表示装置4上に表示する。ここで、第1〜第3のTTC位置に重畳表示されるTTC表示は、互いに、異なる色、および(または)異なる形状で表示される。   In step S14, on the display image obtained in step S11, an image region corresponding to the predicted course is identified, and a predetermined position is set on the predicted course on the image corresponding to the first to third TTC positions. The TTC display is superimposed and the superimposed image is displayed on the display device 4. Here, the TTC displays superimposed on the first to third TTC positions are displayed in different colors and / or different shapes.

ここで、図4(a)を参照すると、表示画像101上に重畳表示されたTTC表示の一例が示されている。前述したように、表示画像は、撮像を介して得られたグレースケール画像であり(なお、図では、見やすくするため、細かい輝度変化は示されていない)、該画像上で、ライン103と105で囲まれた領域が、予測された進路に対応する画像領域である。TTC表示は、該予測進路上に、補助線111〜113として重畳表示されており、第1の補助線111が、第1のTTC位置に対応し、第2の補助線112が、第2のTTC位置に対応し、第3の補助線113が、第3のTTC位置に対応している。   Here, with reference to FIG. 4A, an example of TTC display superimposed on the display image 101 is shown. As described above, the display image is a grayscale image obtained through imaging (note that fine luminance changes are not shown in the figure for easy viewing), and lines 103 and 105 are displayed on the image. A region surrounded by is an image region corresponding to the predicted course. The TTC display is superimposed and displayed as the auxiliary lines 111 to 113 on the predicted course, the first auxiliary line 111 corresponds to the first TTC position, and the second auxiliary line 112 is the second auxiliary line 112. Corresponding to the TTC position, the third auxiliary line 113 corresponds to the third TTC position.

この実施例では、これらの補助線は、互いに異なる色で表示されており(図には、ハッチングの異なる種類によって示されている)、たとえば、第1の補助線は緑ないし青色で表示され、第2の補助線112は、黄色で表示され、第3の補助線113は、赤色で表示される。こうして、信号機と同様に、最も危険性の高い第3のTTC位置に対しては赤色表示が行われ、最も危険性の低い第1のTTC位置に対しては緑または青色表示が行われる。このような色表示とすることにより、運転者に、第1から第3の補助線に向かうにつれて危険性が高いことを速やかに知らせることができ、また、危険性が高、中、低の位置が、車両からどの程度の場所に存在するかを、運転者に実感させることができる。   In this embodiment, these auxiliary lines are displayed in different colors (indicated by different types of hatching in the figure), for example, the first auxiliary line is displayed in green or blue, The second auxiliary line 112 is displayed in yellow, and the third auxiliary line 113 is displayed in red. Thus, as with the traffic light, the red display is performed for the third TTC position with the highest risk, and the green or blue display is performed for the first TTC position with the lowest risk. By using such color display, it is possible to promptly inform the driver that the risk is high as it goes from the first auxiliary line to the third auxiliary line, and the position where the risk is high, medium, and low. However, it is possible to make the driver feel how much the vehicle is located from the vehicle.

この例では、第1〜第3の補助線111〜113は、互いに異なる色で表示されるが、代替的に、または該色の相違に加え、互いに異なる形状で表示してもよい。たとえば、第1のTTC位置に表示される第1の補助線111を、最も細い線で表示し、第3のTTC位置に表示される第3の補助線113を、最も太い線で表示し、第2のTTC位置に表示される補助線112を、その中間の太さの線で表示することができる。こうして運転者は、色または形状の違いにより、危険性の度合いを瞬時に把握することができる。また、対象物が撮像されている場合には、該対象物と補助線との位置関係から、該対象物の危険性の度合いを瞬時に理解することができる。したがって、運転者が、対象物がどの辺りに存在するかを見極めようとして表示装置4上に視線を釘付けにするのを回避することができる。   In this example, the first to third auxiliary lines 111 to 113 are displayed in different colors, but alternatively or in addition to the differences in color, they may be displayed in different shapes. For example, the first auxiliary line 111 displayed at the first TTC position is displayed as the thinnest line, the third auxiliary line 113 displayed at the third TTC position is displayed as the thickest line, The auxiliary line 112 displayed at the second TTC position can be displayed as a line having an intermediate thickness. Thus, the driver can instantly grasp the degree of danger from the difference in color or shape. Further, when the object is imaged, the degree of danger of the object can be instantly understood from the positional relationship between the object and the auxiliary line. Therefore, it is possible to avoid the driver from nailing the line of sight on the display device 4 in order to determine where the object is present.

図3に戻り、ステップS21以下において、撮像画像から検出された所定の対象物(この処理は、図5を参照して後述される)についての警報表示に関する処理が行われる。ステップS21では、該検出された所定の対象物が、予測された進路内に存在するかどうかを判断する。存在するならば(S21がYes)、ステップS22において、該対象物までの予想到達時間TTCを算出する。具体的には、該対象物までの自車両からの距離と、該車両の該対象物に対する相対速度に基づいて、該予想到達時間TTC(=距離/相対速度)を算出することができる。一実施形態では、車両の進路を横切る対象物を想定し、該相対速度に、自車両の速度Vを設定することができる。代替的に、対象物を時間的に追跡して、対象物の車両に対する相対速度を算出するようにしてもよく、この具体的な手法は、たとえば特開2001−6096号公報に記載されている。   Returning to FIG. 3, in step S <b> 21 and subsequent steps, processing related to alarm display is performed for a predetermined object detected from the captured image (this processing will be described later with reference to FIG. 5). In step S21, it is determined whether or not the detected predetermined object exists in the predicted course. If it exists (Yes in S21), an expected arrival time TTC to the object is calculated in step S22. Specifically, the expected arrival time TTC (= distance / relative speed) can be calculated based on the distance from the host vehicle to the object and the relative speed of the vehicle with respect to the object. In one embodiment, it is possible to set the speed V of the host vehicle as the relative speed assuming an object that crosses the course of the vehicle. Alternatively, the object may be tracked in time to calculate the relative speed of the object with respect to the vehicle. This specific method is described in, for example, Japanese Patent Application Laid-Open No. 2001-6096. .

ステップS23において、第1〜第3のTTC時間のうち、該対象物について算出された予想到達時間TTCに最も近いTTC時間を選択し、該選択したTTC時間に対応するTTC位置を特定する。こうして、対象物までの予想到達時間TTCと、第1〜第3のTTC時間を互いに比較することにより、対象物が存在している位置が、どの程度の危険性を有するかを判断することができる。代替的に、第1〜第3のTTC位置のうち、対象物の車両からの現在の距離に最も近いTTC位置を選択するようにしてもよい。   In step S23, a TTC time closest to the expected arrival time TTC calculated for the object is selected from the first to third TTC times, and a TTC position corresponding to the selected TTC time is specified. Thus, by comparing the estimated arrival time TTC to the object and the first to third TTC times with each other, it is possible to determine how dangerous the position where the object exists is. it can. Alternatively, the TTC position closest to the current distance of the object from the vehicle may be selected from the first to third TTC positions.

ステップS24において、ステップS23で特定されたTTC位置における上記のTTC表示と相関を持たせて、表示画像上の該対象物に対する強調表示を行う。   In step S24, the object on the display image is highlighted with a correlation with the TTC display at the TTC position specified in step S23.

ここで、図4(b)を参照すると、図4(a)のような表示画像101に対し、対象物の強調表示が行われた場合の一例が示されている。この例では、前述したように、第1のTTC位置には、緑または青色の第1の補助線111が表示される。したがって、対象物の予想到達時間TTCに最も近いTTC時間に対応するTTC位置が第1のTTC位置であると特定されたならば、符号131に示すように、該対象物を緑または青色で表示する。同様に、対象物の予想到達時間TTCに最も近いTTC時間に対応するTTC位置が第2のTTC位置であると特定されたならば、符号132に示すように、該対象物を黄色で表示する。対象物の予想到達時間TTCに最も近いTTC時間に対応するTTC位置が第3のTTC位置であると特定されたならば、符号133に示すように、該対象物を赤色で表示する。   Here, with reference to FIG. 4B, an example in which an object is highlighted on the display image 101 as shown in FIG. 4A is shown. In this example, as described above, the first auxiliary line 111 of green or blue is displayed at the first TTC position. Therefore, if the TTC position corresponding to the TTC time closest to the predicted arrival time TTC of the object is specified as the first TTC position, the object is displayed in green or blue as indicated by reference numeral 131. To do. Similarly, if the TTC position corresponding to the TTC time closest to the expected arrival time TTC of the object is specified as the second TTC position, the object is displayed in yellow as indicated by reference numeral 132. . If the TTC position corresponding to the TTC time closest to the expected arrival time TTC of the target object is specified as the third TTC position, the target object is displayed in red as indicated by reference numeral 133.

なお、対象物を所定の色で表示する手法は、たとえば、対象物として抽出された領域の画素の色を、該所定の色に変換して表示してもよいし、該所定の色の人間を模したアイコン画像を、該対象物として抽出された領域上に重畳表示させてもよい。こうして、対象物は、最も近いと判定されたTTC位置の色と相関を持つように表示される。   The method for displaying the target object in a predetermined color may be, for example, converting the color of the pixel in the region extracted as the target object into the predetermined color for display, or the human of the predetermined color. An icon image simulating the above may be superimposed on the area extracted as the object. Thus, the object is displayed so as to correlate with the color of the TTC position determined to be the closest.

上記のように、対象物を、各TTC位置に応じた色で表示することに代えて、該対象物を囲むように強調枠を表示し、該強調枠の色を、各TTC位置に応じた色としてもよい。   As described above, instead of displaying the object in a color corresponding to each TTC position, an emphasis frame is displayed so as to surround the object, and the color of the emphasis frame is determined according to each TTC position. It is good also as a color.

また、第1〜第3の補助線111〜113の形状が互いに異なる場合には、対象物を、上記のように特定された最も近いTTC位置の形状と相関を持つように表示してもよい。たとえば、それぞれの補助線に、互いに異なるマークを付して表示する。そして、最も近いと判定されたTTC位置に付されたマークと同じマークを、その対象物にも付して表示する。このようにすることにより、互いに関連していることをマークで表すことができる。   When the shapes of the first to third auxiliary lines 111 to 113 are different from each other, the object may be displayed so as to have a correlation with the shape of the nearest TTC position specified as described above. . For example, each auxiliary line is displayed with a different mark. Then, the same mark as the mark attached to the TTC position determined to be the closest is attached to the object and displayed. By doing in this way, it can represent with a mark that it is related mutually.

こうして、対象物を、対応するTTC位置と同様の表示形態となるよう表示させることにより、どの到達時間に関連した対象物が存在するかを、運転者は速やかに把握することができる。TTC位置が、危険の度合いに応じて段階的に表示されるので、対象物に対する危険性を、瞬時に見極めることができる。   Thus, by displaying the target object in a display form similar to the corresponding TTC position, the driver can quickly grasp which arrival time is related to the target object. Since the TTC position is displayed stepwise according to the degree of danger, the danger to the object can be instantly determined.

図3に戻り、ステップS25は、対象物が存在することを、上述したような強調表示による警報表示だけでなく、スピーカ3を介した警報音でも知らせるために設けられており、これは、任意の処理である。この警報音についても、TTC位置毎に異ならせることができる。たとえば、対象物が第1のTTC位置と相関するよう表示された場合には、1つの短い音(たとえば、ピッという音)を出力し、対象物が第2のTTC位置と相関するよう表示された場合には、2つの短い音(たとえば、ピッピッという音)を出力し、対象物が第3のTTC位置と相関するよう表示された場合には、1つの長い音(たとえば、ピーーッという音)を出力することができる。なお、複数の対象物が予測進路内に存在し、それぞれが異なるTTC位置と相関するよう表示された場合には、最も危険性の高いTTC位置用の警報音を出力すればよい。たとえば、図4の(b)に示すように、第1〜第3のTTC位置に相関して3人の歩行者131〜133が存在する場合には、最も危険性の度合いが大きい第3のTTC位置用の警報音を出力する。   Returning to FIG. 3, step S25 is provided not only for alarm display by highlighting as described above, but also for alarm sound through the speaker 3 as described above. It is processing of. This alarm sound can also be made different for each TTC position. For example, if the object is displayed to correlate with the first TTC position, one short sound (eg, a beep) is output and the object is displayed to correlate with the second TTC position. Two short sounds (eg, a beeping sound) are output, and one long sound (eg, a beeping sound) is displayed if the object is displayed to correlate with the third TTC position. Can be output. When a plurality of objects exist in the predicted course and are displayed so as to correlate with different TTC positions, an alarm sound for the TTC position with the highest risk may be output. For example, as shown in FIG. 4B, when there are three pedestrians 131 to 133 in correlation with the first to third TTC positions, the third risk level is the highest. Outputs an alarm sound for TTC position.

ステップS21に戻り、撮像画像から検出された所定の対象物が、予測された進路内に存在しなければ(S21がNo)、これは、該対象物が予測進路外に存在することを示す。この場合、ステップS26に進み、該対象物を、ステップS24での対象物に対する強調表示に比べて、強調度合いを低減した状態で表示する。一例では、該対象物には、何ら強調表示を施さないようにすることができる。他の例では、ステップS24の強調表示に比べて見分けにくい(識別しにくい)所定の色で該対象物を表示することができる。たとえば、ステップS24では、カラーを用いて強調表示を行ったが、ステップS26では、モノクロの色(たとえば、白と黒の間の中間色)で、該対象物を強調表示する。たとえば、所定のモノクロの色で、該対象物を表示してもよいし、該モノクロの色の枠で、該対象物を囲むようにしてもよい。ステップS24の強調表示と明瞭に区別するため、ステップS26では、第1〜第3のTTC位置に関連して用いた色とは異なる色を用いるのがよい。   Returning to step S21, if the predetermined object detected from the captured image does not exist in the predicted course (No in S21), this indicates that the object exists outside the predicted course. In this case, the process proceeds to step S26, and the object is displayed in a state in which the degree of emphasis is reduced as compared with the emphasis display on the object in step S24. In one example, the object may not be highlighted at all. In another example, the object can be displayed in a predetermined color that is harder to distinguish (difficult to identify) than the highlighting in step S24. For example, in step S24, highlighting is performed using color, but in step S26, the object is highlighted with a monochrome color (for example, an intermediate color between white and black). For example, the object may be displayed in a predetermined monochrome color, or the object may be surrounded by the monochrome color frame. In order to distinguish clearly from the highlighting in step S24, in step S26, a color different from the color used in connection with the first to third TTC positions may be used.

図4の(b)には、このような対象物の表示例も示されており、符号135に示す歩行者は、予測進路外に存在しているため、所定のグレー値に着色されて表示されている。こうして、予測された進路外にいる対象物については、危険性が低いため、単なる通知にとどめることができる。   FIG. 4B also shows a display example of such an object. Since the pedestrian indicated by reference numeral 135 exists outside the predicted course, it is displayed in a predetermined gray value. Has been. In this way, the object outside the predicted course has a low risk and can be merely a notification.

なお、当然ながら、撮像を介して取得された画像から所定の対象物が検出されなかった場合には、ステップS21以下の処理を実行することなく、補助線が表示された表示画像のみを表示装置4上に表示すればよい。   Of course, when a predetermined object is not detected from an image acquired through imaging, only the display image on which the auxiliary line is displayed is displayed without executing the processing in step S21 and the subsequent steps. 4 may be displayed.

図5は、撮像画像から対象物を検出するプロセスのフローチャートを示す。 ステップS31において、カメラ1Rで撮像された右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。この2値化処理により、たとえば生体のような所定の温度より高い対象物が、白領域として抽出される。輝度閾値ITHは、任意の適切な手法で決定されることができる。   FIG. 5 shows a flowchart of a process for detecting an object from a captured image. In step S31, the right image captured by the camera 1R is used as a reference image (alternatively, the left image may be used as a reference image), and the image signal is binarized. Specifically, a process of setting a region brighter than the luminance threshold value ITH to “1” (white) and a dark region to “0” (black) is performed. By this binarization processing, an object having a temperature higher than a predetermined temperature such as a living body is extracted as a white region. The luminance threshold value ITH can be determined by any appropriate technique.

ステップS32において、2値化した画像データを、ランレングスデータに変換する。具体的には、2値化により白となった領域について、各画素行の該白領域(ラインと呼ぶ)の開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで、ランレングスデータを表す。ここで、画像における垂直方向にy軸をとり、水平方向にx軸をとる。たとえば、y座標がy1である画素行における白領域が、(x1,y1)から(x3,y1)までのラインであるとすると、このラインは3画素からなるので、(x1,y1,3)というランレングスデータで表される。   In step S32, the binarized image data is converted into run-length data. Specifically, with respect to an area that has become white due to binarization, the coordinates of the start point (the leftmost pixel of each line) of the white area (referred to as a line) of each pixel row and the end point (each The run length data is represented by the length (expressed by the number of pixels) up to the pixel on the right end of the line. Here, the y-axis is taken in the vertical direction in the image, and the x-axis is taken in the horizontal direction. For example, if the white region in the pixel row whose y coordinate is y1 is a line from (x1, y1) to (x3, y1), this line consists of three pixels, so (x1, y1, 3) This is represented by run-length data.

ステップS33およびS34において、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを合わせて1つの対象物とみなし、これにラベルを付与する。こうして、1または複数の対象物が抽出される。   In steps S33 and S34, the object is labeled and a process of extracting the object is performed. That is, of the lines converted into run length data, a line having a portion overlapping in the y direction is regarded as one object, and a label is given thereto. Thus, one or a plurality of objects are extracted.

ステップS35において、こうして抽出された対象物のそれぞれについて、注意すべき所定の対象物か否かを判定する。この実施形態では、該注意すべき所定の対象物は、歩行者であり、該歩行者に加えて動物を含めてもよい。ここで、対象物が歩行者か動物かを判定する処理は、任意の適切な手法で実現されることができる。たとえば、周知のパターンマッチングを利用し、上記のように抽出された対象物と、歩行者を表す所定のパターンとの類似度を算出し、該類似度が高ければ、歩行者であると判定することができる。動物についても、同様に判定することができる。このような判定処理の例示として、歩行者かどうかを判定する処理は、たとえば特開2007−241740号公報、特開2007−334751号公報等に記載されている。動物かどうかを判定する処理は、たとえば特開2007−310705号公報、特開2007−310706号公報等に記載されている。   In step S35, it is determined whether each of the objects thus extracted is a predetermined object to be noted. In this embodiment, the predetermined object to be noted is a pedestrian, and may include animals in addition to the pedestrian. Here, the process of determining whether the object is a pedestrian or an animal can be realized by any appropriate technique. For example, using known pattern matching, the similarity between the object extracted as described above and a predetermined pattern representing a pedestrian is calculated, and if the similarity is high, the object is determined to be a pedestrian. be able to. An animal can be similarly determined. As an example of such determination processing, processing for determining whether or not a person is a pedestrian is described in, for example, Japanese Patent Application Laid-Open No. 2007-241740, Japanese Patent Application Laid-Open No. 2007-334751, and the like. The process for determining whether or not an animal is described in, for example, Japanese Patent Application Laid-Open Nos. 2007-310705 and 2007-310706.

こうして、歩行者(動物を含めてもよい)と判定された対象物について、図3のステップS21以下の処理が実行されることとなる。   In this way, the process after step S21 in FIG. 3 is executed for the object determined to be a pedestrian (which may include animals).

なお、車両から所定の距離の範囲内にある対象物について、上記のステップS24およびS26のような強調表示を行うようにしてもよい。この場合、該所定の距離は、上記の第1のTTC位置の距離以上を有するように設定されるのがよい。たとえば、第1のTTC時間がt1秒とすると、“t2(≧t1)×車両の速度V”により算出される値を、該所定の距離とすることができる。図5のステップS35では、ステップS34で抽出された対象物のうち、該所定の距離の範囲内に対する対象物について判定を行い、その結果、歩行者(動物を含めてもよい)と判定された対象物について、図3のステップS21以下の処理を実行すればよい。   Note that highlighting as in steps S24 and S26 described above may be performed on an object within a predetermined distance from the vehicle. In this case, it is preferable that the predetermined distance is set to be equal to or greater than the distance of the first TTC position. For example, when the first TTC time is t1 seconds, a value calculated by “t2 (≧ t1) × vehicle speed V” can be set as the predetermined distance. In step S35 of FIG. 5, among the objects extracted in step S34, the object within the predetermined distance range is determined, and as a result, it is determined that the object is a pedestrian (may include an animal). What is necessary is just to perform the process after step S21 of FIG. 3 about a target object.

上記の実施形態では、ナビゲーション装置に備えられた表示装置を用いている。上記に述べたように、本願発明では、車両の到達時間毎に異なる色または形状の補助線を表示するので、運転者による視線移動が必要な該表示装置を用いても、危険性の度合いを速やかに運転者に認識させることができる。しかしながら、表示装置として、前述したようなHUDを用いてもよい。   In the above embodiment, the display device provided in the navigation device is used. As described above, according to the present invention, an auxiliary line with a different color or shape is displayed for each arrival time of the vehicle, so even if the display device that requires the driver to move the line of sight is used, the degree of risk is reduced The driver can be promptly recognized. However, the HUD as described above may be used as the display device.

さらに、上記の実施形態では、遠赤外線カメラを用いているが、本願発明は、他のカメラ(たとえば、可視カメラ)にも適用可能である。   Furthermore, although the far-infrared camera is used in the above embodiment, the present invention is applicable to other cameras (for example, a visible camera).

以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。   As described above, specific embodiments of the present invention have been described. However, the present invention is not limited to these embodiments.

1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 表示装置
1R, 1L infrared camera (imaging means)
2 Image processing unit 3 Speaker 4 Display device

Claims (3)

車両の周辺を撮像する撮像装置によって取得された画像に基づいて、車両の周辺の所定の対象物を検出する手段と、前記撮像画像に基づいて生成される表示画像を、車両の乗員が視認可能なように表示装置上に表示するとともに、前記対象物が該車両に対して所定の位置関係にある場合に、該表示画像上の該対象物に対し強調表示を行う表示手段と、車両の速度を検出する手段と、を有する車両の周辺監視装置であって、
前記表示手段は、さらに、前記表示画像上に、前記車速に基づいて算出される異なる予想到達時間に応じた複数の補助線を表示するとともに、それぞれの該補助線の色および形状の少なくとも一方を異ならせ、
前記複数の補助線には、現時点で所定の減速度のブレーキ操作を行ったときに車両停止までに要する時間を前記予想到達時間として用いて決定される補助線が含まれる、
車両の周辺監視装置。
A vehicle occupant can visually recognize a means for detecting a predetermined object around the vehicle based on an image acquired by an imaging device that images the periphery of the vehicle and a display image generated based on the captured image. Display means for highlighting the object on the display image when the object is in a predetermined positional relationship with the vehicle, and the speed of the vehicle A vehicle periphery monitoring device comprising:
The display means further displays, on the display image, a plurality of auxiliary lines corresponding to different expected arrival times calculated based on the vehicle speed, and displays at least one of the color and shape of each auxiliary line. Different ,
The plurality of auxiliary lines include auxiliary lines that are determined using the time required to stop the vehicle when the brake operation at a predetermined deceleration is performed as the predicted arrival time at the present time.
Vehicle periphery monitoring device.
前記表示手段は、前記複数の補助線のうち、前記検出された対象物に最も近い補助線を特定し、該対象物に対する前記強調表示の色および形状の少なくとも一方を、該特定した補助線の色および形状の少なくとも一方と相関を持たせるように表示する、
請求項1に記載の車両の周辺監視装置。
The display means identifies an auxiliary line that is closest to the detected object among the plurality of auxiliary lines, and at least one of a color and a shape of the highlight for the object is determined by the identified auxiliary line. Display in correlation with at least one of color and shape,
The vehicle periphery monitoring apparatus according to claim 1.
さらに、前記車両の進路を予測する手段を備え、
前記表示手段は、前記対象物が、該予測した進路に存在しない場合には、該対象物に対する強調表示の強調度合いを低減して表示する、
請求項1または2に記載の車両の周辺監視装置。
And a means for predicting the course of the vehicle,
The display means displays the object with a reduced emphasis degree when the object does not exist in the predicted course;
The vehicle periphery monitoring device according to claim 1 or 2.
JP2010055567A 2010-03-12 2010-03-12 Vehicle periphery monitoring device Expired - Fee Related JP5192007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010055567A JP5192007B2 (en) 2010-03-12 2010-03-12 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010055567A JP5192007B2 (en) 2010-03-12 2010-03-12 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011191859A JP2011191859A (en) 2011-09-29
JP5192007B2 true JP5192007B2 (en) 2013-05-08

Family

ID=44796735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010055567A Expired - Fee Related JP5192007B2 (en) 2010-03-12 2010-03-12 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5192007B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5942979B2 (en) * 2013-12-27 2016-06-29 トヨタ自動車株式会社 Vehicle information display device and vehicle information display method
JP5870993B2 (en) * 2013-12-27 2016-03-01 トヨタ自動車株式会社 Vehicle information display device and vehicle information display method
JP6595219B2 (en) * 2015-06-08 2019-10-23 株式会社デンソーテン Object notification device and object notification method
JP6720729B2 (en) * 2016-06-28 2020-07-08 アイシン精機株式会社 Display controller
WO2018037779A1 (en) * 2016-08-24 2018-03-01 日立オートモティブシステムズ株式会社 Announcement device for recognition control target vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3626613B2 (en) * 1998-11-13 2005-03-09 日産車体株式会社 Obstacle detection display
JP4528283B2 (en) * 2006-06-05 2010-08-18 本田技研工業株式会社 Vehicle periphery monitoring device
JP5070809B2 (en) * 2006-11-10 2012-11-14 アイシン精機株式会社 Driving support device, driving support method, and program
JP2009040107A (en) * 2007-08-06 2009-02-26 Denso Corp Image display control device and image display control system

Also Published As

Publication number Publication date
JP2011191859A (en) 2011-09-29

Similar Documents

Publication Publication Date Title
JP5706874B2 (en) Vehicle periphery monitoring device
JP5503728B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
EP2759999B1 (en) Apparatus for monitoring surroundings of vehicle
JP5639283B2 (en) Vehicle periphery monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
JP5689872B2 (en) Vehicle periphery monitoring device
JP4173896B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2008027309A (en) Collision determination system and collision determination method
JP2010258705A (en) Vehicle surrounding monitoring device
JP5898001B2 (en) Vehicle periphery monitoring device
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP5192007B2 (en) Vehicle periphery monitoring device
JP5003473B2 (en) Warning device
JP5292047B2 (en) Vehicle periphery monitoring device
JP5192009B2 (en) Vehicle periphery monitoring device
JP4823753B2 (en) Vehicle periphery monitoring device
JP2010191666A (en) Vehicle periphery monitoring apparatus
JP4629638B2 (en) Vehicle periphery monitoring device
JP4884806B2 (en) Vehicle perimeter monitoring system
JP2009110065A (en) Driving support device
JP2022133849A (en) Display control device, display control method, and program
JP2022133850A (en) Display control device, display control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees