JP2010191793A - Alarm display and alarm display method - Google Patents

Alarm display and alarm display method Download PDF

Info

Publication number
JP2010191793A
JP2010191793A JP2009036764A JP2009036764A JP2010191793A JP 2010191793 A JP2010191793 A JP 2010191793A JP 2009036764 A JP2009036764 A JP 2009036764A JP 2009036764 A JP2009036764 A JP 2009036764A JP 2010191793 A JP2010191793 A JP 2010191793A
Authority
JP
Japan
Prior art keywords
driver
dangerous object
image
warning
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009036764A
Other languages
Japanese (ja)
Inventor
Ikuro Sato
育郎 佐藤
Widodo Ari
ウィドド アリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2009036764A priority Critical patent/JP2010191793A/en
Publication of JP2010191793A publication Critical patent/JP2010191793A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an alarm display and an alarm display method, capable of alarming a driver about the existence of an object having a risk of colliding with a vehicle in which the driver drives, and capable of releasing the alarm after confirming that the driver recognizes the object. <P>SOLUTION: The alarm display includes: a first imaging part (2) for acquiring a surrounding image obtained by photographing the surroundings of the vehicle (10); a dangerous object detecting part (531) for detecting a dangerous object having a risk of colliding with the vehicle (10) from the surrounding image; an alarm image generating part (532) for generating an alarm image which highlights the dangerous object detected on the surrounding image by the dangerous object detecting part (531); a displaying part (3) for displaying the alarm image; and a confirmation determining part (533) for determining whether or not the driver of the vehicle (10) confirms the dangerous object while the alarm image is displayed on the displaying part (3). The displaying part (3) stops the display of the alarm image after the confirmation determining part (533) determines that the driver confirms the dangerous object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、警告表示装置及び警告表示方法に関し、特に、車両の運転者に対して、車両に衝突する可能性のある物体の存在を警告する警告表示装置及び警告表示方法に関する。   The present invention relates to a warning display device and a warning display method, and more particularly to a warning display device and a warning display method that warn a vehicle driver of the presence of an object that may collide with a vehicle.

近年、衝突事故の発生を予防するために、車両と衝突する危険性のある物体を検知し、その検知結果に基づいて、車両の運転者に対して警告を行う警告表示装置が研究されている(例えば、特許文献1を参照)。このような警告表示装置は、車両と衝突する危険性のある物体を検知したとき、その物体の存在を運転者に対して確実に知らせることが重要である。そこで、警告表示装置の一つである、特許文献1に開示された情報表示装置は、車両と接触する可能性のある物体を識別し、その危険度に応じて2種類の警告表示を行う。その情報表示装置は、危険度が所定の閾値よりも低い場合は、二次元の矢印を運転者に認識させることによって警告を行う。一方、危険度が所定の閾値よりも高い場合は、その情報表示装置は、運転者に向く三次元の矢印を運転者に認識させることによって警告を行う。   In recent years, in order to prevent the occurrence of a collision accident, a warning display device that detects an object that may collide with a vehicle and warns the driver of the vehicle based on the detection result has been studied. (For example, see Patent Document 1). When such an alarm display device detects an object that may collide with a vehicle, it is important to reliably notify the driver of the presence of the object. Therefore, the information display device disclosed in Patent Document 1 as one of the warning display devices identifies an object that may come into contact with the vehicle, and displays two types of warnings according to the degree of danger. When the degree of risk is lower than a predetermined threshold, the information display device warns the driver by recognizing a two-dimensional arrow. On the other hand, when the degree of danger is higher than a predetermined threshold, the information display device issues a warning by causing the driver to recognize a three-dimensional arrow that faces the driver.

特開2006−250934号公報JP 2006-250934 A

一方、警告表示装置が、運転者が一度認識した物体に関して警告を発し続けると、その警告は運転者にとって煩わしいものとなり、かえって運転者の運転への集中力を低下させる要因となり得る。そこで、警告表示装置に関して、衝突する危険性のある物体の存在を運転者に対して確実に知らせるような警告を行いつつ、適切なタイミングでその警告を解除する技術が求められていた。   On the other hand, if the warning display device continues to issue a warning regarding an object once recognized by the driver, the warning becomes troublesome for the driver, which may cause the driver's ability to concentrate on driving. In view of this, there has been a demand for a technique for canceling the warning at an appropriate timing, while giving a warning that surely informs the driver of the existence of an object that may collide.

そこで、本発明は、運転者が運転する車両と衝突する危険性のある物体の存在を運転者に対して警告し、適切なタイミングでその警告を解除できる警告表示装置及び警告表示方法を提供することを目的とする。   Therefore, the present invention provides a warning display device and a warning display method that warn a driver of the presence of an object that may collide with a vehicle driven by the driver and cancel the warning at an appropriate timing. For the purpose.

請求項1の記載によれば、本発明の一つの形態として、警告表示装置が提供される。係る警告表示装置は、車両(10)の周囲を撮影した周辺画像を取得する第1の撮像部(2)と、周辺画像から、車両(10)と衝突する危険性がある危険物体を検出する危険物体検出部(531)と、周辺画像上で危険物体検出部(531)により検出された危険物体を強調表示した第1の警告画像を生成する警告画像生成部(532)と、第1の警告画像を表示する表示部(3)と、表示部(3)に第1の警告画像が表示されている間、車両(10)の運転者が危険物体を確認したか否か判定する確認判定部(533)とを有する。そして表示部(3)は、確認判定部(533)により運転者が危険物体を確認したと判定された後、警告画像の表示を停止する。
本発明に係る警告表示装置は、上記の構成を有することにより、運転者が運転する車両と衝突する危険性のある物体の存在を運転者に対して警告し、適切なタイミングでその警告を解除できる。そのため、この警告表示装置は、衝突事故の発生を防止できるとともに、運転者の運転への集中力の低下を防止できる。
According to the first aspect of the present invention, a warning display device is provided as one aspect of the present invention. The warning display device detects a dangerous object that may collide with the vehicle (10) from the first imaging unit (2) that acquires a peripheral image obtained by photographing the periphery of the vehicle (10) and the peripheral image. A dangerous object detection unit (531), a warning image generation unit (532) for generating a first warning image highlighting the dangerous object detected by the dangerous object detection unit (531) on the peripheral image, and a first Display unit (3) for displaying a warning image, and confirmation determination for determining whether or not the driver of the vehicle (10) has confirmed a dangerous object while the first warning image is displayed on the display unit (3). Part (533). The display unit (3) stops displaying the warning image after it is determined by the confirmation determination unit (533) that the driver has confirmed the dangerous object.
The warning display device according to the present invention has the above-described configuration, warns the driver of the presence of an object that may collide with the vehicle that the driver drives, and cancels the warning at an appropriate timing. it can. Therefore, this warning display device can prevent the occurrence of a collision accident and can prevent the driver's ability to concentrate on driving from decreasing.

また請求項2の記載によれば、この警告表示装置は、運転者の顔を撮影するように設置された第2の撮像部(4)をさらに有し、確認判定部(533)は、表示部(3)に第1の警告画像が表示されている間、第2の撮像部(4)から取得した、運転者の顔を撮影した運転者画像から運転者の顔の向きを判定し、その顔の向きが表示部(3)を向いていると判定した場合、運転者が危険物体を確認したと判定することが好ましい。
このような構成を有することにより、この警告表示装置は、運転者が認識した危険物体に対する警告を自動的に解除できる。そのため、この警告表示装置は、運転者自身が警告を解除する操作をしなくてよいので、運転者の操作負担を軽減できる。
According to a second aspect of the present invention, the warning display device further includes a second imaging unit (4) installed so as to photograph the driver's face, and the confirmation determination unit (533) While the first warning image is displayed on the part (3), the direction of the driver's face is determined from the driver image obtained by photographing the driver's face acquired from the second imaging unit (4), When it is determined that the face is facing the display unit (3), it is preferable to determine that the driver has confirmed the dangerous object.
By having such a configuration, the warning display device can automatically cancel the warning for the dangerous object recognized by the driver. For this reason, this warning display device does not require the driver to perform an operation for canceling the warning, so the operation burden on the driver can be reduced.

あるいは請求項3の記載によれば、この警告表示装置は、車室内に設置された集音部をさらに有し、確認判定部(533)は、表示部(3)に第1の警告画像が表示されている間、集音部により集音された音声を解析し、予め設定された所定の言葉を検出した場合、運転者が危険物体を確認したと判定することが好ましい。
このような構成を有することにより、この警告表示装置は、運転者が危険物体を認識したことを示す発言をするだけで、その危険物体に対する警告を自動的に解除できる。そのため、この警告表示装置は、運転者自身が警告を解除する操作をしなくてよいので、運転者の操作負担を軽減できる。
Alternatively, according to the third aspect of the present invention, the warning display device further includes a sound collection unit installed in the vehicle interior, and the confirmation determination unit (533) displays the first warning image on the display unit (3). While being displayed, it is preferable to determine that the driver has confirmed the dangerous object when the sound collected by the sound collecting unit is analyzed and a predetermined word set in advance is detected.
By having such a configuration, the warning display device can automatically cancel the warning for the dangerous object only by making a statement indicating that the driver has recognized the dangerous object. For this reason, this warning display device does not require the driver to perform an operation for canceling the warning, so the operation burden on the driver can be reduced.

また請求項4の記載によれば、警告画像生成部(532)は、確認判定部(533)が車両(10)の運転者が危険物体を確認したと判定してから所定期間が経過するまでの間、第1の警告画像よりも危険物体の強調表示度合いが少ない第2の警告画像を生成し、表示部(3)は、確認判定部(533)が車両(10)の運転者が危険物体を確認したと判定してからその所定期間が経過するまでの間、第2の警告画像を表示することが好ましい。
このような構成を有することにより、この警告表示装置は、運転者が危険物体を確認した後、表示部に表示された画面が急激に変動することによる視覚的な負荷を軽減することができる。
According to the fourth aspect of the present invention, the warning image generation unit (532) determines that the confirmation determination unit (533) determines that the driver of the vehicle (10) has confirmed the dangerous object until a predetermined period elapses. During this time, a second warning image is generated that has a less dangerous object highlighting degree than the first warning image, and the display (3) has a confirmation / determination unit (533) that makes the driver of the vehicle (10) dangerous. It is preferable to display the second warning image from when it is determined that the object is confirmed until the predetermined period elapses.
By having such a configuration, the warning display device can reduce a visual load caused by a sudden change in the screen displayed on the display unit after the driver confirms the dangerous object.

また請求項5の記載によれば、本発明の他の形態として、警告表示方法が提供される。係る警告表示方法は、第1の撮像部(2)により撮影された、車両(10)の周囲を撮影した周辺画像を取得するステップと、周辺画像から、車両(10)と衝突する危険性がある危険物体を検出するステップと、周辺画像上で危険物体を強調表示した警告画像を生成するステップと、警告画像を表示部(3)に表示するステップと、表示部(3)に警告画像が表示されている間、車両(10)の運転者が危険物体を確認したか否か判定するステップと、運転者が危険物体を確認したと判定された後、表示部(3)上での警告画像の表示を停止するステップとを含む。
本発明に係る警告表示方法は、上記のステップを有することにより、運転者が運転する車両と衝突する危険性のある物体の存在を運転者に対して警告し、適切なタイミングでその警告を解除できる。そのため、この警告表示方法は、衝突事故の発生を防止できるとともに、運転者の運転への集中力の低下を防止できる。
According to the description of claim 5, a warning display method is provided as another embodiment of the present invention. According to the warning display method, there is a step of acquiring a peripheral image captured by the first imaging unit (2) and capturing the periphery of the vehicle (10), and there is a risk of collision with the vehicle (10) from the peripheral image. A step of detecting a dangerous object, a step of generating a warning image highlighting the dangerous object on the peripheral image, a step of displaying the warning image on the display unit (3), and a warning image on the display unit (3). While being displayed, the step of determining whether or not the driver of the vehicle (10) has confirmed the dangerous object, and the warning on the display unit (3) after determining that the driver has confirmed the dangerous object Stopping the display of the image.
The warning display method according to the present invention has the steps described above to warn the driver of the presence of an object that may collide with the vehicle that the driver drives, and cancel the warning at an appropriate timing. it can. For this reason, this warning display method can prevent the occurrence of a collision accident and also prevent the driver's ability to concentrate on driving from decreasing.

上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。   The reference numerals in parentheses attached to the above-described parts are examples that show the correspondence with specific means described in the embodiments described later.

本発明の一つの実施形態に係る警告表示装置の概略構成図である。1 is a schematic configuration diagram of a warning display device according to an embodiment of the present invention. 本発明の一つの実施形態に係る警告表示装置の制御部の機能ブロック図である。It is a functional block diagram of the control part of the warning display apparatus which concerns on one Embodiment of this invention. 運転者の顔向きを表す法線ベクトルとディスプレイとの関係を示す概略図である。It is the schematic which shows the relationship between the normal vector showing a driver | operator's face direction, and a display. 本発明の一つの実施形態に係る警告表示装置の制御部により制御される、警告表示及び警告解除処理の動作フローチャートである。It is an operation | movement flowchart of a warning display and warning cancellation process controlled by the control part of the warning display apparatus which concerns on one Embodiment of this invention.

以下、図を参照しつつ、一つの実施形態による、警告表示装置について説明する。
この警告表示装置は、車両の周囲を撮影するカメラから取得された画像から、車両と衝突する可能性があると推定される危険物体を検出する。そしてこの警告表示装置は、その危険物体が検出された場合、車内に設置されたディスプレイ上においてその危険物体を強調表示することで、運転者に対して衝突の危険性があることを警告する。さらにこの警告表示装置は、その警告に対する運転者の反応から、運転者がその物体の存在を確認したことを検知すると、警告を解除する。
Hereinafter, a warning display device according to one embodiment will be described with reference to the drawings.
This warning display device detects a dangerous object that is estimated to possibly collide with a vehicle from an image acquired from a camera that captures the periphery of the vehicle. When the dangerous object is detected, the warning display device highlights the dangerous object on a display installed in the vehicle to warn the driver that there is a risk of collision. Furthermore, the warning display device cancels the warning when it detects from the driver's reaction to the warning that the driver has confirmed the presence of the object.

図1は、一つの実施形態による警告表示装置の概略構成図である。図1に示すように、警告表示装置1は、車外カメラ2と、ディスプレイ3と、車内カメラ4と、コントローラ5とを有する。車外カメラ2、ディスプレイ3及び車内カメラ4と、コントローラ5とは、コントロールエリアネットワーク(以下、CANという)6によって互いに接続されている。なお、図1では、説明の都合のため、警告表示装置1の各構成要素及び車両10の形状及びサイズは、実際のものとは異なっている。   FIG. 1 is a schematic configuration diagram of a warning display device according to one embodiment. As shown in FIG. 1, the warning display device 1 includes a vehicle exterior camera 2, a display 3, a vehicle interior camera 4, and a controller 5. The vehicle exterior camera 2, the display 3, the vehicle interior camera 4, and the controller 5 are connected to each other by a control area network (hereinafter referred to as CAN) 6. In FIG. 1, for convenience of explanation, each component of the warning display device 1 and the shape and size of the vehicle 10 are different from actual ones.

車外カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に車両10の周囲の構造物などの像を結像する結像光学系を有する。そして車外カメラ2は、車両の前方領域を撮影するように設置される。また車外カメラ2は、一定の時間間隔(例えば1/30秒)ごとに撮影を行う。そして車外カメラ2は、車両10の前方領域を撮影した周辺画像を、例えば、横640画素×縦480画素を持ち、各画素の輝度が赤、緑、青それぞれ256階調で表されるカラー画像として生成する。なお、車外カメラ2は、周辺画像を、その撮像範囲内の近赤外光の照度に応じたグレー画像として生成してもよい。なお、警告表示装置1は、複数台の車外カメラを有していてもよい。例えば、後述するように、制御部53がステレオマッチングを利用して車両10と衝突する可能性のある危険物体を検出する場合、フロントウインドウ及び車室内の天井の左右端近傍に、それぞれ1台ずつ、車両10の前方を撮影する車外カメラが設置されてもよい。また、車両10の後方を撮影するために、リアウインドウ及び車室内の天井近傍に車両10の後方領域を撮影するように車外カメラを設置してもよい。
車外カメラ2は、撮影により得られた周辺画像を逐次コントローラ5へ送信する。なお、車両の前方領域を撮影する車外カメラと車両の後方領域を撮影する車外カメラが取り付けられている場合、コントローラ5は、車両が進行している方向を撮影する車外カメラからの画像のみを選択的に取得する。そのために、コントローラ5は、CAN6を介して車両10の電子制御ユニット(図示せず)から、シフトレバーのポジションを表すシフトポジション信号を取得する。そしてコントローラ5は、シフトポジション信号が、車両10が前進することを示すドライブポジジョンなどとなっている場合、車両の前方領域を撮影する車外カメラから周辺画像を取得する。一方、コントローラ5は、シフトポジション信号が、車両10が後進することを示すリバースポジションとなっている場合、車両の後方領域を撮影する車外カメラから周辺画像を取得する。
The vehicle exterior camera 2 is a CCD or C-MOS 2D detector composed of a photoelectric converter sensitive to visible light, and an image of structures around the vehicle 10 is connected to the 2D detector. An imaging optical system for imaging is included. And the vehicle exterior camera 2 is installed so that the front area | region of a vehicle may be image | photographed. In addition, the camera 2 outside the camera performs photographing at regular time intervals (for example, 1/30 seconds). The outside camera 2 is a color image in which a peripheral image obtained by photographing the front area of the vehicle 10 has, for example, horizontal 640 pixels × vertical 480 pixels, and the luminance of each pixel is represented by 256 gradations of red, green, and blue, respectively. Generate as The vehicle camera 2 may generate the peripheral image as a gray image corresponding to the illuminance of near infrared light within the imaging range. The warning display device 1 may have a plurality of outside cameras. For example, as will be described later, when the control unit 53 detects a dangerous object that may collide with the vehicle 10 using stereo matching, one unit is provided in the vicinity of the left and right ends of the front window and the ceiling in the vehicle interior. In addition, a camera outside the vehicle that captures the front of the vehicle 10 may be installed. In addition, in order to photograph the rear of the vehicle 10, a camera outside the vehicle may be installed so as to photograph the rear region of the vehicle 10 in the vicinity of the rear window and the ceiling in the vehicle interior.
The vehicle exterior camera 2 sequentially transmits a peripheral image obtained by photographing to the controller 5. In addition, when the vehicle outside camera which image | photographs the front area of a vehicle and the vehicle outside camera which image | photographs the back area of a vehicle are attached, the controller 5 selects only the image from the vehicle outside camera which image | photographs the direction which the vehicle is advancing To get. For this purpose, the controller 5 acquires a shift position signal representing the position of the shift lever from an electronic control unit (not shown) of the vehicle 10 via the CAN 6. Then, when the shift position signal is a drive position indicating that the vehicle 10 moves forward, the controller 5 acquires a peripheral image from an outside camera that captures a front area of the vehicle. On the other hand, when the shift position signal is a reverse position indicating that the vehicle 10 is moving backward, the controller 5 acquires a peripheral image from an outside camera that captures the rear area of the vehicle.

ディスプレイ3は、例えば、液晶ディスプレイあるいは有機ELディスプレイで構成され、表示画面が運転者に向くように、インストルメントパネル内に配置される。なお、ディスプレイ3は、インストルメントパネルと独立して配置されてもよい。あるいは、ディスプレイ3は、ナビゲーション装置など、他の装置のディスプレイであってもよい。そしてディスプレイ3は、コントローラ5により制御され、またコントローラ5から受信した画像を表示する。   The display 3 is composed of, for example, a liquid crystal display or an organic EL display, and is arranged in the instrument panel so that the display screen faces the driver. The display 3 may be arranged independently of the instrument panel. Alternatively, the display 3 may be a display of another device such as a navigation device. The display 3 is controlled by the controller 5 and displays an image received from the controller 5.

車内カメラ4は、運転者の顔を撮影する。そのために、車内カメラ4は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に運転者の顔の像を結像する結像光学系を有する。そして車内カメラ4は、運転者がディスプレイ3を見たときに、運転者の顔を正面から撮影するように、ディスプレイ3の上部に取り付けられる。また車内カメラ4は、一定の時間間隔(例えば1/30秒)ごとに撮影を行う。そして車内カメラ4は、運転者の顔を撮影した運転者画像を、例えば、横640画素×縦480画素を持ち、各画素の輝度が赤、緑、青それぞれ256階調で表されるカラー画像として生成する。
車内カメラ4は、撮影により得られた運転者画像を逐次コントローラ5へ送信する。
The in-vehicle camera 4 captures the driver's face. For this purpose, the in-vehicle camera 4 forms a two-dimensional detector composed of a photoelectric converter sensitive to visible light, such as CCD or C-MOS, and an image of the driver's face on the two-dimensional detector. An imaging optical system. The in-vehicle camera 4 is attached to the top of the display 3 so that the driver's face is photographed from the front when the driver looks at the display 3. The in-vehicle camera 4 takes images at regular time intervals (for example, 1/30 seconds). The in-vehicle camera 4 is a color image in which the driver image obtained by photographing the driver's face has, for example, horizontal 640 pixels × vertical 480 pixels, and the luminance of each pixel is represented by 256 gradations of red, green, and blue. Generate as
The in-vehicle camera 4 sequentially transmits a driver image obtained by photographing to the controller 5.

コントローラ5は、記憶部51と、通信部52と、制御部53とを有する。記憶部51は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部51は、警告表示装置1を制御するための各種プログラム及びパラメータ、制御部53による一時的な演算結果などを記憶する。
さらに記憶部51は、制御部53により検出された、車両10と衝突する可能性のある危険物体が既に運転者により認知されていることを示す認知済みフラグを、各危険物体に関する情報に関連付けて記憶する。
また、通信部52は、車外カメラ2、ディスプレイ3、車内カメラ4とCAN6を通じて通信する通信インターフェース及びその制御回路を有する。
The controller 5 includes a storage unit 51, a communication unit 52, and a control unit 53. The storage unit 51 includes, for example, a semiconductor memory such as an electrically rewritable nonvolatile memory and a volatile memory. The storage unit 51 stores various programs and parameters for controlling the warning display device 1, temporary calculation results by the control unit 53, and the like.
Furthermore, the storage unit 51 associates a recognized flag, which is detected by the control unit 53 and indicates that a dangerous object that may collide with the vehicle 10 has already been recognized by the driver, with information related to each dangerous object. Remember.
The communication unit 52 includes a communication interface that communicates with the outside camera 2, the display 3, the in-vehicle camera 4 and the CAN 6 and a control circuit thereof.

制御部53は、1個もしくは複数個の図示してないプロセッサ及びその周辺回路を有する。そして制御部53は、警告表示装置1全体を制御する。
図2に、制御部53の機能ブロック図を示す。図2に示すように、制御部53は、危険物体検出部531と、警告画像生成部532と、確認判定部533とを有する。制御部53が有するこれらの各部は、例えば、制御部53が有するマイクロプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
The control unit 53 includes one or a plurality of processors (not shown) and their peripheral circuits. And the control part 53 controls the warning display apparatus 1 whole.
FIG. 2 shows a functional block diagram of the control unit 53. As illustrated in FIG. 2, the control unit 53 includes a dangerous object detection unit 531, a warning image generation unit 532, and a confirmation determination unit 533. Each unit included in the control unit 53 is implemented as a functional module realized by a computer program executed on a microprocessor included in the control unit 53, for example.

危険物体検出部531は、車外カメラ2より得た周辺画像から、車両10と衝突する可能性のある危険物体を検知する。そのために、危険物体検出部531は、例えば、検出しようとする物体に対応するテンプレートと、最新の周辺画像との相対的な位置関係を変えながらパターンマッチングを行うことにより、テンプレートとその最新の周辺画像との相関値を算出する。そして危険物体検出部531は、そのテンプレートとその周辺画像との相関値が所定の条件を満たしたとき、周辺画像上のそのテンプレートに対応する領域を、危険物体が存在する可能性のある候補領域として検出する。なお、テンプレートは、例えば、歩行者、車両、自転車など、検出しようとする物体ごとに複数用意されてもよい。そしてそれらテンプレートは、予め記憶部51に記憶され、危険物体検出部531は、パターンマッチング実行時あるいは警告表示装置1の起動時にそれらテンプレートを記憶部51から読み込んで使用する。相関値は、例えば、テンプレートと周辺画像の対応する画素間の輝度値差の絶対値の合計を、テンプレートと周辺画像が重なった画素の総数で割ることにより算出される。さらに所定の条件は、危険物体を高精度で検出でき、かつ危険物体でない物体を候補領域として誤検出する確率が低くなるような相関値の範囲として設定されることが好ましい。例えば、所定の条件は、上記のように算出された相関値が、相関値の取りうる値の最大値に対して0.1あるいは0.2を乗じた値以下であることとすることができる。なお、危険物体検出部531は、テンプレートと周辺画像の相関値を算出する際、公知の様々な相関値を算出する方法の何れかを用いてもよい。例えば、危険物体検出部531は、テンプレートと周辺画像との正規化相関値を算出する場合、所定の条件は、算出された正規化相関値が、正規化相関値の取りうる最大値に対して0.9あるいは0.8を乗じた値以上であることとすることができる。   The dangerous object detection unit 531 detects a dangerous object that may collide with the vehicle 10 from the peripheral image obtained from the outside camera 2. Therefore, the dangerous object detection unit 531 performs pattern matching while changing the relative positional relationship between the template corresponding to the object to be detected and the latest peripheral image, for example, and thereby the template and its latest periphery. A correlation value with the image is calculated. Then, when the correlation value between the template and the surrounding image satisfies a predetermined condition, the dangerous object detection unit 531 selects an area corresponding to the template on the surrounding image as a candidate area where the dangerous object may exist. Detect as. Note that a plurality of templates may be prepared for each object to be detected, such as a pedestrian, a vehicle, and a bicycle. These templates are stored in advance in the storage unit 51, and the dangerous object detection unit 531 reads the templates from the storage unit 51 and uses them when pattern matching is executed or when the warning display device 1 is activated. The correlation value is calculated, for example, by dividing the sum of absolute values of luminance value differences between corresponding pixels of the template and the surrounding image by the total number of pixels where the template and the surrounding image overlap. Furthermore, it is preferable that the predetermined condition is set as a range of correlation values that can detect a dangerous object with high accuracy and has a low probability of erroneously detecting an object that is not a dangerous object as a candidate region. For example, the predetermined condition may be that the correlation value calculated as described above is not more than a value obtained by multiplying the maximum value of the correlation value by 0.1 or 0.2. In addition, when calculating the correlation value between the template and the surrounding image, the dangerous object detection unit 531 may use any of various known methods for calculating the correlation value. For example, when the dangerous object detection unit 531 calculates the normalized correlation value between the template and the surrounding image, the predetermined condition is that the calculated normalized correlation value is equal to the maximum value that the normalized correlation value can take. It can be set to be a value obtained by multiplying 0.9 or 0.8.

また、危険物体検出部531は、他の方法を用いて候補領域を検出してもよい。例えば、危険物体検出部531は、最新の周辺画像に対してステレオマッチングを行うことにより、車両10から周辺画像内の各点までの距離を求める。そして危険物体検出部531は、その距離に基づいて、歩行者、車両、自転車などに対応する所定の形状を有する物体を候補領域として検出する識別器を用いて、候補領域を検出してもよい。そのような識別器は、例えば、曽我外3名、「Pedestrian Detection with Stereo Vision」、Proc. of the ICDE '05に開示されている。また警告表示装置1は、車外カメラ2に関して説明したように、異なる位置に設置された2台の車外カメラを有し、危険物体検出部531は、それら車外カメラでほぼ同時に撮影された2枚の周辺画像に基づいてステレオマッチングを実行することができる。あるいは、危険物体検出部531は、1台の車外カメラ2から時系列に取得された複数の周辺画像から、モーションステレオ技術を用いて車両10から周辺画像内の各点までの距離を求めてもよい。そのようなモーションステレオ技術は、例えば、特開2007−256029号公報、あるいは、K.Fintzel他, "3D Parking Assistant System", 2004 IEEE Intelligent Vehicles Symposium, 2004などに開示されている。
さらにまた、車外カメラ2を、光波測距画像センサのように、各画素ごとに撮影対象物までの距離を測定する機能を有するカメラとすることができる。この場合、危険物体検出部531は、周辺画像中の各画素に対応する測距信号をCAN6を通じて車外カメラ2から取得し、その測距信号に基づいて周辺画像内の各点までの距離を決定してもよい。
Further, the dangerous object detection unit 531 may detect the candidate area using another method. For example, the dangerous object detection unit 531 obtains the distance from the vehicle 10 to each point in the peripheral image by performing stereo matching on the latest peripheral image. Based on the distance, the dangerous object detection unit 531 may detect a candidate area using a discriminator that detects an object having a predetermined shape corresponding to a pedestrian, a vehicle, a bicycle, or the like as a candidate area. . Such discriminators are disclosed in, for example, three people outside Soga, “Pedestrian Detection with Stereo Vision”, Proc. Of the ICDE '05. Further, the warning display device 1 has two outside cameras installed at different positions as described with respect to the outside camera 2, and the dangerous object detection unit 531 has two images taken almost simultaneously by these outside cameras. Stereo matching can be performed based on surrounding images. Alternatively, the dangerous object detection unit 531 may calculate the distance from the vehicle 10 to each point in the peripheral image using a motion stereo technique from a plurality of peripheral images acquired in time series from the one outside camera 2. Good. Such motion stereo technology is disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-256029 or K. Fintzel et al., “3D Parking Assistant System”, 2004 IEEE Intelligent Vehicles Symposium, 2004.
Furthermore, the vehicle exterior camera 2 can be a camera having a function of measuring the distance to the object to be photographed for each pixel, such as a light wave ranging image sensor. In this case, the dangerous object detection unit 531 acquires a distance measurement signal corresponding to each pixel in the peripheral image from the outside camera 2 through the CAN 6, and determines a distance to each point in the peripheral image based on the distance measurement signal. May be.

さらに、危険物体検出部531は、最新の周辺画像を複数の小領域に分割し、その小領域からHOG(Histograms of Oriented Gradients)特徴量あるいはHaar-like特徴を検出して、それら特徴量をAdaboost識別器に入力することにより、その小領域が候補領域となるか否か判定してもよい。なお、Haar-like特徴及びAdaboost識別器の詳細については、例えば、Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001に開示されている。   Further, the dangerous object detection unit 531 divides the latest peripheral image into a plurality of small regions, detects HOG (Histograms of Oriented Gradients) feature values or Haar-like features from the small regions, and extracts these feature values from the Adaboost. By inputting to the discriminator, it may be determined whether or not the small region is a candidate region. For details of the Haar-like feature and the Adaboost classifier, see, for example, Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001. Is disclosed.

次に、危険物体検出部531は、最新の周辺画像から検出された候補領域に写っている物体が過去の周辺画像から検出された何れかの候補領域に写っている物体と同一であるか否か判定する。そのために、危険物体検出部531は、時系列に取得された複数の画像上で同一物体を追跡するための様々なトラッキング技術を利用することができる。
例えば、危険物体検出部531は、過去に取得された時系列の複数の周辺画像からそれぞれ検出された同一物体に対応する候補領域の位置ずれ量に基づいて、その物体の移動方向及び移動速度を推定する。そして危険物体検出部531は、その移動方向及び移動速度と、所定フレーム数前の候補領域の位置から、最新の周辺画像における候補領域の位置を推定する。そしてその推定位置及びその近傍で候補領域が検出された場合、危険物体検出部531は、その候補領域に移っている物体は、その所定フレーム数前の候補領域に写っている物体と同一であると判定する。
Next, the dangerous object detection unit 531 determines whether the object shown in the candidate area detected from the latest peripheral image is the same as the object shown in any candidate area detected from the past peripheral image. To determine. Therefore, the dangerous object detection unit 531 can use various tracking techniques for tracking the same object on a plurality of images acquired in time series.
For example, the dangerous object detection unit 531 determines the moving direction and moving speed of the object based on the positional deviation amount of the candidate area corresponding to the same object respectively detected from a plurality of time-series peripheral images acquired in the past. presume. Then, the dangerous object detection unit 531 estimates the position of the candidate area in the latest peripheral image from the moving direction and moving speed thereof and the position of the candidate area before the predetermined number of frames. When the candidate area is detected at the estimated position and the vicinity thereof, the dangerous object detection unit 531 has the same object moved to the candidate area as the object reflected in the candidate area before the predetermined number of frames. Is determined.

例えば、危険物体検出部531は、危険物体検出部531は、mフレーム前(ただし、mは自然数)に取得された周辺画像から検出された候補領域の位置と、(m+1)フレーム前に取得された周辺画像から検出された候補領域の位置の差から、その候補領域に写っている物体のmフレーム前の時点における推定移動方向及び推定移動速度を算出する。そして危険物体検出部531は、mフレーム前の時点における推定移動方向及び推定移動速度に従ってその候補領域に写っている物体が進むものとして、最新の周辺画像におけるその物体の推定位置を算出する。そこで危険物体検出部531は、mフレーム前の候補領域の位置に、その時点での推定移動方向に沿って、その時点での推定移動速度に最新の周辺画像取得時とmフレーム前の周辺画像取得時の時間差を乗じて得られる距離を加えることにより、最新の周辺画像におけるその物体の推定位置を算出する。同様に、危険物体検出部531は、過去に取得された複数のフレームから、それぞれ候補領域に写っている物体の最新の周辺画像におけるその物体の推定位置を算出する。そして危険物体検出部531は、得られた各推定位置に、新しい周辺画像から求められた推定位置ほど大きくなるような重み係数を乗じて加重平均することにより、最新の周辺画像における物体の最終的な推定位置を決定できる。これにより、危険物体検出部531は、一時的に同一の候補物体に対応する候補領域が検出できなくなるオクルージョンが発生しても、正確にその候補物体の最新の位置を推定できる。   For example, the dangerous object detection unit 531 is acquired by the dangerous object detection unit 531 before (m + 1) frames and the position of the candidate area detected from the surrounding image acquired m frames before (where m is a natural number). From the position difference of the candidate area detected from the surrounding image, the estimated movement direction and the estimated movement speed at the time point m frames before the object shown in the candidate area are calculated. Then, the dangerous object detection unit 531 calculates the estimated position of the object in the latest peripheral image, assuming that the object shown in the candidate area advances according to the estimated movement direction and estimated movement speed at the time point m frames before. Therefore, the dangerous object detection unit 531 moves to the position of the candidate area before m frames along the estimated movement direction at that time, and obtains the latest peripheral image at the estimated movement speed at that time and the surrounding image before m frames. By adding a distance obtained by multiplying the time difference at the time of acquisition, the estimated position of the object in the latest peripheral image is calculated. Similarly, the dangerous object detection unit 531 calculates the estimated position of the object in the latest peripheral image of the object shown in each candidate area from a plurality of frames acquired in the past. Then, the dangerous object detection unit 531 multiplies each estimated position obtained by a weighting factor that becomes larger as the estimated position obtained from the new surrounding image, and performs weighted averaging, thereby finalizing the object in the latest surrounding image. The estimated position can be determined. As a result, the dangerous object detection unit 531 can accurately estimate the latest position of the candidate object even if an occlusion occurs where a candidate area corresponding to the same candidate object cannot be detected temporarily.

ただし、1フレーム前に取得された周辺画像から検出された候補領域のうち、それよりも前に取得された周辺画像から検出された候補領域の何れとも対応しない候補領域(以下、初検出候補領域と呼ぶ)について、危険物体検出部531は、その初検出候補領域を中心とする所定範囲を探索範囲として設定する。そして危険物体検出部531は、最新の周辺画像において、その探索範囲内で候補領域が検出された場合、その候補領域に写っている物体と1フレーム前の周辺画像から検出された初検出候補領域に写っている物体は同一であると判定する。なお、探索範囲は、検出対象とする物体について想定される移動速度に応じて決定され、例えば、検出対象とする物体が人であれば、その探索範囲は時速10km/hで移動可能な範囲として設定され、検出対象とする物体が車であれば、その探索範囲は時速60km/hで移動可能な範囲として設定される。   However, among candidate areas detected from a peripheral image acquired one frame before, a candidate area that does not correspond to any of candidate areas detected from a peripheral image acquired before that (hereinafter referred to as an initial detection candidate area) The dangerous object detection unit 531 sets a predetermined range centered on the initial detection candidate region as a search range. Then, when a candidate area is detected within the search range in the latest peripheral image, the dangerous object detection unit 531 detects the first detection candidate area detected from the object shown in the candidate area and the peripheral image one frame before. It is determined that the objects shown in are identical. The search range is determined according to the assumed moving speed of the object to be detected. For example, if the object to be detected is a person, the search range is a range that can move at a speed of 10 km / h. If the object to be detected is a vehicle, the search range is set as a range that can be moved at a speed of 60 km / h.

なお、危険物体検出部531は、所定数のフレーム(例えば、1秒間に含まれるフレーム数)の間、候補領域の位置を推定し、その推定位置の近傍で連続して候補領域を検出できた場合に、それら複数の周辺画像に渡って検出された候補領域に同一の物体が写っていると判定してもよい。このようなトラッキング方法は、例えば、B. Lucas and T. Kanade、"An iterative image registration technique with an Application to Stereo Vision"、1981年、 Proc. of the DARPA IU Workshop、pp. 121-130に開示されている。
また危険物体検出部531は、推定位置を決定するために、カルマンフィルタあるいはαβフィルタを用いてもよい。なお、αβフィルタについては、例えば、インターネットのURL:http://en.wikipedia.org/wiki/Alpha_beta_filter(2009年2月3日検索)に開示されている。
The dangerous object detection unit 531 was able to estimate the position of the candidate area for a predetermined number of frames (for example, the number of frames included in one second) and to detect the candidate area continuously in the vicinity of the estimated position. In this case, it may be determined that the same object appears in the candidate area detected over the plurality of peripheral images. Such a tracking method is disclosed, for example, in B. Lucas and T. Kanade, “An iterative image registration technique with an Application to Stereo Vision”, 1981, Proc. Of the DARPA IU Workshop, pp. 121-130. ing.
The dangerous object detection unit 531 may use a Kalman filter or an αβ filter in order to determine the estimated position. The αβ filter is disclosed in, for example, the URL of the Internet: http://en.wikipedia.org/wiki/Alpha_beta_filter (searched on February 3, 2009).

危険物体検出部531は、最新の周辺画像から候補領域が検出できると、上記のように、その候補領域に写っている物体が、過去の周辺画像から検出された候補領域の何れかに写っている物体と同一か否か判定する。そして同一であると判定した場合、危険物体検出部531は、その最新の周辺画像から検出された候補領域に、対応する過去の周辺画像から検出された候補領域と同一の識別番号を付す。一方、最新の周辺画像から検出された候補領域が初検出候補領域である場合、危険物体検出部531は、その候補領域に対して他の候補領域の何れとも異なる識別番号を付す。そして危険物体検出部531は、その識別番号に、その候補領域の周辺画像上の位置及び大きさと検出時刻を関連付けて記憶部51に記憶する。   When the dangerous object detection unit 531 can detect the candidate area from the latest peripheral image, the object shown in the candidate area is reflected in any of the candidate areas detected from the past peripheral image as described above. It is determined whether or not the object is the same. If it is determined that they are the same, the dangerous object detection unit 531 attaches the same identification number as the candidate area detected from the corresponding past peripheral image to the candidate area detected from the latest peripheral image. On the other hand, when the candidate area detected from the latest peripheral image is the first detection candidate area, the dangerous object detection unit 531 attaches an identification number different from any of the other candidate areas to the candidate area. Then, the dangerous object detection unit 531 associates the identification number with the position and size of the candidate area on the peripheral image and the detection time, and stores them in the storage unit 51.

一方、危険物体検出部531は、複数フレームの周辺画像に渡って、過去の周辺画像から検出された候補領域から求められた推定位置及びその近傍で候補領域を検出できなかった場合、その過去の周辺画像から検出された候補領域に対応する物体についての追跡を停止する。そして危険物体検出部531は、その物体に対応する各候補領域の識別番号、その候補領域の周辺画像上の位置、大きさ及び検出時刻を、記憶部51から消去する。   On the other hand, when the dangerous object detection unit 531 cannot detect the candidate area at the estimated position obtained from the candidate area detected from the past peripheral image and the vicinity thereof over the peripheral images of a plurality of frames, The tracking of the object corresponding to the candidate area detected from the peripheral image is stopped. Then, the dangerous object detection unit 531 deletes the identification number of each candidate area corresponding to the object, the position, size, and detection time of the candidate area on the peripheral image from the storage unit 51.

危険物体検出部531は、追跡中の候補領域に表された物体の移動方向及び移動速度から、その物体が車両10に衝突する可能性があるか否か判定する。例えば、その物体の移動方向が周辺画像の中心部へ向かっている場合、その物体は車両10の正面に近づいていると考えられる。そこで、危険物体検出部531は、その物体を危険物体として検出する。あるいは、危険物体検出部531は、候補領域のサイズあるいはステレオマッチングによる車両10との距離の測定結果から、その物体までの距離を推定し、その推定距離を物体が車両10に衝突するか否かの判定に利用してもよい。この場合、危険物体検出部531は、最新の周辺画像取得時の車両10の速度及び操舵角から、所定時間後の車両10の位置を推定する。また危険物体検出部531は、候補領域に表された物体の移動速度及び移動方向から、所定時間後のその物体の位置を推定する。そして車両10の推定位置と、物体の推定位置との距離が衝突する危険性があると考えられる所定範囲内に含まれる場合、危険物体検出部531は、その物体を危険物体として検出する。なお、所定範囲は、例えば、1mとすることができる。またその所定範囲を、車両10の速度が速くなるにつれて広くなるように設定してもよい。
なお、車両10の速度及び操舵角については、制御部53が、車両10に搭載された車速センサ(図示せず)及び操舵角センサ(図示せず)からCAN6を通じて取得できる。
The dangerous object detection unit 531 determines whether there is a possibility that the object collides with the vehicle 10 based on the moving direction and moving speed of the object represented in the candidate area being tracked. For example, when the moving direction of the object is toward the center of the peripheral image, it is considered that the object is approaching the front of the vehicle 10. Therefore, the dangerous object detection unit 531 detects the object as a dangerous object. Alternatively, the dangerous object detection unit 531 estimates the distance to the object from the measurement result of the size of the candidate area or the distance from the vehicle 10 by stereo matching, and whether or not the object collides with the vehicle 10 based on the estimated distance. It may be used for the determination. In this case, the dangerous object detection unit 531 estimates the position of the vehicle 10 after a predetermined time from the speed and the steering angle of the vehicle 10 when the latest peripheral image is acquired. Also, the dangerous object detection unit 531 estimates the position of the object after a predetermined time from the moving speed and moving direction of the object represented in the candidate area. If the distance between the estimated position of the vehicle 10 and the estimated position of the object falls within a predetermined range where there is a risk of collision, the dangerous object detection unit 531 detects the object as a dangerous object. The predetermined range can be set to 1 m, for example. The predetermined range may be set so as to increase as the speed of the vehicle 10 increases.
The speed and steering angle of the vehicle 10 can be acquired from the vehicle speed sensor (not shown) and the steering angle sensor (not shown) mounted on the vehicle 10 through the CAN 6.

危険物体検出部531は、危険物体を検出すると、その危険物体に対応する領域の位置及びサイズを表す情報(例えば、候補領域の左上端点の座標と、候補領域の水平方向及び垂直方向の長さ)を警告画像生成部532に渡す。   When the dangerous object detection unit 531 detects the dangerous object, information indicating the position and size of the area corresponding to the dangerous object (for example, the coordinates of the upper left end point of the candidate area and the horizontal and vertical lengths of the candidate area) ) To the warning image generation unit 532.

警告画像生成部532は、危険物体が検出されており、かつその危険物体を運転者が確認していない場合において、周辺画像上でその検出された危険物体を強調表示した警告画像を生成する。一方、警告画像生成部532は、運転者が既に確認した危険物体に関しては、強調表示を行わない。これにより、警告表示装置1は、運転者が危険物体を既に認識しているにもかかわらず、その危険物体に関して警告され続けることによって、運転者が煩わしく感じることを避け、かつ、運転者の運転への集中力の低下を防止することができる。なお、認知済みフラグが、その危険物体に対応する候補領域の識別番号と関連付けて記憶部51に記憶されている場合、警告画像生成部532はその危険物体は運転者に既に確認されていると判定する。   When a dangerous object is detected and the driver has not confirmed the dangerous object, the warning image generation unit 532 generates a warning image in which the detected dangerous object is highlighted on the peripheral image. On the other hand, the warning image generation unit 532 does not perform highlighting for dangerous objects that have already been confirmed by the driver. As a result, the warning display device 1 prevents the driver from feeling bothered by continuing to be warned about the dangerous object even though the driver has already recognized the dangerous object, and driving the driver. It is possible to prevent a decrease in concentration on the subject. When the recognized flag is stored in the storage unit 51 in association with the identification number of the candidate area corresponding to the dangerous object, the warning image generation unit 532 indicates that the dangerous object has already been confirmed by the driver. judge.

例えば、警告画像生成部532は、車外カメラ2より取得した最新の周辺画像において、危険物体検出部531により検出された危険物体に対応する領域の輪郭上に位置する画素の輝度値を、その輪郭の近傍画素の平均輝度値を反転させた値とする。あるいは、警告画像生成部532は、危険物体に対応する領域の輪郭上に位置する画素の色を、運転者にとって目立つ色、例えば、赤色にしてもよい。さらに警告画像生成部532は、その輪郭上の画素の色または輝度値を、フレームごとに交互に上記のように変更したり、変更しないようにして、運転者にとってその輪郭が点滅するように見せてもよい。あるいは、警告画像生成部532は、その輪郭を、フレームごとに拡大または縮小させてもよい。   For example, the warning image generation unit 532 uses the brightness value of the pixel located on the contour of the region corresponding to the dangerous object detected by the dangerous object detection unit 531 in the latest peripheral image acquired from the outside camera 2 as the contour. A value obtained by inverting the average luminance value of neighboring pixels. Alternatively, the warning image generation unit 532 may change the color of the pixel located on the outline of the region corresponding to the dangerous object to a color that is conspicuous for the driver, for example, red. Further, the warning image generation unit 532 changes the color or luminance value of the pixel on the contour alternately as described above for each frame, and makes the contour blink for the driver. May be. Alternatively, the warning image generation unit 532 may enlarge or reduce the outline for each frame.

さらに、警告画像生成部532は、危険物体が検出されており、かつその危険物体を運転者が確認した最終確認時刻から所定期間が経過するまでの間、危険物体の強調表示度合いを、運転者がその危険物体を確認していない場合よりも弱くした警告画像を生成する。所定期間中、このような警告画像をディスプレイ3に表示することにより、警告表示装置1は、ディスプレイ3上に表示された画像が急激に変化することを防止して、運転者の視覚的な負担を軽減することができる。なお、所定時間は、例えば、3秒間とすることができる。
強調表示度合いを弱めるために、例えば、警告画像生成部532は、危険物体に対応する領域の輪郭の輝度値及び色を、時間が経過するにつれてオリジナルの周辺画像の対応画素の輝度値及び色に近づけるようにしてもよい。このようにその強調表示された輪郭の画素の輝度値及び色を時間的に変化させることで、警告画像生成部532は、運転者に対して、危険物体の輪郭に付された枠がフェードアウトしていくように見せることができる。
Further, the warning image generation unit 532 displays the degree of highlighting of the dangerous object until the predetermined period elapses from the final confirmation time when the dangerous object is detected and confirmed by the driver. Generates a warning image weaker than when the dangerous object is not confirmed. By displaying such a warning image on the display 3 during a predetermined period, the warning display device 1 prevents the image displayed on the display 3 from changing suddenly, and the visual burden on the driver is reduced. Can be reduced. Note that the predetermined time can be, for example, 3 seconds.
In order to weaken the degree of highlighting, for example, the warning image generation unit 532 changes the luminance value and color of the outline of the region corresponding to the dangerous object to the luminance value and color of the corresponding pixel of the original peripheral image as time passes. You may make it approach. In this way, by changing the luminance value and color of the highlighted contour pixel in time, the warning image generation unit 532 fades out the frame attached to the contour of the dangerous object to the driver. You can make it look like

警告画像生成部532は、生成した警告画像を制御部53に渡す。
制御部53は、運転者に確認されていない危険物体が存在する間、及び最終確認時刻から所定期間が経過するまで、警告画像生成部532により生成された警告画像をディスプレイ3に表示させる。一方、制御部53は、危険物体が検出されていない場合、あるいは、危険物体が検出されていても、運転者によってその危険物体の存在が確認されている場合、その危険物体を強調表示しない周辺画像をディスプレイ3に表示させる。
The warning image generation unit 532 passes the generated warning image to the control unit 53.
The control unit 53 displays the warning image generated by the warning image generation unit 532 on the display 3 while there is a dangerous object that has not been confirmed by the driver and until a predetermined period has elapsed from the final confirmation time. On the other hand, when the dangerous object is not detected, or when the dangerous object is detected but the driver confirms the presence of the dangerous object, the control unit 53 does not highlight the dangerous object. An image is displayed on the display 3.

確認判定部533は、運転者が確認していない危険物体が存在し、ディスプレイ3上に警告画像が表示されている場合に、車内カメラ4より得た運転者画像から運転者がディスプレイ3を見たか否か判定する。そして確認判定部534は、運転者がディスプレイ3を見たと判定した場合、警告画像において強調表示されている危険物体を運転者は確認したと判定する。
具体的に、確認判定部533は、運転者画像から、運転者の顔の向きを調べる。そのために、確認判定部533は、運転者の顔が写っていると推定される領域を抽出するために、運転者画像中の肌色を持つ肌色画素を抽出する。肌色画素を抽出するために、確認判定部533は、運転者画像の表色系を、色情報と輝度に分離可能な表色系、例えば、YCrCb表色系、あるいはHSV表色系に変換する。そして、確認判定部533は、変換後の表色系において、色情報を表す軸に関する値が、肌色に相当する所定の範囲内に含まれる画素を肌色画素とする。なお、その所定の範囲は、例えば、HSV表色系の場合、H軸に関して6から38の範囲とすることができ、YCrCb表色系の場合、Cr軸について80から130、かつCb軸について130から170の範囲とすることができる。
確認判定部533は、肌色画素を抽出すると、モルフォロジーのクロージング演算などを行って、肌色画素及び肌色画素に囲まれる画素が連結された領域を求める。そして確認判定部533は、その領域を運転者の顔領域として検出する。
The confirmation / determination unit 533 allows the driver to view the display 3 from the driver image obtained from the in-vehicle camera 4 when there is a dangerous object that the driver has not confirmed and a warning image is displayed on the display 3. It is determined whether or not. Then, when it is determined that the driver has seen the display 3, the confirmation determination unit 534 determines that the driver has confirmed the dangerous object highlighted in the warning image.
Specifically, the confirmation determination unit 533 checks the direction of the driver's face from the driver image. Therefore, the confirmation determination unit 533 extracts a skin color pixel having a skin color in the driver image in order to extract an area where the driver's face is estimated to be captured. In order to extract the skin color pixel, the confirmation determination unit 533 converts the color system of the driver image into a color system that can be separated into color information and luminance, for example, a YCrCb color system or an HSV color system. . And the confirmation determination part 533 makes the pixel in which the value regarding the axis | shaft showing color information is contained in the predetermined range equivalent to skin color in the color system after conversion as a skin color pixel. The predetermined range can be, for example, a range of 6 to 38 with respect to the H axis in the HSV color system, and 80 to 130 with respect to the Cr axis and 130 with respect to the Cb axis in the case of the YCrCb color system. Can range from 170 to 170.
When the skin color pixel is extracted, the confirmation determination unit 533 performs a morphological closing operation to obtain a region where the skin color pixel and the pixel surrounded by the skin color pixel are connected. And the confirmation determination part 533 detects the area | region as a driver | operator's face area.

次に、確認判定部533は、顔領域の中から、特徴的な点である目の角膜と鼻孔を検出する。ここで、角膜及び鼻孔は、運転者画像上で比較的円形に近い形状を有している。そこで本実施形態では、確認判定部533は、円形を検出する方法を用いて、顔領域から角膜及び鼻孔を検出する。円形を検出するために、確認判定部533は、例えば、ハフ変換、あるいは分離度フィルタを用いることができる。
ハフ変換を用いる場合、確認判定部533は、先ず顔領域内で近傍画素間の差分演算を行い、その差分絶対値が所定値(例えば、顔領域内の差分絶対値の平均値)以上となるエッジ画素を抽出する。そして確認判定部533は、円の中心座標及び半径を変数とするハフ変換を実行し、エッジ画素の個数が円形と認められる所定個数以上集中した点があれば、その点により表される円形領域を鼻孔または角膜の候補領域として抽出する。
また分離度フィルタは、運転者画像上での角膜あるいは鼻孔のサイズに相当する円形領域内の平均輝度値を、その円形領域の周囲に設定された環状領域内の平均輝度値から引いた差分値を分離度として算出するフィルタである。そして確認判定部533は、顔領域内で分離度フィルタの位置を様々に変えて分離度を算出し、その分離度が所定の閾値以上となるときの、分離度フィルタの円形領域に対応する領域を鼻孔または角膜の候補領域として抽出する。
Next, the confirmation determination unit 533 detects the cornea and nostril which are characteristic points from the face region. Here, the cornea and the nostril have a shape that is relatively close to a circle on the driver image. Therefore, in the present embodiment, the confirmation determination unit 533 detects the cornea and the nostril from the face area using a method of detecting a circle. In order to detect a circle, the confirmation determination unit 533 can use, for example, a Hough transform or a separability filter.
When the Hough transform is used, the confirmation determination unit 533 first performs a difference calculation between neighboring pixels in the face area, and the absolute value of the difference becomes equal to or greater than a predetermined value (for example, the average value of the absolute differences in the face area). Edge pixels are extracted. Then, the confirmation determination unit 533 performs Hough transform using the center coordinates and radius of the circle as variables, and if there is a point where the number of edge pixels is more than a predetermined number that is recognized as a circle, a circular region represented by the point Are extracted as nostril or cornea candidate regions.
The separability filter is a difference value obtained by subtracting the average luminance value in the circular area corresponding to the size of the cornea or nostril on the driver image from the average luminance value in the annular area set around the circular area. Is a filter for calculating as a degree of separation. Then, the confirmation determination unit 533 calculates the degree of separation by changing the position of the degree of separation filter in the face region, and the region corresponding to the circular region of the degree of separation filter when the degree of separation is equal to or greater than a predetermined threshold. Are extracted as nostril or cornea candidate regions.

確認判定部533は、鼻孔または角膜の候補領域のうち、両目の角膜及び鼻孔の位置関係に対応する位置関係を満たす候補領域、すなわち、上側の2点間の距離が下側の2点間の距離よりも大きい略逆台形の各頂点に位置する候補領域を、それぞれ鼻孔または角膜とする。なお、当然ながら、確認判定部533は、略逆台形の上側の頂点に位置する二つの候補領域をそれぞれ角膜とし、一方、略逆台形の下側の頂点に位置する二つの候補領域をそれぞれ鼻孔とする。   The confirmation determination unit 533 is a candidate region that satisfies the positional relationship corresponding to the positional relationship between the cornea and the nostril of both eyes, that is, the distance between the upper two points between the lower two points. Candidate regions located at the apexes of a substantially inverted trapezoid that is larger than the distance are defined as nostrils or corneas, respectively. Of course, the confirmation determination unit 533 uses the two candidate regions positioned at the upper vertex of the substantially inverted trapezoid as the cornea, respectively, while the two candidate regions positioned at the lower vertex of the approximately inverted trapezoid as the nostrils, respectively. And

次に、確認判定部533は、運転者画像上の二つの鼻孔の中点と、左右の角膜の中心点の3点から、顔の正面に対応する平面を求め、その平面の法線ベクトルを顔の向きとする。
図3に、運転者の顔向きを表す法線ベクトルとディスプレイ3との関係を示す。図3において、A、Bは、それぞれ左右の角膜の中心点であり、Cは、二つの鼻孔の中点である。またnは法線ベクトルを表す。ここで、3次元実座標系における、左右の角膜の中心点A、Bと、二つの鼻孔の中点Cとの位置関係は、個人ごとにばらつきはあるものの、凡そ以下のように表すことができる。
d(A,C) = d(B,C)
d(A,B) = 1.0833d(A,C) (1)
d(A,B) = 6.5cm
ここでd(X,Y)は、点Xと点Y間のユークリッド距離である。また、各点A、B、Cは、以下の式に従って、運転者画像上の点a、b、cに写像されると仮定する。
a = (1/α)KA
b = (1/β)KB (2)
c = (1/γ)KC
なお、α、β、γは未知のスケーリングファクタであり、Kは、カメラ内部パラメータ行列であり、Kの各要素の値は、車内カメラ4の撮像光学系の焦点距離、画角などによって予め求められる。
Next, the confirmation determination unit 533 obtains a plane corresponding to the front of the face from the middle point of the two nostrils on the driver image and the center point of the left and right corneas, and calculates a normal vector of the plane. Face orientation.
FIG. 3 shows the relationship between the normal vector representing the driver's face direction and the display 3. In FIG. 3, A and B are the center points of the left and right corneas, respectively, and C is the midpoint of the two nostrils. N represents a normal vector. Here, in the three-dimensional real coordinate system, the positional relationship between the center points A and B of the left and right corneas and the midpoint C of the two nostrils varies among individuals but can be expressed as follows. it can.
d (A, C) = d (B, C)
d (A, B) = 1.0833d (A, C) (1)
d (A, B) = 6.5cm
Here, d (X, Y) is the Euclidean distance between the point X and the point Y. Further, it is assumed that the points A, B, and C are mapped to points a, b, and c on the driver image according to the following formula.
a = (1 / α) KA
b = (1 / β) KB (2)
c = (1 / γ) KC
Α, β, and γ are unknown scaling factors, K is a camera internal parameter matrix, and the value of each element of K is obtained in advance by the focal length, the angle of view, and the like of the imaging optical system of the in-vehicle camera 4. It is done.

確認判定部533は、上記の(1)式及び(2)式からA、B、Cの座標を求める。そして確認判定部533は、顔の向きを表す法線ベクトルnを、以下の式に従って算出する。
n = AC×AB/|AC×AB| (3)
なお、(3)式における'×'は、ベクトルの外積を表し、AB、ACは、それぞれ、A点とB点間のベクトル及びA点とC点間のベクトルである。
なお、上述した顔向きを推定する技術については、例えば、Kaminski 外2名、"Head orientation and gaze detection from a single image"、2006年、International Conference of Computer Vision Theory and Applicationsに開示されている。
The confirmation determination unit 533 obtains the coordinates of A, B, and C from the above expressions (1) and (2). Then, the confirmation determination unit 533 calculates a normal vector n representing the face direction according to the following equation.
n = AC × AB / | AC × AB | (3)
In the equation (3), “×” represents an outer product of vectors, and AB and AC are a vector between points A and B and a vector between points A and C, respectively.
The technique for estimating the face orientation described above is disclosed in, for example, Kaminski et al., “Head orientation and gaze detection from a single image”, 2006, International Conference of Computer Vision Theory and Applications.

確認判定部533は、(3)式により求めた法線ベクトルnと、運転者の両角膜の中心点A、Bの中点とディスプレイ3の中心を結ぶ直線Lとのなす角θを求める。なお、本実施形態では、車内カメラ4は、運転者がディスプレイ3を見たときに、運転者の顔を正面から撮影するように、ディスプレイ3の上部に取り付けられているので、法線ベクトルnと車内カメラ4の撮影光学系の光軸とのなす角をθとしてもよい。なお、3次元実座標系におけるディスプレイ3の中心位置及び撮影光学系の光軸の方向は、ディスプレイ3及び車内カメラ4を設置した時点で分かるので、ディスプレイ3の中心位置の座標、あるいは撮影光学系の光軸の方向を表す方向ベクトルは予め記憶部51に記憶され、確認判定部533は、θを算出する際にそれらを記憶部51から読み込んで使用する。
そして確認判定部533は、その角度θが、人がディスプレイ3を注視していると考えられる所定の角度θth未満の場合、運転者はディスプレイ3を見たと判定する。なお、所定の角度θthは、実験的に最適化することができ、例えば、5°に設定される。
The confirmation / determination unit 533 obtains an angle θ between the normal vector n obtained by the expression (3) and the straight line L connecting the midpoints A and B of the driver's corneas and the center of the display 3. In the present embodiment, the in-vehicle camera 4 is attached to the upper part of the display 3 so that the driver's face is photographed from the front when the driver looks at the display 3, so the normal vector n And the angle formed by the optical axis of the photographing optical system of the in-vehicle camera 4 may be θ. Since the center position of the display 3 and the direction of the optical axis of the photographing optical system in the three-dimensional real coordinate system are known when the display 3 and the in-vehicle camera 4 are installed, the coordinates of the center position of the display 3 or the photographing optical system The direction vector representing the direction of the optical axis is stored in the storage unit 51 in advance, and the confirmation determination unit 533 reads them from the storage unit 51 and uses them when calculating θ.
And the confirmation determination part 533 determines with the driver | operator having looked at the display 3, when the angle (theta) is less than predetermined | prescribed angle (theta) th considered that the person is gazing at the display 3. FIG. The predetermined angle θth can be optimized experimentally, and is set to 5 °, for example.

また、確認判定部533は、他の方法で運転者がディスプレイ3を見ているか否か判定してもよい。例えば、確認判定部533は、両目の角膜の中心点A、B及び鼻孔の中点Cを頂点とする三角形が辺ABを底辺とし、辺ABの長さと辺ACの長さが略等しい二等辺三角形となっていれば、運転者がディスプレイ3を見たと判定してもよい。   Further, the confirmation determination unit 533 may determine whether or not the driver is watching the display 3 by another method. For example, the confirmation determination unit 533 is an isosceles side in which a triangle whose apexes are the center points A and B of the corneas of both eyes and the midpoint C of the nostril has the side AB as a base, and the length of the side AB is substantially equal to the length of the side AC. If it is a triangle, it may be determined that the driver has seen the display 3.

なお、確認判定部533は、一定期間の間に取得された複数枚の運転者画像のそれぞれにおいて、運転者がディスプレイ3を見たと判定したときに、警告画像において強調表示されている危険物体を運転者は確認したと判定してもよい。この場合、その一定期間は、例えば、人が移動している物体を認識するのに必要な最小限の期間あるいはその期間よりも少し長い期間、例えば1秒間に設定することができる。   Note that the confirmation determination unit 533 selects a dangerous object highlighted in the warning image when it is determined that the driver has viewed the display 3 in each of the plurality of driver images acquired during a certain period. The driver may determine that the driver has confirmed. In this case, the certain period can be set to, for example, a minimum period necessary for recognizing a moving object or a period slightly longer than that period, for example, 1 second.

確認判定部533は、運転者が危険物体を確認したと判定した場合、そのときの最新の周辺画像において検出されている全ての危険物体に対して、運転者がその危険物体を確認したことを示す認知済みフラグを設定する。そして確認判定部533は、その危険物体に対応する候補領域の識別番号と関連付けて、その認知済みフラグを記憶部51に記憶する。これ以降、制御部53は、記憶部51に記憶されている危険物体に対応する候補領域の識別番号と関連付けられた認知済みフラグが記憶されているか否かを調べることにより、その危険物体が運転者により既に確認されているか否かを判定することができる。
さらに確認判定部533は、制御部53を構成するプロセッサから現在時刻を取得し、その現在時刻を最終確認時刻として記憶部51に記憶する。
When it is determined that the driver has confirmed the dangerous object, the confirmation determination unit 533 confirms that the driver has confirmed the dangerous object for all the dangerous objects detected in the latest peripheral image at that time. Set the recognized flag to indicate. Then, the confirmation determination unit 533 stores the recognized flag in the storage unit 51 in association with the identification number of the candidate area corresponding to the dangerous object. Thereafter, the control unit 53 checks whether the recognized flag associated with the identification number of the candidate area corresponding to the dangerous object stored in the storage unit 51 is stored, so that the dangerous object is driven. It can be determined whether or not it has already been confirmed by the person.
Further, the confirmation determination unit 533 acquires the current time from the processor constituting the control unit 53 and stores the current time in the storage unit 51 as the final confirmation time.

図4に、制御部53により制御される、警告表示装置1の警告表示及び警告解除動作のフローチャートを示す。なお、制御部53は、車外カメラ2から新たな周辺画像を取得する度に、このフローチャートに示す動作を繰り返す。
まず、制御部53の危険物体検出部531は、車外カメラ2より取得した最新の周辺画像から、車両10と衝突する危険性のある危険物体の可能性がある候補領域を検出する(ステップS101)。次に、危険物体検出部531は、候補領域が一つ以上検出された場合、過去に取得された周辺画像において検出された候補領域と、最新の周辺画像において検出された各候補領域とのトラッキング処理を実行する(ステップS102)。危険物体検出部531は、過去に取得された周辺画像において検出された候補領域と、最新の周辺画像において検出された候補領域のうち、同一の物体に対応すると推定される候補領域を関連付ける。危険物体検出部531は、同一の物体に対応する、時系列に並んだ複数の周辺画像における各候補領域の位置のずれに基づいて、その物体の移動方向及び移動速度を求める。そして危険物体検出部531は、その物体の移動方向または移動速度に基づいて、その物体が車両10と衝突する可能性のある危険物体が検出されているか否か判定する(ステップS103)。
FIG. 4 shows a flowchart of the warning display and warning release operation of the warning display device 1 controlled by the control unit 53. In addition, whenever the control part 53 acquires a new periphery image from the camera 2 outside a vehicle, the operation | movement shown in this flowchart is repeated.
First, the dangerous object detection unit 531 of the control unit 53 detects a candidate area that may be a dangerous object that may collide with the vehicle 10 from the latest peripheral image acquired from the outside camera 2 (step S101). . Next, when one or more candidate areas are detected, the dangerous object detection unit 531 tracks the candidate areas detected in the peripheral image acquired in the past and the candidate areas detected in the latest peripheral image. Processing is executed (step S102). The dangerous object detection unit 531 associates a candidate area detected in the past acquired peripheral image with a candidate area estimated to correspond to the same object among the candidate areas detected in the latest peripheral image. The dangerous object detection unit 531 obtains the moving direction and moving speed of each candidate area based on the positional shift of each candidate area in a plurality of time-series surrounding images corresponding to the same object. Based on the moving direction or moving speed of the object, the dangerous object detection unit 531 determines whether a dangerous object that may collide with the vehicle 10 is detected (step S103).

最新の周辺画像において危険物体が検出されなかった場合、制御部53は、車外カメラ2から取得した周辺画像を表示部3に表示させる(ステップS104)。そして制御部53は処理を終了する。
一方、最新の周辺画像において危険物体が検出された場合、制御部53は、検出された全ての危険物体について、運転者が確認済みか否か判定する(ステップS105)。なお、危険物体に対応する候補領域の識別番号と関連付けて認知済みフラグが記憶部51に記憶されていれば、制御部53は、その危険物体は運転者により確認されていると判定できる。一方、記憶部51に、危険物体に対応する候補領域の識別番号に関連付けられた認知済みフラグがなければ、制御部53は、その危険物体は運転者により確認されていないと判定できる。
When the dangerous object is not detected in the latest peripheral image, the control unit 53 causes the display unit 3 to display the peripheral image acquired from the vehicle exterior camera 2 (step S104). Then, the control unit 53 ends the process.
On the other hand, when a dangerous object is detected in the latest peripheral image, the control unit 53 determines whether or not the driver has confirmed all the detected dangerous objects (step S105). If the recognized flag is stored in the storage unit 51 in association with the identification number of the candidate area corresponding to the dangerous object, the control unit 53 can determine that the dangerous object has been confirmed by the driver. On the other hand, if there is no recognized flag associated with the identification number of the candidate area corresponding to the dangerous object in the storage unit 51, the control unit 53 can determine that the dangerous object has not been confirmed by the driver.

運転者に確認されていない危険物体が存在する場合、制御部53の警告画像生成部532は、運転者が確認していない危険物体を強調表示する警告画像を生成し、制御部53に渡す。そして制御部53は、その警告画像を表示部3に表示させる(ステップS106)。その後、制御部53の確認判定部533は、運転者が未確認の危険物体を確認したか否か判定する(ステップS107)。なお、確認判定部533は、上記のように、車内カメラ4から取得した運転者画像に基づいて、運転者の顔の向きを調べ、その顔の向きから運転者がディスプレイ3を見たと判定した場合、運転者は未確認の危険物体を確認したと判定する。
確認判定部533は、運転者が未確認の危険物体を確認したと判定した場合、最新の周辺画像において検出されている全ての危険物体に対して認知フラグを設定する(ステップS108)。そして確認判定部533は、その認知フラグを、対応する危険物体に対応する候補領域の識別番号と関連付けて記憶部51に記憶する。さらに確認判定部533は、制御部53を構成するプロセッサから現在時刻を取得し、その現在時刻を最終確認時刻として記憶部51に記憶する。
ステップS108の後、あるいはステップS107において確認判定部533が運転者は未確認の危険物体を確認していないと判定した場合、制御部53は処理を終了する。
When there is a dangerous object that has not been confirmed by the driver, the warning image generation unit 532 of the control unit 53 generates a warning image that highlights the dangerous object that has not been confirmed by the driver, and passes the warning image to the control unit 53. Then, the control unit 53 displays the warning image on the display unit 3 (step S106). Thereafter, the confirmation determination unit 533 of the control unit 53 determines whether or not the driver has confirmed an unconfirmed dangerous object (step S107). As described above, the confirmation determination unit 533 checks the direction of the driver's face based on the driver image acquired from the in-vehicle camera 4 and determines that the driver has viewed the display 3 from the direction of the face. The driver determines that an unidentified dangerous object has been confirmed.
When it is determined that the driver has confirmed an unconfirmed dangerous object, the confirmation determination unit 533 sets a recognition flag for all the dangerous objects detected in the latest peripheral image (step S108). Then, the confirmation determination unit 533 stores the recognition flag in the storage unit 51 in association with the identification number of the candidate area corresponding to the corresponding dangerous object. Further, the confirmation determination unit 533 acquires the current time from the processor constituting the control unit 53 and stores the current time in the storage unit 51 as the final confirmation time.
After step S108 or when the confirmation determination unit 533 determines in step S107 that the driver has not confirmed an unconfirmed dangerous object, the control unit 53 ends the process.

一方、ステップS105において、全ての危険物体が運転者により確認されていると判定された場合、制御部53は、現在時刻が記憶部51に記憶された最終確認時刻から所定期間内か否か判定する(ステップS109)。現在時刻が最終確認時刻からの所定期間を過ぎていれば、制御部53は、制御をステップS104に移行する。
一方、現在時刻が最終確認時刻からの所定期間内であれば、警告画像生成部532は、危険物体の強調度合いを運転者がその危険物体を確認していない場合よりも弱くした警告画像を生成して、制御部53に渡す。そして制御部53は、その警告画像を表示部3に表示させる(ステップS110)。その後、制御部53は処理を終了する。
On the other hand, when it is determined in step S105 that all dangerous objects have been confirmed by the driver, the control unit 53 determines whether or not the current time is within a predetermined period from the last confirmation time stored in the storage unit 51. (Step S109). If the current time has passed the predetermined period from the final confirmation time, the control unit 53 proceeds to step S104.
On the other hand, if the current time is within a predetermined period from the final confirmation time, the warning image generation unit 532 generates a warning image in which the degree of emphasis on the dangerous object is weaker than when the driver has not confirmed the dangerous object. Then, it is passed to the control unit 53. And the control part 53 displays the warning image on the display part 3 (step S110). Thereafter, the control unit 53 ends the process.

以上説明してきたように、本発明の一実施形態である警告表示装置は、車両の周囲を撮影するカメラから取得された画像から、車両と衝突する可能性があると推定される危険物体を検出する。そしてこの警告表示装置は、危険物体が検出された場合、車内に設置されたディスプレイ上において危険物体を強調表示した警告画像を表示することで、運転者に対して衝突の危険性があることを警告することができる。さらにこの警告表示装置は、警告画像を見たことを、運転者の顔を撮影した画像から確認することで、運転者がその警告に対して特別な操作を行うことなく警告を解除できる。したがって、この警告表示装置は、車両が何かと衝突する危険性があることを確実に運転者に対して警告できるとともに、一旦運転者が確認した警告を自動的に解除できるので、運転者の運転への集中力の低下を防止できる。   As described above, the warning display device according to an embodiment of the present invention detects a dangerous object estimated to possibly collide with a vehicle from an image acquired from a camera that captures the surroundings of the vehicle. To do. This warning display device displays a warning image highlighting the dangerous object on the display installed in the vehicle when a dangerous object is detected, thereby indicating that there is a risk of collision with the driver. Can be warned. Further, the warning display device can confirm that the warning image has been seen from an image obtained by photographing the driver's face, so that the driver can cancel the warning without performing a special operation for the warning. Therefore, this warning display device can reliably warn the driver that there is a risk that the vehicle will collide with something, and can automatically cancel the warning once confirmed by the driver. Can prevent a decrease in concentration.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、制御部の確認判定部は、運転者の声を解析することにより、危険物体を確認したか否かを判定してもよい。この場合、本発明の一実施形態に係る警告表示装置は、上記の実施形態において、車内カメラの代わりに、車室内、例えば、ステアリングに設置されたマイクロホンを有する。そしてマイクロホンにより集音された運転者の音声は、コントローラへ送られる。また確認判定部は、運転者が確認していない危険物体が存在し、ディスプレイ上に警告画像が表示されている間、例えば、隠れマルコフモデルを用いてマイクロホンにより集音された音声を解析し、危険物体を確認したことを示す、予め設定された所定の言葉(例えば、「確認」、「見た」など)を検出できるか否か判定する。そして確認判定部は、その所定の言葉を検出できた場合、運転者は危険物体の存在を確認したと判定する。なお、その所定の言葉を、運転者が事前にマイクロホンを通じてコントローラに入力し、コントローラの記憶部に記憶させることにより、運転者が自由に設定できるようにしてもよい。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, the confirmation determination unit of the control unit may determine whether or not the dangerous object has been confirmed by analyzing the driver's voice. In this case, the warning display device according to an embodiment of the present invention includes a microphone installed in the vehicle interior, for example, the steering, instead of the in-vehicle camera in the above embodiment. The driver's voice collected by the microphone is sent to the controller. Further, the confirmation determination unit analyzes the sound collected by the microphone using, for example, a hidden Markov model while there is a dangerous object that has not been confirmed by the driver and the warning image is displayed on the display. It is determined whether or not a predetermined word (for example, “confirmation”, “seen”, etc.) that indicates that the dangerous object has been confirmed can be detected. Then, the confirmation determination unit determines that the driver has confirmed the presence of the dangerous object when the predetermined word can be detected. The predetermined words may be set freely by the driver by inputting the predetermined words to the controller through a microphone in advance and storing them in the storage unit of the controller.

また、本発明の一実施形態に係る警告表示装置は、上記の実施形態において、車内カメラとともに車室内に設置されたマイクロホンを有していてもよい。そして制御部の確認判定部は、運転者が確認していない危険物体が存在し、ディスプレイ上に警告画像が表示されている間に、運転者画像に基づいて運転者がディスプレイを見たことを確認し、かつ、マイクロホンにより集音された音声から危険物体を確認したことを示す所定の言葉を検出できた場合、運転者は危険物体の存在を確認したと判定してもよい。あるいは、運転者が確認していない危険物体が存在し、ディスプレイ上に警告画像が表示されている間に、確認判定部は、運転者画像に基づいて運転者がディスプレイを見たことを確認するか、またはマイクロホンにより集音された音声から危険物体を確認したことを示す所定の言葉を検出できた場合、運転者は危険物体の存在を確認したと判定してもよい。
さらに、警告表示装置は、危険物体が検出されていない場合、あるいは運転者が確認していない危険物体が存在せず、かつ危険物体の最終確認時刻から所定期間が経過している場合、ディスプレイの画面を消してもよい。この場合、最終確認時刻から所定期間が経過するまでの間、警告表示装置は、ディスプレイの画面を徐々に暗くしてもよい。さらにまた、警告表示装置は、確認判定部により、運転者が危険物体を確認したと判定した後、直ちに警告画像の表示を停止してもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
Moreover, the warning display apparatus which concerns on one Embodiment of this invention may have the microphone installed in the vehicle interior with the vehicle camera in said embodiment. The confirmation determination unit of the control unit confirms that the driver has viewed the display based on the driver image while there is a dangerous object that the driver has not confirmed and the warning image is displayed on the display. If the predetermined word indicating that the dangerous object has been confirmed can be detected from the sound collected by the microphone, the driver may determine that the presence of the dangerous object has been confirmed. Alternatively, while there is a dangerous object that has not been confirmed by the driver and the warning image is displayed on the display, the confirmation determination unit confirms that the driver has viewed the display based on the driver image. Alternatively, if a predetermined word indicating that the dangerous object has been confirmed can be detected from the sound collected by the microphone, the driver may determine that the presence of the dangerous object has been confirmed.
In addition, the warning display device can be used to display a display when no dangerous object is detected, or when there is no dangerous object that has not been confirmed by the driver and a predetermined period has elapsed since the last confirmation time of the dangerous object. You may turn off the screen. In this case, the warning display device may gradually darken the screen of the display until a predetermined period elapses from the final confirmation time. Furthermore, the warning display device may stop displaying the warning image immediately after the confirmation determination unit determines that the driver has confirmed the dangerous object.
As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 警告表示装置
2 車外カメラ
3 ディスプレイ
4 車内カメラ
5 コントローラ
6 コントロールエリアネットワーク
51 記憶部
52 通信部
53 制御部
531 危険物体検出部
532 警告画像生成部
533 確認判定部
DESCRIPTION OF SYMBOLS 1 Warning display apparatus 2 Camera outside vehicle 3 Display 4 Camera in vehicle 5 Controller 6 Control area network 51 Memory | storage part 52 Communication part 53 Control part 531 Dangerous object detection part 532 Warning image generation part 533 Confirmation determination part

Claims (5)

車両(10)の周囲を撮影した周辺画像を取得する第1の撮像部(2)と、
前記周辺画像から、車両(10)と衝突する危険性がある危険物体を検出する危険物体検出部(531)と、
前記周辺画像上で前記危険物体検出部(531)により検出された危険物体を強調表示した第1の警告画像を生成する警告画像生成部(532)と、
前記第1の警告画像を表示する表示部(3)と、
前記表示部(3)に前記第1の警告画像が表示されている間、車両(10)の運転者が前記危険物体を確認したか否か判定する確認判定部(533)と、
を有し、
前記表示部(3)は、前記確認判定部(533)により運転者が前記危険物体を確認したと判定された後に警告画像の表示を停止する、
ことを特徴とする警告表示装置。
A first imaging unit (2) for acquiring a peripheral image obtained by photographing the periphery of the vehicle (10);
A dangerous object detection unit (531) for detecting a dangerous object that may collide with the vehicle (10) from the surrounding image;
A warning image generation unit (532) for generating a first warning image highlighting the dangerous object detected by the dangerous object detection unit (531) on the peripheral image;
A display unit (3) for displaying the first warning image;
A confirmation determination unit (533) for determining whether or not the driver of the vehicle (10) has confirmed the dangerous object while the first warning image is displayed on the display unit (3);
Have
The display unit (3) stops displaying the warning image after it is determined by the confirmation determination unit (533) that the driver has confirmed the dangerous object.
A warning display device characterized by that.
運転者の顔を撮影するように設置された第2の撮像部(4)をさらに有し、
前記確認判定部(533)は、前記表示部(3)に前記第1の警告画像が表示されている間、前記第2の撮像部(4)から取得した、運転者の顔を撮影した運転者画像から運転者の顔の向きを判定し、該顔の向きが前記表示部(3)を向いていると判定した場合、運転者が前記危険物体を確認したと判定する、請求項1に記載の警告表示装置。
A second imaging unit (4) installed so as to photograph the driver's face;
The confirmation determination unit (533) captures the driver's face acquired from the second imaging unit (4) while the first warning image is displayed on the display unit (3). The direction of the driver's face is determined from the driver image, and when it is determined that the face direction is facing the display unit (3), it is determined that the driver has confirmed the dangerous object. The warning display device described.
車室内に設置された集音部をさらに有し、
前記確認判定部(533)は、前記表示部(3)に前記第1の警告画像が表示されている間、前記集音部により集音された音声を解析し、予め設定された所定の言葉を検出した場合、運転者が前記危険物体を確認したと判定する、請求項1に記載の警告表示装置。
It further has a sound collection part installed in the passenger compartment,
The confirmation determination unit (533) analyzes the sound collected by the sound collection unit while the first warning image is displayed on the display unit (3), and sets predetermined words. The warning display device according to claim 1, wherein when it is detected, the driver determines that the dangerous object has been confirmed.
前記警告画像生成部(532)は、前記確認判定部(533)が車両(10)の運転者が前記危険物体を確認したと判定してから所定期間が経過するまでの間、前記第1の警告画像よりも前記危険物体の強調表示度合いが少ない第2の警告画像を生成し、
前記表示部(3)は、前記確認判定部(533)が車両(10)の運転者が前記危険物体を確認したと判定してから前記所定期間が経過するまでの間、前記第2の警告画像を表示する、請求項1〜3の何れか一向に記載の警告表示装置。
The warning image generation unit (532) includes the first determination unit (533) until the predetermined period elapses after the confirmation determination unit (533) determines that the driver of the vehicle (10) has confirmed the dangerous object. Generating a second warning image with a lower degree of highlighting of the dangerous object than the warning image;
The display unit (3) includes the second warning until the predetermined period elapses after the confirmation determination unit (533) determines that the driver of the vehicle (10) has confirmed the dangerous object. The warning display device according to claim 1, which displays an image.
第1の撮像部(2)により撮影された、車両(10)の周囲を撮影した周辺画像を取得するステップと、
前記周辺画像から、車両(10)と衝突する危険性がある危険物体を検出するステップと、
前記周辺画像上で前記危険物体を強調表示した警告画像を生成するステップと、
前記警告画像を表示部(3)に表示するステップと、
前記表示部(3)に前記警告画像が表示されている間、車両(10)の運転者が前記危険物体を確認したか否か判定するステップと、
運転者が前記危険物体を確認したと判定された後に前記表示部(3)上での前記警告画像の表示を停止するステップと、
を含むことを特徴とする警告表示方法。
Obtaining a peripheral image captured by the first imaging unit (2) and capturing the periphery of the vehicle (10);
Detecting a dangerous object that may collide with the vehicle (10) from the surrounding image;
Generating a warning image highlighting the dangerous object on the peripheral image;
Displaying the warning image on the display unit (3);
Determining whether the driver of the vehicle (10) has confirmed the dangerous object while the warning image is displayed on the display unit (3);
Stopping the display of the warning image on the display unit (3) after it is determined that the driver has confirmed the dangerous object;
The warning display method characterized by including.
JP2009036764A 2009-02-19 2009-02-19 Alarm display and alarm display method Pending JP2010191793A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009036764A JP2010191793A (en) 2009-02-19 2009-02-19 Alarm display and alarm display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009036764A JP2010191793A (en) 2009-02-19 2009-02-19 Alarm display and alarm display method

Publications (1)

Publication Number Publication Date
JP2010191793A true JP2010191793A (en) 2010-09-02

Family

ID=42817756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009036764A Pending JP2010191793A (en) 2009-02-19 2009-02-19 Alarm display and alarm display method

Country Status (1)

Country Link
JP (1) JP2010191793A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198207A (en) * 2011-03-18 2012-10-18 Enii Kk Image processing device and method, and mobile-body collision prevention apparatus
JP2013114536A (en) * 2011-11-30 2013-06-10 Seiko Epson Corp Safety support apparatus and safety support method
JP2014231301A (en) * 2013-05-29 2014-12-11 富士重工業株式会社 Image processor
JP2017062575A (en) * 2015-09-24 2017-03-30 アルパイン株式会社 Rear side vehicle detection warning apparatus
CN107176161A (en) * 2016-03-10 2017-09-19 松下电器(美国)知识产权公司 Recognition result suggestion device, recognition result reminding method and autonomous body
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon
CN114944082A (en) * 2021-02-16 2022-08-26 丰田自动车株式会社 Image collecting device, image collecting method, and recording medium
DE102014216666B4 (en) 2013-08-23 2023-03-30 Ford Global Technologies, Llc TAILGATE POSITION DETECTION
JP7433188B2 (en) 2020-10-15 2024-02-19 三菱電機株式会社 Imaging devices, mobile displays, and driver monitoring systems

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07117593A (en) * 1993-10-21 1995-05-09 Mitsubishi Electric Corp Alarm device for vehicle
JP2005135037A (en) * 2003-10-29 2005-05-26 Toyota Central Res & Dev Lab Inc Vehicular information presentation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07117593A (en) * 1993-10-21 1995-05-09 Mitsubishi Electric Corp Alarm device for vehicle
JP2005135037A (en) * 2003-10-29 2005-05-26 Toyota Central Res & Dev Lab Inc Vehicular information presentation system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198207A (en) * 2011-03-18 2012-10-18 Enii Kk Image processing device and method, and mobile-body collision prevention apparatus
EP2500890A3 (en) * 2011-03-18 2016-12-07 Any Co., Ltd. Image processing device, method thereof, and moving body anti-collision device
US9858488B2 (en) 2011-03-18 2018-01-02 Any Co. Ltd. Image processing device, method thereof, and moving body anti-collision device
JP2013114536A (en) * 2011-11-30 2013-06-10 Seiko Epson Corp Safety support apparatus and safety support method
JP2014231301A (en) * 2013-05-29 2014-12-11 富士重工業株式会社 Image processor
DE102014216666B4 (en) 2013-08-23 2023-03-30 Ford Global Technologies, Llc TAILGATE POSITION DETECTION
JP2017062575A (en) * 2015-09-24 2017-03-30 アルパイン株式会社 Rear side vehicle detection warning apparatus
CN107176161A (en) * 2016-03-10 2017-09-19 松下电器(美国)知识产权公司 Recognition result suggestion device, recognition result reminding method and autonomous body
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon
JP7433188B2 (en) 2020-10-15 2024-02-19 三菱電機株式会社 Imaging devices, mobile displays, and driver monitoring systems
CN114944082A (en) * 2021-02-16 2022-08-26 丰田自动车株式会社 Image collecting device, image collecting method, and recording medium

Similar Documents

Publication Publication Date Title
JP2010191793A (en) Alarm display and alarm display method
JP4612635B2 (en) Moving object detection using computer vision adaptable to low illumination depth
JP4692344B2 (en) Image recognition device
JP4872245B2 (en) Pedestrian recognition device
JP5774770B2 (en) Vehicle periphery monitoring device
US20100322507A1 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
JP4173902B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP5127531B2 (en) Image monitoring device
JP2007129560A (en) Object detector
JP2007241740A (en) Vehicle periphery monitoring device
EP1703480B1 (en) System and method to determine awareness
JP5001930B2 (en) Motion recognition apparatus and method
JP4645433B2 (en) Graphic center detection method, ellipse detection method, image recognition device, control device
KR101914362B1 (en) Warning system and method based on analysis integrating internal and external situation in vehicle
JP6043933B2 (en) Sleepiness level estimation device, sleepiness level estimation method, and sleepiness level estimation processing program
JP5621558B2 (en) Vehicle display device
JP2008183933A (en) Noctovision equipment
JP4701961B2 (en) Pedestrian detection device
JP2011103058A (en) Erroneous recognition prevention device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2011134119A (en) Vehicle periphery monitoring device
US20210279486A1 (en) Collision avoidance and pedestrian detection systems
JP2009237773A (en) Image processor and image processing program
JP5430633B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120207