WO2013046408A1 - 画像表示装置及び画像表示方法 - Google Patents

画像表示装置及び画像表示方法 Download PDF

Info

Publication number
WO2013046408A1
WO2013046408A1 PCT/JP2011/072468 JP2011072468W WO2013046408A1 WO 2013046408 A1 WO2013046408 A1 WO 2013046408A1 JP 2011072468 W JP2011072468 W JP 2011072468W WO 2013046408 A1 WO2013046408 A1 WO 2013046408A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
screen
vehicle
displaying
Prior art date
Application number
PCT/JP2011/072468
Other languages
English (en)
French (fr)
Inventor
有華 祖父江
竜路 岡村
愛 吉岡
悠 日栄
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to PCT/JP2011/072468 priority Critical patent/WO2013046408A1/ja
Priority to CN201180073796.8A priority patent/CN103843325B/zh
Priority to EP11873490.4A priority patent/EP2763405B1/en
Priority to JP2013535753A priority patent/JP5895941B2/ja
Priority to US14/347,996 priority patent/US9296336B2/en
Publication of WO2013046408A1 publication Critical patent/WO2013046408A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

 後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を複数の画面に分割して表示しつつ、自車両100のドライバーの運転を支援する移動物接近検出枠210又は歩行者検出枠212を表示することが可能であり、移動物接近検出枠210を表示するときと、移動物接近検出枠210を表示しないときとで、表示する画面の数を変更する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とをより認識し易くなる。

Description

画像表示装置及び画像表示方法
 本発明の一実施形態は、車両の周辺画像を表示する画像表示装置及び画像表示方法に関する。
 微低速走行時において、自車両による死角及び壁や隣接する他車両等の遮蔽物による死角によって、ドライバーが見たい場所が目視によって見えない場合がある。そこで、自車両による死角や遮蔽物による死角をカメラで撮影し、撮影した画像をディスプレイとを用いて表示する装置が提案されている。例えば、特許文献1の装置では、180°の視角を有する広角カメラで撮影した画像について、通常時は180°の視角中の120°の範囲をディスプレイに表示して駐車支援画像とする。障害物が検出されたときは、この装置は180°の広角の範囲をディスプレイに表示して駐車支援画像とする。
特開2009-65483号公報
 ところで上記の技術では、車両が所定の閾値未満の低速で後退中であることが上記のシステムの作動条件である。しかしながら上記の技術では、例えば車両が閾値以上の高速で後退中であり、装置のシステムが非作動であることをドライバーが認識していない場合、システムの非作動の条件下であるにも関わらず、ドライバーがシステムによる支援を受けることができると誤解する可能性がある。この場合、画面は障害物が存在する場合でも、広角の画像に切り替わらないため、ドライバーは障害物が無いと誤解して車両を走行させる可能性がある。したがって、従来の装置は、システムの作動時と非作動時との認識し易さの点で改善の余地がある。
 本発明の一実施形態は、このような実情を考慮してなされたものであり、その目的は、ドライバーの運転を支援するシステムの作動時と非作動時とをより認識し易くなる画像表示装置及び画像表示方法を提供することにある。
 本発明の一実施形態は、車両の周辺画像を取得する画像取得ユニットと、画像取得ユニットが取得した周辺画像を表示する画像表示ユニットとを備え、画像表示ユニットは、周辺画像を複数の画面に分割して表示しつつ、周辺画像に写った物体の接近を示す運転支援表示を表示することが可能であり、運転支援表示を表示するときと、運転支援表示の少なくとも一部を表示しないときとで、表示する画面の数を変更する画像表示装置である。
 この構成によれば、車両の周辺画像を取得する画像取得ユニットと、画像取得ユニットが取得した周辺画像を表示する画像表示ユニットとを備えた画像表示装置において、画像表示ユニットは、周辺画像を複数の画面に分割して表示しつつ、周辺画像に写った物体の接近を示す運転支援表示を表示することが可能であり、運転支援表示を表示するときと、運転支援表示の少なくとも一部を表示しないときとで、表示する画面の数を変更する。このため、ドライバーは、運転支援表示を表示するシステムの作動時と非作動時とをより認識し易くなる。
 また、画像表示ユニットは、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示することが可能であり、運転支援表示を表示するときは、左側方画面、中央画面及び右側方画面を表示し、運転支援表示の少なくとも一部を表示しないときは、中央画面のみを表示することができる。
 この構成によれば、画像表示ユニットは、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示することが可能であり、運転支援表示を表示するときは、左側方画面、中央画面及び右側方画面を表示し、運転支援表示の少なくとも一部を表示しないときは、中央画面のみを表示する。このため、ドライバーは、運転支援表示を表示するシステムの作動時と非作動時とを認識し易い。また、運転支援表示を表示するシステムの非作動時にも、中央画面は表示されるため、中央画面を周辺監視のために用いることができる。
 また、画像表示ユニットは、左側方画面及び右側方画面のいずれかの周辺画像に写った物体が車両に接近するときは、物体の接近を示す運転支援表示を表示することができる。
 この構成によれば、画像表示ユニットは、左側方画面及び右側方画面のいずれかの周辺画像に写った物体が車両に接近するときは、物体の接近を示す運転支援表示を表示する。このため、ドライバーは中央画面を注視していたとしても、側方から接近する物体に気付き易い。
 この場合、画像表示ユニットは、車両の速度及び舵角のいずれかが所定の閾値以上のときは、運転支援表示の少なくとも一部を表示しないことができる。
 この構成によれば、画像表示ユニットは、車両の速度及び舵角のいずれかが所定の閾値以上のときは、運転支援表示を表示しない。物体の接近を検知する手法としては、レーダ、ライダ、ソナー及び画像認識等があるが、車両の速度や舵角が大きい場合は誤検知や未検知等の恐れがある。誤検知や未検知はドライバーのシステムへの不信にもつながる。そのため、車両の速度及び舵角が閾値以上のときに運転支援表示の少なくとも一部を表示しないことにより、車両に接近する物体の誤検知や未検知を防止することができる。
 また、本発明の一実施形態は、車両の周辺画像を取得する画像取得工程と、画像取得工程で取得した周辺画像を表示する画像表示工程とを含み、画像表示工程は、周辺画像を複数の画面に分割して表示しつつ、前記周辺画像に写った物体の接近を示す運転支援表示を表示することが可能であり、運転支援表示を表示するときと、運転支援表示の少なくとも一部を表示しないときとで、表示する画面の数を変更する画像表示方法である。
 本発明の一実施形態によれば、ドライバーの運転を支援するシステムの作動時と非作動時とをより認識し易くなる。
実施形態の運転支援表示装置の構成を示すブロック図である。 実施形態の運転支援表示装置が適用される状況を示す平面図である。 実施形態の運転支援表示装置の基本的な動作を示すフローチャートである。 後方広角カメラが撮像した未処理の元画像を示す図である。 実施形態の運転支援表示システムの作動時において接近してくる移動物が存在しないときの表示画像を示す図である。 実施形態の運転支援表示システムの作動時において接近してくる移動物が存在するときの表示画像を示す図である。 実施形態の運転支援表示システムの非作動時において接近してくる移動物が存在しないときの表示画像を示す図である。 実施形態の運転支援表示システムの非作動時において接近してくる移動物が存在するときの表示画像を示す図である。 実施形態の運転支援表示装置のオプティカルフローのエリアに物体が存在するときの状況を示す平面図である。 実施形態の運転支援表示装置のオプティカルフローのエリアに物体が存在するときの運転支援の対象を示す平面図である。 実施形態の運転支援表示装置のパターンマッチングのエリアに物体が存在するときの状況を示す平面図である。 実施形態の運転支援表示装置のパターンマッチングのエリアに物体が存在するときの運転支援の対象を示す平面図である。 実施形態の運転支援表示装置の各支援エリア及び各対象物に応じた動作を示すフローチャートである。 実施形態の運転支援表示装置のオプティカルフローのエリアに移動物が存在し、パターンマッチングのエリアに人が存在するときの表示画像を示す図である。 実施形態の運転支援表示装置のパターンマッチングのエリアに人が存在するときの表示画像を示す図である。 別の実施形態の表示画像を示す図である。 別の実施形態の表示画像を示す図である。
 以下、図面を参照して本発明の実施形態に係る画像表示装置及び画像表示方法について説明する。図1に示すように、本実施形態の画像表示装置は運転支援表示装置1として構成されている。運転支援表示装置1は、後方広角カメラ11、車速センサ12、操舵角センサ13、ECU20及びディスプレイ30を備えている。本実施形態の運転支援表示装置1は、車両に備えられ、車両の後方の画像をドライバーに提供するものである。
 後方広角カメラ11は、車両の後方の画像を撮影するための1台のカメラである。後方広角カメラ11は、視角が180°程度の広角カメラである。車速センサ12は、車両の車速を検出するセンサである。例えば車速センサ12は、車両の車軸の回転速度を検出することにより、車両の車速を検出する。操舵角センサ13は、車両の操舵角を検出するセンサである。シフト位置センサは、車両のトランスミッションのシフト位置が後退(Reverse:R)の位置にあるか否かを検出するセンサである。
 ECU(Electronic Control Unit)20は、運転支援表示1を統括的に制御する。ECU20は、CPU(Central Processing Unit]、ROM(Read Only Memory)、RAM(Random Access Memory)などからなる電子制御ユニットである。ECU2では、ROMに記憶されているアプリケーションプログラムをRAMにダウンロードし、CPUで実行することで、画像表示に係る各種演算処理を実行する。
 ECU20は、その機能ごとに分類した場合には、移動物体検出部21、移動物軌道検出部22、移動物体位置・相対速度検出部23、危険度推定部24及び表示制御部25を有している。
 移動物体検出部21は、後述するように、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる方法と、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる方法とにより、後方広角カメラ11により撮影された画像中の物体を検出する。なお、後述するように、パターンマッチングにより物体を検出する場合には、移動物体検出部21は静止物体を検出することもできる。
 移動物軌道検出部22は、移動物体検出部21により検出された画像中の物体の位置及び動きと、車速センサ12及び操舵角センサ13により検出された車両の動きとから、画像中の物体の軌道を検出する。
 移動物体位置・相対速度検出部23は、移動物軌道検出部22により検出された画像中の物体の軌道に基づいて、画像中の物体の位置及び車両との相対速度を検出する。
 危険度推定部24は、移動物体位置・相対速度検出部23により検出された画像中の物体の位置及び相対速度に基づいて、画像中の物体の危険度を推定する。
 表示制御部25は、後述するように、移動物体位置・相対速度検出部23により検出された物体の位置及び相対速度と、危険度推定部24により推定された危険度と、車速センサ12、操舵角センサ13及びシフト位置センサ14により検出された車両の状態とから、ドライバーの運転を支援するための運転支援表示をディスプレイ30に表示する。
 ディスプレイ30は、後方広角カメラ11により撮影された後方画像を表示する。ディスプレイ30は、例えば、運転席近傍に設けられるモニタや、フロントガラス等に画像を表示するヘッドアップディスプレイを使用することができる。
 なお、本実施形態では、運転支援表示装置1は、後方広角カメラ11により撮影された画像に対する画像認識により車両近傍の物体を検出する。しかし、車両近傍の物体を検出するために、別途、レーダ、ライダ、ソナー等のセンサを備えていても良い。
 以下、本実施形態の運転支援表示装置1の動作について説明する。図2に示すように、本実施形態の運転支援表示装置1は、自車両100が後退しつつ駐車位置から道路に出る場合、及び自車両100が後退しつつ駐車位置に駐車する場合に、自車両100の後方を見ることが難しいドライバーの運転を支援するために適用される。運転支援表示装置1は、後方広角カメラ11の撮像範囲である支援エリアA内の他車両V等を検出し、ドライバーに報知する。
 まず、本実施形態の運転支援表示装置1の基本的な動作について説明する。図3に示すように、本実施形態の運転支援表示装置1は、シフト位置センサ14が自車両100のトランスミッションのシフト位置が後退の位置にある間に作動状態となる(S101)。
 運転支援表示装置1のECU20の表示制御部25は、車速センサ12及び操舵角センサ13の検出値が運転支援表示装置1の運転支援システムの内で側方からの移動物を報知するシステムの作動条件であるか否かを判定する(S102)。
 移動物を検出する方法としては、レーダ、ライダ、ソナー及び画像認識等があるが、センサの性能や画像認識の精度により、自車両100の速度や操舵角等の条件によっては誤検知又は未検知等の恐れがある。誤検出及び未検出はドライバーが運転支援表示装置1の運転支援システムに不信を抱く。そのため、本実施形態では、側方からの移動物を報知する運転支援システムを速度や舵角が所定の閾値以上になった場合は非作動とする。
 例えば図2に示す状況のように自車両100が発進するときにのみ、運転支援表示装置1が自車両100側方の移動物体をドライバーに報知する場合は、速度が0km/h近傍である場合又は速度が0.1~3km/h以下又は4km/h以下である場合を自車両100側方の移動物体をドライバーに報知する運転支援システムの作動条件にできる。
 側方の移動物体を報知する運転支援システムの作動条件である場合は(S102)、表示制御部25はディスプレイ30に、後方広角カメラ11により撮影された画像を3分割して表示する(S103)。図4の表示画面200に示すように、後方広角カメラ11により撮影された元の画像は180°の視角を有する。画像の左右端部は広角レンズの収差により、左右端部に向かうほど小さく上方に見える歪みが生じている。
 本実施形態では、図5に示すように、表示画面200に、後方広角カメラ11により撮影された画像を左右の後側方画面204及び中央の後方画面202に3分割して表示する。左右の後側方画面204及び中央の後方画面202の間は、後方広角カメラ11により撮影された画像が分割されていることがドライバーに判り易いように所定の間隔が隔てられている。この場合の間隔は、2~10mm程度とすることができる。
 表示制御部25は、左右の後側方画面204の画像に対して広角レンズの収差による歪みを補正する歪み補正を施す。表示制御部25は、左右の後側方画面204に施した歪み補正に対応して、左右の後側方画面204を画面の左右に垂直な対辺を有する台形に表示する。表示制御部25は、左の後側方画面204の左側方及び右の後側方画面204の右側方ほど、後側方画面204の上下の幅が狭くなるように表示する。また、表示制御部25は、左の後側方画面204の上下の辺は左上方を向き、右の後側方画面204の上下の辺は右上方を向くように表示する。
 表示制御部25は、中央の後方画面202を長方形となるように表示する。表示制御部25は、左右の後側方画面204及び中央の後方画面202の画像が自車両100のどの位置の画像であるのかを示す表示範囲シンボル206を表示する。また、表示制御部25は、自車両100の後退時にドライバーが運転の基準とするための車幅ライン208を中央の後方画面202に表示する。これにより、左右の後側方画面204及び中央の後方画面202の画像はそれぞれ異なる画像となる。
 運転支援表示装置1のECU20の移動物体検出部21が後述するオプティカルフローの手法により、他車両V等の移動物体を検出したときは(S104)、表示制御部25は、図6に示すように、他車両Vが自車両100に接近してくる側の後側方画面204及び後方画面202の一部を他車両Vが接近してくる方向から囲む移動物接近検出枠210を表示する(S105)。移動物接近検出枠210が囲む範囲は、後側方画面204及び後方画面202の画像中におけるオプティカルフローによる検知範囲を示している。なお、本実施形態では、自車両100近傍に歩行者等の静止物体が存在する場合もドライバーに報知するがその際の動作については後述する。
 車速又は舵角が所定の閾値を越えており、側方の移動物体を報知する運転支援システムの作動条件を満たさないときは(S102)、表示制御部25は運転支援システムの一部を作動させず、図7に示すように中央の後方画面202のみを表示する(S106)。この場合、図8に示すように、ドライバーは、他車両V等の物体が自車両100近傍に接近してきたことは、後方画面202により確認可能である。そのため、側方の移動物体を報知する運転支援システムの非作動時であっても、自車両100の後退時の運転を支援するモニタとして運転支援表示装置1を利用することができる。さらに、側方の移動物体を報知する運転支援システムの非作動時であっても、後述するパターンマッチングによる手法により、中央の後方画面202の画像中の歩行者等は検出され、ドライバーに報知される。
 以下、本実施形態の運転支援表示装置1の物体を検出する動作について説明する。図9に示すように、本実施形態では、後側方画面204に表示される範囲であるオプティカルフロー支援エリアAopでは、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる物体の検出が行われる。一方、後方画面202に表示される範囲であるパターンマッチング支援エリアApmでは、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる物体の検出が行われる。
 図9の例では、オプティカルフロー支援エリアAopから自車両100に他車両Vが接近しており、運転支援表示装置1のECU20の移動物体検出部21は、オプティカルフローにより、他車両Vを検出する。図10の例では、オプティカルフロー支援エリアAopから自車両100に他車両V及び歩行者Pが接近しており、移動物体検出部21は、オプティカルフローにより、他車両V及び歩行者Pを検出する。いずれの例でも、オプティカルフロー支援エリアAopでは、遠方から接近する移動物体を検出可能である。オプティカルフロー支援エリアAopでは静止物体は検出不可能である。しかし、自車両100近傍でなければ、静止物体が自車両100に接触する可能性は無いため、オプティカルフロー支援エリアAopでは、移動物体のみをオプティカルフローによる方法により検出する。
 図11の例では、パターンマッチング支援エリアApmから自車両100に歩行者Pが接近しており、運転支援表示装置1のECU20の移動物体検出部21は、パターンマッチングにより、歩行者Pを検出する。図12の例では、パターンマッチング支援エリアApmから自車両100に移動中の歩行者P及び静止中の歩行者Pが存在しており、移動物体検出部21は、パターンマッチングにより、歩行者Pそれぞれを検出する。いずれの例でも、パターンマッチング支援エリアApmでは、自車両100近傍の移動物体及び静止物体を検出可能である。パターンマッチング支援エリアApmでは、自車両100が移動する範囲であり、静止物体が自車両100に接触する可能性があるため、静止物体も検出する必要がある。パターンマッチング支援エリアApmでは、移動物体検出部21は、照合するためのパターンとして主に人のパターンと画像中の物体との照合を行う。なお、自車両100近傍についてはソナーによって静止物体を検出することでも対応可能である。
 図13に示すように、運転支援表示装置1のECU20の移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出した場合(S202)、ECU20の危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S203)。ECU20の表示制御部25は、危険度を基に図14に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210と歩行者Pを囲む歩行者検出枠212とを後方画面202及び後側方画面204に点滅させつつ表示する(S204)。
 危険度推定部24は、物体の位置が自車両100から近いほど、当該物体の危険度を高く推定する。危険度推定部24は、物体の自車両100との相対速度が大きいほど、当該物体の危険度を高く推定する。表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212を表示する時期を早くする。表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212を点滅させる間隔を短くする。
 あるいは、表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212の輝度が高くなるように表示することができる。あるいは、表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212の色を変化させて表示することができる。例えば、表示制御部25は、危険度推定部24が推定した危険度が高くなるほど、青色、黄色から赤色に変化させて表示することができる。
 移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出していない場合(S202)、危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S205)。表示制御部25は、上述したように危険度を基にして、図6に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210を後側方画面204に点滅させつつ表示する(S206)。
 移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出した場合(S207)、危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S208)。表示制御部25は、上述したように危険度を基にして、図15に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210と歩行者Pを囲む歩行者検出枠212とを後方画面202及び後側方画面204に点滅させつつ表示する(S204)。
 本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示するため、ドライバーはどこを表示しているのかが判り易くなる。また、表示制御部25及びディスプレイ30は、左右の後側方画面204及び中央の後方画面202で同じ画像を表示しなくなるため、ドライバーは後方画像中の物体と自車両100との距離が判り易くなる。また、表示制御部25は、左右の後側方画面204に表示される後方画像の歪みを補正する歪み補正を施すため、ドライバーは歪曲を補正した見易い後方画像を見ることができる。また、表示制御部25は、左右の後側方画面204の形状を歪み補正に応じた形状とするため、ドライバーは後方画像中の物体がどこから接近しているのかが判り易くなる。
 また、表示制御部25は、左右の後側方画面204に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左の後側方画面204の左側方及び右の後側方画面204の右側方ほど後側方画面204の上下の幅を狭くし、左の後側方画面204の上下の辺は左側上方を向いた形状とし、右の後側方画面204の上下の辺は右側上方を向いた部分を有する台形とする。このため、そのため、ドライバーは後方画像がどこを写しているのかが判り易くなる。また、ドライバーは、後方画像中の物体がどこから接近して来るのかが判り易くなる。
 また、表示制御部25は、左右の後側方画面204及び中央の後方画面202それぞれの間に間隔を空けて表示する。このため、ドライバーは、左右の後側方画面204及び中央の後方画面202それぞれが分割されていることが判り易い。
 また、表示制御部25は、左右の側方画面204のいずれかの後方画像に写った物体が自車両100に接近するときは、物体の接近を示す移動物接近検出枠210を表示する。このため、ドライバーは中央の後方画面202を注視していたとしても、側方から接近する物体に気付き易い。
 すなわち、本実施形態では、中央の後方画面202を大きくすることにより、表示画面200をバックガイドモニターとして使用しやすい。後方画面202を大きくし、後側方画面204を小さく表示することにより、側方から接近する物体は画面で小さくなる。しかし、ドライバーが中央の後方画面202を注視していたとしても、ドライバーは側方から接近する物体を移動物接近検出枠210により気付き易い。また、本実施形態では、画面を通常から広角へ切り替える煩わしさがない。
 また、本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を複数の画面に分割して表示しつつ、自車両100のドライバーの運転を支援する移動物接近検出枠210及び歩行者検出枠212を表示することが可能であり、移動物接近検出枠210を表示するときと、移動物接近検出枠210を表示しないときとで、表示する画面の数を変更する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とをより認識し易くなる。
 また、表示制御部25は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示することが可能であり、移動物接近検出枠210及び歩行者検出枠212を表示するときは、左右の後側方画面204及び中央の後方画面202を表示し、移動物接近検出枠210を表示しないときは、中央の後方画面202のみを表示する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とを認識し易い。また、移動物接近検出枠210を表示するシステムの非作動時にも、中央の後方画面202は表示されるため、中央の後方画面202を後方監視のために用いることができる。
 また、表示制御部25は、左右の後側方画面204に写った物体が自車両100に接近するときに物体の接近を示す移動物接近検出枠210を表示する。このため、ドライバーは中央画面を注視していたとしても、側方から接近する物体に気付き易い。
 また、表示制御部25は、自車両100の速度及び舵角のいずれかが所定の閾値以上のときは、移動物接近検出枠210を表示しない。物体の接近を検知する手法としては、レーダ、ライダ、ソナー及び画像認識等があるが、車両の速度や舵角が大きい場合は誤検知や未検知等の恐れがある。誤検知や未検知はドライバーのシステムへの不信にもつながる。そのため、自車両100の速度及び舵角が閾値以上のときに移動物接近検出枠210を表示しないことにより、自車両100に接近する物体の誤検知や未検知を防止することができる。
 また、本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示し、中央の後方画面202の画像について、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出し、左右の後側方画面204の画像について、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出し、検出された物体の存在を示す移動物接近検出枠210又は歩行者検出枠212を表示する。このため、自車両100正面近傍で停止している人、自車両100が移動しているときに自車両100正面近傍に存在する人等を画像と所定のパターンとの照合を行うパターンマッチングの手法で検出し、検出した人等の存在をドライバーに報知することができる。また、自車両100側方の遠方から接近してくる人及び車両等を画像中の点が時間の経過とともに動く方向と速さとを解析するオプティカルフローの手法により検出し、検出した人及び車両等の存在をドライバーに報知することができる。したがって、物体の位置、速度及び種類に応じてより適切に物体を検出して表示することができる。
 また、表示制御部25は、中央の後方画面202の画像に写った歩行者Pを検出したときは、歩行者Pを囲む歩行者検出枠212を表示し、左右の後側方画面204いずれかの画像に写った物体を検出したときは、物体が検出された左右の後側方画面204いずれかの少なくとも一部を囲む移動物接近検出枠210を表示する。これにより、ドライバーは、中央の後方画面202と、左右の後側方画面204とで物体を検出する手法が異なることを認識することができる。つまり、中央の後方画面202と、左右の後側方画面204とで枠の囲み方を変えることで、中央の後方画面では人しか検出しないことをドライバーに知らせることができる。
 ドライバーは、側方は主に発進時に確認し、後方中央は発進時及び移動時に確認することが多い。移動時の場合、より素早く物体を確認する必要があるため、物体を歩行者検出枠212で囲むことによって、物体の位置も認識することができる。
 尚、本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記実施形態での運転支援表示装置1の処理負荷が高い場合は、図16に示すように、後側方画面204’の大きさを歪み補正に合せて小さくするだけでも良い。上述したように、移動物を検知したことをドライバーに報知する移動物接近検出枠210は、物体を検出した範囲によって変更する。後側方画面204’内の場合は後側方画面204’のみに移動物接近検出枠210を表示しても良い。
 また、上記実施形態では、運転支援システムの非作動時に後側方画面204を消去した。しかし、運転支援システムの非作動時に後側方画面204を消去してしまうと、ドライバーによっては後側方画面204を見たいにも関わらず見れないと感じる場合もある。このため、図17に示すように、運転支援システムの非作動時に、後側方画面204を表示しつつ、後側方画面204に非作動表示ライン214を表示することもできる。
 上記の本発明の一実施形態の画像表示装置及び画像表示方法によれば、ドライバーの運転を支援するシステムの作動時と非作動時とをより認識し易くなる。
1 運転支援表示装置
11 後方広角カメラ
12 車速センサ
13 操舵角センサ
14 シフト位置センサ
20 ECU
21 移動物体検出部
22 移動物軌道検出部
23 移動物体位置・相対速度検出部
24 危険度推定部
25 表示制御部
30 ディスプレイ
100 自車両
200 表示画面
202 後方画像
204,204’ 後側方画像
206 表示範囲シンボル
208 車幅ライン
210 移動物接近検出枠
212 歩行者検出枠
214 非作動表示ライン
A…支援エリア
Aop…オプティカルフローエリア
Apm…パターンマッチングエリア
V…他車両
P…歩行者

Claims (5)

  1.  車両の周辺画像を取得する画像取得ユニットと、
     前記画像取得ユニットが取得した前記周辺画像を表示する画像表示ユニットと、
    を備え、
     前記画像表示ユニットは、
     前記周辺画像を複数の画面に分割して表示しつつ、前記周辺画像に写った物体の接近を示す運転支援表示を表示することが可能であり、
     前記運転支援表示を表示するときと、前記運転支援表示の少なくとも一部を表示しないときとで、表示する前記画面の数を変更する、画像表示装置。
  2.  前記画像表示ユニットは、
     前記周辺画像を左側方画面、中央画面及び右側方画面に分割して表示することが可能であり、
     前記運転支援表示を表示するときは、前記左側方画面、前記中央画面及び前記右側方画面を表示し、
     前記運転支援表示の少なくとも一部を表示しないときは、前記中央画面のみを表示する、請求項1に記載の画像表示装置。
  3.  前記画像表示ユニットは、前記左側方画面及び前記右側方画面のいずれかの前記周辺画像に写った物体が前記車両に接近するときは、前記物体の接近を示す前記運転支援表示を表示する、請求項1又は2に記載の画像表示装置。
  4.  前記画像表示ユニットは、前記車両の速度及び舵角のいずれかが所定の閾値以上のときは、前記運転支援表示の少なくとも一部を表示しない、請求項3に記載の画像表示装置。
  5.  車両の周辺画像を取得する画像取得工程と、
     前記画像取得工程で取得した前記周辺画像を表示する画像表示工程と、
    を含み、
     前記画像表示工程は、
     前記周辺画像を複数の画面に分割して表示しつつ、前記周辺画像に写った物体の接近を示す運転支援表示を表示することが可能であり、
     前記運転支援表示を表示するときと、前記運転支援表示の少なくとも一部を表示しないときとで、表示する前記画面の数を変更する、画像表示方法。
PCT/JP2011/072468 2011-09-29 2011-09-29 画像表示装置及び画像表示方法 WO2013046408A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2011/072468 WO2013046408A1 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法
CN201180073796.8A CN103843325B (zh) 2011-09-29 2011-09-29 图像显示装置及图像显示方法
EP11873490.4A EP2763405B1 (en) 2011-09-29 2011-09-29 Image display device and image display method
JP2013535753A JP5895941B2 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法
US14/347,996 US9296336B2 (en) 2011-09-29 2011-09-29 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/072468 WO2013046408A1 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法

Publications (1)

Publication Number Publication Date
WO2013046408A1 true WO2013046408A1 (ja) 2013-04-04

Family

ID=47994515

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/072468 WO2013046408A1 (ja) 2011-09-29 2011-09-29 画像表示装置及び画像表示方法

Country Status (5)

Country Link
US (1) US9296336B2 (ja)
EP (1) EP2763405B1 (ja)
JP (1) JP5895941B2 (ja)
CN (1) CN103843325B (ja)
WO (1) WO2013046408A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229066A (ja) * 2013-05-22 2014-12-08 株式会社デンソー 車両用の映像制御装置
JP2014239326A (ja) * 2013-06-07 2014-12-18 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム
WO2016107674A1 (en) * 2014-12-31 2016-07-07 Daimler Ag Method supporting passengers of autonomous driving vehicles

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP6100635B2 (ja) * 2012-12-13 2017-03-22 株式会社デンソー 移動体検出装置
JP6184877B2 (ja) * 2014-01-09 2017-08-23 クラリオン株式会社 車両用外界認識装置
US9098753B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
JP6398675B2 (ja) 2014-12-09 2018-10-03 株式会社デンソー 画像生成装置
US10055652B2 (en) * 2016-03-21 2018-08-21 Ford Global Technologies, Llc Pedestrian detection and motion prediction with rear-facing camera
US10150414B2 (en) * 2016-07-08 2018-12-11 Ford Global Technologies, Llc Pedestrian detection when a vehicle is reversing
JP6620715B2 (ja) * 2016-10-20 2019-12-18 株式会社デンソー 画像認識装置
JP6649914B2 (ja) * 2017-04-20 2020-02-19 株式会社Subaru 画像表示装置
CN110134155A (zh) * 2019-04-24 2019-08-16 薄涛 跟随幕布、控制方法、装置及存储介质
CN116916156B (zh) * 2023-08-16 2023-12-05 深圳金语科技有限公司 一种监视系统分视野显示方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10215407A (ja) * 1997-01-30 1998-08-11 Osaka Gas Co Ltd 画像取り込み装置、運転支援画像取り込み装置
JP2009065483A (ja) 2007-09-06 2009-03-26 Denso Corp 駐車支援装置
JP2009206939A (ja) * 2008-02-28 2009-09-10 Nissan Motor Co Ltd 車両用画像表示システム及び画像表示装置並びに画像の強調方法
JP2010109483A (ja) * 2008-10-28 2010-05-13 Honda Motor Co Ltd 車両周辺表示方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5796426A (en) * 1994-05-27 1998-08-18 Warp, Ltd. Wide-angle image dewarping method and apparatus
JP4786076B2 (ja) 2001-08-09 2011-10-05 パナソニック株式会社 運転支援表示装置
JP3977368B2 (ja) * 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
JP4793307B2 (ja) * 2007-04-03 2011-10-12 株式会社デンソー 車両周辺監視装置
JP5262897B2 (ja) 2009-03-25 2013-08-14 株式会社デンソー 表示装置
JP2012034076A (ja) * 2010-07-29 2012-02-16 Alps Electric Co Ltd 車両用視覚補助システム及び該システムを備える車両
TWI478833B (zh) 2011-08-31 2015-04-01 Autoequips Tech Co Ltd 調校車用影像裝置之方法及其系統

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10215407A (ja) * 1997-01-30 1998-08-11 Osaka Gas Co Ltd 画像取り込み装置、運転支援画像取り込み装置
JP2009065483A (ja) 2007-09-06 2009-03-26 Denso Corp 駐車支援装置
JP2009206939A (ja) * 2008-02-28 2009-09-10 Nissan Motor Co Ltd 車両用画像表示システム及び画像表示装置並びに画像の強調方法
JP2010109483A (ja) * 2008-10-28 2010-05-13 Honda Motor Co Ltd 車両周辺表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2763405A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229066A (ja) * 2013-05-22 2014-12-08 株式会社デンソー 車両用の映像制御装置
JP2014239326A (ja) * 2013-06-07 2014-12-18 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム
US10528825B2 (en) 2013-06-07 2020-01-07 Sony Corporation Information processing device, approaching object notification method, and program
WO2016107674A1 (en) * 2014-12-31 2016-07-07 Daimler Ag Method supporting passengers of autonomous driving vehicles

Also Published As

Publication number Publication date
JP5895941B2 (ja) 2016-03-30
JPWO2013046408A1 (ja) 2015-03-26
EP2763405A4 (en) 2015-01-21
US9296336B2 (en) 2016-03-29
US20140225723A1 (en) 2014-08-14
CN103843325A (zh) 2014-06-04
EP2763405B1 (en) 2017-06-28
EP2763405A1 (en) 2014-08-06
CN103843325B (zh) 2017-04-12

Similar Documents

Publication Publication Date Title
JP5871006B2 (ja) 画像表示装置及び画像表示方法
JP5895941B2 (ja) 画像表示装置及び画像表示方法
JP5741173B2 (ja) 画像表示装置、及び、画像表示方法
US8896687B2 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
JP5022609B2 (ja) 撮像環境認識装置
US20170280063A1 (en) Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle
WO2016092967A1 (ja) 画像生成装置及び画像生成方法
JP5445719B2 (ja) 画像表示装置及び画像表示方法
JP2005276057A (ja) ノーズビューモニタ装置
JP2011150475A (ja) 周辺監視装置
JP6166188B2 (ja) 撮像システム、および撮像システムの制御方法
JP2000016181A (ja) カメラ付ドアミラー及び車両周辺認識システム
JP2013161440A (ja) 車両周辺監視装置
JP2009246808A (ja) 車両用周辺監視装置
US20210339678A1 (en) Information presentation device, information presentation control method, and non-transitory computer-readable recording medium
JP4799236B2 (ja) 車載表示システム
JP5529097B2 (ja) 車両の運転支援装置
JP2013146029A (ja) 車両周辺監視装置
JP2006182108A (ja) 車両周辺監視装置
JP4585191B2 (ja) ノーズビューシステム
JP5747847B2 (ja) 車両周辺監視装置
JP2004056486A (ja) 車両周辺監視装置
JP2008186132A (ja) 運転支援装置、方法およびプログラム
JP2009110065A (ja) 運転支援装置
JP2022074395A (ja) 車両用表示制御システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11873490

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013535753

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14347996

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2011873490

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011873490

Country of ref document: EP