JP6388267B2 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP6388267B2
JP6388267B2 JP2017205423A JP2017205423A JP6388267B2 JP 6388267 B2 JP6388267 B2 JP 6388267B2 JP 2017205423 A JP2017205423 A JP 2017205423A JP 2017205423 A JP2017205423 A JP 2017205423A JP 6388267 B2 JP6388267 B2 JP 6388267B2
Authority
JP
Japan
Prior art keywords
image
dimensional object
sonar
imaging
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017205423A
Other languages
English (en)
Other versions
JP2018034794A (ja
Inventor
将由 道口
将由 道口
達人 流郷
達人 流郷
謙二 岡野
謙二 岡野
由希子 伊藤
由希子 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2018034794A publication Critical patent/JP2018034794A/ja
Application granted granted Critical
Publication of JP6388267B2 publication Critical patent/JP6388267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Description

本発明は駐車時に障害物との衝突可能性を報知する運転支援装置に関する。
従来から、複数のカメラによって撮像された画像を用いて、俯瞰視点で車両の全周囲を示す全周囲画像を合成、表示して運転を支援する運転支援装置が知られている(例えば特許文献1参照)。
しかし、全周囲画像は路面位置に投影された各カメラ画像を用いて合成されるため、隣り合うカメラの接合境界で立体物の消失(死角)が発生していた。一般に各カメラ画像の接合境界はカメラ取り付け位置やその画角、画素密度などの制約により、車両の四隅付近に設定される。車両の四隅はドライバの目視によっても死角になりやすい。このため、ドライバはこの接合境界付近で立体物を認識できずに運転を継続して、立体物が車両に衝突する可能性がある。
この問題を解決するため、従来はソナーやギア等に連動させてカメラ画像の接合境界の位置や角度を変更していた(例えば特許文献2、特許文献3参照)。
国際公開第00/64175号 特開2007−104373号公報 特開2006−121587号公報
しかし、従来の手法では、車両直近(車体から数十センチ以内の距離)で、依然として死角が生じるという問題があった。特に、例えばソナー等によって立体物の存在が検出されているにもかかわらず俯瞰画像上では立体物が消失してしまい、ドライバが立体物の存在を認識できなくなるおそれがあった。
本発明の目的は、立体物が検出されているにもかかわらず俯瞰画像における車両直近で立体物が消失することを防止することができる運転支援装置を提供することである。
本発明の運転支援装置は、自車両周囲を撮像する第1撮像手段と、自車両周囲に存在する立体物を検出するセンサと、前記第1撮像手段とは別に設けられ、前記センサによる検出範囲を画角内に包含して撮像する第2撮像手段と、前記第1撮像手段から入力された自車両周囲の撮像画像を合成した俯瞰画像を表示する表示手段と、を備え、前記表示手段は、前記センサが立体物を検出しないとき、前記第2撮像手段の撮像画像を用いずに、前記第1撮像手段の撮像画像を用いて自車両の全周囲を示す俯瞰画像を表示し、前記表示手段は、前記センサが立体物を検出したとき、前記第1撮像手段の撮像画像と前記第2撮像手段の撮像画像とを用いて自車両の全周囲を示す俯瞰画像を表示する。
本発明の運転支援装置によれば、立体物が検出されているにもかかわらず俯瞰画像における車両直近で立体物が消失することを防止することができるため、ドライバが車両直近の立体物を認識しやすくなるという効果を奏する。
本発明の実施形態1における運転支援装置の構成を示すブロック図 本発明の実施形態1における第1、第2撮像手段の車両への取り付け位置をイメージで説明する図 本発明の実施形態1におけるソナーの車両への取り付け位置をイメージで説明する図 本発明の実施形態1における第2撮像手段の画角とソナーの検出範囲を水平面のイメージで説明する図 本発明の実施形態1における立体物をイメージで説明する図 本発明の実施形態1における運転支援装置による運転支援処理のフローチャート図 同図6のステップS65で作成された俯瞰画像をイメージで説明する図 同図7の俯瞰画像に生じる死角領域をイメージで説明する図 同図8の死角領域の境界をイメージで説明する図 本発明の実施形態2における運転支援装置の構成を示すブロック図 本発明の実施形態2における第1、第2撮像手段の車両への取り付け位置をイメージで説明する図 本発明の実施形態2におけるソナーの車両への取り付け位置をイメージで説明する図 本発明の実施形態2における第2撮像手段の画角とソナーの検出範囲を水平面のイメージで説明する図 本発明の実施形態2における運転支援装置による運転支援処理のフローチャート図
(実施形態1)
以下、本発明の実施形態1の運転支援装置について図面を参照しながら説明する。なお、本実施形態において、車両は右ハンドルを一例として説明する。左ハンドルの場合は左右が逆になる。
図1は本発明の実施形態1の運転支援装置の構成を示すブロック図である。
図1において、運転支援装置1は、画像処理を行う画像ECU(Electric Control Unit)で構成され、揮発性メモリ2と、画像処理手段3と、不揮発性メモリ4と、制御手段5と、これらを互いに接続するバス6とを有する。運転支援装置1は、第1撮像手段7と、入力手段8と、車速センサ9と、ステアリングセンサ10と、ギア11と、ソナー12と、表示手段13と、第2撮像手段14と接続する。入力手段8、車速センサ9、ステアリングセンサ10、ギア11、ソナー12、表示手段13、第2撮像手段14は運転支援装置1に含まれてもよい。なお、図1に示すステアリングセンサ10およびステアリング信号は、それぞれ、「舵角センサ10」および「舵角信号」と換言してもよい。
揮発性メモリ2は、例えばビデオメモリやRAM(Random Access Memory)で構成される。揮発性メモリ2は第1撮像手段7と接続する。また、揮発性メモリ2は第2撮像手段14と接続する。揮発性メモリ2は、第1撮像手段7、第2撮像手段14から所定時間毎に入力された撮像画像から得られる画像データを一時記憶する。揮発性メモリ2に記憶された画像データは、バス6を介して画像処理手段3に出力される。
画像処理手段3は、例えばASIC(Application Specific Integrated Circuit)やVLSI(Very Large Scale Integration)で構成される。画像処理手段3は表示手段13と接続する。画像処理手段3は、揮発性メモリ2から入力された画像データを視点変換し、不揮発性メモリ4から入力された画像データを重畳した俯瞰画像を所定時間毎に作成する。画像処理手段3は、俯瞰画像に視点変換を施さないノーマル画像を並べた合成画像を作成してもよい。視点変換の手法は、例えば国際公開第00/64175号に開示された技術を用いることができる。画像処理手段3は、この所定時間毎に作成された合成画像を表示画像として表示手段13に出力する。
不揮発性メモリ4は、例えばフラッシュメモリやROM(Read Only Memory)で構成される。不揮発性メモリ4は、自車両の画像データ等の各種画像データ、運転状況に応じた表示方法に関するデータテーブルが記憶されている。不揮発性メモリ4に記憶された画像データは、制御手段5の命令によって読み出され、画像処理手段3による各種画像処理に用いられる。
制御手段5は、例えばCPU(Central Processing Unit)やLSI(Large Scale Integration)で構成される。制御手段5は、入力手段8と、車速センサ9と、ステアリングセンサ10と、ギア11と、ソナー12と接続する。制御手段5は、入力手段8、車速センサ9、ステアリングセンサ10、ギア11、ソナー12から入力された各種信号に基づいて、画像処理手段3の画像処理、揮発性メモリ2や不揮発性メモリ4から読み出すデータ、第1撮像手段7や第2撮像手段14からの入力や表示手段13への出力等を制御する。
第1撮像手段7はそれぞれ4つのカメラで構成される。一方、第2撮像手段14は1つのカメラで構成される。第1撮像手段7、第2撮像手段14は、所定時間毎に撮像した撮像画像を運転支援装置1の揮発性メモリ2に入力する。第1撮像手段7は、自車両の全周囲を撮像できるように車体に取り付けられる。また、第2撮像手段14は、車両の左前方コーナに設置されている。この第1撮像手段7、第2撮像手段14の車体への取り付け位置について説明する。
図2は第1撮像手段7、第2撮像手段14の車両への取り付け位置をイメージで説明する図である。図2に示すように、第1撮像手段7は前方カメラ7a、右側方カメラ7b、左側方カメラ7c、後方カメラ7dとで構成される。前方カメラ7a、後方カメラ7dは例えば車体前後のバンパにそれぞれ取り付けられる。右側方カメラ7b、左側方カメラ7cは、例えば自車両の左右ドアミラー下部にそれぞれ取り付けられる。一方、第2撮像手段14は自車両の左前方コーナに取り付けられる。
入力手段8は、例えばタッチパネルやリモコン、スイッチで構成される。入力手段8は、タッチパネルで構成される場合、表示手段13に設けられてもよい。
車速センサ9、ステアリングセンサ10、ギア11、ソナー12は、それぞれ自車両の車速を示す車速信号、舵角を示す舵角信号、シフトレバーの状態を示すギア信号、立体物の検出信号や距離信号を制御手段5に出力する。ソナー12は、8つのソナーで構成され、自車両の車体四隅の四箇所と、車体の前後の四箇所に取り付けられる。このソナー12の車体への取り付け位置について説明する。
図3はソナー12の車両への取り付け位置をイメージで説明する図である。図3に示すように、ソナー12は、左前方コーナソナー12a、右前方コーナソナー12b、左後方コーナソナー12c、右後方コーナソナー12d、左前方ソナー12e、右前方ソナー12f、左後方ソナー12g、右後方ソナー12hで構成される。図3に示すように、左前方ソナー12e、右前方ソナー12f、左後方ソナー12g、右後方ソナー12hのそれぞれの水平面の検出範囲16e〜16hは、左前方コーナソナー12a、右前方コーナソナー12b、左後方コーナソナー12c、右後方コーナソナー12dのそれぞれの水平面の検出範囲16a〜16dよりも狭く設定されている。次に、左前方コーナソナー12aの検出範囲と第2撮像手段14の画角との関係について説明する。
図4は、第2撮像手段14の画角と左前方コーナソナー12aの水平面の検出範囲をイメージで説明する図である。図4に示すように、第2撮像手段14の画角17は、水平面で略180度に設定されている。そして、左前方コーナソナー12aの検出範囲16aは、第2撮像手段14の画角17内に包含される。すなわち、第2撮像手段14の画角17内に左前方コーナソナー12aの検出範囲16aが全て含まれている。
第2撮像手段14は左前方コーナソナー12aよりも車体上方に取り付けられていることが望ましい。これによって、左前方コーナソナー12aの検出範囲16aは、第2撮像手段14の画角17内に三次元的に包含されやすくなる。また、第2撮像手段14と左前方コーナソナー12aの光軸は略等しいことが望ましい。これによって第2撮像手段14の画角17内における左前方コーナソナー12aの検出範囲16aのずれが小さくなり、左前方コーナソナー12aの検出範囲16aの一部が第2撮像手段14の画角17外にはみ出してしまうおそれを低減することができる。
表示手段13は、例えばナビゲーション装置やリアシートのディスプレイで構成される。表示手段13は、画像処理手段3から入力された合成画像を表示する。この合成画像は俯瞰画像のみであってもよいし、俯瞰画像とノーマル画像とを並列に並べた画像であってもよい。この俯瞰画像の境界付近で死角が存在すると立体物が消失する。ここで、本実施形態における立体物について例示する。
図5は、本実施形態における立体物をイメージで説明する図である。図5に示すように、幅、奥行き、高さがそれぞれ約30cm、約30cm、約50cmのカラーコーン(登録商標)を本実施形態における立体物と想定する。このカラーコーン(登録商標)が俯瞰画像上で三次元的に半分以上消失したとき、俯瞰画像の境界付近で死角が存在することを意味する。
次に、制御手段5による運転支援処理について説明する。
図6は、制御手段5による運転支援処理のフローチャート図である。
まず、ステップS61に示すように、制御手段5は、ギア11から入力されたギア信号に基づいてシフトレバーがリバースの状態であるか否かを判定する。
ステップS61でYESの場合、制御手段5の命令によって、画像処理手段3は、揮発性メモリ2から取得した第1撮像手段7の撮影画像を用いて俯瞰画像を作成する。そして、ステップS62に示すように、表示手段13はこの作成した俯瞰画像と揮発性メモリ2から取得した後方カメラ7dの後方画像とを並列表示する。
次にステップS61でNOの場合、ステップS63に示すように、制御手段5の命令によって、画像処理手段3は、揮発性メモリ2から取得した第1撮像手段7の撮影画像を用いて俯瞰画像を作成し、表示手段13はこの作成した俯瞰画像と揮発性メモリ2から取得した前方カメラ7aの前方画像とを並列表示する。
次に、ステップS64に示すように、制御手段5は、ソナー12の検出結果から、自車両の左前方コーナに立体物が存在するか否かを判定する。すなわち、制御手段5は、左前方コーナソナー12aが立体物を検出したか否かを判定する。ステップS64でNOの場合、ステップS61の処理を再度行う。
一方、ステップS64でYESの場合、ステップS65に示すように、画像処理手段3は、第1撮像手段7の撮像画像と第2撮像手段14の撮像画像とを用いて新たに俯瞰画像を作成し、表示手段13にこの作成した俯瞰画像を表示させる。すなわち、左前方コーナソナー12aが立体物を検出したときのみ、画像処理手段3は、第1撮像手段7の4つのカメラ7a〜7dの撮像画像と、第2撮像手段14の撮像画像とを用いて俯瞰画像を作成する。逆に言うと、左前方コーナソナー12aが自車両の左前方コーナの立体物を検出しなかったとき、画像処理手段3は、第1撮像手段7の4つのカメラ7a〜7dの撮像画像のみを用いたこれまでの俯瞰画像を作成する。このステップS65で作成される俯瞰画像と、第1撮像手段7の4つのカメラ7a〜7dの撮像画像によって作成される通常の俯瞰画像との相違点については後述する。
次にステップS66に示すように、制御手段5は、自車両の進行方向が前進しているか否かを判定する。このとき、制御手段5は、ギア11から入力されたギア信号に基づいて自車両の進行方向を特定する。すなわち、制御手段5は、ギア信号からシフトレバーがフロントであるか否かを判定する。
ステップS66でYESの場合、ステップS67に示すように、制御手段5は、ステップS62によって表示手段13に並列表示している後方画像またはステップS63によって表示手段13に並列表示している前方画像の代わりに、第2撮像手段14の撮像画像を表示手段13に表示させる。
ステップS67の処理後、またはステップS66でNOの場合、ステップS68に示すように、制御手段5は、運転支援モード終了を検出したか否かを判定する。ステップS68でYESの場合、制御手段5は運転支援処理を終了する。例えば入力手段8から運転支援モード終了の入力がなされた場合、制御手段5は運転支援処理を終了する。一方、ステップS68でNOの場合、制御手段5はステップS61の処理を再度行う。
次に、左前方コーナソナー12aが立体物を検出した場合にステップS65で作成される俯瞰画像と、第1撮像手段7の4つのカメラ7a〜7dの撮像画像によって作成される通常の俯瞰画像との相違点について説明する。図7はステップS65で作成された俯瞰画像をイメージで説明する図である。
図7の左方に示すように、左前方コーナソナー12aが立体物を検出する前においては、画像処理手段3は、第1撮像手段7の4つのカメラ7a〜7dの撮像画像を用いた俯瞰画像40aを作成する。俯瞰画像40aの中央には自車両のイメージ画像21が重畳されている。俯瞰画像40aの各領域22〜25は前方カメラ7a、右側方カメラ7b、左側方カメラ7c、後方カメラ7dの撮像画像の視点変換画像にそれぞれ対応する。各領域22〜25の接合面は合成境界31〜34として表されている。自車両近傍で左前方コーナソナー12aが立体物41を検出したとき、第1撮像手段7の4つのカメラ7a〜7dの撮像画像を用いた俯瞰画像のままでは合成境界34において死角が生じ、立体物41が消失してしまう。
そこで、左前方コーナソナー12aが立体物を検出した場合、図7の右方に示すように、画像処理手段3は、第1撮像手段7の4つのカメラ7a〜7dの撮像画像に加え、立体物41が検出された左前方コーナを撮影する第2撮像手段14の撮像画像を用いて俯瞰画像40bを作成する。この俯瞰画像40bの各領域22〜26は、前方カメラ7a、右側方カメラ7b、左側方カメラ7c、後方カメラ7d、第2撮像手段14の撮像画像の視点変換画像にそれぞれ対応する。前方カメラ7aと第2撮像手段14との合成境界35、左側方カメラ7dと第2撮像手段14との合成境界36は、第2撮像手段14の視点変換画像の領域26が左前方コーナソナー12aの検出範囲を包含できる位置に設定される。換言すると、合成境界35、36は左前方コーナソナー12aの検出範囲外に設定される。これによって、左前方コーナソナー12aによって検出された立体物41は、俯瞰画像40bにおいて合成境界35、36近傍で消失せず、領域26内での立体物41の視認性が維持される。特に、合成境界近傍で立体物41の倒れ込み方が急に変動することが無くなるため、ドライバは違和感なく立体物41を視認することができる。また、立体物41は車両を基点として放射状に遠ざかる方向に倒れ込むため、立体物41の位置や方向を直感的に把握することができる。
なお、立体物41を合成境界35、36からできるだけ遠ざけるためには、合成境界35、36は、第2撮像手段14の画角にできるだけ近づけて設定されるのが本来望ましい。一方で、合成境界35、36を第2撮像手段14の画角と略等しくさせてしまうと、第2撮像手段14が取り付け位置からズレた場合に本来の画角外の映り込みを生じてしまう。そのため、合成境界35、36は、第2撮像手段14の画角に対して数度から十度程度内側の位置に設定されるのが望ましい。
次に、ステップS65で作成される俯瞰画像の死角領域と、第1撮像手段7の4つのカメラ7a〜7dの撮像画像によって作成される通常の俯瞰画像の死角領域について説明する。図8は、図7の俯瞰画像に生じる死角領域をイメージで説明する図である。
図8の左方は、第1撮像手段7の4つのカメラ7a〜7dの撮像画像によって作成される通常の俯瞰画像50aを示す。図8の右方は、ステップS65で作成される俯瞰画像50bを示す。俯瞰画像50a、50bでは、自車両イメージ51から一定範囲を死角測定領域52に設定されている。この一定範囲は、数十cm程度に設定される。例えば50cmに設定される。これは、自車両が3km/h程度のクリープで進んでいて急ブレーキで止まることができる距離を示す。
図8の左方に示すように、第1撮像手段7の4つのカメラ7a〜7dの撮像画像によって作成される通常の俯瞰画像50aにおいては、左前方コーナソナー12aの検出範囲53は、前方カメラ7aと左側方カメラ7cとの合成境界34によって生じる死角領域54と一部重複する。左前方コーナソナー12aの検出範囲53と死角領域54とが重複すると、この重複範囲内で立体物41が消失する。そこで、ステップS65で作成される俯瞰画像50bでは、第2撮像手段14の撮像画像を用いて合成境界35、36を左前方コーナソナー12aの検出範囲53から遠ざけている。これによって、図8の右方に示すように、ステップS65で作成される俯瞰画像50bでは、左前方コーナソナー12aの検出範囲53は、第2撮像手段14と前方カメラ7aの合成境界35によって生じる死角領域55、第2撮像手段14と左側方カメラ7dの合成境界36によって生じる死角領域56と離間して重複しなくなっている。これによって前方コーナソナー12aの検出範囲に存在する立体物は俯瞰画像50b上で消失すること無く表示手段13に表示される。
次に、図8の俯瞰画像の合成境界によって生じる死角領域について説明する。図9は、図8の死角領域の境界をイメージで説明する図である。図9では図8左方の俯瞰画像50aを例に説明する。
図9左上方に示す境界線54aは、死角領域54の図8紙面左方の境界を示す。すなわち、境界線54aは、死角測定領域52の外縁を示す。
図9左下方に示す境界線54bは、死角領域54の図8紙面下方の境界を示す。境界線54bは、領域25内に立体物41がある場合に死角が生じる境界を示す。前方カメラ7aと左側方カメラ7dの合成境界34に向かって立体物41を図9の紙面上方に移動させたとき、立体物41が高さ方向に半分以上(25cm以上)消失する。このときの立体物41の図9紙面最下方の位置が境界線54bの構成要素となる。そして、図9の紙面左方に徐々に立体物41を移動させて同じ処理を繰り返したときの立体物41の図9紙面最下方の位置の集合が境界線54bを示す。
図9右上方に示す境界線54cは、死角領域54の図8紙面右方の境界を示す。すなわち、境界線54cは、自車両イメージ51の外縁を示す。
図9右下方に示す境界線54dは、死角領域54の図8紙面上方の境界を示す。境界線54dは、領域22内に立体物41がある場合に死角が生じる境界を示す。前方カメラ7aと左側方カメラ7dの合成境界34に向かって立体物41を図9の紙面下方に移動させたとき、立体物41が幅方向に半分以上(15cm以上)消失する。このときの立体物41の図9紙面最上方の位置が境界線54dの構成要素となる。そして、図9の紙面左方に徐々に立体物41を移動させて同じ処理を繰り返したときの立体物41の図9紙面最上方の位置の集合が境界線54dを示す。
図8右方の俯瞰画像50bの死角領域55、56についても境界の判定方法は同様であるので詳細な説明は省略する。
以上、本発明によれば、左前方コーナソナー12aの検出範囲は第2撮像手段14の画角内に包含され、左前方コーナソナー12aが立体物を検出したとき、画像処理手段3は、第2撮像手段14の撮像画像と第1撮像手段の4つのカメラ7a〜7dの撮像画像とを合成して俯瞰画像40bを作成し、この俯瞰画像40bのうち第2撮像手段14の撮像画像に基づく俯瞰画像の領域内に左前方コーナソナー12aの検出範囲を包含させている。すなわち、画像処理手段3は、立体物の死角を左前方コーナソナー12aの検出範囲外へ移動させている。したがって、左前方コーナソナー12aが立体物を検出しているにもかかわらず表示手段13の俯瞰画像上で自車両直近の立体物が消失することを防止することができる。特に、本実施形態では、俯瞰画像上で自車両直近の立体物が消失することを、自車両の四隅全てについて対象とするのではなく、右ハンドルのときにドライバにとって死角になりやすい左前方についてのみ対象としている。これによって、カメラ入力ポート数に制限がある運転支援装置1にセレクタを設けなくてよくなるため、セレクタによる運転支援装置1の制御ECUの大型化を防止することができる。
なお、本実施形態の図6で示した運転支援処理では、俯瞰画像とノーマル画像(前方画像や後方画像)を並列表示することでドライバに複数の判断基準を提示して立体物の視認性を向上させたが、少なくとも俯瞰画像が表示されればよい。すなわち、少なくとも図6のステップS64、ステップS65の処理がなされればよい。具体的には、画像処理手段3は、第1撮像手段7による撮像画像と第2撮像手段14による撮像画像とを共通するマッピングデータに基づいて俯瞰画像に合成する。そして、表示手段3はこの俯瞰画像を表示する。これらによって、俯瞰画像の合成境界前後で表示画像の連続性は保たれるため、立体物検知後において、運転者の違和感を抑えつつ俯瞰画像の合成境界における死角の発生や立体物の消失を防ぐことができる。
また、本実施形態では、車両が右ハンドルの場合を想定したため、左前方コーナに設けられた第2撮像手段14と左前方コーナソナー12aとを用いて、ドライバの死角になりやすい左前方コーナ近傍の立体物が俯瞰画像上で消失することを防止したが、車両が左ハンドルの場合は、対象が左前方ではなく右前方になる。すなわち、車両が左ハンドルの場合、本実施形態における第2撮像手段14の設置位置は右前方コーナに置き換えられ、左前方コーナソナー12aは右前方コーナソナー12bに置き換えられる。
すなわち、第2撮像手段14は、自車両の四隅のうち自車両のハンドル位置と逆方向の前方コーナを撮像する。自車両のハンドル位置と逆方向の前方コーナに存在する立体物を検出するソナー12による検出範囲は第2撮像手段14の画角内に包含される。ソナー12が立体物を検出したとき、画像処理手段3は、第1撮像手段7の撮像画像と第2撮像手段14の撮像画像とを合成して俯瞰画像を作成し、この俯瞰画像のうち第2撮像手段14の撮像画像に基づく俯瞰画像の領域内にソナー12による検出範囲を包含させればよい。一方、ソナー12が自車両のハンドル位置と逆方向の前方コーナに存在する立体物を検出しなかったとき、画像処理手段3は、第1撮像手段7の撮像画像を合成して俯瞰画像を作成する。
なお、本実施形態では、ソナー12のうち車両の前後の立体物を検出するソナーは4つのソナー12e〜12fで構成されたが、少なくとも車両の前後の立体物を検出するためには2つのソナーで構成されればよい。
また、本実施形態では立体物を検出する立体物検出手段としてソナー12を用いたが、立体物を検出するセンサであれば、赤外線センサ等他の手段を用いてもよい。
(実施形態2)
次に、本発明の実施形態2の運転支援装置について図面を参照しながら説明する。実施形態1と同様の記載については同じ符号を付して詳細な説明を省略する。
図10は本発明の実施形態2の運転支援装置の構成を示すブロック図である。図10において、運転支援装置1は、実施形態1の運転支援装置に対して、さらにセレクタ15を有する。運転支援装置1は、このセレクタ15を介して第2撮像手段14と接続する。セレクタ15も運転支援装置1に含まれてもよい。揮発性メモリ2はセレクタ15を介して第2撮像手段14と接続する。制御手段5は、ソナー12からの入力信号に基づいてセレクタ15を制御し、第2撮像手段14を選択する。
第2撮像手段14はそれぞれ4つのカメラを有する。第1撮像手段7、第2撮像手段14は、所定時間毎に撮像した撮像画像を運転支援装置1の揮発性メモリ2に入力する。第2撮像手段14は、自車両の車体四隅に取り付けられる。この第2撮像手段14の車体への取り付け位置について説明する。
図11は第1撮像手段7、第2撮像手段14の車両への取り付け位置をイメージで説明する図である。図11に示すように、第2撮像手段14は左前方コーナカメラ14a、右前方コーナカメラ14b、左後方コーナカメラ14c、右後方コーナカメラ14dとで構成される。セレクタ15は、制御手段5の命令に基づいて、この左前方コーナカメラ14a、右前方コーナカメラ14b、左後方コーナカメラ14c、右後方コーナカメラ14dのうちから1つのカメラを選択する。この選択されたカメラの撮像画像が所定時間毎に運転支援装置1の揮発性メモリ2に入力される。
ソナー12は、4つのソナーで構成され、自車両の車体四隅に取り付けられる。このソナー12の車体への取り付け位置について説明する。
図12はソナー12の車両への取り付け位置をイメージで説明する図である。図12に示すように、ソナー12は、左前方コーナソナー12a、右前方コーナソナー12b、左後方コーナソナー12c、右後方コーナソナー12dとで構成される。図12に示すように、左前方コーナソナー12a、右前方コーナソナー12b、左後方コーナソナー12c、右後方コーナソナー12dのそれぞれの水平面の検出範囲16a〜16dは、180度以下に設定されている。
図13は、左前方コーナカメラ14aの画角と左前方コーナソナー12aの水平面の検出範囲をイメージで説明する図である。図13に示すように、このソナー12の検出範囲と第2撮像手段14の画角との関係は、実施形態1の図4で示された関係と同様である。すなわち、左前方コーナカメラ14aの画角17aは、水平面で略180度に設定されている。そして、左前方コーナソナー12aの検出範囲16aは、左前方コーナカメラ14aの画角17a内に包含される。すなわち、左前方コーナカメラ14aの画角17a内に左前方コーナソナー12aの検出範囲16aが全て含まれている。実施形態1と同様に、左前方コーナカメラ14aは左前方コーナソナー12aよりも車体上方に取り付けられていることが望ましい。また、左前方コーナカメラ14aと左前方コーナソナー12aの光軸は略等しいことが望ましい。
なお、図13では、一例として、左前方コーナカメラ14aの画角と左前方コーナソナー12aの検出範囲を用いてソナー12の検出範囲と第2撮像手段14の画角との関係について説明したが、他の車両四隅についても同様の関係が成り立つ。すなわち、右前方コーナソナー12b、左後方コーナソナー12c、右後方コーナソナー12dの検出範囲は、右前方コーナカメラ14b、左後方コーナカメラ14c、右後方コーナカメラ14dの画角内にそれぞれ包含される。
次に、制御手段5による運転支援処理について説明する。
図14は、制御手段5による運転支援処理のフローチャート図である。ステップS71〜S73までは、それぞれ実施形態1の図6において対応するステップS61〜S63と同様の処理である。ステップS74では、制御手段5は、ソナー12の検出結果から、自車両周辺の所定範囲内に立体物が存在するか否かを判定する。ステップS74でNOの場合、ステップS71の処理を再度行う。一方、ステップS74でYESの場合、ステップS75に示すように、制御手段5は、自車両の最短距離に存在する立体物反応箇所を特定する。すなわち、自車両四隅に設けたソナー12a〜dのうち立体物を検出したソナーが1つの場合、制御手段5は立体物を検出したソナーが配置されたコーナを立体物反応箇所と判定する。これに対し、自車両四隅に設けたソナー12a〜dのうち立体物を検出したソナーが複数あった場合、制御手段5は、ソナー12から入力された自車両と立体物との距離信号に基づいて最も自車両の近くに位置する立体物を検出したソナーが配置されたコーナを立体物反応箇所と判定する。
次に、ステップS76に示すように、画像処理手段3は、第1撮像手段7の撮像画像に加え、ステップS75で特定した自車両から最短距離の立体物反応箇所付近の撮像画像を用いて新たに俯瞰画像を作成し、表示手段13にこの作成した俯瞰画像を表示させる。すなわち、画像処理手段3は、第1撮像手段7の4つのカメラ7a〜7dの撮像画像と、第2撮像手段14のカメラ14a〜14dのうち、ステップS75で特定したソナー12の立体物反応箇所に対応するカメラの撮像画像とを用いて俯瞰画像を作成する。このステップS76で作成される俯瞰画像と、第1撮像手段7の4つのカメラ7a〜7dの撮像画像によって作成される通常の俯瞰画像との相違点については実施形態1で説明した相違点と同様なので詳細な説明を省略する。
次にステップS77に示すように、制御手段5は、自車両の進行方向に車両から最短距離の立体物があるか否かを判定する。このとき、制御手段5は、ギア11から入力されたギア信号に基づいて自車両の進行方向を特定する。すなわち、制御手段5は、ギア信号からシフトレバーがフロントのとき進行方向が前方、リバースのとき進行方向が後方であると特定する。そして、制御手段5は、この特定した進行方向とステップS75で特定した立体物反応箇所とを比較してステップS77の判定を行う。すなわち、制御手段5は、ギア信号からシフトレバーがフロントで車両の進行方向が前方のとき、ステップS75で特定した立体物反応箇所が左前方または右前方であるか否かを判定する。一方、制御手段5は、ギア信号からシフトレバーがリバースで車両の進行方向が後方のとき、ステップS75で特定した立体物反応箇所が左後方または右後方であるか否かを判定する。
ステップS77でYESの場合、ステップS78に示すように、制御手段5は、ステップS72によって表示手段13に並列表示している後方画像またはステップS73によって表示手段13に並列表示している前方画像の代わりに、第2撮像手段14のうち、ステップS65で特定された自車両から最短距離の立体物反応箇所付近を撮像するカメラの撮像画像を表示手段13に表示させる。ステップS78の処理後、またはステップS77でNOの場合、ステップS79の処理を行う。このステップS79の処理は、実施形態1の図6のステップS68と同様な処理なので説明を省略する。
以上、本発明によれば、ソナー12a〜dの検出範囲はそれぞれコーナカメラ14a〜dの画角内に包含され、ソナー12a〜dが立体物を検出したとき、車両に最も近い立体物を検出したソナーに対応するコーナカメラがセレクタ15によって選択される。そして、画像処理手段3は、この選択されたコーナカメラの撮像画像と第1撮像手段7の4つのカメラa〜7dの撮像画像とを合成して俯瞰画像40bを作成し、この俯瞰画像40bのうちコーナカメラの撮像画像に基づく俯瞰画像の領域内にソナーの検出範囲を包含させている。すなわち、画像処理手段3は、立体物の死角をソナー12の検出範囲外へ移動させている。したがって、ソナー12が立体物を検出しているにもかかわらず表示手段13の俯瞰画像上で自車両直近の立体物が消失することを防止することができる。
2011年8月26日出願の特願2011−184416、特願2011−184419の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明の運転支援装置は、特にソナー等によって自車両四隅の立体物を検出した際に俯瞰画像上で立体物を消失せずに表示して、ドライバが立体物を認識することを容易にする点で有用である。
1 運転支援装置
3 画像処理手段
5 制御手段
7 第1撮像手段
12 ソナー
14 第2撮像手段

Claims (4)

  1. 自車両周囲を撮像する第1撮像手段と、
    自車両周囲に存在する立体物を検出するセンサと、
    前記第1撮像手段とは別に設けられ、前記センサによる検出範囲を画角内に包含して撮像する第2撮像手段と、
    前記第1撮像手段から入力された自車両周囲の撮像画像を合成した俯瞰画像を表示する表示手段と、を備え、
    前記表示手段は、前記センサが立体物を検出しないとき、前記第2撮像手段の撮像画像を用いずに、前記第1撮像手段の撮像画像を用いて自車両の全周囲を示す俯瞰画像を表示し、
    前記表示手段は、前記センサが立体物を検出したとき、前記第1撮像手段の撮像画像と前記第2撮像手段の撮像画像とを用いて自車両の全周囲を示す俯瞰画像を表示する、
    運転支援装置。
  2. 前記センサは、自車両の所定の位置に設置された複数のセンサで構成され、
    前記第2撮像手段は、前記複数のセンサのそれぞれに対応して設置された複数のカメラで構成され、
    前記第2撮像手段は、前記センサが立体物を検出したとき、この立体物を検出したセンサに対応するカメラを選択して撮像し、
    前記表示手段は、前記センサが立体物を検出したとき、前記第1撮像手段の撮像画像と、選択された前記カメラの撮像画像とを合成して俯瞰画像を表示し、この俯瞰画像のうち前記カメラの撮像画像に基づく俯瞰画像の領域内に前記センサによる検出範囲を包含させる、
    請求項1に記載の運転支援装置。
  3. 前記複数のセンサは、自車両の四隅の少なくとも1つのコーナに存在する立体物を検出する位置に配置されたセンサを含む、
    請求項2に記載の運転支援装置。
  4. 前記第2撮像手段は、前記センサのうち複数のセンサが立体物を検出したとき、車両に最も接近する立体物を検出したセンサに対応するカメラを選択する、
    請求項2または3に記載の運転支援装置。
JP2017205423A 2011-08-26 2017-10-24 運転支援装置 Active JP6388267B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011184419 2011-08-26
JP2011184416 2011-08-26
JP2011184416 2011-08-26
JP2011184419 2011-08-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016138376A Division JP6241687B2 (ja) 2011-08-26 2016-07-13 運転支援装置

Publications (2)

Publication Number Publication Date
JP2018034794A JP2018034794A (ja) 2018-03-08
JP6388267B2 true JP6388267B2 (ja) 2018-09-12

Family

ID=47755691

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013531065A Active JP5979505B2 (ja) 2011-08-26 2012-08-24 運転支援装置
JP2016138376A Active JP6241687B2 (ja) 2011-08-26 2016-07-13 運転支援装置
JP2017205423A Active JP6388267B2 (ja) 2011-08-26 2017-10-24 運転支援装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2013531065A Active JP5979505B2 (ja) 2011-08-26 2012-08-24 運転支援装置
JP2016138376A Active JP6241687B2 (ja) 2011-08-26 2016-07-13 運転支援装置

Country Status (5)

Country Link
US (3) US10235575B2 (ja)
EP (1) EP2750382B1 (ja)
JP (3) JP5979505B2 (ja)
CN (2) CN107097721B (ja)
WO (1) WO2013031161A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140218535A1 (en) 2011-09-21 2014-08-07 Magna Electronics Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
WO2013049597A1 (en) * 2011-09-29 2013-04-04 Allpoint Systems, Llc Method and system for three dimensional mapping of an environment
US10099614B2 (en) * 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
US9956913B2 (en) * 2013-03-28 2018-05-01 Aisin Seiki Kabushiki Kaisha Surroundings-monitoring device and computer program product
US20150266420A1 (en) * 2014-03-20 2015-09-24 Honda Motor Co., Ltd. Systems and methods for controlling a vehicle display
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
JP6386794B2 (ja) * 2014-06-04 2018-09-05 日立建機株式会社 運搬車両
US10293752B2 (en) 2014-08-28 2019-05-21 The University Of Tokyo Display system for work vehicle, display control device, work vehicle, and display control method
JP6224029B2 (ja) * 2015-05-21 2017-11-01 富士通テン株式会社 画像処理装置および画像処理方法
JP6699427B2 (ja) * 2015-11-17 2020-05-27 株式会社Jvcケンウッド 車両用表示装置および車両用表示方法
KR101766077B1 (ko) * 2015-12-08 2017-08-07 현대자동차주식회사 차량 주변 영상 정보 제공 시스템 및 방법
JP6621363B2 (ja) * 2016-04-01 2019-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両及び計測方法
US10594934B2 (en) 2016-11-17 2020-03-17 Bendix Commercial Vehicle Systems Llc Vehicle display
KR20180078970A (ko) * 2016-12-30 2018-07-10 화남전자 주식회사 건설장비의 주변부 모니터링을 위한 카메라 배치 구조
KR102551099B1 (ko) 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
EP3537714B1 (en) * 2017-02-28 2021-08-25 JVC Kenwood Corporation Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
US11681910B2 (en) * 2017-07-28 2023-06-20 Sony Interactive Entertainment Inc. Training apparatus, recognition apparatus, training method, recognition method, and program
CN109997356B (zh) * 2017-07-31 2021-10-08 Jvc 建伍株式会社 显示控制装置、显示控制系统、显示控制方法以及程序
JP7201315B2 (ja) * 2017-11-08 2023-01-10 トヨタ自動車株式会社 電子ミラー装置
JP2019151304A (ja) * 2018-03-06 2019-09-12 アイシン精機株式会社 周辺監視装置
JP7135378B2 (ja) * 2018-03-29 2022-09-13 株式会社アイシン 周辺監視装置
CN108562914A (zh) * 2018-05-29 2018-09-21 珠海市微半导体有限公司 一种基于盲区的红外检测装置和控制方法
DE102018214875A1 (de) * 2018-08-31 2020-03-05 Audi Ag Verfahren und Anordnung zum Erzeugen einer Umgebungsrepräsentation eines Fahrzeugs und Fahrzeug mit einer solchen Anordnung
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
JP7424582B2 (ja) * 2020-06-03 2024-01-30 株式会社ニフコ 車載機器用ブラケット
CN112009398A (zh) * 2020-08-18 2020-12-01 三一专用汽车有限责任公司 车辆的控制方法、装置、车辆和存储介质
JP7400705B2 (ja) * 2020-11-30 2023-12-19 トヨタ自動車株式会社 撮像システム及び撮像装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100438623C (zh) 1999-04-16 2008-11-26 松下电器产业株式会社 图象处理装置及监视系统
JP3819284B2 (ja) * 2001-11-29 2006-09-06 クラリオン株式会社 車両周囲監視装置
JP3968271B2 (ja) 2002-06-25 2007-08-29 株式会社オートネットワーク技術研究所 車輌周辺視認装置
JP2005333565A (ja) * 2004-05-21 2005-12-02 Auto Network Gijutsu Kenkyusho:Kk 監視装置
JP4639753B2 (ja) 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
JP4643995B2 (ja) 2005-01-21 2011-03-02 パナソニック株式会社 表示制御装置
US7782374B2 (en) * 2005-03-03 2010-08-24 Nissan Motor Co., Ltd. Processor and processing method for generating a panoramic image for a vehicle
JP4797441B2 (ja) * 2005-05-20 2011-10-19 トヨタ自動車株式会社 車両用画像処理装置
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
US8885045B2 (en) 2005-08-02 2014-11-11 Nissan Motor Co., Ltd. Device and method for monitoring vehicle surroundings
JP4883977B2 (ja) * 2005-10-05 2012-02-22 アルパイン株式会社 車両用画像表示装置
JP4807104B2 (ja) * 2006-03-01 2011-11-02 日産自動車株式会社 車両周囲監視システム及び画像表示方法
JP2007235842A (ja) * 2006-03-03 2007-09-13 Denso Corp 車載画像表示システム
JP2008195268A (ja) 2007-02-14 2008-08-28 Denso Corp 車両周辺監視装置
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
JP4985250B2 (ja) * 2007-09-06 2012-07-25 株式会社デンソー 駐車支援装置
JP5380941B2 (ja) 2007-10-01 2014-01-08 日産自動車株式会社 駐車支援装置及び方法
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
DE102009036200A1 (de) * 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
US8655019B2 (en) * 2009-09-24 2014-02-18 Panasonic Corporation Driving support display device
JP2011077806A (ja) 2009-09-30 2011-04-14 Panasonic Corp 車両周辺監視装置

Also Published As

Publication number Publication date
CN107097721A (zh) 2017-08-29
JP6241687B2 (ja) 2017-12-06
JP2018034794A (ja) 2018-03-08
EP2750382B1 (en) 2017-06-28
US10235575B2 (en) 2019-03-19
WO2013031161A1 (ja) 2013-03-07
US11657618B2 (en) 2023-05-23
CN107097721B (zh) 2020-03-06
CN103782591A (zh) 2014-05-07
US20190163987A1 (en) 2019-05-30
US20140218531A1 (en) 2014-08-07
US20210192230A1 (en) 2021-06-24
CN103782591B (zh) 2017-02-15
JP2016219025A (ja) 2016-12-22
EP2750382A4 (en) 2014-08-13
EP2750382A1 (en) 2014-07-02
JP5979505B2 (ja) 2016-08-24
US10970562B2 (en) 2021-04-06
JPWO2013031161A1 (ja) 2015-03-23

Similar Documents

Publication Publication Date Title
JP6388267B2 (ja) 運転支援装置
JP5938635B2 (ja) 運転支援装置
JP4760831B2 (ja) 車両周囲監視装置及び車両周囲監視方法
JP6380410B2 (ja) 画像表示制御装置および画像表示システム
JP5321267B2 (ja) 車両用画像表示装置及び俯瞰画像の表示方法
JP6507626B2 (ja) 車両周辺監視装置
JP4639753B2 (ja) 運転支援装置
JP3695319B2 (ja) 車両周辺モニタ装置
JP4985250B2 (ja) 駐車支援装置
JP2007221200A (ja) 車両周辺監視装置
JP2007089081A (ja) 車両用画像表示装置
JP6730613B2 (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2020068515A (ja) 画像処理装置
JP2007124097A (ja) 車両周辺視認装置
JP2008148114A (ja) 運転支援装置
JP2004056219A (ja) 車両周辺監視装置
KR20100021046A (ko) 자동차용 표시장치 및 그 제어 방법
JPWO2017179206A1 (ja) 駐車支援用表示制御装置および駐車支援用表示制御方法
WO2011105107A1 (ja) 運転支援装置
JP2012166689A (ja) 運転支援装置
JP2011243010A (ja) 運転支援装置
US20230252794A1 (en) Display apparatus
JP2012188058A (ja) 表示装置
JP2020082977A (ja) 駐車支援システムおよび駐車支援方法
JP2012169883A (ja) 運転支援装置および車両

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R151 Written notification of patent or utility model registration

Ref document number: 6388267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03