JP2008172535A - 運転支援システム、画像処理装置及びずれ検出方法 - Google Patents

運転支援システム、画像処理装置及びずれ検出方法 Download PDF

Info

Publication number
JP2008172535A
JP2008172535A JP2007003815A JP2007003815A JP2008172535A JP 2008172535 A JP2008172535 A JP 2008172535A JP 2007003815 A JP2007003815 A JP 2007003815A JP 2007003815 A JP2007003815 A JP 2007003815A JP 2008172535 A JP2008172535 A JP 2008172535A
Authority
JP
Japan
Prior art keywords
image
vehicle
unit
projection image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007003815A
Other languages
English (en)
Other versions
JP4879031B2 (ja
Inventor
Hitoshi Hongo
仁志 本郷
Kozo Okuda
浩三 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007003815A priority Critical patent/JP4879031B2/ja
Priority to US11/972,174 priority patent/US8184160B2/en
Publication of JP2008172535A publication Critical patent/JP2008172535A/ja
Application granted granted Critical
Publication of JP4879031B2 publication Critical patent/JP4879031B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0063Manual parameter input, manual setting means, manual initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】複数の車載カメラを用いて撮像した画像を平面に投影した投影画像を合成して合成画像を生成する運転支援システムにおいて、車載カメラの位置又は方向にずれが発生しているか否かをより正確に判定する運転支援システム、画像処理装置及びずれ検出方法を提供する。
【解決手段】本発明に係る運転支援システムは、第1画像を取得する第1車載カメラと、第2画像を取得する第2車載カメラと、第1画像と第2画像を平面に投影した第1投影画像及び第2投影画像に変換する画像変換部とを備え、第1車載カメラと第2車載カメラとは、方向が異なり、かつ互いに重複する重複領域を有しており、重複領域に立体物があるか否かを判定する立体物判定部と、立体物がない場合、第1投影画像内の重複領域の画像と第2投影画像内の重複領域の画像との差分を算出する差分算出部と、差分が閾値以上である場合、車載カメラにずれが生じたことを検知する検知部とを具備する。
【選択図】 図2

Description

本発明は、車両周辺を複数の車載カメラで撮像して、撮像した複数の画像を平面に投影した投影画像にそれぞれ変換すると共に、投影した投影画像を合成して合成画像を生成する運転支援システム、画像処理装置及びずれ検出方法に関する。
従来、自動車等の運転者が車両の周辺状況を確認できるように、車両周囲(例えば、前後左右)に備えられている複数の車載カメラで車両周辺を撮像し、撮像した画像を車内に設けられている表示パネルに表示させる運転支援システムが提案されている(例えば、特許文献1参照)。
かかる運転支援システムでは、車両周辺を撮像した各画像を、平面(例えば、地面等)に投影した投影画像に変換する。また、変換した複数の投影画像を合成して、車両を上空の仮想の視点から眺めた合成画像(周辺鳥瞰画像)を生成し、表示パネルに表示させる。よって、運転者は、表示パネルに表示された合成画像から、車両周辺の状況を一目で確認することができる。なお、上述した運転支援システムは、合成画像を生成する際、各車載カメラの位置、撮像方向(カメラ方向)の調整・設定(キャリブレーション)を行って予め算出したパラメータ値に基づいて、各投影画像を合成するように構成されている。
ところで、車両に備えられている車載カメラは、運転時の振動等の外圧によって、位置や撮像方向等がずれてしまう場合がある。かかる場合、パラメータ値が適切な値でなくなってしまい、生成された合成画像は、画像の合成部分がずれてしまうため、運転者にとって周辺の状況を確認しにくい不自然な画像になってしまう。
一般的に、運転支援システムでは、車載カメラがずれたか否かを自動的に評価する方法として、複数の車載カメラで重複する対象領域(重複領域)を撮像するように配置し、撮像した重複領域の画像を比較する方法が知られている。
具体的に、図12を参照して、運転支援システムが、車載カメラ10_1乃至10_2とを具備する場合を例に挙げて説明する。なお、ここでは、車載カメラ10_1の撮像した画像の投影画像を投影画像E1とし、車載カメラ10_2の撮像した画像の投影画像を投影画像E2とする。また、投影画像E1と投影画像E2には、互いに重複領域Cに対応する画像を含むものとする。
運転支援システムでは、図12に示すように、投影画像E1と投影画像E2との重複領域Cに対応する画像から、例えば、路面にペイントされた白線M1乃至M2のエッジ等を特徴点として検出する。そして、複数の投影画像を重ね合わせて合成する際、白線M1乃至M2のエッジの位置を比較して、差分が大きい場合には車載カメラにずれが生じていることを検出できる。
特開2002−87160号公報
しかしながら、上述する運転支援システムでは、車載カメラにずれが生じていない場合であっても、各投影画像の重複領域の画像に差分が発生する場合がある。
例えば、図13に示すように、重複領域Cにポール等の立体物Pが存在する場合、上述した運転支援システムでは、別々の位置に備えられている各車載カメラ10_1乃至10_2が、別々の撮像方向から立体物Pを撮像する。また、当該画像を投影画像E1乃至E2に変換する際、立体物Pの高さ方向の情報を失うため、投影された投影画像E1乃至E2に含まれる立体物Pの画像が、それぞれ画像Paと画像Pbとなり、異なる画像になってしまう。
このような場合、立体物の画像Pa乃至Pbのエッジを特徴点とすると、投影画像E1と投影画像E2との間で、重複領域Cに対応する画像の差分が大きくなってしまう。つまり、上述した運転支援システムでは、重複領域Cに立体物がある場合、重複領域Cに対応する画像の差分に基づいて、車載カメラにずれが生じたか否かを正確に判別できないという問題があった。
そこで、本発明は以上の点に鑑みてなされたもので、複数の車載カメラを用いて撮像した画像を平面に投影した投影画像に変換すると共に、当該投影画像を合成して合成画像を生成する運転支援システムにおいて、車載カメラの位置にずれが発生しているか否かをより正確に判定する運転支援システム、画像処理装置及びずれ検出方法を提供することを目的とする。
本発明の第1の特徴は、車両周辺の第1対象領域(例えば、第1対象領域D1)を撮像して第1画像を取得する第1車載カメラ(例えば、車載カメラ10_1)と、車両周辺の第2対象領域(例えば、第2対象領域D2)を撮像して第2画像を取得する第2車載カメラ(例えば、車載カメラ10_2)と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部(画像変換部30)と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部(画像合成部40)とを備える運転支援システムであって、前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域(重複領域C)を有しており、前記重複領域に立体物があるか否かを判定する立体物判定部(立体物判定部50)と、前記立体物判定部によって立体物がないと判定された場合、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部(差分算出部60)と、前記差分算出部によって算出された前記差分が閾値以上である場合、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部(検知部70)とを具備することを要旨とするものである。
かかる特徴によれば、運転支援システムでは、立体物判定部が、第1投影画像内の重複領域に立体物があるか否かを判定し、立体物がないと判定した場合、差分算出部が、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分を算出する。
つまり、重複領域の画像に立体物がないことを確認してから、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分を算出する。よって、重複領域に対応する画像内に立体物の画像が含まれることで、差分算出部で不正確な差分が算出することを防止し、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分をより正確に算出できる。
かかる特徴によれば、複数の車載カメラを用いて撮像した画像を平面に投影した投影画像に変換すると共に、当該投影画像を合成して合成画像を生成する運転支援システムにおいて、車載カメラの位置にずれが発生しているか否かをより正確に判定することができる。
本発明第2の特徴は、第1の特徴に係り、前記第1車載カメラは、第1タイミングと前記第1タイミングよりも後の第2タイミングとで前記第1画像を取得し、前記立体物判定部は、前記第1タイミングで取得された前記第1画像を変換した前記第1投影画像内の前記重複領域に対応する画像と、前記第2タイミングで取得された前記第1画像を変換した前記第1投影画像とに基づいて、複数の移動ベクトルを取得する移動ベクトル取得部(移動ベクトル取得部51)と、前記移動ベクトル取得部によって取得された前記複数の移動ベクトルを比較して、前記重複領域に立体物があるか否かを判定する判定部(判定部52)とを具備することを要旨とするものである。
かかる特徴によれば、立体物判定部では、複数の移動ベクトルを比較して、重複領域の画像に立体物があるか否かを判定する。ここで、移動する車両に設けられた第1車載カメラが、立体物を撮像する場合、第1タイミングと第2タイミングとで、立体物に対する撮像方向が異なるため、撮像した当該立体物を含む投影画像では、立体物の画像部分が変化する。このため、立体物の画像のエッジ等を特徴点とした動きベクトルは、均一でなくなる。
つまり、上述した運転支援システムでは、第1タイミングで撮像された第1画像を変換した第1投影画像の重複領域の画像と、第2タイミングで撮像された第1画像を変換した第1投影画像と間で、複数の動きベクトルが均一であるか否かを判定することで、立体物があるか否かを判定する。このようにして、上述する運転支援システムでは、重複領域に立体物があるか否かを判定し、重複領域に立体物がない場合、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分を算出するので、当該車載カメラのずれを、より正確に検出できる。
本発明第3の特徴は、第1の特徴に係り、前記第1車載カメラは、第1タイミングと前記第1タイミングよりも後の第2タイミングとで前記第1画像を取得し、前記第1タイミングから第2タイミングまでの車両の移動量を取得する移動量取得部を更に備え、前記立体物判定部は、前記移動量に基づいて、前記第2タイミングで取得された第1画像を変換した第1投影画像内に、前記第1タイミングで取得された第1画像を変換した第1投影画像内の前記重複領域に対応する比較領域を特定する特定部(特定部53)と、前記特定部によって特定された前記比較領域に対応する画像と前記重複領域に対応する画像との差分に基づいて、前記重複領域に立体物があるか否かを判定する判定部(判定部54)とを具備することを要旨とするものである。
かかる特徴によれば、立体物判定部では、第1タイミングで取得された第1画像を変換した第1投影画像内の重複領域に対応する画像と、第2タイミングで取得された第1画像を変換した第2投影画像内の比較領域に対応する画像との差分に基づいて、重複領域に立体物があるか否かを判定する。
ここで、移動する車両に設けられた第1車載カメラが、立体物を撮像する場合、第1タイミングと第2タイミングとで、立体物に対する撮像方向が異なるため、撮像した当該立体物を含む投影画像では、立体物の画像が変化する。このため、立体物がある場合、重複領域に対応する画像と比較領域に対応する画像との差分が大きくなる。
このようにして、上述する運転支援システムでは、重複領域に立体物があるか否かを判定し、重複領域に立体物がない場合、第1投影画像内の重複領域に対応する画像と、第1投影画像内の重複領域に対応する画像との差分を算出するので、当該車載カメラのずれを、より正確に検出できる。
また、本発明第4の特徴は、車両周辺の第1対象領域(例えば、第1対象領域D1)を撮像して第1画像を取得する第1車載カメラ(車載カメラ10_1)と、車両周辺の第2対象領域(例えば、第2対象領域D2)を撮像して第2画像を取得する第2車載カメラ(車載カメラ10_2)と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部(画像変換部30)と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部(画像合成部40)とを備える運転支援システムであって、前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部(差分算出部60)と、前記差分算出部によって算出された前記差分が連続して閾値以上になる回数に基づいて、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部(検知部70)とを具備することを要旨とするものである。
かかる特徴によれば、差分算出部で算出された差分が連続して閾値以上となる回数に基づいて、第1車載カメラ又は第2車載カメラにずれが生じたことを検知する。
ここで、第1カメラ又は第2カメラにずれが生じていた場合、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分は、何度画像を取得しても、すべて閾値以上になる。また、第1カメラ又は第2カメラにずれが生じていないが、重複領域に立体物が存在する場合、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分は、大きくなるが、車両が移動することによって重複領域に立体物が存在しなくなれば、当該差分は、閾値よりも小さくなる。
このように、上述した運転支援システムでは、算出される差分が連続して閾値以上になる回数に基づいて、重複領域に立体物があるのか、又は、車載カメラにずれが生じているのかを判定して検知するので、当該車載カメラの位置にずれが発生しているのか否かをより正確に検出できる。
また、本発明第5の特徴は、車両周辺の第1対象領域(例えば、対象領域D1)を撮像する第1車載カメラ(例えば、車載カメラ10_1)から第1画像を取得する第1取得部(取得部20_1)と、車両周辺の第2対象領域(例えば、対象領域D2)を撮像する第2車載カメラ(例えば、車載カメラ10_2)から第2画像を取得する第2取得部(取得部20_2)と、前記第1画像を平面に投影した第1投影画像(投影画像E1)に変換すると共に、前記第2画像を前記平面に投影した第2投影画像(投影画像E2)に変換する画像変換部(画像変換部30)と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部(画像合成部40)とを備える画像処理装置(処理装置100)であって、前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、前記重複領域に立体物があるか否かを判定する立体物判定部(立体物判定部50)と、前記立体物判定部によって立体物がないと判定された場合、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部(差分算出部60)と、前記差分算出部によって算出された前記差分が閾値以上である場合、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部(検知部70)とを具備することを要旨とするものである。
かかる特徴によれば、画像処理装置は、重複領域の画像に立体物がないことを確認してから、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分を算出する。よって、重複領域に対応する画像内に立体物の画像が含まれることで、差分算出部で不正確な差分が算出することを防止し、第1投影画像内の重複領域に対応する画像と、第2投影画像内の重複領域に対応する画像との差分をより正確に算出するので、第1車載カメラ又は第2車載カメラにずれが発生したことを、より正確に検出できる。
また、本発明第6の特徴は、車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置であって、前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部(差分算出部60)と、前記差分算出部によって算出された前記差分が連続して閾値以上になる回数に基づいて、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部(検知部70)とを具備することを要旨とするものである。
かかる特徴によれば、画像処理装置では、算出される差分が連続して閾値以上になる回数に基づいて、重複領域に立体物があるのか、又は、車載カメラにずれが生じているのかを判定してから、ずれを検知するので、当該車載カメラの位置にずれが発生しているのか否かをより正確に検出できる。
また、本発明第7の特徴は、車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置におけるずれ検出方法であって、前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、前記重複領域に立体物があるか否かを判定する立体物判定ステップと、前記立体物判定ステップによって立体物がないと判定された場合、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出ステップと、前記差分算出ステップによって算出された前記差分が閾値以上である場合、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知ステップとを備えることを要旨とするものである。
また、本発明第8の特徴は、車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置におけるずれ検出方法であって、前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出ステップと、前記差分算出ステップによって算出された前記差分が連続して閾値以上になる回数に基づいて、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知ステップとを備えることを要旨とするものである。
本発明の特徴によれば、複数の車載カメラを用いて撮像した画像を平面に投影した投影画像に変換すると共に、当該投影画像を合成して合成画像を生成する運転支援システムにおいて、車載カメラの位置にずれが発生しているか否かをより正確に判定する運転支援システム、画像処理装置及びずれ検出方法を提供することができる。
本発明の実施形態について説明する。なお、以下の図面の記載において、同一または類似の部分には、同一または類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。
[第1実施形態]
(本発明の第1実施形態に係る運転支援システムの構成)
本発明の第1実施形態に係る運転支援システム1の構成について、図1を参照して説明する。図1には、本実施形態に係る運転支援システム1の全体概略構成が示されている。
図1に示すように、本実施形態に係る運転支援システム1は、車両1000に設けられている。また、運転支援システム1は、車載カメラ10_1乃至10_4と、処理装置100(画像処理装置)とを具備する。なお、図1には、表示部200が示されているが、表示部200は、運転支援システム1に含まれないことに留意すべきである。
車載カメラ10_1乃至10_4は、それぞれ撮像する方向が異なる。具体的に、車載カメラ10_1は車両の右方向を撮像して第1画像を取得し、車載カメラ10_2は車両の前方向を撮像して第2画像を取得し、車載カメラ10_3は車両の左方向を撮像して第3画像を取得し、車載カメラ10_4は車両の後方向を撮像して第4画像を取得する。また、車載カメラ10_1乃至10_4は、それぞれ車両1000周辺の対象領域D1乃至D4を撮像して画像を取得する。
また、車載カメラ10_1乃至10_4によって撮像される対象領域D1乃至D4は、互いに重複する重複領域を有している。具体的に、対象領域D1は、対象領域D2と重複する重複領域と、対象領域D4と重複する重複領域とを有する。対象領域D2は、対象領域D1と重複する重複領域と、対象領域D3と重複する重複領域とを有する。対象領域D3は、対象領域D2と重複する重複領域と、対象領域D4と重複する重複領域とを有する。対象領域D4は、対象領域D1と重複する重複領域と、対象領域D3と重複する重複領域とを有する。なお、本実施形態において、対象領域D1と対象領域D2との重複する領域を重複領域Cとして説明する。また、車載カメラ10_1乃至10_4は、共通のタイミングで周期的に対象領域D1乃至D4を撮像する。
なお、本実施形態において、車載カメラ10_1は、車両周辺の対象領域D1(第1対象領域)を撮像して第1画像を取得する第1車載カメラを構成する。また、車載カメラ10_2は、車両周辺の対象領域D2(第2対象領域)を撮像して第2画像を取得する第2車載カメラを構成する。
処理装置100は、車載カメラ10_1乃至10_4と接続する。また、処理装置100は、車載カメラ10_1乃至10_4によって取得された各画像を入力し、それぞれの画像を車両の地面(平面)に投影した投影画像に変換する。また、処理装置100は、変換したそれぞれの投影画像を合成して合成画像を生成し、表示部200に出力する。
なお、本実施形態では、第1画像を地面座標系に投影した投影画像を投影画像E1とし、第2画像を地面座標系に投影した投影画像を投影画像E2とし、第3画像を地面座標系に投影した投影画像を投影画像E3とし、第4画像を地面座標系に投影した投影画像を投影画像E4として説明する。
表示部200は、処理装置100と接続する。また、表示部200は、処理装置100から出力された合成画像を入力して表示する。なお、表示部200は、カーナビゲーションシステム等に備えられている表示パネル等を想定している。
(処理装置の構成)
次に、図を参照し、処理装置100の構成について具体的に説明する。また、以下、本発明との関連がある部分について主に説明する。したがって、処理装置100は、処理装置としての機能を実現する上で必須な、図示しない或いは説明を省略した機能ブロック(電源部など)を備える場合があることに留意されたい。
図2には、処理装置100のブロック図が示されている。図2に示すように、処理装置100は、取得部20_1乃至20_2と、画像変換部30と、画像合成部40と、立体物判定部50と、差分算出部60と、検知部0とを備える。
取得部20_1乃至20_2は、車載カメラ10_2乃至10_2と接続する。また、取得部20_1は、車載カメラ10_1で取得された第1画像を取得して記憶する。また、取得部20_2は、車載カメラ10_2で取得された第2画像を取得して記憶する。なお、処理装置100は、車載カメラ10_3と接続する取得部20_3や、車載カメラ10_4と接続する取得部20_4を備えるが、本実施形態では、説明を省略する。本実施形態において、取得部20_1は、第1取得部を構成し、取得部20_2は、第2取得部を構成する。
画像変換部30は、取得部20_1乃至20_2と接続し、当該取得部20_1乃至20_2に記憶されている第1乃至第2画像を取得する。また、画像変換部30は、第1画像を地面(平面)に投影した投影画像1(第1投影画像)に変換すると共に、第2画像を地面(平面)に投影した投影画像E2(第2投影画像)に変換する。
図3には、画像変換部30によって変換される投影画像のイメージが示されている。なお、ここでは、車載カメラ10_1によって取得された第1画像を例に挙げて説明する。図3は、車載カメラ10_1の座標系XYZと、車載カメラ10_1で取得された第1画像の第1画像面Sと、地面(平面)座標系Xw Zw を含む世界座標系Xw Yw Zw との関係を示している。カメラ座標系XYZでは、車載カメラ10_1の光学中心を原点Oとして、光軸方向にZ軸が、Z軸に直交しかつ地面に平行な方向にX軸が、Z軸およびX軸に直交する方向にY軸がとられている。
世界座標系Xw Yw Zw では、カメラ座標系XYZの原点Oを通る垂線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸が、カメラ座標系XYZのX軸と平行な方向にXw 軸が、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。また、世界座標系Xw Yw Zw とカメラ座標系XYZとの間の平行移動量は〔0,h,0〕であり、X軸周りの回転量はθoである。
図3に示すように、画像変換部30は、予め設定されているカメラの焦点距離等に基づいて、車載カメラ10_1で撮像された第1画像のカメラ座標系XYZ上の第1画像面Sを算出する。また、画像変換部30は、第1画像面Sを、世界座標系Xw Zw 面に投影した投影画像E1に変換する。また、画像変換部30は、第2乃至第4画像に対しても、それぞれ投影した投影画像E2乃至E4に変換する。
また、画像変換部30は、車載カメラ10_1乃至10_4の車両上のそれぞれの配置されている位置と撮像方向(カメラ方向)とに基づいて、世界座標系の投影画像E1乃至E4を、共通の座標系として車両中心を原点とした車両座標系の座標に変換する。これにより、投影画像E1は、車両右側の画像として変換され、投影画像E2は、車両前側の画像として変換され、投影画像E3は、車両左側の画像として変換され、投影画像E4は、車両後側の画像として変換される。そして、画像変換部30は、変換した投影画像E1乃至E4を、画像合成部40と立体物判定部50と差分算出部60とに出力する。
画像合成部40は、画像変換部30から投影画像E1乃至E4を入力し、当該投影画像E1乃至E4を合成して合成画像を生成する。本実施形態において、画像合成部40は、画像変換部30によって変換された投影画像E1と投影画像E2とを合成して合成画像を生成する画像合成部を構成する。
立体物判定部50は、対象領域D1乃至D4において、互いに重複する重複領域に立体物があるか否かを判定する。具体的に、立体物判定部50は、移動ベクトル取得部51と、判定部52とを備える。
移動ベクトル取得部51は、車載カメラ10_1乃至10_4が周期的に画像を取得するタイミングの中で、タイミングt1(第1タイミング)で取得された第1画像を変換した投影画像E1内の重複領域Cに対応する画像と、タイミングt1よりも後のタイミングt2(第2タイミング)で取得された第1画像を変換した投影画像E1とに基づいて、複数の移動ベクトルを取得する。ここで、タイミングt1とタイミングt2とは、車載カメラ10_1乃至10_4が画像を周期的に取得するタイミングの中で、連続するタイミングであってもよいし、所定の間隔だけあけた(例えば、第1画像を取得するタイミングを2回分だけあけた)タイミングであってもよい。
具体的に、移動ベクトル取得部51は、画像変換部30から、タイミングt1乃至t2に取得された各投影画像E1を入力するとともに、タイミングt1の投影画像E1内の重複領域Cに対応する画像と、タイミングt1の投影画像E1内の画像とに共通する特徴点を複数検出する。ここで、特徴点は、画像内において、周辺画素との画素値の変化が大きいエッジ部分の画素等を想定している。そして、移動ベクトル取得部51は、検出した複数の特徴点に基づいて、複数の移動ベクトルを取得する。また、移動ベクトル取得部51は、取得した複数の移動ベクトルを判定部52に通知する。
判定部52は、移動ベクトル取得部51によって取得された複数の移動ベクトルを比較して、重複領域Cに立体物があるか否かを判定する。具体的に、判定部52は、移動ベクトル取得部51から複数の移動ベクトルを通知されると、各移動ベクトルが均一か否かを判定する。この時、判定部52は、予め記憶するベクトル方向許容範囲値、及びベクトル量(長さ)許容範囲値に基づいて、複数の動きベクトルの差が、当該許容範囲値内か否かを判定する。また、判定部52は、複数の動きベクトルの差が許容値範囲以内である場合、均一であると判定し、許容値範囲を上回る場合、均一でないと判定する。なお、判定部52は、均一であると判定した場合、重複領域Cに立体物がないとして判定し、均一でないと判定した場合、重複領域Cに立体物があるとして判定する。また、判定部52は、判定結果を差分算出部60に通知する。
差分算出部60は、立体物判定部50によって立体物がないと判定された場合、投影画像の重複領域に対応する画像を比較して、車載カメラの差分(ずれ量)を算出する。
ここで、投影画像E1と投影画像E2とを例に挙げて説明する。差分算出部60は、立体物判定部50によって重複領域Cに立体物がないと判定された場合、投影画像E1内の重複領域に対応する画像と、投影画像E2内の重複領域に対応する画像との差分を算出する。
図4(a)には、車載カメラ10_1で撮像された第1画像を平面に投影して変換した投影画像E1のイメージ図が示されており、図4(b)には、車載カメラ10_2で撮像された第2画像を平面に投影して変換した投影画像E2のイメージ図が示されている。
図4(a)乃至(b)に示すように、差分算出部60は、立体物判定部50によって立体物がないと判定された場合、画像変換部30から入力した投影画像E1と投影画像E2とに基づいて、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分を算出する。ここで、差分算出部60は、重複領域C1内の画像と重複領域C2内の画像とにおいて、それぞれの画像内に共通する特徴点を検出するとともに、投影画像E1の重複領域C1の画像と投影画像E2の重複領域C2の画像とを重ね合わせた際の特徴点の位置の差を差分として算出する。また、差分算出部60は、算出した差分が、予め記憶する閾値以上であるか否かを判定し、判定結果を検知部70に通知する。
検知部70は、差分算出部60によって算出された差分が閾値以上である場合、車載カメラ10_1又は車載カメラ10_2にずれが生じたことを検知する。なお、検知部70は、ずれが生じたことを検知した際、運転者(ユーザ)に報知してもよい。報知する方法としては、ブザー音で報知してもよいし、表示部200に「異常」等の文字を表示させて報知するように構成されていてもよい。また、ここでは、投影画像E1の重複領域C1と投影画像E2の重複領域C2との差分に基づいて、車載カメラ10_1又は車載カメラ10_2にずれが生じているか否かを検知する場合を例に示したが、投影画像E3、投影画像E4との重複領域の差分に基づいて、車載カメラ10_3、車載カメラ10_4にずれが生じているか否かを検知してもよい。
(処理装置の動作)
次に、上記の構成を具備する運転支援システム1の動作について、説明する。具体的に、図5を参照して、処理装置100がずれ検出を行う際の制御動作について説明する。なお、ここでは、車載カメラ10_1乃至10_2のずれ検出を行う際の動作を例に挙げて説明する。
ステップS110において、取得部20_1乃至20_2は、周期的に画像を取得する車載カメラ10_1乃至10_2から、特定のタイミングt1で取得された第1画像と第2画像とを取得して記憶する。
ステップS120において、画像変換部30は、取得部20_1乃至20_2から第1画像と第2画像とを取得し、第1画像を地面(平面)に投影した投影画像E1に変換すると共に、第2画像を地面(平面)に投影した投影画像E2に変換する。また、画像変換部30は、投影画像E1と投影画像E2とを共通の車両座標系に変換し、変換した投影画像E1及び投影画像E2を、移動ベクトル取得部51と差分算出部60とに出力する。
ステップS130において、差分算出部60は、画像変換部30から投影画像E1と投影画像E2とを入力する。また、移動ベクトル取得部51は、特徴点を検出するため、投影画像E1の重複領域Cに対応する画像内と、投影画像E2の重複領域Cに対応する画像内とをサーチする。また、差分算出部60は、特徴点が検出できた場合、移動ベクトル取得部51に通知する。なお、差分算出部60において、特徴点が検出できなかった場合、処理装置100では、ステップS110乃至ステップS130の動作が繰り返される。
ステップS140において、車載カメラ10_1は、周期的に撮像して第1画像を取得する動作において、タイミングt1よりも後のタイミングt2で、第1画像を取得する。また、取得部20_1乃至20_2は、車載カメラ10_1から、タイミングt2で取得された第1画像を取得する。
ステップS150において、画像変換部30は、取得部20_1でタイミングt2の第1画像が取得されると、第1画像を平面に投影した投影画像E1に変換する。また、画像変換部30は、投影画像E1を車両座標系に変換し、変換した投影画像E1を、移動ベクトル取得部51に出力する。
ステップS160において、移動ベクトル取得部51は、差分算出部60から特徴点が検出できた旨の通知を受けると、タイミングt1で取得された画像を変換した投影画像E1を保持すると共に、タイミングt2で取得された画像を変換した投影画像E1を画像変換部30から取得する。また、移動ベクトル取得部51は、タイミングt1の投影画像E1内の重複領域Cに対応する画像と、タイミングt2の投影画像E1との間において、複数の動きベクトルを取得する。また、移動ベクトル取得部51は、取得した複数の動きベクトルを判定部52へ通知する。
ステップS170において、判定部52は、移動ベクトル取得部51から通知された複数の動きベクトルが均一か否かを判定する。この時、判定部52は、予め記憶しているベクトル方向許容範囲値、又は、ベクトル量(長さ)許容範囲値に基づいて、複数の動きベクトルが、当該許容範囲値内か否かを判定する。また、判定部52は、複数の動きベクトルが、許容値範囲以内である場合、均一であると判定し、許容値範囲を上回る場合、均一でないと判定する。また、判定部52は、複数の動きベクトルが均一であると判定した場合、差分算出部60に通知する。
ここで、図6には、上述したステップS160乃至S170において、処理装置100が、タイミングt1とタイミングt2とで取得した投影画像E1を重ね合わせたイメージが示されている。例えば、車載カメラ10_1がタイミングt1で取得した画像を変換した投影画像E1内の重複領域C1に対応する画像に、ポール等の立体物Pの画像Pa1が含まれ、タイミングt2で取得した画像を変換した投影画像E1内に、車両1000の移動に伴って移動した立体物Pの画像Pa2が含まれていることとする。
移動ベクトル取得部51は、タイミングt1で取得された投影画像E1内の重複領域Cに対応する画像において、画像Pa1から特徴点A1及びB1を検出し、タイミングt2で取得された投影画像E1内において、画像Pa2から特徴点A2及びB2を検出する。そして、検出した特徴点A1乃至A2と特徴点B1乃至B2とに基づいて、動きベクトルV1乃至V2を取得する。重複領域Cに立体物Pがある場合、タイミングt1で取得した投影画像E1と、タイミングt2で取得した投影画像E1との間で、動きベクトルV1乃至V2が均一でなくなるため、判定部52では、重複領域Cに立体物Pがあることを判定できる。反対に、判定部52では、動きベクトルが均一であれば、立体物Pがないことを判定できる。
ステップS180において、差分算出部60は、判定部52から、複数の動きベクトルが均一である旨の通知を受けると、タイミングt1で取得された第1画像を変換した投影画像E1と、タイミングt1で取得された第2画像を変換した投影画像E2との差分を算出する。具体的に、差分算出部60は、投影画像E1内の重複領域Cに対応する画像内にエッジ等の特徴点を検出すると共に、投影画像E2内の重複領域Cに対応する画像内にもエッジ等の共通の特徴点を検出する。そして、差分算出部60は、投影画像内に検出した特徴点の位置と、投影画像E2内に検出した特徴点の位置との差分(ずれ量)を算出し、算出した差分が予め記憶する閾値以上か否かを判定する。また、差分算出部60は、判定結果を検知部70に通知する。
ステップS190において、検知部70は、差分算出部60で差分が閾値以上であると判定された場合、車載カメラ10_1又は車載カメラ10_2において、配置した位置又は撮像方向にずれが生じていることを検知する。この時、検知部は、ブザー音等で報知してもよい。
なお、上述するステップS110乃至S190では、投影画像E1と投影画像E2とに基づいて、車載カメラ10_1乃至10_2にずれが発生したか否かを検出する際の動作を例に挙げて説明したが、投影画像E2と投影画像E3とに基づいて、車載カメラ10_2乃至10_3にずれが発生したか否かの検出を行ってもよいし、投影画像E3と投影画像E4とに基づいて、車載カメラ10_3乃至10_4にずれが発生したか否かの検出を行ってもよい。つまり、様々な組み合わせが可能である。
(第1実施形態に係る運転支援システムの作用・効果)
本実施形態に係る運転支援システム1において、処理装置100では、立体物判定部50が、投影画像E1内の重複領域Cに立体物があるか否かを判定し、立体物がないと判定した場合、差分算出部60が、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分を算出する。
つまり、処理装置100では、重複領域Cの画像に立体物がないことを確認してから、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分を算出する。よって、運転支援システム1では、重複領域に対応する画像内に立体物の画像が含まれることで、差分算出部60で不正確な差分が算出されることを防止し、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分をより正確に算出できる。
上述するように、処理装置100によれば、複数の車載カメラ10_1乃至10_4を用いて撮像した画像を平面に投影した投影画像に変換すると共に、当該投影画像を合成して合成画像を生成する運転支援システム1において、車載カメラ10_1乃至10_4の位置にずれが発生しているか否かをより正確に判定することができる。
また、本実施形態に係る運転支援システム1において、処理装置100では、立体物判定部50は、複数の移動ベクトルを比較して、重複領域の画像に立体物があるか否かを判定する。ここで、例えば、移動する車両に設けられた車載カメラ10_1が、立体物を撮像する場合、タイミングt1とタイミングt2とで、立体物に対する撮像方向が異なるため、撮像した当該立体物を含む投影画像E1は、立体物の画像が変化する。このため、立体物の画像のエッジ等を特徴点とした動きベクトルV1乃至V2は、均一でなくなる。
つまり、上述した処理装置100では、タイミングt1で撮像された第1画像を変換した投影画像E1の重複領域Cの画像と、タイミングt2で撮像された第1画像を変換した投影画像E1と間で、複数の動きベクトルが均一であるか否かを判定することで、立体物があるか否かを判定し、立体物がない場合、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分を算出するので、当該差分をより正確に算出できる。
[第2実施形態]
(本発明の第2実施形態に係る運転支援システムの構成)
本発明の第2実施形態について、第1実施形態との相違点に着目して説明する。図7には、本実施形態に係る処理装置100(画像処理装置)のブロック図が示されている。図7に示すように、処理装置100は、移動量取得部80を更に備える。また、立体物判定部50は、特定部53と判定部54とを備える。
移動量取得部80は、車載カメラ10_1乃至10_4が画像を周期的に取得する中で、タイミングt1(第1タイミング)から、タイミングt1よりも後のタイミングt2(第2タイミング)までの期間における車両の移動量Lを取得する。
具体的に、移動量取得部80は、タイミングt1からタイミングt2までの期間において、車輪の回転数を検出するとともに、検出した車輪の回転数と予め記憶する車輪の外周とに基づいて、車両の移動量Lを取得する。ここで、タイミングt1とタイミングt2とは、車載カメラ10_1乃至10_4が画像を周期的に取得するタイミングの中で、連続するタイミングであってもよいし、所定の間隔だけあけた(例えば、画像を取得するタイミングを2回分だけあけた)タイミングであってもよい。なお、移動量取得部80は、車両の移動方向も検出して、移動した距離と、移動方向とを含む移動量Lを取得するように構成されていてもよい。
特定部53は、移動量Lに基づいて、タイミングt2で取得された第1画像を変換した投影画像E1(第1投影画像)内に、タイミングt1で取得された第1画像を変換した投影画像E1(第1投影画像)内の重複領域Cに対応する比較領域を特定する。
判定部54は、特定部53によって特定されたタイミングt2で取得された投影画像E1内の比較領域に対応する画像と、タイミングt1で取得された投影画像E1内の重複領域Cに対応する画像との差分に基づいて、重複領域Cに立体物があるか否かを判定する。
具体的に、判定部54は、重複領域Cに対応する画像と、比較領域に対応する画像とに共通する特徴点を複数検出する。また、判定部54は、重複領域Cに対応する画像と、比較領域に対応する画像とを、例えば、領域の端を基準に重ね合わせ、重ね合わせた際の複数の特徴点の位置の差分が予め記憶する閾値以上であるか否かを判定する。また、差分算出部60は、判定結果を検知部70に通知する。
(第2実施形態に係る運転支援システムの動作)
上記の構成を具備する運転支援システム1の動作について説明する。具体的に、図8を参照して、処理装置100がずれ検出を行う際の制御動作について説明する。なお、ここでは、車載カメラ10_1乃至10_2のずれ検出を行う際の動作を例に挙げて説明する。
ここで、ステップS110乃至S150における動作は、上述した第1実施形態におけるステップS110乃至ステップS150の動作と同様であるため、説明を省略する。
ステップS151において、移動量取得部80は、タイミングt1からタイミングt2までの期間において、車両が移動した移動量Lを取得する。
ステップS152において、特定部53は、移動量取得部80によって取得された移動量Lに基づいて、タイミングt2の投影画像E1内に、タイミングt1の投影画像E1の重複領域Cに対応する比較領域を特定する。
ステップS153において、判定部54は、タイミングt1で取得された投影画像E1内の重複領域Cに対応する画像と、特定部53によって特定されたタイミングt2で取得された投影画像E1内の比較領域の画像との差分を算出する。また、判定部54は、算出した差分が予め記憶する閾値以上であるか否かを判定する。また、判定部54は、判定結果を検知部70に通知する。
ここで、図9には、処理装置100が、タイミングt1で取得された投影画像E1とタイミングt2で取得された投影画像E1とを重ね合わせたイメージが示されている。例えば、車載カメラ10_1がタイミングt1で取得された投影画像E1内の重複領域C1の画像に、ポール等の立体物Pの画像Pa1が含まれ、タイミングt2の時で取得された投影画像E1内に、立体物Pの画像Pa2が含まれていることとする。特定部53は、移動量取得部80によって取得された移動量Lから、タイミングt2の投影画像E1内に、タイミングt1の投影画像E1内の重複領域C1に対応する比較領域C1_hを特定する。また、判定部54は、タイミングt1の重複領域C1に対応する画像と、タイミングt2の比較領域C1_hの画像との差分を算出する。このとき、重複領域C1の画像と比較領域C1_hの画像とに立体物Pの画像があると、画像Pa1と画像Pa2とが異なる画像になるため、算出される差分が大きくなる。このようにして、判定部54は、算出した差分が閾値以上であるか否かを判定して、重複領域C1に立体物があるか否かを判定する。
なお、以降、ステップS180乃至S190の動作は、第1実施形態におけるステップS180乃至S190の動作と同様であるため、説明を省略する。
(第2実施形態に係る運転支援システムの作用・効果)
本実施形態に係る運転支援システム1において、処理装置100では、立体物判定部50が、タイミングt1で取得された第1画像を変換した投影画像E1内の重複領域C1に対応する画像と、タイミングt2で取得された第1画像を変換した投影画像E1内の比較領域C1_hに対応する画像との差分に基づいて、重複領域C1に立体物があるか否かを判定する。
ここで、移動する車両に設けられた車載カメラ10_1が、立体物を撮像する場合、タイミングt1とタイミングt2とで、立体物に対する撮像方向が異なるため、撮像した当該立体物を含む投影画像では、立体物の画像が変化する。このため、重複領域C1に立体物がある場合、重複領域C1に対応する画像と、比較領域C1_hに対応する画像との差分が大きくなる。
このようにして、上述する処理装置100では、重複領域C1に立体物があるか否かを判定し、立体物がないと判定した場合、タイミングt1の投影画像E1内の重複領域C1に対応する画像と、タイミングt1の投影画像E2内の重複領域C2に対応する画像との差分を算出するので、当該車載カメラにずれが発生したか否かを、より正確に検出できる。
[第3実施形態]
(本発明の第3実施形態に係る運転支援システムの構成)
本発明の第3実施形態について、第1実施形態との相違点に着目して説明する。図10には、本実施形態に係る処理装置100(画像処理装置)のブロック図が示されている。図10に示すように、処理装置100は、立体物判定部50を備えていない。
また、本実施形態に係る差分算出部60は、投影画像E1内の重複領域Cに対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分を算出する。
また、本実施形態に係る検知部70は、差分算出部60によって算出された差分が連続して閾値以上になる回数に基づいて、車載カメラ10_1又は第2車載カメラ10_2にずれが生じたことを検知する。
具体的に、検知部70は、差分が連続して閾値以上になる回数をカウント数として記憶する。また、検知部70は、記憶するカウント数が予め記憶する所定のカウント数(回数)以上になった場合、車載カメラ10_1乃至10_4にずれが生じたことを検知する。
(第3実施形態に係る運転支援システムの動作)
上記の構成を具備する運転支援システム1の動作について説明する。具体的に、図11を参照して、処理装置100がずれ検出を行う際の制御動作について説明する。なお、ここでは、車載カメラ10_1乃至10_2のずれ検出を行う際の動作を例に挙げて説明する。
ここで、ステップS110乃至S130における動作は、上述した第1実施形態におけるステップS110乃至ステップS130の動作と同様であるため、説明を省略する。
ステップS180において、差分算出部60は、投影画像E1内の重複領域Cに対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分を算出し、当該差分が予め記憶する閾値以上であるか否かを判定する。そして、差分算出部60は、判定結果を検知部70に通知する。
ステップS181において、検知部70は、差分算出部60から算出された差分が閾値以上である旨を通知されると、カウント数を一つ加算して記憶する。
ステップS182において、検知部70は、差分算出部60から算出された差分が閾値以上でない旨を通知されると、カウント数を0にリセットして記憶する。
ステップS183において、検知部70は、加算したカウント数が予め記憶する所定のカウント数以上か否かを判定する。
ステップS190において、検知部70は、ステップS183において、所定のカウント数以上であると判定した場合、車載カメラ10_1乃至10_2にずれが生じたことを検知する。
なお、上述するステップS110乃至S190の動作は、車載カメラ10_1乃至10_2で画像が取得される度に行われるように構成されていてもよいし、例えば、所定の間(例えば、1日)ごとに動作するようにしてもよい。また、検知部70は、所定の期間内(例えば、1時間内)にずれが生じたことを検知(ステップS190の動作)しない場合には、かかる動作を停止するように構成されていてもよい。
(第3実施形態に係る運転支援システムの作用・効果)
かかる特徴によれば、検知部70は、差分算出部60で算出された差分が連続して閾値以上となる回数が、所定のカウント数以上であると判定した場合、車載カメラ10_1又は車載カメラ10_2にずれが生じたことを検知する。
ここで、車載カメラ10_1又は車載カメラ10_2にずれが生じていた場合、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分は、何度画像を取得しても、閾値以上、つまり画像の差分が毎回閾値以上になる。また、車載カメラ10_1又は車載カメラ10_2にずれが生じていないが、重複領域に立体物が存在する場合、つまり、立体物が存在する間は、投影画像E1内の重複領域C1に対応する画像と、投影画像E2内の重複領域C2に対応する画像との差分が閾値以上になるが、車両が移動することによって重複領域Cに立体物がなくなれば、当該差分は閾値よりも小さくなる。
このようにして、上述した運転支援システムでは、算出される差分が連続して閾値以上になる回数に基づいて、重複領域に立体物があるのか、又は、車載カメラにずれが生じているのかを判定してから、ずれを検知するので、当該車載カメラにずれが発生したか否かをより正確に検出できる。
(その他の実施形態)
上述したように、本発明の一実施形態を通じて本発明の内容を開示したが、この開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態が明らかとなろう。
上述した実施形態において、立体物判定部50は、例えば、超音波ソナー、ミリ波レーダ、レーザレーダ、赤外線レーダ等の機能を備え、かかる機能によって重複領域に立体物があるか否かを判定するように構成されていてもよい。つまり、本発明は、取得した複数の画像を投影するとともに、投影した複数の投影画像が重複する重複領域の画像の差分から、車載カメラにずれが生じたことを検出する様々のずれ検出に適用することが可能である。
また、各実施形態の構成もそれぞれ組み合わせることが可能である。また、各実施形態の作用及び効果は、本発明から生じる最も好適な作用及び効果を列挙したに過ぎず、本発明による作用及び効果は、各実施形態に記載されたものに限定されるものではない。
このように、本発明は、ここでは記載していない様々な実施の形態などを含むことは勿論である。したがって、本発明の技術的範囲は、上述の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
本発明の第1実施形態に係る運転支援システムの概略構成を示す概略構成図である。 本発明の第1実施形態に係る運転支援システムのブロック図である。 本発明の第1実施形態に係る車載カメラの画像を地面(平面)に投影した投影画像に変換する際のイメージ図である。 (a)本発明の第1実施形態に係る投影画像E1のイメージ図である。(b)本発明の第1実施形態に係る投影画像E2のイメージ図である。 本発明の第1実施形態に係る運転支援システムの動作を示すフローチャート図である。 本発明の第1実施形態に係る運転支援システムにおいて、タイミングt1で取得された投影画像E1とタイミングt2で取得された投影画像E1とを重ね合わせた画像のイメージ図である。 本発明の第2実施形態に係る運転支援システムのブロック図である。 本発明の第2実施形態に係る運転支援システムの動作を示すフローチャート図である。 本発明の第2実施形態に係る運転支援システムにおいて、タイミングt1で取得された投影画像E1とタイミングt2で取得された投影画像E1とを重ね合わせた画像のイメージ図である。 本発明の第3実施形態に係る運転支援システムのブロック図である。 本発明の第3実施形態に係る運転支援システムの動作を示すフローチャート図である。 運転支援システムにおいて、二つの投影画像を重ね合わせたイメージ図である。 運転支援システムにおいて、二つの投影画像を重ね合わせたイメージ図である。
符号の説明
1…運転支援システム、10_1乃至10_4…車載カメラ、20…取得部、30…画像変換部、40…画像合成部、50…立体物判定部、51…移動ベクトル取得部、52…判定部、53…特定部、54…判定部、60…差分算出部、70…検知部、80…移動量取得部、100…処理装置、200…表示部、1000…車両、A1乃至A2…特徴点、B1乃至B2…特徴点、C…重複領域、C1_h…比較領域、C1乃至C2…重複領域、D1乃至D4…対象領域、E1乃至E4…投影画像、L…移動量、M1乃至M2…白線、Ow…原点、O…原点、P…ポール、S…第1画像面、S110乃至S190…ステップ、V1乃至V2…ベクトル、t1乃至t2…タイミング、Pa1乃至Pa2…画像、

Claims (8)

  1. 車両周辺の第1対象領域を撮像して第1画像を取得する第1車載カメラと、車両周辺の第2対象領域を撮像して第2画像を取得する第2車載カメラと、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える運転支援システムであって、
    前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、
    前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、
    前記重複領域に立体物があるか否かを判定する立体物判定部と、
    前記立体物判定部によって立体物がないと判定された場合、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部と、
    前記差分算出部によって算出された前記差分が閾値以上である場合、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部と
    を具備することを特徴とする運転支援システム。
  2. 前記第1車載カメラは、第1タイミングと前記第1タイミングよりも後の第2タイミングとで前記第1画像を取得し、
    前記立体物判定部は、
    前記第1タイミングで取得された前記第1画像を変換した前記第1投影画像内の前記重複領域に対応する画像と、前記第2タイミングで取得された前記第1画像を変換した前記第1投影画像とに基づいて、複数の移動ベクトルを取得する移動ベクトル取得部と、
    前記移動ベクトル取得部によって取得された前記複数の移動ベクトルを比較して、前記重複領域に立体物があるか否かを判定する判定部と
    を備えることを特徴とする請求項1に記載の運転支援システム。
  3. 前記第1車載カメラは、第1タイミングと前記第1タイミングよりも後の第2タイミングとで前記第1画像を取得し、
    前記第1タイミングから第2タイミングまでの車両の移動量を取得する移動量取得部を更に備え、
    前記立体物判定部は、
    前記移動量に基づいて、前記第2タイミングで取得された第1画像を変換した第1投影画像内に、前記第1タイミングで取得された第1画像を変換した第1投影画像内の前記重複領域に対応する比較領域を特定する特定部と、
    前記特定部によって特定された前記比較領域に対応する画像と前記重複領域に対応する画像との差分に基づいて、前記重複領域に立体物があるか否かを判定する判定部と
    を備えることを特徴とする請求項1に記載の運転支援システム。
  4. 車両周辺の第1対象領域を撮像して第1画像を取得する第1車載カメラと、車両周辺の第2対象領域を撮像して第2画像を取得する第2車載カメラと、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える運転支援システムであって、
    前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、
    前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、
    前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部と、
    前記差分算出部によって算出された前記差分が連続して閾値以上になる回数に基づいて、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部と
    を具備することを特徴とする運転支援システム。
  5. 車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置であって、
    前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、
    前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、
    前記重複領域に立体物があるか否かを判定する立体物判定部と、
    前記立体物判定部によって立体物がないと判定された場合、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部と、
    前記差分算出部によって算出された前記差分が閾値以上である場合、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部と
    を具備することを特徴とする画像処理装置。
  6. 車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置であって、
    前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、
    前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、
    前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出部と、
    前記差分算出部によって算出された前記差分が連続して閾値以上になる回数に基づいて、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知部と
    を具備することを特徴とする画像処理装置。
  7. 車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置におけるずれ検出方法であって、
    前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、
    前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、
    前記重複領域に立体物があるか否かを判定する立体物判定ステップと、
    前記立体物判定ステップによって立体物がないと判定された場合、前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出ステップと、
    前記差分算出ステップによって算出された前記差分が閾値以上である場合、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知ステップと
    を備えることを特徴とするずれ検出方法。
  8. 車両周辺の第1対象領域を撮像する第1車載カメラから第1画像を取得する第1取得部と、車両周辺の第2対象領域を撮像する第2車載カメラから第2画像を取得する第2取得部と、前記第1画像を平面に投影した第1投影画像に変換すると共に、前記第2画像を前記平面に投影した第2投影画像に変換する画像変換部と、前記第1投影画像と前記第2投影画像とを合成して合成画像を生成する画像合成部とを備える画像処理装置におけるずれ検出方法であって、
    前記第1車載カメラの方向は、前記第2車載カメラの方向と異なり、
    前記第1対象領域と前記第2対象領域とは、互いに重複する重複領域を有しており、
    前記第1投影画像内の前記重複領域に対応する画像と、前記第2投影画像内の前記重複領域に対応する画像との差分を算出する差分算出ステップと、
    前記差分算出ステップによって算出された前記差分が連続して閾値以上になる回数に基づいて、前記第1車載カメラ又は前記第2車載カメラにずれが生じたことを検知する検知ステップと
    を備えることを特徴とするずれ検出方法。
JP2007003815A 2007-01-11 2007-01-11 運転支援システム、画像処理装置及びずれ検出方法 Expired - Fee Related JP4879031B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007003815A JP4879031B2 (ja) 2007-01-11 2007-01-11 運転支援システム、画像処理装置及びずれ検出方法
US11/972,174 US8184160B2 (en) 2007-01-11 2008-01-10 Image processor, driving assistance system, and out-of-position detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003815A JP4879031B2 (ja) 2007-01-11 2007-01-11 運転支援システム、画像処理装置及びずれ検出方法

Publications (2)

Publication Number Publication Date
JP2008172535A true JP2008172535A (ja) 2008-07-24
JP4879031B2 JP4879031B2 (ja) 2012-02-15

Family

ID=39617437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003815A Expired - Fee Related JP4879031B2 (ja) 2007-01-11 2007-01-11 運転支援システム、画像処理装置及びずれ検出方法

Country Status (2)

Country Link
US (1) US8184160B2 (ja)
JP (1) JP4879031B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283722A (ja) * 2009-06-08 2010-12-16 Alpine Electronics Inc 障害物検出装置および障害物検出方法
JP2011071932A (ja) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp 車両周辺監視装置
WO2011090163A1 (ja) * 2010-01-22 2011-07-28 富士通テン株式会社 パラメータ決定装置、パラメータ決定システム、パラメータ決定方法、及び記録媒体
JP2012113605A (ja) * 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp 運転支援装置及び運転支援方法
JP2013055410A (ja) * 2011-09-01 2013-03-21 Denso Corp 車両周辺画像表示制御装置
JP2013093865A (ja) * 2012-12-07 2013-05-16 Mitsubishi Motors Corp 車両周辺監視装置
JP2014165810A (ja) * 2013-02-27 2014-09-08 Fujitsu Ten Ltd パラメータ取得装置、パラメータ取得方法及びプログラム
JP2015222536A (ja) * 2014-05-23 2015-12-10 日産自動車株式会社 標示線検出装置、標示線検出方法
WO2018030285A1 (ja) * 2016-08-08 2018-02-15 株式会社小糸製作所 複数カメラを用いた車両用モニタリングシステム
CN110942482A (zh) * 2019-10-14 2020-03-31 深圳市德赛微电子技术有限公司 一种镜头快速自标定方法及其电子设备

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4812510B2 (ja) * 2006-05-17 2011-11-09 アルパイン株式会社 車両周辺画像生成装置および撮像装置の測光調整方法
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
TWI334393B (en) * 2008-10-07 2010-12-11 Ind Tech Res Inst Image-based vehicle maneuvering assistant method and system
US8048359B2 (en) 2008-10-20 2011-11-01 3D Systems, Inc. Compensation of actinic radiation intensity profiles for three-dimensional modelers
US8666142B2 (en) * 2008-11-18 2014-03-04 Global Filtration Systems System and method for manufacturing
JP5491235B2 (ja) * 2010-03-02 2014-05-14 東芝アルパイン・オートモティブテクノロジー株式会社 カメラキャリブレーション装置
US9834153B2 (en) * 2011-04-25 2017-12-05 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
WO2013021767A1 (ja) * 2011-08-10 2013-02-14 富士フイルム株式会社 動体検出装置及び方法
US8691476B2 (en) 2011-12-16 2014-04-08 Taiwan Semiconductor Manufacturing Company, Ltd. EUV mask and method for forming the same
JP5230828B1 (ja) * 2012-02-09 2013-07-10 株式会社小松製作所 作業車両用周辺監視システム及び作業車両
KR101384332B1 (ko) * 2012-09-06 2014-04-10 현대모비스 주식회사 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템
JP5456123B1 (ja) * 2012-09-20 2014-03-26 株式会社小松製作所 作業車両用周辺監視システム及び作業車両
US20150286878A1 (en) 2014-04-08 2015-10-08 Bendix Commercial Vehicle Systems Llc Generating an Image of the Surroundings of an Articulated Vehicle
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
DE102014014295A1 (de) * 2014-09-25 2016-03-31 Audi Ag Verfahren zur Überwachung einer Kalibrierung mehrerer Umgebungssensoren eines Kraftfahrzeugs und Kraftfahrzeug
JP6379967B2 (ja) 2014-10-09 2018-08-29 株式会社デンソー 画像生成装置および画像生成方法
JP6417204B2 (ja) * 2014-12-18 2018-10-31 キヤノン株式会社 画像処理装置および画像処理方法
KR102149295B1 (ko) * 2015-11-10 2020-08-28 현대자동차주식회사 추월 차선에서의 차량 제어 장치 및 방법
KR102597435B1 (ko) * 2016-04-20 2023-11-03 엘지이노텍 주식회사 영상 취득 장치 및 그 방법
KR102582092B1 (ko) * 2016-04-22 2023-09-25 한국전자통신연구원 차량용 헤드업 디스플레이의 증강현실정보 변환 장치 및 방법
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
KR102473404B1 (ko) * 2020-02-25 2022-12-02 삼성전기주식회사 탑뷰 제공 장치
KR20220006416A (ko) * 2020-07-08 2022-01-17 현대모비스 주식회사 서라운드뷰 모니터링 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002051331A (ja) * 2000-05-24 2002-02-15 Matsushita Electric Ind Co Ltd 描画装置
WO2006087993A1 (ja) * 2005-02-15 2006-08-24 Matsushita Electric Industrial Co., Ltd. 周辺監視装置および周辺監視方法
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6734896B2 (en) * 2000-04-28 2004-05-11 Matsushita Electric Industrial Co., Ltd. Image processor and monitoring system
JP3521859B2 (ja) 2000-09-18 2004-04-26 株式会社デンソー 車両周辺画像処理装置及び記録媒体
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
DE102004061998A1 (de) * 2004-12-23 2006-07-06 Robert Bosch Gmbh Stereokamera für ein Kraftfahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002051331A (ja) * 2000-05-24 2002-02-15 Matsushita Electric Ind Co Ltd 描画装置
WO2006087993A1 (ja) * 2005-02-15 2006-08-24 Matsushita Electric Industrial Co., Ltd. 周辺監視装置および周辺監視方法
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283722A (ja) * 2009-06-08 2010-12-16 Alpine Electronics Inc 障害物検出装置および障害物検出方法
JP2011071932A (ja) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp 車両周辺監視装置
US8947533B2 (en) 2010-01-22 2015-02-03 Fujitsu Ten Limited Parameter determining device, parameter determining system, parameter determining method, and recording medium
WO2011090163A1 (ja) * 2010-01-22 2011-07-28 富士通テン株式会社 パラメータ決定装置、パラメータ決定システム、パラメータ決定方法、及び記録媒体
JP2011151666A (ja) * 2010-01-22 2011-08-04 Fujitsu Ten Ltd パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
JP2012113605A (ja) * 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp 運転支援装置及び運転支援方法
JP2013055410A (ja) * 2011-09-01 2013-03-21 Denso Corp 車両周辺画像表示制御装置
JP2013093865A (ja) * 2012-12-07 2013-05-16 Mitsubishi Motors Corp 車両周辺監視装置
JP2014165810A (ja) * 2013-02-27 2014-09-08 Fujitsu Ten Ltd パラメータ取得装置、パラメータ取得方法及びプログラム
JP2015222536A (ja) * 2014-05-23 2015-12-10 日産自動車株式会社 標示線検出装置、標示線検出方法
WO2018030285A1 (ja) * 2016-08-08 2018-02-15 株式会社小糸製作所 複数カメラを用いた車両用モニタリングシステム
JPWO2018030285A1 (ja) * 2016-08-08 2019-06-20 株式会社小糸製作所 複数カメラを用いた車両用モニタリングシステム
US10829044B2 (en) 2016-08-08 2020-11-10 Koito Manufacturing Co., Ltd. Vehicle monitoring system using a plurality of cameras
JP7055743B2 (ja) 2016-08-08 2022-04-18 株式会社小糸製作所 複数カメラを用いた車両用モニタリングシステム
CN110942482A (zh) * 2019-10-14 2020-03-31 深圳市德赛微电子技术有限公司 一种镜头快速自标定方法及其电子设备

Also Published As

Publication number Publication date
US8184160B2 (en) 2012-05-22
US20080170122A1 (en) 2008-07-17
JP4879031B2 (ja) 2012-02-15

Similar Documents

Publication Publication Date Title
JP4879031B2 (ja) 運転支援システム、画像処理装置及びずれ検出方法
JP4193886B2 (ja) 画像表示装置
JP5444338B2 (ja) 車両周囲監視装置
US9225942B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
US9479740B2 (en) Image generating apparatus
EP2739050B1 (en) Vehicle surroundings monitoring system
JP5479956B2 (ja) 車両用周囲監視装置
JP6310652B2 (ja) 映像表示システム、映像合成装置及び映像合成方法
US10467789B2 (en) Image processing device for vehicle
US20140114534A1 (en) Dynamic rearview mirror display features
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP5003395B2 (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
JP2009118416A (ja) 車両周辺画像生成装置および車両周辺画像の歪み補正方法
KR20090101480A (ko) 차량용 주변 감시 장치 및 차량용 주변 감시 방법
JP4797877B2 (ja) 車両用映像表示装置及び車両周囲映像の表示方法
JP6471522B2 (ja) カメラパラメータ調整装置
US9162621B2 (en) Parking support apparatus
JP2011064566A (ja) 距離推定装置
JP2010015346A (ja) 周辺監視装置
JP2008034964A (ja) 画像表示装置
JP2012147308A (ja) 画像処理装置、画像表示システム、及び、画像処理方法
JP5395373B2 (ja) 周辺監視装置
JP2010157910A (ja) 画像表示装置
JP4685050B2 (ja) 表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111129

R151 Written notification of patent or utility model registration

Ref document number: 4879031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees