JP2009265783A - 運転支援システム及び車両 - Google Patents

運転支援システム及び車両 Download PDF

Info

Publication number
JP2009265783A
JP2009265783A JP2008112040A JP2008112040A JP2009265783A JP 2009265783 A JP2009265783 A JP 2009265783A JP 2008112040 A JP2008112040 A JP 2008112040A JP 2008112040 A JP2008112040 A JP 2008112040A JP 2009265783 A JP2009265783 A JP 2009265783A
Authority
JP
Japan
Prior art keywords
dimensional object
candidate
bird
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008112040A
Other languages
English (en)
Other versions
JP5108605B2 (ja
Inventor
Nagateru Yo
長輝 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008112040A priority Critical patent/JP5108605B2/ja
Priority to US12/428,726 priority patent/US20090268027A1/en
Publication of JP2009265783A publication Critical patent/JP2009265783A/ja
Application granted granted Critical
Publication of JP5108605B2 publication Critical patent/JP5108605B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】画像上の立体物領域を推定する方法において、推定立体物領域から影領域やノイズを除去する。
【解決手段】運転支援システムは、車両の後方を撮影するカメラ部と、画像上の立体物領域を推定する画像処理装置とを備える。異なる時刻の撮影によって得た2枚のカメラ画像を視点変換して2枚の鳥瞰図画像を生成し、両鳥瞰図画像間の位置ずれを補正した後、両鳥瞰図画像間の差分画像から、立体物の影領域(SR)と立体物の本体の描画領域(TR)とを含む立体物候補領域を検出する。カメラ部の鳥瞰図座標面上への投影位置であるカメラ位置(CP)と立体物−地面間の接点(GP)とを結ぶ連結線(22)の方向を立体物の分布方向として検出し、その分布方向を基準として、立体物候補領域から影領域(SR)を分離検出して除外する。
【選択図】図7

Description

本発明は、運転支援システムに関する。特に、移動体に取り付けられたカメラの撮影結果から立体物が描画されている立体物領域を推定する技術に関する。また本発明は、その運転支援システムを利用した車両に関する。
路面上に位置する立体物は車両にとって障害物となるが、その立体物を運転者が見落として接触事故が発生することがある。このような接触事故は、特に、運転者の死角領域において良く発生する。このため、運転者の死角となりやすい領域を監視するカメラを車両に搭載し、カメラから得られた画像を運転席付近に配置された表示装置に表示するという手法が提案されている。また、カメラから得たカメラ画像を鳥瞰図画像に変換して表示する技術も開発されている。鳥瞰図画像は車両を上空から眺めたような画像であるため、鳥瞰図画像の表示によって運転者は立体物との距離感をつかみやすくなる。
鳥瞰図画像を生成可能な運転支援システムにおいて、異なる時刻の撮影によって得られた2枚の鳥瞰図画像から立体物領域を推定する方法が提案されている(例えば、下記特許文献1参照)。この方法では、2枚の鳥瞰図画像の画像データに基づいて両鳥瞰図画像間の位置ずれを補正した後、両鳥瞰図画像間の差分画像に基づいて立体物領域を推定する。
しかしながら、太陽などの外部照明による立体物の影が画像上に現れている場合、この方法では、影部分と立体物の本体部分とを区別することができず、影部分も立体物の一部として検出することがある。結果、立体物の位置決定を正確に行うことができなくなるといった問題が生じうる。図20に、影部分をも含んだ立体物領域の推定結果を示す。図20及び後述の図21(a)〜(d)は、車両後方を撮影するリアカメラを用いることを想定している。図20において、左側側が車両側に対応している。
また、上記方法に基づき立体物領域を推定する場合において、自車両自身(カメラ及び運転支援システムが設置された車両自身)の影の端部が立体物領域に含まれてしまう場合がある。この原因を図21(a)〜(d)を参照して説明する。図21(a)〜(d)において、下方側が車両側に対応している。
図21(a)及び(b)に、夫々、前回フレーム及び今回フレームにて撮影されたカメラ画像に基づく鳥瞰図画像を示す。図21(a)及び(b)において、符号901及び902が付された黒領域は、前回フレーム及び今回フレームの鳥瞰図画像中における自車両の影領域である。図21(c)は、位置ずれ補正後の前回フレームの鳥瞰図画像を示している。今回フレームの鳥瞰図画像と位置ずれ補正後の前回フレームの鳥瞰図画像との間において、路面上の対応点の座標値が一致するように位置ずれ補正がなされる。尚、図21(c)及び後述の図21(d)における斜線領域は、画像情報のない領域である。
図21(b)に示す今回フレームの鳥瞰図画像と図21(c)に示す位置ずれ補正後の前回フレームの鳥瞰図画像との間の差分画像を生成し、その差分画像の各画素値を二値化することで二値化差分画像が生成される。この二値化差分画像を図21(d)に示す。差分画像において、所定閾値以上の画素値を有する画素が相違画素として特定され且つそれ以外の画素は非相違画素として特定される。相違画素の画素値を1とする一方、非相違画素の画素値を0とした画像が二値化差分画像である。図21(d)において、画素値が1である部分を白く、画素値が0である部分を黒く示している。
路面上の対応点の座標値を一致させるための上記位置ずれ補正によって、通常は、差分画像において路面が現れる画素の画素値はゼロとなる。但し、この位置ずれ補正によって、自車両影部分の位置が対比画像間でずれ、結果、自車両影部分の端部(影のある部分とない部分の境界部)付近の画素が相違画素に分類される。図21(d)における白領域910は、この端部における画素が相違画素に分類されたことによって生じている。
また、画像データに基づく位置ずれ検出及びそれに基づく位置ずれ補正には誤差が含まれ、この誤差に由来して、路面上に描かれた平面標識(駐車枠の白線など)の端部が立体物領域に含まれてしまうという問題も生じる。立体物領域に含まれた平面標識の端部は、差分処理によって生じたノイズ(差分ノイズ)と捉えることができる。
尚、画像中のスミアの位置を利用して、太陽の位置及び自車両の影位置を特定する方法も提案されている(例えば、特許文献2参照)。しかしながら、カメラの取り付け角度によってはスミアが発生しないため、この方法は汎用性が乏しい。特に、車両の後方を監視するリアカメラは斜め下向きに設置されるため、基本的にスミアが発生しない。
特開2006−268076号公報 特開2007−300559号公報
上記のような、立体物の影が現れる領域、自車両の影が現れる領域及び平面標識が現れる領域(差分ノイズ)は、真に検知すべき立体物が位置する領域ではないため、立体物領域から除外して推定されるべきである。
そこで本発明は、立体物領域の推定機能を備え、影領域などの不要領域が推定立体物領域に含まれることを抑制可能な運転支援システムを提供することを目的とする。また、本発明は、そのような運転支援システムを利用した車両を提供することを目的とする。
本発明に係る運転支援システムは、移動体に取り付けられて前記移動体の周辺を撮影するカメラ部を備え、前記カメラ部から得られるカメラ座標面上のカメラ画像に基づいて、立体物の画像データが現れる、前記カメラ画像に基づく画像中の立体物領域を推定する運転支援システムにおいて、前記カメラ部からの互いに異なる第1及び第2のカメラ画像を地面に平行な鳥瞰図座標面上に投影することによって、前記第1及び第2のカメラ画像を第1及び第2の鳥瞰図画像に変換する鳥瞰変換手段と、前記第1及び第2の鳥瞰図画像を対比することによって前記鳥瞰図座標面上における立体物候補領域を設定する候補領域設定手段と、前記立体物候補領域中の、前記立体物領域から除外されるべき不要領域を検出し、その不要領域を前記立体物候補領域から除外して得た残部領域より前記立体物領域を推定する立体物領域推定手段と、を備え、前記立体物領域推定手段は、前記カメラ部の前記鳥瞰図座標面上への投影位置であるカメラ位置と前記立体物候補領域に属する各画素である各候補画素の位置との位置関係に基づいて、前記不要領域を検出することを特徴とする。
第1及び第2の鳥瞰図画像を対比することによって設定された立体物候補領域には、影領域などの不要領域が含まれうる。上記位置関係を利用すれば、着目した候補画素が不要領域に属する画素であるのか否かを判断可能であることに着目し、運転支援システムは上記位置関係に基づいて不要領域を検出して、それを立体物候補領域から除外することにより立体物領域を推定する。これにより、影領域などが推定立体物領域に含まれることが抑制される。
具体的には例えば、前記立体物領域推定手段は、前記カメラ位置と各候補画素の位置とを結ぶ方向と前記鳥瞰図座標面上における前記立体物の分布方向との差に基づいて各候補画素が前記不要領域に属する画素であるか否かを判断し、その判断結果に基づいて前記不要領域を検出する。
カメラ位置から見て、鳥瞰図座標面上における立体物の分布方向とはかけ離れた方向に位置する候補画素は、立体物の画像データが現れる領域に属していない可能性が高い。このため、上記の如く方向差に基づいて不要領域を検出することが可能である。
より具体的には例えば、前記立体物候補領域に属する候補画素は第1〜第Nの候補画素を含み(Nは2以上の整数)、前記鳥瞰図座標面上において、前記カメラ位置と前記第1〜第Nの候補画素の位置とを結ぶ連結線を夫々第1〜第Nの連結線と呼んだ場合、前記第1〜第Nの連結線の方向は互いに異なり、前記立体物領域推定手段は、各連結線に沿った前記立体物候補領域の長さに基づいて前記分布方向を検出する。
更に具体的には例えば、前記立体物領域推定手段は、各連結線に対して前記長さを求め、最大の長さに対応する連結線の方向を検出すべき前記分布方向に含める。
また例えば、前記立体物候補領域に属する候補画素は第1〜第Nの候補画素を含み(Nは2以上の整数)、前記鳥瞰図座標面上において、前記カメラ位置と前記第1〜第Nの候補画素の位置とを結ぶ連結線を夫々第1〜第Nの連結線と呼んだ場合、前記第1〜第Nの連結線の方向は互いに異なり、前記立体物領域推定手段は、各連結線に沿った前記立体物候補領域の長さに基づいて前記不要領域を検出する。
或る連結線に沿った立体物候補領域の長さが短い場合、その連結線上の候補画素は立体物の画像データが現れている画素ではないと推測される。このため、各連結線に沿った前記立体物候補領域の長さを参照すれば前記不要領域を検出することが可能である。
より具体的には例えば、前記立体物領域推定手段は、各連結線に対して前記長さを求めて、その長さが所定の下限長さより短い連結線を特定し、特定した連結線上に位置する候補画素が前記不要領域に属する画素であると判断することによって前記不要領域を検出する。
また例えば、所定の基準高さ以上を有する物体が前記立体物として取り扱われ、前記立体物領域推定手段は、各連結線に沿った前記立体物候補領域の長さと、前記位置関係及び前記基準高さに基づく前記鳥瞰図座標面上における前記立体物の最小長さと、を比較することによって、各候補画素が前記不要領域に属する画素であるか否かを判断し、これによって前記不要領域を検出する。
或る連結線に沿った立体物候補領域の長さが上記最小長さよりも短い場合、その連結線上の候補画素は立体物の画像データが現れている画素ではないと推測される。このため、上記の如く構成することにより適切に不要領域を検出可能である。
より具体的には例えば、前記最小長さは候補画素ごとに設定され、第iの候補画素に対する前記最小長さは、第iの候補画素の位置と前記カメラ位置との位置関係並びに前記基準高さ及び前記カメラ部の設置高さに基づいて設定され(iはN以下の自然数)、前記立体物領域推定手段は、第iの候補画素に対応する第iの連結線に沿った前記立体物候補領域の長さと、第iの候補画素に対して設定された最小長さとを比較し、前者が後者よりも短い場合に、第iの候補画素が前記不要領域に属する画素であると判断する。
また具体的には例えば、前記立体物候補領域が互いに分離した複数の候補領域から形成される場合、前記立体物領域推定手段は、前記立体物候補領域の長さとして前記複数の候補領域の夫々の長さを導出し、導出した各長さと前記最小長さを比較することにより、候補領域ごとに前記候補領域に属する候補画素が前記不要領域に属する画素であるか否かを判断する。
本発明に係る車両には、上記運転支援システムが設置されている。
本発明によれば、影領域などの不要領域が推定立体物領域に含まれることを抑制可能な運転支援システムを提供することができる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第5実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。
図1に、本発明の実施形態に係る運転支援システムの構成ブロック図を示す。図1の運転支援システムは、カメラ部1と、画像処理装置2と、表示装置3と、を備える。カメラ部1は、撮影を行い、撮影によって得られた画像を表す信号を画像処理装置2に出力する。画像処理装置2は、カメラ部1から得た画像より表示用画像を生成する。画像処理装置2は、生成した表示用画像を表す映像信号を表示装置3に出力し、表示装置3は、与えられた映像信号に従って表示用画像を映像として表示する。
カメラ部1は、1以上のカメラから形成される。後述の第4実施例中にカメラ部1が2以上のカメラから形成される場合の動作を説明するが、特に述べない限り、カメラ部1は1つのカメラから形成されるものとする(従って、カメラ部1を単にカメラ1と読み替えることもできる)。
カメラ部1の撮影によって得られた画像をカメラ画像と呼ぶ。カメラ部1の出力信号そのものによって表されるカメラ画像は、レンズ歪みの影響を受けていることが多い。従って、画像処理装置2は、カメラ部1の出力信号そのものによって表されるカメラ画像に対してレンズ歪み補正を施し、レンズ歪み補正後のカメラ画像に基づいて表示用画像の生成を行う。以下に述べるカメラ画像とは、レンズ歪み補正後のカメラ画像を指すものとする。但し、カメラ部1の特性によっては、レンズ歪み補正処理が省略されることもある。
図2は、図1の運転支援システムが適用される車両100の外観側面図である。図2に示すように、車両100の後部に後方斜め下向きにカメラ部1が配置される。車両100は、例えば自動車である。水平面とカメラ部1の光軸とのなす角には、図2にθAで表される角度とθBで表される角度とがある。角度θBは、一般的には、見下ろし角または俯角と呼ばれている。今、角度θAを、水平面に対するカメラ部1の傾き角度として捉える。90°<θA<180°且つθA+θB=180°、が成立する。
カメラ部1は、車両100の周辺を撮影する。特に、車両100の後方側に視野を有するようにカメラ部1は車両100に設置される。カメラ部1の視野には、車両100の後方側に位置する路面が含まれる。尚、以下の説明において、地面は水平面上にあるものとし、「高さ」は、地面を基準とした高さを表すものとする。また、本実施形態において、地面と路面は同義である。
カメラ部1として、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を用いたカメラが用いられる。画像処理装置2は、例えば集積回路から形成される。表示装置3は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置を、運転支援システムにおける表示装置3として流用しても良い。また、画像処理装置2は、カーナビゲーションシステムの一部として組み込まれうる。画像処理装置2及び表示装置3は、例えば、車両100の運転席付近に設置される。
画像処理装置2は、座標変換を用い、カメラ画像を仮想カメラの視点から見た画像に変換することによって鳥瞰図画像を生成する。カメラ画像から鳥瞰図画像を生成するための座標変換を「鳥瞰変換」と呼ぶ。
図3及び図4を参照する。カメラ部1の光軸方向に直交する面をカメラ座標面とする。図3及び図4において、カメラ座標面を面Pbuで表す。カメラ座標面は、カメラ部1の固体撮像素子の撮像面に平行なカメラ画像の投影面であり、カメラ画像はカメラ座標面上に二次元配列された各画素によって形成される。また、カメラ部1の光学中心をOで表すと共に、光学中心Oを通り且つカメラ部1の光軸方向に平行な軸をZ軸とする。Z軸とカメラ座標面との交点をカメラ画像の中心点とし、その中心点で直交する、カメラ座標面上の座標軸をXbu軸及びYbu軸とする。Xbu軸及びYbu軸は、夫々、カメラ画像の水平方向及び垂直方向と平行である(但し、図4では、画像の水平方向が図面の上下方向となっている)。そして、カメラ画像上の或る画素の位置を座標値(xbu,ybu)で表す。xbu及びybuは、夫々、その画素の、カメラ画像上の水平位置及び垂直位置を表している。カメラ画像の垂直方向は車両100からの距離方向に対応しており、カメラ座標面上において、或る画素のYbu軸成分(即ち、ybu)が増大すれば、カメラ座標面上における該画素と車両100及びカメラ部1との距離は増大する。
また、地面に平行な面を鳥瞰図座標面とする。図4において、鳥瞰図座標面を面Pauで表す。鳥瞰図画像は、鳥瞰図座標面上に二次元配列された各画素によって形成される。鳥瞰図座標面上の直交座標軸をXau軸及びYau軸とする。Xau軸及びYau軸は、夫々、鳥瞰図画像の水平方向及び垂直方向と平行である。そして、鳥瞰図画像上の或る画素の位置を座標値(xau,yau)で表す。xau及びyauは、夫々、その画素の、鳥瞰図画像上の水平位置及び垂直位置を表している。鳥瞰図画像の垂直方向は車両100からの距離方向に対応しており、鳥瞰図座標面上において、或る画素のYau軸成分(即ち、yau)が増大すれば、鳥瞰図座標面上における該画素と車両100及びカメラ部1との距離は増大する。
鳥瞰図画像は、カメラ座標面上に定義されるカメラ画像を鳥瞰図座標面上に投影した画像に相当し、この投影を行うための鳥瞰変換を公知の座標変換によって実現できる。例えば、透視投影変換を用いる場合、カメラ画像上の各画素の座標値(xbu,ybu)を下記式(A−1)に従って鳥瞰図画像上の座標値(xau,yau)に変換することにより鳥瞰図画像を生成することができる。ここで、f、h及びHは、夫々、カメラ部1の焦点距離、カメラ部1が配置されている高さ(設置高さ)及び上記の仮想カメラが配置されている高さである。尚、画像処理装置2は、f、h、H及びθA(図2参照)の各値を予め認識しているものとする。
実際には、式(A−1)に従ってカメラ画像上の各画素の座標値(xbu,ybu)と鳥瞰図画像上の各画素の座標値(xau,yau)との対応関係を示すテーブルデータを作成しておき、これを図示されないメモリに予め格納することでルックアップテーブル(以下、「鳥瞰変換用LUT」という)を形成する。そして、この鳥瞰変換用LUTを用いてカメラ画像を鳥瞰図画像に変換するようにする。勿論、カメラ画像が得られる度に式(A−1)に基づく座標変換演算を行って鳥瞰図画像を生成するようにしても構わない。
画像処理装置2は、画像内における立体物領域を推定する機能を備える。立体物領域とは、立体物が描画されている領域を意味する。立体物とは、人物などの高さのある物体である。地面を形成する路面などは、高さがないため立体物ではない。立体物は、車両100の走行にとっての障害物となる。
鳥瞰変換では、鳥瞰図画像が地表面において連続性を有するように座標変換が行われる。従って、同一の立体物を互いに異なる2つの視点で撮影して2つの鳥瞰図画像を得た場合、原理上、両鳥瞰図画像間において、路面の画像は一致するが立体物の画像は一致しない(例えば、特開2006−268076号公報参照)。この特性を利用して立体物領域を推定することができる。但し、太陽などの外部照明による立体物の影が画像上に現れている場合、その特性を利用するのみでは、その影部分と立体物の本体部分とを区別することができず、結果、立体物の位置決定精度が劣化する。このような問題に鑑み、画像処理装置2には、影部分と立体物の本体部分とを区別する機能が設けられる。
以下に、この機能を含む運転支援システムの動作内容又は構成を詳細に説明する実施例として、第1〜第5実施例を説明する。矛盾なき限り、或る実施例に記載した事項を、他の実施例に適用することもできる。
<<第1実施例>>
まず、第1実施例について説明する。第1実施例では、立体物自体が地面上で移動している場合を想定する。まず、この移動体の本体部分と影部分を区別する方法の原理を説明する。
図5は、カメラ部1、太陽などの光源(外部照明)11及び立体物12の、実空間上における位置関係を示している。立体物12は、カメラ部1の撮影領域内に位置している。符号SRが付され且つドットで満たされた領域は、光源11による、立体物12の地面上の影領域を表している。図5に示すような位置関係を有する状態で撮影を行うことによって得たカメラ画像を鳥瞰変換した際、図6に示す如く、鳥瞰図画像上における立体物領域は、カメラ部1と立体物12との連結線15の、地面上への投影線16方向に分布する。仮にカメラ部1を1つの照明と考えれば、鳥瞰図画像上における立体物領域は、その照明によって生成された立体物の影領域と捉えることができる。図6において、符号TRが付された斜線領域は、鳥瞰図画像上の立体物領域に相当する、その影領域を表している。尚、当然ではあるが、立体物領域TRとしての影領域は立体物の色情報を含有している一方で光源11による影領域SRは色情報を含有していない。
図7は、カメラ部1の鳥瞰図座標面上への投影図形21並びに影領域SR及び立体物領域TRを、鳥瞰図座標面上に示した図である。投影図形21のYau軸成分がゼロであると定義し、投影図形21の位置、即ち、カメラ部1の鳥瞰図座標面上への投影位置を表す座標値を(xC,0)とする。座標値(xC,0)は、画像処理装置2に対して予め設定されているものとする。また、その投影位置を「カメラ位置」と呼び、座標値(xC,0)を有する点CPを「カメラ位置点」と呼ぶ。厳密には例えば、カメラ部1の光学中心Oの、鳥瞰図座標面上への投影位置がカメラ位置とされる。また、点GPは、鳥瞰図座標面上における立体物12と地面との接点を表しており、その接点GPの座標値を(xB,yB)で表す。
座標値(xC,0)及び(xB,yB)は、鳥瞰図座標面上(又は鳥瞰図画像上)における座標値であり、以下に述べる座標値は、特記なき限り、鳥瞰図座標面上(又は鳥瞰図画像上)における座標値であるとする。従って例えば、或る点又は画素の座標値が(xA,yA)であるといった場合、それは、その点又は画素の、鳥瞰図座標面上における座標値(xau,yau)が(xA,yA)であることを意味する。
図7において、符合22が付された破線直線は、図6の投影線16に対応する、カメラ位置点CPと接点GPとを連結する連結線(換言すれば、カメラ位置点CP及び接点GPを通る直線)である。鳥瞰図画像上において、立体物領域TRは接点GPを起点としつつ連結線22の方向に分布する一方で、影領域SRは接点GPを起点としつつも連結線22の方向には分布しない。
図1の画像処理装置2は、このような立体物領域TRの分布方向が連結線22の方向に合致する特性を利用して、立体物の本体部分と影部分を分離する。即ち、2枚の鳥瞰図画像を対比することによって立体物領域TRと影領域SRを含む領域を抽出した後、その抽出領域を連結線22に沿った領域とそうでない領域とに分類し、抽出領域から後者の領域を除去することによって立体物領域TRのみを正確に抽出する。
図8を参照して、上述の原理に基づく立体物領域の推定方法を説明する。図8は、立体物領域の推定に特に着目した、運転支援システムの動作フローチャートである。図8に示すステップS11〜S18の各処理は、画像処理装置2にて実行される。図5〜図7を参照して想定した事項を、この動作の説明にも当てはめるものとする。
立体物領域を推定するためには、異なる時刻で撮影された複数のカメラ画像が必要である。そこで、ステップS11において、画像処理装置2は、異なる時刻で撮影された複数のカメラ画像を取り込む。取り込んだ複数のカメラ画像が、時刻t1の撮影によって得られたカメラ画像(以下、第1のカメラ画像と呼ぶ)と、時刻t2の撮影によって得られたカメラ画像(以下、第2のカメラ画像と呼ぶ)と、を含むものとする。時刻t1の後に時刻t2が訪れるものとする。厳密には例えば、時刻t1は第1のカメラ画像の露光期間中における中間時刻を表し、時刻t2は第2のカメラ画像の露光期間中における中間時刻を表す。
また、時刻t1−t2間において、立体物12がカメラ部1の撮影領域内で移動しているものとする。更に、時刻t1−t2間において、車両100が移動しているものとする。従って、時刻t1におけるカメラ部1の視点と時刻t2におけるカメラ部1の視点は異なる。但し、時刻t1−t2間において、車両100が静止していても構わない。
ステップS11に続くステップS12では、ステップS11にて取り込んだ各カメラ画像を、上記式(A−1)に基づく鳥瞰変換用LUTに従って鳥瞰図画像に変換する。第1及び第2のカメラ画像に基づく鳥瞰図画像をそれぞれ第1及び第2の鳥瞰図画像と呼ぶ。
時刻t1−t2間において車両100が移動している場合、第1の鳥瞰図画像と第2の鳥瞰図画像との間に、その移動に応じた位置ずれが生じる。ステップS12に続くステップS13では、第1及び第2の鳥瞰図画像の画像データに基づいて該位置ずれを検出すると共に第1及び第2の鳥瞰図画像間におけるその位置ずれを補正する。路面上の同一点が第1及び第2の鳥瞰図画像上に現れるが、この位置ずれ補正後、第1の鳥瞰図画像上におけるその点と、第2の鳥瞰図画像上におけるその点は重なり合う。そして、位置ずれ補正後の両鳥瞰図画像を対比することによって立体物領域TR及び影領域SRを含む領域を推定し、その推定領域を立体物候補領域として設定する。立体物候補領域は、立体物領域TRと影領域SRの合成領域に相当する。また、立体物候補領域に属する画素を、候補画素と呼ぶ。立体物領域TR及び影領域SRと同じく、立体物候補領域は鳥瞰図座標面上に定義される領域である。
この立体物候補領域の推定方法、即ち影領域をも含んだ立体物領域の推定方法として、公知の方法を含む任意の推定方法を用いることができる。
例えば、特開2006−268076号公報に記載の方法を用いることができる。この場合、周知の特徴点抽出器(Harrisのコーナ検出器など;不図示)を用いて第1の鳥瞰図画像から路面上の2つの特徴点を抽出し、第1の鳥瞰図画像と第2の鳥瞰図画像との間で画像マッチングを行うことにより、その2つの特徴点に対応する、第2の鳥瞰図画像上における2つの点を抽出する。その後、第1の鳥瞰図画像から抽出した2つの特徴点の座標値とそれに対応して第2の鳥瞰図画像から抽出された2つの点の座標値が一致するように、第1又は第2の鳥瞰図画像に幾何学的変換(アフィン変換など)を施す。これによって位置ずれ補正がなされる。そして、その幾何学的変換後の両鳥瞰図画像間の差分画像を生成し、その差分画像の各画素値を二値化することによって立体物候補領域を推定する。即ち、差分画像を形成する全画素の内、所定の閾値以上の画素値を有する画素を特定し、その特定した画素の集まりにて形成される領域を立体物候補領域として推定する。尚、画素値とは、例えば輝度値である。
2組の対応点を用いて立体物候補領域を推定する方法を例示したが、特開2006−268076号公報でも述べられているように、3組以上の対応点を用いて立体物候補領域を推定してもよい。また、特開2003−44996号公報などに記載された方法に従って、立体物候補領域を推定するようにしてもよい。
或いは、第1及び第2の鳥瞰図画像間の位置ずれは、時刻t1と時刻t2との間の車両100の移動量及び移動方向に従って生じるものであるため、その移動量及び移動方向を示す、車両100に搭載されたセンサの出力信号に基づいて、第1及び第2の鳥瞰図画像間の位置ずれを検出するようにしてもよい。そのセンサには、特開2001−187553号公報で示されたような車輪速センサ及び舵角センサが含まれる。センサを用いて検出された位置ずれに基づく位置ずれ補正は、上述と同様、第1又は第2の鳥瞰図画像に幾何学的変換を施すことによって実現され、位置ずれ補正後の第1及び第2の鳥瞰図画像において、路面上の対応点同士は重なり合う。位置ずれ補正後の動作は上述したものと同様である。
ステップS13に続くステップS14及びS15では、図7の連結線22に対応する、カメラ位置点CPと接点GPとを結ぶ直線を立体物分布中心線として検出する。立体物分布中心線は、鳥瞰図座標面上における立体物12の分布方向に沿った直線であるため、立体物分布中心線の検出は該分布方向を求めることに等しい。
図9(a)及び(b)を参照して、立体物分布中心線の検出方法を説明する。まず、図9(a)に示す如く、鳥瞰図座標面上に引かれた、カメラ位置点CPを通るQ本の直線L[θ1]、L[θ2]、・・・、L[θQ-1]及びL[θQ]を想定する(Qは2以上の整数)。Xau軸と直線L[θ1]〜L[θQ]との成す角度θ1〜θQは互いに異なる。角度θ1〜θQは、それぞれXau軸から見た直線L[θ1]〜L[θQ]の角度であるとし、0°<θ1<θ2<・・・<θQ-1<θQ<180°、が成立するものとする。例えば、隣接する直線間の角度差を1度に設定する。この場合、θ1=1°、θ2=2°、・・・、θQ-1=178°且つθQ=179°となり、Q=179である。
そして、ステップS14において、各直線L[θ1]〜L[θQ]に沿った立体物候補領域の長さを、直線ごとに求める。図9(b)に、直線L[θ1]〜L[θQ]に含まれる3つの直線を、直線31〜33によって表す。直線31及び32は立体物候補領域と交わる。直線31に沿った立体物候補領域の長さL31は、直線31と立体物候補領域が交わる部分の長さであり、その長さL31は、直線31上に位置する、立体物候補領域内の画素数に比例する。直線32に沿った立体物候補領域の長さL32は、直線32と立体物候補領域が交わる部分の長さであり、その長さL32は、直線32上に位置する、立体物候補領域内の画素数に比例する。他方、直線33は立体物候補領域と交わっていないため、直線33に沿った立体物候補領域の長さL33はゼロである。
このようにして、各直線L[θ1]〜L[θQ]に沿った立体物候補領域の長さを求めた後、ステップS15において、求めたQ個の長さに基づき立体物分布中心線を検出する。今、直線L[θ1]〜L[θQ]の直線番号を表す変数jを導入し、直線L[θj]に対して求めた長さをLL[j]によって表す(jは1以上Q以下の整数)。ステップS15では、まず、ステップS14にて求めたQ個の長さLL[1]〜LL[Q]の夫々と予め設定された基準長さLREFとを比較することにより、直線L[θ1]〜L[θQ]の内、基準長さLREF以上の長さを有する直線を特定する(ここにおける長さとは、勿論、立体物候補領域の長さである)。尚、LREF>0、である。
図10に、カメラ部1の撮影領域内に立体物が1つだけ存在している場合に得られる、長さLL[j]と直線番号jとの関係例を示す。図10は、長さLL[j]と角度θjとの関係例を示す図でもある。図10では、直線L[θ1]〜L[θQ]の内、直線L[θjA]〜L[θjB]のみが、基準長さLREF以上の長さを有していることが示されている。ここで、1<jA<jB<Q、である。この場合、直線番号j(又は角度θj)の関数である長さLL[j]は、jA≦j≦jBの範囲内において極大長さ(極大値)をとる。ステップS15では、この極大長さを有する直線を立体物分布中心線として検出する。即ち、直線L[θjA]〜L[θjB]を立体物分布中心線の候補として取り扱い、直線L[θjA]〜L[θjB]の内、最大の長さを有する直線を立体物分布中心線として選択する。例えば、上記の極大長さが図9(b)に示す長さL32であるならば、直線32が立体物分布中心線として検出されることとなる。
尚、立体物の個数が1である場合、上記の極大長さは、長さLL[1]〜LL[Q]の内の、最大長さ(最大値)に等しい。故に、検出すべき立体物の個数が1つであることが分かっている場合には、単純に、長さLL[1]〜LL[Q]の内の最大長さを求め、求めた最大長さに対応する直線を立体物分布中心線として検出することも可能である。
尚、上述の処理例では、立体物候補領域を通らない直線(直線33など)をも想定し、その直線に対しても立体物候補領域の長さを導出しているが、その想定及び導出を割愛することが可能である。従って、上述したように立体物候補領域に属する画素を候補画素と呼んだ場合、ステップS14及びS15では、以下のような処理がなされると言える。カメラ位置点CPと候補画素とを結ぶ連結線(換言すれば、カメラ位置と候補画素の位置とを結ぶ連結線)を互いに異なる複数の候補画素に対して個別に設定し、各連結線に沿った立体物候補領域の長さを求め、極大長さに対応する連結線を立体物分布中心線として検出する。但し、各連結線の方向、即ち各連結線とXau軸との成す角度は、異なる連結線間で異なるものとする。
上述の如くして立体物分布中心線が求められた後、ステップS16の処理が実行される。ステップ16では、立体物候補領域に属する全候補画素の中から、接点GPに位置する候補画素を検出し、その候補画素の座標値を検出する。即ち、接点GPの座標値(xB,yB)を検出する。具体的には、立体物分布中心線上に位置する候補画素の内、最もカメラ位置点CPに近い候補画素の座標値を(xB,yB)とする。
ところで、鳥瞰図座標面上における立体物分布中心線の方程式は、カメラ位置点CPの座標値(xC,0)及び接点GPの座標値(xB,yB)を用いると、下記式(B−1)にて表され、この式(B−1)を変形すると式(B−2)が得られる。従って、立体物分布中心線の特性は、yB、(xC−xB)及び(−xCB)を成分とする特性ベクトル(yB,(xC−xB),(−xCB))で表すことができる。
他方、立体物候補領域に属する任意の候補画素に着目し、その着目した候補画素の座標値を(xA,yA)とすると、その着目した候補画素とカメラ位置点CPとを結ぶ連結線の特性は、yA、(xC−xA)及び(−xCA)を成分とする特性ベクトル(yA,(xC−xA),(−xCA))で表すことができる。特性ベクトル(yA,(xC−xA),(−xCA))は、カメラ位置と着目した候補画素の位置との位置関係を表している。そして、特性ベクトル(yA,(xC−xA),(−xCA))に対応する連結線と、立体物分布中心線(即ち、図7の連結線22)との相違度DIFは、式(B−3)の如く、上記2つの特性ベクトルの内積の絶対値で表すことができる。
相違度DIFは、着目した候補画素とカメラ位置点CPとを結ぶ連結線の方向と、立体物分布中心線の方向との差に応じた値をとる。画像処理装置2は、相違度DIFの算出を介して、その方向差が比較的大きな連結線上の候補画素が影領域に属する画素であると判断する。
具体的には、ステップS16に続くステップS17において、式(B−3)に従い、立体物候補領域に属する候補画素ごとに相違度DIFを算出する。その後、ステップS18において、候補画素ごとに相違度DIFと所定の閾値THDIFを比較することにより、各候補画素を必要画素と不要画素のどちらかに分類する。必要画素は、立体物の本体部分の画像データが現れていると推測される画素である。不要画素は、立体物の本体部分以外の画像データ(例えば、立体物の影部分の画像データやノイズ)が現れていると推測される画素である。相違度DIFが閾値THDIF以下となる候補画素が必要画素に分類され、相違度DIFが閾値THDIFよりも大きくなる候補画素が不要画素に分類される。そして、画像処理装置2は、不要画素に分類された候補画素を立体物候補領域から除外する。これにより、立体物候補領域から影領域が完全に或いは概ね除去される。
画像処理装置2は、不要画素の除外処理によって残った領域から最終的に検出すべき立体物領域の位置及び大きさを特定する。即ち、必要画素群から成る領域そのもの、または、その領域を囲む矩形領域を立体物領域として検出して、その検出した立体物領域の位置及び大きさを特定する。尚、この際、微小数の画素群から形成される領域は局所ノイズに由来するなどと判断して、立体物領域から除外するとよい。
特定された立体物領域の位置及び大きさは、第1又は第2の鳥瞰図画像上における立体物領域の位置及び大きさとして取り扱われる。立体物領域以外の領域は、高さのない路面等が描画された地面領域であると推定する。そして例えば、図11に示す如く、検出された立体物領域を他の領域と区別して視認可能とするための指標を第1又は第2の鳥瞰図画像に重畳した表示用画像を生成し、それを表示装置3に表示する。図11において、画像201は第1又は第2の鳥瞰図画像であり、重畳表示された破線四角枠202が上記指標に相当する。
尚、第1又は第2の鳥瞰図画像上における立体物領域の位置及び大きさに基づいて、第1又は第2のカメラ画像上における立体物領域の位置及び大きさを推定するようにしてもよい。カメラ画像から鳥瞰図画像を得るための幾何学的変換(上記の鳥瞰変換)の逆変換を、第1又は第2の鳥瞰図画像上における立体物領域に施せば、第1又は第2のカメラ画像上における立体物領域の位置及び大きさが求まる。
ステップS11〜S18から成る一連の処理は、繰り返し実行される。つまり、画像処理装置2は、カメラ部1から所定の周期にてカメラ画像を取り込み、順次得られるカメラ画像から表示用画像を順次生成して、最新の表示用画像を表示装置3に対して出力する。これにより、表示装置3には、最新の表示用画像が更新表示される。
上記の如く処理することにより、影領域を含まない正確な立体物領域を検出することができる。また、影領域を分離することに注目して運転支援システムの処理内容を説明したが、上記の処理によって、路面上の平面標識(駐車枠の白線など)に由来する差分ノイズも同時に除去される。
位置ずれ補正後の第1及び第2の鳥瞰図画像間で路面上の平面標識の座標値は理想的には完全に一致し、両鳥瞰図画像から生成される差分画像において、平面標識に相当する部分の画素の画素値は理想的には全てゼロとなる。しかしながら、実際には、位置ずれ検出及び位置ずれ補正には誤差が含まれるため、差分画像上の平面標識の端部には所定値以上の画素値が生じることがあり、結果、その平面標識の端部領域が立体物候補領域に含まれてくることがある。この平面標識の端部領域が差分ノイズに対応する。上記の処理を用いれば、立体物分布中心線の方向とは無縁の、このような差分ノイズが除去される。
尚、図10を参照して、カメラ部1の撮影領域内に立体物が1つだけ存在している場合におけるステップ15の動作を上述したが、カメラ部1の撮影領域内に複数の立体物が分離して存在している場合も、複数の立体物の夫々に対して個別にステップS15〜S18の処理を適用することにより、各立体物に対する立体物領域を推定可能である。例として、立体物が2つ存在している場合における動作を説明する。図12を参照する。図12は、カメラ部1の撮影領域内に立体物が2つ存在している場合に得られる、長さLL[j]と直線番号jとの関係例を示す図である。2つの立体物が第1及び第2の立体物から成るものとする。
図12では、直線L[θ1]〜L[θQ]の内、直線L[θjC]〜L[θjD]及び直線L[θjE]〜L[θjF]のみが、基準長さLREF以上の長さを有していることが示されている(ここにおける長さとは、勿論、立体物候補領域の長さである)。ここで、1<jC<jD<jE<jF<Q、である。jC≦j≦jDの範囲内における直線L[θj]は第1の立体物に対応し、jE≦j≦jFの範囲内における直線L[θj]は第2の立体物に対応する。この場合、直線番号j(又は角度θj)の関数である長さLL[j]は、jC≦j≦jDの範囲内において極大長さ(以下、第1の極大長さという)をとる一方で、jE≦j≦jFの範囲内において極大長さ(以下、第2の極大長さという)をとる。当然ではあるが、第1又は第2の極大長さ(極大値)は、長さLL[1]〜LL[Q]の内の、最大長さ(最大値)に等しい。
ステップS15では、各極大長さに対応する直線の夫々を立体物分布中心線として検出する。今の例の場合、第1の極大長さを有する直線を第1の立体物分布中心線として検出すると共に、第2の極大長さを有する直線を第2の立体物分布中心線として検出する。即ち、直線L[θjC]〜L[θjD]を第1の立体物分布中心線の候補として取り扱い、直線L[θjC]〜L[θjD]の内、最大の長さを有する直線を第1の立体物分布中心線として選択する。同様に、直線L[θjE]〜L[θjF]を第2の立体物分布中心線の候補として取り扱い、直線L[θjE]〜L[θjF]の内、最大の長さを有する直線を第2の立体物分布中心線として選択する。
第1及び第2の立体物分布中心線が検出された後、各立体物分布中心線に対して個別にステップS16〜S18の処理が行われる。即ち、第1の立体物分布中心線に着目してステップS16〜S18の処理を行うことにより、第1の立体物分布中心線に対する立体物領域の位置及び大きさを特定する一方で、第2の立体物分布中心線に着目してステップS16〜S18の処理を行うことにより、第2の立体物分布中心線に対する立体物領域の位置及び大きさを特定する。そして、両方の立体物領域を、最終的に推定されるべき立体物領域として取り扱う。このように、上述の方法を用いれば、複数の立体物に対しても良好な立体物領域推定を行うことができる。
<<第2実施例>>
次に、第2実施例を説明する。第1実施例では立体物分布中心線の検出を介して立体物領域を推定しているが、第2実施例では立体物分布中心線を検出することなく立体物領域を推定する。第2実施例のように処理しても、概ね、第1実施例と同様の作用及び効果が得られる。図13は、第2実施例に係る運転支援システムの動作フローチャートである。ステップS11〜S14並びにステップS21及びS22の各処理は、画像処理装置2によって実行される。第2実施例は、第1実施例の一部を変形した実施例に相当し、特に述べない事項に関しては、第1実施例の記述が適用される。
まず、ステップS11〜S13の処理によって立体物候補領域を設定し、ステップS14の処理によって直線L[θ1]〜L[θQ]に沿った立体物候補領域の長さを求める(図9(a)参照)。これらの処理は、第1実施例におけるそれらと同じである。
その後、ステップS21において、画像処理装置2は、求めた各長さを予め設定された下限長さと比較する。そして、下限長さ以上の長さに対応する直線を必要画素直線に分類する一方で下限長さ未満の長さに対応する直線を不要画素直線に分類する。例えば、直線L[θ1]に沿った立体物候補領域の長さが下限長さ以上であれば直線L[θ1]は必要画素直線に分類され、直線L[θ1]に沿った立体物候補領域の長さが下限長さ未満であれば直線L[θ1]は不要画素直線に分類される。直線L[θ2]〜L[θQ]に対しても同様である。
続くステップS22において、画像処理装置2は、必要画素直線上に位置する候補画素を必要画素に分類する一方で不要画素直線上に位置する候補画素を不要画素に分類し、不要画素に分類された候補画素を立体物候補領域から除外することによって立体物領域を推定する。各候補画素を必要画素又は不要画素に分類した後の動作は第1実施例で述べたものと同様である。ステップS11〜S14並びにS21及びS22から成る一連の処理は、繰り返し実行され、第1実施例で述べたように最新の表示用画像が表示装置3に対して出力される。
尚、上述の処理例では、立体物候補領域を通る直線だけでなく立体物候補領域を通らない直線に対しても長さが導出されることになるが、立体物候補領域を通らない直線に対する長さの導出を割愛することが可能である。即ち、立体物候補領域と交わる直線に対してのみ上記長さを求めれば、ステップS22で推定すべき立体物領域を決定可能である。従って、ステップS21及びS22では、以下のような処理がなされると言える。カメラ位置点CPと候補画素とを結ぶ連結線を互いに異なる複数の候補画素に対して個別に設定し、各連結線に沿った立体物候補領域の長さを求める。そして、その長さが下限長さよりも短い連結線を特定し、その特定した連結線上に位置する候補画素を不要画素として立体物候補領域から除外する。但し、各連結線の方向、即ち各連結線とXau軸との成す角度は、異なる連結線間で異なるものとする。
<<第3実施例>>
次に、第3実施例を説明する。第3実施例に係る方法によって、車両100自身の影領域に対応することができる。また、差分ノイズなどにも対応することができる。
第3実施例では、運転支援システムが検知する必要のある立体物の最低の高さをOHとおく。以下、OHによって表される高さを基準高さと呼ぶ。第3実施例に係る運転支援システムは、基準高さOH以上の高さを有する物体のみを、検知すべき立体物として取り扱う。例えば、「道路運送車両の保安基準」などに規則に従って、検知すべき立体物(車両にとっての障害物)が直径0.3[m]且つ高さ1[m]の円柱以上の大きさを有する立体物であると定義された場合は、最低高さOHを1[m]に設定し、この基準高さOHの値を、予め画像処理装置2に与えておく。図14に、カメラ部1と基準高さOHを有する立体物との関係を示す。上述したように、hはカメラ部1が配置されている高さ(設置高さ)であり、カメラ位置点CPの座標値は(xC,0)である。
また、鳥瞰図座標面上の任意の画素の座標値を(xD,yD)にて表す。そうすると、仮に、座標値(xD,yD)の画素が基準高さOH以上を有する立体物と地面との接点に位置しているとするならば、鳥瞰図座標上において、その画素とカメラ位置点CPを結ぶ連結線に沿った立体物の長さは、下記式(C−1)に従う長さLMIN以上となる。
MINによって表される長さは、基準高さOH以上を有する立体物が鳥瞰図座標面上で描く画像領域の最小の長さを表しているため、LMINによって表される長さを最小長さと呼ぶ。また、最小長さLMINはxD及びyDの関数であるため、それをLMIN(xD,yD)と表記する。式(C−1)より最小長さLMIN(xD,yD)は下記式(C−2)によって表される。
画像処理装置2は、h、OH及びxCの各値に基づき、鳥瞰図座標面上の全画素に対する最小長さLMIN(xD,yD)を計算し、その計算結果を表すデータを格納した最小長さテーブルを自身の内部メモリ(不図示)に保存しておく。最小長さテーブルのサイズは、鳥瞰図画像の画像サイズと一致することになる。第3実施例では、この最小長さテーブルを利用して立体物領域を推定する。
図15を参照して、第3実施例に係る運転支援システムの動作を説明する。図15は、第3実施例に係る運転支援システムの動作フローチャートである。ステップS11〜S13並びにステップS31〜S35の各処理は、画像処理装置2によって実行される。特に述べない事項に関しては、矛盾なき限り、第1実施例の記述が適用される。
まず、ステップS11〜S13の処理によって立体物候補領域を設定する。これらの処理は、第1実施例におけるそれらと同じである。今、車両100の影の端部領域、即ち、車両100の影が存在する部分と存在しない部分の境界部分の領域が、立体物候補領域に含まれた場合を想定する。図16に、鳥瞰図座標面上における該端部領域とカメラ位置点CPとの位置関係を示す。図16では、立体物候補領域に含まれた該端部領域をドットで満たされた領域210で表している。領域210は、図21(d)における領域910に対応するものである。尚、図16及び後述の図17では、図7等と異なり、図面の上下方向がYau軸方向に対応している。
ステップS13にて立体物候補領域が設定された後、ステップS31〜S35の処理が順次実行される。ステップS31において、画像処理装置2は、立体物候補領域に属する各候補画素に着目し、着目した候補画素とカメラ位置点CPとを結ぶ連結線を作成する。例として、図16に、個別に着目された候補画素221及び222を示す。また、候補画素221及び222の座標値を夫々(x1,y1)及び(x2,y2)とする。符号231及び232が付された破線直線は、夫々、候補画素221とカメラ位置点CPとを結ぶ連結線及び候補画素222とカメラ位置点CPとを結ぶ連結線である。
続くステップS32では、ステップS31にて作成された連結線ごとに、連結線に沿った、立体物候補領域の一部としての領域210の長さを算出する。連結線231に対しては長さL231が算出され、連結線232に対しては長さL232が算出される。連結線231に沿った領域210の長さL231は直線231と領域210が交わる部分の長さであり、その長さL231は、連結線231上に位置する、領域210内の画素数に比例する。連結線232に沿った領域210の長さL232は直線232と領域210が交わる部分の長さであり、その長さL232は、連結線232上に位置する、領域210内の画素数に比例する。
一方、ステップS33において、画像処理装置2は、最小長さテーブルに格納された最小長さを読み込む。読み込まれる最小長さには、連結線231に対する最小長さ(換言すれば候補画素221に対する最小長さ)と、連結線232に対する最小長さ(換言すれば候補画素222に対する最小長さ)が含まれる。連結線231に対する最小長さは、xD=x1且つyD=y1における最小長さ、即ちLMIN(x1,y1)であり、連結線232に対する最小長さは、xD=x2且つyD=y2における最小長さ、即ちLMIN(x2,y2)である。他の候補画素に対しても同様である。
続くステップS34において、連結線ごとに、ステップS32で算出された長さとステップS33で読み込んだ最小長さを比較する。そして、最小長さ以上の長さに対応する連結線を必要画素直線に分類する一方で最小長さ未満の長さに対応する直線を不要画素直線に分類する。例えば、L231≧LMIN(x1,y1)であれば連結線231は必要画素直線に分類され、L231<LMIN(x1,y1)であれば連結線231は不要画素直線に分類される。L232≧LMIN(x2,y2)であれば連結線232は必要画素直線に分類され、L232<LMIN(x2,y2)であれば連結線232は不要画素直線に分類される。他の連結線に対しても同様である。
その後、ステップS35において、画像処理装置2は、領域210内の候補画素であって且つ必要画素直線上に位置する候補画素を必要画素に分類する一方で領域210内の候補画素であって且つ不要画素直線上に位置する候補画素を不要画素に分類し、不要画素に分類された候補画素を立体物候補領域から除外することによって立体物領域を推定する。必要画素は、基準高さOH以上の立体物の本体部分における画像データが現れていると推測される画素である。不要画素は、基準高さOH未満の立体物の本体部分の画像データ、車両100の影部分の画像データ、差分ノイズなどが現れていると推測される画素である。各候補画素を必要画素又は不要画素に分類した後の動作は第1実施例で述べたものと同様である。ステップS11〜S13及びS31〜S35から成る一連の処理は、繰り返し実行され、第1実施例で述べたように最新の表示用画像が表示装置3に対して出力される。
説明の便宜上、車両100の影部分周辺に着目して運転支援システムの動作を説明したが、カメラ部1の視野内に検知すべき立体物が存在する場合、ステップS13にて設定される立体物候補領域には、領域210に加えて立体物の画像データが現れる領域250が含まれる。この場合における立体物候補領域を、図17に示す。領域210と領域250は鳥瞰図座標面上で互いに重なることなく分離して存在している。尚、図16の領域210と図17の領域210は同じものであるが、図示の便宜上、両者間で図示サイズが異なっている。
画像処理装置2は、立体物候補領域に互いに分離した領域210及び250が含まれている場合、領域210に対して行った処理と同等の処理を領域250に対しても行う。つまり、立体物候補領域の一部である領域250に属する各候補画素に着目して着目した候補画素とカメラ位置点CPとを結ぶ連結線を作成し、作成された連結線ごとに、連結線に沿った領域250の長さを算出する一方で最小長さテーブルに格納された最小長さを読み込んで前者と後者を比較する。そして、最小長さ以上の長さに対応する連結線を必要画素直線に分類する一方で最小長さ未満の長さに対応する直線を不要画素直線に分類する。
例えば、領域250内の、座標値が(x3,y3)の候補画素251に着目した場合、候補画素251とカメラ位置点CPとを結ぶ連結線261を作成し、連結線261に沿った領域250の長さL261を算出する一方でLMIN(x3,y3)を読み込む。そして、L261≧LMIN(x3,y3)であれば連結線261は必要画素直線に分類され、L261<LMIN(x3,y3)であれば連結線261は不要画素直線に分類される。
各連結線を必要画素直線と不要画素直線との間で分類した後、領域250内の候補画素であって且つ必要画素直線上に位置する候補画素を必要画素に分類する一方で領域250内の候補画素であって且つ不要画素直線上に位置する候補画素を不要画素に分類し、不要画素に分類された候補画素を立体物候補領域から除外することによって立体物領域を推定する。
車両100の影領域に特に注目して説明を行ったが、第3実施例に係る手法は、壁などの静止した立体物の影領域にも対応できるし、差分ノイズにも対応できる。つまり、第3実施例によれば、車両100の影領域だけでなく、静止した立体物の影領域及び差分ノイズもが除去された正確な立体物領域を推定することができる。
尚、上述の処理例では、鳥瞰図画像の画像サイズと同じサイズを有する最小長さテーブルを事前に作成し、この最小長さテーブルを利用して立体物領域の推定を行っているが、この推定に際して候補画素以外の画素に対する最小長さは参照されない。故に、最小長さテーブルを事前に作成するのではなく、立体物候補領域が設定されるたびに、式(C−2)に従って候補画素に対する最小長さを逐次算出するようにしてもよい。
<<第4実施例>>
カメラ部1が1つのカメラから形成される場合を想定して運転支援システムの動作を説明したが、カメラ部1が複数のカメラから形成されている場合にも、第1〜第3実施例で述べた手法を適用可能である。例えば、カメラ部1が2台のカメラから形成される場合における運転支援システムの動作を第4実施例として説明する。この2台のカメラは、図18に示す如く、カメラ1A及び1Bから成るものとする。カメラ1A及び1Bによって、例えばステレオカメラが形成される。
カメラ1A及び1Bは、共に、車両100の後方側に視野を有するように車両100の後部に設置され、カメラ1A及び1Bの視野には車両100の後方側に位置する路面が含まれる。カメラ1A及び1Bの傾き角度は共に角度θAである(図2参照)。但し、カメラ1Aの視点とカメラ1Bの視点は若干相違しており、この相違に由来して、同時刻の撮影によってカメラ1A及び1Bから得られる2枚のカメラ画像は若干異なる。視点が異なる以外、カメラ1Aとカメラ1Bは同じである。
カメラ1A及び1Bから成るカメラ部1を用いる場合、カメラ1A及び1Bに同時に撮影を行わせ、この撮影によって得られたカメラ1A及び1Bからのカメラ画像を、夫々、第1及び第2のカメラ画像として取り扱う。画像処理装置2は、カメラ1A及び1Bからの第1及び第2のカメラ画像を鳥瞰変換する。そして、カメラ1Aからの第1のカメラ画像を鳥瞰変換して得た鳥瞰図画像及びカメラ1Bからの第2のカメラ画像を鳥瞰変換して得た鳥瞰図画像を第2の鳥瞰図画像として取り扱う。
ここにおける第1及び第2の鳥瞰図画像は同時刻の撮影によって得られた画像であるが、カメラ1A及び1Bの視点の違いにより、原理上、両鳥瞰図画像間において路面の画像は一致するが立体物の画像は一致しない。この特性を利用して、まず、立体物候補領域を検出する。
具体的には、第1及び第2の鳥瞰図画像間の位置ずれを補正する。路面上の同一点が第1及び第2の鳥瞰図画像上に現れるが、この位置ずれ補正後、第1の鳥瞰図画像上におけるその点と、第2の鳥瞰図画像上におけるその点は重なり合う。位置ずれ補正は、第1又は第2の鳥瞰図画像に対して幾何学的変換を施すことによって実現されるが、どのような幾何学的変換を施すかはカメラ1A及び1Bの配置関係などに基づき予め定められているものとする。尚、カメラ画像の段階で、位置ずれ補正がなされても構わない。
位置ずれ補正がなされた後の動作は、第1〜第3実施例の何れかにて述べたものと同じである。つまり、位置ずれ補正後の両鳥瞰図画像間の差分画像に基づいて鳥瞰図座標面上の立体物候補領域を設定し、立体物候補領域から不要画素を除去することによって立体物領域を推定する。尚、この際、カメラ1A(厳密には例えばカメラ1Aの光学中心)の鳥瞰図座標面上への投影位置、カメラ1B(厳密には例えばカメラ1Bの光学中心)の鳥瞰図座標面上への投影位置、又は、両投影位置の中間位置をカメラ位置と定め、そのカメラ位置の座標値を(xC,0)とすればよい。
<<第5実施例>>
次に、第5実施例を説明する。第5実施例では、上述の各実施例に対応する運転支援システムの機能ブロック図を例示する。図19は、第5実施例に係る運転支援システムの機能ブロック図である。第5実施例に係る運転支援システムは、符号61〜65にて参照される各部位を含み、符号61〜65にて参照される部位は図1の画像処理装置2内に設けられる。
画像取得部61は、カメラ部1の出力信号に基づいて順次各カメラ画像を取得する。各カメラ画像の画像データは、画像取得部61から鳥瞰変換部62に与えられる。鳥瞰変換部62は、画像取得部61から与えられた第1及び第2のカメラ画像に対して鳥瞰変換を施すことにより第1及び第2の鳥瞰図画像を生成する。
第1及び第2の鳥瞰図画像の画像データは候補領域設定部63及び表示用画像生成部65に送られる。候補領域設定部63は、第1及び第2の鳥瞰図画像に対して、例えばステップS13(図8等参照)の処理を行うことにより、立体物候補領域を設定する。立体物領域推定部64は、設定された立体物候補領域の位置及び大きさを表す情報を候補領域設定部63から受け取り、第1〜第4実施例の何れかにて述べた方法を用いて、立体物候補領域から不要画素群からなる不要領域を除去することにより立体物領域を推定する。表示用画像生成部65は、推定された立体物領域の位置及び大きさを表す情報を立体物領域推定部64から受け取り、その情報に基づいて立体物領域が視認可能となるように第1又は第2の鳥瞰図画像を加工することにより表示用画像を生成する。尚、立体物領域が視認可能となるように第1又は第2のカメラ画像を加工した画像を表示用画像として生成するようにしても構わない。
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
透視投影変換によってカメラ画像から鳥瞰図画像を得る手法を説明したが、平面射影変換によってカメラ画像から鳥瞰図画像を得るようにしても構わない。この場合、カメラ画像上の各画素の座標値を鳥瞰図画像上の各画素の座標値に変換するためのホモグラフィ行列(平面射影行列)を、実稼動に先立って実施されるカメラキャリブレーションにて求める。ホモグラフィ行列の求め方は公知である。そして、そのホモグラフィ行列に基づいてカメラ画像を鳥瞰図画像に変換すればよい。
[注釈2]
また、車両100の後方側に視野を有するようにカメラ部1を車両100の後部に設置する例を上述したが、車両100の前方側に視野を有するように或いは車両100の側方側に視野を有するように、カメラ部1を車両100の前部又は側方部に設置するようにしてもよく、そのように設置しても、立体物領域の推定処理を含む上述と同様の処理を行うことが可能である。
[注釈3]
上述の実施形態では、1つのカメラ部から得られたカメラ画像に基づく表示用画像を表示装置3に表示するようにしているが、車両100にカメラ部1と同等のカメラ部を複数個設置し、複数のカメラ部から得られた複数のカメラ画像に基づいて表示用画像を生成するようにしてもよい。例えば、車両100の前方、後方、左側方及び右側方を撮影する合計4つのカメラ部を車両100に設置し、各カメラ部から得られるカメラ画像に対して上述と同様の処理を行ってカメラ部ごとに立体物領域を推定する一方で、4つのカメラ部からのカメラ画像に基づく4つの画像(例えば、4つの鳥瞰図画像)を合成する。この合成によって得られた合成画像は、例えば、特開2006−287892号公報にも記載されているような全周鳥瞰図画像であり、全周鳥瞰図画像の全体にわたって影やノイズが除去された立体物領域が推定されることになる。そして、この合成画像に立体物領域の推定結果を反映して表示装置3に対する表示用画像を生成すればよい。
[注釈4]
上述の実施形態では、車両の例として自動車を例示しているが、自動車に分類されない車両に対しても本発明は適用可能であり、更に車両に分類されない移動体に対しても本発明は適用可能である。車両に分類されない移動体は、例えば、車輪を備えておらず、車輪以外の機構を用いて移動する。例えば、遠隔操作によって工場内を移動する、移動体としてのロボット(不図示)に対して、本発明を適用することも可能である。
[注釈5]
図1の画像処理装置2及び図19の各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。図1の画像処理装置2及び図19の各部位にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
本発明の実施形態に係る運転支援システムの構成ブロック図である。 図1の運転支援システムが適用される車両の外観側面図である。 カメラの光学中心とカメラ画像が定義されるカメラ座標面との関係を示す図である。 カメラ座標面と鳥瞰図座標面との関係を示す図である。 図1のカメラ部と太陽などの光源及び立体物との、実空間上における位置関係を示す図である。 鳥瞰図座標面上における立体物領域を示す図である。 カメラ部の鳥瞰図座標面上への投影図形並びに影領域及び立体物領域を、鳥瞰図座標面上に示した図である。 本発明の第1実施例に係る運転支援システムの動作フローチャートである。 本発明の第1実施例に係り、鳥瞰図座標面上に作成されたQ本の直線を示す図(a)と、複数の直線に対して求められた長さを示す図(b)である。 本発明の第1実施例に係り、立体物分布中心線の求め方を説明するための図である。 本発明の第1実施例に係り、立体物領域の推定結果を示す図である。 本発明の第1実施例に係り、立体物分布中心線の求め方を説明するための図である。 本発明の第2実施例に係る運転支援システムの動作フローチャートである。 本発明の第3実施例に係り、カメラ部と立体物の高さ関係を示す図である。 本発明の第3実施例に係る運転支援システムの動作フローチャートである。 本発明の第3実施例に係り、立体物候補領域の一部として設定された、車両の影の端部領域を示す図であって、立体物候補領域からその端部領域を除去する方法を説明するための図である。 本発明の第3実施例に係り、立体物候補領域に、車両の影の端部領域及び立体物の画像データが現れる領域が含まれる様子を示す図である。 本発明の第4実施例に係るカメラ部の内部構成図である。 本発明の第5実施例に係る運転支援システムの機能ブロック図である。 従来手法による、立体物領域の推定結果を示す図である。 従来手法に係り、自車両自身(カメラ及び運転支援システムが設置された車両自身)の影の端部が立体物領域に含まれてしまう原因を説明するための図である。
符号の説明
1 カメラ
2 画像処理装置
3 表示装置
61 画像取得部
62 鳥瞰変換部
63 候補領域設定部
64 立体物領域推定部
65 表示用画像生成部

Claims (10)

  1. 移動体に取り付けられて前記移動体の周辺を撮影するカメラ部を備え、前記カメラ部から得られるカメラ座標面上のカメラ画像に基づいて、立体物の画像データが現れる、前記カメラ画像に基づく画像中の立体物領域を推定する運転支援システムにおいて、
    前記カメラ部からの互いに異なる第1及び第2のカメラ画像を地面に平行な鳥瞰図座標面上に投影することによって、前記第1及び第2のカメラ画像を第1及び第2の鳥瞰図画像に変換する鳥瞰変換手段と、
    前記第1及び第2の鳥瞰図画像を対比することによって前記鳥瞰図座標面上における立体物候補領域を設定する候補領域設定手段と、
    前記立体物候補領域中の、前記立体物領域から除外されるべき不要領域を検出し、その不要領域を前記立体物候補領域から除外して得た残部領域より前記立体物領域を推定する立体物領域推定手段と、を備え、
    前記立体物領域推定手段は、前記カメラ部の前記鳥瞰図座標面上への投影位置であるカメラ位置と前記立体物候補領域に属する各画素である各候補画素の位置との位置関係に基づいて、前記不要領域を検出する
    ことを特徴とする運転支援システム。
  2. 前記立体物領域推定手段は、前記カメラ位置と各候補画素の位置とを結ぶ方向と前記鳥瞰図座標面上における前記立体物の分布方向との差に基づいて各候補画素が前記不要領域に属する画素であるか否かを判断し、その判断結果に基づいて前記不要領域を検出する
    ことを特徴とする請求項1に記載の運転支援システム。
  3. 前記立体物候補領域に属する候補画素は第1〜第Nの候補画素を含み(Nは2以上の整数)、
    前記鳥瞰図座標面上において、前記カメラ位置と前記第1〜第Nの候補画素の位置とを結ぶ連結線を夫々第1〜第Nの連結線と呼んだ場合、前記第1〜第Nの連結線の方向は互いに異なり、
    前記立体物領域推定手段は、各連結線に沿った前記立体物候補領域の長さに基づいて前記分布方向を検出する
    ことを特徴とする請求項2に記載の運転支援システム。
  4. 前記立体物領域推定手段は、各連結線に対して前記長さを求め、最大の長さに対応する連結線の方向を検出すべき前記分布方向に含める
    ことを特徴とする請求項3に記載の運転支援システム。
  5. 前記立体物候補領域に属する候補画素は第1〜第Nの候補画素を含み(Nは2以上の整数)、
    前記鳥瞰図座標面上において、前記カメラ位置と前記第1〜第Nの候補画素の位置とを結ぶ連結線を夫々第1〜第Nの連結線と呼んだ場合、前記第1〜第Nの連結線の方向は互いに異なり、
    前記立体物領域推定手段は、各連結線に沿った前記立体物候補領域の長さに基づいて前記不要領域を検出する
    ことを特徴とする請求項1に記載の運転支援システム。
  6. 前記立体物領域推定手段は、各連結線に対して前記長さを求めて、その長さが所定の下限長さより短い連結線を特定し、特定した連結線上に位置する候補画素が前記不要領域に属する画素であると判断することによって前記不要領域を検出する
    ことを特徴とする請求項5に記載の運転支援システム。
  7. 所定の基準高さ以上を有する物体が前記立体物として取り扱われ、
    前記立体物領域推定手段は、
    各連結線に沿った前記立体物候補領域の長さと、前記位置関係及び前記基準高さに基づく前記鳥瞰図座標面上における前記立体物の最小長さと、を比較することによって、各候補画素が前記不要領域に属する画素であるか否かを判断し、これによって前記不要領域を検出する
    ことを特徴とする請求項5に記載の運転支援システム。
  8. 前記最小長さは候補画素ごとに設定され、
    第iの候補画素に対する前記最小長さは、第iの候補画素の位置と前記カメラ位置との位置関係並びに前記基準高さ及び前記カメラ部の設置高さに基づいて設定され(iはN以下の自然数)、
    前記立体物領域推定手段は、第iの候補画素に対応する第iの連結線に沿った前記立体物候補領域の長さと、第iの候補画素に対して設定された最小長さとを比較し、前者が後者よりも短い場合に、第iの候補画素が前記不要領域に属する画素であると判断する
    ことを特徴とする請求項7に記載の運転支援システム。
  9. 前記立体物候補領域が互いに分離した複数の候補領域から形成される場合、
    前記立体物領域推定手段は、前記立体物候補領域の長さとして前記複数の候補領域の夫々の長さを導出し、導出した各長さと前記最小長さを比較することにより、候補領域ごとに前記候補領域に属する候補画素が前記不要領域に属する画素であるか否かを判断する
    ことを特徴とする請求項7に記載の運転支援システム。
  10. 請求項1〜請求項9の何れかに記載の運転支援システムが設置された
    ことを特徴とする、移動体としての車両。
JP2008112040A 2008-04-23 2008-04-23 運転支援システム及び車両 Expired - Fee Related JP5108605B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008112040A JP5108605B2 (ja) 2008-04-23 2008-04-23 運転支援システム及び車両
US12/428,726 US20090268027A1 (en) 2008-04-23 2009-04-23 Driving Assistance System And Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008112040A JP5108605B2 (ja) 2008-04-23 2008-04-23 運転支援システム及び車両

Publications (2)

Publication Number Publication Date
JP2009265783A true JP2009265783A (ja) 2009-11-12
JP5108605B2 JP5108605B2 (ja) 2012-12-26

Family

ID=41214585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008112040A Expired - Fee Related JP5108605B2 (ja) 2008-04-23 2008-04-23 運転支援システム及び車両

Country Status (2)

Country Link
US (1) US20090268027A1 (ja)
JP (1) JP5108605B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018537A1 (ja) * 2011-08-02 2013-02-07 日産自動車株式会社 走行支援装置および走行支援方法
WO2013018672A1 (ja) * 2011-08-02 2013-02-07 日産自動車株式会社 移動体検出装置及び移動体検出方法
JP2013050750A (ja) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd 移動体検出装置及び移動体検出方法
WO2013038818A1 (ja) * 2011-09-12 2013-03-21 日産自動車株式会社 立体物検出装置
WO2013094242A1 (ja) * 2011-12-19 2013-06-27 日産自動車株式会社 立体物検出装置
WO2013129352A1 (ja) * 2012-03-01 2013-09-06 日産自動車株式会社 立体物検出装置
WO2013129359A1 (ja) * 2012-03-02 2013-09-06 日産自動車株式会社 立体物検出装置
JP2013205956A (ja) * 2012-03-27 2013-10-07 Sumitomo Heavy Ind Ltd 画像生成方法、画像生成装置、及び操作支援システム
WO2013157301A1 (ja) * 2012-04-16 2013-10-24 日産自動車株式会社 立体物検出装置及び立体物検出方法
EP2927869A2 (en) 2014-04-04 2015-10-07 Fujitsu Limited Movement amount estimation device, movement amount estimation method, and movement amount estimation program
KR20160035462A (ko) * 2014-09-23 2016-03-31 현대자동차주식회사 영상데이터의 리플렉션 이미지 제거 장치 및 방법
JPWO2014017518A1 (ja) * 2012-07-27 2016-07-11 日産自動車株式会社 立体物検出装置及び立体物検出方法
KR102003387B1 (ko) * 2018-10-11 2019-07-24 한국과학기술원 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
JP2020086668A (ja) * 2018-11-19 2020-06-04 アイシン精機株式会社 画像処理装置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5503660B2 (ja) * 2009-09-24 2014-05-28 パナソニック株式会社 運転支援表示装置
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
US9430946B2 (en) * 2011-12-28 2016-08-30 Toyota Jidosha Kabushiki Kaisha Obstacle determination device
WO2014017521A1 (ja) * 2012-07-27 2014-01-30 日産自動車株式会社 立体物検出装置
US9726883B2 (en) * 2012-07-27 2017-08-08 Nissan Motor Co., Ltd Three-dimensional object detection device and foreign matter detection device
WO2014019132A1 (en) * 2012-07-31 2014-02-06 Harman International Industries, Incorporated System and method for detecting obstacles using a single camera
JP6075331B2 (ja) * 2014-06-13 2017-02-08 トヨタ自動車株式会社 車両用照明装置
US10922559B2 (en) * 2016-03-25 2021-02-16 Bendix Commercial Vehicle Systems Llc Automatic surround view homography matrix adjustment, and system and method for calibration thereof
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
DE102016224886B3 (de) * 2016-12-13 2018-05-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Ermittlung der Schnittkanten von zwei sich überlappenden Bildaufnahmen einer Oberfläche
GB2573426A (en) * 2016-12-22 2019-11-06 Walmart Apollo Llc Systems and methods for monitoring item distribution
DE102017221839A1 (de) * 2017-12-04 2019-06-06 Robert Bosch Gmbh Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
CN111027522B (zh) * 2019-12-30 2023-09-01 华通科技有限公司 基于深度学习的探鸟定位系统
KR20230094310A (ko) * 2021-12-21 2023-06-28 현대자동차주식회사 외부 카메라를 활용한 차량 검출 방법, 검출 장치 및 이를 이용한 전기 자동차 충전 로봇

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250268A (ja) * 1994-03-14 1995-09-26 Yazaki Corp 車両周辺監視装置
JPH0933232A (ja) * 1995-05-18 1997-02-07 Omron Corp 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
JPH1139506A (ja) * 1997-07-16 1999-02-12 Atr Chino Eizo Tsushin Kenkyusho:Kk 任意視点画像生成装置
JP2003169323A (ja) * 2001-11-29 2003-06-13 Clarion Co Ltd 車両周囲監視装置
JP2003232867A (ja) * 2002-02-12 2003-08-22 Toshiba Corp 物体検出方法及び装置
JP2004235986A (ja) * 2003-01-30 2004-08-19 Matsushita Electric Ind Co Ltd 監視システム
JP2006171964A (ja) * 2004-12-14 2006-06-29 Nissan Motor Co Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2007048071A (ja) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd 画像処理装置および画像処理方法
JP2007129277A (ja) * 2005-10-31 2007-05-24 Fujitsu Ltd 画像処理装置
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
JP2007265281A (ja) * 2006-03-29 2007-10-11 Denso It Laboratory Inc 自影判定方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016429A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
US8561167B2 (en) * 2002-03-08 2013-10-15 Mcafee, Inc. Web reputation scoring
US7870203B2 (en) * 2002-03-08 2011-01-11 Mcafee, Inc. Methods and systems for exposing messaging reputation to an end user
US7636941B2 (en) * 2004-03-10 2009-12-22 Microsoft Corporation Cross-domain authentication
JP3987057B2 (ja) * 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP4026641B2 (ja) * 2004-12-03 2007-12-26 日産自動車株式会社 物体検出装置、および物体検出方法
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP4760831B2 (ja) * 2005-08-02 2011-08-31 日産自動車株式会社 車両周囲監視装置及び車両周囲監視方法
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
US20070162349A1 (en) * 2005-10-17 2007-07-12 Markmonitor Inc. Client Side Brand Protection
US7979703B2 (en) * 2005-10-19 2011-07-12 Microsoft Corporation Determining the reputation of a sender of communications
US20070250919A1 (en) * 2005-11-10 2007-10-25 Markmonitor Inc. B2C Authentication System And Methods
US8763113B2 (en) * 2005-11-28 2014-06-24 Threatmetrix Pty Ltd Method and system for processing a stream of information from a computer network using node based reputation characteristics
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
US7728879B2 (en) * 2006-08-21 2010-06-01 Sanyo Electric Co., Ltd. Image processor and visual field support device
US7991902B2 (en) * 2006-12-08 2011-08-02 Microsoft Corporation Reputation-based authorization decisions
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
DE102007011180A1 (de) * 2007-03-06 2008-09-11 Daimler Ag Rangierhilfe und Verfahren für Fahrer von Fahrzeugen bzw. Fahrzeuggespannen, welche aus gegeneinander knickbare Fahrzeugelementen bestehen
US9826200B2 (en) * 2007-04-30 2017-11-21 Mobileye Vision Technologies Ltd. Rear obstruction detection
US8239685B2 (en) * 2007-10-24 2012-08-07 Electronics And Telecommunications Research Institute Biometric authentication method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250268A (ja) * 1994-03-14 1995-09-26 Yazaki Corp 車両周辺監視装置
JPH0933232A (ja) * 1995-05-18 1997-02-07 Omron Corp 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
JPH1139506A (ja) * 1997-07-16 1999-02-12 Atr Chino Eizo Tsushin Kenkyusho:Kk 任意視点画像生成装置
JP2003169323A (ja) * 2001-11-29 2003-06-13 Clarion Co Ltd 車両周囲監視装置
JP2003232867A (ja) * 2002-02-12 2003-08-22 Toshiba Corp 物体検出方法及び装置
JP2004235986A (ja) * 2003-01-30 2004-08-19 Matsushita Electric Ind Co Ltd 監視システム
JP2006171964A (ja) * 2004-12-14 2006-06-29 Nissan Motor Co Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2007048071A (ja) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd 画像処理装置および画像処理方法
JP2007129277A (ja) * 2005-10-31 2007-05-24 Fujitsu Ltd 画像処理装置
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
JP2007265281A (ja) * 2006-03-29 2007-10-11 Denso It Laboratory Inc 自影判定方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
CN103718214A (zh) * 2011-08-02 2014-04-09 日产自动车株式会社 移动体检测装置和移动体检测方法
US9235767B2 (en) 2011-08-02 2016-01-12 Nissan Motor Co., Ltd. Detection region modification for driving assistance apparatus and driving assistance method
CN103718214B (zh) * 2011-08-02 2017-08-11 日产自动车株式会社 移动体检测装置和移动体检测方法
JPWO2013018537A1 (ja) * 2011-08-02 2015-03-05 日産自動車株式会社 走行支援装置および走行支援方法
JP5664787B2 (ja) * 2011-08-02 2015-02-04 日産自動車株式会社 移動体検出装置及び移動体検出方法
US9665781B2 (en) 2011-08-02 2017-05-30 Nissan Motor Co., Ltd. Moving body detection device and moving body detection method
WO2013018537A1 (ja) * 2011-08-02 2013-02-07 日産自動車株式会社 走行支援装置および走行支援方法
WO2013018672A1 (ja) * 2011-08-02 2013-02-07 日産自動車株式会社 移動体検出装置及び移動体検出方法
JP2013050750A (ja) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd 移動体検出装置及び移動体検出方法
US9349057B2 (en) 2011-09-12 2016-05-24 Nissan Motor Co., Ltd. Three-dimensional object detection device
WO2013038818A1 (ja) * 2011-09-12 2013-03-21 日産自動車株式会社 立体物検出装置
US9740943B2 (en) 2011-12-19 2017-08-22 Nissan Motor Co., Ltd. Three-dimensional object detection device
WO2013094242A1 (ja) * 2011-12-19 2013-06-27 日産自動車株式会社 立体物検出装置
JPWO2013094242A1 (ja) * 2011-12-19 2015-04-27 日産自動車株式会社 立体物検出装置
WO2013129352A1 (ja) * 2012-03-01 2013-09-06 日産自動車株式会社 立体物検出装置
US9830519B2 (en) 2012-03-01 2017-11-28 Nissan Motor Co., Ltd. Three-dimensional object detection device
JPWO2013129352A1 (ja) * 2012-03-01 2015-07-30 日産自動車株式会社 立体物検出装置
JP5668891B2 (ja) * 2012-03-02 2015-02-12 日産自動車株式会社 立体物検出装置
WO2013129359A1 (ja) * 2012-03-02 2013-09-06 日産自動車株式会社 立体物検出装置
JP2013205956A (ja) * 2012-03-27 2013-10-07 Sumitomo Heavy Ind Ltd 画像生成方法、画像生成装置、及び操作支援システム
JPWO2013157301A1 (ja) * 2012-04-16 2015-12-21 日産自動車株式会社 立体物検出装置及び立体物検出方法
US9141870B2 (en) 2012-04-16 2015-09-22 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
WO2013157301A1 (ja) * 2012-04-16 2013-10-24 日産自動車株式会社 立体物検出装置及び立体物検出方法
JPWO2014017518A1 (ja) * 2012-07-27 2016-07-11 日産自動車株式会社 立体物検出装置及び立体物検出方法
US9569674B2 (en) 2014-04-04 2017-02-14 Fujitsu Limited Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program
EP2927869A2 (en) 2014-04-04 2015-10-07 Fujitsu Limited Movement amount estimation device, movement amount estimation method, and movement amount estimation program
KR20160035462A (ko) * 2014-09-23 2016-03-31 현대자동차주식회사 영상데이터의 리플렉션 이미지 제거 장치 및 방법
KR102142660B1 (ko) * 2014-09-23 2020-08-07 현대자동차주식회사 영상데이터의 리플렉션 이미지 제거 장치 및 방법
KR102003387B1 (ko) * 2018-10-11 2019-07-24 한국과학기술원 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
JP2020086668A (ja) * 2018-11-19 2020-06-04 アイシン精機株式会社 画像処理装置

Also Published As

Publication number Publication date
JP5108605B2 (ja) 2012-12-26
US20090268027A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5108605B2 (ja) 運転支援システム及び車両
US10097812B2 (en) Stereo auto-calibration from structure-from-motion
EP2437494B1 (en) Device for monitoring area around vehicle
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
JP6126809B2 (ja) エゴモーション概算システムおよび方法
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP2009060499A (ja) 運転支援システム及び連結車両
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2010141836A (ja) 障害物検知装置
JP2010136289A (ja) 運転支援装置及び運転支援方法
JP4872890B2 (ja) 画像の歪曲補正方法
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
JP2009093332A (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
JP2008085710A (ja) 運転支援システム
JP4679293B2 (ja) 車載パノラマカメラシステム
US20160037154A1 (en) Image processing system and method
Santhanam et al. Lens distortion correction and geometrical alignment for Around View Monitoring system
JP2009077022A (ja) 運転支援システム及び車両
JP2019012915A (ja) 画像処理装置、画像変換方法
EP3896387B1 (en) Image processing device
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法
JP2010121987A (ja) 車載カメラ用のキャリブレーションターゲット及びキャリブレーションシステム
JP2007028443A (ja) 画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121005

R151 Written notification of patent or utility model registration

Ref document number: 5108605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees