JP2010134878A - 立体物出現検知装置 - Google Patents

立体物出現検知装置 Download PDF

Info

Publication number
JP2010134878A
JP2010134878A JP2008312642A JP2008312642A JP2010134878A JP 2010134878 A JP2010134878 A JP 2010134878A JP 2008312642 A JP2008312642 A JP 2008312642A JP 2008312642 A JP2008312642 A JP 2008312642A JP 2010134878 A JP2010134878 A JP 2010134878A
Authority
JP
Japan
Prior art keywords
dimensional object
image
vehicle
camera
overhead
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008312642A
Other languages
English (en)
Other versions
JP4876118B2 (ja
Inventor
Tatsu Yumiba
竜 弓場
Masahiro Kiyohara
將裕 清原
Kota Irie
耕太 入江
Tatsuhiko Moji
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2008312642A priority Critical patent/JP4876118B2/ja
Priority to PCT/JP2009/070457 priority patent/WO2010067770A1/ja
Priority to US13/133,215 priority patent/US20110234761A1/en
Publication of JP2010134878A publication Critical patent/JP2010134878A/ja
Application granted granted Critical
Publication of JP4876118B2 publication Critical patent/JP4876118B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】低コストで立体物の出現を迅速且つ正確に検知することができる立体物出現検知装置を提供する。
【解決手段】立体物出現検知装置は、車両20に搭載されたカメラ21で撮像した俯瞰画像30に基づいて車両周辺における立体物22の出現を検知するものであり、俯瞰画像30から俯瞰画像30上でかつカメラ21の視線方向33に直交する方向36、37の直交方向特徴成分46、47を抽出し、その抽出した直交方向特徴成分46、47の量に基づいて立体物22の出現を検知する。これにより、例えば、日照の揺らぎや、影の移動等の偶発的な画像の変化を、立体物の出現として誤検知するのを防ぐ。
【選択図】図1

Description

本発明は、車載カメラの画像から車両の周辺に立体物の出現を検知する立体物出現検知装置に関する。
車載カメラを車両のリアトランク部等に後ろ向きに設置し、この車載カメラから得られた車両後方の撮像画像を運転者に提示する運転支援装置が普及し始めている。この車載カメラとしては、通常、広範囲を撮像可能な広角カメラが用いられ、小さなモニタ画面に広い範囲の撮像画像を表示する様にしている。
しかし、広角カメラはレンズ歪みが大きいため、直線が曲線として撮像されてしまい、モニタ画面に表示される画像は見づらい画像になってしまう。そこで、従来から、特許文献1に記載されている様に、広角カメラの撮像画像からレンズ歪みを除去し、直線が直線として見える画像に変換し、モニタ画面に表示するようにしている。
このような車両周囲を捉えるカメラを常に目視して安全を確認することは運転者にとって負荷であり、カメラの映像から車両との衝突の危険がある人物などの立体物を画像処理により検知する技術が従来から開示されている(例えば特許文献1を参照)。
また、車両が低速で走行する間、2時刻で撮影した画像を視点変換したときの俯瞰変換したときの運動視差から画像を地表面の領域と立体物の領域に分離することで、立体物を検知する技術が開示されている(例えば特許文献2を参照)。
そして更に、2つ並んで備え付けられたカメラの立体視から、車両の周囲の立体物を検知する技術が開示されている(例えば特許文献3を参照)。また、車両が停車してイグニションをオフにしたときの画像と、車両が発進するためにイグニションをオンにした画像を比較することで、車両が停止してから発進するまでの間に車両の周囲の変化を検知して、運転者に警報する技術が開示されている(例えば特許文献4を参照)。
特許第3300334号公報 特開2008−85710号公報 特開2006−339960号公報 特開2004−221871号公報 T.Kurita, N.Otsu, and T.Sato, ``A face recognition method using higher order local autocorrelation and multivariate analysis,`` Proc. of Int. Conf. on Pattern Recognition, Aug. 30 − Sep. 3, The Hague, Vol.II, pp.213−216, 1992. K. Levi and Y. Weiss,"Learning Object Detection from a Small Number of Examples: the Importance of Good Features.",Proc. CVPR, vol. 2, pp. 53−60, 2004.
しかしながら、特許文献2の技術は運動視差を用いるために、車両が停止している間は適用することができない第1の課題がある。また、車両のすぐ近くに立体物がある場合に、車両が動き出してから立体物に衝突するまでに警報が間に合わないおそれがある。特許文献3の技術では、立体視をするために同一の方向を向いた2台のカメラを要するためコストが高くなる。
特許文献4の技術は、1つの画角あたり単一のカメラで車両が停止した状態でも適用できるが、イグニションをオフにしたときとイグニションをオンにしたときの2つの画像を画素あるいはエッジといった局所単位の強度で比較するために、イグニションをオフにしたときとオンにした間に、車両の周囲に新たに立体物が出現した場合と、車両の周囲から立体物が退出した場合とを区分することができない。また、屋外環境下では前記日照の揺らぎや影の移動のように立体物の出現以外でも画像の局所的に変動は頻発するため、多くの誤報を出力するおそれがある。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、低コストで立体物の出現を迅速且つ正確に検知することができる立体物出現検知装置を提供することである。
上記の課題を解決する本発明の立体物出現検知装置は、車両に搭載されたカメラで撮像した俯瞰画像に基づいて車両周辺における立体物の出現を検知する立体物出現検知装置において、俯瞰画像から俯瞰画像上でかつカメラの視線方向に直交に近い方向の直交方向特徴成分を抽出し、その抽出した直交方向特徴成分の量に基づいて立体物の出現を検知することを特徴とする。
本発明によれば、俯瞰画像から、俯瞰画像上でかつ車載カメラの視線方向に直交に近い方向の直交方向特徴成分を抽出して、その直交方向特徴成分に基づいて立体物の出現を検知するので、例えば、日照の揺らぎや、影の移動等の偶発的な画像の変化を、立体物の出現として誤検知するのを防ぐことができる。
以下、本発明にかかる立体物出現検知装置の具体的な実施形態について、図面を参照しながら説明する。なお、本実施形態では、車両の一例として自動車を挙げて説明するが発明にかかる「車両」とは自動車に限定されず、地表を走行するあらゆる種類の移動体を含む。
図1は、本実施例における立体物出現検知装置の機能ブロック図、図2は、立体物出現検知装置の使用状態を説明する図である。立体物出現検知装置は、車両に取り付けられた少なくとも一つ以上のカメラ、カメラ内あるいは車両内の少なくとも一つ以上に搭載された演算装置、主記憶、記憶媒体を有す計算機、カーナビゲーションのようなモニタ画面あるいはスピーカの少なくとも一つ以上を有す車両20において実現される。
立体物出現検知装置は、図1に示すように、俯瞰画像取得手段1、方向特徴成分抽出手段2、車両信号取得手段3、動作制御手段4、記憶手段5、立体物検出手段6、カメラ幾何記録手段7、警報手段8を有する。これらの各手段は、カメラ内あるいは車両内のいずれかあるいは両方の計算機で実現され、警報手段8はカーナビゲーションのようなモニタ画面あるいはスピーカの少なくとも一つ以上で実現される。
俯瞰画像取得手段1は、所定の時間周期で車両20に取り付けられたカメラ21の画像を取得し、レンズの歪みを補正した後に、俯瞰変換によってカメラ21の画像を地表面に投影した俯瞰画像30を作成する。なお、俯瞰画像取得手段1のレンズの歪みの補正および俯瞰変換に必要なデータはあらかじめ用意されていて、計算機内に保持されている。
図2(a)は、空間中において、車両20の後部に備え付けられたカメラ21が、立体物22をカメラ21の画角29に捉えた状況の一例であり、立体物22は、直立した人物である。カメラ21は人物の腰ほどの高さに備え付けられてあり、カメラ21の画角29は立体物22の脚部22a、胴部22b、及び腕部22cの下部を捉えている。
図2(b)において、符号30は俯瞰画像、31はカメラ21の視点、32は立体物22の俯瞰画像30上の象、33aおよび33bは像32の両脇を通過するカメラ21の視点31からの視線方向を示すものである。カメラ21で撮像された立体物22は、俯瞰画像30上では、視点31から放射状に広がるように表れる。
例えば、図2(b)において、立体物22の左および右の輪郭は、カメラ21の視点31から見たカメラ21の視線方向33aおよび33bに沿って伸長する。これは、俯瞰変換では、画像上の像を地上面に投影するので、画像上の像が空間中においてすべて地上面にあるときは歪まないが、画像上に立体物22が写る立体物22の地上面から高いところほど大きく歪み、カメラ21の視点31からの視線方向に沿って画像の外側に伸張する特性を持つためである。
なお、カメラ21の高さが図2(a)に示す位置よりも高いとき、あるいは立体物22の高さが図2(a)に示す位置よりも低いとき、あるいは立体物22とカメラ21の距離が図2(a)に示す位置よりも近いときには、カメラ21の画角29内に含まれる立体物22の範囲は広くなり、例えば画角29が胴部22b、椀部22aの上部、頭部22dを捉えるようになる。
しかしながら、俯瞰画像30上における立体物22の像32は、図2(b)と同様に、カメラ21の視点31から放射状に延びる方向である視線方向33aおよび33bに沿って伸張する傾向は変わらない。
また、カメラ21の高さが図2(a)に示す位置よりも低いとき、あるいは立体物22の高さが図2(a)に示す位置よりも高いとき、あるいは立体物22とカメラ21の距離が図2(a)に示す位置よりも遠いときには、カメラ21の画角29内に含まれる立体物22の範囲は狭くなり、例えば画角29が脚部22aのみをとらえるようになる。しかしながら、俯瞰画像30上における立体物22の像32は、図2(b)と同様に、カメラ21の視線方向33aおよび33bに沿って伸張する傾向は変わらない。
また、立体物22が人物の場合には必ずしも直立しているとは限らず、腕部22cおよび脚部22aの関節の曲がりで直立姿勢から多少の変形をすることがあるが、人物の全体的なシルエットが縦長である範囲では、図2(b)と同様に、立体物22の見え方が、カメラ21の視線方向33aおよび33bに沿って伸張する傾向は変わらない。
立体物22の人物がしゃがみ込んだ場合でも全体として縦長であるので、図2(b)と同様に立体物22の見え方がカメラ21の視線方向33aおよび33bに沿って伸張する傾向は変わらない。また、立体物22は以上の図2の説明では人物を例にとったが、立体物22は人物に限定されず、人物に近い幅と高さの物体であれば、立体物22の見え方がカメラ21の視線方向33aおよび33bに沿って伸張する傾向は変わらない。
図2(a)および図2(b)では、カメラ21が車両20の後方に取り付けられた例を示したが、カメラ21の取り付け位置は車両20の前方や側方などほかの方向であってよい。また図2(b)において俯瞰画像30上のカメラ21の視点31を俯瞰画像30の左端の中央とした例を示したが、カメラ21の視点31は、俯瞰画像30の上端の中央や右上の隅などどの場所に取り付けられても立体物22がカメラ21の視線方向33aおよび33bに沿って伸張する傾向は変わらない。
方向特徴成分抽出手段2は、俯瞰画像30の各画素が有する水平方向の勾配強度Hと垂直方向の勾配強度Vを求めて、これら水平方向の勾配強度Hと垂直方向の勾配強度Vのなす角度である明暗勾配方向角度θを求める。
水平方向の勾配強度Hは、対象画素の近傍に位置する近傍画素の明度と図3(a)に示す水平方向のソーベルフィルタFhの係数を用いたコンボリューション演算により求められる。そして、垂直方向の勾配強度Vは、対象画素の近傍に位置する近傍画素の明度と図3(b)に示す垂直方向のソーベルフィルタFvの係数を用いたコンボリューション演算により求められる。
それから、水平方向の勾配強度Hと垂直方向の勾配強度Vのなす明暗勾配方向角度θは、下記の(1)式を用いて求められる。
Figure 2010134878
上記(1)式において、明暗勾配方向角度θは、縦横3画素の局所範囲内における明度のコントラストがどの方向に変化しているかの角度を示す。
方向特徴成分抽出手段2では、俯瞰画像30上のすべての画素について、上記(1)式による明暗勾配方向角度θを計算し、俯瞰画像30の方向特徴成分として出力する。
図3(b)は、上記(1)式による、明暗勾配方向角度θの計算の一例であり、符号90は上側の画素領域90aの明度が0、下側の画素領域90bの明度が255である、上側と下側とが右斜めの境界をもった画像であり、符号91は画像90の上側と下側の境界付近の縦3画素および横3画素の画像ブロックを拡大して示す図である。
画像ブロック91の左上91a、上91b、右上91c、左91dの画素の明度は0であり、右91f、中央91e、左下91g、下91h、右下91iの明度は255である。このとき、図3(a)に示す水平方向のソーベルフィルタFhの係数を用いた中央画素91eのコンボリューション演算の値である勾配強度Hは、−1×0+0×0+1×0−2×0+0×0+1×255−1×255+0×0+1×255 =255である。
そして、垂直方向のソーベルフィルタFvの係数を用いた中央画素91eのコンボリューション演算の値である勾配強度Vは、−1×0−2×0−0×0 +0×0+0×0+0×255 + 1×255+2×255+1×255 =1020である。
このときの上記(1)式による明暗勾配方向角度θは、約76度となり、画像90の上下の境界と同じくおおよそ右下の方向を指す。なお、方向特徴成分抽出手段2が勾配強度H、Vを求める係数やコンボリューションのサイズは、図3(a)および図3(b)に示すものに限られず、水平および垂直の勾配強度H、Vが求まるものであればほかのものでもよい。
また、方向特徴成分抽出手段2は、水平方向の勾配強度Hと垂直方向の勾配強度Vのなす明暗勾配方向角度θ以外にも、局所的な範囲内における明度のコントラストの方向(明暗勾配方向)が抽出できる方法であれば、他の方法でもよい。例えば、非特許文献1の高次局所自己相関や非特許文献2のEdge of Orientation Histogramsを方向特徴成分抽出手段2の明暗勾配方向角度θの抽出に利用することができる。
車両信号取得手段3は、車両20の制御装置および車両20内の計算機から、イグニションスイッチのON、OFFの状態や、アクセサリ電源ONなどのエンジンキーの状態、前進、後退、パーキングなどのギアの状態の信号、カーナビゲーションの操作信号、時刻情報等の車両信号を取得する。
動作制御手段4は、例えば図4に図示するように、車両20の運転者の注意が車両20の周囲確認から一時的に離れる区間50の始点51および終点52を、車両信号取得手段3からの車両信号に基づいて判定する。
区間50の一例として、例えば運転者が車両20に荷物を運び込む、あるいは車両20から荷物を運び出すための短時間の停車が例として挙げられる。この短時間の停車を判定するには、イグニションスイッチがONからOFFに変わったときの信号を始点51とし、イグニションスイッチがOFFからONに変わったときの信号52を終点とする。
また、区間50の一例として、例えば運転者が停車中にカーナビゲーション装置を操作して目的地を探索し、そのルートを設定した後に再び発進する状況が挙げられる。このようなカーナビゲーション操作のための停車・発進を判定するには、車速あるいはブレーキの信号、およびカーナビゲーションの操作開始の信号を始点51とし、カーナビゲーションの操作終了の信号、およびブレーキの信号を終点52とする。
ここで、動作制御手段4は、始点51のタイミングで車両20のカメラ21への電源供給が遮断され、終点52のタイミングで再度車両20のカメラ21に電源供給が再開される状況ように、終点52の直後に車両20のカメラ21の画質が安定しない場合には、車両信号取得手段3の信号に基づいて図4に示す区間50の終わりを判定したタイミングから所定の遅れ時間を設けたタイミングを終点52としてもよい。
動作制御手段4は、始点51のタイミングを判定すると、その時点で方向特徴成分抽出手段2が出力した方向特徴成分を記憶手段5に送信する。また、動作制御手段4は、終点52のタイミングを判定すると、立体物検出手段6に対して検知判定の信号を出力する。
記憶手段5は、図4に示す区間50の間、格納した情報が消えないように保持する。記憶手段5は、区間50の間にイグニションスイッチがOFFになっている間も電源の供給される記憶媒体、あるいはフラッシュメモリやハードディスクのように電源の供給がなくても所定の時間の間は情報が消去されない記憶媒体により実現される。
図5は、立体物検知手段6の処理内容を示すフローチャートである。立体物検知手段6は、動作制御手段4から検知判定の信号を受け取ると、図5に示すフローにより俯瞰画像30上の立体物を検知する処理を行う。
図5においてステップS1からステップS8は、俯瞰画像30に設けた検知領域のループ処理である。図6は、ステップS1からステップS8の検知領域のループ処理を説明するための図である。座標格子40は、図6に示すように、俯瞰画像30をカメラ21の視点31を中心とした距離ρと角度φの極座標を格子状に分割したものである。
俯瞰画像30の検知領域は、座標格子40の極座標の角度φごとに、座標格子40の距離ρの区間を総組み合わせで設ける。例をあげると、図6の上では、(a1、a2、b2、b1)を4頂点とした領域が1つの検知領域であり、(a1、a3、b3、b1)および(a2、a3、b3、b2)も一つの検知領域である。
俯瞰画像30におけるカメラ21の視点21および図6の極座標の格子は、事前に計算されてカメラ幾何記録7に格納されたデータを使う。ステップS1からステップS8のループ処理は、この検知領域を網羅的に繰り返す。以下、ステップS2からステップS7までの説明ではループの検知領域を、検知領域[I]と表記する。
図7は、図5におけるステップS2からステップS7までの処理を説明するための図である。図7(a)は俯瞰画像30の一例であり、車両20の影38aおよび砂利の路面35をとらえた俯瞰画像30aを示している。図7(b)は俯瞰画像30の一例であり、立体物22および車両20の影38bをとらえた俯瞰画像30bを示している。
図7(a)および図7(b)は、同一地点の車両20で撮影された画像30a、30bである。図7(a)と図7(b)では、日照の変化により、車両20の影38a、38bの位置や大きさが変化している。図7(a)および図7(b)において、34は検知領域[I]、33はカメラ21の視点31から検知領域[I]34の中心を向いた視線方向、36は俯瞰画像30の面に沿う方向で且つ視線方向33から−90°回転して交差した直交方向、37は俯瞰画像30の面に沿う方向で且つ視線方向33から+90°回転して交差した直交方向を示す。検知領域[I]は、座標格子40において方向φを同一とした領域なので、検知領域[I]34は、視線方向33に沿ってカメラ21の視点31側から俯瞰画像30の外側に向かって伸びる。
図7(c)は、方向特徴成分抽出手段2が俯瞰画像30aから求めた明暗勾配方向角度θのヒストグラム41aを示し、図7(d)は方向特徴成分抽出手段2が俯瞰画像30bから求めた明暗勾配方向角度θのヒストグラム41bを示している。ヒストグラム41aおよびヒストグラム42bは、方向特徴成分抽出手段2が計算した明暗勾配方向角度θを、下記の(2)式より離散化して求める。
Figure 2010134878
上記(2)式において、θTICSは角度の離散化の刻み、INT()は少数点以下を切り捨てて整数化する関数である。θTICSは、立体物22の輪郭が視線方向33から外れる程度や画質の乱れに応じて事前に定めておけばよい。例えば立体物22が歩行する人物を対象とする場合や画像の乱れが大きい場合には、人物の歩行による立体物22の輪郭の変動や画像の乱れによる方向特徴成分抽出手段2の計算した明暗勾配方向角度θの各画素のばらつきを許容できるようにθTICSを大きくすればよい。なお、画像の乱れが小さく立体物22の輪郭の変動も小さい場合には、θTICSを小さくすればよい。
図7(c)及び図7(d)において、符号43は明暗勾配方向角度θがカメラ21の視点31から検知領域[I]34に向かう視線方向33の方向特徴成分、符号46は明暗勾配方向角度θが視線方向33から−90°回転した直交方向36に向かう方向特徴成分である直交方向特徴成分、符号47は明暗勾配方向角度θが視線方向33から+90°回転した直交方向37に向かう方向特徴成分である直交方向特徴成分である。
俯瞰画像30aの検知領域34内における路面35は砂利であり、砂利の模様は局所的にはランダムな方向を向いている。従って、視線方向検出手段2が計算した明暗勾配方向角度θに偏りはない。また、俯瞰画像30aの検知領域34内における影38aは、路面35との境界部に明暗のコントラストを持つが、検知領域[I]34における影38aと路面35との境界部の線分長は、人物等の立体物22の場合と比較して短く、その影響は小さい。よって、俯瞰画像30aから求めた明暗勾配方向角度θのヒストグラム41aでは、方向特徴成分は、図7(c)に示すように、強い偏りを持たず、どの成分の頻度(量)もばらつく傾向にある。
一方、俯瞰画像30bでは、検知領域[I]34内に立体物22と路面35の境界が極座標の距離ρ方向に沿って含まれ視線方向33と交差する方向に強いコントラストを持つので、俯瞰画像30bから求めた明暗勾配方向角度θのヒストグラム41bでは、直交方向特徴成分46あるいは直交方向特徴成分47に大きな頻度(量)を持つ。
なお、図7(d)では、ヒストグラム41bの直交方向特徴成分47の頻度が高くなる(量が多くなる)例を示したが実際にはこの例に限らず、全体として立体物22が路面35よりも明度が低いときは直交方向特徴成分47の頻度が高くなり(量が多くなり)、全体として立体物22が路面35よりも明度が高いときは直交方向特徴成分46の頻度が高くなり(量が多くなり)、立体物22あるいは路面の明度の高い検知領域[I]34内でばらつく場合には直交方向特徴成分46と直交方向特徴成分47の両方の頻度が高くなる(量が多くなる)。
図5のステップS2では、第1の直交方向特徴成分として、記憶手段5に格納された始点51(図4を参照)における俯瞰画像30aの検知領域[I]34から直交方向特徴成分46、47を求める。そして、ステップS3では、第2の直交方向特徴成分として、終点52(図4を参照)における俯瞰画像30bの検知領域[I]34から直交方向特徴成分46、47を求める。
ステップS2とステップS3の処理では、図7(c)および図7(d)に図示したヒストグラムの方向特徴成分のうち、直交方向特徴成分46、47以外は使わないので計算しなくてもよい。また、直交方向特徴成分46、47は、上記(2)式により離散化した角度θbin以外の角度を使っても計算することができる。
例えば、視線方向33の角度をη、人物の歩行や画像の乱れを考慮した像32の輪郭の視線方向33からの許容誤差をεとすると、直交方向特徴成分46は検知領域[I]34において(η−90±ε)の範囲の角度θをもつ画素の数、直交方向特徴成分47は検知領域[I]34において(η+90±ε)の範囲の角度θをもつ画素の数で計算できる。
図5のステップS4では、ステップS2で求めた第1の直交方向特徴成分46の頻度Sa−および直交方向特徴成分47の頻度Sa+、およびステップS3で求めた第2の直交方向特徴成分46の頻度Sb−および直交方向特徴成分47の頻度Sb+から、下記の(3)式、(4)式、(5)式を用いて、視線方向33に対して直交に近い方向である略直交方向(直交方向も含む)の直交方向特徴成分46、47の増分ΔSa+あるいはΔSa−あるいはΔSa±を計算する。
Figure 2010134878
Figure 2010134878
Figure 2010134878
図5のステップS5は、ステップS4で計算した直交方向特徴成分46、47の増分が所定のしきい値以上であるか否かを判断し、しきい値以上の場合は、図4に示す始点51から終点52までの区間50の間において検知領域[I]34内に立体物22が出現したと判定する(ステップS6)。
一方、ステップS4で計算した直交方向特徴成分46、47の増分が所定のしきい値未満である場合は、図4に示す区間50の間において検知領域[I]34内に立体物22の出現はなかったと判定する(ステップS7)。
例をあげると、図7(a)に示す俯瞰画像30aが始点51における画像であり、図7(b)に示す俯瞰画像30bが終点52における画像である場合、ステップS2で計算したヒストグラム41aに比べてステップS3で計算したヒストグラム41bは、図7(b)中の立体物22の像32によって直交方向特徴成分46、47の頻度が高くなり、ステップS4で計算する検知領域[I]34内の直交方向特徴成分46、47の増分は大きく、ステップS6で立体物22の出現ありと判定される。
反対に、図7(b)に示す俯瞰画像30aが始点51における画像であり、図7(a)に示す俯瞰画像30bが終点52における画像である場合、ステップS2で計算したヒストグラム41bに比べてステップS3で計算したヒストグラム41aは、図7(b)中の立体物22の像32によって直交方向特徴成分46、47の頻度は低くなり、ステップS7で立体物22の出現なしと判定される。
図4に示す区間50の間に立体物22の出現がなく、検知領域[I]34の背景にも変化がない場合、第1の直交方向特徴成分46、47と第2の直交方向特徴成分46、47は、ほぼ等しく、ステップS4で計算する直交方向特徴成分の増分はほとんどない。従って、ステップS7で立体物22の出現はないと判定される。
また、図4に示す区間50の間に立体物22の出現はないが、検知領域[I]34の背景に変化がある場合、例えば日照変動による全体的な明るさの変化や影の移動などがある場合でも、背景の変化が視線方向33に沿ってあらわれない限り、第1の直交方向特徴成分46、47と第2の直交方向特徴成分46、47はほぼ等しく、ステップS7で立体物22の出現はないと判定される。
一方で、図4に示す区間50の間に立体物22の出現があるものの、始点51の検知領域[I]34の背景の直交方向特徴成分46、47が、終点52の立体物22の直交方向特徴成分46、47に近い場合、例えば始点51の検知領域[I]34の背景に視線方向33の方向に伸びる白線や支柱がある場合には、ステップS4で計算する視線方向33の交差方向への方向特徴の増分はほとんどなく、S7で立体物22の出現はないと判定される。
図5のステップS9は、ステップS1からステップS8までのループ処理で、2つ以上の検知領域[I]に立体物22の出現ありと判定された場合に、空間中における同一の立体物22がなるべく一つの検知領域に対応するように、立体物22の出現ありと判定した検知領域を一つの検知領域に統合する処理を行う。
ステップS9では、まず極座標における同一方向φの距離ρ方向で検知領域を統合する。例えば、図15に示すように、(a1、a2、b2、b1)と(a2、a3、b3、b2)の検知領域で立体物22の出現ありと判定された場合には、(a1、a3、b3、b1)の検知領域で立体物22の出現ありと統合する。
次にステップS9は、極座標において距離ρ方向で統合した検知領域のうち極座標の方向φが近いものを一つの検知領域に統合する。例えば、図15のように、(a1、a3、b3、b1)の検知領域で立体物22の出現あり、(p1、p2、q2、q1)の検知領域で立体物22の出現ありと判定されたときには、2つの検知領域の方向φの差が小さいことより(a1、a3、q3、q1)を一つの検知領域とする。検知領域を統合する方向φの範囲は、俯瞰画像30上における立体物22の見かけのサイズに応じてあらかじめ上限を定めておく。
図17(a)および図17(b)は、ステップS9の処理を補足説明するための図であり、符号92は俯瞰画像30上における足元の幅W、符号91は俯瞰画像30上におけるカメラ21の視点31から立体物22の足元までの距離R、符号90は俯瞰画像30上においてカメラ21の視点31から見た立体物22の足元の見かけの角度Ωである。
角度Ω90は、足元の幅W92と距離R91から一意に定まる。足元の幅W92が同じであれば、図17(a)のように立体物22とカメラ21の視点31が近いときは距離R91は小さく角度Ω90は大きくなり、反対に図17(b)のように立体物22とカメラ21の視点31が遠いときには距離R91は大きく角度Ω90は小さくなる。
本発明の立体物出現検知装置は、立体物の中でも人物に近い幅と高さをもつ立体物22を検知の対象とするので、立体物22の空間中における足元の幅の範囲をあらかじめ見積もることができる。よって、空間中の立体物22の足元の幅の範囲とカメラ幾何記録7のキャリブレーションデータから俯瞰画像30上の立体物22の足元の幅W92の範囲をあらかじめ見積もることができる。
このあらかじめ見積もった足元の幅W92の範囲から、足元までの距離R91に対する、足元の見かけの角度Ω90の範囲を計算することができる。ステップS9における検知領域を統合する角度φの範囲は、俯瞰画像30上における検知領域からカメラ21の視点31までの距離と、前記の足元までの距離R91と足元の見かけの角度Ω90の関係を用いて定める。
以上述べたステップS9の検知領域の統合の方法はあくまで一例であり、俯瞰画像30上における立体物22のみかけのサイズに応じた範囲の検知領域を統合する方法であれば、ステップS9の検知領域の統合の方法に適用することができる。例えば、座標分割40において立体物22の出現ありと判定した検知領域の間の距離を計算し、俯瞰画像30上における立体物22のみかけのサイズの範囲で、近接する検知領域あるいは距離が近い検知領域のグループを形成する方法であれば、ステップS9の検知領域の統合の方法に適用することができる。
なお、ステップS5、ステップS6,ステップS7の説明において、図4に示す区間50の間に立体物22が出現した場合でも、検知領域[I]のうち始点51の検知領域[I]内の背景が、終点52の検知領域[I]内の立体物22と近い直交方向特徴成分46、47を持つものは立体物22の出現はないと判定してしまうと述べたが、立体物22のシルエットをふくむ検知領域[I]の範囲内で始点51の背景と終点52の立体物22の間で直交方向特徴成分46、47が異なる場合には、複数の検知領域[I]の判定結果を統合して判定するステップS9において立体物22の出現を検知することができる。
また、ステップS1からステップS8のループ処理の座標分割40については、図6に示した極座標の格子分割はあくまで座標分割40の一例であり、距離ρの方向の座標軸と角度φの方向の座標軸の2つの座標軸をもつ座標系であれば、どんな座標系でも座標分割40に適用することができる。
また、座標分割40の距離ρおよび角度φの分割間隔は任意である。座標分割40の分割間隔を細かくするほど、ステップS4では俯瞰画像30上の局所的な直交方向特徴成分46、47の増分から小さな立体物22の出現を検知できるメリットがある一方で、ステップS9では統合を判定する検知領域の数が多くなり計算量が増えるデメリットがある。なお、座標分割40の分割間隔を最も小さくしたときは、座標分割40の最初の検知領域は俯瞰画像上の1画素となる。
図5のステップS10は、ステップS9で統合した検知領域の数、検知領域ごとの中心位置や中心方向および検知領域とカメラ21の視点31までの距離を計算して出力する。図1において、カメラ幾何記録7は事前に求められた俯瞰画像30におけるカメラ21の視点31および図6の極座標の格子および立体物検出手段6で用いる数値データを蓄積している。また、カメラ幾何記録7は、空間中の点の座標と俯瞰画像30の点の座標を対応付けるキャリブレーションデータを有している。
図1において、警報手段8は、立体物検出手段6が1つ以上の立体物の出現を検知した場合には、画面出力あるいは音声出力のいずれかあるいは両方で運転者に注意を促す警報を出力する。図8は、警報手段8の画面出力の一例であり、符号71は画面表示、70は画面表示71上の立体物22を示す折れ線(枠線)である。図8において、画面表示71は俯瞰画像30のほぼ全体を表示している。折れ線70は、立体物検出手段6が立体物22の出現ありと判定した検知領域、あるいは立体物検出手段6が立体物22の出現ありと判定した検知領域に見栄え上の調整を加えた領域である。
尚、立体物検出手段6は、始点51と終点52の2つの俯瞰画像30から直交方向特徴成分46、47の増分を基準に立体物22を検出する方法をとる。従って、立体物検出手段6は、立体物22の影や自車20の影などの外乱が偶発的にカメラの視線方向33と重ならない限り、立体物22のシルエットを正確に抽出することができる。よって、折れ線70は、大半のケースで立体物22のシルエットに沿って描画され、運転者は折れ線70から立体物22の形状を把握することができる。
図18は、立体物22とカメラ21との距離に応じた折れ線70の変化を説明する図である。まず、立体物22の見かけの角度Ω90は、図17(a)に示したように立体物22がカメラ21の視点31に近いほど大きく、反対に図17(b)に示したように立体物22がカメラ21の視点31から遠いほど小さくなる。この立体物22の角度Ω90の特性と、折れ線70が大半のケースで立体物22のシルエットに沿って描画されることから、折れ線70の幅L93は、図18(a)のように立体物22がカメラ21の視点に近いときほど広くなり、反対に立体物22がカメラ21の視点から遠いときには図18(b)のように狭くなる。よって、運転者は画面表示71上の折れ線70の幅L93から、立体物22とカメラ21の距離感を把握することができる。
なお、警報手段8は、画面表示71において折れ線70の代わりに、俯瞰画像30上の立体物22のシルエットに近い図形を描画してもよい。例えば、折れ線70の代わりに放物線を描画してもよい。
図16は、警報手段8の画面出力の他の一例を示す図である。図16において、画面表示71’は俯瞰画像30上のカメラ21の視点31付近の範囲を表示している。画面表示71と画面表示71’と比べると、画面表示71’は俯瞰画像30上の表示範囲を絞り込むことによって、カメラ21の視点31のすぐ近く、すなわち車両20のすぐ近くの縁石や車止めなどを、運転者が目視しやすいように高い解像度で表示することができる。
なお、車両20に近いところを表示するためには、俯瞰画像30の画角を車両20の近傍に設定して、俯瞰画像30の全体を画面表示71に用いる構成も考えられるが、俯瞰画像30の画角を狭めてしまうと視線方向33に沿った立体物22の伸張が小さくなってしまい、立体物検出手段6は良好な精度で立体物22を検知することが困難となる。例えば、俯瞰画像30の画角を画面表示71’の範囲に狭めた場合には、俯瞰画像30の画角内には立体物22の足元しか入っていないので、図8のように俯瞰画像30の画角内に立体物22の脚部22aから胴体22bまでが入っているときと比べると、立体物22の視線方向33に沿った伸張が小さいので立体物22の検知は困難となる。
警報手段8は、図8あるいは図16に例を示した画面表示71の見易さを更に向上させるために、回転して向きを変える加工や明るさを調整する加工を施してもよい。また、上記した特許文献1に示される構成のように、車両20に2つ以上のカメラ21が取り付けられる場合には、複数のカメラ21の複数の画面表示71を運転者が一目できるように、複数の画面表示71をひとまとめに合成して表示してもよい。
警報手段8の音声出力はビープ音などの警報音のほか、「車両の周囲に何か立体物が出現したようです。」や「車両の周囲に何か立体物が出現したようです。モニタ画面を確認ください。」のように、警報の内容を説明するアナウンス、あるいは警報音とアナウンスの両方であってよい。
本発明の実施例1では以上説明した機能構成により、運転者の注意が車両20の周囲確認から一時的に離れる前後における画像の比較を、俯瞰画像30上の方向特徴成分のうち、カメラ21の視点31からの視線方向と直交した方向の方向特徴成分である直交方向特徴成分の増分により判定することにより、周囲確認が途絶えた間に立体物22が出現したときには警報を出力して、再び車両20を発進させようとする運転者に周囲への注意を喚起することができる。
また、運転者の注意が車両20の周囲確認から一時的に離れる前後の画像の変化を、俯瞰画像30上におけるカメラ21の視点31からの視線方向と直交に近い方向の直交方向特徴成分の増分に絞りこむことにより、自車20の影の変化や日照強度の変化などの出現物以外の誤検知による誤報を抑止することや、立体物22が退去した場合の不必要な誤報を抑止することができる。
本発明の実施例2の機能ブロック図を図9に示す。尚、実施例1と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
図9において画像検知手段10は、画像処理によって車両20周囲の立体物22による画像変化あるいは画像特徴を検知する手段である。画像検知手段10は、現時刻で画像を入力とする手法以外にも、処理周期毎の画像をバッファに格納した画像の時系列を入力とする手法でもよい。
画像検知手段10がとらえる立体物22の画像変化は前提条件をつけてもよく、例えば立体物22が動くことを前提条件として立体物22の全体の移動や手足の動きをとらえる手法であってよい。
画像検知手段10がとらえる立体物22の画像特徴も前提条件をつけてよく、肌の露出があることを前提として肌色を検出する手法であってよい。画像検知手段10の例には、立体物22の全体や部分の動きをとらえるために2時刻の画像間の対応点を探索して求める移動量から移動物を検出する移動ベクトル法や、立体物22の肌色部分を抽出するためにカラー画像の色空間から肌色成分を抽出する肌色検出法があるがこの例に限らない。画像検知手段10は、現時刻あるいは時系列の画像を入力として、画像上の局所単位で検知条件を満たす場合には検知ON、検知条件を満たす場合には検知のOFFを出力する。
図9において動作制御手段4は、画像検知手段10が動作する条件を車両信号取得手段3の信号から判定し、画像検知手段10が動作する条件で立体物検出手段6aに検知判定の信号を送る。画像検知手段10が動作する条件としては、例えば画像検知手段10が移動ベクトル法のときには車両20が停止している間であり、これは車速やパーキング信号から取得できる。なお、画像検知手段10が車両20の走行を通じて常時動作する場合には、図9において車両信号取得手段3および動作制御手段4を省くことができ、このとき立体物検出手段6aは常に検知判定の信号を受け取ったものとして動作する。
図9において立体物検出手段6aは、検知判定の信号を受信すると、図11のフローで立体物22を検出する。図11において、ステップS1からステップS8のループ処理は、図5に示した実施例1と同一の検知領域[I]のループ処理である。図11のフローに示すように、ステップS1からステップS8のループ処理で検知領域[I]を変えながら、ステップS11で画像検知手段10が検知OFFの場合には、検知領域[I]には立体物がないと判定する(ステップS7)。ステップS11の判定が検知ONの場合には、現時刻の俯瞰画像30の方向特徴成分の中からカメラ21の視点31からの視線方向と直交に近い方向の直交方向特徴成分の量を計算する(ステップS3)。
ステップS3で求めたカメラ21の視点31からの視線方向と直交に近い直交方向特徴成分の量、すなわち上記した(3)式で求めたSb+および上記した式(4)で求めたSb−の和が、所定のしきい値以上であるかを判定し(ステップS14)、しきい値以上であれば検知領域[I]に立体物ありと判定し(ステップS16)、しきい値未満であれば検知領域[I]に立体物なし(ステップS17)と判定する。
続くステップS9では、実施例1と同様に複数の検知領域を統合し、ステップS10では立体物22の数および領域情報を出力する。なお、ステップS14の判定は、カメラ21の視点31からの視線方向と直交に近い方向の直交方向特徴成分Sb+とSb−の和をしきい値と比較するほか、カメラ21の視点31からの視線方向と直交に近い方向の直交方向特徴成分Sb+のSb−の最大値のように、カメラ21の視点31からの視線方向と直交する2方向(例えば図7における方向36および方向37)を総合的に評価する方法であれば代替できる。そして、ステップS9では、実施例1と同様に複数の検知領域を統合し、ステップS10では立体物22の数および領域情報を出力する。
図10は俯瞰画像30の一例であり、立体物22、立体物22の影63、支柱62、白線64が写っている。白線64は、カメラ21の視点31から放射方向に伸びている。立体物22および立体物22の影63は、俯瞰画像30上で上方向61に向かって歩行している。画像検知手段10が移動ベクトル法であるケースをとって、図10の状況を入力とした時の図11のフローを説明する。
図10において俯瞰画像30上で立体物22および立体物22の影63の部分では、上方向61への移動により移動ベクトル法は検知ONとなる。よって、検知領域[I]が立体物22および立体物22の影63を含む時、ステップS11の判定はyesとなる。ステップS11の判定がyesとなった後のステップS16の判定においては、立体物22を含む検知領域[I]では立体物22の輪郭がカメラ21の視点31からの視線方向に沿って伸長しているので、方向特徴成分がカメラ21の視点31からの視線方向と交差した成分に集中して判定がyesとなる。
一方、ステップS16の判定において、立体物22の影63は、影63がカメラ21の視点31からの視線方向に沿って伸長しないので判定がnoとなる。よって、図10の場面においてステップS10で検出されるのは立体物22だけとなる。
なお仮に、カメラ21の視点31からの視線方向に沿って伸長する支柱62や白線64をステップS15で判定する状況を考えると、支柱62や白線64ではカメラ21の視点31からの視線方向と直交に近い方向の直交方向特徴成分が集中して増大するのでステップS15における判定結果はyesとなるが、支柱62や白線64では移動量がなく、ステップS15よりも前段のステップS11における判定がnoとなるので、支柱62や白線64を含む検知領域[I]では立体物なしと判定される(S17)。
図10以外の状況で例えば、車両20の周囲で、立体物である草木が風に揺れる場面を想定すると、検知領域[I]が草木を含む時、移動ベクトル法では2時刻の画像間での草木の移動により検知ONとなる(ステップS11でyes)。
しかしながら、草木の背が高くなく、カメラ21の視点31からの視線方向に沿って伸長しなければステップS16の判定はnoとなり、立体物なしと判定される(ステップS17)。その他、画像検知手段10が偶発的に検知ONとなってしまう対象であっても、偶発的に検知ONとなった対象がカメラ21の視点31からの視線方向に沿って伸長しなければ立体物22として検知されることはない。
なお、画像検知手段10の処理の特性上、俯瞰画像30にて立体物22を部分的にしか検知できない場合には、図11のフローにて検知領域[I]あるいは検知領域[I]の近傍の検知領域で画像検知手段10が検知ONとなるように、ステップS11の判定条件を緩めてもよい。また、画像検知手段10の処理の特性上、時系列でみたときに画像検知手段10が断続的にしか立体物22を検知できない場合には、図11のフローにて検知領域[I]にて現時刻あるいは所定の処理周期前までに画像検知手段10が検知ONとなるように、ステップS11の判定条件を緩めてもよい。
また、立体物22が俯瞰画像30上にて移動後に停止する状況のように、画像検知手段10が一度検知ONとなるがその後検知OFFとなり立体物22を見失う場合には、図11のフローにて検知領域[I]にて現時刻あるいは現時刻から所定のタイムアウト時間前までに画像検知手段10が検知ONであるようにステップS11の判定条件を緩めてもよい。
上記の例では、画像検知手段10を移動ベクトル法としたが、他の画像処理の手法でも同様に、画像検知手段10にて検知ONとなったときに、検知ONとなった対象がカメラ21の視点31からの視線方向に沿って伸長しない限り、立体物22以外のものが誤って検出されることを抑止することができる。また、画像検知手段10が検知した対象を見失った後も所定のタイムアウト時間の間、検知ONとなった対象がカメラ21の視点31からの視線方向に沿って伸長するときには立体物22として検出され続ける。
本発明の実施例2では、以上説明した機能構成により、画像処理による画像検知手段10を検知した対象のうち、カメラ21の視点31からの視線方向に沿って伸長するものに選別することで、画像検知手段10が偶発的な外乱のように立体物22以外を検知したときの不要な誤報を削減できる。
また本発明の実施例2では、画像検知手段10が立体物22の影63のように立体物22の周囲の不要な領域を検知した場合でも、警報手段8の画面における立体物22以外の不要な部分を削除して出力することができる。また、実施例2では、画像処理手段10が検知した対象を見失った後も、タイムアウト時間の間、検知ONとなった対象がカメラ21の視点31からの視線方向に沿って伸長していれば、検知を継続することができる。
本発明の実施例3の機能ブロック図を図12に示す。尚、実施例1、2と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
図12においてセンサ12は、車両20の周囲の立体物22を検知するセンサである。センサ12は、少なくとも検知範囲内における立体物22の有無を判定し、立体物22が存在する場合には検知ON、立体物22が存在しない場合には検知OFFを出力する。センサ12の例としては、超音波センサやレーザセンサやミリ波レーダがあるが、この例に限らない。なお、俯瞰画像手段1以外の画角で車両周囲をとらえるカメラ21の画像を入力として、立体物22を検出するカメラ21と画像処理の組み合わせもこのセンサ12に含まれる。
図12において動作制御手段4は、センサ12が動作する条件を車両信号取得手段3の信号から判定し、画像検知手段10が動作する条件で立体物検出手段6bに検知判定の信号を送る。画像検知手段10が動作する条件としては、例えばセンサ12が、車両20の後退時に車両後部の立体物22を検知する超音波センサであり、車両20のギアがバックギヤの状態であれば立体物検出手段6bに検知判定の信号を送る。なお、センサ12が車両20の走行を通じて常時動作する場合には、図12において車両信号取得手段3および動作制御手段4を省くことができ、このとき立体物検出手段6bは常に検知判定の信号を受け取ったものとして動作する。
図12においてセンサ特性記録13は、俯瞰画像取得手段1に画像を入力するカメラ21とセンサ12の空間中の位置や方向の関係およびセンサ12の計測範囲などの特性からあらかじめ計算された、俯瞰画像30上におけるセンサ12の検知範囲を少なくとも記録している。また、センサ12が立体物22の有無の判定に加えて検知した立体物22の距離や方位などの計測情報を出力する場合、センサ特性記録13はあらかじめ計算されたセンサ12の距離や方位などの計測情報と俯瞰画像30上の領域の対応を記録している。
図13は俯瞰画像30の一例であり、符号74はセンサ12の検知範囲を示している。図13では、立体物22が検知範囲74内に入っているがこの例に限らず、立体物22は検知範囲74外の場合もある。図13において検知範囲75は、センサ12が検知ONと検知OFF以外に距離や方位などの計測情報を出力する場合には、センサ特性記録13を参照してセンサ12の距離や方位などの計測情報を変換した俯瞰画像30上の領域である。
図12において立体物検出手段6bは検知判定の信号を受信すると、図14のフローで立体物22を検出する。図14において、ステップS1からステップS8のループ処理は、図5に示した実施例1と同一の検知領域[I]のループ処理である。図14のフローでは、ステップS1からステップS8のループ処理で検知領域[I]を変えながら、ステップS12で検知領域[I]とセンサ12の検知範囲74とが重なりかつセンサ12が検知ONの条件を満たす場合に、ステップS3に進むが、条件を満たさない場合には検知領域[I]に立体物なしと判定する(ステップS17)。
ステップS12の判定がyesの場合のステップS3、ステップS15は実施例2と同一であり、ステップS3で現時刻の俯瞰画像30の方向特徴からカメラ21の視点31からの視線方向と直交に近い直交方向特徴成分を計算したのち、ステップS15ではステップS3で求めたカメラ21の視点31からの視線方向と直交に近い直交方向特徴成分が、しきい値以上であれば検知領域[I]に立体物ありと判定し(ステップS16)、しきい値未満であれば検知領域[I]に立体物なし(ステップS17)と判定する。
センサ12の特性上、センサ12の検知範囲74が俯瞰画像30上の限られた領域しかカバーしない場合、俯瞰画像30上に立体物22が存在している場合でもカメラ21の視点31からの視線方向に沿って伸びる立体物22の一部しか検知できない。
例えば、図13の場合にはセンサ12の検知範囲74は立体物22の足元75しかとらえていない。よって、センサ12の検知範囲74が俯瞰画像30上の限られた領域しかカバーしない場合には、図14のステップS12の判定において、検知領域[I]あるいは検知領域[I]から極座標の距離ρに沿ったどこかの検知領域がセンサ12の検知範囲74とが重なるように、ステップS12の判定条件を緩めてもよい。
例えば、図6の座標分割40における(p1、p2、q2、q1)の検知領域がセンサ12の検知範囲74と重なるならば、(p2、p3、q3、q2)の検知領域が検知範囲74と重ならなくても、ステップS12の判定において(p2、p3、q3、q2)の検知領域と検知領域[I]とが重なりを持つとする。
センサ12の特性上、時系列でみたときにセンサ12が断続的にしか立体物22を検知できない場合には、図14のステップS12の判定にて、検知領域[I]にて現時刻あるいは所定の処理周期前までにセンサ12が検知ONとなるように、ステップS12の判定条件を緩めてもよい。
また、センサ12が一度検知ONとなるがその後検知OFFとなり立体物22を見失う場合には、図14のフローにおいて検知領域[I]にて現時刻あるいは現時刻から所定のタイムアウト時間前までに画像検知手段10が検知ONとなるようにステップS12の判定条件を緩めてもよい。
センサ12が検知ONと検知OFF以外に距離や方位などの計測情報を出力する場合には、検知範囲75を検知範囲74の実効的な領域として、ステップS12において検知領域[I]が検知範囲74内にあることから、検知領域[I]が検知範囲75内にあることに条件を厳しくしてもよい。このようにステップS12において検知領域[I]と検知範囲75を比較する場合には、検知範囲74内に立体物22以外に、図10のような支柱62、白線64が入っていても余分な検知を抑止することができる。
本発明の実施例3では、以上説明した機能構成により、センサ12で検知した対象のうち、カメラ21の視点31からの視線方向に沿って伸長するものに選別することで、立体物22以外の対象の検知あるいは偶発的な外乱の検知を抑止して誤報を減らすことができる。また、画像処理が検知した対象を見失った後も、タイムアウト時間の間検知ONとなった対象がカメラ21の視点31からの視線方向に沿って伸長していれば、検知を継続することができる。
本実施例3では以上説明した機能構成により、センサ12の検知範囲74あるいは検知範囲75から、カメラ21の視点31からの視線方向に沿って伸長する領域を選別することで、センサ12が偶発的な外乱のように立体物以外を検知したときの不要な誤報を削減することができる。また、本実施例3では、センサ12が俯瞰画像30上の限られた立体物周囲の不要な領域を検知した場合でも、図8の画面における立体物以外の不要な部分を削除して出力することができる。
また、本実施例3では、検知領域[I]と検知範囲74の重なりを座標格子40の極座標に沿ってどこかで重なるというように判定条件を緩めることによって、領域センサ12の検知範囲74が俯瞰画像30上において狭い場合でも、立体物22の全体像を検出することができる。
本発明によれば、運転者の注意が車両20の周囲確認から離れる区間50の前後の画像(例えば俯瞰画像30a、30b)の方向特徴成分の量を比較して立体物22の出現を検出するので、車両20が停止した状況でも車両周囲の立体物22を検出することができる。また、単一のカメラ21により立体物22の出現を検知することができる。そして、立体物22が退出した場合の不必要な警報を抑止できる。また、方向特徴成分のうち、直交方向特徴成分を用いることで、日照の揺らぎや影の移動のような偶発的な画像の変化による誤報を抑止することができる。
尚、本発明は、上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
実施例1における立体物出現検知装置の機能ブロック図。 俯瞰画像取得手段が俯瞰画像を取得する状態を示す図。 方向特徴成分抽出手段による明暗勾配方向角度の算出方法を示す図。 動作制御手段が取得するタイミングを示す図。 実施例1の立体物検出手段による処理を示すフローチャート。 立体物検出手段による検知領域を説明する図。 検知領域内の方向特徴成分の分布特性を説明する図。 警報手段8の出力画面の一例を示す図。 実施例2における立体物出現検知装置の機能ブロック図。 俯瞰画像取得手段によって取得された俯瞰画像の一例を示す図。 実施例2の立体物検出手段による処理を示すフローチャート。 実施例3における立体物出現検知装置の機能ブロック図。 俯瞰画像取得手段によって取得された俯瞰画像の一例を示す図。 実施例3の立体物検出手段による処理。 ステップS9の処理を説明する図 警報手段8の画面出力の他の一例を示す図。 ステップS9の処理を補足説明するための図。 立体物とカメラとの距離に応じた折れ線の描画の変化を説明する図。
符号の説明
1 俯瞰画像取得手段
2 方向特徴成分抽出手段
3 車両信号取得手段
4 動作制御手段
5 記憶手段
6 立体物検出手段
7 カメラ幾何記録
8 警報手段
10 画像検知手段
12 センサ
20 車両
21 カメラ
22 立体物
30 俯瞰画像
31 視点
32 像
33 視線方向
40 座標格子
46、47 直交方向特徴成分
50 区間
51 始点
52 終点

Claims (10)

  1. 車両に搭載されたカメラで撮像した俯瞰画像に基づいて車両周辺における立体物の出現を検知する立体物出現検知装置において、
    前記俯瞰画像から該俯瞰画像上でかつ前記カメラの視線方向に直交に近い方向の直交方向特徴成分を抽出し、該抽出した直交方向特徴成分の量に基づいて前記立体物の出現を検知することを特徴とする立体物出現検知装置。
  2. 車両に搭載されたカメラで撮像した俯瞰画像に基づいて車両周辺における立体物の出現を検知する立体物出現検知装置において、
    前記カメラで所定の時間間隔をおいて撮像した複数の俯瞰画像を取得する俯瞰画像取得手段と、
    該俯瞰画像取得手段により取得した俯瞰画像から該俯瞰画像上でかつ前記車載カメラの視線方向に直交に近い方向の方向特徴成分である直交方向特徴成分を抽出する方向特徴成分抽出手段と、
    該方向特徴成分抽出手段により抽出した直交方向特徴成分の量を前記複数の俯瞰画像同士で比較して、前記直交方向特徴成分の増分が予め設定された閾値以上のときは前記立体物の出現ありと判定する立体物検出手段と、
    を有することを特徴とする立体物出現検知装置。
  3. 車両に搭載されたカメラで撮像した俯瞰画像に基づいて車両周辺における立体物の出現を検知する立体物出現検知装置において、
    前記車両の制御装置と前記車両に搭載された情報装置のいずれか一つ以上から信号を取得する車両信号取得手段と、
    前記車両信号取得手段からの信号に基づいて前記車両の運転者による注意が前記車両の周囲確認から離れる区間の始点と終点を認識する動作制御手段と、
    該動作制御手段からの情報に基づいて前記カメラで所定の時間間隔をおいて撮像した複数の俯瞰画像を取得する俯瞰画像取得手段と、
    該俯瞰画像取得手段により取得した俯瞰画像から該俯瞰画像上でかつ前記車載カメラの視線方向に直交に近い方向の方向特徴成分である直交方向特徴成分を抽出する方向特徴成分抽出手段と、
    該方向特徴成分抽出手段により抽出した直交方向特徴成分の量を前記複数の俯瞰画像同士で比較して、前記直交方向特徴成分の増分が予め設定された閾値以上のときは前記立体物の出現ありと判定する立体物検出手段と、
    を有することを特徴とする立体物出現検知装置。
  4. 車両に搭載されたカメラで撮像した俯瞰画像に基づいて車両周辺における立体物の出現を検知する立体物出現検知装置において、
    前記俯瞰画像を取得する俯瞰画像取得手段と、
    該俯瞰画像取得手段により取得した俯瞰画像を画像処理することによって前記立体物による画像変化あるいは画像特徴を検知する画像検知手段と、
    該画像検知手段により検知した前記画像変化あるいは画像特徴が予め設定された条件を満たす場合に、前記俯瞰画像取得手段により取得した俯瞰画像から該俯瞰画像上でかつ前記車載カメラの視線方向に直交に近い方向の方向特徴成分である直交方向特徴成分を抽出する方向特徴成分抽出手段と、
    該方向特徴成分抽出手段により抽出した直交方向特徴成分の量に基づいて前記立体物の出現を検出する立体物検出手段と、
    を有することを特徴とする立体物出現検知装置。
  5. 前記画像検知手段は、検知した立体物を見失った場合にも、前記立体物検出手段による前記立体物の検出を継続することを特徴とする請求項4に記載の立体物出現検知装置。
  6. 車両に搭載されたカメラで撮像した俯瞰画像に基づいて車両周辺における立体物の出現を検知する立体物出現検知装置において、
    前記俯瞰画像を取得する俯瞰画像取得手段と、
    前記車両の周囲に存在する立体物を検出するセンサと、
    該センサによって前記立体物を検出した場合に、前記俯瞰画像取得手段により取得した俯瞰画像から該俯瞰画像上でかつ前記車載カメラの視線方向に直交に近い方向の方向特徴成分である直交方向特徴成分を抽出する方向特徴成分抽出手段と、
    該方向特徴成分抽出手段により抽出した直交方向特徴成分の量に基づいて前記立体物の出現を検出する立体物検出手段と、
    を有することを特徴とする立体物出現検知装置。
  7. 前記立体物検出手段により前記立体物の出現ありと判定された場合に、警報を発する警報手段を有することを特徴とする請求項2から請求項5のいずれか一項に記載の立体物出現検知装置。
  8. 前記警報手段は、前記俯瞰画像とともに前記立体物のシルエットを示す枠線を画面表示することを特徴とすることを特徴とする請求項7に記載の立体物出現検知装置。
  9. 前記警報手段は、前記カメラと前記立体物との距離に応じて前記枠線の大きさを変更することを特徴とする請求項8に記載の立体物出現検知装置。
  10. 前記警報手段は、前記俯瞰画像取得手段により取得した俯瞰画像を、より画角が狭い俯瞰画像に変換して画像表示することを特徴とする請求項7から請求項9のいずれか一項に記載の立体物出現検知装置。
JP2008312642A 2008-12-08 2008-12-08 立体物出現検知装置 Expired - Fee Related JP4876118B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008312642A JP4876118B2 (ja) 2008-12-08 2008-12-08 立体物出現検知装置
PCT/JP2009/070457 WO2010067770A1 (ja) 2008-12-08 2009-12-07 立体物出現検知装置
US13/133,215 US20110234761A1 (en) 2008-12-08 2009-12-07 Three-dimensional object emergence detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008312642A JP4876118B2 (ja) 2008-12-08 2008-12-08 立体物出現検知装置

Publications (2)

Publication Number Publication Date
JP2010134878A true JP2010134878A (ja) 2010-06-17
JP4876118B2 JP4876118B2 (ja) 2012-02-15

Family

ID=42242757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008312642A Expired - Fee Related JP4876118B2 (ja) 2008-12-08 2008-12-08 立体物出現検知装置

Country Status (3)

Country Link
US (1) US20110234761A1 (ja)
JP (1) JP4876118B2 (ja)
WO (1) WO2010067770A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137767A (ja) * 2011-12-27 2013-07-11 Harman International (China) Holdings Company Ltd 障害物検出方法及び運転者支援システム
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置
WO2015146230A1 (ja) * 2014-03-27 2015-10-01 クラリオン株式会社 映像表示装置および映像表示システム
US9645236B2 (en) 2013-08-22 2017-05-09 Denso Corporation Target detection apparatus and program
US20210291853A1 (en) * 2020-03-20 2021-09-23 Alpine Electronics, Inc. Vehicle image processing device

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8870950B2 (en) 2009-12-08 2014-10-28 Mitral Tech Ltd. Rotation-based anchoring of an implant
KR20120072131A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 이미지 센서와 거리센서의 데이터 융합에 의한 상황인식 방법 및 그 장치
KR101275823B1 (ko) * 2011-04-28 2013-06-18 (주) 에투시스템 복수의 카메라를 이용한 3차원 물체 검출장치 및 방법
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
US9598836B2 (en) 2012-03-29 2017-03-21 Harnischfeger Technologies, Inc. Overhead view system for a shovel
US9726883B2 (en) * 2012-07-27 2017-08-08 Nissan Motor Co., Ltd Three-dimensional object detection device and foreign matter detection device
MX341888B (es) 2012-07-27 2016-09-07 Nissan Motor Dispositivo de deteccion de objetos tridimensionales.
JP6009894B2 (ja) * 2012-10-02 2016-10-19 株式会社デンソー キャリブレーション方法、及びキャリブレーション装置
JP6271917B2 (ja) * 2013-09-06 2018-01-31 キヤノン株式会社 画像記録装置及び撮像装置
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
WO2015090739A1 (de) * 2013-12-18 2015-06-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren und system zum beladen eines kraftfahrzeugs
JP6178280B2 (ja) * 2014-04-24 2017-08-09 日立建機株式会社 作業機械の周囲監視装置
DE102014013432B4 (de) * 2014-09-10 2016-11-10 Audi Ag Verfahren zur Verarbeitung von Umgebungsdaten in einem Fahrzeug
JP6160634B2 (ja) * 2015-02-09 2017-07-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
KR102551099B1 (ko) * 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
EP4123337A4 (en) * 2020-03-26 2023-04-12 Huawei Technologies Co., Ltd. TARGET DETECTION METHOD AND APPARATUS

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221871A (ja) * 2003-01-14 2004-08-05 Auto Network Gijutsu Kenkyusho:Kk 車輌周辺監視装置
JP2006253872A (ja) * 2005-03-09 2006-09-21 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
JP2008048094A (ja) * 2006-08-14 2008-02-28 Nissan Motor Co Ltd 車両用映像表示装置及び車両周囲映像の表示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3401913B2 (ja) * 1994-05-26 2003-04-28 株式会社デンソー 車両用障害物認識装置
EP1179958B1 (en) * 1999-04-16 2012-08-08 Panasonic Corporation Image processing device and monitoring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004221871A (ja) * 2003-01-14 2004-08-05 Auto Network Gijutsu Kenkyusho:Kk 車輌周辺監視装置
JP2006253872A (ja) * 2005-03-09 2006-09-21 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
JP2008048094A (ja) * 2006-08-14 2008-02-28 Nissan Motor Co Ltd 車両用映像表示装置及び車両周囲映像の表示方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137767A (ja) * 2011-12-27 2013-07-11 Harman International (China) Holdings Company Ltd 障害物検出方法及び運転者支援システム
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置
US9798002B2 (en) 2012-11-22 2017-10-24 Denso Corporation Object detection apparatus
US9645236B2 (en) 2013-08-22 2017-05-09 Denso Corporation Target detection apparatus and program
WO2015146230A1 (ja) * 2014-03-27 2015-10-01 クラリオン株式会社 映像表示装置および映像表示システム
US20210291853A1 (en) * 2020-03-20 2021-09-23 Alpine Electronics, Inc. Vehicle image processing device
US11661004B2 (en) * 2020-03-20 2023-05-30 Alpine Electronics, Inc. Vehicle image processing device

Also Published As

Publication number Publication date
WO2010067770A1 (ja) 2010-06-17
JP4876118B2 (ja) 2012-02-15
US20110234761A1 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
JP4876118B2 (ja) 立体物出現検知装置
US8810653B2 (en) Vehicle surroundings monitoring apparatus
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US10099614B2 (en) Vision system for vehicle
JP4919036B2 (ja) 移動物体認識装置
JP4173901B2 (ja) 車両周辺監視装置
US7710246B2 (en) Vehicle driving assist system
JP4173902B2 (ja) 車両周辺監視装置
US9177196B2 (en) Vehicle periphery monitoring system
KR101967305B1 (ko) 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
US9165197B2 (en) Vehicle surroundings monitoring apparatus
JP5904925B2 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP2013239015A (ja) 駐車支援装置、駐車支援方法およびプログラム
JP2006338594A (ja) 歩行者認識装置
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
JP2008262333A (ja) 路面判別装置および路面判別方法
JP2012198857A (ja) 接近物体検知装置及び接近物体検知方法
JP2010026601A (ja) 車両周辺監視装置
KR101491305B1 (ko) 장애물 검출 장치 및 방법
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
CN104931024B (zh) 障碍物检测装置
JP4629638B2 (ja) 車両の周辺監視装置
JP2007278869A (ja) 測距装置、車両の周辺監視装置、測距方法、および測距用プログラム
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4876118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees