JP5722643B2 - 物体検出装置、および、物体検出方法 - Google Patents

物体検出装置、および、物体検出方法 Download PDF

Info

Publication number
JP5722643B2
JP5722643B2 JP2011014921A JP2011014921A JP5722643B2 JP 5722643 B2 JP5722643 B2 JP 5722643B2 JP 2011014921 A JP2011014921 A JP 2011014921A JP 2011014921 A JP2011014921 A JP 2011014921A JP 5722643 B2 JP5722643 B2 JP 5722643B2
Authority
JP
Japan
Prior art keywords
image
vehicle
lane
detected
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011014921A
Other languages
English (en)
Other versions
JP2012153285A (ja
Inventor
山本 徹夫
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2011014921A priority Critical patent/JP5722643B2/ja
Publication of JP2012153285A publication Critical patent/JP2012153285A/ja
Application granted granted Critical
Publication of JP5722643B2 publication Critical patent/JP5722643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両周辺の物体の物体像を検出する技術に関する。
従来、車両に備えられたカメラの撮影画像中の物体の物体像を検出した場合、車両に接近して車両と接触する可能性のある物体が存在するとして車両のユーザに物体の接近を報知するなどの車両に所定動作を行わせる技術がある。なお、本発明と関連する技術を説明する資料としては特許文献1がある。
特許第2701651号公報
しかしながら、物体像を検出する領域が車両が走行中の自車線に対応する自車線領域以外の領域(例えば、自車線に隣接する車線領域)を含むことで、車両に接触する可能性のない物体を検出することがあった。つまり、単に隣接車線を走行する他車両が検出された場合も車両に所定動作を行わせることとなり、本来車両と接触する可能性のある物体として検出する必要のない対象を検出して車両に所定動作を行わせる場合があった。
また、車両に接触する可能性のない物体の物体像の検出を行わないようにするために、撮影画像中の自車線領域のみを物体像の検出領域とすると、車両と自車線領域内の物体との距離が近づいた場合に、車両と自車線領域内の物体との距離が離れている場合と比べて物体像が拡大される。その結果、車両に接近する物体の物体像が自車線領域からはみ出してしまい、自車線領域の物体の物体像を検出できない場合があった。
本発明は、上記課題に鑑みてなされたものであり、車両に接近して車両と接触する可能性のある物体を正確に検出する技術を提供することを目的とする。
上記課題を解決するために、請求項1の発明は、車両の直進方向及び直進方向の逆方向のいずれかに略沿って光軸を向けた車載カメラの撮影画像を取得する取得手段と、前記撮影画像中の前記車両に接近する物体の物体像を検出する第1検出手段と、前記第1検出手段に検出された前記物体像のうち、前記撮影画像中の前記車両が走行中の車線に対応する自車線領域に像全体の所定割合を超える部分が含まれる物体像を注目物体像として検出する第2検出手段と、を備え、前記第2検出手段は、前記第1検出手段に検出された前記物体像から、前記自車線領域の外部に像全体の所定割合を超える部分が含まれる物体像を除外する除外手段と、前記第1検出手段に検出された前記物体像のうち、前記除外手段が除外した後に残った物体像を前記注目物体像として特定する特定手段と、を有する
また、請求項2の発明は、請求項1に記載の物体検出装置において、前記第1検出手段は、所定時間ごとに撮影される複数の撮影画像において大きさが拡大する物体像を検出する
また、請求項3の発明は、請求項1または2に記載の物体検出装置において、前記第1検出手段は、前記撮影画像中の略左右中央にある特定領域に含まれる物体像を検出する。
また、請求項4の発明は、請求項1ないし3のいずれかに記載の物体検出装置において、前記撮影画像中の前記車線を規定する区画線のライン像を検出する第3検出手段、
をさらに備え、前記第2検出手段は、前記ライン像の形状に応じて前記自車線領域の範囲を変更する。
また、請求項5の発明は、(a)車両の直進方向及び直進方向の逆方向のいずれかに略沿って光軸を向けた車載カメラの撮影画像を取得する工程と、(b)前記撮影画像中の前記車両に接近する物体の物体像を検出する工程と、(c)前記工程(b)により検出された前記物体像のうち、前記撮影画像中の前記車両が走行中の車線に対応する自車線領域に像全体の所定割合を超える部分が含まれる物体像を注目物体像として検出する工程と、を備え、前記工程(c)は、前記工程(b)により検出された前記物体像から、前記自車線領域の外部に像全体の所定割合を超える部分が含まれる物体像を除外する工程と、前記工程(b)により検出された前記物体像のうち、前記除外手段が除外した後に残った物体像を前記注目物体像として特定する工程と、を有する
請求項1ないし6の発明によれば、第1検出手段に検出された物体像のうち、撮影画像中の車両が走行中の車線に対応する自車線領域に像全体の所定割合を超える部分が含まれる物体像である注目物体像が検出された場合に、その旨を示す信号を出力することで、車両に接触する可能性のある物体を正確に検出できる。
また、特に請求項2の発明によれば、第2検出手段が、第1検出手段に検出された物体像から、自車線領域の外部に像全体の所定割合を超える部分が含まれる物体像を除外して、第1検出手段に検出された物体像のうち、除外手段が除外した後に残った物体像を注目物体像として特定することで、車両に接触する可能性のない物体を除外することができる。
また、特に請求項3の発明によれば、第1検出手段は、所定時間ごとに撮影される複数の撮影画像において大きさが拡大する物体像を検出することで、車両に接近する物体を検出対象とすることができ、車両に接触する可能性のある物体を正確に検出できる。
また、特に請求項4の発明によれば、第1検出手段が、撮影画像中の略左右中央にある特定領域に含まれる物体像を検出することで、検出すべき対象範囲を狭くすることができ、物体を検出する処理負荷を軽減できる。
さらに、特に請求項5の発明によれば、第2検出手段は、ライン像の形状に応じて自車線領域の範囲を変更することで、自車線の物体を正確に検出できる。
図1は、第1の実施の形態の物体検出システムのブロック図である。 図2は、車載カメラが車両に配置される位置を示す図である。 図3は、バックカメラの撮影画像を示す図である。 図4は、画像中の検出領域を示す図である。 図5は、車両が走行中の車線に対応する領域を示す図である。 図6は、バックカメラにより走行中の車両の後方を撮影した撮影画像を示す図である。 図7は、バックカメラが画像を撮影した後、所定時間後にバックカメラにより連続的に撮影された撮影画像を示す図である。 図8は、領域内に含まれる物体像を示す図である。 図9は、第1の実施の形態の処理フローチャートである。 図10は、第1の実施の形態の処理フローチャートである。 図11は、第1の実施の形態の画像処理装置の処理フローチャートである。 図12は、第2の実施の形態の処理フローチャートである。 図13は、第2の実施の形態の処理フローチャートである。 図14は、第3の実施の形態の物体検出システムのブロック図である。 図15は、バックカメラの撮影画像を示す図である。 図16は、ライン像の形状に応じた領域の領域を示す図である。 図17は、第3の実施の形態の処理フローチャートである。 図18は、第3の実施の形態の処理フローチャートである。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.システム構成>
図1は、物体検出システム120のブロック図である。この物体検出システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両9(図2に示す。)の周辺を撮影して画像を生成し、その生成した画像に基づいて、車両9に接近して接触する可能性のある物体の物体像(以下、「注目物体像」ともいう。)を検出する。そして、注目物体像が検出された旨の信号をナビゲーション装置20に出力してユーザに報知する。また、車両ECU84に信号を出力して車両9のハザードランプ、および、ブレーキランプなどを点滅させて、車両9に接近する他の車両のユーザに車両の接近を報知する。これにより車両9のユーザ(代表的にはドライバ)の安全を確保する。
図1に示すように、物体検出システム120は、車両の周囲を撮影するカメラを備えている撮影部5と、撮影部5で取得された撮影画像を処理する画像処理装置100とを主に備えている。
撮影部5は車両9に搭載されたカメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。なお、各カメラの車両9への搭載位置などの説明は後述する。
<1−2.画像処理装置>
画像処理装置100は、本体部10が撮影画像中の注目物体像を検出してその旨の信号を出力する機能を有するECU(Electronic Control Unit)であり、車両の所定の位置に配置される。
画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して注目物体像を検出する画像処理部3を主に備えている。
画像処理部3は、各種の画像処理が可能なハードウェア回路として構成されており、画像取得部31、物体検出部32、出力検出部33、および、画像送信部34を主な機能として備えている。
画像取得部31は、車両9の周辺を撮影する撮影部5の複数の車載カメラ51、52、53、54で取得された複数の撮影画像を取得する。
物体検出部32は、撮影画像中の車両9に接近する物体の物体像を検出する。つまり、撮影部5により所定時間ごとに撮影される複数の撮影画像において大きさが拡大する物体像を車両9に接近する物体像として検出する。物体像の検出はエッジ検出により行われ、撮影画像中のエッジに囲まれた領域に物体像が存在することを検出する。
なお、物体検出部32が物体像を検出する範囲は、撮影画像中の全体としてもよいし、撮影画像中の所定領域としてもよい。所定領域の例は、撮影画像中の略左右中央にある特定領域であり、具体的には車両9が走行中の車線に対応する自車線領域(例えば、図5に示す自車線領域ME)と、その外部(例えば、図5に示す除外領域NE)とを含む領域(例えば、図5に示す物体検出領域SA)である。このような所定領域は。後述する不揮発性メモリ40に領域データ4bとして記録されており、物体検出部32が物体像を検出する場合に画像制御部11が不揮発性メモリ40から読み出す処理を行う。
出力検出部33は、物体検出部32により検出された物体像のうち、自車線領域MEに像の全体の所定割合(例えば5割)を超える部分が含まれる物体像を注目物体像として検出する。つまり、車両9に接近する物体像のうち、車両9が走行中の車線に対応する自車線領域MEに物体像の一部分でなく多くの部分が含まれる場合に車両9と接触する可能性のある物体の物体像として出力検出部33が検出する。
画像送信部34は、画像処理部3で生成された画像情報をナビ通信部41を介してナビゲーション装置20に出力する。なお、画像の生成は、画像制御部11の指示信号により画像処理部3が行う。
制御部1は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部11、および、制御指示部12は、このようにして実現される制御部1の機能のうちの一部を示している。
画像制御部11は、画像処理部3によって実行される画像処理を制御する。例えば、撮影部5により撮影された撮影画像中の注目物体像を検出する処理を指示する。また、画像制御部11は、画像処理部3により生成される画像の生成に必要な各種パラメータなどを指示する。
制御指示部12は、画像処理部3の処理により注目物体像が検出された場合にその旨を示す信号をナビゲーション装置20、および、車両ECU84の少なくとも一つに出力する指示を行う。制御指示部12からの信号を受信したナビゲーション装置20は、車両9のユーザに車両9に接近して接触する可能性のある物体が存在することを音声や画像などを用いて報知する。
また、制御指示部12からの信号を受信した、車両ECU84は車両9のハザードランプおよびブレーキランプなどを点灯させて、車両9に接近している他の車両のユーザに対して車両の接近を報知する。
画像処理装置100の本体部10は、不揮発性メモリ40、ナビ通信部41、および、信号入出力部42をさらに備えており、これらは制御部1に接続されている。
不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、画像処理部3が画像を生成する際に必要となる車両の種別に応じたデータなどである。例えばカメラの設置位置、および、カメラの設置角度など情報である。
また、不揮発性メモリ40には領域データ4bが記録されている。領域データ4bは、画像処理部3が撮影画像中の物体像を検出する際に用いられるデータであり、物体検出領域SA「以下、「検出領域SA」ともいう。」などのデータが記録されている。
ナビ通信部41は、画像処理装置100がナビゲーション装置20との間で通信を行うための入出力のインターフェースである。
信号入出力部42は、車両9に設けられた各種装置からの信号の入出力を行う際のインターフェースである。
シフトセンサ81は、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。
ジャイロセンサ82は、車両9の傾き変化の速度(角速度)の信号を制御部1に出力する。制御部1はジャイロセンサ82から受信した信号により車両9の傾き変化を導出する。
操舵角センサ83は、ユーザが操作したステアリングホイールの操作方向を制御部1に出力する。詳細には、操舵角センサ83は、ユーザが操作したステアリングホイールの回転方向、回転角度、及び、回転速度を信号入出力部42を介して制御部1に出力する。
車両ECU84は、車両本体の制御を行うECUであり、制御指示部12からの信号に基づいて、車両9のハザードランプ、および、ブレーキランプの少なくとも一つを点滅させるなどの車両動作の制御を行う。
<1−3.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。これらの車載カメラ51、52、53、54はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。
図2は、車載カメラ51、52、53、54が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。これにより、車両9の進行方向、および、進行方向とは逆方向の少なくとも一の方向の撮影画像を取得する。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を車両9の上側とする。
フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に略沿って向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に略沿って向けられている。また、左サイドカメラ53は、左のドアミラー93に設けられており、その光軸53aは車両9の左方向(平面視で+X軸方向)に沿って外部に向けられている。さらに、右サイドカメラ54は、右のドアミラー94に設けられており、その光軸54aは車両9の右方向(平面視で−X軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
これらの車載カメラ51、52、53、54のレンズとしては魚眼レンズなどが採用されており、車載カメラ51、52、53、54は180度以上の画角αを有している。このため、4つの車載カメラ51、52、53、54を利用することで、車両9の全周囲の撮影が可能となっている。
<1−4.ナビゲーション装置>
ナビゲーション装置20は、主にユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。
ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100により生成された車両の周辺の様子を示す周辺画像が表示される。また、ディスプレイ21に表示される撮影部5により撮影された画像は車両9の周辺領域をほぼリアルタイムに示すことになる。これにより、ナビゲーション装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。
また、画像処理部3により注目物体像が検出された旨の信号を制御指示部12からナビ通信部41を介してナビゲーション装置20が受信した場合は、車両9に物体が接近している旨の報知(例えば、画像および音声の少なくとも一つを用いた報知)を車両9のユーザに行う。
また、ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部41によって受け付けられて制御部1に入力される。
<1−5注目物体像の検出>
以下では、画像処理部3で行われる注目物体像の検出処理について説明する。図中の撮影画像はバックカメラ52により撮影された画像である。図3は、バックカメラ52の撮影画像ph(以下、「画像ph」ともいう。)を示す図である。画像phはバックカメラ52により撮影され、画像処理部3の画像取得部31により取得される。
画像ph中には略中央に車両9が走行中の車線に対応する自車線像ML、向かって左側に隣接車線像AL1、向かって右側に隣接車線像AL2が映し出されている。そして、自車線像MLと隣接車線像AL1との間には車線を規定する区画線のライン像LAが映し出されている。また、自車線像MLと隣接車線像AL2との間には車線を規定する区画線のライン像LBが映し出されている。
図4は、画像ph中の検出領域SAを示す図である。検出領域SAは、画像ph中の略左右中央にある領域に含まれる物体像を検出する矩形の領域である。つまり、検出領域SAは、自車線像ML、隣接車線像AL1、および、隣接車線像AL2のそれぞれの車線上に存在する物体像を検出可能な領域である。このように画像phの全領域のうち物体像を検出する領域を特定領域(検出領域SA)に限定することで、物体像を検出する際の画像処理装置100の処理負荷が軽減できる。なお、検出領域SAの範囲を自車線像MLおよび隣接車線像AL1およびAL2の領域に限らず、画像phの全体領域と同じ範囲とすることも可能である。以下では、物体像を検出する範囲を検出領域SAとした場合について説明を行う。
図5は、車両9が走行中の車線に対応する自車線領域MEを示す図である。自車線領域MEは検出領域SA内にあり、ライン像LAおよびLBに囲まれた領域である。また、自車線領域MEは出力検出部33が注目物体像を検出する領域であり、画像制御部11の指示信号に基づいて不揮発性メモリ40に記録された領域データ4bが読み出され、自車線領域MEが設定される。そして、検出領域SA内に車両9に接近する物体の物体像が存在し、当該物体像全体のうち所定割合を超える部分が自車線領域MEに含まれる物体像を出力検出部33が注目物体像として検出する。以下に示す図6〜図8では注目物体像の具体的な検出の方法について説明する。
図6は、バックカメラ52により走行中の車両9の後方を撮影した撮影画像ph1(以下、「画像ph1」ともいう。)を示す図である。画像ph1を画像取得部31が取得する。そして、画像制御部11の指示信号に基づいて領域データ4bが読み出され、撮影画像中に設定された検出領域SA内の物体像を物体検出部32が検出する。図6に示すように検出領域SA内には車両9と同一車線(自車線像ML)上で、車両9の後方を走行する車両像RCと、隣接車線(隣接車線像AL1)上で、車両9の後方を走行する車両像ACとが存在する。
車両像RCおよび車両像ACの物体像はエッジ検出処理により検出される。つまり、エッジに囲まれた領域がそれぞれの車両の物体像として物体検出部32により検出される。そして、画像ph1中の車両像RCに対応する物体領域de11に物体像が存在するとして物体検出部32に検出され、車両像ACに対応する物体領域de12に物体像が存在するとして物体検出部32に検出される。
図7は、バックカメラ52が図6の画像ph1を撮影した後、所定時間後(例えば1秒後)にバックカメラ52により連続的に撮影された撮影画像ph2(以下、「画像ph2」ともいう。)を示す図である。画像ph2はバックカメラ52が撮影した撮影画像を画像取得部31が取得したものである。画像ph2に画像制御部11の指示信号に基づいて領域データ4bが読み出され、設定された検出領域SA内の物体像を物体検出部32が検出する。図7に示す検出領域SA内には、画像ph1と同様に車両像RCおよび車両像ACが映し出されており、車両像RCおよび車両像ACをエッジ検出により物体検出部32が検出する。
そして、車両像RCに対応する領域が物体領域de21として物体検出部32により検出され、車両像ACに対応する領域が物体領域de22として物体検出部32により検出される。ここで、時間的に連続する画像ph1と画像ph2とはそれぞれ同一の物体像を検出している。そして、過去(画像ph1)に検出した物体像と比べて今回(画像ph2)検出した車両像を含む領域の大きさが拡大している。つまり、画像ph1の車両像RCに対応する物体領域de11よりも画像ph2の車両像RCに対応する物体領域de21の領域の面積が大きい。また、画像ph1の車両像ACに対応する物体領域de12よりも画像ph2の車両像ACに対応する物体領域de22の領域の面積が大きい。
このように所定時間ごとに撮影される連続した複数の撮影画像において大きさが拡大する物体像を物体検出部32が検出した場合、車両9に接近する物体の物体像が存在するとしてこれらの物体像を検出する。なお、このような車両に接近する物体の物体像の検出は、上述のように時間的に連続する2つの撮影画像に基づいて行う以外に、時間的に連続する3つ以上の撮影画像に基づいて行ってもよい。
図8は、自車線領域ME内に含まれる物体像を示す図である。物体検出部32により車両9に接近する物体の物体像として検出された車両像RCおよび車両像ACが、自車線領域MEに所定割合(例えば5割)を超える部分が含まれている場合は出力検出部33がこれら車両像を注目物体像として検出する。つまり、物体検出部32により車両9に接近する物体像が検出されると、画像制御部11の指示信号に基づいて、不揮発性メモリ40から領域データ4bが読み出される。そして、設定された自車線領域MEに物体像の所定割合を超える部分が含まれる場合に出力検出部33が注目物体像を検出する。
図8では車両像RCは、検出領域SA内で自車線領域MEの外部の領域である除外領域NEに像の一部が含まれているが、自車線領域ME内に車両像RCの5割を超える部分が含まれている。そのため、自車線領域ME内に含まれている車両像RCを注目物体像として出力検出部33が検出する。また、車両像ACは自車線領域MEに含まれておらず、車両像の全部が自車線領域MEの外部の除外領域NEに含まれることから、出力検出部33は注目物体像として検出しない。
そして、出力検出部33が注目物体像を検出した場合、制御指示部12がナビ通信部41、および、信号入出力部42を介して、注目物体像が検出された旨の信号をナビゲーション装置20、および、車両ECU84に出力する。このように、車両9に接触する可能性のある物体を正確に検出して、車両9に所定動作をさせることで、車両9のユーザの安全を確保できる。
<1−6.処理フローチャート>
図9および図10は、第1の実施の形態の画像処理装置100の処理の流れを示す処理フローチャートである。画像処理装置100は、車両9の撮影部5のカメラ画像を取得して(ステップS101)、ステップS102の処理に進む。
ステップS102では、画像処理装置100は領域データ4bの検出領域SAの範囲を走査し、領域中の物体像の検出処理を行い(ステップS102)、ステップS103の処理に進む。
ステップS103では、時間的に連続する撮影画像中に車両9に接近する物体の物体像が検出されているか否かを判定する(ステップS103)。時間的に連続する撮影画像中に車両9に接近する物体が検出された場合(ステップS103がYes)は、ステップS104の処理に進む。なお、時間的に連続する撮影画像中に車両9に接近する物体の物体像が検出されていない場合(ステップS103がNo)は、処理を終了する。処理終了後は図9のステップS101戻り、以降の処理を繰り返し行う。
ステップS104では、検出された接近物体の物体像の全部が自車線領域MEに含まれる場合(ステップS104がYes)は、ステップS106の処理に進み、注目物体像が検出された旨の信号を画像処理装置100がナビゲーション装置20、および、車両ECU84の少なくとも一つに出力する(ステップS106)。
ステップS104において、検出された接近物体の物体像の全体が自車線領域MEに含まれない場合(ステップS104がNo)は、ステップS105に進む。
ステップS105では、接近物体の物体像の5割を超える部分が自車線領域MEに含まれる場合(ステップS105がYes)は、ステップS106の処理に進み、注目物体が検出された旨の信号を画像処理装置100がナビゲーション装置20、および、車両ECU84の少なくとも一つに出力する(ステップS106)。
なお、ステップS105で接近物体の物体像の5割を超える部分が自車線領域MEに含まれない場合(ステップS105がNo)は処理を終了する。
<第2の実施の形態>
<2−1.画像処理装置>
次に、第2の実施の形態について説明する。第2の実施の形態における物体検出システム120aの構成・処理は、第1の実施の形態の物体検出システム120と同様の処理を含み一部の処理が相違する。以下、第1の実施の形態との相違点を中心に説明する。図11は第2の実施の形態のシステムブロック図である。第2の実施の形態では、図11に示すように画像処理装置100aの本体部10a内の画像処理部3aに除外部35aが新たな機能として設けられている。
除外部35aは、物体検出部32が検出した検出領域SA内の物体像のうち除外領域NEに存在する物体像を除外する。詳細には、物体検出部32に検出された物体像から、自車線領域MEの外部の除外領域NEに像全体の所定割合(例えば、5割)を超える部分が含まれる物体像を除外する。物体像の除外とは、例えば撮影画像中の物体検出部32により検出された物体像について、出力検出部33により検出される物体像の候補から削除されることをいう。
そして、除外部35aの処理により除外領域NE内に存在する物体が除外された後に残った物体像を注目物体像として、出力検出部33が特定する。つまり、除外領域NEの物体像を除外した後の検出領域SA内に含まれる物体像を像全体の所定割合(例えば、5割)を超える部分が自車線領域に含まれる注目物体像として出力検出部33が検出する。そして、制御指示部12が注目物体像が検出された旨の信号をナビゲーション装置20、および、車両ECU84の少なくとも一つに出力する。これにより、車両9に接触する可能性のない物体を除外することができ、車両に接触する可能性のある物体が存在する場合にのみ必要な所定の動作を車両に行わせることで車両のユーザの安全を確保できる。
<2−2.処理フローチャート>
図12および図13は、第2の実施の形態の処理フローチャートである。図12および図13に示す第2の実施の形態の処理フローチャートは、図9および図10に示す第1の実施の形態の処理フローチャートと同様の処理があり一部が相違する。以下では、相違点を中心に記載する。
撮影画像中の検出領域SA内で物体検出部32が接近物体の物体像を検出した場合(ステップS103がYes)、接近物体の像のうちのいずれか一の像の全体が除外領域NE内に含まれるか否かを判定する(ステップS104a)。除外領域NEは画像制御部11の指示信号により領域データ4bが読み出され、撮影画像の検出領域SA内に除外領域NEが設定される。そして、接近物体の像の全体が除外領域NE内に含まれる場合(ステップS104aがYes)、当該物体像を除外部35aが除外して(ステップS107a)、ステップS108aの処理に進む。
ステップS108aでは、前述のステップS107aの処理で一の物体像を除外した後に、検出領域SA内に物体検出部32が検出した接近物体の像が存在する場合(ステップS108aがYes)は、ステップS104aの処理に戻って、接近物体像が除外領域NE内に存在するか否かを判定して(ステップS104a)、以下の処理を継続して行う。なお、検出領域SA内に接近物体の物体像が存在しない場合(ステップS108aがNo)処理を終了する。
ステップS104aに戻って、接近物体像の全体が除外領域NE内に含まれない場合(ステップS104aがNo)はステップS105aの処理に進む。
ステップS105aでは、接近物体像の所定割合(例えば、5割)を超える部分が除外領域NE内に含まれる場合(ステップS105aがYes)は、ステップS107aの処理に進み、当該接近物体の物体像を除外し(ステップS107a)、その後ステップS108aの処理を行う。
ステップS105aにおいて、接近物体の物体像の所定割合を超える部分が除外領域NEに含まれない場合(ステップS105aがNo)は、物体検出部32により検出された接近物体の物体像を注目物体像として、注目物体像が検出された旨の信号を画像処理装置100aが出力する。
<第3の実施の形態>
<3−1.画像処理装置>
次に、第3の実施の形態について説明する。第3の実施の形態における物体検出システム120bの構成・処理は、第1の実施の形態の物体検出システム120とほぼ同様であるが一部の処理が相違する。以下、第1の実施の形態との相違点を中心に説明する。
図14は第3の実施の形態の物体検出システム120bのブロック図である。図14に示すように画像処理装置100bの本体部10b内の画像処理部3bに出力検出部33b、および、ライン像検出部36bが新たな機能として設けられている。
出力検出部33bは、ライン像検出部36bにより検出されたライン像の形状に応じて、自車線領域MEの範囲を変更する。
ライン像検出部36bは、撮影画像中の車線を規定する区画線のライン像を検出する。ライン像の検出はエッジ検出により行われる。
<3−2.領域変更>
図15は、バックカメラ52の撮影画像ph3(以下、「画像ph3」ともいう。)を示す図である。画像ph3はバックカメラ52により撮影され、画像処理装置100bの画像取得部31により取得される。
画像ph3には略中央に位置する車両9が走行中の車線に対応する自車線像ML1と、向かって左側に位置する隣接車線像AL11と、向かって右側に位置する隣接車線像AL12とが映し出されている。そして、自車線像ML1と隣接車線像AL11との間には車線を規定する区画線のライン像LAaが映し出されている。また、自車線像ML1と隣接車線像AL12との間には車線を規定する区画線のライン像LBaとが映し出されている。
第1の実施の形態で説明した図3の自車線像MLは、車両9が直進する場合、車両9の進行方向に対して略直線の車線であり、車線を規定する区画線のライン像LA、および、LBは車両9の進行方向に対して略直線のライン像である。これに対して、第3の実施の形態のライン像LAaおよびLBbは、向かって左側(自車線像ML1に対して隣接車線像AL11側にカーブしている。そのため、図3に示した自車線領域MEを出力検出部33bが注目物体を検出する領域として用いると、実際の自車線の位置とのずれが生じる。
このようなずれを解消するためにライン像検出部36bが撮影画像ph3内の車線を規定する区画線のライン像(ライン像LAaおよびLBb)を検出する。そして、検出されたライン像の形状に応じて領域内に含まれる接近物の物体像を検出する領域の範囲を出力検出部33bが変更する。
図16はライン像の形状に応じた自車線領域ME1の領域を示す図である。自車線領域ME1は検出領域SA内にあり、ライン像LAaおよびLBbに囲まれた領域である。自車線領域ME1内の接近物体像の全体の所定割合を超える部分が含まれる場合に当該物体像を出力検出部33bが注目物体として検出する。これにより自車線領域MEの物体像を正確に検出して、車両9に所定動作をさせることで車両9のユーザの安全を確保できる。
<3−3.処理フローチャート>
図17および図18は、第3の実施の形態の処理フローチャートである。図17および図18に示す第3の実施の形態の処理フローチャートは、図9および図10に示す第1の実施の形態の処理フローチャートと同様の処理を含み一部が相違する。以下では、相違点を中心に記載する。
車両9への接近物体の物体像が物体検出部32により検出された場合(ステップS103がYes)、ライン像検出部36bは、ライン像LAa、および、LBbを検出して(ステップS109b)、ステップS110bの処理に進む。
ステップS110bでは、ライン像検出部36bが検出したライン像の形状に変更がある場合(ステップS110bがYes)は、ステップS111bの処理に進み、検出したライン像の形状に変更がない場合(ステップS110bがNo)は、ステップS104の処理に進む。
ここで、ライン像検出部36bが検出したライン像に変更がある場合とは、例えば、車両の進行方向に直線のライン像を基準値として予め不揮発性メモリ40に記憶しておき、この基準値との誤差が所定値を超える場合に、ライン形状に変更があるとして、自車線領域ME1の変更が行われる。また、基準値との誤差が所定値を超えない場合は、ライン形状に変更がないとして、自車線領域ME1の変更は行われない。
ステップS111bでは、出力検出部33bがライン形状に応じた自車線領域ME1を導出し、自車線領域ME1の範囲を変更する(ステップS110b)。つまり、領域SA内でライン像検出部36bに検出されたライン像に囲まれた領域を自車線領域ME1とする。そして、当該領域ME1内に像全体の所定割合を超える部分が含まれる注目物体像として、物体像を出力検出部33bが検出する(ステップS105)。
<変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。なお、上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、バックカメラ52により撮影された画像を例に説明を行ったが、車両9の後方以外にも前方のカメラ画像、つまり、フロントカメラ51により撮影された画像に基づいて車両9に接近する物体像のうち車両と接触する可能性のある物体像を検出して車両9に検出した旨の指示信号を出力するようにしてもよい。
また、上記第3の実施の形態では、ライン像検出部36bが区画線のライン像を検出して、出力検出部33bが自車線領域ME1の範囲を変更する処理について述べたが、ライン像検出部36bが区画線のライン像を検出して、出力検出部33bが除外領域NE1の範囲を変更するようにしてもよい。
また、上記第3の実施の形態では、自車線領域ME1の範囲の変更は、ライン像検出部36bが区画線のライン像を検出してライン像の形状に応じて行うこととしたが、それ以外にも、車両9のジャイロセンサ82からの信号に基づいて、車両9が走行する車線の曲率を検出し、当該曲率に基づいて自車線領域ME1の範囲を変更するようにしてもよい。
また、上記第3の実施の形態では、自車線領域ME1の範囲の変更は、ライン像検出部36bが区画線のライン像を検出してライン像の形状に応じて行うこととしたが、それ以外にも、車両9の操舵角センサ83からの信号に基づいて、ステアリングホイールの回転角度を検出し、当該回転角度に基づいて自車線領域ME1の範囲を変更するようにしてもよい。
また、上記実施の形態では、物体検出部32が物体像を検出する方法としてエッジ検出を主として説明したが、それ以外の方法(例えば、パターンマッチング等)で物体像を検出してもよい。
また、上記実施の形態では、自車線領域ME1の範囲をカメラレンズの歪み形状、カメラを設置する位置、および、カメラを設置する角度の少なくとも一つに基づいて設定して領域データ4bとして予め不揮発性メモリ40に記録してもよい。
また、上記実施の形態では、除外領域の範囲をカメラレンズの歪み形状、カメラを設置する位置、および、カメラを設置する角度の少なくとも一つに基づいて設定して領域データ4bとして予め不揮発性メモリ40に記録してもよい。
また、上記実施の形態では、自車線領域の範囲を物体像として検出する対象とする車両9と物体との距離、物体の幅、物体の高さ、および、物体の形状の少なくとも一つに基づいて設定し、領域データと4bとして予め不揮発性メモリ40に記録してもよい。
また、上記実施の形態では、除外領域の範囲を物体像として検出する対象とする車両9と物体との距離、物体の幅、物体の高さ、および、物体の形状の少なくとも一つに基づいて設定し、領域データと4bとして予め不揮発性メモリ40に記録してもよい。
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。
1・・・・・制御部
5・・・・・撮影部
10・・・・本体部
11・・・・画像制御部
12・・・・制御指示部

Claims (5)

  1. 車両の直進方向及び直進方向の逆方向のいずれかに略沿って光軸を向けた車載カメラの撮影画像を取得する取得手段と、
    前記撮影画像中の前記車両に接近する物体の物体像を検出する第1検出手段と、
    前記第1検出手段に検出された前記物体像のうち、前記撮影画像中の前記車両が走行中の車線に対応する自車線領域に像全体の所定割合を超える部分が含まれる物体像を注目物体像として検出する第2検出手段と、
    を備え
    前記第2検出手段は、
    前記第1検出手段に検出された前記物体像から、前記自車線領域の外部に像全体の所定割合を超える部分が含まれる物体像を除外する除外手段と、
    前記第1検出手段に検出された前記物体像のうち、前記除外手段が除外した後に残った物体像を前記注目物体像として特定する特定手段と、
    を有すること、
    を特徴とする物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記第1検出手段は、所定時間ごとに撮影される複数の撮影画像において大きさが拡大する物体像を検出すること、
    を特徴とする物体検出装置。
  3. 請求項1または2に記載の物体検出装置において、
    前記第1検出手段は、前記撮影画像中の略左右中央にある特定領域に含まれる物体像を
    検出すること、
    を特徴とする物体検出装置。
  4. 請求項1ないし3のいずれかに記載の物体検出装置において、
    前記撮影画像中の前記車線を規定する区画線のライン像を検出する第3検出手段、
    をさらに備え、
    前記第2検出手段は、前記ライン像の形状に応じて前記自車線領域の範囲を変更すること、
    を特徴とする物体検出装置。
  5. (a)車両の直進方向及び直進方向の逆方向のいずれかに略沿って光軸を向けた車載カメラの撮影画像を取得する工程と、
    (b)前記撮影画像中の前記車両に接近する物体の物体像を検出する工程と、
    (c)前記工程(b)により検出された前記物体像のうち、前記撮影画像中の前記車両が走行中の車線に対応する自車線領域に像全体の所定割合を超える部分が含まれる物体像を注目物体像として検出する工程と、
    を備え、
    前記工程(c)は、
    前記工程(b)により検出された前記物体像から、前記自車線領域の外部に像全体の所定割合を超える部分が含まれる物体像を除外する工程と、
    前記工程(b)により検出された前記物体像のうち、前記除外手段が除外した後に残った物体像を前記注目物体像として特定する工程と、
    を有すること、
    を特徴とする物体検出方法
JP2011014921A 2011-01-27 2011-01-27 物体検出装置、および、物体検出方法 Active JP5722643B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011014921A JP5722643B2 (ja) 2011-01-27 2011-01-27 物体検出装置、および、物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011014921A JP5722643B2 (ja) 2011-01-27 2011-01-27 物体検出装置、および、物体検出方法

Publications (2)

Publication Number Publication Date
JP2012153285A JP2012153285A (ja) 2012-08-16
JP5722643B2 true JP5722643B2 (ja) 2015-05-27

Family

ID=46835476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011014921A Active JP5722643B2 (ja) 2011-01-27 2011-01-27 物体検出装置、および、物体検出方法

Country Status (1)

Country Link
JP (1) JP5722643B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6758438B2 (ja) * 2019-01-23 2020-09-23 三菱電機株式会社 車両制御装置および車両制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282592A (ja) * 1992-04-02 1993-10-29 Matsushita Electric Ind Co Ltd 画像処理式車両感知装置及び交通情報処理方法
JP4404996B2 (ja) * 1999-07-26 2010-01-27 パナソニック株式会社 ライト点灯制御装置
JP2004206312A (ja) * 2002-12-24 2004-07-22 Sumitomo Electric Ind Ltd 車両検出システム、及び車両検出装置
JP2004287605A (ja) * 2003-03-19 2004-10-14 Ntt Data Corp 判定装置、状況判定システム、判定方法およびプログラム
JP4614098B2 (ja) * 2006-03-28 2011-01-19 アイシン・エィ・ダブリュ株式会社 周辺状況認識装置及び方法
JP4892066B2 (ja) * 2010-01-18 2012-03-07 株式会社東芝 画像処理装置及び画像処理プログラム

Also Published As

Publication number Publication date
JP2012153285A (ja) 2012-08-16

Similar Documents

Publication Publication Date Title
US10984261B2 (en) Systems and methods for curb detection and pedestrian hazard assessment
JP5875232B2 (ja) 物体検出装置、および、物体検出方法
JP6512016B2 (ja) 車両用表示装置
JP6443122B2 (ja) 車両用表示装置
JP4893212B2 (ja) 周辺監視装置
JP7283059B2 (ja) 周辺監視装置
JP4374850B2 (ja) 移動体周辺監視装置
JP2014230215A (ja) カメラ較正装置、およびカメラ較正方法
JP2016159656A (ja) 車両用表示装置
JP2018142884A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2006171950A (ja) ヘッドアップディスプレイの表示制御装置およびプログラム
JP2015154125A (ja) 車両周辺画像表示装置、車両周辺画像表示方法
WO2018180596A1 (ja) 車両用表示装置
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
JP5722643B2 (ja) 物体検出装置、および、物体検出方法
JP2005182305A (ja) 車両走行支援装置
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法
JP2010056975A (ja) リアカメラによる物体検知方式
JP2005217482A (ja) 車両周辺監視方法および装置
JP2018019155A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2005178623A (ja) 車両用表示装置
JP2007028443A (ja) 画像表示システム
JP4848698B2 (ja) 車両感知装置および車両感知方法
JP5182589B2 (ja) 障害物検出装置
WO2018037887A1 (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150326

R150 Certificate of patent or registration of utility model

Ref document number: 5722643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250