JP2017117357A - 立体物検知装置 - Google Patents
立体物検知装置 Download PDFInfo
- Publication number
- JP2017117357A JP2017117357A JP2015254631A JP2015254631A JP2017117357A JP 2017117357 A JP2017117357 A JP 2017117357A JP 2015254631 A JP2015254631 A JP 2015254631A JP 2015254631 A JP2015254631 A JP 2015254631A JP 2017117357 A JP2017117357 A JP 2017117357A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional object
- overhead
- images
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】一般的な測距センサを省略することができ、しかも、比較的に小さい演算量で立体物を検知することができる立体物検知装置を提供する。【解決手段】立体物検知装置12は、異なる視点から撮像された複数の画像から生成される複数の俯瞰画像から、俯瞰画像に共通する画像領域を抽出する共通領域特定部17と、共通する画像領域内で俯瞰画像を比較し、相違点に基づき立体物を検知する立体物抽出部18とを備える。水平面上に立体物が存在すると、俯瞰画像には立体物の投影像が描かれる。撮像の視点が異なれば、水平面に投影される投影像の位置や形は相違する。【選択図】図2
Description
本発明は、撮像された画像に基づき立体物を検知する立体物検知装置に関する。
特許文献1に記載されるように、車体に搭載されて車体周辺の障害物を検出する障害物検出装置は一般に知られる。この障害物検出装置は測距センサである2つの超音波センサとカメラとを備える。個々の超音波センサは障害物から反射する超音波を受信する。超音波の受信に応じて障害物から個々の超音波センサまでの距離は特定されることができる。複数の障害物がある場合には、2つの超音波センサだけでは複数とおりの障害物の候補を認識できても実在の障害物を特定することができない。認識された障害物の候補に基づき、カメラで撮像される画像中で実在の障害物は探し出される。こうして障害物は認識される。その他、いわゆるステレオカメラを利用して障害物を検出する障害物検出装置も散見される。
特許文献1では障害物の検出にあたって固有の超音波センサが必要とされる。超音波センサの用途は限られることから、既存の部品に追加されなければならず、コスト負担が増加してしまう。しかも、超音波そのものを視覚的に確認することができないので、車体への搭載にあたって超音波センサの向きとカメラの向きとを調整することが簡単ではない。2つの超音波センサ同士の距離が増大すれば障害物の検出精度は高まるものの、個別に超音波センサを構造物に取り付けるとなると、両者の向きの調整が難しい。また、いわゆるステレオカメラでは障害物の形状認識その他の画像処理が複雑化し、演算処理装置の負荷が大きい。
本発明は、一般的な測距センサを省略することができ、しかも、比較的に小さい演算量で立体物を検知することができる立体物検知装置を提供することを目的とする。
本発明の一形態は、異なる視点から撮像された複数の画像から生成される複数の俯瞰画像から、前記俯瞰画像に共通する画像領域を抽出する共通領域特定部と、
前記共通する画像領域内で前記俯瞰画像を比較して相違点を抽出し、前記相違点に基づき立体物を検知する立体物抽出部とを備える立体物検知装置に関する。
前記共通する画像領域内で前記俯瞰画像を比較して相違点を抽出し、前記相違点に基づき立体物を検知する立体物抽出部とを備える立体物検知装置に関する。
俯瞰画像では水平面が画像の二次元座標に重なる。水平面から突き出る立体物が存在しなければ、撮像の視点が異なっても、複数の俯瞰画像に共通する画像領域では画像は一致する。水平面上に立体物が存在すると、俯瞰画像には立体物の投影像が描かれる。撮像の視点が異なれば、水平面に投影される投影像の位置や形は相違する。したがって、複数の俯瞰画像に共通する画像領域内で相違点が検出されれば、相違点に基づき立体物は検知されることができる。こうして複数の画像から立体物は検知される。一般的な測距センサは省略されることができる。しかも、撮像された画像内で立体物の形状認識が施されてなくて済むので、演算量は小さくて済む。一般に、死角などの影響を受けずに広い範囲にわたって俯瞰画像を生成する際には、複数の俯瞰画像が合成されて1つの画面に映し出される。このとき、複数の俯瞰画像で共通する画像領域ではモーフィングといった視覚的合成処理が実施されることはあっても、それ以外の画像処理が実施されることはなかった。
立体物検知装置は、前記立体物の検知にあたって、前記俯瞰画像に映る被写体から相違点を検出する相違点検出部をさらに備えてもよい。相違点検出部は、2つの俯瞰画像の間で特定された相違点に基づき被写体の相違点を検出する。被写体の相違点は立体物に関する俯瞰画像の視差で引き起こされることから、こうした相違点に基づき立体物は特定されることができる。
立体物検知装置は、魚眼レンズを通じて前記画像を撮像する撮像装置を備えてもよい。魚眼レンズは広い範囲で被写体を撮像する。2つの撮像装置の間で共通する撮像領域を簡単に広げることができる。俯瞰画像でも共通する画像領域は広がる。効率的に立体物は検知される。
立体物検知装置は、前記複数の俯瞰画像を繋ぎ合わせ、画面に映し出す俯瞰画像を生成する画像合成部を備えてもよい。こうして俯瞰画像が合成され、撮像装置の死角の影響を受けずに広い範囲にわたって俯瞰画像は画面に映し出される。
立体物検知装置では、俯瞰視で車体の4角または4辺にそれぞれ前記撮像装置が配置されてもよい。こうして車両の全周にわたって俯瞰画像は生成されるとともに、車両の全周にわたって立体物の検知は実現される。
以上のように開示の装置によれば、一般的な測距センサを省略することができ、しかも、比較的に小さい演算量で立体物を検知することができる立体物検知装置は提供される。
以下、添付図面を参照しつつ本発明の一実施形態を説明する。
図1は本発明の第1実施形態に係る立体物検知装置11を概略的に示す。立体物検知装置11は本体装置12および2台の撮像装置すなわちカメラ13a、13bを備える。カメラ13a、13bには魚眼レンズ14a、14bが組み込まれる。カメラ13a、13bは魚眼レンズ14a、14bを通じて被写体を撮像する。魚眼レンズ14a、14bは水平面HRに向けられればよい。魚眼レンズ14a、14bの光軸は水平面HRに特定の角度で交差してもよく直交してもよい。カメラ13a、13bは電気的に本体装置12に接続される。接続にあたって有線が用いられてもよく無線が用いられてもよい。本体装置12はマイクロプロセッサユニット(MPU)といったプロセッサ装置で実現されればよい。
図2に示されるように、本体装置12は、個々のカメラ13a、13bに接続される俯瞰変換ブロック15a、15bを備える。俯瞰変換ブロック15a、15bにはカメラ13a、13bの撮像素子16から画像信号が供給される。撮像素子16は、魚眼レンズを通じて撮像される画像に基づき画像信号を生成する。撮像素子16にはCCD(電荷結合素子)センサやCMOSセンサが用いられればよい。ただし、これらに限られるものではない。画像信号は撮像素子16ごとに一時的にフレームメモリに格納されればよい。
俯瞰変換ブロック15a、15bは画像信号から個別に俯瞰画像を生成する。俯瞰画像の生成にあたって俯瞰変換ブロック15a、15bは2つのカメラ13a、13bのそれぞれから出力される2つの俯瞰画像の連続性を確保するように拡大縮小処理を実施する。前述のように2つのカメラ13a、13bの光軸は互いにずれることから、2つのカメラ13a、13bの間で撮像の視点は異なる。こうして異なる視点から撮像された2つの画像から2つの俯瞰画像は生成される。俯瞰変換ブロック15a、15bはカメラ13a、13bごとに接続される電子回路で形成されてもよく2つのカメラ13a、13bに共通に接続される電子回路で形成されてもよい。
本体装置12は共通領域特定ブロック17および立体物抽出ブロック18を備える。俯瞰変換ブロック15a、15bは共通領域特定ブロック17に接続される。共通領域特定ブロック17は個々の俯瞰変換ブロック15a、15bから個々の俯瞰画像を特定する画像データを取得する。共通領域特定ブロック17は、取得した画像データに基づき2つの俯瞰画像から共通する画像領域を抽出する。複数の俯瞰画像は連続性を確保するように拡大縮小処理されるので、共通する画像領域では個々のピクセルは1対1で対応することができる。
立体物抽出ブロック18は、共通する画像領域内で2つの俯瞰画像を比較し、相違点に基づき立体物を検知する。立体物が検知されると、当該検知を特定する検知信号が立体物抽出ブロック18から出力されればよい。立体物抽出ブロック18は、立体物の検知の際に、水平面HRに重ねられる二次元座標系に従って立体物の位置を特定してもよい。
立体物の検知にあたって立体物抽出ブロック18は画像比較ブロック19を備える。画像比較ブロック19は、共通する画像領域内で2つの俯瞰画像を比較する。ここでは、対応するピクセル同士が互いに比較されればよい。比較にあたって例えばピクセルの色情報が用いられればよい。画像比較ブロック19は比較に基づき2つの俯瞰画像の間で相違点を抽出する。こうして相違点を特定する相違点信号は画像比較ブロック19から出力される。
立体物抽出ブロック18では画像比較ブロック19に相違点検出ブロック21が接続される。相違点検出ブロック21は画像比較ブロック19から相違点信号を受信する。相違点検出ブロック21は、俯瞰画像に映る被写体から相違点を検出する。相違点信号で特定されるピクセルの位置や色情報に基づき特定の被写体が特定されればよい。こうして被写体の相違点を特定する相違点信号は相違点検出ブロック21から出力される。
立体物抽出ブロック18では相違点検出ブロック21に立体物特定ブロック22が接続される。立体物特定ブロック22は相違点検出ブロック21から相違点信号を受信する。立体物特定ブロック22は、相違点信号で特定される被写体の相違点に基づき立体物を特定する。相違点に係る被写体が立体物であるか否かが判断される。
次に立体物検知装置11の動作を説明する。図1に示されるように、水平面HRがそのまま2つのカメラ13a、13bで撮像されると、2つの俯瞰画像で共通する画像領域内で画像は一致する。画像比較ブロック19で対応するピクセル同士が互いに比較されても、相違は検出されない。このとき、立体物抽出ブロック18では立体物は検知されない。
例えば図3に示されるように、水平面HR上に立体物BJが存在すると、共通する画像領域内で俯瞰画像は大きく異なる。カメラ13aの画像では立体物BJの一方の側面25aおよび天面26が被写体として撮像されるものの他方の側面25bは撮像されない。カメラ13bの画像では立体物BJの他方の側面25bおよび天面26が被写体として撮像されるものの一方の側面25aは撮像されない。図4に示されるように、カメラ13aで撮像された画像に基づき俯瞰変換ブロック15aで生成される俯瞰画像では一方の側面25aおよび天面26の投影像27、28aが水平面HR内に描かれる。図5に示されるように、カメラ13bで撮像された画像に基づき俯瞰変換ブロック15bで生成される俯瞰画像では他方の側面25bおよび天面26の投影像27、28bが水平面HR内に描かれる。こうして一方の俯瞰画像にしか映されない被写体は立体物BJの側面25a、25bと見做されることができ、両方の俯瞰画像に映るものの形状が異なる被写体は立体物BJの天面26と見做されることができる。ここでは、両方の俯瞰画像が重ねられる際に天面26の投影像28a、28bの距離Lは立体物BJの高さHの推定に役立つ。俯瞰画像中で側面25a、25bや天面26は画像認識処理に基づき特定されればよい。この場合には、共通する画像領域内で相違する画像で画像認識処理は実施されればよく、演算量は著しく縮小されることができる。
例えば図6に示されるように、立体物BJの高さがカメラ13a、13bの設置位置よりも高い場合には、立体物BJの天面26は撮像されない。このとき、カメラ13aの画像に基づく俯瞰画像では、図7に示されるように、一方の側面25aの投影像27が画面端まで大きく映し出される。同様に、カメラ13bの画像に基づく俯瞰画像では、図8に示されるように、他方の側面25bの投影像29が画面端まで大きく映し出される。
例えば図9に示されるように、立体物BJの高さHが低い場合には、カメラ13aの画像では立体物BJの一方の側面25aおよび天面26が被写体として撮像され、カメラ13bの画像では立体物BJの他方の側面25bおよび天面26が被写体として撮像される。したがって、図10に示されるように、カメラ13aで撮像された画像に基づき俯瞰変換ブロック15aで生成される俯瞰画像では一方の側面25aおよび天面26の投影像27、28aが水平面HR内に描かれる。図11に示されるように、カメラ13bで撮像された画像に基づき俯瞰変換ブロック15bで生成される俯瞰画像では他方の側面25bおよび天面26の投影像29、28bが水平面HR内に描かれる。ただし、2つの俯瞰画像の間で天面26の投影像28a、28bの距離Lは近い。
俯瞰画像では水平面HRが画像の二次元座標に重なる。水平面HRから突き出る立体物BJが存在しなければ、撮像の視点が異なっても、複数の俯瞰画像に共通する画像領域では画像は一致する。水平面HR上に立体物BJが存在すると、俯瞰画像には立体物BJの投影像27、28a、28b、29が描かれる。撮像の視点が異なれば、水平面HRに投影される投影像27、28a、28b、29の位置や形は相違する。したがって、複数の俯瞰画像に共通する画像領域内で相違点が検出されれば、当該相違点に基づき立体物BJは検知されることができる。こうして複数の画像から立体物BJは検知される。一般的な測距センサは省略されることができる。しかも、撮像された画像内で立体物BJの形状認識が施されてなくて済むので、演算量は小さくて済む。一般に、死角などの影響を受けずに広い範囲にわたって俯瞰画像を生成する際には、複数の俯瞰画像が合成されて1つの画面に映し出される。このとき、個々の俯瞰画像は繋ぎ目で切り出される。したがって、共通する画像領域は特に利用されてはいない。
立体物検知装置11は、立体物の検知にあたって、俯瞰画像に映る被写体から位置相違点を検出する相違点検出ブロック21を備える。相違点検出ブロック21は、2つの俯瞰画像の間で特定された相違点に基づき被写体の形状の相違を検出する。被写体の形状の相違は立体物BJに関する俯瞰画像の視差で引き起こされることから、こうした形状の相違に基づき立体物BJは容易く特定されることができる。
カメラ13a、13bは魚眼レンズ14a、14bを通じて画像を撮像する。魚眼レンズ14a、14bは広い範囲で被写体を撮像する。2つのカメラ13a、13bの間で共通する撮像領域を簡単に広げることができる。俯瞰画像でも共通する画像領域は広がる。効率的に立体物BJは検知される。
図12は第2実施形態に係る立体物検知装置11aを概略的に示す。立体物検知装置では個々のカメラ13a、13b内に俯瞰変換ブロック15a、15bが組み込まれる。個々のカメラ13a、13b内で撮像された画像は俯瞰画像に変換される。この場合には、NTSC方式といったインターレース画像がカメラ13a、13bから本体装置12に向けて出力されても、高画質な映像は得られる。カメラ13a、13b内には、俯瞰変換ブロック15a、15bを実現するCPU(中央演算処理装置)やASIC(特定用途向け集積回路)が組み込まれればよい。その一方で、前述のように本体装置12内のプロセッサで俯瞰変換ブロック15a、15bが実現されると、インターレース画像に基づき俯瞰変換処理が実施されることから、画質劣化が否めない。
図13は第3実施形態に係る衝突予測装置31を概略的に示す。衝突予測装置31は本体装置32および4台の撮像装置すなわちカメラ33a、33b、33c、33dを備える。個々のカメラ33a〜33dは前述のカメラ13a、13bと同様に構成されればよい。カメラ33a〜33dは俯瞰視で4輪自動車の車体Mの4角にそれぞれ配置される。左前のカメラ33aは車体のフロントと左サイドパネルに沿って水平面たる地面を撮像する。右前のカメラ33bは車体のフロントと右サイドパネルに沿って水平面たる地面を撮像する。左後のカメラ33cは車体のリアと左サイドパネルに沿って水平面たる地面を撮像する。右後のカメラ33dは車体のリアと右サイドパネルに沿って水平面たる地面を撮像する。したがって、前方2つのカメラ33a、33bはフロントライン34よりも前方の範囲で共通する画像領域FRを提供する。後方2つのカメラ33c、33dはリアライン35よりも後方の範囲で共通する画像領域REを提供する。左側2つのカメラ33a、33cは左サイドライン36aよりも左側の範囲で共通する画像領域LFを提供する。右側2つのカメラ33b、33dは右サイドライン36bよりも右側の範囲で共通する画像領域RTを提供する。こうして車体の全周にわたって共通する画像領域は生成される。
図14に示されるように、本体装置32は画像合成ブロック37および立体物検知ブロック38を備える。画像合成ブロック37にはカメラ33a〜33dの俯瞰変換ブロック15a〜15dが接続される。同様に、立体物検知ブロック38には俯瞰変換ブロック15a〜15dが接続される。画像合成ブロック37および立体物検知ブロック38は個々の俯瞰変換ブロック15a〜15dから個々の俯瞰画像を特定する画像データを取得する。
画像合成ブロック37は繋ぎ合わせブロック41およびマーキングブロック42を備える。繋ぎ合わせブロック41は、取得した画像データに基づき合成俯瞰画像を生成する。合成俯瞰画像の生成にあたって複数の俯瞰画像は順番に繋ぎ合わせられる。繋ぎ合わせにあたって個々の俯瞰画像は繋ぎ目で切り出される。ここでは、俯瞰画像相互で共通する画像領域でモーフィングといった視覚的合成処理が実施されてもよい。その他、個々の俯瞰画像は単純に繋ぎ目で切り出されて決められた位置に配置されるだけでもよい。繋ぎ合わせブロック41は生成された合成俯瞰画像を特定する合成画像データを出力する。
マーキングブロック42は位置情報データに基づき合成俯瞰画像にマーキングを施す。マーキングブロック42には繋ぎ合わせブロック41から合成画像データが供給される。マーキングにあたってマーキングブロック42は合成俯瞰画像の二次元座標系に従って座標位置を特定する。座標位置の特定にあたってマーキングブロック42には立体物検知ブロックHWで生成される位置情報データが供給される。マーキングブロック42は位置情報データで特定される座標位置にマークを描くマーキングデータを生成する。
本体装置32にはディスプレイ43が接続される。ディスプレイ43には画像合成ブロック37から映像信号が供給される。映像信号はフレームごとに合成俯瞰画像を特定する。映像信号は、マーキングブロック42から合成画像データおよびマーキングデータに基づき生成される。こうしてディスプレイ43の画面には合成画像データおよびマーキングデータに基づき映像が映し出される。
立体物検知ブロック38は前述の共通領域特定ブロック17および立体物抽出ブロック18を備える。共通領域特定ブロック17は、カメラ33a〜33dうち1対のカメラは2つの俯瞰画像に共通する画像領域を抽出する。立体物抽出ブロック18は、共通する画像領域内で2つの俯瞰画像同士を比較し、2つの俯瞰画像の相違に基づき立体物を検知する。立体物が検知されると、立体物検知ブロック38は、当該検知を特定する検知信号、および、地面に重ねられる二次元座標系に従って立体物の位置を特定する位置情報信号を出力する。
本体装置32は衝突予測ブロック46を備える。衝突予測ブロック46は立体物進路予測ブロック47および自車体進路予測ブロック48を備える。立体物進路予測ブロック47は、画像比較ブロック46から出力される検知信号および位置情報信号に基づき、検出された立体物の現在位置および過去位置からその後の立体物の位置を時系列で特定する。自車体進路予測ブロック48は車速信号および舵角信号に基づき未来の自車体の位置を時系列で特定する。車速信号は、車体Mに搭載されて衝突予測ブロック46に接続される車速センサ49から供給されればよく、舵角信号は、車体Mに搭載されて衝突予測ブロック46に接続される舵角センサ51から供給されればよい。衝突予測ブロック46は、立体物の位置と自車体の位置とを時系列で比較し、立体物と自車体とが重なれば、衝突予測ブロック46は衝突の可能性を検出する。こうして衝突の可能性が検出されると、衝突予測ブロック46は、本体装置32に接続されるスピーカ52に向けて音声信号を出力する。位置情報データは、地面に割り当てられる二次元座標系に従って立体物の位置を特定する。スピーカ52は音声信号の受領に応じて警告音を出力する。
次に衝突予測装置31の動作を説明する。図15に示されるように、(a)左前カメラ33a、(b)右前カメラ33b、(c)左後カメラ33c、および(d)右後カメラ33dで被写体は撮像される。個々のカメラ33a〜33dの撮像素子16は映像のフレームごとに画像信号を出力する。画像信号はフレームメモリに一時的に格納される。俯瞰変換ブロック15a〜15dは、フレームメモリから取り出される画像信号に座標変換や拡大縮小処理を施して俯瞰画像を生成する。俯瞰画像の画像データは画像合成ブロック37に送られる。画像合成ブロック37は、複数の俯瞰画像を繋ぎ合わせ、合成画像データを出力する。その結果、図16に示されるように、ディスプレイ43の画面には俯瞰画像が映し出される。複数の俯瞰画像が合成されることから、個々のカメラ33a〜33dでは車体Mの陰で死角が形成されても、そうした死角に影響されずに広い範囲にわたって俯瞰画像は画面に映し出されることができる。特に、カメラ33a〜33dは俯瞰視で車体Mの4角にそれぞれ配置されることから、車体Mの全周にわたって俯瞰画像は生成される。
例えば車体Mの左斜め後に立体物(ここでは、折り畳まれたままのカメラ用三脚)が存在すると、図17に示されるように、(a)左前カメラ33a、(c)左後カメラ33c、および(d)右後カメラ33dの画像信号に基づき生成される俯瞰画像に立体物(点線黒枠内)は映り込む。立体物と地面との接点はいずれの俯瞰画像でも同じ位置に位置するものの、立体物の先端の向く方向は異なることが理解される。共通領域特定ブロック17は、左前カメラ33aの俯瞰画像(a)および左後カメラ33cの俯瞰画像(c)から共通領域を抽出し、左後カメラ33cの俯瞰画像(c)および右後カメラ33dの俯瞰画像(d)から共通領域を抽出する。立体物抽出ブロック18は、特定された共通領域内で左前カメラ33aの俯瞰画像(a)および左後カメラ33cの俯瞰画像(c)を相互に比較し、特定された共通領域内で左後カメラ33cの俯瞰画像(c)および右後カメラ33dの俯瞰画像(d)を相互に比較する。2つの俯瞰画像同士の間で相違は特定される。特定された相違に基づき立体物は検知される。こうした画像の比較といった簡単な画像処理であっても的確に立体物の検知は実現されることができる。しかも、本実施形態では車体Mの4角にそれぞれカメラ33a〜33dが配置されることから、車体Mの全周(全方位)にわたって立体物の検知は実現される。
例えば道路の凹凸の凸部分など立体物の高さが十分低ければ、車体Mは乗り越えて走行し続けることができる。この場合、立体物の天面の位置のみ微妙に相違する。衝突予測装置31が車体Mに搭載されて、わずかな凸部分等が「衝突」と判断されてしまうと、車体Mの走行に支障を来してしまう。したがって、2つの俯瞰画像の間で立体物の天面の距離が小さい場合には、立体物として検知しないこととしてもよい。こうした傾向はカメラ33a〜33dから遠い位置ほど顕著であって、わずかな凸部分でも距離が大きく離れる場合があることから、カメラ33a〜33dから遠ざかるほど未検知の距離を大きくしてもよい。
図18に示されるように、衝突予測装置31ではカメラ33a〜33dは俯瞰視で四輪自動車の車体Mの4辺、つまり車体のフロントの中央位置、リアの中央位置、左右のサイドミラーにそれぞれ取り付けられてもよい。フロントのカメラ33aはフロントライン34よりも前方で水平面たる地面を撮像する。リアのカメラ33bはリアライン35よりも後方で水平面たる地面を撮像する。左サイドミラーのカメラ33cは左サイドライン36aよりも左側で水平面たる地面を撮像する。右サイドミラーのカメラ33dは右サイドライン36bよりも右側で水平面たる地面を撮像する。したがって、フロントのカメラ33aと左サイドミラーのカメラ33cはフロントライン34よりも前方で左サイドライン36aよりも左側の範囲で共通する画像領域TLを提供する。左サイドミラーのカメラ33cとリアのカメラ33bはリアライン35よりも後方で左サイドライン36aよりも左側の範囲で共通する画像領域RLを提供する。リアのカメラ33bと右サイドミラーのカメラ33dはリアライン35よりも後方で右サイドライン36bよりも右側の範囲で共通する画像領域RRを提供する。右サイドミラーのカメラ33dとフロントのカメラ33aはフロントライン34よりも前方で右サイドライン36bよりも右側の範囲で共通する画像領域TRを提供する。こうして車体Mの左斜め前方、左斜め後方、右斜め後方および右斜め前方で共通する画像領域は生成される。こうした領域は車体Mのピラーで運転手の死角に入りやすい。
図19に示されるように、(a)フロントのカメラ33a、(b)リアのカメラ33b、(c)左サイドミラーのカメラ33c、および(d)右サイドミラーのカメラ33dで被写体は撮像される。図20に示されるように、画像合成ブロック37の働きでディスプレイ43の画面には俯瞰画像が映し出される。例えば車体Mの左斜め後に立体物(ここでは、折り畳まれたままのカメラ用三脚)が存在すると、図21に示されるように、(b)リアのカメラ33bおよび(c)左サイドミラーのカメラ33cの画像信号に基づき生成される俯瞰画像に立体物(点線黒枠内)は映り込む。共通領域特定ブロック17は、リアのカメラ33bの俯瞰画像(b)および左サイドミラーのカメラ33cの俯瞰画像(c)から共通領域を抽出する。立体物抽出ブロック18は、特定された共通領域内でリアのカメラ33bの俯瞰画像(b)および左サイドミラーのカメラ33cの俯瞰画像(c)を相互に比較する。2つの俯瞰画像同士の間で相違は特定される。特定された相違に基づき立体物は検知される。こうした画像の比較といった簡単な画像処理であっても的確に立体物の検知は実現されることができる。その他の構成は前述の通りである。
11 立体物検知装置、11a…立体物検知装置、13a…撮像装置(カメラ)、13b…撮像装置(カメラ)、14a…魚眼レンズ、14b…魚眼レンズ、17…共通領域特定部(共通領域特定ブロック)、18…立体物抽出部(立体物抽出ブロック)、21…相違点検出部(相違点検出ブロック)、31…立体物検知装置(衝突予測装置)、33a…撮像装置(カメラ)、33b…撮像装置(カメラ)、33c…撮像装置(カメラ)、33d…撮像装置(カメラ)、37…画像合成部(画像合成ブロック)、45…画像比較部(画像比較ブロック)、FR…画像領域、LF…画像領域、M…車体、RE…画像領域、RL…画像領域、RR…画像領域、RT…画像領域、TL…画像領域、TR…画像領域。
Claims (5)
- 異なる視点から撮像された複数の画像から生成される複数の俯瞰画像から、前記俯瞰画像に共通する画像領域を抽出する共通領域特定部と、
前記共通する画像領域内で前記俯瞰画像を比較して相違点を抽出し、前記相違点に基づき立体物を検知する立体物抽出部と
を備えることを特徴とする立体物検知装置。 - 請求項1に記載の立体物検知装置において、前記立体物の検知にあたって、前記俯瞰画像に映る被写体から相違点を検出する相違点検出部をさらに備えることを特徴とする立体物検知装置。
- 請求項1または2に記載の立体物検知装置において、魚眼レンズを通じて前記画像を撮像する撮像装置を備えることを特徴とする立体物検知装置。
- 請求項1〜3のいずれか1項に記載の立体物検知装置において、前記複数の俯瞰画像を繋ぎ合わせ、画面に映し出す俯瞰画像を生成する画像合成部を備えることを特徴とする立体物検知装置。
- 請求項4に記載の立体物検知装置において、俯瞰視で車体の4角または4辺にそれぞれ前記撮像装置が配置されることを特徴とする立体物検知装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015254631A JP2017117357A (ja) | 2015-12-25 | 2015-12-25 | 立体物検知装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015254631A JP2017117357A (ja) | 2015-12-25 | 2015-12-25 | 立体物検知装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017117357A true JP2017117357A (ja) | 2017-06-29 |
Family
ID=59234418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015254631A Pending JP2017117357A (ja) | 2015-12-25 | 2015-12-25 | 立体物検知装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017117357A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020048285A1 (en) * | 2018-09-07 | 2020-03-12 | Huawei Technologies Co., Ltd. | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud |
RU2767831C1 (ru) * | 2021-03-26 | 2022-03-22 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и электронные устройства для обнаружения объектов в окружении беспилотного автомобиля |
-
2015
- 2015-12-25 JP JP2015254631A patent/JP2017117357A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020048285A1 (en) * | 2018-09-07 | 2020-03-12 | Huawei Technologies Co., Ltd. | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud |
US10970871B2 (en) | 2018-09-07 | 2021-04-06 | Huawei Technologies Co., Ltd. | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud |
CN112997187A (zh) * | 2018-09-07 | 2021-06-18 | 华为技术有限公司 | 基于鸟瞰图点云的二维对象边界框信息估计 |
RU2767831C1 (ru) * | 2021-03-26 | 2022-03-22 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и электронные устройства для обнаружения объектов в окружении беспилотного автомобиля |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6091586B1 (ja) | 車両用画像処理装置および車両用画像処理システム | |
JP5049300B2 (ja) | 障害物検出表示装置 | |
KR100466458B1 (ko) | 운전지원장치 | |
KR101243108B1 (ko) | 차량의 후방 영상 표시 장치 및 방법 | |
US9418556B2 (en) | Apparatus and method for displaying a blind spot | |
US8184160B2 (en) | Image processor, driving assistance system, and out-of-position detecting method | |
JP6565188B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP5003395B2 (ja) | 車両周辺画像処理装置及び車両周辺状況提示方法 | |
JP2009524171A (ja) | 複数の画像を結合して鳥瞰図画像にする方法 | |
JP2002359838A (ja) | 運転支援装置 | |
JP2008102620A (ja) | 画像処理装置 | |
CN107950023B (zh) | 车辆用显示装置以及车辆用显示方法 | |
US9162621B2 (en) | Parking support apparatus | |
JP5178454B2 (ja) | 車両周囲監視装置及び車両周囲監視方法 | |
KR20090109437A (ko) | 차량주행중 영상정합 방법 및 그 시스템 | |
JP2018013985A (ja) | 物体検知装置 | |
TW201605247A (zh) | 影像處理系統及方法 | |
JP2008026998A (ja) | 障害物位置算出システム、及び障害物位置算出方法 | |
JP6337504B2 (ja) | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム | |
JP2017117357A (ja) | 立体物検知装置 | |
JP4696925B2 (ja) | 画像処理装置 | |
JP6293089B2 (ja) | 後方モニタ | |
JP2008286648A (ja) | 距離計測装置、距離計測システム、距離計測方法 | |
KR101293263B1 (ko) | 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법 | |
JP4810919B2 (ja) | 車両周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190911 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200311 |