JP6610994B2 - 障害物検出装置、及び、障害物検出方法 - Google Patents

障害物検出装置、及び、障害物検出方法 Download PDF

Info

Publication number
JP6610994B2
JP6610994B2 JP2015133814A JP2015133814A JP6610994B2 JP 6610994 B2 JP6610994 B2 JP 6610994B2 JP 2015133814 A JP2015133814 A JP 2015133814A JP 2015133814 A JP2015133814 A JP 2015133814A JP 6610994 B2 JP6610994 B2 JP 6610994B2
Authority
JP
Japan
Prior art keywords
image
vehicle
obstacle
road surface
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015133814A
Other languages
English (en)
Other versions
JP2017016474A (ja
Inventor
ともえ 大築
稔 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015133814A priority Critical patent/JP6610994B2/ja
Publication of JP2017016474A publication Critical patent/JP2017016474A/ja
Application granted granted Critical
Publication of JP6610994B2 publication Critical patent/JP6610994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、障害物検出装置、及び、障害物検出方法に関する。
車両に搭載されるカメラを用いて、車両周辺の障害物を検出するシステムが知られている。また、車両周辺の障害物を検知して、車両と障害物との衝突を防止するための警報、ブレーキ制御、操舵制御等を行うシステムがある。車両周辺の障害物の検出には、予め記憶された障害物等のテンプレートとカメラで撮影された画像とを比較するテンプレートマッチング等が用いられている。また、テールランプや物体の縦横比等の条件に合致するものを障害物として検出する方法がある。
特開2009−177666号公報 特開2004−355139号公報 特開2010−237810号公報
テンプレートマッチングでは、予め記憶された障害物等以外のものを検出することは困難であるという問題がある。また、所定の条件に合致するものを障害物として検出する場合、所定の条件に合致しない障害物を検出することが困難であるという問題がある。車両での走行中に、障害物が障害物として検知されないと、車両が障害物を避けられないおそれがあり、重大な事故につながるおそれがある。
本発明は、車両周辺の障害物を検出する障害物検出装置を提供することを目的とする。
本発明は、上記課題を解決するために、以下の手段を採用する。
即ち、本発明の第1の態様は、
車両に搭載されたカメラで撮影された撮影画像、前記車両の位置、前記位置の周辺の地図情報を取得する取得部と、
前記車両の位置と、前記地図情報とに基づいて、前記撮影画像を模擬する模擬画像を作成する画像作成部と、
前記撮影画像と前記模擬画像とに基づいて、前記撮影画像に含まれる障害物を検出する障害物検出部と、を備える、
障害物検出装置とする。
開示の態様は、プログラムが情報処理装置によって実行されることによって実現されてもよい。即ち、開示の構成は、上記した態様における各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録したコンピュータ読み取り可能な記録媒体として特定することができる。また、開示の構成は、上記した各手段が実行する処理を情報処理装置が実行する方法をもって特定されてもよい。開示の構成は、上記した各手段が実行する処理を行う情報処理装置を含むシステムとして特定されてもよい。
本発明によれば、車両周辺の障害物を検出する障害物検出装置を提供することができる。
図1は、障害物検出装置を含む車載システムの構成例を示す図である。 図2は、情報処理装置のハードウェア構成例を示す図である。 図3は、障害物検出装置を含む車載システムの動作フローの例を示す図である。 図4(A)は、カメラ110で撮影された撮影画像の例を示す図である。図4(B)は、2D画像作成部142で作成された模擬画像の例を示す図である。 図5は、図4(A)の撮影画像において、白線の領域として抽出された領域の例を示す図である。 図6は、図4(A)の撮影画像において、路面の領域として抽出された領域の例を示す図である。 図7は、図4(A)の撮影画像において、影の領域として抽出された領域の例を示す図である。 図8は、図4(A)の撮影画像において、白線、路面または影の領域として抽出された領域の例を示す図である。 図9は、図8の白線、路面または影の領域として抽出された領域を示す画像から、ノイズを除去した画像の例を示す図である。 図10は、撮影画像に、検知された障害物の領域を重ねた画像の例を示す図である。 図11は、表示装置に表示される画像の例を示す図である。 図12は、変形例のシステムの構成例を示す図である。
以下、図面を参照して、本発明にかかるシステムについて説明する。実施形態の構成は例示であり、本発明は開示の実施形態の構成に限定されない。
〔実施形態〕
(構成例)
図1は、障害物検出装置を含む車載システムの構成例を示す図である。車載システム100は、カメラ110、GPS(Global Positioning System)120、3D地図DB(Database)130、障害物検出装置140、車両制御装置150、表示装置160、音声
装置170を含む。車載システム100は、車両10に搭載される。車両10は、道路を走行する自動車などである。障害物検出装置140は、視点視線一致部141、2D画像作成部142、障害物検知部143、障害物距離算出部144、通知制御判定部145を含む。
カメラ110は、車両10の進路前方(進行方向)を撮影した画像を取得するデバイスである。カメラ110は、車両10に取り付けられる。カメラ110の光軸方向は、車両10の進路前方の道路(路面)を撮影できる所定の方向を向いて、車両10に取り付けられている。カメラ110で撮影される画像は、所定の画角を有している。カメラ110の光軸方向は、カメラ110のレンズの中心軸の方向である。カメラ110の光軸方向は、視線方向ともいう。
カメラ110で撮影された画像内の路面上の任意の点の車両10(カメラ110)からの距離は、カメラ110が取り付けられた位置(高さ)、カメラ110の光軸方向、画像の画角から、容易に算出される。例えば、画像の中心位置(光軸と路面との交点)に表れる路面までの車両10からの距離xは、カメラ110の路面からの高さがh、カメラ11
0の光軸方向と路面とのなす角がθであるとすると、x=h/tanθである。画像の高さ方向の幅(ピクセル数)と画像の高さ方向の画角から、画像における高さ方向の位置と、画像内の路面の任意の点とカメラとを結ぶ線と路面との角度との関係(例えば、画像1ピクセル当たりの角度)が算出される。従って、画像の中心位置以外の路面の点と車両10との距離も同様に算出され得る。
GPS120は、車両10の現在位置を数m以内の精度で取得するシステムである。現在位置は、例えば、緯度、経度、高度で特定される。GPS120は、車両10の進行方向等から、車両10の向き(方角)を取得することができる。
3D地図DB130は、路面、白線、道路標識、路面標示のデータ(位置、形状、色等)を3次元地図情報として有している3次元地図のデータベースである。白線は、路面に記載された白線である。3次元地図情報に基づいて、任意の視点からの任意の視線方向の路面、白線等を含む2次元画像を作成することができる。よって、3次元地図情報に基づいて、カメラ110で撮影された画像の撮影位置、方向、画角と、同じ位置、方向、画角の画像(2次元画像)を作成することができる。白線には、黄線が含まれてもよい。3次元地図情報は、地図情報の一例である。
障害物検出装置140は、カメラ110で撮影された画像、GPS120による現在位置及び向き、3D地図DB130による3次元地図等の情報に基づいて、車両110の進路前方の障害物を検出する。障害物検出装置140は、視点視線一致部141、2D画像作成部142、障害物検知部143、障害物距離算出部144、通知制御判定部145を含む。
視点視線一致部141は、GPS120からの情報により車両10の現在位置(緯度、経度、高度)を把握する。視点視線一致部141は、現在位置の周辺の3次元地図情報を3D地図DB130から取得する。視点視線一致部141は、現在位置においてカメラ110の位置から撮影される画像の視点及び視線方向を、3D地図DB130からの3次元地図情報に基づいて、算出する。視点視線一致部141は、取得部の一例である。
2D画像作成部142は、視点視線一致部141で算出された視点及び視線方向に基づいて、現在位置においてカメラ110の位置から撮影される画像を模擬した模擬画像(2D画像)を作成する。模擬画像には、障害物は含まれない。2D画像作成部142は、画像作成部の一例である。
障害物検知部143は、カメラ110によって撮影された画像と、2D画像作成部142によって作成された画像などに基づいて、路面上の障害物を検出する。
障害物距離算出部144は、車両10と検出された障害物との距離を算出する。
通知制御判定部145は、車両10の運転者に運転を誘導しなければならないか否かを判定する。また、車両10が自動運転されている場合、通知制御判定部145は、車両10の制御をしなければならないか否かを判定する。
車両制御装置150は、車両10を制御し、安全に障害物との衝突を回避する装置である。
表示装置160は、車両10の運転者に対して、障害物の存在を通知する表示を行う装置である。表示装置160は、例えば、液晶ディスプレイによって実現される。
音声装置170は、車両10の運転者に対して、障害物の存在を通知する音声を出力す
る装置である。表示装置160は、例えば、スピーカによって実現される。
障害物検出装置140は、PC(Personal Computer)のような専用または汎用のコン
ピュータ、あるいは、コンピュータを搭載した電子機器を使用して実現可能である。
図2は、情報処理装置のハードウェア構成例を示す図である。図2に示す情報処理装置90は、一般的なコンピュータの構成を有している。障害物検出装置140は、図2に示すような情報処理装置90を用いることによって、実現される。図2の情報処理装置90は、プロセッサ91、メモリ92、記憶部93、入力部94、出力部95、通信制御部96を有する。これらは、互いにバスによって接続される。メモリ92及び記憶部93は、コンピュータ読み取り可能な記録媒体である。情報処理装置のハードウェア構成は、図2に示される例に限らず、適宜構成要素の省略、置換、追加が行われてもよい。
情報処理装置90は、プロセッサ91が記録媒体に記憶されたプログラムをメモリ92の作業領域にロードして実行し、プログラムの実行を通じて各構成部等が制御されることによって、所定の目的に合致した機能を実現することができる。
プロセッサ91は、例えば、CPU(Central Processing Unit)やDSP(Digital Signal Processor)である。
メモリ92は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。メモリ92は、主記憶装置とも呼ばれる。
記憶部93は、例えば、EPROM(Erasable Programmable ROM)、ハードディスク
ドライブ(HDD、Hard Disk Drive)である。また、記憶部93は、リムーバブルメデ
ィア、即ち可搬記録媒体を含むことができる。リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、あるいは、CD(Compact Disc)やDVD(Digital Versatile Disc)のようなディスク記録媒体である。記憶部93は、二次記憶装置とも呼ばれる。
記憶部93は、各種のプログラム、各種のデータ及び各種のテーブルを読み書き自在に記録媒体に格納する。記憶部93には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納される。記憶部93に格納される情報は、メモリ92に格納されてもよい。また、メモリ92に格納される情報は、記憶部93に格納されてもよい。
オペレーティングシステムは、ソフトウェアとハードウェアとの仲介、メモリ空間の管理、ファイル管理、プロセスやタスクの管理等を行うソフトウェアである。オペレーティングシステムは、通信インタフェースを含む。通信インタフェースは、通信制御部1012を介して接続される他の外部装置等とデータのやり取りを行うプログラムである。外部装置等には、例えば、他の情報処理装置、外部記憶装置等が含まれる。
入力部94は、キーボード、ポインティングデバイス、ワイヤレスリモコン、タッチパネル等を含む。また、入力部94は、カメラのような映像や画像の入力装置や、マイクロフォンのような音声の入力装置を含むことができる。
出力部95は、LCD(Liquid Crystal Display)、EL(Electroluminescence)パ
ネル、CRT(Cathode Ray Tube)ディスプレイ、PDP(Plasma Display Panel)等の表示装置、プリンタ等の出力装置を含む。また、出力部95は、スピーカのような音声の出力装置を含むことができる。
通信制御部96は、他の装置と接続し、情報処理装置90と他の装置との間の通信を制御する。通信制御部96は、例えば、LAN(Local Area Network)インタフェースボード、無線通信のための無線通信回路、電話通信のための通信回路である。LANインタフェースボードや無線通信回路は、インターネット等のネットワークに接続される。
(動作例)
図3は、障害物検出装置を含む車載システムの動作フローの例を示す図である。図3の動作フローは、カメラ110で画像が撮影される毎に実行される。例えば、カメラ110による撮影間隔が1/30秒である場合、1/30秒毎に実行される。また、図3の動作フローは、GPS120で緯度、経度を取得するタイミングで実行されてもよい。
S101では、障害物検出装置140の視点視線一致部141は、カメラ110より、車両10の進路前方を撮影した画像(撮影画像)を取得する。また、視点視線一致部141は、GPS120より、車両10の現在位置(緯度、経度,高度)を取得する。さらに、視点視線一致部141は、GPS120より、車両10の向き(進行方向)の方角を取得する。GPS120は、車両10の進行方向、車両10の車輪の向き等により、車両10の向きを検出することができる。
図4(A)は、カメラ110で撮影された撮影画像の例を示す図である。図4(A)の画像には、白線の引かれた路面、道路標識、路面を走行する他の車両、路面の周辺の建物等が含まれている。画像において、路面は、下の方がより手前であり、上の方がより奥である。
S102では、視点視線一致部141は、カメラ110から取得された画像の取得時刻と、GPS120から取得した現在位置の取得時刻とが一致するか否かを判定する。これらの取得時刻が異なる場合、カメラ110で撮影された画像が撮影された位置と、GPS120で取得した現在位置とが異なる可能性があるため、両方を再度取得する。これらの取得時刻が異なる場合(S102;NO)、処理がS101に戻る。これらの取得時刻が一致する場合(S102;YES)、処理がS103に進む。
S103では、視点視線一致部141は、3D地図DB130より、GPS120から取得した現在位置の周辺の3次元地図情報を取得する。
S104では、視点視線一致部141は、カメラ110で撮影された撮影画像の視点及び視線方向を求める。視点は、撮影画像が撮影された位置(緯度、経度、高度)の情報である。視線方向は、撮影画像を撮影した際のカメラ110の光軸方向である。視点視線一致部141は、S101で取得された車両10の現在位置及び車両10の向きと、S103で取得された現在位置の周辺の3次元地図情報とに基づいて、現在位置の車両10の向きにおける画像を生成する。現在位置には、数m程度の誤差が含まれるため、現在位置からの画像を3次元地図情報に基づいて作成しても、位置がずれることがある。そこで、視点視線一致部141は、現在位置の周辺についても、3次元地図情報に基づいて、車両10の向きにおける画像を作成する。現在位置の周辺の画像には、現在位置の周囲からの画像、及び、視線方向を変更した画像も含まれる。即ち、視点視線一致部141は、複数の視点(位置)、及び、視線方向(光軸方向)からの画像を作成する。カメラ110の視線方向は、例えば、路面に対する角度(例えば、パン、チルト、ロール)によって表される。現在位置の周辺については、複数の画像が作成される。作成される画像には、路面、白線、道路標識、路面標示等が含まれる。
視点視線一致部141は、現在位置の画像及び現在位置の周辺の画像と、カメラ110
で撮影された撮影画像とを比較して、現在位置及び現在位置の周辺の画像の中から、撮影画像と最も一致する画像を抽出する。画像の比較は例えば次のように行う。視点視線一致部141は、現在位置の画像、現在位置の周辺の画像、撮影画像のエッジ画像を作成する。エッジ画像は、元の画像の色の境界部分を示す画像である。視点視線一致部141は、撮影画像のエッジ画像と、他の各画像のエッジ画像とのすべての画素の差分を比較し、差分が最も小さい現在位置の画像または現在位置の周辺の画像を抽出する。エッジ画像を使用することで、画像の明暗に影響されずに画像の比較をすることができる。差分が小さいことは、画像における、路面、白線、道路標識、路面標示等の位置が一致している可能性が高いことを示す。視点視線一致部141は、抽出した画像の視点(位置)及び視線方向を算出する。算出された視点及び視線方向は、撮影画像の視点及び撮影方向であるとみなされる。
S105では、2D画像作成部142は、視点視線一致部141で求めた視点及び視線方向に基づいて、カメラ110で撮影された撮影画像を模擬した模擬画像(2次元画像)を作成する。2D画像作成部142は、視点視線一致部141で求めた視点の周辺の3次元地図情報を3D地図DB130から取得する。2D画像作成部142は、取得した3次元地図情報に基づいて、模擬画像を作成する。模擬画像には、路面、白線、道路標識、路面標示等が含まれる。模擬画像には、障害物は含まれない。
図4(B)は、2D画像作成部142で作成された模擬画像の例を示す図である。図4(B)の模擬画像には、路面、白線、道路標識等が含まれている。図4(B)の模擬画像は、図4(A)の撮影画像を模擬した画像である。
S106では、障害物検知部143は、カメラ110で撮影された撮影画像の路面に存在する障害物を検出する。障害物は、例えば、他の車両、道路工事位置を示す標識、他の車両からの落下物などである。
障害物検知部143は、2D画像作成部142で作成された模擬画像における路面の領域を検出する。障害物検知部143は、カメラ110で撮影された撮影画像から、模擬画像における路面の領域と同じ位置の領域を、路面の領域として、抽出する。障害物検知部143は、撮影画像の抽出した路面の領域の各画素の画素値(R、G、B)の平均値(Rave、Gave、Bave)及び分散値(Rσ、Gσ、Bσ)を算出する。R(Red)は画素値の赤成分、G(Green)は画素値の緑成分、B(Blue)は画素値の青成分を示す。また、障害物検知部143は、カメラ110で撮影された撮影画像から、模擬画像における白線の領域と同じ位置の領域を、白線の領域として、抽出する。白線は路面に引かれるため、白線の領域は、路面の領域に含まれる。
障害物検知部143は、抽出された白線の領域で、次のすべての条件を満たす画素値を含む領域を抽出する(条件1)。条件1では、路面上の白線の領域が抽出される。ここで抽出される白線の領域は、撮影画像に現れている白線の領域である。即ち、障害物等によって見えない白線の領域は含まれない。白線となる色の範囲は、条件1に限定されるものではない。
Figure 0006610994
図5は、図4(A)の撮影画像において、白線の領域として抽出された領域の例を示す図である。図5の例では、白色の部分が白線の領域として抽出された領域である。
また、障害物検知部143は、抽出された路面の領域で、次のすべての条件を満たす画素値を含む領域を抽出する(条件2)。条件2では、路面の領域が抽出される。ここで抽出される路面の領域は、撮影画像に現れている路面の領域である。即ち、障害物等によって見えない路面の領域は含まれない。路面となる色の範囲は、条件2に限定されるものではない。
Figure 0006610994

画素値の3色の成分(R、G、B)を使用することで、より誤検知を低減することができる。
図6は、図4(A)の撮影画像において、路面の領域として抽出された領域の例を示す図である。図6の例では、白色の部分が路面の領域として抽出された領域である。
また、障害物検知部143は、抽出された路面の領域で、次のすべての条件を満たす画素値を含む領域を抽出する(条件3)。条件3では、路面上の影の領域が抽出される。路面上の影は、障害物ではない。
Figure 0006610994
日陰の道路の色は、日向の道路の色に比べて青側にシフトしている。ここでは、実測に基づいて、影となる色の範囲を決定している。影となる色の範囲は、これに限定されるものではない。
図7は、図4(A)の撮影画像において、影の領域として抽出された領域の例を示す図である。図7の例では、白色の部分が影の領域として抽出された領域である。
図8は、図4(A)の撮影画像において、白線、路面または影の領域として抽出された領域の例を示す図である。図8の例では、白色の部分が白線、路面または影の領域として抽出された領域である。
障害物検知部143は、条件1、条件2、条件3により、模擬画像における路面の領域から、撮影画像に含まれる白線、路面、影の領域を抽出する。また、障害物検知部143は、模擬画像における路面の領域において、ある1つの画素の周囲の8画素のうち、半分以上の画素が白線、路面または影の領域である場合、当該1つの画素は路面の領域であるとする。これによりノイズを除去することができる。
図9は、図8の白線、路面または影の領域として抽出された領域を示す画像から、ノイズを除去した画像の例を示す図である。図9の例では、白色の部分が、最終的に、白線、路面または影の領域として抽出された領域である。図8の例と比べて、白線の周囲等が路面として抽出されている。
障害物検知部143は、模擬画像における路面の領域であって、撮影画像に含まれる白線、路面、影の領域とされなかった領域を、障害物として検知する。
図10は、撮影画像に、検知された障害物の領域を重ねた画像の例を示す図である。図10の例では、右手前方の路面上に、障害物が検知されている。図10の例では、障害物の領域が白く塗りつぶされている。
S107では、障害物距離算出部144は、障害物検知部143で検知された障害物までの距離を算出する。撮影画像のピクセル数(横のピクセル数、縦のピクセル数)及び画角(横の画角、縦の画角)は、予め設定されている。よって、画像の縦方向及び横方向について、1ピクセル当たりの角度が容易に算出される。また、カメラ110の視線方向は、模擬画像を作成する際の視線方向であるとする。視線方向は、画像の中央に相当する。よって、画像の中央から離れた点(画像内の路面上の点)についても、視線方向とのなす角が算出される。よって、画像内の路面上の点と車両を結ぶ直線と路面とのなす角が求められる。また、カメラ110の取り付けられる高さは既知である。よって、障害物距離算出部144は、カメラ110の視線方向と、カメラ110が取り付けられている位置(高さ)と、障害物の撮影画像における位置とに基づいて、車両10から障害物までの距離を算出することができる。ここで、障害物との距離を算出する際の障害物の位置は、撮影画像における障害物の領域の縦方向の一番低い位置を障害物の位置とする。一番低い位置は、画像内の路面において、車両10に一番近い位置である。
S108では、通知制御判定部145は、検知された障害物を、避けるべきか否かを判定する。通知制御判定部145は、車両10の状態(スピード、進行方向、操舵角)等を取得し、検知された障害物を避けるべきか否かを判定する。通知制御判定部145は、車両10が障害物に衝突するおそれがあると判断する場合、障害物を避けるべきと判定する。また、通知制御判定部145は、車両10が障害物に衝突するおそれがないと判断する場合、障害物を避けるべきと判定しない。障害物を避けるべきと判定する場合(S108;YES)、処理がS109に進む。障害物を避けるべきと判定しない場合(S108;NO)、図3の動作フローの処理が終了する。
S109では、通知制御判定部145が障害物を避けるべきと判断すると、表示装置160は、図10のように、障害物の領域を示された撮影画像に、算出された障害物までの距離を重ねて表示する。また、音声装置170は、算出された障害物までの距離を、音声として、出力する。例えば、音声装置170は、「障害物までの距離は20mです」との
音声を出力する。これらによって、車両10の運転者は、前方の障害物と障害物までの距離とを認識することができる。また、車両10が自動運転されている場合、車両制御装置150は、安全に障害物を避けるように車両10を制御する。
図11は、表示装置に表示される画像の例を示す図である。図11の表示装置160に表示される画像は、図10の画像に障害物までの距離の情報が重ねられている。図11の例では、車両10から障害物までの距離は、20mである。車両10から障害物までの距離は、画像内の障害物の領域の一番低い位置を基準としている。
(変形例)
図12は、変形例のシステムの構成例を示す図である。図12のシステムは、車両100及びサーバ200を含む。車両10及びサーバ20は、ネットワークを介して、通信可能に接続されている。車両10は、車載システム100を含む。ここでは、車載システム100は、障害物検出装置140を含まない。
ここでは、障害物検出装置140及び3次元地図DB130は、サーバ20に含まれる。また、3次元地図DB130も、このとき、車両10の車載システム100は、カメラ110で撮影した撮影画像をサーバ20に送信する。また、車両10の車載システム100は、GPS120で取得した車両10の現在位置及び車両10の向き等の情報を、サーバ20に送信する。サーバ20では、障害物検出装置140が、撮影画像、車両10の現在位置、3次元地図DB130の3次元地図情報などに基づいて、障害物を検出する。サーバ20における障害物検出装置140の動作は、図3で示される動作フローの動作と同様である。障害物検出装置140は、障害物を検知すると、障害物の情報を、車両10に送信する。障害物の情報を送信された車両10では、図3で示される動作フローの動作と同様に、表示装置160、音声装置170、車両制御装置150において、障害物の検知に対する処理が行われる。
一方、車両10が障害物検出装置140を含み、サーバ20が3次元地図DB130を含んでもよい。このとき、必要に応じて、車両10がサーバ20に利用する範囲の3次元地図情報を要求する。3次元地図情報は、データ容量が大きく、また、頻繁に更新されるため、サーバ20に含むことで、車両10に搭載される記憶容量を削減し、サーバ20の3次元地図情報を更新することで、車両に対して最新の地図情報を提供することができる。
(実施形態の作用、効果)
障害物検出装置140は、3次元地図情報と、カメラ110に撮影された撮影画像とに基づいて、路面上の障害物を検知する。
障害物検出装置140は、模擬画像の路面の領域から、撮影画像に含まれる路面、白線、影の領域を除去し、残りの領域を障害物の領域として検知する。障害物検出装置140は、事前に想定していない(テンプレートにない)障害物を検知することができる。障害物検出装置140は、あらかじめ、路面と、白線と、影とを除去して、障害物を検知するため、影を障害物として誤検知することを防止できる。
障害物検出装置140は、路面の障害物を検知して、運転者に通知することで、事故を回避し、車両10の運転者により安全な運転を促すことができる。
10 車両
20 サーバ
90 情報処理装置
91 プロセッサ
92 メモリ
93 記憶部
94 入力部
95 出力部
96 通信制御部
100 車載システム
110 カメラ
120 GPS
130 3次元地図情報
140 障害物検出装置
141 視点視線一致部
142 2D画像作成部
143 障害物検知部
144 障害物距離算出部
145 通知制御判定部
150 車両制御装置
160 表示装置
170 音声装置

Claims (2)

  1. 車両に搭載されたカメラで撮影された撮影画像、前記車両の位置、前記位置の周辺の地図情報を取得する取得部と、
    前記車両の位置と、前記地図情報とに基づいて、前記撮影画像を模擬する模擬画像を作成する画像作成部と、
    前記撮影画像と前記模擬画像とに基づいて、前記撮影画像に含まれる障害物を検出する障害物検知部と、を備え
    前記地図情報は、路面の位置情報及び白線の位置情報を含み、
    前記画像作成部は、前記路面の位置情報及び前記白線の位置情報を含む前記地図情報に基づいて、前記路面の領域及び前記白線の領域を含む前記模擬画像を作成し、
    前記障害物検知部は、前記模擬画像における路面の領域及び白線の領域から、前記撮影画像における路面の領域、白線の領域及び影の領域を除外した領域を、障害物の領域として検知する、
    障害物検出装置。
  2. コンピュータが、
    車両に搭載されたカメラで撮影された撮影画像、前記車両の位置、及び、路面の位置情報及び白線の位置情報を含む、前記位置の周辺の地図情報を取得し、
    前記車両の位置と、前記路面の位置情報及び前記白線の位置情報を含む前記地図情報とに基づいて、前記撮影画像を模擬する、前記路面の領域及び前記白線の領域を含む模擬画像を作成し、
    前記撮影画像と前記模擬画像とに基づいて、前記模擬画像における路面の領域及び白線の領域から、前記撮影画像における路面の領域、白線の領域及び影の領域を除外した領域を、前記撮影画像に含まれる障害物の領域として検出する、
    ことを実行する障害物検出方法。
JP2015133814A 2015-07-02 2015-07-02 障害物検出装置、及び、障害物検出方法 Active JP6610994B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015133814A JP6610994B2 (ja) 2015-07-02 2015-07-02 障害物検出装置、及び、障害物検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133814A JP6610994B2 (ja) 2015-07-02 2015-07-02 障害物検出装置、及び、障害物検出方法

Publications (2)

Publication Number Publication Date
JP2017016474A JP2017016474A (ja) 2017-01-19
JP6610994B2 true JP6610994B2 (ja) 2019-11-27

Family

ID=57830803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133814A Active JP6610994B2 (ja) 2015-07-02 2015-07-02 障害物検出装置、及び、障害物検出方法

Country Status (1)

Country Link
JP (1) JP6610994B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151427A1 (ja) * 2018-02-02 2019-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報送信方法及びクライアント装置
JP7203514B2 (ja) * 2018-05-31 2023-01-13 株式会社デンソーテン 走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法
JP7350500B2 (ja) * 2019-03-28 2023-09-26 日産自動車株式会社 遠隔操作用画像の表示方法及び遠隔操作装置
WO2023095344A1 (ja) * 2021-11-29 2023-06-01 日本電気株式会社 障害物検出装置、障害物検出方法、及び非一時的なコンピュータ可読媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4327062B2 (ja) * 2004-10-25 2009-09-09 三菱電機株式会社 ナビゲーション装置
JP4614098B2 (ja) * 2006-03-28 2011-01-19 アイシン・エィ・ダブリュ株式会社 周辺状況認識装置及び方法

Also Published As

Publication number Publication date
JP2017016474A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
US11468753B2 (en) Intrusion detection system, intrusion detection method, and computer-readable medium
US8854231B2 (en) Parking assistance system and method
JP2022520544A (ja) 車両インテリジェント運転制御方法及び装置、電子機器並びに記憶媒体
JP6610994B2 (ja) 障害物検出装置、及び、障害物検出方法
JP6291866B2 (ja) 運転支援装置、および運転支援方法
JP2017162116A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR101573576B1 (ko) Avm 시스템의 이미지 처리 방법
CN111674388B (zh) 用于车辆弯道行驶的信息处理方法和装置
KR20220026422A (ko) 카메라 캘리브레이션 장치 및 이의 동작 방법
JP2011134207A (ja) 運転記録装置および地図作成システム
JPWO2014076769A1 (ja) 検出装置、方法及びプログラム
JP2014089548A (ja) 路面段差検出方法、路面段差検出装置、路面段差検出装置を備えた車両
CN112529968A (zh) 摄像设备标定方法、装置、电子设备及存储介质
JP5825713B2 (ja) 車両用危険場面再現装置
US9365195B2 (en) Monitoring method of vehicle and automatic braking apparatus
JP2013018406A (ja) 駐車枠の認識装置、駐車枠の認識方法、及び、プログラム
JP6638527B2 (ja) 車両用装置、車両用プログラム
JP5695000B2 (ja) 車両周辺監視装置
US20220172490A1 (en) Image processing apparatus, vehicle control apparatus, method, and program
JP6665522B2 (ja) 情報処理装置、情報処理システム、および情報処理プログラム
JP2015028696A (ja) 車両後側方警報装置、車両後側方警報方法および他車両距離検出装置
JP5742559B2 (ja) 位置判定装置およびナビゲーション装置並びに位置判定方法,プログラム
JP2007153087A (ja) 障害物衝突判定システム、障害物衝突判定方法及びコンピュータプログラム
JP2022161066A (ja) 表示制御システム、表示制御方法及びプログラム
JP2011180020A (ja) 距離認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191017

R150 Certificate of patent or registration of utility model

Ref document number: 6610994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250