JP2019134266A - 画像処理装置、画像処理方法および運転支援システム - Google Patents

画像処理装置、画像処理方法および運転支援システム Download PDF

Info

Publication number
JP2019134266A
JP2019134266A JP2018014064A JP2018014064A JP2019134266A JP 2019134266 A JP2019134266 A JP 2019134266A JP 2018014064 A JP2018014064 A JP 2018014064A JP 2018014064 A JP2018014064 A JP 2018014064A JP 2019134266 A JP2019134266 A JP 2019134266A
Authority
JP
Japan
Prior art keywords
search
unit
image processing
region
deposit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018014064A
Other languages
English (en)
Other versions
JP7011478B2 (ja
Inventor
谷 泰司
Taiji Tani
泰司 谷
橋本 順次
Junji Hashimoto
順次 橋本
笠目 知秀
Tomohide Kasame
知秀 笠目
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
修久 池田
Nobuhisa Ikeda
修久 池田
信徳 朝山
Nobutoku Asayama
信徳 朝山
河野 貴
Takashi Kono
貴 河野
山本 大輔
Daisuke Yamamoto
大輔 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018014064A priority Critical patent/JP7011478B2/ja
Publication of JP2019134266A publication Critical patent/JP2019134266A/ja
Application granted granted Critical
Publication of JP7011478B2 publication Critical patent/JP7011478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】付着物の影響を排除してセンシングを継続して行うこと。【解決手段】実施形態に係る画像処理装置は、検出部と、探索部とを備える。検出部は、撮像装置によって撮像された撮像画像から撮像装置に付着物が付着した付着物領域を検出する。探索部は、撮像画像に対して複数の探索領域を設定し、探索領域毎に対象物を探索する。また、探索部は、検出部によって検出された付着物領域を含む探索領域の探索を停止するとともに、残りの探索領域の探索を継続して行う。【選択図】図1B

Description

本発明は、画像処理装置、画像処理方法および運転支援システムに関する。
従来、車両の周囲が撮像された撮像画像に基づいて路面上の白線や車両への接近物などをセンシングする画像処理装置がある。また、かかる画像処理装置では、撮像装置のレンズに付着した雨滴や雪片などの付着物による影響を排除するために、付着物を検出した場合に、センシング動作を停止する(例えば、特許文献1参照)。
特開2015−026987号公報
しかしながら、従来技術では、付着物を検出した場合に、全てのセンシング動作を停止させるため、付着物の影響が少ないセンシング動作も停止されていた。
本発明は、上記に鑑みてなされたものであって、付着物の影響を排除してセンシングを継続して行うことができる画像処理装置、画像処理方法および運転支援システムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、実施形態に係る画像処理装置は、検出部と、探索部とを備える。前記検出部は、撮像装置によって撮像された撮像画像から前記撮像装置に付着物が付着した付着物領域を検出する。前記探索部は、前記撮像画像に対して複数の探索領域を設定し、前記探索領域毎に対象物を探索する。また、前記探索部は、前記検出部によって検出された前記付着物領域を含む前記探索領域の前記探索を停止するとともに、残りの前記探索領域の前記探索を継続して行う。
本発明によれば、付着物の影響を排除してセンシングを継続して行うことができる。
図1Aは、画像処理装置の搭載例を示す図である。 図1Bは、画像処理方法の概要を示す図である。 図2は、運転支援システムのブロック図である。 図3Aは、継続条件の一例を示す図である。 図3Bは、待機時間の一例を示す図である。 図4Aは、探索領域の設定処理の具体例を示す図(その1)である。 図4Bは、探索領域の設定処理の具体例を示す図(その2)である。 図4Cは、探索領域の設定処理の具体例を示す図(その3)である。 図4Dは、移動物に対する処理の具体例を示す図である。 図5は、算出部による処理の具体例を示す図である。 図6は、生成部による処理の具体例を示す図である。 図7は、画像処理装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、実施形態に係る画像処理装置、画像処理方法および運転支援システムについて説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
まず、図1Aおよび図1Bを用いて実施形態に係る画像処理装置および画像処理方法の概要について説明する。図1Aは、画像処理装置の搭載例を示す図である。図1Bは、画像処理方法の概要を示す図である。
図1Aに示すように、実施形態に係る画像処理装置1は、車両Cに搭載される。車両Cは、例えば、それぞれ異なる撮像領域を有する4つのカメラを有する。具体的には、車両Cは、車両Cの前方を撮像するフロントカメラ10f、車両Cの後方を撮像するバックカメラ10b、車両Cの左側方を撮像する左カメラ10lおよび車両Cの右側方を撮像する右カメラ10rを備える。なお、以下では、それぞれのカメラを区別する必要がない場合、「カメラ10」と記載する。
画像処理装置1は、カメラ10によって撮像された撮像画像Lに対して、障害物検知や白線検知等の各種センシングを行う。かかる各種センシング結果は、車両Cの自動運転や自動駐車に用いられる。
ところで、カメラ10は、車両Cの外部に設置されるので、カメラ10のレンズには、水滴をはじめとして付着物が付着する場合がある。かかる場合に、撮像画像Lに付着物が写り込み、上記の各種センシングを阻害するおそれがある。
このため、従来技術では、付着物を検出した場合に、全てのセンシング動作を停止していた。しかしながら、全てのセンシング動作を停止させると、車両Cの自動運転や自動駐車を停止させる必要が生じる。
そこで、実施形態に係る画像処理方法では、撮像画像Lにおいて付着物が付着している付着物領域のセンシングを停止するものの、付着物領域以外の領域についてセンシングを継続して行うこととした。
以下、図1Bを用いて実施形態に係る画像処理方法の概要について説明する。なお、図1Bでは、車両Cの後方に配置されたバックカメラ10bによって撮像された撮像画像Lから車両Cが駐車するための白線を探索する場面を示す。
図1Bに示すように、実施形態に係る画像処理方法では、まず、付着物領域Rfを検出する(ステップS1)。ここで、付着物領域Rfは、撮像画像Lにおいてカメラ10のレンズに付着物が付着している領域である。また、付着物は、例えば、水滴、雪、泥、ごみ等を含む。なお、図1Bにおいて付着物領域Rfを黒塗で示す。
続いて、実施形態に係る画像処理方法では、対象物を探索する(ステップS2)。同図に示す例では、対象物が、駐車枠Psであり、駐車枠Psを検出するための2つの探索領域Rs1、Rs2が設定されている場面を示す。
ここで、探索領域Rs1と探索領域Rs2とを比較すると、探索領域Rs1は、複数の付着物領域Rfを含む一方、探索領域Rs2は付着物領域Rfを含まない。
つまり、図1Bに示す例において、探索領域Rs1については、駐車枠Psと付着物が重畳するため、駐車枠Psの検出精度が低下するおそれがある。一方、探索領域Rs2については、駐車枠Psと付着物が重畳していないので、探索領域Rs1に比べて駐車枠Psを精度よく検出することが可能となる。
このため、実施形態に係る画像処理方法では、探索領域Rs1における駐車枠Psの探索を停止するとともに、探索領域Rs2において駐車枠Psの探索を継続して行う。
つまり、撮像画像Lにおいて、付着物により対象物の探索精度が低下する領域については探索を停止するものの、付着物により対象物の探索精度が低下しない領域については、探索を継続して行う。
したがって、実施形態に係る画像処理方法によれば、付着物の影響を排除してセンシングを継続して行うことができる。
次に、図2を用いて実施形態に係る運転支援システム100の構成例について説明する。図2は、運転支援システム100のブロック図である。図2に示すように、運転支援システム100は、画像処理装置1と、車両制御装置15とを備える。また、図2には、カメラ10、舵角センサ11、速度センサ12、シフトセンサ13を併せて示す。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、例えば車両の周囲を撮像する位置にそれぞれ取り付けられる。また、カメラ10のレンズには、魚眼レンズ等の広角レンズが採用される。これにより、車両Cの全周囲を撮像することが可能となる。カメラ10によって撮像された撮像画像Lは、画像処理装置1に出力される。
舵角センサ11は、車両Cの現在の舵角を検出するセンサであり、検出結果を画像処理装置1に随時出力する。速度センサ12は、車両Cの走行速度を検出するセンサであり、検出結果を画像処理装置1に随時出力する。また、シフトセンサ13は、車両Cのシフトレバの位置を検出するセンサであり、検出結果を画像処理装置1に随時出力する。
車両制御装置15は、車両Cの自動運転や運転アシスト(例えば、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)など)の車両制御を行う。例えば、車両制御装置15は、画像処理装置1から入力されるセンシング結果に基づいて自動駐車制御等の上記の車両制御を行うことができる。なお、車両制御装置15を画像処理装置1の構成に含めることにしてもよい。
画像処理装置1は、制御部2および記憶部3を備える。制御部2は、検出部21と、探索部22と、算出部23と、生成部24とを備える。制御部2は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の検出部21、探索部22、算出部23および生成部24として機能する。
また、制御部2の検出部21、探索部22、算出部23および生成部24の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、辞書情報31や各種プログラムの情報を記憶することができる。なお、画像処理装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
制御部2の検出部21は、カメラ10によって撮像された撮像画像Lからカメラ10に付着物が付着した付着物領域Rfを検出する。検出部21は、付着物として水滴、雪片(レンズの凍結を含む)、泥、ごみ等を検出することができる。
例えば、検出部21は、付着物の種類に応じてそれぞれ異なるアルゴリズムを用いて撮像画像Lを解析することで、付着物領域Rfを検出することができる。
検出部21は、付着物領域Rfの撮像画像Lにおける座標位置と付着物の種類を撮像画像Lに対応付けて探索部22へ出力する。なお、図1Aに示したように、複数のカメラ10を備える場合、各カメラ10によって撮像されたそれぞれの撮像画像Lに対して付着物領域Rfを検出する。
探索部22は、撮像画像Lに対して複数の探索領域Rsを設定し、探索領域Rs毎に対象物を探索する。また、探索部22は、検出部21によって検出された付着物領域Rfを含む探索領域Rsの探索を停止するとともに、残りの探索領域Rsの探索を継続して行う。
例えば、探索部22は、記憶部3に記憶された辞書情報31を参照して撮像画像Lから対象物を探索する。例えば、辞書情報31は、撮像画像Lに写る物体が対象物か否かを判定する基準となる情報であり、機械学習によって予め作成される。
例えば、形状が既知の複数種類の対象物の画像と、対象物以外の物体の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数10000枚の画像)準備する。
続いて、準備した各画像から、例えば、HOG(Histogram of Gradient)特徴量を抽出する。そして、前述の予め準備した画像を、抽出したHOG特徴量に基づいて2次元平面状にプロットする。
続いて、例えば、SVM(Support Vector Machine)等の識別器によって、2次元平面上における対象物の画像と対象物以外の物体の画像とを分離する分離線を生成する。かかる2次元平面の座標軸および識別器によって生成された分離線の情報が辞書情報31となる。
なお、予め準備した画像から抽出する特徴量は、HOG特徴量に限定されず、SIFT(Scale Invariant Feature Transform)特徴量であってもよい。また、対象物の画像と対象物以外の物体の画像との分離に用いる識別器は、SVMに限定されず、例えば、アダブースト(AdaBoost)等の識別器であってもよい。
なお、対象物は、例えば、他車両、歩行者、駐車枠等を含み、対象物の種類に応じて異なる辞書が辞書情報31として記憶部3に記憶される。
ここで、探索部22は、探索する対象物の種類に応じて設定される継続条件に基づいて探索を継続するか停止するかを判定する。図3Aは、継続条件の一例を示す図である。
図3Aに示すように、例えば、継続条件は、対象物の種類に応じて設定される。ここでは、対象物の種類が、駐車枠、障害物(静止物)、障害物(移動物)等に大別される場合について示している。
例えば、対象物が駐車枠である場合の継続条件は、例えば、探索領域Rsに対して付着物領域Rfが占める割合が20%以下である。すなわち、探索部22は、付着物領域Rfが占める割合が20%以下である探索領域Rsにおいて駐車枠の探索を継続する。
また、探索部22は、付着物領域Rfが占める割合が20%を超える探索領域Rsにおいて駐車枠の探索を継続せず、探索を停止する。また、対象物が障害物(静止物)である場合の継続条件は、探索領域Rsに対して付着物領域Rfが占める割合が30%以下である。
一方、探索部22は、対象物が障害物(移動物)である場合、継続条件を設けず、探索を継続して行う。これは、対象物が障害物(移動物)である場合、移動する方向や、移動速度が急に変化する可能性が高いためである。すなわち、障害物(移動物)が、車両Cの走行経路に急に入ってくる可能性があるためである。
このため、探索部22は、付着物領域Rfの有無によらず、探索領域Rsにおいて障害物(移動物)を追従して探索することで、車両Cと障害物(移動物)との衝突を未然に抑制することができる。
このように、実施形態に係る画像処理装置1では、対象物の種類に応じて継続条件を設定することで、対象物の種類に応じて適切に探索を継続するか停止するかを判定することができる。
なお、図3Aに示した継続条件は、一例であり、任意に変更することが可能である。かかる場合に、障害物(移動物)について継続条件を設けることにしてもよい。また、障害物(静止物および移動物)については、車両Cとの距離が近いほど、継続条件を緩和することにしてもよい。言い換えれば、車両Cと接触する可能性が高いほど、探索部22が対象物を探索するようにしてもよい。
また、探索部22は、付着物領域Rfの付着物の種類に応じても探索を継続するか否かを判定することができる。例えば、探索部22は、付着物がごみや、泥などである場合、探索を継続しないと判定する。一方、探索部22は、付着物が水滴や雪片である場合、探索を停止せず、待機させる。
これは、付着物がごみや、泥などである場合、時間が経過しても付着物が保持されている可能性が高いためである。また、カメラ10を起動すると、カメラ10のレンズが熱を帯びるため、付着物が水滴や雪片である場合、時間が経過すると、蒸発する可能性があるためである。
図3Bは、待機時間の一例を示す図である。探索部22は、付着物が水滴や雪片である場合、付着物の大きさに応じて探索を再開するまでの待機時間を設定する。
図3Bに示すように、待機時間は、付着物の大きさが大きくなるほど、長くなり、例えば、待機時間線aによって定義される。すなわち、水滴や雪片の大きさが大きいほど、蒸発するまでに時間が長くかかるので、待機時間が長く設定される。
なお、探索部22は、待機時間線aの傾きについて例えば、気温、湿気等によって補正することも可能である。すなわち、気温が高く、湿度が低いほど、水滴が早く蒸発するので、待機時間線aの傾きを小さくし、気温が低く、湿度が高いほど、水滴が蒸発しにくいので、待機時間線aの傾きを多くする。
このように、探索部22は、付着物の種類に応じて探索を継続するか否かを判定することで、不必要に探索を停止することなく対象物の探索を継続して行うことが可能となる。
ところで、探索部22は、対象物の種類に応じて探索領域Rsを設定することも可能である。ここで、図4A〜図4Cを用いて探索領域Rsの設定処理の具体例について説明する。
図4A〜図4Cは、探索領域Rsの設定処理の具体例を示す図である。なお、図4A〜図4Cでは、探索部22が、バックカメラ10bの撮像画像Lから車両Cが駐車するための駐車枠Psを検出する場合における探索領域Rsの設定処理について説明する。
図4Aに示すように、探索部22は、バックカメラ10bによって撮像された撮像画像Lから駐車枠Psを検出する場合、複数の探索領域Rsを設定する。具体的には、探索部22は、駐車枠Psを探索する駐車枠領域Rspと、障害物を探索する障害物領域Rsoとを設定する。
駐車枠領域Rspは、例えば、撮像画像Lの左右両端部に設定され、障害物領域Rsoは、2つの駐車枠領域Rspに挟まれるように、撮像画像Lの中央部に設定される。
探索部22は、上記の辞書情報31を参照して、駐車枠領域Rspから駐車枠Ps、他車両、障害物(歩行者や壁等を含む)を探索する。これにより、撮像画像Lから現在駐車可能な駐車枠Psを探索することが可能となる。
一方、障害物領域Rsoについては、探索部22は、他車両、障害物の探索を行うものの、駐車枠Psの探索を省略することができる。これは、障害物領域Rsoは、車両Cの駐車枠Psまでの走行経路に対応するためである。
すなわち、駐車枠領域Rspは、現在駐車可能な駐車枠Psを探索するためのものであり、障害物領域Rsoは、駐車枠Psまで走行経路上の障害物を探索するためのものである。
つまり、探索部22は、探索領域Rs毎に探索する対象物を設定し、探索対象となる対象物の種類に応じて探索領域Rsの位置を設定する。これにより、各探索領域Rsにおいて探索する対象物の種類を限定することができるので、探索部22による処理負荷を抑制することができる。
ここで、例えば、探索部22は、駐車枠領域Rspにおいて、駐車枠Psに対する継続条件(図3A参照)を満たさなくなった場合、駐車枠領域Rspにおける駐車枠Psの探索を停止する。一方、探索部22は、駐車枠領域Rspにおいて、障害物(移動物)の継続条件は満たすので、障害物(移動物)の探索を継続して行う。
このように、探索領域Rs毎に探索する対象物を設定し、対象物の種類に応じて継続条件を設けることで、1つの探索領域Rsにおいて対象物の種類毎に探索を継続するか否かを判定する。これにより、不必要に探索を停止せず、探索を継続して行うことが可能となる。
また、図4Bに示すように、探索部22は、図4Aに示す一方の駐車枠領域Rspで駐車枠Psを検出し、その後、車両Cが後進する場合、駐車枠Psを拡張させる。
具体的には、図4Bに示すように、探索部22は、例えば、シフトセンサ13(図2参照)から車両Cのシフトレバがリバースに切り替わったことを示すリバース信号が入力された場合、駐車枠領域Rspを拡張し、拡張領域Rswを設定する。
すなわち、探索部22は、車両Cが駐車枠Psに実際に駐車する場合に、駐車枠領域Rspを拡張する。ここで、拡張領域Rswには、駐車枠Psに加えて駐車枠Psに隣接する他車両を含む領域が設定される。
これにより、探索部22は、拡張領域Rswから駐車枠Psに加えて他車両や障害物を検出することとなる。したがって、探索部22は、拡張領域Rswから例えば、他車両が動き出した場合や、他車両に乗り込もうとする歩行者等を検出することが可能となる。
つまり、探索部22は、駐車枠Psが存在する駐車枠領域Rspを拡張した拡張領域Rswを設定することで、駐車枠Ps周辺の障害物を検出することが可能となる。
また、探索部22は、図4Cに示すように、車両Cの移動にあわせて駐車枠Psが存在する駐車枠領域Rspを撮像画像L上で移動させることも可能である。例えば、図4Bに示すように、車両Cが後進した場合、撮像画像L上における駐車枠Psの位置が変わる。
このため、探索部22は、駐車枠Psが存在する駐車枠領域Rspの位置を撮像画像L上で補正する。具体的には、探索部22は、舵角センサ11、速度センサ12、シフトセンサ13(いずれも図2参照)によって検出されるセンサ値に基づいて車両Cの進行方向および移動量を算出する。
そして、探索部22は、算出した進行方向および移動量に基づいて駐車枠領域Rspを撮像画像L上で移動させる。同図に示す例では、車両Cが後進するので、駐車枠Psは、撮像画像L上を左から右側に移動することとなる。
このため、探索部22は、車両Cの移動に伴って駐車枠Psが存在する駐車枠領域Rspを右側に移動させる。つまり、探索部22は、対象物を含む探索領域Rsについて車両Cの移動にあわせて撮像画像L上を移動させる。
これにより、駐車枠Psに追従して駐車枠領域Rspを移動させるので、探索する領域を限定して駐車枠Psを探索することができる。なお、ここでは、探索部22が、舵角センサ11、速度センサ12、シフトセンサ13(いずれも図2参照)のセンサ値に基づいて車両Cの進行方向や移動量を算出する場合について説明したが、これに限定されるものではない。
すなわち、探索部22は、例えば、時間的に連続する撮像画像Lから特徴点を結んだベクトルであるオプティカルフローに基づいて車両Cの進行方向や移動量を算出することにしてもよい。かかる場合に、画像処理装置1を舵角センサ11、速度センサ12、シフトセンサ13等に接続しなくてよいので、画像処理装置1の設置作業を簡略化することが可能となる。
ところで、例えば、駐車枠領域Rspを拡張した結果、拡張領域Rswが上記の継続条件から外れる場合や、駐車枠領域Rspを車両Cの移動に伴って移動させた結果、駐車枠領域Rspが継続条件から外れる場合がある。
かかる場合に、探索部22は、拡張領域Rswや移動後の駐車枠領域Rspについて探索を継続して行うことにしてもよいし、探索を停止することにしてもよい。あるいは、対象物の種類によって探索を継続する対象物と、探索を停止する対象物とを設定することにしてもよい。
また、かかる場合に、バックカメラ10bによって撮像された撮像画像Lに対する探索を停止し、例えば、ソナーなど車両Cが備えるその他の機器によって対象物の探索を委ねることにしてもよい。
ところで、図4Dに示すように、探索部22は、移動物の探索を継続して行った場合、移動物と付着物領域Rfとが重なる場合がある。かかる場合に、探索部22は、警告を出力する。
図4Dは、移動物に対する処理の具体例を示す図である。なお、図4Dでは、探索部22が、移動物として歩行者Hを探索する場合について説明する。例えば、図4Dに示すように、撮像画像L上を歩行者Hが移動し、付着物領域Rfと重なる場合がある。
付着物領域Rfと歩行者Hとが重なると、探索部22による歩行者Hの探索精度が低下する。言い換えれば、探索部22によって探索された歩行者Hの信頼性が低下する。このため、探索部22は、付着物領域Rfと歩行者Hとが重なる場合に、例えば、車両制御装置15に対して警告を出力する。
車両制御装置15は、かかる警告により、歩行者Hが付着物領域Rfと重なったことを認識することができる。これにより、車両制御装置15は、歩行者Hが存在する方向への車両Cの移動を抑制することができる。
また、探索部22は、車両Cが自動運転機能を備えず、撮像画像Lが車両Cのモニタに表示される場合、運転者に対して上記の警告を出力する。これにより、運転者に対してモニタに表示された撮像画像Lから歩行者Hを確認させることができるので、車両Cと歩行者Hとの衝突を未然に回避することができる。
また、探索部22は、付着物領域Rfによって継続して探索する探索領域Rsがないと判定した場合、車両制御装置15に通知する。すなわち、探索部22は、設定した全ての探索領域Rsが継続条件(図3A参照)を満たさなくなった場合、車両制御装置15に通知する。
車両制御装置15は、車両Cの駐車制御中に探索部22から探索領域Rsがないと通知された場合、車両Cに対する駐車制御を停止する。これにより、車両Cは安全に停車又は手動による駐車制御に移行することができる。なお、例えば、車両制御装置15は、駐車制御における進行方向の探索領域Rsについて探索部22によって探索が停止された場合に、駐車制御を停止することにしてもよい。
図2に戻って、算出部23について説明する。算出部23は、探索部22によって探索された対象物との相対位置を算出する。図5は、算出部23による処理の具体例を示す図である。
図5に示すように、算出部23は、撮像画像Lにおける対象物LOの位置を実際の路面上の座標に変換する。具体的には、算出部23は、撮像画像Lを等距離射影方式により変換した平面に対してカメラ10の取付俯角だけ回転させる。これにより、対象物LOの路面上の座標O(x1,y1)を算出することができ、対象物との相対位置を算出することができる。
なお、算出部23は、撮像画像Lに複数の対象物LOが含まれる場合、各対象物LOについて相対位置を算出する。算出部23は、算出した相対位置に対象物の種類を対応付けて生成部24(図2参照)へ出力する。
図2の説明に戻り、生成部24について説明する。生成部24は、算出部23によって算出された相対位置に基づいて対象物の位置関係を示すマップを生成する。
図6は、生成部24による処理の具体例を示す図である。なお、図6では、車両Cが駐車場を直進後の場面を示す。図6に示すように、例えば、生成部24は、算出部23によって算出された対象物との相対位置に基づいてマップを生成する。
図6に示す例では、マップには、車両Cの現在地Xと、駐車枠Psと、他車両が存在する他車両領域Poとを含む俯瞰マップである場合を示す。すなわち、マップは、車両Cの現在地X、駐車枠Ps、他車両領域Poの位置関係を示す。
ここで、駐車枠Psは移動しない。このため、生成部24は、車両Cの移動にあわせてマップ上で現在地Xを更新することで、駐車枠Psまでの位置関係を把握することが可能である。
つまり、生成部24が、マップを生成することで、駐車枠Psの位置を求めれば、以降の駐車枠Psの探索処理を省略することができる。かかる場合に、探索部22は、駐車枠Ps以外の障害物を探索すればよいので、探索部22による処理負荷を抑制することができる。
生成部24によって生成されたマップは、車両制御装置15(図2参照)へ出力される。これにより、車両制御装置15は、かかるマップに基づいて車両Cの現在地X、駐車枠Ps、他車両の位置関係を容易に把握することが可能となる。
次に、図7を用いて実施形態に係る画像処理装置1が実行する処理手順について説明する。図7は、画像処理装置1が実行する処理手順を示すフローチャートである。
図7に示すように、まず、検出部21は、付着物領域Rfを検出する(ステップS101)。続いて、探索部22は、探索する対象物に応じて探索領域Rsを設定する(ステップS102)。
続いて、探索部22は、付着物領域Rfを含まない探索領域Rsである継続領域が有るか否かを判定する(ステップS103)。ここで、探索部22は、継続領域が有った場合(ステップS103,Yes)、継続領域に対象物が有るか否かを判定する(ステップS104)。
ここで、継続領域に対象物が有った場合(ステップS104,Yes)、算出部23は、対象物との位置関係を算出する(ステップS105)。そして、生成部24は、対象物との位置関係に基づいてマップを生成し(ステップS106)、処理を終了する。
一方、ステップS103の判定において継続領域がなかった場合(ステップS103,No)、探索部22は、全ての探索を停止し(ステップS107)、処理を終了する。
また、車両制御装置15は、車両Cの駐車制御中に探索部22がステップS103の判定において継続領域がないと判定した場合、すなわち、全ての探索領域Rsが継続条件を満たさない場合、車両Cに対する駐車制御を停止する。これにより、車両Cは安全に停車又は手動による駐車制御に移行することができる。また、制御部2は、継続領域に対象物がなかった場合(ステップS104,No)、処理を終了する。
上述したように、実施形態に係る画像処理装置1は、検出部21と、探索部22とを備える。検出部21は、カメラ10(撮像装置の一例)によって撮像された撮像画像Lからカメラ10に付着物が付着した付着物領域Rfを検出する。探索部22は、撮像画像Lに対して複数の探索領域Rsを設定し、探索領域Rs毎に対象物を探索する。
また、探索部22は、検出部21によって検出された付着物領域Rfを含む探索領域Rsの探索を停止するとともに、残りの探索領域Rsの探索を継続して行う。したがって、実施形態に係る画像処理装置1によれば、付着物の影響を排除してセンシングを継続して行うことができる。
ところで、上述した実施形態では、撮像画像Lに探索領域Rsを設定し、探索領域Rsにおける付着物領域Rfが占める割合に基づいて探索領域Rsの探索を継続するか否かを判定する場合について説明したが、これに限定されるものではない。
すなわち、少なくとも一つの探索領域Rsにおいて、付着物領域Rfが占める割合が所定値以上であった場合、撮像画像Lにおける全ての領域について探索を停止することにしてもよい。
また、かかる場合に、かかる撮像画像Lを撮像したカメラ10に対する探索を停止することにしてもよいし、あるいは、全てのカメラ10に対する探索を停止することにしてもよい。
また、上述した実施形態では、カメラ10が車両Cに設定される車載カメラである場合について説明したが、これに限定されるものではない。すなわち、カメラ10は、街灯や建物等に設けられる固定カメラであってもよい。
また、上述した実施形態では、画像処理装置1が、車両Cに搭載される場合について説明したが、これに限定されるものではない。すなわち、画像処理装置1は、車両Cの他、船舶や鉄道、航空機等である移動体に搭載されてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。
1 画像処理装置
10 カメラ(撮像装置の一例)
21 検出部
22 探索部
23 算出部
24 生成部
L 撮像画像
Rs 探索領域
Rf 付着物領域

Claims (10)

  1. 撮像装置によって撮像された撮像画像から前記撮像装置に付着物が付着した付着物領域を検出する検出部と、
    前記撮像画像に対して複数の探索領域を設定し、前記探索領域毎に対象物を探索する探索部と
    を備え、
    前記探索部は、
    前記検出部によって検出された前記付着物領域を含む前記探索領域の前記探索を停止するとともに、残りの前記探索領域の前記探索を継続して行うこと
    を特徴とする画像処理装置。
  2. 前記探索部は、
    前記対象物の種類に応じて前記探索領域を設定すること
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記撮像装置は、
    移動体に搭載され、
    前記探索部は、
    前記対象物を含む前記探索領域について前記移動体の移動にあわせて前記撮像画像上を移動させること
    を特徴とする請求項1または2に記載の画像処理装置。
  4. 前記探索部は、
    前記対象物を含む前記探索領域について前記移動体の移動に伴って前記探索領域を拡張すること
    を特徴とする請求項3に記載の画像処理装置。
  5. 前記探索部によって探索された前記対象物との相対位置を算出する算出部と、
    前記算出部によって算出された前記相対位置に基づいて前記対象物の位置関係を示すマップを生成する生成部と
    をさらに備えること
    を特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。
  6. 前記探索部は、
    前記付着物の種類に応じて前記付着物領域を含む前記探索領域に対する前記探索の継続および停止を判定すること
    を特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 前記探索部は、
    前記対象物が移動物である場合、前記付着物領域の有無によらず当該移動物を追跡して探索すること
    を特徴とする請求項1〜6のいずれか一つに記載の画像処理装置。
  8. 前記探索部は、
    前記移動物が前記付着物領域と重なる場合に、警告を出力すること
    を特徴とする請求項7に記載の画像処理装置。
  9. 請求項1〜8のいずれか一つに記載の画像処理装置と、
    移動体に備えられ、該移動体を駐車制御する車両制御装置と
    を備え、
    前記車両制御装置は、
    前記探索部が前記探索を継続すべき前記探索領域がないと判定した場合、前記移動体に対する駐車制御を停止すること
    を特徴とする運転支援システム。
  10. 撮像装置によって撮像された撮像画像から前記撮像装置に付着物が付着した付着物領域を検出する検出工程と、
    前記撮像画像に対して複数の探索領域を設定し、前記探索領域毎に対象物を探索する探索工程と
    を含み、
    前記探索工程は、
    前記検出工程によって検出された前記付着物領域を含む前記探索領域の前記探索を停止するとともに、残りの前記探索領域の前記探索を継続して行うこと
    を特徴とする画像処理方法。
JP2018014064A 2018-01-30 2018-01-30 画像処理装置、画像処理方法および運転支援システム Active JP7011478B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018014064A JP7011478B2 (ja) 2018-01-30 2018-01-30 画像処理装置、画像処理方法および運転支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018014064A JP7011478B2 (ja) 2018-01-30 2018-01-30 画像処理装置、画像処理方法および運転支援システム

Publications (2)

Publication Number Publication Date
JP2019134266A true JP2019134266A (ja) 2019-08-08
JP7011478B2 JP7011478B2 (ja) 2022-01-26

Family

ID=67546485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018014064A Active JP7011478B2 (ja) 2018-01-30 2018-01-30 画像処理装置、画像処理方法および運転支援システム

Country Status (1)

Country Link
JP (1) JP7011478B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2007328630A (ja) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置
JP2015026987A (ja) * 2013-07-26 2015-02-05 クラリオン株式会社 レンズ汚れ検出装置およびレンズ汚れ検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2007328630A (ja) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置
JP2015026987A (ja) * 2013-07-26 2015-02-05 クラリオン株式会社 レンズ汚れ検出装置およびレンズ汚れ検出方法

Also Published As

Publication number Publication date
JP7011478B2 (ja) 2022-01-26

Similar Documents

Publication Publication Date Title
US20210073557A1 (en) Systems and methods for augmenting upright object detection
JP6246014B2 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
KR20190039648A (ko) 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
EP2701093B1 (en) Sensing system and method for detecting moving objects
JP4901275B2 (ja) 走行誘導障害物検出装置および車両用制御装置
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
KR102082254B1 (ko) 차량 인식 시스템
JP7472832B2 (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US11577748B1 (en) Real-time perception system for small objects at long range for autonomous vehicles
US11753002B2 (en) Vehicular control system
JP4940177B2 (ja) 交通流計測装置
JP2008257378A (ja) 物体検出装置
US10970870B2 (en) Object detection apparatus
JP4762830B2 (ja) 周辺監視システム
JP7011478B2 (ja) 画像処理装置、画像処理方法および運転支援システム
JP2018156222A (ja) 障害物検知装置
JP7323356B2 (ja) 駐車支援装置及び駐車支援方法
JP4013872B2 (ja) 障害物検出装置
KR101983448B1 (ko) 자동 주차를 위한 주차선 검출 방법
JP3543912B2 (ja) オプティカルフロー検出方法
US11417115B2 (en) Obstacle recognition device
JP7149171B2 (ja) 物体認識方法及び物体認識装置
WO2023170910A1 (ja) 外界認識装置、および、外界認識方法
JP2011090490A (ja) 障害物認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220114

R150 Certificate of patent or registration of utility model

Ref document number: 7011478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150