JP2020095620A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2020095620A
JP2020095620A JP2018234797A JP2018234797A JP2020095620A JP 2020095620 A JP2020095620 A JP 2020095620A JP 2018234797 A JP2018234797 A JP 2018234797A JP 2018234797 A JP2018234797 A JP 2018234797A JP 2020095620 A JP2020095620 A JP 2020095620A
Authority
JP
Japan
Prior art keywords
edge
image processing
unit
threshold value
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018234797A
Other languages
English (en)
Inventor
純 金武
Jun Kanetake
純 金武
康貴 岡田
Yasutaka Okada
康貴 岡田
裕明 佐野
Hiroaki Sano
裕明 佐野
亮 吉村
Makoto Yoshimura
亮 吉村
篤 吉原
Atsushi Yoshihara
篤 吉原
山本 徹夫
Tetsuo Yamamoto
徹夫 山本
知騎 倭文
Tomoki Shidori
知騎 倭文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018234797A priority Critical patent/JP2020095620A/ja
Priority to US16/574,462 priority patent/US11250290B2/en
Publication of JP2020095620A publication Critical patent/JP2020095620A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Abstract

【課題】エッジ点を適切に抽出すること。【解決手段】実施形態に係る画像処理装置は、抽出部と、補正部とを備える。抽出部は、車両の周囲が撮像された画像データから駐車枠を区画する区画線に基づくエッジ閾値を超えるエッジ点を抽出する。補正部は、抽出部によって抽出されたエッジ点の密度に基づいてエッジ閾値を補正する。【選択図】図3

Description

本発明は、画像処理装置および画像処理方法に関する。
近年、自動運転技術の発展に伴い、車両の周囲を撮像した画像データから車両を駐車させる駐車枠を検出する画像処理装置が普及しつつある。この種の画像処理装置では、撮像データからエッジ強度が閾値を超えるエッジ点を抽出し、抽出したエッジ点に基づいて駐車枠を検出する(例えば、特許文献1参照)。
特開2017−87758号公報
しかしながら、従来技術では、例えば、路面状況等により、膨大なエッジ点が抽出された場合、処理負荷が増加する。一方で、エッジ強度に対する閾値を高く設定すると、必要なエッジ点を抽出できないおそれがある。
本発明は、上記に鑑みてなされたものであって、エッジ点を適切に抽出することができる画像処理装置および画像処理方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、実施形態に係る画像処理装置は、抽出部と、補正部とを備える。前記抽出部は、車両の周囲が撮像された画像データから駐車枠を区画する区画線に基づくエッジ閾値を超えるエッジ点を抽出する。前記補正部は、前記抽出部によって抽出された前記エッジ点の密度に基づいてエッジ閾値を補正する。
本発明によれば、エッジ点を適切に抽出することができる。
図1Aは、画像処理装置の搭載例を示す図である。 図1Bは、画像処理方法の概要を示す図である。 図2は、画像処理装置のブロック図である。 図3は、線分抽出部のブロック図である。 図4は、エッジ閾値の具体例を示す図である。 図5は、画像処理装置が実行する処理手順を示すフローチャートである。 図6は、図5に示すエッジ線抽出処理の処理手順を示すフローチャートである。
以下、添付図面を参照して、実施形態に係る画像処理装置および画像処理方法について詳細に説明する。なお、本実施形態によりこの発明が限定されるものではない。
まず、図1Aおよび図1Bを用いて実施形態に係る画像処理装置の概要について説明する。図1Aは、画像処理装置の搭載例を示す図である。また、図1Bは、画像処理方法の概要を示す図である。なお、かかる画像処理方法は、図1Aに示す画像処理装置1によって実行される。
図1Aに示すように、実施形態に係る画像処理装置1は、車両Cに搭載され、車載カメラ10によって撮像された撮像データから駐車枠PSを検出する。
車載カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、車両Cの周囲を撮像する。また、車載カメラ10のレンズには、例えば、魚眼レンズなどの広角レンズが採用され、図1Aに示すような撮像領域Rを有する。
なお、図1Aに示す例では、車載カメラ10が、車両Cの左側方を撮像する左サイドカメラである場合について示したが、車載カメラ10には、車両Cの前方を撮像する前方カメラ、車両Cの後方を撮像するバックカメラ、車両Cの右側を撮像する右サイドカメラが含まれる。
ところで、画像処理装置1は、画像データからエッジ強度がエッジ閾値を超えるエッジ点を抽出し、抽出したエッジ点に基づいて駐車枠PSを区画する区画線Lsを検出し、検出した区画線に基づいて駐車枠PSを検出する。
ところで、例えば、路面状況によっては、区画線に加え、路面のざらつきなどをエッジ点として抽出するおそれがある。言い換えれば、区画線以外に不要なエッジ点を抽出するおそれがある。この場合、抽出したエッジ点の個数に応じて処理負荷が増加する。一方で、上記のエッジ閾値を高く設定した場合、区画線に対応するエッジ点まで抽出されないおそれがある。特に、薄暗い場面において撮像された画像データにおいては、区画線とその周囲の輝度差が小さく、区画線に対応するエッジ線を検出できないおそれがある。
そこで、実施形態に係る画像処理方法では、区画線に対応する画素のエッジ強度が区画線の周囲の画素のエッジ強度よりも相対的に高くなる点に着目し、エッジ閾値を動的に設定することとした。つまり、実施形態に係る画像処理方法では、エッジ閾値を動的に設定することで、不要なエッジ点を除去しつつ、区画線に対応するエッジ点を抽出することとした。
具体的には、図1Bに示すように、まず、画像処理装置1は、画像データIからエッジ点を抽出する(ステップS1)。例えば、画像処理装置1は、画像データIをグレースケール画像へ変換し、所定のエッジ処理を施すことで、画像データIに含まれる各画素のエッジ強度を得る。そして、画像処理装置1は、エッジ強度が所定のエッジ閾値を超える画素をエッジ点Pとして抽出する。
続いて、画像処理装置1は、ステップS1にて抽出したエッジ点Pの密度に基づいてエッジ閾値を補正する(ステップS2)。具体的には、実施形態に係る画像処理装置1は、画像データIにおいて路面の解像度が想定的に高い対象領域Rにおけるエッジ点の密度(以下、エッジ密度と記載する)に基づいてエッジ閾値を補正する。
ここで、対象領域Rとは、車載カメラ10によって車両Cから比較的近い路面が撮像されるエリアであり、路面の解像度が高いエリアである。言い換えれば、対象領域Rとは路面のざらつきに基づくエッジ点が抽出されやすいエリアであり、画像の中央下部に設定される領域である。
画像処理装置1は、対象領域Rにおけるエッジ密度が所定値となるように、エッジ閾値を補正する。すなわち、画像処理装置1は、エッジ密度が所定値を超える場合、エッジ閾値が高くなるように補正し、エッジ閾値が所定値以下である場合、エッジ閾値が低くなるように補正する。
言い換えれば、画像処理装置1は、対象領域Rにおいて、上位N%のエッジ強度を有する画素がエッジ点Pとして抽出されるようにエッジ閾値を補正する。そして、画像処理装置1は、補正したエッジ閾値に基づいてエッジ点Pを再抽出することが可能となる。
これにより、実施形態に係る画像処理装置1では、不要なエッジ点Pの抽出を抑えつつ、区画線に対応するエッジ点Pを抽出することが可能となる。つまり、実施形態に係る画像処理装置1によれば、エッジ点Pを適切に抽出することができる。なお、画像処理装置1は、補正後のエッジ閾値を現在のフレームから使用することにしてもよいし、あるいは、次のフレームから使用することにしてもよい。
次に、図2を用いて実施形態に係る画像処理装置1の構成例について説明する。図2は、画像処理装置1のブロック図である。なお、図2には、画像処理装置1を含む駐車支援システム100を示す。図2に示すように、駐車支援システム100は、画像処理装置1と、車載カメラ10と、センサ群Scと、上位ECU(Electronic Control Unit)50とを備える。また、図2に示すように、画像処理装置1と、センサ群Scと、上位ECU50とは、それぞれCAN(Control Area Network)通信の通信規格の通信バスBによって相互に通信することができる。
センサ群Scは、車両Cの走行状態を検出する各種センサであり、検出したセンサ値を画像処理装置1へ通知する。センサ群Scは、車両Cの車輪の回転数を検出する車速センサや、車両Cの舵角を検出する舵角センサ等を含む。
上位ECU50は、例えば、車両Cの自動駐車を支援するECUであり、例えば、画像処理装置1によって検出された駐車枠PSに基づいて車両Cを駐車枠PSへ駐車させる。例えば、上位ECU50は、車両Cの操舵角を制御するEPS(Electric Power Steering)-ECUであり、画像処理装置1によって検出された駐車枠PSへの操舵角を制御することができる。なお、上位ECU50は、アクセル制御やブレーキ制御を行うECUを含むようにすることにしてもよい。
図2に示すように、画像処理装置1は、制御部2と、記憶部3とを備える。制御部2は、線分抽出部21と、不適領域判定部22と、区画線検出部23と、除外判定部24と、駐車枠検出部25と、駐車枠管理部26と、停車位置決定部27とを備える。
制御部2は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の線分抽出部21、不適領域判定部22、区画線検出部23、除外判定部24、駐車枠検出部25、駐車枠管理部26および停車位置決定部27として機能する。
また、制御部2の線分抽出部21、不適領域判定部22、区画線検出部23、除外判定部24、駐車枠検出部25、駐車枠管理部26および停車位置決定部27の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、例えば、RAMやHDDに対応する。RAMやHDDは、各種情報や各種プログラムの情報を記憶することができる。なお、画像処理装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
制御部2は、例えば、車両Cが駐車場を走行していると想定される場合(例えば、車速30Km/h以内)に、後述する駐車枠の検出処理を行うことにしてもよいし、あるいは、車両Cが走行している全ての期間でかかる検出処理を行うことにしてもよい。
線分抽出部21は、車載カメラ10から入力される画像データから各画素の輝度に基づくエッジ点を繋いだエッジ線を検出する。具体的には、線分抽出部21は、車載カメラ10から入力される画像データをグレースケール化することでグレースケール画像へ変換する。グレースケール画像とは、画像データにおける各画素を輝度に応じて白から黒までの各階調(例えば256階調)で表現するように変換する処理である。
続いて、線分抽出部21は、グレースケール画像に対して例えば、ソベルフィルタを適用することで、各画素のエッジ強度および輝度勾配を求めることができる。続いて、線分抽出部21は、エッジ強度がエッジ閾値を超える画素を抽出することで、上記のエッジ点を抽出し、隣接するエッジ点を繋ぐことで、エッジ線を抽出することができる。線分抽出部21は、抽出したエッジ点およびエッジ線に関するエッジ情報を不適領域判定部22へ通知する。なお、線分抽出部21の内部構成の具体例については、図3を用いて後述する。
不適領域判定部22は、線分抽出部21によって抽出されたエッジ点およびエッジ線に基づき、駐車枠を構築する区画線の検出が困難となる不適領域の有無を判定する。例えば、不適領域判定部22は、舗装された路面に比べて、エッジ点が多く抽出される舗装されていない路面領域(例えば、砂利)や、グレーチング領域を不適領域として判定することができる。
具体的には、不適領域判定部22は、各エッジ点の密度が所定値以上であり、各エッジ点の輝度勾配が不均一である領域について、不適領域として判定することができる。不適領域判定部22は、判定した不適領域に基づいて上記のエッジ情報から不適領域に関するエッジ情報を除去して後段の処理へ回す。
区画線検出部23は、線分抽出部21によって抽出されたエッジ線に基づいて駐車枠を区画する区画線の候補となる区画線候補を検出する。具体的には、区画線検出部23は、互いに略平行であり、その間隔が区画線の幅に応じた所定範囲に収まるエッジ線同士を区画線候補として検出する。
すなわち、区画線検出部23は、各区画線の幅方向の左右両端に対応するエッジ線を区画線候補として検出する。区画線検出部23は、検出した区画線候補に関する区画線情報を生成し、除外判定部24へ通知する。
また、区画線検出部23は、不適領域判定部22によって検出された不適領域を除いて、区画線候補の検出処理を行うことができる。言い換えれば、区画線検出部23は、不適領域について区画線候補の検出処理を行わない。これにより、制御部2の処理負荷の抑えることが可能となる。
除外判定部24は、区画線検出部23によって検出された区画線候補に基づいて車両Cの駐車が認められていない駐車不可領域の有無を判定する。例えば、除外判定部24は、駐車不可領域として、ゼブラゾーン(導流帯)などの駐車不可領域の有無を判定する。
具体的には、ゼブラゾーンが、互いに略平行な区画線候補を区画線(支持区画線と記載する)と仮定した場合に、支持区画線に対して傾斜した区画線候補が所定の間隔をあけて3本以上存在する場合に、支持区画線に挟まれた領域を駐車不可領域と判定する。
また、除外判定部24は、路面標識等の駐車枠の検出に不要な区画線候補の有無を判定することも可能である。例えば、除外判定部24は、区画線検出部23によって検出された区画線候補と、各路面標識のテンプレートモデルとのマッチング処理を行うことで画像データに含まれる各路面標識を検出することができる。
除外判定部24は、区画線情報から不要な区画線候補を除去するとともに、区画線情報に駐車不可領域に関する情報を付与して、駐車枠検出部25へ通知する。
駐車枠検出部25は、区画線検出部23によって検出された区画線候補に基づき、駐車枠を検出する。具体的には、駐車枠検出部25は、所定間隔をあけて平行配置される区画線候補について駐車枠として検出する。
ここで、所定間隔とは、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。また、このとき、駐車枠検出部25は、除外判定部24によって駐車不可領域として判定された領域を避けて、駐車枠を検出することができる。
すなわち、ゼブラゾーン等を避けて駐車枠を検出することができる。駐車枠検出部25は、駐車枠を検出すると、駐車枠に関する駐車枠情報を駐車枠管理部26へ通知する。なお、以下では、駐車枠検出部25によって駐車枠として検出された区画線候補について、区画線と記載する。また、駐車枠情報には、車両Cを基準とする各区画線の頂点座標が含まれる。
駐車枠管理部26は、駐車枠検出部25によって検出された駐車枠を時系列で管理する。駐車枠管理部26は、センサ群Scから入力されるセンサ値に基づいて車両Cの移動量を推定し、かかる移動量に基づいて過去の駐車枠情報に基づく実際の各区画線の頂点座標を推定することができる。
また、駐車枠管理部26は、新たに入力される駐車枠情報に基づいて、過去の駐車枠情報における区画線の座標情報を更新することも可能である。すなわち、駐車枠管理部26は、車両Cと駐車枠との相対的な位置関係を車両Cの移動に伴って随時更新する。
また、駐車枠管理部26は、複数の駐車枠がそれぞれ連続して配置されると仮定して、駐車枠の検出範囲を設定することも可能である。例えば、駐車枠管理部26は、駐車枠検出部25によって検出された1つの駐車枠を基準とし、かかる駐車枠と連続して複数の駐車枠が存在すると仮定する。
そして、駐車枠管理部26は、仮定した駐車枠の位置を検出範囲として設定する。これにより、上記の線分抽出部21は、駐車枠管理部26によって設定された検出範囲においてのみ、エッジ線の検出処理を行えばよいので、制御部2の処理負荷を抑えることが可能となる。
停車位置決定部27は、線分抽出部21によって検出されたエッジ線に基づき、車両Cが駐車枠へ駐車する際の停車位置を決定する。例えば、停車位置決定部27は、線分抽出部21によって検出されたエッジ線に基づき、輪留めや縁石、壁、車幅方向に延びる白線などを検出することで、車両Cの停車位置を決定する。すなわち、すなわち、停車位置決定部27は、車両Cから見て、駐車枠PSの奥側の車両Cの車幅方向に伸びる区画線PSまたは輪留めに基づいて停車位置を決定する。
停車位置決定部27は、輪留めを検出した場合、車両Cの後輪が輪留めの手前に来るように停車位置を決定し、輪留めに代えて、白線や壁等を検出した場合、白線の手前に車両Cの後端(例えば、リアバンパの先端)がくるように停車位置を決定する。
次に、図3を用いて線分抽出部21の構成例について説明する。図3は、線分抽出部21のブロック図である。図3に示すように、線分抽出部21は、変換部211と、抽出部212と、補正部213と、検出部214とを備える。また、線分抽出部21が、エッジ線の抽出を行うに当たり、記憶部3は、閾値情報31を記憶する。
閾値情報31は、エッジ閾値に関する情報であり、例えば、デフォルトのエッジ閾値の値や、後述の補正部213によって補正されたエッジ閾値の値に関する情報である。
変換部211は、車載カメラ10から入力される画像データIをグレースケール画像へ変換する。また、変換部211は、グレースケール画像に対してエッジ処理を行うことで、画像データIの各画素のエッジ強度および輝度勾配を求めることもできる。変換部211は、各画素のエッジ強度および輝度勾配に関するエッジ情報を生成し、抽出部212へ渡す。
抽出部212は、エッジ強度がエッジ閾値を超える画素をエッジ点Pとして抽出し、抽出したエッジ点Pに関する情報を補正部213へ渡す。例えば、抽出部212は、閾値情報31に含まれるデフォルトのエッジ閾値を用いて、エッジ点Pを抽出する。また、抽出部212は、補正部213によってエッジ閾値が補正された場合に、補正後のエッジ閾値を用いて、エッジ点Pの再抽出を行う。
補正部213は、抽出部212によって抽出されたエッジ点Pの密度に基づいてエッジ閾値を補正し、補正後のエッジ閾値を抽出部212へ通知する。これにより、抽出部212では、補正後のエッジ閾値を用いて、エッジ点Pの再抽出が行われることとなる。
補正部213は、図1Bに示す対象領域Rにおいて抽出されたエッジ点Pのエッジ密度に基づいてエッジ閾値を補正する。すなわち、補正部213は、対象領域Rにおけるエッジ密度を指標にして、エッジ閾値の補正を行う。
これにより、エッジ閾値を適切な値へ補正することが可能となる。上述のように、対象領域Rは、画像データIにおいて路面の解像度が高い領域である。言い換えれば、対象領域Rのエッジ密度が多い場合、画像データIから相対的に多くのエッジ点Pが抽出されたことを示し、不要なエッジ点Pが抽出されたことを示唆する。
一方、対象領域Rのエッジ密度が小さい場合には、区画線に対応するエッジ点を抽出していない可能性が示唆される。このため、補正部213は、対象領域Rのエッジ密度に基づいてエッジ閾値を補正することで、路面のざらつきに基づくエッジ点Pを適切に除去することが可能となる。なお、補正部213は、対象領域Rを設けずに、画像データI全体のエッジ密度に基づいてエッジ閾値を補正することにしてもよい。
続いて、図4を用いて補正部213によって補正されるエッジ閾値の具体例について説明する。図4は、エッジ閾値の具体例を示す図である。なお、図4は、縦軸に画素の個数を示し、横軸にエッジ強度を示す。
図4に示すように、補正部213は、ヒストグラムを生成し、生成したヒストグラムに基づいてエッジ閾値を補正する。具体的には、補正部213は、エッジ閾値Th1を用いて抽出したエッジ点Pの対象領域Rにおけるエッジ密度が所定値を超える場合、エッジ閾値Th1からエッジ閾値Th1よりも大きい値のエッジ閾値Th2へ補正する。
このとき、補正部213は、ヒストグラムにおいて上位N%のエッジ強度を有する画素のみが抽出される値をエッジ閾値Th2とする。ここで、路面のざらつきに基づくエッジ点Pは、区画線に基づくエッジ点Pよりも相対的にエッジ強度が低い。このため、画像データIに区画線が含まれる場合、区画線に対応するエッジ点Pは、上位N%の大多数を占めることが想定される。
すなわち、補正部213は、上位N%に入る画素のみがエッジ点Pとして抽出されるように、エッジ閾値を補正することで、路面のざらつきに基づくエッジ点Pの抽出を抑制することができる。言い換えれば、区画線に対応するエッジ点Pを効率よく抽出することができる。
なお、ここでは、補正部213が、エッジ閾値の値を高く補正する場合について説明したが、補正部213は、エッジ閾値を低く補正することも可能である。例えば、補正部213は、対象領域Rのエッジ密度が所定の値を下回る場合、エッジ閾値を低く補正する。
これにより、例えば、暗い駐車場など、エッジ点Pが抽出されにくい状況においても、区画線に対応するエッジ点Pを適切に抽出することが可能となる。なお、暗い駐車場など、エッジ点Pが抽出されにくい状況を想定して、デフォルトのエッジ閾値の値が十分に小さい値である場合、補正部213は、エッジ密度が所定値を超える場合にのみ、エッジ閾値を補正することにしてもよい。
すなわち、補正部213は、エッジ密度が所定範囲から逸脱する場合にのみ、エッジ閾値を補正し、エッジ密度が所定範囲内に収まる場合には、デフォルトのエッジ閾値をそのまま用いることにしてもよい。これにより、車両Cの路面の状態に合わせて、エッジ閾値を補正することが可能となる。
図3の説明に戻り、検出部214について説明する。検出部214は、抽出部212によって抽出されたエッジ点Pを繋いでエッジ線を検出する。ここで、検出部214は、抽出部212によってエッジ点Pが再抽出された場合には、再抽出後のエッジ点Pに基づいてエッジ線を検出する。
特に、エッジ閾値が高い値へ補正された場合、再抽出後のエッジ点Pは、再抽出前のエッジ点Pよりも少なくなる。つまり、検出部214は、再抽出後のエッジ点Pを用いてエッジ線を検出することで、少ないエッジ点Pからエッジ線を検出することができるので、エッジ線の検出に要する処理負荷を抑制することができる。
次に、図5を用いて実施形態に係る画像処理装置1が実行する処理手順について説明する。図5は、画像処理装置1が実行する処理手順を示すフローチャートである。なお、かかる処理手順は、例えば、車両Cの車速が所定値以下(例えば、30Km/h)である場合に、制御部2によって繰り返し実行される。
図5に示すように、画像処理装置1は、まず、グレースケール画像からエッジ点およびエッジ線を抽出するエッジ線抽出処理を行い(ステップS101)、エッジ線抽出処理の処理結果に基づいて不適領域判定処理を行う(ステップS102)。
なお、ステップS101のエッジ線抽出処理の具体例については、図6を用いて後述する。続いて、画像処理装置1は、ステップS101にて抽出したエッジ線から区画線候補を検出する区画線検出処理を行う(ステップS103)。
その後、画像処理装置1は、ステップS103までの処理結果に基づき、駐車不可領域などの有無を判定する除外判定処理を行い(ステップS104)、駐車枠を検出する駐車枠検出処理を行う(ステップS105)。
その後、画像処理装置1は、ステップS105において検出した駐車枠を管理する駐車枠管理を行い(ステップS106)、車両Cの駐車枠内において停車させる停車位置を決定する停車位置決定処理を行い(ステップS107)、処理を終了する。
次に、図6を用いて、図5のステップS101に示すエッジ線抽出処理の処理手順について説明する。図6は、図5に示すエッジ線抽出処理の処理手順を示すフローチャートである。
図6に示すように、まず、線分抽出部21は、デフォルトのエッジ閾値を用いて、エッジ点Pを抽出し(ステップS111)、抽出したエッジ点Pに基づき、対象領域Rにおけるエッジ密度を算出する(ステップS112)。
続いて、線分抽出部21は、エッジ密度が所定値よりも大きいか否かを判定する(ステップS113)。線分抽出部21は、エッジ密度が所定値よりも大きい場合(ステップS113,Yes)、エッジ閾値を補正する(ステップS114)。
そして、線分抽出部21は、補正後のエッジ閾値を用いて、エッジ点Pの再抽出を行う(ステップS115)。その後、線分抽出部21は、エッジ点Pに基づいてエッジ線を検出し(ステップS116)、処理を終了する。
一方、線分抽出部21は、ステップS113の判定において、エッジ密度が所定値以下である場合(ステップS113,No)、ステップS111にて抽出したエッジ点Pを用いて、ステップS116の処理を行う。なお、ここでは、エッジ密度が所定値を超える場合に、エッジ閾値を補正する場合について説明したが、エッジ密度がかかる所定値よりも小さい第2所定値を下回る場合に、エッジ閾値を補正することにしてもよい。この場合、エッジ閾値が低くなるように補正することとなる。
上述したように、実施形態に係る画像処理装置1は、抽出部212と、補正部213とを備える。抽出部212は、車両Cの周囲が撮像された画像データIから駐車枠を区画する区画線に基づくエッジ閾値を超えるエッジ点Pを抽出する。補正部213は、抽出部212によって抽出されたエッジ点Pの密度に基づいてエッジ閾値を補正する。したがって、実施形態に係る画像処理装置1によれば、エッジ点を適切に抽出することができる。
ところで、上述した実施形態では、画像処理装置1が、センサ群Sc(図2参照)から車両Cの走行状態に関する情報を取得する場合について説明したが、これに限定されるものではない。すなわち、画像処理装置1は、画像データIからオプティカルフローを抽出し、オプティカルフローに基づいて車両Cの走行状態を推定することにしてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 画像処理装置
21 線分抽出部
22 不適領域判定部
23 区画線検出部
24 除外判定部
25 駐車枠検出部
26 駐車枠管理部
27 停車位置決定部
31 閾値情報
211 変換部
212 抽出部
213 補正部
214 検出部

Claims (7)

  1. 車両の周囲が撮像された画像データから駐車枠を区画する区画線に基づくエッジ閾値を超えるエッジ点を抽出する抽出部と、
    前記抽出部によって抽出された前記エッジ点の密度に基づいて前記エッジ閾値を補正する補正部と
    を備えることを特徴とする画像処理装置。
  2. 前記抽出部は、
    前記補正部によって補正された前記エッジ閾値を用いて、前記エッジ点を再抽出し、再抽出後の前記エッジ点を後段の処理に回すこと
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記補正部は、
    前記画像データにおいて路面の解像度が相対的に高い対象領域における前記エッジ点の密度に基づいて前記エッジ閾値を補正すること
    を特徴とする請求項1または2に記載の画像処理装置。
  4. 前記補正部は、
    前記対象領域における各画素のエッジ強度に対するヒストグラムを生成し、当該ヒストグラムに基づいて前記エッジ閾値を補正すること
    を特徴とする請求項3に記載の画像処理装置。
  5. 前記補正部は、
    前記抽出部によって抽出される前記エッジ点が所定数となるように、前記エッジ閾値を補正すること
    を特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。
  6. 前記補正部は、
    前記エッジ点の密度が所定範囲から逸脱する場合に、前記エッジ閾値を補正すること
    を特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 車両の周囲が撮像された画像データから駐車枠を区画する区画線に基づくエッジ閾値を超えるエッジ点を抽出する抽出工程と、
    前記抽出工程によって抽出された前記エッジ点の密度に基づいて前記エッジ閾値を補正する補正工程と
    を含むことを特徴とする画像処理方法。
JP2018234797A 2018-12-14 2018-12-14 画像処理装置および画像処理方法 Pending JP2020095620A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018234797A JP2020095620A (ja) 2018-12-14 2018-12-14 画像処理装置および画像処理方法
US16/574,462 US11250290B2 (en) 2018-12-14 2019-09-18 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234797A JP2020095620A (ja) 2018-12-14 2018-12-14 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2020095620A true JP2020095620A (ja) 2020-06-18

Family

ID=71072727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234797A Pending JP2020095620A (ja) 2018-12-14 2018-12-14 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US11250290B2 (ja)
JP (1) JP2020095620A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021246378A1 (ja) 2020-06-01 2021-12-09 住友金属鉱山株式会社 シミュレーション装置、シミュレーション方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010133752A (ja) * 2008-12-02 2010-06-17 Topcon Corp 形状測定装置およびプログラム
JP2014013454A (ja) * 2012-07-03 2014-01-23 Clarion Co Ltd 車載用環境認識装置
JP2014238789A (ja) * 2013-06-10 2014-12-18 独立行政法人国立高等専門学校機構 画像処理プログラム、画像処理方法及び画像処理装置

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100418763B1 (ko) 2000-12-28 2004-02-18 현대자동차주식회사 노면경사 측정방법 및 이를 이용한 차량 속도 제어 시스템
US6741186B2 (en) 2001-05-24 2004-05-25 Phillip N. Ross Infrared road line detector
JP3782322B2 (ja) 2001-07-11 2006-06-07 株式会社日立製作所 車載用画像処理カメラ装置
US6920391B2 (en) * 2001-09-12 2005-07-19 Terion, Inc. High resolution tracking of mobile assets
EP1454113A1 (en) 2001-12-05 2004-09-08 SEMICONDUCTOR TECHNOLOGIES & INSTRUMENTS, INC. System and method for inspection using white light interferometry
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP4058369B2 (ja) 2003-03-27 2008-03-05 トヨタ自動車株式会社 駐車支援装置
US7298867B2 (en) * 2004-02-20 2007-11-20 Lockheed Martin Corporation Component association tracker system and method
JP2005300294A (ja) 2004-04-09 2005-10-27 Denso Corp 道路形状検出装置および道路形状検出方法
JP4769625B2 (ja) 2006-04-25 2011-09-07 トヨタ自動車株式会社 駐車支援装置及び駐車支援方法
JP4648282B2 (ja) 2006-10-06 2011-03-09 本田技研工業株式会社 車両用走行制御装置
GB2444533B (en) 2006-12-06 2011-05-04 Sony Uk Ltd A method and an apparatus for generating image content
JP5182545B2 (ja) 2007-05-16 2013-04-17 アイシン精機株式会社 駐車支援装置
KR101188588B1 (ko) 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JP4622001B2 (ja) 2008-05-27 2011-02-02 トヨタ自動車株式会社 道路区画線検出装置および道路区画線検出方法
WO2010088465A1 (en) 2009-02-02 2010-08-05 Gentex Corporation Improved digital image processing and systems incorporating the same
WO2010116922A1 (ja) 2009-04-07 2010-10-14 コニカミノルタオプト株式会社 画像入力装置
JP5397321B2 (ja) 2009-06-09 2014-01-22 株式会社デンソー 駐車支援システム
CN102834309B (zh) 2010-02-26 2016-12-21 金泰克斯公司 自动车辆设备监控、报警和控制系统
TWI431559B (zh) 2010-10-29 2014-03-21 Univ Nat Chiao Tung 車牌偵測辨識方法及其系統
JP2012176641A (ja) 2011-02-25 2012-09-13 Suzuki Motor Corp 駐車枠検出装置
JP5627531B2 (ja) 2011-04-12 2014-11-19 本田技研工業株式会社 運転支援装置
JP5729158B2 (ja) 2011-06-22 2015-06-03 日産自動車株式会社 駐車支援装置および駐車支援方法
JP2013029451A (ja) * 2011-07-29 2013-02-07 Ricoh Co Ltd 付着物検出装置及び付着物検出方法
US8744132B2 (en) 2012-04-06 2014-06-03 Orhan BULAN Video-based method for detecting parking boundary violations
EP2879109B1 (en) * 2012-07-27 2022-02-09 Clarion Co., Ltd. Vehicle-mounted surrounding environment recognition device
JP6015314B2 (ja) 2012-09-28 2016-10-26 アイシン精機株式会社 駐車目標位置を算出する装置、駐車目標位置を算出する方法およびプログラム
JP6045888B2 (ja) 2012-11-27 2016-12-14 クラリオン株式会社 車載画像処理装置
CN104812646B (zh) 2012-11-27 2016-08-17 日产自动车株式会社 车辆用加速抑制装置
CN104822566B (zh) 2012-11-27 2016-07-06 歌乐牌株式会社 车载图像处理装置
JP5958366B2 (ja) 2013-01-29 2016-07-27 株式会社日本自動車部品総合研究所 車載画像処理装置
CN203318408U (zh) 2013-05-09 2013-12-04 北京工业大学 自动泊车系统
KR101449295B1 (ko) * 2013-06-04 2014-10-13 현대자동차주식회사 주차구획 추적 장치 및 방법
JP6120371B2 (ja) 2013-10-23 2017-04-26 クラリオン株式会社 自動駐車制御装置および駐車支援装置
KR101470240B1 (ko) * 2013-11-14 2014-12-08 현대자동차주식회사 주차 영역 검출 장치 및 그 방법
JP6299185B2 (ja) 2013-11-29 2018-03-28 日産自動車株式会社 車両用加速抑制装置及び車両用加速抑制方法
DE102013020315A1 (de) 2013-12-05 2015-06-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Durchführen eines zumindest semi-autonomen Einparkvorgangs eines Kraftfahrzeugs, Parkassistenzsystem und Kraftfahrzeug
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法
JP6384082B2 (ja) 2014-03-26 2018-09-05 富士通株式会社 移動物体検出装置、移動物体検出方法、及びプログラム
JP6348758B2 (ja) 2014-04-15 2018-06-27 本田技研工業株式会社 画像処理装置
JP6230482B2 (ja) 2014-05-19 2017-11-15 本田技研工業株式会社 レーンマーク認識装置、車両及びレーンマーク認識方法
US10328932B2 (en) 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
US10311731B1 (en) * 2014-09-16 2019-06-04 Knightscope, Inc. Autonomous parking monitor
US10325165B2 (en) * 2014-09-30 2019-06-18 Conduent Business Services, Llc Vision-based on-street parked vehicle detection via normalized-view classifiers and temporal filtering
US9902426B2 (en) 2014-10-17 2018-02-27 Hyundai Mobis Co., Ltd. Apparatus and method for driver assistance
US10373226B1 (en) * 2015-06-16 2019-08-06 Amazon Technologies, Inc. Interactive parking facilities
EP3312057B1 (en) 2015-06-19 2020-08-05 Nissan Motor Co., Ltd. Parking assistance device and parking assistance method
JP2017021747A (ja) 2015-07-15 2017-01-26 クラリオン株式会社 車両用駐車支援装置
US20170085790A1 (en) * 2015-09-23 2017-03-23 Microsoft Technology Licensing, Llc High-resolution imaging of regions of interest
JP6649738B2 (ja) 2015-10-15 2020-02-19 株式会社Soken 駐車区画認識装置、駐車区画認識方法
RU2703478C1 (ru) * 2015-10-22 2019-10-17 Ниссан Мотор Ко., Лтд. Способ и устройство помощи при парковке
MY188579A (en) * 2015-10-22 2021-12-22 Nissan Motor Parking space line detection method and device
JP6514624B2 (ja) 2015-11-02 2019-05-15 クラリオン株式会社 障害物検知装置
WO2018009552A1 (en) 2016-07-05 2018-01-11 Nauto Global Limited System and method for image analysis
JP6747369B2 (ja) 2016-09-26 2020-08-26 株式会社Jvcケンウッド 表示制御装置、表示制御方法及びプログラム
US10025317B2 (en) 2016-09-30 2018-07-17 Faraday&Future Inc. Methods and systems for camera-based autonomous parking
KR101965834B1 (ko) 2016-10-12 2019-08-13 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량
JP6773540B2 (ja) 2016-12-07 2020-10-21 クラリオン株式会社 車載用画像処理装置
JP6946652B2 (ja) 2017-02-02 2021-10-06 株式会社アイシン 駐車支援装置
JP6828501B2 (ja) 2017-02-21 2021-02-10 アイシン精機株式会社 駐車支援装置
JP6897258B2 (ja) 2017-04-13 2021-06-30 株式会社デンソー 傾斜検出装置
KR102275310B1 (ko) 2017-04-20 2021-07-12 현대자동차주식회사 자동차 주변의 장애물 검출 방법
KR102001916B1 (ko) 2017-05-30 2019-07-19 엘지전자 주식회사 주차 보조 시스템
WO2018230021A1 (ja) 2017-06-16 2018-12-20 株式会社Jvcケンウッド 表示制御装置、表示制御システム、表示制御方法及び表示制御プログラム
JP6844463B2 (ja) 2017-07-25 2021-03-17 株式会社Jvcケンウッド 表示制御装置、表示制御方法及び表示制御プログラム
KR20170102192A (ko) 2017-08-28 2017-09-08 주식회사 성우모바일 차량 외부정보를 활용한 주차보조시스템 및 그 제어방법
JP6859906B2 (ja) 2017-09-06 2021-04-14 トヨタ自動車株式会社 駐車支援装置
JP6825529B2 (ja) 2017-09-28 2021-02-03 トヨタ自動車株式会社 走行支援装置
CN111417556A (zh) 2017-11-17 2020-07-14 爱信艾达株式会社 车辆位置估计装置以及车辆控制装置
EP3576010A1 (en) 2018-05-31 2019-12-04 KPIT Technologies Ltd. System and method for detection of free parking space for a vehicle
JP7065410B2 (ja) 2018-09-28 2022-05-12 パナソニックIpマネジメント株式会社 空き駐車スペース検知装置および空き駐車スペース検知方法
WO2020117977A1 (en) 2018-12-04 2020-06-11 Sidewalk Labs LLC Methods, systems, and media for coordinating parking availability
US10970878B2 (en) 2018-12-13 2021-04-06 Lyft, Inc. Camera calibration using reference map
JP2021000952A (ja) 2019-06-24 2021-01-07 本田技研工業株式会社 駐車支援システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010133752A (ja) * 2008-12-02 2010-06-17 Topcon Corp 形状測定装置およびプログラム
JP2014013454A (ja) * 2012-07-03 2014-01-23 Clarion Co Ltd 車載用環境認識装置
JP2014238789A (ja) * 2013-06-10 2014-12-18 独立行政法人国立高等専門学校機構 画像処理プログラム、画像処理方法及び画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021246378A1 (ja) 2020-06-01 2021-12-09 住友金属鉱山株式会社 シミュレーション装置、シミュレーション方法、プログラム

Also Published As

Publication number Publication date
US20200193210A1 (en) 2020-06-18
US11250290B2 (en) 2022-02-15

Similar Documents

Publication Publication Date Title
JP2020095622A (ja) 画像処理装置および画像処理方法
US20200193184A1 (en) Image processing device and image processing method
US11138450B2 (en) Image processing device and image processing method
JP2020095623A (ja) 画像処理装置および画像処理方法
EP3631675A1 (en) Advanced driver assistance system and method
US10796172B2 (en) Image processing device and image processing method
US11256933B2 (en) Image processing device and image processing method
CN110809767B (zh) 高级辅助驾驶系统和方法
US11373327B2 (en) Image processing device and method that determine a stop position in a parking frame using images from two cameras
JP7141940B2 (ja) 画像処理装置および画像処理方法
JP7236857B2 (ja) 画像処理装置および画像処理方法
JP2020095620A (ja) 画像処理装置および画像処理方法
US11195032B2 (en) Image processing device and image processing method detecting vehicle parking space
US11145041B2 (en) Image processing device and method predicting areas in which to search for parking space delimiting lines
JP7195131B2 (ja) 画像処理装置および画像処理方法
JP7252750B2 (ja) 画像処理装置および画像処理方法
JP7245640B2 (ja) 画像処理装置および画像処理方法
JP7142131B1 (ja) 車線検出装置、車線検出方法および車線検出プログラム
US20200210723A1 (en) Attached object detection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131