JP2023061621A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2023061621A JP2023061621A JP2021171656A JP2021171656A JP2023061621A JP 2023061621 A JP2023061621 A JP 2023061621A JP 2021171656 A JP2021171656 A JP 2021171656A JP 2021171656 A JP2021171656 A JP 2021171656A JP 2023061621 A JP2023061621 A JP 2023061621A
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- parallax
- image
- image processing
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003973 paint Substances 0.000 claims abstract description 18
- 238000006073 displacement reaction Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 23
- 238000003384 imaging method Methods 0.000 description 13
- 238000010191 image analysis Methods 0.000 description 7
- 238000007619 statistical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000010868 animal carcass Substances 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
【課題】 左右カメラの垂直ずれに起因する視差誤差を高精度に補正することで、路面落下物などの制御対象物と路面ペイント等を正確に区別することができ、低段差の制御対象物を正確に検知できる画像処理装置を提供する。【解決手段】 複数の車載カメラの各々で撮像した複数の画像から、路面上の特定領域を抽出する特定領域抽出部と、前記画像のうち路面であって前記特定領域以外の路面部分から、路面パラメータによってあらわされる路面構造を推定する路面パラメータ推定部と、前記路面構造から、前記特定領域において得られるべき理想的な視差を求める特定領域視差推定部と、前記複数の画像から視差を求める視差画像生成部と、前記特定領域の実際の視差、前記特定領域における理想的な視差、および前記特定領域の前記画像における配置情報を用いて、前記複数の画像の垂直ずれ量を求める垂直ずれ算出部と、を有する画像処理装置。【選択図】 図1
Description
本発明は、車載カメラで撮像した一対の自車前方画像に基づいて自車前方環境を認識する、画像処理装置、および、画像処理方法に関する。
近年の自動車には、自車前方の撮像画像に基づいて、先行車や歩行者等の移動体、ガードレールや路面落下物等の障害物、白線等の路面ペイントを認識し、移動体や障害物との接触可能性があればドライバーに警報を発報したり、接触を回避すべく自動制動、自動操舵したり、白線に沿って走行するように自動操舵したりするシステムを搭載したものがある。そして、この種のシステムで利用される画像処理装置としては、ステレオカメラを利用した特許文献1の画像処理装置が知られている。
特許文献1の要約書の課題欄には「ステレオ画像において垂直方向のずれがある場合でも、ステレオ画像から立体物を正確に検知する。」という記載があり、同文献の請求項2には「前記第一領域内で縦エッジと横エッジがともに存在する特徴点を検出し、前記第二領域内で前記特徴点に対応する対応点を検出して、前記第一領域における前記特徴点と、前記第二領域における前記対応点との間の垂直方向のずれを、前記第一領域と前記第二領域との垂直ずれとして検出する」という記載がある。すなわち、特許文献1の画像処理装置では、ステレオ画像の第一画像内の特徴点に対応する第二画像内の対応点を検出し、特徴点と対応点の垂直ずれから第一画像と第二画像の垂直ずれを検出し、その垂直ずれを考慮して視差算出することで、立体物を正確に検知している。
しかしながら、特許文献1の垂直ずれ検出方法は、第一画像内の特徴点に対応する第二画像内の対応点を特定する必要があるため、ステレオ画像内の特徴が少なく特徴点や対応点の検出が困難である環境(例えば、一様な路面のみを撮像した場合)や、第一画像内の特徴点に対応する第二画像内の対応点候補が多数存在し真の対応点の特定が困難である環境(例えば、路面ペイントの一種である、導流帯(所謂ゼブラゾーン)を撮像した場合)においては、ステレオ画像間の垂直ずれの検出が難しく、低段差の障害物(路面落下物、動物の死骸等)と路面ペイントや影を正確に区別できないこともあり、路面落下物を路面ペイントや影と誤解したり、路面ペイントや影を障害物と誤解したりすることもあった。
そこで、本発明は、左右カメラの垂直ずれに起因する視差誤差を高精度に補正することで、路面落下物などの制御対象物と路面ペイント等を正確に区別することができ、低段差の制御対象物を正確に検知できる画像処理装置を提供することを目的とする。
上記課題を解決するため、本発明の画像処理装置は、複数の車載カメラの各々で撮像した複数の画像から、路面上の特定領域を抽出する特定領域抽出部と、前記画像のうち路面であって前記特定領域以外の路面部分から、路面パラメータによってあらわされる路面構造を推定する路面パラメータ推定部と、前記路面構造から、前記特定領域において得られるべき理想的な視差を求める特定領域視差推定部と、前記複数の画像から視差を求める視差画像生成部と、前記特定領域の実際の視差、前記特定領域における理想的な視差、および前記特定領域の前記画像における配置情報を用いて、前記複数の画像の垂直ずれ量を求める垂直ずれ算出部と、を有するものとした。
本発明の画像処理装置によれば、左右カメラの垂直ずれに起因する視差誤差を高精度に補正することで、路面落下物などの制御対象物と路面ペイント等を正確に区別することができ、低段差の制御対象物を正確に検知することができる。
以下、車載カメラで撮像した一対の自車前方画像に基づいて自車前方環境を認識する、本発明の画像処理装置および画像処理方法の一実施例を、図面を用いて説明する。
(全体構成の説明)
図1に本実施例の画像処理装置100の全体構成図を示す。本実施例の画像処理装置100は、自車前方環境を認識するために利用される車載装置であり、図1に示すように、センサ部1、記憶部2、視差画像生成部3、特定領域抽出部4、理想視差推定部5、垂直ずれ量算出部6、視差画像解析部7を備えている。視差画像解析部7での解析結果は、図示しないECU(Electronic Control Unit)に入力され、自動運転システムや運転支援システムの実現に使用される。
図1に本実施例の画像処理装置100の全体構成図を示す。本実施例の画像処理装置100は、自車前方環境を認識するために利用される車載装置であり、図1に示すように、センサ部1、記憶部2、視差画像生成部3、特定領域抽出部4、理想視差推定部5、垂直ずれ量算出部6、視差画像解析部7を備えている。視差画像解析部7での解析結果は、図示しないECU(Electronic Control Unit)に入力され、自動運転システムや運転支援システムの実現に使用される。
なお、図1の構成のうち、センサ部1以外の構成は、具体的には、CPU等の演算装置、半導体メモリ等の記憶装置、および、通信装置などのハードウェアを備えたコンピュータである。そして、演算装置が所定のプログラムを実行することで、上記した視差画像生成部3や特定領域抽出部4等の各機能を実現するが、以下では、このようなコンピュータ分野の周知技術を適宜省略しながら各部の詳細を説明する。
<センサ部1>
センサ部1は、車両周囲の所定の方向、例えば車両前方に向けて設置された車載カメラであり、左カメラ11と右カメラ12の2台の撮像装置から構成される。なお、以降では、センサ部1がステレオカメラであるものとして本実施例を説明するが、所定の間隔を空けた2台の単眼カメラから構成されるカメラシステムをセンサ部1として使用しても良い。
センサ部1は、車両周囲の所定の方向、例えば車両前方に向けて設置された車載カメラであり、左カメラ11と右カメラ12の2台の撮像装置から構成される。なお、以降では、センサ部1がステレオカメラであるものとして本実施例を説明するが、所定の間隔を空けた2台の単眼カメラから構成されるカメラシステムをセンサ部1として使用しても良い。
<記憶部2>
記憶部2は、半導体メモリ等の記憶装置であり、撮像画像記憶部21、視差画像記憶部22、幾何補正情報記憶部23、垂直ずれ量記憶部24から構成される。
記憶部2は、半導体メモリ等の記憶装置であり、撮像画像記憶部21、視差画像記憶部22、幾何補正情報記憶部23、垂直ずれ量記憶部24から構成される。
撮像画像記憶部21は、左カメラ11の撮像画像と、右カメラ12の撮像画像を記憶する。
視差画像記憶部22は、視差画像生成部3が生成した視差画像PDを記憶する。
幾何補正情報記憶部23は、左カメラ11と右カメラ12の撮像画像に対する幾何補正情報を記憶する。この幾何補正情報は、左カメラ11と右カメラ12のレンズ歪みや光軸ずれによって生じる撮像画像の歪みや位置ずれを補正するための情報であり、工場出荷時等に、センサ部1の光学特性等に応じて予め設定される情報である。なお、幾何補正情報を用いて幾何補正した左右カメラの撮像画像を、以下では、左画像PL、右画像PRと称する。
垂直ずれ量記憶部24は、経年劣化等によって生じた、左カメラ11と右カメラ12の垂直ずれ量djを記憶する。
ここで、図2を用いて、一般的なステレオカメラにおける垂直ずれの影響について説明する。一般的なステレオカメラでは、左画像PLと右画像PRの共通撮像領域を特定することで視差を算出し、カメラ前方の3次元情報を取得する。
図2(a)に示す左右画像の垂直ずれが発生していないステレオカメラでは、左画像PLにおける所定の領域(例えば、白線や影などの斜線の一部を含む第一領域R1)と、その第一領域R1の共通撮像領域である右画像PRにおける第二領域R2が同じ画像縦位置(第一縦位置Y1)にあるため、右画像PR上の第一縦位置Y1を横方向に探索することで、第一領域R1の共通撮像領域である第二領域R2を容易に特定できるため、正確な視差から正確な3次元情報(本例では、斜線が立体物でないことを示す3次元情報)を取得することができる。
一方、図2(b)に示す左右画像の垂直ずれが発生したステレオカメラでは、第一領域R1の共通撮像領域ではない右画像PR内の第三領域R3にも第一領域R1と同等の傾きの斜線が撮像されているため、第一領域R1と第三領域R3が誤ってマッチングしてしまうことがある。この場合、本来の共通撮像領域である第二領域R2と、本来は共通撮像領域でない第三領域R3の間で視差ずれ量dD[pix]が生じることになる。
ここで、左右画像内の斜線の傾きをθ[rad]、左右画像の垂直ずれ量をdj[pix]とすると、視差ずれ量dDは式1で計算される。また、視差ずれ量dDが生じたときの対象物体の高さずれ量dYは、視差値をDとすると、カメラの高さYに対して式2で計算される。
すなわち、垂直ずれが発生したステレオカメラでは、本来存在しない式2の高さずれ量dYが算出されるため、路面上にある白線や影などの斜線が立体物として誤検知される問題がある。ステレオカメラの垂直ずれは、撮像装置の経年劣化や温度変化などから必然的に生じるため、ステレオカメラの稼働中は常に垂直ずれ量を推定し補正する必要がある。
そこで、本実施例の垂直ずれ量記憶部24は、垂直ずれを補正する処理の前提として、垂直ずれ量算出部6が推定した垂直ずれ量を記憶する。垂直ずれ量記憶部24に記憶された垂直ずれ量は、視差画像生成部3での視差算出時に利用されることで、撮像装置間の垂直ずれを補正し、視差を正確に推定できる。その結果、路面上にある白線や影などの斜線を立体物として誤検知することを防止することができる。なお、垂直ずれ量記憶部24は、垂直ずれ量算出部6が現フレームに出力した垂直ずれ量のみを記憶しても良く、また時系列情報として垂直ずれ量算出部6が過去に出力した垂直ずれ量を複数保存しても良い。
<視差画像生成部3>
視差画像生成部3は、幾何補正部31と、視差算出部32から構成されており、撮像画像記憶部21に記憶された左右画像と、幾何補正情報記憶部23に記憶された幾何補正情報と、垂直ずれ量記憶部24に記憶された垂直ずれ量djを入力として、視差画像PDを生成し、記憶部2の視差画像記憶部22に出力する。
視差画像生成部3は、幾何補正部31と、視差算出部32から構成されており、撮像画像記憶部21に記憶された左右画像と、幾何補正情報記憶部23に記憶された幾何補正情報と、垂直ずれ量記憶部24に記憶された垂直ずれ量djを入力として、視差画像PDを生成し、記憶部2の視差画像記憶部22に出力する。
幾何補正部31は、撮像画像記憶部21に記憶された左右画像と、幾何補正情報記憶部23に記憶された幾何補正情報を入力とし、撮像画像を幾何補正する。これにより、レンズの歪みや光軸ずれによって生じる撮像画像の歪みや位置ずれを補正する。また、幾何補正部31は、垂直ずれ量記憶部24に垂直ずれ量djが記憶されている場合は、その値も幾何補正に使用する。
ここで、図3を用いて、垂直ずれ量djを用いた垂直ずれの補正方法を説明する。図示するように、幾何補正後の左画像PLと右画像PRの垂直ずれ量がdjである場合、幾何補正部31は、垂直ずれ量記憶部24に記憶されている垂直ずれ量dj[pix]参照し、右画像PRをdj[pix]だけ垂直方向に移動させることで垂直ずれを補正した補正右画像PR’を生成する。このとき、垂直ずれ量記憶部24に過去複数の垂直ずれ量が記憶されている場合には、過去複数の垂直ずれ量から1つの最もらしい値を算出し、dj[pix]に設定しても良い。複数の垂直ずれ量から1つの値を決定する方法としては、統計的な手法を用いて外れ値を除去し、平均を求めることで決定される。また、その他任意の手法を用いて決定しても良い。なお、図3では、右画像PRを垂直方向に移動させることで補正右画像PR’を生成したが、左画像PLを垂直方向に移動させることで補正左画像PL’を生成しても良い。
視差算出部32は、幾何補正部31によって補正された左右画像から視差画像PDを生成する。具体的には、一方の撮像画像から所定サイズのテンプレート画像を抜き出し、他方の撮像画像でのテンプレートマッチングにより同一対象物の撮像位置の差(視差)を推定する。撮像画像の全領域について視差を算出することで、各画素に視差を格納した視差画像PDを生成する。
<特定領域抽出部4>
特定領域抽出部4は、撮像画像記憶部21に記憶されている撮像画像から特定領域を抽出する。特定領域とは、本実施例では、路面上に存在する斜線領域のことであり(図2参照)、白線、路面ペイント、影、路面のよごれ領域などの各種直線状領域が含まれる。例えば、白線領域は撮像画像中に含まれる白色のエッジを検出することで抽出する。この手法のみに限定されず、セマンティックセグメンテーションのような画素レベルで種別を推定する手法を用いて、白線、路面ペイント、影、路面のよごれ領域などの各種直線状領域を推定しても良い。白線領域を抽出した場合、各画素に白線かどうかを0、1で区別した白線領域マップを、理想視差推定部5と垂直ずれ量算出部6に出力する。また、セマンティックセグメンテーションのような画素レベルで種別を推定する手法を用いた場合は、各画素に種別情報(白線、路面ペイント、影、路面のよごれなど)を格納した種別マップを出力しても良い。また、領域をモデル化(直線や折れ線など)して推定した場合には、モデルのパラメータを出力しても良い。なお、特定領域の抽出精度を高めるために、ディープラーニング等のAI技術を使用しても良い。
特定領域抽出部4は、撮像画像記憶部21に記憶されている撮像画像から特定領域を抽出する。特定領域とは、本実施例では、路面上に存在する斜線領域のことであり(図2参照)、白線、路面ペイント、影、路面のよごれ領域などの各種直線状領域が含まれる。例えば、白線領域は撮像画像中に含まれる白色のエッジを検出することで抽出する。この手法のみに限定されず、セマンティックセグメンテーションのような画素レベルで種別を推定する手法を用いて、白線、路面ペイント、影、路面のよごれ領域などの各種直線状領域を推定しても良い。白線領域を抽出した場合、各画素に白線かどうかを0、1で区別した白線領域マップを、理想視差推定部5と垂直ずれ量算出部6に出力する。また、セマンティックセグメンテーションのような画素レベルで種別を推定する手法を用いた場合は、各画素に種別情報(白線、路面ペイント、影、路面のよごれなど)を格納した種別マップを出力しても良い。また、領域をモデル化(直線や折れ線など)して推定した場合には、モデルのパラメータを出力しても良い。なお、特定領域の抽出精度を高めるために、ディープラーニング等のAI技術を使用しても良い。
<理想視差推定部5>
理想視差推定部5は、撮像画像内の各部の理想視差を推定するものであり、路面パラメータ推定部51と特定領域視差推定部52から構成される。
理想視差推定部5は、撮像画像内の各部の理想視差を推定するものであり、路面パラメータ推定部51と特定領域視差推定部52から構成される。
路面パラメータ推定部51は、視差画像記憶部22に記憶されてる視差画像PDと特定領域抽出部4の出力を受け取り、自車前方の路面構造を推定する。以下、図4を用いて路面パラメータの推定方法について説明する。
まず、図4(a)に示す撮像画像(図示を省略しているが、実際には左右一対の撮像画像)から、図4(b)に示す視差画像PDを生成する。図4(b)の路面領域は、画像縦位置が変化すると各画素に格納されている視差値もなめらかに変化する。一方、車両などの立体物は自車から同距離に存在し、同じ値の視差値が集まっていることがわかる。
図4(b)の視差画像PDから、図4(c)のような横軸D(視差値)、縦軸V(画像縦位置)のv-disparityマップを作成すると、車両などの立体物は縦方向の直線で表現され、路面領域は右下がりの直線で表現される。このため、路面パラメータ推定部51は、この右下がりの直線パラメータを求めることで、路面構造を推定できる。
v-disparityマップを作成する際に、特定領域視差推定部52が推定した特定領域の視差も合わせてプロットすると、誤視差が多く含まれているため直線パラメータを正確に推定できない場合がある。そのため、特定領域視差推定部52が推定した特定領域の視差はv-disparityマップにプロットしないようなノイズ除去処理を追加することも考えられる。また、これに限定されず、任意の路面構造推定手法を用いることもできる。
また、路面パラメータ推定部51は、パラメータ推定結果の信頼度も合わせて出力しても良い。路面パラメータ推定部51が推定した路面パラメータをもとに垂直ずれ量算出部6が垂直ずれ量を算出するため、現走行環境が垂直ずれ量を算出するのに適しているかどうかをパラメータ推定結果の信頼度をもとに判断することが考えられる。パラメータ推定結果の信頼度は、v-disparityマップの作成に使われた視差の量で算出できる。路面の模様や建物の影による光量の現象、また夜間など路面視差が困難な環境では、v-disparityマップにプロットされる情報が減少する。直線パラメータの算出に使用する情報が少ないと精度が低下するため、パラメータ推定結果の信頼度にv-disparityマップにプロットされる視差情報の数を使用することが考えられる。また、直線パラメータをv-disparityマップにフィッティングさせた際のフィッティング度合を信頼度に使用しても良い。また、路面パラメータの推定結果を時系列で参照し、平坦な路面が連続して観測された場合に、高い信頼度を設定することも考えられる。また、天候や時刻情報を取得できる場合には、路面視差の算出が困難な状態(夜間、雨天など)にときに信頼度を下げても良い。
特定領域視差推定部52は、前記した特定領域(斜線)の理想視差を、路面パラメータ推定部51が出力した路面パラメータから推定する。理想視差の推定方法について、図5Aと図5Bを用いて説明する。
図5Aは、登坂中の自車におけるステレオカメラの設置位置を原点とし、奥行き方向を横軸z、垂直方向を縦軸yとした直交座標系を示している。この直交座標系においては、路面が式3で示す直線で表現されている。ここで、式3中のaはカメラ中心を原点としたときの路面の傾きであり、bはカメラ中心を原点としたときの路面の切片である。
また、図5Bは、図5Aのステレオカメラが撮像した左画像PLの一例であり(図示を省略しているが、右画像PRも撮像されている)、画像中心を原点として、横軸xが画像横方向、縦軸yが画像縦方向を示す。このとき、画像座標でyにある白線領域(図5Bの破線枠)の理想視差Dは、式4で計算される。ここで、式4中のBはステレオカメラの基線長、fは焦点距離、cはセルサイズである。
特定領域視差推定部52は、特定領域抽出部4が推定した全ての特定領域に対し式4の計算を行うことで、各特定領域の理想視差を格納した理想視差マップを生成し、垂直ずれ量算出部6に出力する。また、処理コスト低減の観点から、複数の特定領域の一部に対してのみ、理想視差を計算し出力しても良い。
<垂直ずれ量算出部6>
垂直ずれ量算出部6は、特定領域抽出部4が抽出した特定領域情報と、理想視差推定部5が推定した理想視差情報に基づいて、ステレオカメラで撮像した左右画像の垂直ずれ量djを算出するものであり、特定領域視差取得部61、理想視差取得部62、処理領域決定部63、配置情報取得部64、補正可否判定部65、補正量算出部66から構成される。
垂直ずれ量算出部6は、特定領域抽出部4が抽出した特定領域情報と、理想視差推定部5が推定した理想視差情報に基づいて、ステレオカメラで撮像した左右画像の垂直ずれ量djを算出するものであり、特定領域視差取得部61、理想視差取得部62、処理領域決定部63、配置情報取得部64、補正可否判定部65、補正量算出部66から構成される。
特定領域視差取得部61は、特定領域抽出部4が出力した特定領域情報(前記した白線領域マップ、種別マップ、モデルパラメータなど)を入力とし、該当領域の視差情報を視差画像記憶部22から取得する。
理想視差取得部62は、理想視差推定部5が推定した理想視差マップを取得する。
処理領域決定部63は、補正量算出部66が垂直ずれを算出する処理領域を決定する。特定領域が大きい場合には、垂直ずれを算出する画像が多くなるため、処理コスト削減の観点から、垂直ずれを算出する特定領域を限定することが考えられる。特定領域視差取得部61が各画素に種別情報(白線、路面ペイント、影、路面のよごれなど)を格納した種別マップを取得した場合、使用する種別を選択することで処理領域を限定する。例えば、路面上に目立つ白色で表示される白線、路面ペイントは、その領域抽出が容易なことから、白線、路面ペイントのラベルが付与された特定領域のみを処理領域に設定することが考えらえる。また、撮像装置からの距離が離れるほど視差算出の精度が低下することを考慮すると、撮像装置から近い順に所定のデータ数を選択して処理領域を設定しても良い。また、その他任意の基準で処理領域を設定しても良い。
配置情報取得部64は、特定領域抽出部4が出力した特定領域情報(前記した白線領域マップ、種別マップ、モデルパラメータなど)を入力とし、特定領域の配置情報を算出する。特定領域の配置情報とは撮像画像上の斜線の角度であり、例えば、図2の斜線の傾きθである。
補正可否判定部65は、現走行環境が垂直ずれ量djを算出するのに適しているか判定し、適していると判定された場合に限り補正量算出部66に補正量計算を実行させる。例えば、路面パラメータ推定部51が路面パラメータ推定結果の信頼度を出力している場合には、その値が所定の閾値を超えた場合に、計算可能と判定する。
補正量算出部66は、補正可否判定部65で現走行環境が垂直ずれ量を算出するのに適していると判定された場合に、特定領域視差取得部61、理想視差取得部62、配置情報取得部64からの情報に基づいて垂直ずれ量djを算出する。垂直ずれ量djの算出には、式5が使用される。ここで、式5中のDRoadは路面パラメータをもとに理想視差推定部5が推定した理想視差、DLineは特定領域視差取得部61が取得した特定領域(白線)上の視差、θは特定領域の画像上の傾きである。
特定領域が複数画素ある場合には、全画素、もしくは一部の画素において垂直ずれ量djを算出し、複数の推定結果から最もらしい推定結果を決定する。決定方法としては、統計的な手法を用いて外れ値を除去した後、平均を求めることで決定される。その他、任意の算出方法を用いて、決定しても良い。
<視差画像解析部7>
視差画像解析部7は、視差画像記憶部22に記憶された視差画像PDを解析することで、自動運転/運転支援システムに使用される情報を出力する(例えば、先行車、歩行者、路端の検知結果など)。視差画像解析部7の解析対象である視差画像PDは、垂直ずれ量算出部6が算出した垂直ずれ量djを用いて補正した左右画像に基づいて生成されたものであるため、視差画像解析部7では、路面上のペイントや影と、低段差の障害物を正確に区別できるので、車両走行可能なフリースペースと低段差の路面落下物を正確に検知することができる。
視差画像解析部7は、視差画像記憶部22に記憶された視差画像PDを解析することで、自動運転/運転支援システムに使用される情報を出力する(例えば、先行車、歩行者、路端の検知結果など)。視差画像解析部7の解析対象である視差画像PDは、垂直ずれ量算出部6が算出した垂直ずれ量djを用いて補正した左右画像に基づいて生成されたものであるため、視差画像解析部7では、路面上のペイントや影と、低段差の障害物を正確に区別できるので、車両走行可能なフリースペースと低段差の路面落下物を正確に検知することができる。
(視差画像生成の処理フロー)
次に、図6を用いて、視差画像生成部3の処理フローを説明する。
次に、図6を用いて、視差画像生成部3の処理フローを説明する。
まず、ステップS11では、幾何補正部31は、撮像画像記憶部21から幾何補正前の左右画像を読み込む。
ステップS12では、幾何補正部31は、幾何補正情報記憶部23に記憶された幾何補正情報を読み込み、ステップS11で取得した左右画像を幾何補正する。ステップS12での処理により、レンズ歪みや光軸ずれを幾何補正した左画像PLと右画像PRが生成される。
ステップS13では、幾何補正部31は、垂直ずれ量記憶部24に垂直ずれ量djが格納されているか確認する。そして、垂直ずれ量記憶部24に垂直ずれ量が格納されている場合は、ステップS14に進み、格納されていない場合には、ステップS15に進む。
ステップS14では、幾何補正部31は、垂直ずれ量記憶部24に記憶された垂直ずれ量を参照し、左右画像の補正値を決定する。垂直ずれ量記憶部24に最新の垂直ずれ量djのみ記憶されている場合には、その値(dj)を補正値に設定する。垂直ずれ量記憶部24に垂直ずれ量が複数記憶されている場合には、現在時刻から所定の範囲の垂直ずれ量を参照し、統計的な手法で外れ値を除去し平均値を補正値に設定する。また、この方法に限らず、任意の手法で複数の垂直ずれ量から補正値を設定してよい。決定した補正値をもとに、撮像画像を補正する。補正方法は、図3で示す通りで、右画像PRを垂直方向に補正値(垂直ずれ量dj[pix])だけ移動させた補正右画像PR’を生成する。
ステップS15では、ステップS14を経由しない場合は左画像PLと右画像PRから視差画像PDを生成し、ステップS14を経由した場合は左画像PLと補正右画像PR’から視差画像PDを生成する。何れの場合も左右画像のテンプレートマッチングで共通撮像領域を探索することで、視差を算出する。また、この手法に限らず任意の視差算出処理を用いても良い。
(垂直ずれ量算出部の処理フロー)
次に、図7を用いて、垂直ずれ量算出部6の処理フローを説明する。
次に、図7を用いて、垂直ずれ量算出部6の処理フローを説明する。
まず、ステップS21では、補正可否判定部65は、路面パラメータ信頼度を参照し、所定の閾値以下の場合は垂直ずれ量を算出することなく処理を終了する。一方、所定の閾値以上の場合はステップS22が実行される。
ステップS22では、処理領域決定部63は、垂直ずれ量が算出される処理領域を決定する。このとき、種別ラベルやセンサ部1からの距離に応じて処理領域が決定される。また、任意の基準を設定し処理領域を決定しても良い。
ステップS23では、配置情報取得部64は、ステップS22により処理領域と決定された領域に対して配置情報(例えば、斜線の傾きθ)を計算する。
ステップS24では、補正量算出部66は、配置情報(斜線の傾きθ)、特定領域の視差、理想視差の値から垂直ずれ量djが計算される。
ステップS25において、全処理領域で垂直ずれ量djが計算されたと判定された場合はステップS26が実施される。全処理領域が処理されていない場合には、ステップS24が繰り返し実行される。
ステップS26では、垂直ずれ量の最終決定が行われる。垂直ずれ量djが複数算出された場合には、統計的な手法で外れ値を除去し平均を求めることで垂直ずれ量djを決定する。また、その他任意の手法で垂直ずれ量djを決定しても良い。
(本実施例の効果)
以上で説明した本実施例の画像処理装置によれば、左右カメラの垂直ずれに起因する視差誤差を高精度に補正することで、路面落下物などの制御対象物と路面ペイント等を正確に区別することができ、低段差であっても正確に制御対象物を検知することができる。
以上で説明した本実施例の画像処理装置によれば、左右カメラの垂直ずれに起因する視差誤差を高精度に補正することで、路面落下物などの制御対象物と路面ペイント等を正確に区別することができ、低段差であっても正確に制御対象物を検知することができる。
100 画像処理装置
1 センサ部
11 左カメラ
12 右カメラ
2 記憶部
21 撮像画像記憶部
22 視差画像記憶部
23 幾何補正情報記憶部
24 垂直ずれ量記憶部
3 視差画像生成部
31 幾何補正部
32 視差算出部
4 特定領域抽出部
5 理想視差推定部
51 路面パラメータ推定部
52 特定領域視差推定部
6 垂直ずれ量算出部
61 特定領域視差取得部
62 理想視差取得部
63 処理領域決定部
64 配置情報取得部
65 補正可否判定部
66 補正量算出部
7 視差画像解析部
1 センサ部
11 左カメラ
12 右カメラ
2 記憶部
21 撮像画像記憶部
22 視差画像記憶部
23 幾何補正情報記憶部
24 垂直ずれ量記憶部
3 視差画像生成部
31 幾何補正部
32 視差算出部
4 特定領域抽出部
5 理想視差推定部
51 路面パラメータ推定部
52 特定領域視差推定部
6 垂直ずれ量算出部
61 特定領域視差取得部
62 理想視差取得部
63 処理領域決定部
64 配置情報取得部
65 補正可否判定部
66 補正量算出部
7 視差画像解析部
Claims (10)
- 複数の車載カメラの各々で撮像した複数の画像から、路面上の特定領域を抽出する特定領域抽出部と、
前記画像のうち路面であって前記特定領域以外の路面部分から、路面パラメータによってあらわされる路面構造を推定する路面パラメータ推定部と、
前記路面構造から、前記特定領域において得られるべき理想的な視差を求める特定領域視差推定部と、
前記複数の画像から視差を求める視差画像生成部と、
前記特定領域の実際の視差、前記特定領域における理想的な視差、および前記特定領域の前記画像における配置情報を用いて、前記複数の画像の垂直ずれ量を求める垂直ずれ算出部と、
を有する画像処理装置。 - 請求項1に記載の画像処理装置において、
前記特定領域は路面上の白線領域であり、
垂直ずれ算出部は、前記白線領域の視差と前記路面部分の視差との差分、および前記画像の中における白線の傾き角度から前記垂直ずれ量を計算することを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置において、
前記視差画像生成部は、前記車載カメラで撮像した画像の光学的な歪みを補正し、
前記垂直ずれ量をもとに前記車載カメラで撮像した複数枚の画像の垂直ずれを補正することを特徴とした画像処理装置。 - 請求項3に記載の画像処理装置において、
前記視差画像生成部は、過去に推定した垂直ずれ量の時系列情報から補正実行の可否、及び補正量を決定することを特徴とした画像処理装置。 - 請求項3に記載の画像処理装置において、
前記特定領域抽出部は、路面上の斜線領域を抽出することを特徴とした画像処理装置。 - 請求項3に記載の画像処理装置において、
前記特定領域抽出部は、路面上の白線、路面ペイント、影のうち少なくとも1つの線状領域を抽出することを特徴とする画像処理装置。 - 請求項4に記載の画像処理装置において、
前記路面パラメータ推定部は、前記車載カメラで撮像した画像から路面パラメータを推定し、前記特定領域視差推定部は、該路面パラメータに基づいて特定領域の理想視差を推定することを特徴とする画像処理装置。 - 請求項6に記載の画像処理装置において、
前記配置情報は、前記画像の中における前記特定領域の傾き角度であることを特徴とする画像処理装置。 - 請求項8に記載の画像処理装置において、
前記垂直ずれ量算出部は、前記路面パラメータの信頼度に基づいて前記垂直ずれ量の算出可否を判定することを特徴とする画像処理装置。 - 複数の車載カメラの各々で撮像した複数の画像から、路面上の特定領域を抽出するステップと、
前記画像のうち路面であって前記特定領域以外の路面部分から、路面パラメータによってあらわされる路面構造を推定するステップと、
前記路面構造から、前記特定領域において得られるべき理想的な視差を求めるステップと、
前記複数の画像から視差を求めるステップと、
前記特定領域の実際の視差、前記特定領域における理想的な視差、および前記特定領域の前記画像における配置情報を用いて、前記複数の画像の垂直ずれ量を求めるステップと、
を有する画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021171656A JP2023061621A (ja) | 2021-10-20 | 2021-10-20 | 画像処理装置 |
PCT/JP2022/037097 WO2023068034A1 (ja) | 2021-10-20 | 2022-10-04 | 画像処理装置 |
DE112022003831.4T DE112022003831T5 (de) | 2021-10-20 | 2022-10-04 | Bildverarbeitungsvorrichtung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021171656A JP2023061621A (ja) | 2021-10-20 | 2021-10-20 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023061621A true JP2023061621A (ja) | 2023-05-02 |
Family
ID=86058148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021171656A Pending JP2023061621A (ja) | 2021-10-20 | 2021-10-20 | 画像処理装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023061621A (ja) |
DE (1) | DE112022003831T5 (ja) |
WO (1) | WO2023068034A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9049434B2 (en) * | 2010-03-05 | 2015-06-02 | Panasonic Intellectual Property Management Co., Ltd. | 3D imaging device and 3D imaging method |
JP6447055B2 (ja) * | 2014-01-28 | 2019-01-09 | 株式会社リコー | 校正方法、校正装置、計測用具及びプログラム |
WO2016203989A1 (ja) * | 2015-06-17 | 2016-12-22 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP7146608B2 (ja) | 2018-12-14 | 2022-10-04 | 日立Astemo株式会社 | 画像処理装置 |
JP2021025868A (ja) * | 2019-08-05 | 2021-02-22 | 日立オートモティブシステムズ株式会社 | ステレオカメラ |
-
2021
- 2021-10-20 JP JP2021171656A patent/JP2023061621A/ja active Pending
-
2022
- 2022-10-04 WO PCT/JP2022/037097 patent/WO2023068034A1/ja active Application Filing
- 2022-10-04 DE DE112022003831.4T patent/DE112022003831T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023068034A1 (ja) | 2023-04-27 |
DE112022003831T5 (de) | 2024-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
CN108629292B (zh) | 弯曲车道线检测方法、装置及终端 | |
KR101609303B1 (ko) | 카메라 캘리브레이션 방법 및 그 장치 | |
WO2017138245A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
CN108197590B (zh) | 一种路面检测方法、装置、终端及存储介质 | |
CN111213153A (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
JPH11351862A (ja) | 前方車両検出方法及び装置 | |
JP4052291B2 (ja) | 車両用画像処理装置 | |
JP2018048949A (ja) | 物体識別装置 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
CN108319931B (zh) | 一种图像处理方法、装置及终端 | |
US20150379334A1 (en) | Object recognition apparatus | |
US20020196423A1 (en) | Range finder for finding range by image realization | |
JP2012252501A (ja) | 走行路認識装置及び走行路認識用プログラム | |
JP2003281700A (ja) | 割り込み車両検出装置及びその方法 | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
US10339394B2 (en) | Step detection device and step detection method | |
JP3319383B2 (ja) | 走行路認識装置 | |
WO2023068034A1 (ja) | 画像処理装置 | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
JP4462533B2 (ja) | 路面走行レーン検出装置 | |
CN112513573B (zh) | 立体摄像机装置 | |
JP4151631B2 (ja) | 物体検出装置 | |
CN112400094B (zh) | 物体探测装置 | |
EP4345750A1 (en) | Position estimation system, position estimation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240725 |