JP7445501B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP7445501B2
JP7445501B2 JP2020067353A JP2020067353A JP7445501B2 JP 7445501 B2 JP7445501 B2 JP 7445501B2 JP 2020067353 A JP2020067353 A JP 2020067353A JP 2020067353 A JP2020067353 A JP 2020067353A JP 7445501 B2 JP7445501 B2 JP 7445501B2
Authority
JP
Japan
Prior art keywords
image
image area
dimensional object
value
approximate straight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020067353A
Other languages
English (en)
Other versions
JP2021163396A (ja
JP2021163396A5 (ja
Inventor
稔 倉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2020067353A priority Critical patent/JP7445501B2/ja
Priority to US17/220,095 priority patent/US11889047B2/en
Publication of JP2021163396A publication Critical patent/JP2021163396A/ja
Publication of JP2021163396A5 publication Critical patent/JP2021163396A5/ja
Application granted granted Critical
Publication of JP7445501B2 publication Critical patent/JP7445501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、撮像された立体物を解析する画像処理装置、およびそのような画像処理装置において使用される画像処理方法に関する。
自動車等の車両に搭載される画像処理装置には、ステレオカメラにより得られたステレオ画像に基づいて距離画像を生成し、その距離画像における距離の連続性に基づいて立体物を検出するものがある(例えば特許文献1)。
特開2017-27279号公報
車両に搭載される画像処理装置では、検出した立体物が車両であるかどうかを精度よく判定できることが望ましく、さらなる判定精度の向上が期待されている。
立体物が車両であるかどうかの判定精度を高めることができる画像処理装置および画像処理方法を提供することが望ましい。
本開示の一実施の形態に係る画像処理装置は、検出部と、設定部と、算出部と、推定部と、判定部とを備えている。検出部は、ステレオ画像に基づいて生成された、各画素における視差に応じた視差関連値を含む距離画像に基づいて、立体物を検出することにより立体物領域を設定するように構成される。設定部は、立体物領域に対応する第1の画像領域と、第1の画像領域の左端を含み一部が第1の画像領域と重なる第2の画像領域と、第1の画像領域の右端を含み一部が第1の画像領域と重なる第3の画像領域とを設定するように構成される。算出部は、第1の画像領域、第2の画像領域、および第3の画像領域における複数の画素列のそれぞれにおいて、複数の視差関連値の代表値を算出し、第1の画像領域、第2の画像領域、および第3の画像領域のそれぞれにおいて、複数の画素列における複数の代表値の近似直線を算出するように構成される。推定部は、第1の画像領域の近似直線の第1の傾斜値、第2の画像領域の近似直線の第2の傾斜値、および第3の画像領域の近似直線の第3の傾斜値に基づいて、立体物が連続構造物である度合いを示す連続構造物度を推定するように構成される。判定部は、連続構造物度に基づいて、検出部により検出された立体物が車両であるかどうかを判定するように構成される。
本開示の一実施の形態に係る画像処理方法は、ステレオ画像に基づいて生成された、各画素における視差に応じた視差関連値を含む距離画像に基づいて、立体物を検出することにより立体物領域を設定することと、立体物領域に対応する第1の画像領域と、第1の画像領域の左端を含み一部が第1の画像領域と重なる第2の画像領域と、第1の画像領域の右端を含み一部が第1の画像領域と重なる第3の画像領域とを設定することと、第1の画像領域、第2の画像領域、および第3の画像領域における複数の画素列のそれぞれにおいて、複数の視差関連値の代表値を算出することと、第1の画像領域、第2の画像領域、および第3の画像領域のそれぞれにおいて、複数の画素列における複数の代表値の近似直線を算出することと、第1の画像領域の近似直線の第1の傾斜値、第2の画像領域の近似直線の第2の傾斜値、および第3の画像領域の近似直線の第3の傾斜値に基づいて、立体物が連続構造物である度合いを示す連続構造物度を推定することと、連続構造物度に基づいて、検出された立体物が車両であるかどうかを判定することとを含む。
本開示の一実施の形態に係る画像処理装置および画像処理方法によれば、立体物が車両であるかどうかの判定精度を高めることができる。
本開示の一実施の形態に係る画像処理装置の一構成例を表すブロック図である。 図1に示したステレオ画像の一例を表す説明図である。 図1に示した立体物検出部の一動作例を表す説明図である。 図1に示した車両探索部の一動作例を表す説明図である。 図1に示した車両探索部の一動作例を表す他の説明図である。 図1に示した連続構造物推定部の一動作例を表すフローチャートである。 図1に示した画像領域設定部の一動作例を表す説明図である。 図1に示した近似直線算出部の一動作例を表す説明図である。 図1に示した近似直線算出部の一動作例を表す他の説明図である。 立体物が連続構造物である場合における近似直線の一例を表す説明図である。 立体物が車両である場合における近似直線の一例を表す説明図である。 図1に示した推定部の一動作例を表すフローチャートである。 変形例に係る連続構造物推定部の一動作例を表すフローチャートである。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。
<実施の形態>
[構成例]
図1は、一実施の形態に係る画像処理装置(画像処理装置1)の一構成例を表すものである。画像処理装置1は、ステレオカメラ11と、処理部20とを備えている。画像処理装置1は、自動車等の車両10に搭載される。
ステレオカメラ11は、車両10の前方を撮像することにより、互いに視差を有する一組の画像(左画像PLおよび右画像PR)を生成するように構成される。ステレオカメラ11は、左カメラ11Lと、右カメラ11Rとを有する。左カメラ11Lおよび右カメラ11Rのそれぞれは、レンズとイメージセンサとを含んでいる。左カメラ11Lおよび右カメラ11Rは、この例では、車両10の車両内において、車両10のフロントガラスの上部近傍に、車両10の幅方向に所定距離だけ離間して配置される。左カメラ11Lおよび右カメラ11Rは、互いに同期して撮像動作を行う。左カメラ11Lは左画像PLを生成し、右カメラ11Rは右画像PRを生成する。左画像PLおよび右画像PRは、ステレオ画像PICを構成する。ステレオカメラ11は、所定のフレームレート(例えば60[fps])で撮像動作を行うことにより、一連のステレオ画像PICを生成するようになっている。
図2は、ステレオ画像PICの一例を表すものであり、(A)は左画像PLの一例を示し、(B)は右画像PRの一例を示す。この例では、車両10が走行している走行路における車両10の前方に、先行車両90が走行している。左カメラ11Lがこの先行車両90を撮像することにより左画像PLを生成し、右カメラ11Rがこの先行車両90を撮像することにより右画像PRを生成する。ステレオカメラ11は、このような左画像PLおよび右画像PRを含むステレオ画像PICを生成するようになっている。
処理部20(図1)は、ステレオカメラ11から供給されたステレオ画像PICに基づいて、車両10の前方の車両を認識するように構成される。車両10では、例えば、処理部20が認識した立体物についての情報に基づいて、例えば、AEB(Automatic Emergency Braking)やACC(Adaptive Cruise Control)などの車両10の走行制御を行い、あるいは、認識した車両についての情報をコンソールモニタに表示することができるようになっている。処理部20は、例えば、プログラムを実行するCPU(Central Processing Unit)、処理データを一時的に記憶するRAM(Random Access Memory)、プログラムを記憶するROM(Read Only Memory)などにより構成される。処理部20は、距離画像生成部21と、立体物検出部22と、連続構造物推定部30と、車両探索部24と、車両判定部25とを有している。
距離画像生成部21は、ステレオ画像PICに含まれる左画像PLおよび右画像PRに基づいて、ステレオマッチング処理やフィルタリング処理などを含む所定の画像処理を行うことにより、距離画像PZを生成するように構成される。距離画像生成部21は、左画像PLおよび右画像PRに基づいて、互いに対応する2つの画像点を含む対応点を特定することにより、ステレオマッチング処理を行う。距離画像PZの各画素における画素値は、視差値であり、例えば左画像PLにおける画像点の横座標の座標値と、右画像PRにおける画像点の横座標の座標値との差である。この視差値は、3次元の実空間における、各画素に対応する点までの距離値に対応している。距離画像生成部21は、生成した距離画像PZを、立体物検出部22および連続構造物推定部30に供給するようになっている。
立体物検出部22は、距離画像PZに基づいて立体物を検出するように構成される。そして、立体物検出部22は、距離画像PZにおける、検出した立体物に対応する画像領域に、立体物領域Robjを設定するようになっている。
図3は、立体物検出部22により検出された、距離画像PZにおける立体物領域Robjの一例を表すものである。なお、距離画像PZは視差値の画像であるが、この図3では、説明の便宜上、立体物そのものを描いている。距離画像PZでは、先行車両90、ガードレール、壁、建物、人物などの立体物に対応する領域において、連続した視差値を有する。立体物検出部22は、距離画像PZに含まれるこのような連続した視差値を利用して、立体物を検出する。そして、立体物検出部22は、距離画像PZにおける、検出した立体物に対応する領域に立体物領域Robjを設定する。また、立体物検出部22は、例えばガードレールや壁のように、視差値が連続する画像領域が広い場合には、所定の大きさを超えない範囲で、立体物領域Robjを設定する。そして、立体物検出部22は、設定した立体物領域Robjについての情報を連続構造物推定部30および車両判定部25に供給するようになっている。
連続構造物推定部30は、距離画像PZに基づいて、立体物検出部22が検出した立体物が連続構造物である度合いを推定するように構成される。連続構造物は、例えば、ガードレールや壁など、走行路に沿って比較的長い距離にわたって連なる構造物である。連続構造物推定部30は、立体物がこのような連続構造物である度合い(連続構造物度D)を推定し、その連続構造物度Dについての情報を車両判定部25に供給するようになっている。連続構造物推定部30は、画像領域設定部31と、近似直線算出部32と、推定部33とを有している。
画像領域設定部31は、距離画像PZにおいて、立体物検出部22が設定した立体物領域Robjに基づいて、3つの画像領域R(画像領域R1~R3)を設定するように構成される。具体的には、画像領域設定部31は、立体物領域Robjに対応する位置に画像領域R1を設定し、この画像領域R1から左にずれた位置に画像領域R2を設定し、この画像領域R2から右にずれた位置に画像領域R3を設定するようになっている。
近似直線算出部32は、画像領域設定部31が設定した3つの画像領域Rにおける各画素列において、複数の視差値の代表値(代表視差値)を算出し、3つの画像領域Rのそれぞれにおいて、複数の画素列における複数の代表視差値の近似直線Lを算出するように構成される。
推定部33は、3つの画像領域Rのそれぞれにおける近似直線Lの傾斜値Aに基づいて、立体物検出部22が検出した立体物が連続構造物である度合い(連続構造物度D)を推定するように構成される。連続構造物度Dは、立体物が連続構造物である可能性が高いほど、高い値を示すものである。
車両探索部24は、左画像PLおよび右画像PRの一方である画像Pに基づいて、機械学習の技術を用いて、車両を探索するように構成される。
図4は、車両探索部24の一動作例を模式的に表すものである。画像Pは、車両10の前方を走行する先行車両90の画像を含んでいる。車両探索部24は、画像Pにおいて、矩形状の複数の処理対象領域Rpを、例えば位置および大きさを少しずつ変化させながら順次設定する。そして、車両探索部24は、機械学習の技術を用いて、各処理対象領域Rpにおける車両スコアSCを算出する。この車両スコアSCは、処理対象領域Rpの画像が車両の特徴を含むほど高い値を示す。車両探索部24は、例えば、複数の処理対象領域Rpのうちの、車両スコアSCが最も高い処理対象領域Rpにおいて、その車両スコアSCが所定のスコア以上である場合に、その処理対象領域Rpを車両領域Rvとして設定する。そして、車両探索部24は、車両領域Rvについての情報、および車両スコアSCを車両判定部25に供給するようになっている。
車両判定部25は、立体物検出部22の検出結果、連続構造物推定部30により得られた連続構造物度D、および車両探索部24の探索結果に基づいて、立体物が車両であるかどうかを判定するように構成される。
ここで、立体物検出部22は、本開示における「検出部」の一具体例に対応する。画像領域設定部31は、本開示における「設定部」の一具体例に対応する。近似直線算出部32は、本開示における「算出部」の一具体例に対応する。推定部33は、本開示おける「推定部」の一具体例に対応する。車両判定部25は、本開示における「判定部」の一具体例に対応する。距離画像PZは、本開示における「距離画像」の一具体例に対応する。立体物領域Robjは、本開示における「立体物領域」の一具体例に対応する。画像領域R1は、本開示における「第1の画像領域」の一具体例に対応する。画像領域R2は、本開示における「第2の画像領域」の一具体例に対応する。画像領域R3は、本開示における「第3の画像領域」の一具体例に対応する。近似直線Lは、本開示における「近似直線」の一具体例に対応する。連続構造物度Dは、本開示における「連続構造物度」の一具体例に対応する。
[動作および作用]
続いて、本実施の形態の画像処理装置1の動作および作用について説明する。
(全体動作概要)
まず、図1を参照して、画像処理装置1の全体動作概要を説明する。ステレオカメラ11は、車両10の前方を撮像することにより、互いに視差を有する左画像PLおよび右画像PRを含むステレオ画像PICを生成する。距離画像生成部21は、ステレオ画像PICに含まれる左画像PLおよび右画像PRに基づいて、距離画像PZを生成する。立体物検出部22は、距離画像PZに基づいて立体物を検出する。連続構造物推定部30は、距離画像PZに基づいて、立体物検出部22が検出した立体物が連続構造物である度合い(連続構造物度D)を推定する。車両探索部24は、左画像PLおよび右画像PRの一方である画像Pに基づいて、機械学習の技術を用いて、車両を探索する。車両判定部25は、立体物検出部22の検出結果、連続構造物推定部30により得られた連続構造物度D、および車両探索部24の探索結果に基づいて、立体物が車両であるかどうかを判定する。
(詳細動作)
車両探索部24は、車両を探索する際、画像Pにおいて複数の処理対象領域Rpを順次設定し、機械学習の技術を用いて、各処理対象領域Rpにおける画像が車両の特徴を含むかどうかを確認することにより、車両スコアSCを算出する。その際、処理対象領域Rpにおける画像が車両の画像でないにもかかわらず、画像パターンが車両のような特徴を有する場合には、車両スコアSCが高くなってしまう。例えば、処理対象領域Rpの画像がガードレールや壁などの連続構造物の画像である場合に、画像パターンが車両のような特徴を有することがあり、このような場合には車両スコアSCが高くなってしまう。
図5は、車両探索部24の一動作例を表すものである。この画像Pでは、車両スコアSCが高い2つの領域において、車両領域Rv1,Rv2が設定されている。車両領域Rv1は、車両10の先行車両に設定されている。また、車両領域Rv2は、走行路の壁の一部に設定されている。すなわち、車両探索部24は、走行路の壁の一部の画像パターンが車両のような特徴を有すると判断し、車両スコアSCを高くし、この壁の一部に車両領域Rv2を設定している。
このように、連続構造物が車両であると誤判定された場合には、例えば、AEBやACCなどの車両10の走行制御に不具合が生じてしまう。そこで、画像処理装置1では、連続構造物推定部30が、立体物の連続構造物度Dを算出し、車両判定部25が、立体物検出部22の検出結果、連続構造物推定部30により得られた連続構造物度D、および車両探索部24の探索結果に基づいて、立体物が車両であるかどうかを判定する。これにより、車両判定部25は、立体物の連続構造物度Dが高い場合には、その立体物が車両であると判定されにくくすることができる。具体的には、車両判定部25は、例えば、車両探索部24により得られた車両スコアSCをより低いスコアに補正したり、車両スコアSCに基づいて車両判定を行う際のしきい値をより高い値に変更したりすることにより、その立体物が車両であると判定されにくくすることができる。このようにして、画像処理装置1では、立体物が車両であるかどうかの判定精度を高めることができる。
次に、連続構造物推定部30の動作について、詳細に説明する。
図6は、連続構造物推定部30の一動作例を表すものである。連続構造物推定部30は、立体物検出部22が設定した立体物領域Robjに基づいて画像領域R1~R3を設定し、画像領域R1~R3のそれぞれにおいて代表視差値の近似直線Lを算出し、画像領域R1~R3のそれぞれの近似直線Lの傾斜値Aに基づいて、立体物の連続構造物度Dを推定する。以下に、この処理について詳細に説明する。
まず、画像領域設定部31は、距離画像PZにおいて、立体物検出部22が設定した立体物領域Robjに基づいて、画像領域R1~R3を設定する(ステップS101)。
図7は、画像領域設定部31の一動作例を表すものである。この図7は、立体物領域Robjおよび画像領域R1~R3の、距離画像PZにおける横座標の位置を示している。
画像領域設定部31は、立体物領域Robjに対応する位置に画像領域R1を設定する。この例では、画像領域R1の大きさは立体物領域Robjの大きさと同じである。距離画像PZの横座標において、画像領域R1の位置は、立体物領域Robjの位置と同じであり、距離画像PZの縦座標において、画像領域R1の位置は、立体物領域Robjの位置と同じである。
そして、画像領域設定部31は、この画像領域R1から左にずれた位置に画像領域R2を設定し、この画像領域R2から右にずれた位置に画像領域R3を設定する。具体的には、画像領域設定部31は、画像領域R1の左端を含み一部が画像領域R1と重なるように画像領域R2を設定し、画像領域R1の右端を含み一部が画像領域R1と重なるように画像領域R3を設定する。この例では、画像領域R2,R3の大きさは画像領域R1の大きさと同じである。距離画像PZの横座標において、画像領域R2の位置は、画像領域R1の位置から、画像領域R1の領域幅の半分だけ左にずれた位置である。距離画像PZの横座標において、画像領域R3の位置は、画像領域R1の位置から、画像領域R1の領域幅の半分だけ右にずれた位置である。距離画像PZの縦座標において、画像領域R2,R3の位置は、画像領域R1の位置と同じである。
次に、近似直線算出部32は、画像領域設定部31が設定した3つの画像領域R1~R3における各画素列において、複数の視差値の代表値(代表視差値)を算出する(ステップS102)。
図8は、画像領域R1における代表視差値の一例を表すものである。この例では、説明の便宜上、横座標における画像領域R1の幅を“8”にしているが、これに限定されるものではなく、例えば、“7”以下であってもよいし、“9”以上であってもよい。
近似直線算出部32は、複数の画素列Wのそれぞれにおいて、その画素列Wにおける複数の視差値のヒストグラムを用いて、視差値の最頻値を代表視差値として算出する。例えば、画素列Wにおける視差値の数が少ないなどの理由により、最頻値を得ることが出来ない場合には、近似直線算出部32は、複数の視差値の平均値を代表視差値として算出する。この例では、図8に示したように、近似直線算出部32は、横座標が“56”の画素列Wにおける複数の視差値に基づいて代表視差値“42”を得る。他の画素列Wについても同様である。
このようにして、近似直線算出部32は、画像領域R1における複数の代表視差値を算出する。同様に、近似直線算出部32は、画像領域R2における複数の代表視差値を算出し、画像領域R3における複数の代表視差値を算出する。
次に、近似直線算出部32は、画像領域R1~R3のそれぞれにおいて、代表視差値の近似直線Lを算出する(ステップS103)。
図9は、画像領域R1における代表視差値の近似直線L(近似直線L1)の一例を表すものである。この例では、近似直線算出部32は、画像領域R1における複数の代表視差値に基づいて、最小二乗法を用いて近似直線L1を算出する。なお、この例では、近似直線算出部32は、最小二乗法を用いたが、これに限定されるものではなく、近似直線L1を算出可能な他の演算方法を用いてもよい。
このようにして、近似直線算出部32は、画像領域R1における複数の代表視差値の近似直線L1を算出する。同様に、近似直線算出部32は、画像領域R2における複数の代表視差値の近似直線L(近似直線L2)を算出し、画像領域R3における複数の代表視差値の近似直線L(近似直線L3)を算出する。
次に、推定部33は、画像領域R1~R3のそれぞれにおける近似直線Lの傾斜値Aに基づいて、立体物の連続構造物度Dを推定する(ステップS104)。以下に、このステップS104の処理について詳細に説明する。
図10は、立体物が連続構造物である場合における、画像領域R1~R3における近似直線Lの一例を表すものである。図11は、立体物が車両である場合における、画像領域R1~R3における近似直線Lの一例を表すものである。
立体物が連続構造物である場合には、図10に示したように、画像領域R1~R3において、複数の代表視差値がほぼ一直線上に並ぶ。すなわち、画像領域R1~R3の代表視差値は、その連続構造物までの距離に応じた値であるので、複数の代表視差値がほぼ一直線上に並ぶ。よって、画像領域R1の近似直線L1の傾斜値A(傾斜値A1)と、画像領域R2の近似直線L2の傾斜値A(傾斜値A2)と、画像領域R3の近似直線L3の傾斜値A(傾斜値A3)はほぼ同じになることが期待される。
一方、立体物が車両である場合には、図11に示したように、画像領域R1における代表視差値と、画像領域R1の外側における代表視差値との間には大きな差が生じ得る。すなわち、画像領域R1の代表視差値は、画像領域R1における車両までの距離に応じた値である。また、画像領域R1の外側における代表視差値は、その車両より遠くの背景までの距離に対応するので、画像領域R1における代表視差値よりも小さな値になる。このように、画像領域R1における代表視差値と、画像領域R1の外側における代表視差値との間には大きな差が生じ得るので、画像領域R1の左端および右端では、代表視差値が大きく変化し得る。この場合には、画像領域R2の近似直線L2の傾斜値A2は、画像領域R1の近似直線L1の傾斜値A1と異なり、同様に、画像領域R3の近似直線L3の傾斜値A3は、画像領域R1の近似直線L1の傾斜値A1と異なることが期待される。
推定部33は、このような画像領域R1~R3の近似直線Lの傾斜値Aの特性を利用して、立体物の連続構造物度Dを推定する。
まず、推定部33は、以下の式を用いて、傾斜値A1と傾斜値A2との比率を示す傾斜比率VALAを算出するとともに、傾斜値A1と傾斜値A3との比率を示す傾斜比率VALBを算出する。
VALA = Abs(Abs(A2/A1) - 1) …(EQ1)
VALB = Abs(Abs(A3/A1) - 1) …(EQ2)
ここで、Absは、引数の絶対値を得る関数である。傾斜比率VALAは、傾斜値A1,A2が互いに大きく異なるほど大きい値になり、傾斜比率VALBは、傾斜値A1,A3が互いに大きく異なるほど大きい値になる。
図12は、このような傾斜比率VALA,VALBに基づいて立体物の連続構造物度Dを推定する処理の一例を表すものである。推定部33は、傾斜比率VALA,VALBを所定のしきい値TH1,TH2と比較することにより、立体物の連続構造物度Dを推定する。ここで、しきい値TH1は、しきい値TH2よりも低い値を有する。この例では、連続構造物度Dは、“1”から“5”の値をとり得る。
まず、推定部33は、傾斜比率VALAがしきい値TH1よりも小さく、かつ、傾斜比率VALBがしきい値TH1よりも小さいという条件を満たすかどうかを確認する(ステップS201)。この条件を満たす場合(ステップS201において“Y”)には、推定部33は、連続構造物度Dを“5”に設定する(ステップS202)。すなわち、傾斜比率VALAがしきい値TH1よりも小さい場合には、傾斜値A1,A2が互いにほぼ同じであることを示し、傾斜比率VALBがしきい値TH1よりも小さい場合には、傾斜値A1,A3が互いにほぼ同じであることを示す。よって、この場合には、傾斜値A1~A3は、例えば図10に示したように、互いにほぼ同じであるので、推定部33は、立体物が連続構造物である可能性が高いと推定し、連続構造物度Dを“5”に設定する。そして、この処理は終了する。
ステップS201の条件を満たさない場合(ステップS201において“N”)には、推定部33は、傾斜比率VALA,VALBのうちのどちらか一方がしきい値TH1よりも小さいという条件を満たすかどうかを確認する(ステップS203)。この条件を満たす場合(ステップS203において“Y”)には、推定部33は、連続構造物度Dを“4”に設定する(ステップS204)。すなわち、この場合には、傾斜値A2,A3のうちのどちらか一方は傾斜値A1とほぼ同じであるので、推定部33は、立体物が連続構造物である可能性がやや高いと推定し、連続構造物度Dを“4”に設定する。そして、この処理は終了する。
ステップS203の条件を満たさない場合(ステップS203において“N”)には、推定部33は、傾斜比率VALAがしきい値TH2よりも小さく、かつ、傾斜比率VALBがしきい値TH2よりも小さいという条件を満たすかどうかを確認する(ステップS205)。この条件を満たす場合(ステップS205において“Y”)には、推定部33は、連続構造物度Dを“3”に設定する(ステップS206)。すなわち、この場合には、傾斜値A2は傾斜値A1とほぼ同じではないが近い値であり、傾斜値A3は傾斜値A1とほぼ同じではないが近い値であるので、推定部33は、連続構造物度Dを“3”に設定する。そして、この処理は終了する。
ステップS205の条件を満たさない場合(ステップS205において“N”)には、推定部33は、傾斜比率VALA,VALBのうちのどちらか一方がしきい値TH2よりも小さいという条件を満たすかどうかを確認する(ステップS207)。この条件を満たす場合(ステップS207において“Y”)には、推定部33は、連続構造物度Dを“2”に設定する(ステップS208)。すなわち、この場合には、傾斜値A2,A3のうちのどちらか一方は傾斜値A1に近い値であるが、他方は傾斜値A1から離れた値であるので、推定部33は、立体物が連続構造物である可能性がやや低いと推定し、連続構造物度Dを“2”に設定する。そして、この処理は終了する。
ステップS207の条件を満たさない場合(ステップS207において“N”)には、推定部33は、連続構造物度Dを“1”に設定する(ステップS209)。すなわち、この場合には、傾斜値A2,A3の両方が傾斜値A1から離れた値であるので、推定部33は、立体物が連続構造物である可能性は低いと推定し、連続構造物度Dを“1”に設定する。そして、この処理は終了する。
このようにして、図6のステップS104の処理は終了する。
このように、画像処理装置1では、検出された立体物に対応する位置に画像領域R1を設定し、この画像領域R1から左にずれた位置に画像領域R2を設定し、この画像領域R2から右にずれた位置に画像領域R3を設定し、画像領域R1~R3のそれぞれにおいて、代表視差値の近似直線Lを算出するようにした。そして、画像領域R1の近似直線L1の傾斜値A1、画像領域R2の近似直線L2の傾斜値A2、および画像領域R3の近似直線L3の傾斜値A3に基づいて、立体物が連続構造物である度合いを示す連続構造物度Dを推定するようにした。これにより、画像処理装置1では、立体物の連続構造物度Dが高い場合には、その立体物が車両であると判定されにくくすることができるので、立体物が車両であるかどうかの判定精度を高めることができる。
また、画像処理装置1では、図7に示したように、画像領域R1の左端を含み一部が画像領域R1と重なるように画像領域R2を設定するとともに、画像領域R1の右端を含み一部が画像領域R1と重なるように画像領域R3を設定するようにした。これにより、画像処理装置1では、例えば立体物が連続構造物ではない場合に、図11に示したように、近似直線L2の傾斜値A2が近似直線L1の傾斜値A1と異なるようにするとともに、近似直線L3の傾斜値A3が近似直線L1の傾斜値A1と異なるようにすることができる。すなわち、例えば、画像領域R2が画像領域R1の左に画像領域R1と重ならならずに隣り合うように設定された場合には、画像領域R2の近似直線L2は、画像領域R1における代表視差値の影響を受けないので、近似直線L2の傾斜値A2が近似直線L1の傾斜値A1に近い値になるおそれがある。画像領域R3についても同様であり、近似直線L3の傾斜値A3が近似直線L1の傾斜値A1に近い値になるおそれがある。この場合には、傾斜値A1~A3を用いて、立体物の連続構造物度Dを推定しにくくなってしまう。一方、画像処理装置1では、画像領域R2の一部が画像領域R1の一部と重なるようにしたので、図11に示したように、近似直線L2の傾斜値A2が、画像領域R1における代表視差値の影響を受けるので、近似直線L2の傾斜値A2が近似直線L1の傾斜値A1と異なるようにすることができる。画像領域R3についても同様であり、近似直線L3の傾斜値A3が近似直線L1の傾斜値A1と異なるようにすることができる。その結果、画像処理装置1では、傾斜値A1~A3を用いて、立体物の連続構造物度Dを推定することができる。その結果、画像処理装置1では、立体物が車両であるかどうかの判定精度を高めることができる。
特に、画像処理装置1では、画像領域R1の左端は、画像領域R2の中央付近に位置し、画像領域R1の右端は、画像領域R3の中央付近に位置するようにした。これにより、画像処理装置1では、図11,12に示したように、近似直線L2を算出する際に用いられる、画像領域R1における代表視差値の数と、画像領域R2における代表視差値の数をほぼ同じにすることができる。よって、近似直線L2を算出する際に、画像領域R1における代表視差値による重みと、画像領域R2における代表視差値による重みとをほぼ同じにすることができる。その結果、例えば立体物が連続構造物ではない場合に、図11に示したように、近似直線L2の傾斜値A2が近似直線L1の傾斜値A1と異なるようにすることができる。近似直線L3についても同様であり、近似直線L3の傾斜値A3が近似直線L1の傾斜値A1と異なるようにすることができる。これにより、画像処理装置1では、傾斜値A1~A3を用いて、立体物の連続構造物度Dを推定することができるので、立体物が車両であるかどうかの判定精度を高めることができる。
[効果]
以上のように本実施の形態では、検出された立体物に対応する位置に画像領域R1を設定し、この画像領域R1から左にずれた位置に画像領域R2を設定し、この画像領域R2から右にずれた位置に画像領域R3を設定し、画像領域R1~R3のそれぞれにおいて、代表視差値の近似直線を算出するようにした。そして、画像領域R1の近似直線の傾斜値、画像領域R2の近似直線の傾斜値、および画像領域R3の近似直線の傾斜値に基づいて、立体物が連続構造物である度合いを示す連続構造物度を推定するようにした。これにより、立体物が車両であるかどうかの判定精度を高めることができる。
本実施の形態では、画像領域R1の左端を含み一部が画像領域R1と重なるように画像領域R2を設定するとともに、画像領域R1の右端を含み一部が画像領域R1と重なるように画像領域R3を設定するようにしたので、立体物が車両であるかどうかの判定精度を高めることができる。
[変形例1]
上記実施の形態では、距離画像PZは視差値の画像としたが、これに限定されるものではなく、距離値の画像であってもよい。
[変形例2]
上記実施の形態では、画像領域R2,R3を、画像領域R1の位置から、画像領域R1の領域幅の半分だけずれた位置に設定したが、これに限定されるものではない。例えば、画像領域R2,R3を、画像領域R1の位置から、画像領域R1の領域幅の半分より少ない量だけずれた位置に設定してもよいし、画像領域R1の領域幅の半分より多い量だけずれた位置に設定してもよい。また、画像領域R2,R3の位置と画像領域R1の位置とのずれ量は、固定量でなくてもよい。具体的には、例えば、立体物領域Robjの横幅や、立体物までの距離に応じてずれ量を変更するようにしてもよい。
[変形例3]
上記実施の形態では、画像領域R2,R3の大きさを、画像領域R1の大きさと同じにしたが、これに限定されるものではなく、これに代えて、例えば、画像領域R2の大きさは画像領域R1の大きさと異なるようにしてもよいし、画像領域R3の大きさは画像領域R1の大きさと異なるようにしてもよい。
[変形例4]
上記実施の形態では、近似直線L1~L3の傾斜値Aに基づいて連続構造物度Dを推定したが、例えば、代表視差値のばらつきが大きい場合には連続構造物度Dを推定しないようにしてもよい。以下に、本変形例に係る画像処理装置1Bについて詳細に説明する。
画像処理装置1Bは、上記実施の形態に係る画像処理装置1(図1)と同様に処理部20Bを備えている。処理部20Bは、連続構造物推定部30Bを有している。連続構造物推定部30Bは、推定部33Bを有している。
推定部33Bは、3つの画像領域Rのそれぞれにおける近似直線Lの傾斜値Aに基づいて、立体物検出部22が検出した立体物の連続構造物度Dを推定するように構成される。また、推定部33Bは、3つの画像領域Rのそれぞれにおいて、代表視差値の近似直線Lからのばらつきが大きい場合には、立体物の連続構造物度Dを推定しないようになっている。
図13は、連続構造物推定部30Bの一動作例を表すものである。
上記実施の形態の場合(図6)と同様に、まず、画像領域設定部31は、距離画像PZにおいて、立体物検出部22が設定した立体物領域Robjに基づいて、画像領域R1~R3を設定する(ステップS101)。そして、近似直線算出部32は、画像領域設定部31が設定した3つの画像領域R1~R3における各画素列において、複数の視差値の代表値(代表視差値)を算出し(ステップS102)、画像領域R1~R3のそれぞれにおいて、代表視差値の近似直線Lを算出する(ステップS103)。
次に、推定部33Bは、画像領域R1~R3のそれぞれにおいて、代表視差値の近似直線Lからのばらつき値を算出する(ステップS113)。ばらつき値は、分散値であってもよいし、標準偏差であってもよい。
次に、推定部33Bは、ステップS113において算出した画像領域R1~R3のそれぞれにおけるばらつき値に基づいて、代表視差値のばらつきが大きいかどうかを確認する(ステップS114)。具体的には、推定部33Bは、例えば、画像領域R1~R3のそれぞれにおけるばらつき値の全てが所定のしきい値よりも大きい場合に、代表視差値のばらつきが大きいと判断する。なお、これに限定されるものではなく、推定部33Bは、例えば、画像領域R1~R3のそれぞれにおけるばらつき値のうちの少なくとも1つが所定のしきい値よりも大きい場合に、代表視差値のばらつきが大きいと判断してもよい。代表視差値のばらつきが大きい場合(ステップS114において“Y”)には、この図13の処理は終了する。
ステップS114において、代表視差値のばらつきが小さい場合(ステップS114において“N”)には、推定部33Bは、上記実施の形態の場合(図6)と同様に、画像領域R1~R3のそれぞれにおける近似直線Lの傾斜値Aに基づいて、立体物の連続構造物度Dを推定する(ステップS104)。以上で、この処理は終了する。
このように、画像処理装置1Bでは、代表視差値の近似直線Lからのばらつきが大きい場合に、立体物の連続構造物度Dを推定しないようにすることにより、車両判定部25は、その立体物が車両であると判定される度合いを調節することができる。
以上、実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
例えば、上記実施の形態では、立体物領域Robjに基づいて3つの画像領域R1~R3を設定したが、これに限定されるものではなく、立体物領域Robjに基づいて、4つ以上の画像領域Rを設定してもよい。この場合には、これらの4つ以上の画像領域Rの近似直線Lの傾斜値に基づいて連続構造物度Dを推定することができる。
例えば、上記実施の形態では、式EQ1を用いて傾斜比率VALAを算出するとともに、式EQ2を用いて傾斜比率VALBを算出したが、これに限定されるものではない。傾斜比率VALAの式EQ1は、近似直線L1の傾斜値A1と近似直線L2の傾斜値A2とが互いに近い値であるかどうかを評価可能な式であればどのような式であってもよく、傾斜比率VALBの式EQ2は、近似直線L1の傾斜値A1と近似直線L3の傾斜値A3とが互いに近い値であるかどうかを評価可能な式であればどのような式であってもよい。式EQ1,EQ2は、例えば、図12に示したステップS201,S203,S205,S207における条件にあわせて、適宜変更することができる。
なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
1…画像処理装置、11…ステレオカメラ、11L…左カメラ、11R…右カメラ、20…処理部、21…距離画像生成部、22…立体物検出部、24…車両探索部、25…車両判定部、30…連続構造物推定部、31…画像領域設定部、32…近似直線算出部、33…推定部、A,A1~A3…傾斜値、D…連続構造物度、L,L1~L3…近似直線、PIC…ステレオ画像、PL…左画像、PR…右画像、PZ…距離画像、Robj…立体物領域、Rp…処理対象領域、Rv…車両領域、R,R1~R3…画像領域、TH1,TH2…しきい値、VALA,VALB…傾斜比率、W…画素列。

Claims (8)

  1. ステレオ画像に基づいて生成された、各画素における視差に応じた視差関連値を含む距離画像に基づいて、立体物を検出することにより立体物領域を設定する検出部と、
    前記立体物領域に対応する第1の画像領域と、前記第1の画像領域の左端を含み一部が前記第1の画像領域と重なる第2の画像領域と、前記第1の画像領域の右端を含み一部が前記第1の画像領域と重なる第3の画像領域とを設定する設定部と、
    前記第1の画像領域、前記第2の画像領域、および前記第3の画像領域における複数の画素列のそれぞれにおいて、複数の前記視差関連値の代表値を算出し、前記第1の画像領域、前記第2の画像領域、および前記第3の画像領域のそれぞれにおいて、複数の画素列における複数の代表値の近似直線を算出する算出部と、
    前記第1の画像領域の前記近似直線の第1の傾斜値、前記第2の画像領域の前記近似直線の第2の傾斜値、および前記第3の画像領域の前記近似直線の第3の傾斜値に基づいて、前記立体物が連続構造物である度合いを示す連続構造物度を推定する推定部と、
    前記連続構造物度に基づいて、前記検出部により検出された前記立体物が車両であるかどうかを判定する判定部と
    を備えた画像処理装置。
  2. 前記推定部は、
    前記第2の傾斜値および前記第3の傾斜値が前記第1の傾斜値に近い場合に、前記連続構造物度は高いと推定し、
    前記第2の傾斜値および前記第3の傾斜値が前記第1の傾斜値から離れている場合に、前記連続構造物度は低いと推定する
    請求項1に記載の画像処理装置。
  3. 前記推定部は、前記第1の画像領域における前記複数の代表値の、前記第1の画像領域における前記近似直線からのばらつき、前記第2の画像領域における前記複数の代表値の、前記第2の画像領域における前記近似直線からのばらつき、および前記第3の画像領域における前記複数の代表値の、前記第3の画像領域における前記近似直線からのばらつきに基づいて、前記連続構造物度を推定すべきかどうかを判定し、推定すべきと判定した場合に前記連続構造物度を推定する
    請求項1または請求項2に記載の画像処理装置。
  4. 前記第1の画像領域の左端は、前記第2の画像領域の中央付近に位置し、
    前記第1の画像領域の右端は、前記第3の画像領域の中央付近に位置する
    請求項1から請求項3のいずれか一項に記載の画像処理装置。
  5. 前記第1の画像領域の幅、前記第2の画像領域の幅、および前記第3の画像領域の幅は、互いに等しい
    請求項1から請求項4のいずれか一項に記載の画像処理装置。
  6. 前記複数の視差関連値の前記代表値は、前記複数の視差関連値の最頻値である
    請求項1から請求項5のいずれか一項に記載の画像処理装置。
  7. 前記複数の視差関連値の前記代表値は、前記複数の視差関連値の平均値である
    請求項1から請求項5のいずれか一項に記載の画像処理装置。
  8. ステレオ画像に基づいて生成された、各画素における視差に応じた視差関連値を含む距離画像に基づいて、立体物を検出することにより立体物領域を設定することと、
    前記立体物領域に対応する第1の画像領域と、前記第1の画像領域の左端を含み一部が前記第1の画像領域と重なる第2の画像領域と、前記第1の画像領域の右端を含み一部が前記第1の画像領域と重なる第3の画像領域とを設定することと、
    前記第1の画像領域、前記第2の画像領域、および前記第3の画像領域における複数の画素列のそれぞれにおいて、複数の前記視差関連値の代表値を算出することと、
    前記第1の画像領域、前記第2の画像領域、および前記第3の画像領域のそれぞれにおいて、複数の画素列における複数の代表値の近似直線を算出することと、
    前記第1の画像領域の前記近似直線の第1の傾斜値、前記第2の画像領域の前記近似直線の第2の傾斜値、および前記第3の画像領域の前記近似直線の第3の傾斜値に基づいて、前記立体物が連続構造物である度合いを示す連続構造物度を推定することと、
    前記連続構造物度に基づいて、検出された前記立体物が車両であるかどうかを判定することと
    を含む画像処理方法。

JP2020067353A 2020-04-03 2020-04-03 画像処理装置および画像処理方法 Active JP7445501B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020067353A JP7445501B2 (ja) 2020-04-03 2020-04-03 画像処理装置および画像処理方法
US17/220,095 US11889047B2 (en) 2020-04-03 2021-04-01 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020067353A JP7445501B2 (ja) 2020-04-03 2020-04-03 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2021163396A JP2021163396A (ja) 2021-10-11
JP2021163396A5 JP2021163396A5 (ja) 2023-03-14
JP7445501B2 true JP7445501B2 (ja) 2024-03-07

Family

ID=77922158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020067353A Active JP7445501B2 (ja) 2020-04-03 2020-04-03 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US11889047B2 (ja)
JP (1) JP7445501B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7089812B1 (ja) * 2021-10-26 2022-06-23 株式会社大都技研 遊技台
JP7089813B1 (ja) * 2021-10-26 2022-06-23 株式会社大都技研 遊技台
JP7089814B1 (ja) * 2021-10-26 2022-06-23 株式会社大都技研 遊技台

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151816A (ja) 2017-03-13 2018-09-27 トヨタ自動車株式会社 衝突回避制御装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019429A1 (en) * 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
JP6606369B2 (ja) 2015-07-21 2019-11-13 株式会社Soken 物体検出装置及び物体検出方法
US10628960B2 (en) * 2016-11-24 2020-04-21 Ricoh Company, Ltd. Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151816A (ja) 2017-03-13 2018-09-27 トヨタ自動車株式会社 衝突回避制御装置

Also Published As

Publication number Publication date
JP2021163396A (ja) 2021-10-11
US20210312159A1 (en) 2021-10-07
US11889047B2 (en) 2024-01-30

Similar Documents

Publication Publication Date Title
JP7445501B2 (ja) 画像処理装置および画像処理方法
US9898669B2 (en) Traveling road surface detection device and traveling road surface detection method
WO2016002405A1 (ja) 駐車枠認識装置
JP6941070B2 (ja) ステレオカメラ装置
JP6936098B2 (ja) 対象物推定装置
JP2013190421A (ja) 車両において通行物体位置検出を向上する方法
JP4556798B2 (ja) 画像処理装置
JP6722084B2 (ja) 物体検出装置
JP4155780B2 (ja) 画像処理方法
JP7371269B2 (ja) 自動車のカメラピッチをキャリブレーションする方法及び装置、並びにそのための消滅点推定モデルをコンティニュアルラーニングさせる方法
EP3082069A1 (en) Stereoscopic object detection device and stereoscopic object detection method
CN111989541B (zh) 立体摄像机装置
US20190100215A1 (en) Road surface detecting apparatus
JP4865096B1 (ja) 車線逸脱警報制御装置
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
JPH10187974A (ja) 物流計測装置
JP2000259997A (ja) 先行車の高さおよび車間距離計測装置
JP7134780B2 (ja) ステレオカメラ装置
JP6936557B2 (ja) 探索処理装置、及びステレオカメラ装置
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
JP2022063001A (ja) 画像処理装置および画像処理方法
JP6451544B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP7291505B2 (ja) 車外環境検出装置
JP7322576B2 (ja) 情報処理装置、撮像装置および移動体
JP6082293B2 (ja) 車両用白線認識装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7445501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150