JP2015153253A - 車載用認識装置 - Google Patents

車載用認識装置 Download PDF

Info

Publication number
JP2015153253A
JP2015153253A JP2014027791A JP2014027791A JP2015153253A JP 2015153253 A JP2015153253 A JP 2015153253A JP 2014027791 A JP2014027791 A JP 2014027791A JP 2014027791 A JP2014027791 A JP 2014027791A JP 2015153253 A JP2015153253 A JP 2015153253A
Authority
JP
Japan
Prior art keywords
image
parallax
hiding
reference image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014027791A
Other languages
English (en)
Other versions
JP6313063B2 (ja
Inventor
英彰 城戸
Hideaki Kido
英彰 城戸
永崎 健
Takeshi Nagasaki
健 永崎
晋司 掛川
Shinji Kakegawa
晋司 掛川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2014027791A priority Critical patent/JP6313063B2/ja
Priority to EP15749369.3A priority patent/EP3109828B1/en
Priority to PCT/JP2015/050202 priority patent/WO2015122212A1/ja
Priority to US15/102,746 priority patent/US10019635B2/en
Publication of JP2015153253A publication Critical patent/JP2015153253A/ja
Application granted granted Critical
Publication of JP6313063B2 publication Critical patent/JP6313063B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】より短い処理時間で対象物を認識できる車載用認識装置を得ること。
【解決手段】本発明の車載用認識装置は、一対の撮像部601、602で同時に撮像された一対の画像のうち、いずれか一方の画像から対象物を認識する車載用認識装置であって、一対の画像を用いて視差を計測する視差計測部603と、対象物の過去の位置から対象物の現在の位置を推定する物体情報推定部604と、視差計測部603の計測結果と物体情報推定部604の推定結果とに基づいて一対の画像の少なくとも一方に対象物の隠れが発生しているか否かを判断する隠れ判断部607と、隠れ判断部607の判断結果に基づいて一対の画像から対象物を認識可能な画像を選択する画像選択部608と、選択した画像を用いて対象物を認識する物体認識部605を有する。
【選択図】図6

Description

本発明は、画像処理により物体を認識する車載用認識装置に関する。
近年、車載分野においてカメラを通して周辺の車両や走行レーンを認識し、事故を未然に防ぐ車載画像認識システムが広まりつつある。認識対象となる物体は多様化しており、車両のほかにも歩行者や道路速度標識など認識する場合がある。その一手段として二つのカメラを用いて三角測量の原理で距離測定を行うステレオカメラの技術がある。ステレオカメラでは、二つのカメラの横方向の対応点を求めて、その変位を視差とし、視差により自車から対応点までの距離を算出し、それを距離画像として持つ。そして、ステレオカメラでは、カメラを用いているため、視差により距離を測定する以外にも、例えばカメラで撮像された見えのパタン情報をそのまま用いても物体を認識することが出来る。
特許文献1には、ステレオカメラを用いた標識認識の技術が記載されている。特許文献1の技術では、標識の領域をまず距離画像で推定し、その次にその距離から標識のおおよその大きさを推定し、その大きさに従ったテンプレートマッチングを実施する事で標識認識を実現している。
特許文献2には、ステレオカメラに限らないものの複数のカメラを用いる車載画像認識システムにおいて、一方のカメラにおいてレンズの汚れなどによって検出対象の物体が認識できなければ、もう片方のカメラにおいて認識処理を実施し、検出対象の物体を発見する手法が記載されている。特許文献2の技術では、どちらか一方の画像において認識できない状況が発生しても、他方の画像で見えていれば検知漏れを防ぐことができる。
特開2006-3994号公報 特許第4654208号公報
しかしながら、特許文献1に記載されている標識認識の方法では、2つある画像のうち、片方の画像でしか認識しない。したがって、片方の画像には映っていないがもう片方の画像に標識が映っている場合は、標識を認識できないという問題がある。
特許文献2に記載されている技術の場合、両方の画像を認識する事で検知漏れを防ぐ事は出来るが、複数の画像に対してそれぞれ認識処理を実施するので、1つの画像に対してのみ行う認識処理に比べて処理時間がかかる。特に計算資源の厳しい組み込みシステムにおいては、処理時間は出来るだけ減らしたいという要求がある。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、より短い処理時間で対象物を認識できる車載用認識装置を提供することである。
上記課題を解決する本発明の車載用認識装置は、一対の撮像部で同時に撮像された一対の画像のうち、いずれか一方の画像から対象物を認識する車載用認識装置であって、前記一対の画像を用いて視差を計測する視差計測部と、前記対象物の過去の位置から前記対象物の現在の位置を推定する物体情報推定部と、前記視差計測部の計測結果と前記物体情報推定部の推定結果とに基づいて一対の画像の少なくとも一方に前記対象物の隠れが発生しているか否かを判断する隠れ判断部と、該隠れ判断部の判断結果に基づいて前記一対の画像から前記対象物を認識可能な画像を選択する画像選択部と、該選択した画像を用いて対象物を認識する物体認識部とを有することを特徴としている。
本発明によれば、対象物との間に存在する物体によって一方のカメラにしか映っていない場合においても、両方の画像に対して認識処理せずに、一方だけの画像に対して認識処理をするので、全体の処理時間を削減できる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
ステレオカメラによる画像認識システムの処理例を示すフローチャート。 視差導出の詳細例を説明する図。 基準画像の後に参照画像を認識する従来の処理例を示す図。 右画像で標識が不可視となる画像例を示す図。 左画像で標識が不可視となる画像例を示す図。 ステレオカメラによる画像認識システムの構成例を示す図。 物体認識の処理例を示すフローチャート。 隠れ判定処理の処理例を示すフローチャート。 逆基準画像の生成方法の一例を示すフローチャート。 逆基準画像の生成方法の他の一例を示すフローチャート。 隠れ率に基づいた隠れ判定処理の処理例を示すフローチャート。 逆基準画像を最初に作る場合の物体認識の処理例を示すフローチャート。 逆基準画像を最初に作る場合の隠れ判定処理の処理例を示すフローチャート。
以下、本発明の実施例について図面を参照して詳述する。
図1は、ステレオカメラによる画像認識システムの処理例を示すフローチャートである。
ステレオカメラは、車両に搭載されており、車両前方を撮像する左右一対の撮像部(カメラ)を有している。ステレオカメラでは、一対の撮像部で撮像した右画像と左画像をそれぞれ取得する(S101、S102)。そして、右画像と左画像における見えのパタンの差分から三角測量の原理によって撮像されている物体までの距離を計測する。距離を測る為に、二つの撮像部が同じ物体を映しているとき、右画像と左画像の2つの画像座標上でどの程度、その物体が離れているかを示す指標である視差を求め、視差画像を生成する(S103)。
図2は、視差導出の詳細例を説明する図である。
まず、基準となる画像として右画像と左画像のいずれを用いるのかを決め、その基準画像を小さな矩形ブロック画像に区切って分割する。この基準となる画像を、ここでは基準画像201と呼び、以下の説明では、特に断らない限り、右画像(IR(x,y)))とする。基準画像201を小さな矩形ブロック画像202に分割した後、その矩形ブロック画像毎に一致する領域をもう一方の画像204に対して画像の横方向(x方向)203にmaxd画素長、探索する。この探索されるもう一方の画像を、参照画像204と呼び、以下の説明では、特に断らない限り、左画像(IL(x,y))とする。なお、(x、y)は画像座標を示す。あるブロックについて左画像において探索を開始する座標を、ブロックを切り出した右画像の座標と同じとし、その座標から探索する際の変位をdとし、その変位dにおけるブロック同士の一致度を測る類似度をS(x,y,d)とすると、視差Dr(u,v)は以下の様に求まる。
Dr(u,v)=argmax(S(x,y,d))…(式1)
ここでargmaxは最も大きいSを与えるd(0≦d<maxd)を出力する関数である。
また、視差画像座標u,vと基準画像x,yの関係をここではブロックのサイズを縦横sx,syとして、
u=x*sx,v=y*sy …(式2)
とおく。
このDrをそのまま視差画像Dとして扱う事もあるが、ここでは以下の様にDを生成する。
参照画像をブロックに区切って、やはり基準画像に対して横方向に探索する。但し、探索する方向は、横方向203とは逆方向とする。Drと同様に、Dlを求め、最終的な視差画像は適当な閾値Tdを用いて以下の様に求める。
D(u,v)=if(|Dr(u,v)−Dl(u−Dr(u,v),v)|<Td)
then Dr(u,v)
else φ
この処理は左右画像チェックと呼ばれる。つまり、視差画像生成の際に、右画像からブロックを作成して右画像を基準として生成した視差画像Drと左画像からブロックを作成して左画像を基準として生成した視差画像Dlを比較して視差画像Dを生成する(視差画像生成部)。これは誤マッチング等を抑制する手法である。φは視差が無効な状態であり、例えば一方の画像で物体が別の手前にある物体に隠れている場合は、探索処理時にブロックが一致する所が無い為に、視差を求める事が出来ない。φの判定は、左右画像チェックのほかにも、マッチング時に最小を取るS(x,y,d)の大きさなどによって行われる。
例えば、今、検出したい物体の視差がD(uo,vo)で与えられたとすると,この物体までの距離(Z)は、上記の視差と撮像部のレンズの焦点距離(f)、撮像素子の画素間隔(δ)、撮像部同士の基線長(b)から、以下の式で求めることができる。
Z=b*f/(D(uo,vo)*δ)…(式3)
視差画像D(u,v)を求めた後は、検知対象の物体(対象物)がどこにあるかを絞り込む物体情報推定処理を実施する(S104)。その処理方法として例えば、(1)似た視差を持つ近接領域をまとめてラベリングし、それを1つの物体としてみなす。同じ物体には同じラベルが振られる事が期待される。(2)見えのパタン情報から検知対象の物体のおおよその位置を絞り込む。(3)1つ前のフレームなどの認識情報があれば、その情報から現在の位置を自車挙動等から推定する、などが挙げられる。
以下の説明では、上記(1)の処理方法を用いた場合の視差ラベル画像をL(u,v),として示す。上記した処理方法により、絞り込んだ領域に対して、L(u,v)において同じラベルが振られた領域の形状や、元の基準画像IR(x,y)の見えのパタンを解析することで、その物体が何かを特定する物体認識を行う(S105)。何かとは例えば、道路標識や歩行者、先行車両などが考えられる。なお、ある位置(u,v)の見えの情報は、上記の(式2)によって直ちに求めることができ、その結果は、ディスプレイや制御装置などに伝達される(S106)。
検知対象の物体としては様々なものが考えられるが、本実施例では道路標識の種類を認識対象とした場合について考える。例えば、速度標識では標識に表示されているパタンが30km/hなのか、40km/hなのか、等を認識する必要がある。
図4は、右画像で標識が不可視となる画像例を示す図であり、図5は、左画像で標識が不可視となる画像例を示す図である。
図4では、ステレオカメラによって撮像された左右の時系列画像を示し、目的の検知対象の物体403が、別の手前にある物体402に隠れている例を示す。この時系列画像は自車が前進し、前方車両401と右側方車両402も自車両と同方向に等速で前進している例である。フレームNo.1〜フレームNo.3は、予め設定された所定の時間間隔をあけて順番に撮像されたものである。
各画像の右側方に描いた四角と丸の組み合わせの物体が道路標識403の例を示すものである。道路標識403は、道路404の右端に設置されており、フレームNo.1では左右の画像のどちらにも映っているが、フレームNo.2 の右画像では、自車が進み、同様に進んでいる他の車両402の陰に隠れて、道路標識403の一部が見えなくなっている。一方、フレームNo.2の左画像では、左の撮像部の位置が右の撮像部よりも左側にずれて離れているために、道路標識403の全体が車両402の陰から出て見えている。標識403は、フレームNo.3の右画像では、車両402の陰に隠れて標識403の全体がほぼ見えなくなっている。その一方、フレームNo.3の左画像では、車両402の陰から出て見えている。
図5では、見えなくなっている画像が図4と左右で逆転している例である。道路標識503は、道路504の左端に設置されており、フレームNo.1においては、左右どちらの画像でも道路標識503は見えているが、フレームNo.3の左画像では、標識503が車両502の陰に隠れて標識503の全体がほぼ見えなくなっており、フレームNo.3の右画像では、標識503は、車両502の陰から出て見えている。
例えば図4もしくは図5のフレームNo.2及びフレームNo.3に示す状況では、左右の画像で見えのパタンが異なるので、視差が求まらず(D(u,v)=φ)、視差画像を元に生成されるラベル画像をそのまま単純に用いても領域を絞り込むことはできない。この場合は、過去の検知結果や車両挙動からから現在のフレームの位置や距離を予測する。
具体的には、ヨーレートセンサ、自車速センサ、画像の情報などから1つ前のフレームと現フレームとの間の自車挙動を、世界座標上でΔPで表し、1つ前のフレームで認識された標識の位置をP(t−1)で表わすとすれば、現在のフレームにおける標識の位置P(t)は、P(t−1)+ΔPで表すことができる。この座標を画像座標系に変換することによって、画像座標系における現在のフレームの検知物体の位置を予測することができる。以上の例は、道路標識に限らず、対象物が静止物であれば適用できる。
対象物が移動物の場合は、フレーム間における移動体と自車の相対的な変位をΔQとして1つ前のフレームで認識された標識の位置をQ(t−1)とすれば、現在のフレームにおける移動体の位置Q(t)は、Q(t−1)+ΔQで表すことができる。このようにして過去の検知結果や車両挙動によって予測された位置を、予測位置(up,vp)と表記する。なお、予測された奥行き方向の座標によって、現在のフレームにおける視差も予測できこの視差を予測視差dpとして以下では記述する。
予測された位置があれば、領域を絞り込むことができるので認識処理を実行できる。この様な場合に標識を認識する処理フローの一例を図3に示す。図3は、基準画像の後に参照画像を認識する従来の処理例を示す図である。
図3に示す従来例では、まず、対象物を基準画像で認識する。ここで、図5に示すように、もし参照画像の方のみで対象物の隠れが起こっていたとすると、基準画像には、見えのパタン情報が存在するので、対象物を認識することができる(S302でYES)。
しかしながら、図4のフレームNo.2、No.3の様に基準画像の方のみで対象物の隠れが起こっている場合だと、見えのパタン情報が無いので、対象物を認識することができない(S302でNO)。
したがって、参照画像で認識すべく、まず、予測視差dpから対象物が参照画像(IL)にて映っていると予測される位置を推定する(S303)。この参照画像における対象物の位置は(IL(up+dp,vp))で求まる。この場所の見えのパタン情報を用いて、参照画像(左画像)における認識処理をすれば、図4のフレームNo.2、No.3の様な場合でも、対象物を認識することができる。対象物が左右の画像の両方ともに隠れている場合は(S305でNO)、対象物を認識できないと判断し、認識処理は行わない。
上記した従来例の場合、図4のフレームNo.2、No.3に示す状況で、認識処理を基準画像と参照画像で2回実施する必要がある。したがって、処理時間がかかるという課題があり、認識処理の回数を抑えて処理時間を短くすることが望まれている。
図6は、本実施例におけるステレオカメラによる画像認識システムの構成例を示す図である。
まず、左右一対の撮像部601、602により同時に撮像された左右一対の画像が視差計測部603に入力される。視差計測部603では、その入力に従って視差を算出し、視差を濃淡で示した視差画像を生成する。物体情報推定部604では、視差画像と、後述する物体情報テーブル606に登録された過去の物体情報を用いて、対象物の位置・大きさ・距離等の物体情報を推定する。過去の物体情報には、対象物の過去の位置とそのときに対象物が画像上において占める範囲が含まれる。ここで推定されるのは、前述した予測位置(up,vp)、予測視差dpなどである。また、推定される対象物の大きさとは、画像上において対象物が占めると予測される予測範囲である。
次に、画像選択部608で左右の画像のいずれか一方を選択し、物体認識部605で、その選択された画像における見えパタン情報や物体情報推定部604における推定情報等を用いて、物体の検知を実施する。画像選択部608では、隠れ判断部607の判断結果を用いて、一対の画像のうち、いずれか一方の画像を選択することが行われる。物体認識部605で検知された物体の位置情報・距離情報は、物体情報テーブル606に格納される。そして、物体の認識結果は、出力部609に出力される。
図7は、図6の構成に基づいた物体認識の処理例を示すフローチャートである。
まず、フレームNo.1で対象物が初期検知される場合について説明する。初期検知とは、過去に対象物が検知されず、そのフレームで初めて認識されることを指す。過去に対象物が検知された否かは、物体情報テーブル606に、検知フラグ(S704)を持たせることで管理する。通常、対象物は複数あるが、本実施例では、説明の簡単化のため、1つの物体を管理しているとする。対象物があれば(検知できれば)ON,対象物が無ければ(検知できなければ)OFFとする。はじめは何も過去に情報が無いとする。
最初に、左右画像を取得し(S702)、視差画像を生成する(S703)。次に、過去情報が存在するか否かを判断するための検知フラグがONとOFFのいずれであるかを判断する(S704)。この時の検知フラグはOFFなので、初期検知フローに移行する。
初期検知フローでは、前述したような、距離ラベル情報Lや直接画像の見え情報を処理することにより物体情報推定処理を実施する(S705)。そして、検知対象画像として左右一対の画像の中から基準画像(本実施例では右画像)を選ぶ(S706)。この処理は、図6における画像選択部608の処理に該当する。
次に、検知対象画像である基準画像を用いて物体を検知する認識処理を実施する(S707)。ここで、基準画像から対象物が検知された場合(S708でYES)は、物体情報テーブル606に、その対象物の物体情報を登録する(S709)。登録する物体情報には、フレーム番号の情報と、自車に対する対象物の種類、位置、距離、対象物の大きさの情報が含まれており、例えば対象物が道路標識の場合には、道路標識の種類・位置・大きさ・距離等の情報が、フレームNo.1の物体情報として登録される。この時、検知フラグをONに変更する(S710)。一方、基準画像から対象物が検知されなかった場合には(S708でNO)、検知フラグをOFFとする(S713)。
次に、フレームNo.2のときについて説明する。フレームNo.1のときと同じく、左右画像を取得して視差計測を行い(S702、S703)、過去情報が存在するか否かを判断する(S704)。今回の処理では、検知フラグがONなので、物体情報推定処理において、過去情報から現在のフレームにおける物体の位置・大きさ・距離(視差)を推定する(S714)。ここでは、前述した対象物の予測位置(up,vp)と予測視差dpに加え、推定された大きさ(sxp,syp)を求める。ここで、推定大きさsxpは、画像における対象物のx方向のサイズ、sypは、画像における対象物のy方向のサイズを示す。対象物が速度標識の様に、丸い場合(円形の場合)は、その速度標識の半径rpを、物体情報テーブル606に登録しておいても良い。
次に、対象物の予測位置(up,vp)において自車との間に他の物体が存在して、対象物が隠れていないかどうかを隠れ判定処理で判定する(S715)。隠れ判定処理の詳細な内容については後述する。隠れ判定処理(S715)の判定結果を受けて、検知対象画像として左右のどちらの画像から見えのパタン情報を取得するかを決定する(S716)。例えば、隠れ判定処理(S715)において、可視画像(対象物が映っていると判定された画像)が、基準画像(右画像)であれば、検知対象画像として基準画像を選択する(S717)。そして、可視画像が、参照画像(左画像)であれば、検知対象画像として参照画像を選択する(S718)。そして、隠れ判定処理(S715)により、可視画像が無いと判定された場合、すなわち、基準画像と参照画像の両方に対象物が映っていないと判定された場合は、認識処理を実施せず、検知フラグをOFFにする(S713)。
次に、S715における隠れ判定処理の詳細な内容について説明する。
図8は、隠れ判定処理の処理例を示すフローチャートである。
隠れ判断部607は、基準画像に対して隠れ判定(S801)をする基準画像判定部と、参照画像に対して隠れ判定(S803)をする参照画像判定部とに分けられる。基準画像判定部では、過去の検知情報と車両挙動情報等に基づいて予測された予測位置(up,vp)から、現在の視差情報D(up,vp)を求め、その周辺位置における視差の傾向が予測視差dpより大きいか否かが判断される。判定式としては、下記の(式4)を使用することができる。
D(up,vp)−dp>T1 ・・・(式4)
上記の(式4)でT1は、予め設定される閾値である。
ここでは、視差の傾向が予測視差dpより大きい(=距離が予測よりも近い)場合に、対象物が他の物体によって隠れている、すなわち、対象物の隠れが発生していると判定され(S802でYES)、視差の傾向が予測視差dp以下の場合に、対象物は他の物体によって隠れていない、すなわち、対象物の隠れが発生していないと判定される(S802でNO)。
なお、周辺位置における視差の傾向がD(up,vp)=φ(視差無効)の場合には、対象物の隠れが発生しているとは判断されない。ここで、周辺位置は、予測される対象物の位置と、対象物のサイズ、予測誤差に基づいて設定される。例えば、予測誤差を縦横ともに±epとすると、周辺位置は、左上座標と右下座標を以下の様に定義した矩形として定義できる。左上座標:(up−e,vp−e),右下座標(up+sxp+e,vp+syp+e)。視差の傾向は、この矩形領域内における上記条件の過多などから判定する。
基準画像判定部(S801)で基準画像に隠れが発生している(S802でYES)と判定されれば、参照画像判定部(S803)に移る。基準画像に対象物の隠れが発生してない(S802でNO)と判定されれば、可視画像を基準画像として出力する。
本ステレオカメラシステムでは、視差計測部はどちらか一方の画像を基準とした視差画像しか生成しない。したがって、参照画像で隠れが起こっているか否かが分からない。そこで、参照画像判定部S803で、逆基準視差画像D’(u’,v’)を生成し(S804)、その逆基準視差画像D’(u’,v’)に基づいて参照画像の隠れ判定を行う(S805)。逆基準視差画像D’(u’,v’)は、参照画像としていた左画像を基準画像とし、基準画像としていた右画像を参照画像とした逆基準視差を算出することによって生成される。
S805の隠れ判定では、逆基準視差画像生成部S804で生成されたD’を用いて、D’(up+dp,vp)を求め、その周辺位置における視差の傾向が予測視差dpより大きいか否かを下記の(式5)を用いて判定する。
D’(up’,vp’)−dp>T2 ・・・(式5)
上記した(式5)が成立していれば、対象物の隠れが発生していると判断し(S806でYES)、可視画像を無しとして出力する(S807)。一方、(式5)が不成立の場合、対象物の隠れが発生していないと判断し(S806でNO)、可視画像を参照画像として出力する(S808)。この時の判定式は、基準画像判定部の時と同じように、適当な閾値T2を求めて判断すれば良い。上記の(式5)で用いたT2は、基準画像判定部の時と同じように、予め設定される閾値である。
逆基準視差画像の作り方にはいくつかあるが、例えば図9、図10に2種類の逆基準画像生成部の詳細を示す。
図9は、逆基準画像の生成方法の一例を示すフローチャート、図10は、逆基準画像の生成方法の他の一例を示すフローチャートである。
まず、図9に示す実施例では、視差画像D(u,v)から逆基準視差画像D’(u’,v’)を生成する。左右のどちらを基準画像として取っても物体までの距離は変わらず、物体の各画像での位置が横方向に変化するのみである。この横方向の補正量は、視差と等しく、D(u,v)である。すなわち
D’(u’v’)=D’(u+D(u,v),v)=D(u,v)
の関係式が成り立つ。
D(u,v)=φの際は変換対象とならない。式上はD(u’,v’)が複数の値を取り得るがその場合は例えばより大きな視差値を取る等する。
この様な逆基準視差画像を、予測位置(up,vp)と予測視差dpから求められるD’(up+dp,vp)の周辺に対して局所的に生成する。
次に、図10に示す実施例では、視差計測部で生成された右画像からブロックを作成して右画像を基準として生成した視差画像Drと、左画像からブロックを作成して左画像を基準として生成した視差画像Dlから、以下の様に生成する。
D’(u’,v’)=if(|Dr(u’+Dl(u’,v’),v’)−Dl(u’,v’)|<Td)
then Dl(u’,v’)
else φ
図11は、隠れ判定処理の別の実施例である。この実施例では、一対の画像のうち、対象物の隠れ度合いの小さな方を選ぶ。ここで、隠れ度合いとは、対象物に対してそれよりも手前にある物体が対象物をどれだけ遮蔽しているかであり、例えば、対象物の範囲内にある(式4)及び(式5)を満たす画素の割合で決定する。すなわち、基準画像における隠れ率をCr,参照画像における隠れ率をClとすると、
Cr=ΣU(D(up,vp)−dp−T)/N
Cl=ΣU(D’(up’,vp’)−dp−T)/N
で表される。
上記した式のU関数は、単位ステップ関数であり、引数の中身が0以上であれば1を、0未満であれば0を返す。Nは関心領域の画素数である。
図11を用いて説明すると、基準画像判定部で基準画像における対象物の隠れ率を算出し(S1101)、参照画像判定部で参照画像における対象物の隠れ率を算出する(S1103)。
そして、隠れ率CrとClとの大小判定を行い(S1104)、隠れ率が参照画像よりも基準画像の方が小さく(Cr<Cl)、かつ適当な閾値TCよりも隠れ率Crの方が小さい(Cr<TC)場合には(S1104でYESかつS1105でYES)、隠れ判定処理は、可視画像を基準画像とする(S1106)。
一方、参照画像の隠れ率が基準画像の隠れ率以下(Cr≧Cl)かつ適当な閾値TCよりも隠れ率Crの方が小さい(Cr<TC)場合には(S1104でNOかつS1107でYES)、隠れ判定処理は、可視画像を参照画像とする(S1108)。そして、いずれの場合でも閾値TCを上回る場合は、可視画像は無しと判定して出力する(S1109)。
図12には、処理フローの別の実施例であり、逆基準画像を最初に作る場合の物体認識の処理例を示すフローチャートである。そして、図13は、逆基準画像を最初に作る場合の隠れ判定処理の処理例を示すフローチャートである。
図12に示す処理例では、視差画像取得(S1203)の次に、逆基準視差画像(S1204)を生成する。逆基準視差画像の生成方法は、図9もしくは図10に従うが、視差画像全体が対象領域になっている所が異なる。この時の隠れ判定処理(S1216)の処理は、図13に示すフローの通りである。S1301で通常の視差画像を元にして隠れ判定を実施し、S1303では、図8と異なり、逆基準視差画像を生成せず、S1204で生成した逆基準視差画像をそのまま使用する。図8は、対象物ごとに毎回逆基準視差画像を生成するため、対象物が多い場合などは、図12に示す処理の方が効率が良い場合もある。
上記した車載用認識装置によれば、対象物との間に存在する物体によって対象物が一方の画像にしか映っていない場合においても、両方の画像に対して認識処理せずに、一方だけの画像に対して認識処理をするので、全体の処理時間を削減することができる。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
601 撮像部(左撮像部)
602 撮像部(右撮像部)
603 視差計算部
604 物体情報推定部
605 物体認識部
606 物体情報テーブル
607 隠れ判断部
608 画像選択部

Claims (6)

  1. 一対の撮像部で同時に撮像された一対の画像のうち、いずれか一方の画像から対象物を認識する車載用認識装置であって、
    前記一対の画像を用いて視差を計測する視差計測部と、
    前記対象物の過去の位置と範囲から前記対象物の現在の位置と範囲を予測位置と予測範囲として推定する物体情報推定部と、
    前記視差計測部の計測結果と前記物体情報推定部の推定結果とに基づいて一対の画像の少なくとも一方に前記対象物の隠れが発生しているか否かを判断する隠れ判断部と、
    該隠れ判断部の判断結果に基づいて前記一対の画像から前記対象物を認識可能な可視画像を選択する画像選択部と、
    該選択した可視画像を用いて対象物を認識する物体認識部と、
    を有することを特徴とする車載用認識装置。
  2. 前記視差計測部は、前記一対の画像のいずれか一方の画像を基準画像とし、他方の画像を参照画像として視差画像を生成する視差画像生成部を有し、
    前記隠れ判定部は、前記他方の画像の前記予測範囲を基準画像とし、前記一方の画像の前記予測範囲を参照画像として逆基準視差画像を生成する逆基準視差画像生成部を有することを特徴とする請求項1に記載の車載用認識装置。
  3. 前記逆基準視差画像生成部は、前記視差画像の視差に基づいて前記逆基準視差画像を生成することを特徴とする請求項2に記載の車載用認識装置。
  4. 前記物体情報推定部は、前記予測位置に基づいて予測視差を算出し、
    前記隠れ判定部は、前記視差画像の視差と前記予測視差とを比較して、前記基準画像において前記対象物の隠れが発生しているか否かを判定する基準画像判定部と、該基準画像判定部により前記対象物の隠れが発生していると判定された場合に、前記逆基準視差画像の視差と前記予測視差とを比較して、前記参照画像において前記対象物の隠れが発生しているか否かを判定する参照画像判定部と、有することを特徴とする請求項3に記載の車載用認識装置。
  5. 前記画像選択部は、前記基準画像判定部により前記基準画像において前記対象物の隠れが発生していないと判定された場合に、前記基準画像を前記可視画像として選択し、前記基準画像判定部により前記基準画像において前記対象物の隠れが発生しており、かつ、前記参照画像判定部により前記参照画像において前記対象物の隠れが発生していないと判定された場合に、前記参照画像を前記可視画像として選択することを特徴とする請求項4に記載の車載用認識装置。
  6. 前記基準画像判定部は、前記予測範囲内における予測視差よりも視差画像の視差の方が小さい割合を基準画像隠れ率として算出し、
    前記逆基準画像判定部は、前記予測範囲内における予測視差よりも逆基準視差画像の視差の方が小さい割合を逆基準画像隠れ率として算出し、
    前記隠れ判定部は、前記基準画像隠れ率と前記逆基準画像隠れ率とを比較して、基準画像と参照画像のうち、隠れ率の小さい方を、前記可視画像として選択することを特徴とする請求項4に記載の車載用認識装置。
JP2014027791A 2014-02-17 2014-02-17 車載用認識装置 Active JP6313063B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014027791A JP6313063B2 (ja) 2014-02-17 2014-02-17 車載用認識装置
EP15749369.3A EP3109828B1 (en) 2014-02-17 2015-01-07 Vehicle-mounted recognition device
PCT/JP2015/050202 WO2015122212A1 (ja) 2014-02-17 2015-01-07 車載用認識装置
US15/102,746 US10019635B2 (en) 2014-02-17 2015-01-07 Vehicle-mounted recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014027791A JP6313063B2 (ja) 2014-02-17 2014-02-17 車載用認識装置

Publications (2)

Publication Number Publication Date
JP2015153253A true JP2015153253A (ja) 2015-08-24
JP6313063B2 JP6313063B2 (ja) 2018-04-18

Family

ID=53799960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014027791A Active JP6313063B2 (ja) 2014-02-17 2014-02-17 車載用認識装置

Country Status (4)

Country Link
US (1) US10019635B2 (ja)
EP (1) EP3109828B1 (ja)
JP (1) JP6313063B2 (ja)
WO (1) WO2015122212A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3136291A1 (de) * 2015-08-31 2017-03-01 Continental Automotive GmbH Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung
JP7291505B2 (ja) * 2019-03-19 2023-06-15 株式会社Subaru 車外環境検出装置
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP2002056377A (ja) * 2000-08-08 2002-02-20 Alpine Electronics Inc 画像認識装置
EP2293588A1 (en) * 2009-08-31 2011-03-09 Robert Bosch GmbH Method for using a stereovision camera arrangement

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP2006003994A (ja) 2004-06-15 2006-01-05 Calsonic Kansei Corp 道路標識認識装置
JP4654208B2 (ja) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 車載用走行環境認識装置
JP4871909B2 (ja) * 2008-04-25 2012-02-08 日立オートモティブシステムズ株式会社 物体認識装置、および物体認識方法
US9418556B2 (en) * 2010-12-30 2016-08-16 Wise Automotive Corporation Apparatus and method for displaying a blind spot
EP2888720B1 (en) * 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
US9066085B2 (en) * 2012-12-13 2015-06-23 Delphi Technologies, Inc. Stereoscopic camera object detection system and method of aligning the same
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US9794543B2 (en) * 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP2002056377A (ja) * 2000-08-08 2002-02-20 Alpine Electronics Inc 画像認識装置
EP2293588A1 (en) * 2009-08-31 2011-03-09 Robert Bosch GmbH Method for using a stereovision camera arrangement

Also Published As

Publication number Publication date
EP3109828B1 (en) 2024-04-24
WO2015122212A1 (ja) 2015-08-20
US10019635B2 (en) 2018-07-10
JP6313063B2 (ja) 2018-04-18
EP3109828A1 (en) 2016-12-28
US20160314364A1 (en) 2016-10-27
EP3109828A4 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
JP4919036B2 (ja) 移動物体認識装置
JP5127182B2 (ja) 物体検出装置
EP3065087B1 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and carrier medium of program of method
US9659497B2 (en) Lane departure warning system and lane departure warning method
US9594966B2 (en) Obstacle detection device and obstacle detection method
KR102038570B1 (ko) 시차 이미지 생성 디바이스, 시차 이미지 생성 방법, 시차 이미지 생성 프로그램, 물체 인식 디바이스, 및 기기 제어 시스템
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US10165246B2 (en) Method and device for processing stereoscopic data
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
JP6722084B2 (ja) 物体検出装置
JP2009053818A (ja) 画像処理装置及びその方法
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
JP6313063B2 (ja) 車載用認識装置
JP5957359B2 (ja) ステレオ画像処理装置及びステレオ画像処理方法
KR20180063524A (ko) 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치
JP2009186301A (ja) 車両用物体検出装置
JPWO2010113253A1 (ja) 3次元情報表示装置および3次元情報表示方法
JP2017199220A (ja) 情報処理装置、撮像装置、移動体制御システム、情報処理方法およびプログラム
JP2019207607A (ja) 移動体追跡装置
JPWO2018168552A1 (ja) 物体検出システム
JP5392473B2 (ja) 車両用運転支援装置
JP2013020507A (ja) 車両検出装置、車両検出方法及びプログラム
KR101452628B1 (ko) 스테레오 비전 기반 보행자 보호 시스템을 위한 위험지역 검출 방법 및 장치
JP5256508B2 (ja) 3次元情報算出装置および3次元情報算出方法
JP6936557B2 (ja) 探索処理装置、及びステレオカメラ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180322

R150 Certificate of patent or registration of utility model

Ref document number: 6313063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250