JPWO2017047282A1 - 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム - Google Patents

画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム Download PDF

Info

Publication number
JPWO2017047282A1
JPWO2017047282A1 JP2017539770A JP2017539770A JPWO2017047282A1 JP WO2017047282 A1 JPWO2017047282 A1 JP WO2017047282A1 JP 2017539770 A JP2017539770 A JP 2017539770A JP 2017539770 A JP2017539770 A JP 2017539770A JP WO2017047282 A1 JPWO2017047282 A1 JP WO2017047282A1
Authority
JP
Japan
Prior art keywords
image
unit
recognition
recognition image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017539770A
Other languages
English (en)
Other versions
JP6516012B2 (ja
Inventor
直樹 本橋
直樹 本橋
高橋 禎郎
禎郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPWO2017047282A1 publication Critical patent/JPWO2017047282A1/ja
Application granted granted Critical
Publication of JP6516012B2 publication Critical patent/JP6516012B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

物体を示す認識画像を入力する入力手段と、前記認識画像の画素に対応する距離値の平面上での頻度を示す頻度画像上の、前記認識画像に対応する対応認識画像から、前記物体の面を検出する検出手段と、所定方向に対する前記面の角度を算出する算出手段と、前記検出手段により検出された前記面、および前記算出手段により算出された前記角度に基づいて、前記認識画像を棄却するか否かを判定する判定手段と、を備える。

Description

本発明は、画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラムに関する。
従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、および、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術および画像処理技術の発達により、高速に人および自動車を検出する技術が開発されてきている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車もすでに開発されている。自動車の自動制御には、人または他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダおよびレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。車載用の物体認識技術を実用化するには、上記の技術で測距された情報に基づき、画面上に写る物体を認識し、物体ごとに制御を行う必要がある。例えば、認識した物体が歩行者か車両かによって制御を変えることが想定される。
しかし、走行中に撮像された画像中には、歩行者または車両等の認識すべき対象とは別に、認識すべきではない、または認識する必要がない物体が写り込むことが多い。これらの物体を誤って認識してしまうと、誤制御の原因となり、急ブレーキまたは急発進等の危険行為が発生するおそれがある。物体を認識する技術としてステレオカメラを使う場合、撮像した輝度画像に写り込んでいる各物体の視差を導出し、同程度の視差値を持った画素を一つにまとめることで物体を認識する(クラスタリング処理)。したがって、視差が取れる物体であれば、上述したような認識すべきではない、または認識する必要がない物体が認識される可能性がある。特に、認識する必要がない物体としてガードレール等の側壁物は車両が道路上を走行している性質から出現することが多い。自動車制御では、他の車両を認識し、この車両を追跡(トラッキング)するような用途が想定されるが、上述したような側壁物を誤って認識すると、誤制御の原因となり危険が生じる可能性がある。
上述のような側壁物のような物体は、認識した時点で除去して、制御側に渡らないようにすることが望ましい。このように、認識した物体が自動制御に用いられないように、認識処理側で除去等の措置を講ずることを「棄却」というものとする。上述のような側壁物を認識した認識画像を棄却しようとする場合、物体の形状や位置を正確に認識する必要がある。また、例えば、側壁物と車両とは共に類似した形状(例えば、共に面を有する)を持っているため、適切な特徴を選択しないと、トラッキングの対象とすべき車両を誤棄却してしまうおそれがある。ここで、上述のように、車両の自動制御のために利用される他の車両および人を認識することを「正認識」という場合がある。
このような、撮像画像中の物体が認識すべき対象であるか否かを精度よく判定する技術として、認識候補を抽出し、各々を事前に用意したモデルに基づき識別値を算出し、識別値が明らかに認識すべき対象ではない範囲に入っている場合に棄却する方法が開示されている(特許文献1)。
特開2005−311691号公報
しかしながら、特許文献1に記載された技術は、事前に用意したモデル(テンプレート)に棄却の精度が依存するという問題があり、テンプレートと大きく異なる物体の画像については、棄却すべき画像であっても棄却ができないおそれがあり、正認識でない物体を誤ってトラッキングしてしまう可能性があるという問題がある。特に、側壁物の場合、道路によってその形状は種々多様であり、全てを一つのモデル(テンプレート)で認識することは困難であり、多様な側壁物を認識しようとすると、多くのモデルを事前に用意しておき、認識画像を各モデルと照合する必要が有るため、計算コストもかかり、速度を要求される車載用認識装置に搭載することは困難になるという問題がある。
本発明は、上記に鑑みてなされたものであって、認識物体の棄却の精度を向上させる画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、物体を示す認識画像を入力する入力手段と、前記認識画像の画素に対応する距離値の平面上での頻度を示す頻度画像上の、前記認識画像に対応する対応認識画像から、前記物体の面を検出する検出手段と、所定方向に対する前記面の角度を算出する算出手段と、前記検出手段により検出された前記面、および前記算出手段により算出された前記角度に基づいて、前記認識画像を棄却するか否かを判定する判定手段と、を備えたことを特徴とする。
本発明によれば、認識物体の棄却の精度を向上させることができる。
図1は、撮像部から物体までの距離を導き出す原理を説明する図である。 図2は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。 図3は、マッチング処理結果のグラフの一例を示す図である。 図4は、第1の実施の形態に係る機器制御システムを車両に搭載した例を示す図である。 図5は、第1の実施の形態に係る物体認識装置の外観の一例を示す図である。 図6は、第1の実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。 図7は、第1の実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。 図8は、第1の実施の形態に係る物体認識装置の視差値演算処理部の機能ブロック構成の一例を示す図である。 図9は、第1の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。 図10は、第1の実施の形態に係る視差値導出部のブロックマッチング処理の動作の一例を示すフローチャートである。 図11は、第1の実施の形態に係る認識処理部のクラスタリング部のクラスタリング処理の動作を説明する図である。 図12は、第1の実施の形態に係る認識処理部のクラスタリング部のクラスタリング処理の動作を説明する図である。 図13は、クラスタリング処理により抽出された認識画像の例を示す図である。 図14は、第1の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。 図15は、第1の実施の形態に係る認識処理部の棄却部の面検出および面角度算出処理の動作の一例を示すフローチャートである。 図16は、俯瞰画像の例を示す図である。 図17は、俯瞰画像における対応認識画像の例を示す図である。 図18は、対応認識画像に対するコーナー検出を説明する図である。 図19は、対応認識画像のコーナー検出での端点を探索する領域を説明する図である。 図20は、対応認識画像に対するコーナー検出を説明する図である。 図21は、車両の進行方向からずれた方向の側壁物を説明する図である。 図22は、認識物体までの距離を説明する図である。 図23は、第2の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。 図24は、第2の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。 図25は、側壁物で2つの面が検出される場合の例を示す図である。 図26は、車両で2つの面が検出される例を示す図である。
[ブロックマッチング処理を用いた測距方法の概略]
まず、図1〜3を用いて、ブロックマッチング処理による測距方法の概略について説明する。
(測距の原理)
図1は、撮像部から物体までの距離を導き出す原理を説明する図である。図1を参照しながら、ステレオマッチング処理により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。
図1に示す撮像システムは、平行等位に配置された撮像部10a(第1撮像手段)と撮像部10b(第2撮像手段)とを有するものとする。撮像部10a、10bは、それぞれ、入射する光を屈折させて物体の像を固体撮像素子である画像センサに結像させる撮像レンズ11a、11bを有する。撮像部10aおよび撮像部10bによって撮像された各画像を、それぞれ基準画像Ia(第1撮像画像)および比較画像Ib(第2撮像画像)とする。図1において、3次元空間内の物体E上の点Sは、基準画像Iaおよび比較画像Ibそれぞれにおいて、撮像レンズ11aと撮像レンズ11bとを結ぶ直線と平行な直線上の位置に写像される。ここで、各画像に写像された点Sを、基準画像Iaにおいて点Sa(x,y)とし、比較画像Ibにおいて点Sb(X,y)とする。このとき、視差値dpは、基準画像Ia上の座標における点Sa(x,y)と比較画像Ib上の座標における点Sb(X,y)とを用いて、以下の(式1)のように表される。
dp=X−x (式1)
また、図1において、基準画像Iaにおける点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaとし、比較画像Ibにおける点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値dpは、dp=Δa+Δbと表すこともできる。
次に、視差値dpを用いることにより、撮像部10a、10bと物体Eとの間の距離Zを導出する。ここで、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを結ぶ直線から物体E上の点Sまでの距離である。図1に示すように、撮像レンズ11aおよび撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、および視差値dpを用いて、下記の(式2)により、距離Zを算出することができる。
Z=(B×f)/dp (式2)
この(式2)により、視差値dpが大きいほど距離Zは小さく、視差値dpが小さいほど距離Zは大きくなることがわかる。
(ブロックマッチング処理)
次に、図2および3を用いて、ブロックマッチング処理による測距方法について説明する。
図2は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。図3は、マッチング処理結果のグラフの一例を示す図である。
図2および3を参照しながら、コスト値C(p,d)の算出方法について説明する。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
図2のうち、図2(a)は、基準画像Iaにおける基準画素pおよび基準領域pbを示す概念図を示し、図2(b)は、図2(a)に示す基準画素pに対応する比較画像Ibにおける対応画素の候補を順次シフトしながら(ずらしながら)、コスト値Cを算出する際の概念図である。ここで、対応画素とは、基準画像Iaにおける基準画素pに最も類似する比較画像Ibにおける画素を示す。また、コスト値Cとは、基準画像Iaにおける基準画素pに対する、比較画像Ibにおける各画素の類似度または非類似度を表す評価値(一致度)である。以下に示すコスト値Cは、値が小さいほど、比較画像Ibにおける画素が基準画素pと類似していることを示す非類似度を表す評価値であるものとして説明する。
図2(a)に示すように、基準画像Iaにおける基準画素p(x,y)、および、基準画素p(x,y)に対する比較画像Ibにおけるエピポーラ線EL上の対応画素の候補である候補画素q(x+d,y)の各輝度値(画素値)に基づいて、基準画素p(x,y)に対する対応画素の候補画素q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと候補画素qとのシフト量(ずれ量)であり、シフト量dは、画素単位でシフトされる。すなわち、候補画素q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、候補画素q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。また、基準画素pの対応画素を求めるためステレオマッチング処理として、本実施の形態ではブロックマッチング(テンプレートマッチング)処理を行う。ブロックマッチング処理では、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度を求める。基準領域pbと候補領域qbとの非類似度を示すコスト値Cとしては、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、または、SSDの値から各ブロックの平均値を減算したZSSD(Zero−mean−Sum of Squared Difference)等が用いられる。これらの評価値は、相関が高い(類似の度合いが高い)ほど、値が小さくなるので非類似度を示す。
なお、上述のように、撮像部10a、10bは、それぞれ平行等位に配置されるため、基準画像Iaおよび比較画像Ibも、それぞれ平行等位の関係にある。したがって、基準画像Iaにおける基準画素pに対応する比較画像Ibにおける対応画素は、図2に紙面視横方向の線として示されるエピポーラ線EL上に存在することになり、比較画像Ibにおける対応画素を求めるためには、比較画像Ibのエピポーラ線EL上の画素を探索すればよい。
このようなブロックマッチング処理で算出されたコスト値C(p,d)は、シフト量dとの関係で、例えば、図3に示すグラフにより表される。図3の例では、コスト値Cは、シフト量d=7の場合が最小値となるため、視差値dp=7として導出される。
以下に、図4〜26を参照しながら、本発明に係る画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
[第1の実施の形態]
以下、図4〜22を用いて、第1の実施の形態の具体的な説明をする。ここでは、ブロックマッチング処理を行う物体認識装置1が自動車に搭載される場合を例に説明する。
(物体認識装置を備えた車両の概略構成)
図4は、第1の実施の形態に係る機器制御システムを車両に搭載した例を示す図である。図4を参照しながら、本実施の形態の機器制御システム60を搭載した車両70について説明する。図4のうち、図4(a)は、機器制御システム60を搭載した車両70の側面図であり、図4(b)は、車両70の正面図である。
図4に示すように、自動車である車両70は、機器制御システム60を搭載している。機器制御システム60は、車両70の居室空間である車室に設置された物体認識装置1と、車両制御装置6(制御装置)と、ステアリングホイール7と、ブレーキペダル8と、を備えている。
物体認識装置1は、車両70の進行方向を撮像する撮像機能を有し、例えば、車両70のフロントウィンドウ内側のバックミラー近傍に設置される。物体認識装置1は、詳細は後述するが、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、車両70の進行方向の被写体を撮像できるように本体部2に固定されている。
車両制御装置6は、物体認識装置1から受信した認識情報に基づいて、認識した物体のトラッキング動作等を行うことにより各種車両制御を実行するECU(Electronic Control Unit)である。車両制御装置6は、車両制御の例として、物体認識装置1から受信した認識情報に基づいて、ステアリングホイール7を含むステアリング系統(制御対象)を制御して障害物を回避するステアリング制御、または、ブレーキペダル8(制御対象)を制御して車両70を減速および停止させるブレーキ制御等を実行する。
このような物体認識装置1および車両制御装置6を含む機器制御システム60のように、ステアリング制御またはブレーキ制御等の車両制御が実行されることによって、車両70の運転の安全性を向上することができる。
なお、上述のように、物体認識装置1は、車両70の前方を撮像するものとしたが、これに限定されるものではない。すなわち、物体認識装置1は、車両70の後方または側方を撮像するように設置されるものとしてもよい。この場合、物体認識装置1は、車両70の後方の後続車および人、または側方の他の車両および人等の位置を検出することができる。そして、車両制御装置6は、車両70の車線変更時または車線合流時等における危険を検知して、上述の車両制御を実行することができる。また、車両制御装置6は、車両70の駐車時等におけるバック動作において、物体認識装置1によって出力された車両70の後方の障害物についての認識情報に基づいて、衝突の危険があると判断した場合に、上述の車両制御を実行することができる。
(物体認識装置の構成)
図5は、第1の実施の形態に係る物体認識装置の外観の一例を示す図である。図5に示すように、物体認識装置1は、上述のように、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、本体部2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図5に示す撮像部10aを「右」のカメラと称し、撮像部10bを「左」のカメラと称するものとする。
<物体認識装置のハードウェア構成>
図6は、第1の実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。図6を参照しながら、物体認識装置1のハードウェア構成について説明する。
図6に示すように、物体認識装置1は、本体部2内に視差値導出部3および認識処理部5を備えている。
視差値導出部3は、物体を撮像して得られた複数の画像から、物体に対する視差を示す視差値dpを導出し、各画素における視差値dpを示す視差画像を出力する。認識処理部5は、視差値導出部3から出力された視差画像に基づいて、撮像画像に写り込んでいる人および車等の物体の認識処理等を行い、認識処理の結果を示す情報である認識情報を、車両制御装置6に出力する。なお、本実施の形態では、視差値dpを距離を示す値である距離値の一例として説明する。
図6に示すように、視差値導出部3は、撮像部10aと、撮像部10bと、信号変換部20aと、信号変換部20bと、画像処理部30と、を備えている。
撮像部10aは、前方の被写体を撮像してアナログの画像信号を生成する処理部である。撮像部10aは、撮像レンズ11aと、絞り12aと、画像センサ13aと、を備えている。
撮像レンズ11aは、入射する光を屈折させて物体の像を画像センサ13aに結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、画像センサ13aに入射する光の量を調整する部材である。画像センサ13aは、撮像レンズ11aに入射し、絞り12aを通過した光を電気的なアナログの画像信号に変換する半導体素子である。画像センサ13aは、例えば、CCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子によって実現される。
撮像部10bは、前方の被写体を撮像してアナログの画像信号を生成する処理部である。撮像部10bは、撮像レンズ11bと、絞り12bと、画像センサ13bと、を備えている。なお、撮像レンズ11b、絞り12bおよび画像センサ13bの機能は、それぞれ上述した撮像レンズ11a、絞り12aおよび画像センサ13aの機能と同様である。また、撮像レンズ11aおよび撮像レンズ11bは、左右のカメラが同一の条件で撮像されるように、それぞれのレンズ面が互いに同一平面上にあるように設置されている。
信号変換部20aは、撮像部10aにより生成されたアナログの画像信号を、デジタル形式の画像データに変換する処理部である。信号変換部20aは、CDS(Correlated Double Sampling)21aと、AGC(Auto Gain Control)22aと、ADC(Analog Digital Converter)23aと、フレームメモリ24aと、を備えている。
CDS21aは、画像センサ13aにより生成されたアナログの画像信号に対して、相関二重サンプリング、横方向の微分フィルタ、または縦方向の平滑フィルタ等によりノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の画像データに変換する。フレームメモリ24aは、ADC23aによって変換された画像データを記憶する。
信号変換部20bは、撮像部10bにより生成されたアナログの画像信号を、デジタル形式の画像データに変換する処理部である。信号変換部20bは、CDS21bと、AGC22bと、ADC23bと、フレームメモリ24bと、を備えている。なお、CDS21b、AGC22b、ADC23bおよびフレームメモリ24bの機能は、それぞれ上述したCDS21a、AGC22a、ADC23aおよびフレームメモリ24aの機能と同様である。
画像処理部30は、信号変換部20aおよび信号変換部20bによって変換された画像データに対して画像処理をする装置である。画像処理部30は、FPGA(Field Programmable Gate Array)31と、CPU(Central Processing Unit)32と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34と、I/F(Interface)35と、バスライン39と、を備えている。
FPGA31は、集積回路であり、ここでは、画像データに基づく画像における視差値dpを導出する処理を行う。CPU32は、視差値導出部3の各機能を制御する。ROM33は、CPU32が視差値導出部3の各機能を制御するために実行する画像処理用プログラムを記憶している。RAM34は、CPU32のワークエリアとして使用される。I/F35は、認識処理部5におけるI/F55と、通信線4とを介して通信するためのインターフェースである。バスライン39は、図6に示すように、FPGA31、CPU32、ROM33、RAM34およびI/F35が互いに通信可能となるように接続するアドレスバスおよびデータバス等である。
なお、画像処理部30は、視差値dpを導出する集積回路としてFPGA31を備えるものとしているが、これに限定されるものではなく、ASIC(Application Specific Integrated Circuit)等の集積回路であってもよい。
図6に示すように、認識処理部5は、FPGA51と、CPU52と、ROM53と、RAM54と、I/F55と、CAN(Controller Area Network)I/F58と、バスライン59と、を備えている。
FPGA51は、集積回路であり、ここでは、画像処理部30から受信した視差画像に基づいて、物体に対する認識処理を行う。CPU52は、認識処理部5の各機能を制御する。ROM53は、CPU52が認識処理部5の認識処理を実行する認識処理用プログラムを記憶している。RAM54は、CPU52のワークエリアとして使用される。I/F55は、画像処理部30のI/F35と、通信線4とを介してデータ通信するためのインターフェースである。CANI/F58は、外部コントローラ(例えば、図7に示す車両制御装置6)と通信するためのインターフェースであり、例えば、自動車のCAN等に接続される。バスライン59は、図6に示すように、FPGA51、CPU52、ROM53、RAM54、I/F55およびCANI/F58が互いに通信可能となるように接続するアドレスバスおよびデータバス等である。
このような構成により、画像処理部30のI/F35から通信線4を介して認識処理部5に視差画像が送信されると、認識処理部5におけるCPU52の命令によって、FPGA51が、視差画像に基づいて、撮像画像に写り込んでいる人および車等の物体の認識処理等を実行する。
なお、上述の各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD−ROM(Compact Disc Read Only Memory)またはSD(Secure Digital)メモリカード等である。
<物体認識装置の機能ブロックの構成および動作>
図7は、第1の実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。図8は、第1の実施の形態に係る物体認識装置の視差値演算処理部の機能ブロック構成の一例を示す図である。図9は、第1の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。図7〜9を参照しながら、物体認識装置1の要部の機能ブロックの構成および動作について説明する。
図6でも上述したが、図7に示すように、物体認識装置1は、視差値導出部3と、認識処理部5と、を備えている。このうち、視差値導出部3は、画像取得部100と、変換部200と、視差値演算処理部300と、を有する。
画像取得部100は、左右2台のカメラにより前方の被写体を撮像して、それぞれアナログの画像信号を生成し、各画像信号に基づく画像である2つの輝度画像を得る機能部である。画像取得部100は、図6に示す撮像部10aおよび撮像部10bによって実現される。
変換部200は、画像取得部100により得られた2つの輝度画像の画像データに対して、ノイズを除去し、デジタル形式の画像データに変換して出力する機能部である。ここで、変換部200が出力する2つの輝度画像の画像データ(以下、単に、輝度画像と称する)のうち、画像取得部100の右のカメラ(撮像部10a)により撮像された基準画像Iaの画像データ(以下、単に、基準画像Iaと称する)とし、左のカメラ(撮像部10b)により撮像された比較画像Ibの画像データ(以下、単に、比較画像Ibと称する)とする。すなわち、変換部200は、画像取得部100から出力された2つの輝度画像に基づいて、基準画像Iaおよび比較画像Ibを出力する。変換部200は、図6に示す信号変換部20a、20bによって実現される。
視差値演算処理部300は、変換部200から受信した基準画像Iaおよび比較画像Ibに基づいて、基準画像Iaの各画素についての視差値を導出し、基準画像Iaの各画素に視差値を対応させた視差画像を生成する機能部である。視差値演算処理部300は、生成した視差画像を、認識処理部5に出力する。なお、本実施の形態においては、視差値が距離値と等価に扱えることから、距離画像の一例として視差画像を示しているが、これに限定されない。例えば、ミリ波レーダまたはレーザレーダの距離情報と、ステレオカメラで生成される視差画像とを融合させて距離画像を生成してもよい。
認識処理部5は、クラスタリング部400(抽出手段)と、棄却部500と、トラッキング判定部550と、を有する。
クラスタリング部400は、視差値導出部3から出力された視差画像および基準画像Iaに基づいて、基準画像Iaから、人および車等の物体を認識して、これらの物体を含む認識画像を抽出するクラスタリング処理を行う機能部である。なお、クラスタリング処理の詳細については、後述する。クラスタリング部400は、図6に示すFPGA51によって実現される。
なお、クラスタリング部400は、ハードウェア回路であるFPGA51ではなく、ROM53に記憶されているプログラムがCPU52によって実行されることによって実現されるものとしてもよい。また、クラスタリング処理の対象となるのは基準画像Iaに限定されるものではなく、比較画像Ibを対象とするものとしてもよい。
また、基準画像Iaは、グレースケールの画像であっても、RGB等のカラー画像であってもよい。カラー画像である場合、特定の成分のみをクラスタリング処理の対象としてもよく、成分ごとにそれぞれクラスタリング処理を行い、最後にその結果を統合するものとしてもよい。また、RGB形式をYIQ形式などの異なる表色系に変換して、明度成分(Yチャネル)等の特定の成分をクラスタリング処理の対象とするものとしてもよい。以下では、基準画像Iaは、例えば、8ビットのグレースケールの輝度値の画素で構成されているものとして説明する。
棄却部500は、視差値導出部3から出力された視差画像および基準画像Ia、ならびにクラスタリング部400から出力された認識画像を示す情報(例えば、基準画像Iaでの位置を示す座標、およびサイズ等)(以下、単に「認識画像情報」という)に基づいて、認識画像情報で示される認識画像について棄却判定処理を実行する機能部である。なお、棄却判定処理については、後述する。
トラッキング判定部550は、棄却部500からの棄却判定処理結果に基づいて、認識画像の物体に対してトラッキングを行うか否かを判定する機能部である。例えば、トラッキング判定部550は、棄却部500で棄却と判定されなかった物体に対してトラッキングを行うものと判定し、その物体の認識画像情報にトラッキングを行う旨の情報を含め、認識情報として車両制御装置6に出力する。トラッキング判定部550は、図6に示すFPGA51によって実現される。
なお、トラッキング判定部550は、ハードウェア回路であるFPGA51ではなく、ROM53に記憶されているプログラムがCPU52によって実行されることによって実現されるものとしてもよい。
なお、図7に示す視差値導出部3の画像取得部100、変換部200および視差値演算処理部300、ならびに認識処理部5のクラスタリング部400、棄却部500およびトラッキング判定部550は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図7に示す視差値導出部3および認識処理部5で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図7に示す視差値導出部3および認識処理部5で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
図8に示すように、視差値演算処理部300は、コスト算出部301と、決定部302と、第1生成部303(第2生成手段)と、を有する。
コスト算出部301は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線EL上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補である候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)のコスト値C(p,d)を算出する機能部である。具体的には、コスト算出部301は、ブロックマッチング処理により、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度をコスト値Cとして算出する。
決定部302は、コスト算出部301により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった基準画像Iaの画素についての視差値dpとして決定する機能部である。
第1生成部303は、決定部302により決定された視差値dpに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成する機能部である。
図8に示すコスト算出部301、決定部302および第1生成部303は、それぞれ図6に示すFPGA31によって実現される。なお、コスト算出部301、決定部302および第1生成部303の一部または全部は、ハードウェア回路であるFPGA31ではなく、ROM33に記憶されているプログラムがCPU32によって実行されることによって実現されるものとしてもよい。
なお、図8に示す視差値演算処理部300のコスト算出部301、決定部302および第1生成部303は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図8に示す視差値演算処理部300で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図8に示す視差値演算処理部300で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
図9に示すように、棄却部500は、入力部501(入力手段)と、第2生成部502(第1生成手段)と、面処理部503と、棄却判定部504(判定手段)と、出力部505(出力手段)と、を有する。
入力部501は、視差値導出部3から出力された基準画像Iaおよび視差画像、ならびに、クラスタリング部400から出力された認識画像情報を入力する機能部である。入力部501は、基準画像Ia、視差画像および認識画像情報を入力情報として、第2生成部502に送る。なお、入力部501は、視差値導出部3およびクラスタリング部400から、基準画像Ia、視差画像および認識画像情報を入力することに限定されず、例えば、図6に示すRAM34、RAM54、CD(Compact Disc)、DVD(Digital Versatile Disc)もしくはHDD(Hard Disk Drive)等の記憶メディア、またはネットワークストレージに記憶されている基準画像Ia、視差画像または認識画像情報を読み出して入力するものとしてもよい。また、入力部501は、認識画像情報を入力する代わりに、クラスタリング部400から認識画像そのものを入力するものとしてもよい。
第2生成部502は、入力部501から受け取った入力情報(基準画像Ia、視差画像および認識画像情報)のうち視差画像から、後述する図16に示すU−Disparityマップの一例である俯瞰画像(頻度画像)を生成する機能部である。ここで、U−Disparityマップとは、横軸を、基準画像Iaのx軸(または、撮像部10b(左のカメラ)から撮像部10a(右のカメラ)へ向かう方向の実距離)とし、縦軸を、視差画像の視差値dp(またはその視差値dpから変換した奥行き方向の距離)とした二次元ヒストグラムである。第2生成部502は、生成した俯瞰画像、ならびに、入力部501から受信した基準画像Iaおよび認識画像情報を、面処理部503に送る。
面処理部503は、認識画像情報が示す基準画像Ia上の認識画像に対応する俯瞰画像上の画像(以下、「対応認識画像」と称する)に対して、後述する面検出および面角度算出処理(以下、単に「面処理」という場合がある)を行う機能部である。面処理部503は、面処理の処理結果を、棄却判定部504に送る。面処理部503は、図9に示すように、面検出部503a(検出手段)と、面角度算出部503b(算出手段)と、を有する。
面検出部503aは、対応認識画像が示す物体の面を検出する機能部である。対応認識画像が示す物体の面を検出する方法として、後述するコーナー検出の方法を用いて行う。面検出部503aは、検出した対応認識画像の物体の面の情報を、面角度算出部503bに送る。
面角度算出部503bは、面検出部503aから受け取った面の情報に基づいて、物体認識装置1の両カメラ(撮像部10a、10b)のレンズ(撮像レンズ11a、11b)の中心を結ぶ線分に対する、対応認識画像の物体の面の角度を算出する機能部である。例えば、面角度算出部503bは、撮像部10b(左のカメラ)から撮像部10a(右のカメラ)へ向かう方向(基準方向)を0度として、上述の物体の面の角度を算出する。面角度算出部503bは、対応認識画像の物体の面および面角度の情報、ならびに、基準画像Iaおよび認識画像情報等を含む処理結果を、棄却判定部504に送る。
棄却判定部504は、面処理部503から出力された処理結果に基づいて、処理結果に含まれる認識画像情報が示す基準画像Ia上の認識画像を棄却するか否かを判定する機能部である。棄却判定部504は、棄却の判定結果を出力部505に出力する。
出力部505は、棄却判定部504から出力された棄却の判定結果、すなわち、認識画像を棄却するか否かを示す棄却フラグを認識画像情報に含めて、トラッキング判定部550に送る。この棄却フラグを含む認識画像情報は、図7では認識処理部5の認識情報として示されている。認識画像が棄却される場合、その認識画像の棄却フラグをONとし、認識画像が棄却されない場合、その認識画像の棄却フラグをOFFとする。
なお、本発明に係る「画像処理装置」は、棄却部500であってもよく、棄却部500を含む認識処理部5であってもよい。
図9に示す入力部501、第2生成部502、面処理部503、棄却判定部504および出力部505は、それぞれ図6に示すFPGA51によって実現される。なお、入力部501、第2生成部502、面処理部503、棄却判定部504および出力部505の一部または全部は、ハードウェア回路であるFPGA51ではなく、ROM53に記憶されているプログラムがCPU52によって実行されることによって実現されるものとしてもよい。
なお、図9に示す棄却部500の入力部501、第2生成部502、面処理部503、棄却判定部504および出力部505は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図9に示す棄却部500で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図9に示す棄却部500で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
(視差値導出部のブロックマッチング処理)
図10は、第1の実施の形態に係る視差値導出部のブロックマッチング処理の動作の一例を示すフローチャートである。図10を参照しながら、物体認識装置1の視差値導出部3のブロックマッチング処理の動作の流れについて説明する。
<ステップS1−1>
視差値導出部3の画像取得部100は、左のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−1へ移行する。
<ステップS1−2>
視差値導出部3の画像取得部100は、右のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−2へ移行する。
<ステップS2−1>
視差値導出部3の変換部200は、撮像部10bにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−1へ移行する。
<ステップS2−2>
視差値導出部3の変換部200は、撮像部10aにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−2へ移行する。
<ステップS3−1>
変換部200は、ステップS2−1において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における比較画像Ibとして出力する。これによって、ブロックマッチング処理において視差値dpを求めるための比較対象となる画像を得る。そして、ステップS4へ移行する。
<ステップS3−2>
変換部200は、ステップS2−2において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における基準画像Iaとして出力する。これによって、ブロックマッチング処理において視差値dpを求めるための基準となる画像を得る。そして、ステップS4へ移行する。
<ステップS4>
視差値導出部3の視差値演算処理部300のコスト算出部301は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線EL上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)のコスト値C(p,d)を算出することにより取得する。具体的には、コスト算出部301は、ブロックマッチング処理により、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度をコスト値Cとして算出する。そして、ステップS5へ進む。
<ステップS5>
視差値導出部3の視差値演算処理部300の決定部302は、コスト算出部301により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった基準画像Iaの画素についての視差値dpとして決定する。そして、視差値導出部3の視差値演算処理部300の第1生成部303は、決定部302により決定された視差値dpに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成する。生成部303は、生成した視差画像を、認識処理部5に出力する。
なお、上述のステレオマッチング処理は、ブロックマッチング処理を例として説明したが、これに限定されるものではなく、SGM(Semi−Global Matching)法を用いた処理であってもよい。
(認識処理部のクラスタリング処理)
図11は、第1の実施の形態に係る認識処理部のクラスタリング部のクラスタリング処理の動作を説明する図である。図12は、第1の実施の形態に係る認識処理部のクラスタリング部のクラスタリング処理の動作を説明する図である。図13は、クラスタリング処理により抽出された認識画像の例を示す図である。図11〜13を参照しながら、認識処理部5のクラスタリング部400におけるクラスタリング処理の動作について説明する。
クラスタリング部400は、まず、視差値導出部3から出力された視差画像および基準画像Ia(例えば、図11(a)に示す基準画像Ia、または図12(a)に示す基準画像Ia)を受信する。図11(a)に示す基準画像Iaには、例えば、路面600と、電柱601と、車602とが写り込んでいる。クラスタリング部400は、クラスタリング処理として、基準画像Iaから路面を検出するために、図11(b)に示すV−DisparityマップであるVマップVMを作成する。ここで、V−Disparityマップとは、縦軸を基準画像Iaのy軸とし、横軸を視差画像の視差値dpとした二次元ヒストグラムである。図11(a)に示す基準画像Iaの路面600は、VマップVMにおいては路面部600aに対応し、電柱601は、電柱部601aに対応し、車602は、車部602aに対応する。
クラスタリング部400は、作成したVマップVMから、路面と推定される位置を直線近似する。路面が平坦な場合は、1本の直線で近似可能であるが、勾配が変わる路面の場合は、VマップVMの区間を分割して精度よく直線近似する必要がある。直線近似としては、公知技術であるハフ変換または最小二乗法等が利用できる。VマップVMにおいて、検出された路面部600aより上方に位置する塊である電柱部601aおよび車部602aは、それぞれ路面上の物体である電柱601および車602に相当する。クラスタリング部400は、後述するU−Disparityマップを作成する際に、ノイズ除去のため路面より上方の情報のみを用いる。
次に、クラスタリング部400は、クラスタリング処理として、VマップVMで検出された路面より上方に位置する情報のみを利用、すなわち、図12(a)に示す基準画像Iaでは左ガードレール611、右ガードレール612、車613および車614の情報を利用して、ガードレール、壁および車等の物体の存在を推定するために、図12(b)に示すU−DisparityマップであるUマップUMを作成する。ここで、U−Disparityマップは、上述した通りであるが、図12(b)に示すUマップUMは、横軸を基準画像Iaのx軸とし、縦軸を視差画像の視差値dpとした二次元ヒストグラムである。図12(a)に示す基準画像Iaの左ガードレール611は、UマップUMにおいては左ガードレール部611aに対応し、右ガードレール612は、右ガードレール部612aに対応し、車613は、車部613aに対応し、車614は、車部614aに対応する。
また、クラスタリング部400は、クラスタリング処理として、作成したUマップUMから、物体の視差画像および基準画像Iaにおけるx軸方向の位置および幅(xmin,xmax)を特定できる。また、クラスタリング部400は、作成したUマップUMでの物体の高さの情報(dmin,dmax)から物体の実際の奥行きを特定できる。また、クラスタリング部400は、作成したVマップVMから、物体の視差画像および基準画像Iaにおけるy軸方向の位置および高さ(ymin=「最大視差値の路面からの最大高さに相当するy座標」,ymax=「最大視差値から得られる路面の高さを示すy座標」)を特定できる。また、クラスタリング部400は、視差画像において特定した物体のx軸方向の幅(xmin,xmax)、y軸方向の高さ(ymin,ymax)およびそれぞれに対応する視差値dpから、物体の実際のx軸方向およびy軸方向のサイズが特定できる。以上のように、クラスタリング部400は、VマップVMおよびUマップUMを利用して、基準画像Iaでの物体の位置、ならびに実際の幅、高さおよび奥行きを特定することができる。また、クラスタリング部400は、基準画像Iaでの物体の位置が特定されるので、視差画像における位置も定まり、物体までの距離も特定できる。
そして、クラスタリング部400は、クラスタリング処理として、物体について特定した実際のサイズ(幅、高さ、奥行き)から、下記の(表1)を用いて、物体が何であるかを特定することができる。例えば、物体の幅が900[mm]、高さが1800[mm]、奥行きが500[mm]である場合、物体は「歩行者」であると特定できる。なお、(表1)のような幅、高さおよび奥行きと、物体の種類(物体タイプ)とを関連付ける情報をテーブルとして、RAM54等に記憶させておくものとすればよい。ただし、(表1)により物体のタイプを特定するのは、あくまでクラスタリング処理で抽出した認識画像の物体のサイズから特定するだけであって、実際に認識画像が、例えば車両を示すか否かを正確に認識するには、別のアルゴリズムによる処理が必要である。
Figure 2017047282
そして、クラスタリング部400は、クラスタリング処理として、特定した物体の実際のサイズ(幅、高さ、奥行き)、物体の種類、ならびに、基準画像Iaでの特定した物体を含む矩形状の認識画像の位置(例えば、左上の座標)、幅および高さ等を含む情報を、認識画像情報として生成して棄却部500に出力する。なお、認識画像は矩形状に限定されず、円形、楕円形、またはその他多角形であってもよい。
以上のように、クラスタリング部400によるクラスタリング処理は、基準画像Iaから写り込んでいる物体を特定(認識)して、その物体を含む画像である認識画像を抽出する処理である。クラスタリング部400によるクラスタリング処理によって抽出された認識画像の例を、図13に示す。図13(a)は、車両の認識画像の例であり、図13(b)は、人の認識画像の例であり、図13(c)は、道路の脇に沿って設置されたガードレール(側壁物の一例)の認識画像の例である。
図13(a)および(b)のように、人および他の車両の認識画像(正認識の認識画像)は、車両の自動制御(トラッキング制御等)のために用いられるべき認識画像であるので、車両制御装置6における自動制御の対象とするために棄却するべきではない。図13(c)に示す側壁物の認識画像は、本実施の形態では、車両の自動制御に用いない認識画像であるものとして棄却する。このように、認識画像が自動制御では用いられない側壁物であるか否かを判定し、認識画像が側壁物を示す場合に棄却する棄却判定処理を、次の図14〜21で説明する。
なお、図11および12で上述した処理は、クラスタリング処理の一例であり、基準画像から物体を含む認識画像を抽出できる処理であれば、どのようなクラスタリング処理であってもよい。
(棄却部の棄却判定処理)
図14は、第1の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。図15は、第1の実施の形態に係る認識処理部の棄却部の面検出および面角度算出処理の動作の一例を示すフローチャートである。図16は、俯瞰画像の例を示す図である。図17は、俯瞰画像における対応認識画像の例を示す図である。図18は、対応認識画像に対するコーナー検出を説明する図である。図19は、対応認識画像のコーナー検出での端点を探索する領域を説明する図である。図20は、対応認識画像に対するコーナー検出を説明する図である。図21は、車両の進行方向からずれた方向の側壁物を説明する図である。図14〜21を参照しながら、認識処理部5の棄却部500の棄却判定処理の動作の一例の流れについて説明する。
<ステップS11>
入力部501は、視差値導出部3から出力された基準画像Iaおよび視差画像、およびクラスタリング部400から出力された認識画像情報を入力する。入力部501は、基準画像Ia、視差画像および認識画像情報を入力情報として、第2生成部502に送る。そして、ステップS12へ移行する。
<ステップS12>
第2生成部502は、入力部501から受け取った入力情報(基準画像Ia、視差画像および認識画像情報)のうち視差画像から、図16(a)にU−Disparityマップの一例として示す俯瞰画像OMを生成する。
図16(a)に示す俯瞰画像OMは、横軸を、撮像部10b(左のカメラ)から撮像部10a(右のカメラ)へ向かう方向の実距離とし、縦軸を、視差画像の視差値dp(またはその視差値dpから変換した奥行き方向の距離)とした二次元ヒストグラムであるU−Disparityマップの一例である。図16(b)に示す基準画像Iaに対応する俯瞰画像が、図16(a)に示す俯瞰画像OMであり、例えば、基準画像Iaに写っている側壁物(高速道路の側壁)は、走行中の車両の進行方向に延びているので、俯瞰画像OM上では、図16(a)の紙面視上下方向に長く頻度の高い視差値が集まっている。
第2生成部502は、生成した俯瞰画像、ならびに、入力部501から受信した基準画像Iaおよび認識画像情報を、面処理部503に送る。そして、ステップS13へ移行する。
<ステップS13>
面処理部503は、俯瞰画像上で、認識画像情報が示す基準画像Ia上の認識画像に対応する対応認識画像を特定する。そして、面処理部503は、俯瞰画像上の対応認識画像に対して、コーナー検出の方法を用いた図15に示すステップS131〜S135に示す面検出および面角度算出処理(面処理)を行う。ここで、図17に、認識画像情報が示す基準画像Ia上の認識画像に対応する俯瞰画像上の対応認識画像の例を示す。図17(a)は、自車(車両70)の進行方向に対して左側先行車の対応認識画像の例を示し、図17(b)は、自車の進行方向に対して正面先行車の対応認識画像の例を示し、図17(c)は、自車の進行方向に対して右側先行車の対応認識画像の例を示す。以下の説明では、対応認識画像に対する面処理として、図17(a)に示す左側先行車の対応認識画像に対する面処理について説明する。
<<ステップS131>>
面処理部503の面検出部503aは、図18(a)に示す俯瞰画像上の対応認識画像に対して、俯瞰画像上の物体認識装置1の位置において上述の基準方向の角度(0度)から視野角を増加させて、図18(a)に示すように、視野角の方向を示す直線が対応認識画像に接する端点M0の画素(第1画素)を設定する。また、面検出部503aは、端点M0の視野角からさらに増加させて、図18(a)に示すように、視野角の方向を示す直線が、端点M0とは別の側で対応認識画像に接する端点L0の画素(第2画素)を設定する。
次に、面検出部503aは、端点M0を含む所定の領域AR2に含まれる画素のうち、画素値として最大の頻度を有する画素を特定し、この画素を端点M(第2画素)とする。また、面検出部503aは、端点L0を含む所定の領域AR1に含まれる画素のうち、画素値として最大の頻度を有する画素を特定し、この画素を端点L(第2画素)とする。なお、上述の画素の特定方法では最大の頻度ではなく、着目画素と隣接する画素の頻度の総和が大きいものを選択してもよく、要するに、ノイズではない物体の一部分である画素を特定できる方法であれば任意の方法を使用することができる。
ここで、上述の領域AR1、AR2の設定の方法の例を、図19に示す。図19(a)は、対応認識画像に外接する矩形領域を設定し、設定された端点M、Lをそれぞれ包含するように、矩形領域の四隅の頂点のいずれかを頂点とする三角領域を設定し、端点M0を含む三角領域を領域AR2とし、端点L0を含む三角領域を領域AR1とした場合を示す。図19(b)は、対応認識画像で設定された端点M0、L0をそれぞれ中心とする矩形領域を設定し、端点M0を含む矩形領域を領域AR2とし、端点L0を含む矩形領域を領域AR1とした場合を示す。図19(c)は、対応認識画像で設定された端点M0、L0をそれぞれ中心とする円形領域を設定し、端点M0を含む円形領域を領域AR2とし、端点L0を含む円形領域を領域AR1とした場合を示す。領域AR1、AR2の設定としては、一例として図19(a)〜(c)のいずれかを用いるものとすればよい。なお、図19(b)の例では、領域AR1、AR2を正方形領域としているが、長方形領域としてもよい。また、図19(c)の例では、領域AR1、AR2を円形領域としているが、楕円形領域としてもよい。
次に、面検出部503aは、対応認識画像上で、端点M、Lを通り、かつ、物体認識装置1の位置へ向かう方向へ凸となる半円を設定する。すなわち、端点Mと端点Lとを結ぶ線分が、半円の直径となる。また、この半円上の任意の点を点Nとすると、線分LNと線分MNとがなす角度は直角となる。そして、ステップS132へ移行する。
<<ステップS132>>
面検出部503aは、線分LNおよび線分MNが通る対応認識画像上の画素の頻度の平均値をそれぞれ算出する。そして、ステップS133へ移行する。
<<ステップS133>>
面検出部503aは、ステップS132で算出した頻度の平均値のうち最大の平均値となる点Nを最大頻度点Nmax(第3画素)として決定する。面検出部503aは、この最大頻度点Nmaxを、対応認識画像で示される物体の面と面とが交差するコーナーの位置であるものとして検出(コーナー検出)する。そして、ステップS134へ移行する。なお、上記では、最大頻度点Nmaxの決定方法として、頻度の平均値を使用したが、これに限定されるものではなく、頻度の総和を用いてもよく、要するに、俯瞰画像中の視差値をより多く含む2本の線分L−Nmax、M−Nmaxを決定できる方法であれば、任意の方法を使用することが可能である。
<<ステップS134>>
面検出部503aは、対応認識画像上の線分L−Nmaxを底辺または上辺として含む基準画像Iaの路面に垂直な面を検出する。この線分L−Nmaxを底辺または上辺として含む面は、左側先行車の後部側の面を示す。また、面検出部503aは、対応認識画像上の線分M−Nmaxを底辺または上辺として含む基準画像Iaの路面に垂直な面を検出する。この線分M−Nmaxを底辺または上辺として含む面は、左側先行車の右側面を示す。面検出部503aは、検出した対応認識画像の物体の面の情報(面の位置、および底辺または上辺の長さ等)、を、面角度算出部503bに送る。そして、ステップS135へ移行する。
<<ステップS135>>
面角度算出部503bは、面検出部503aにより検出された面の、上述の基準方向に対する角度(面角度)を算出する。例えば、面角度算出部503bにより算出された面角度が90度である面は、自車(車両70)の進行方向と平行な面(例えば、側壁物の面、または先行車の側面等)ということになり、面角度が0度(または、180度)である面は、自車の進行方向に対して垂直な面(例えば、先行者の後部側の面)ということになる。面角度算出部503bは、対応認識画像の物体の面および面角度の情報、ならびに、基準画像Iaおよび認識画像情報等を含む処理結果を、棄却判定部504に送る。
以上のステップS131〜S135の処理により、認識画像が示す物体の面が検出され、その面角度が算出される。また、例えば、面処理部503が、図17(b)に示す自車(車両70)に対する正面先行車の対応認識画像に対して面処理を行った場合、図20に示すように、最大頻度点Nmaxは、端点M(または端点L)と重複する可能性が高くなる。この場合、面検出部503aにより、図17(b)に示す対応認識画像について検出される面の数は1つとなり、面角度算出部503bにより、算出される面角度は180度となる。そして、ステップS14へ移行する。
<ステップS14>
棄却判定部504は、認識画像(または対応認識画像)が示す物体について、面検出部503aにより検出された面がいくつあるか判定する。面検出部503aにより検出された面が1つである場合(ステップS14:1つ)、ステップS16へ移行し、2つである場合(ステップS14:2つ)、ステップS15へ移行する。
<ステップS15>
棄却判定部504は、面検出部503aにより検出された面が2つである場合、認識画像が示す物体が車両であると判定し、その認識画像を棄却しないものと判定する。棄却判定部504は、棄却の判定結果を棄却判定部504に出力する。そして、ステップS19へ移行する。
なお、認識画像が示す物体の面の検出および面角度の算出のアルゴリズムは、上述のステップS131〜S135の処理に限定されるものではなく、物体の側面および背面、ならびにそれらの面角度を算出することができれば任意のアルゴリズムを使用することができる。このとき、俯瞰画像上の対応認識画像を用いれば、棄却処理に利用する物体の面を精度よく検出できる。なお、このとき、例えば、特定のアルゴリズムによって3つ以上の面が検出される場合は、少なくとも認識画像が示す物体が側壁部ではないと判定し、その認識画像を棄却しないものとすることもできる。
<ステップS16>
棄却判定部504は、認識画像が示す物体の面検出部503aにより検出された面について、面角度算出部503bにより算出された面角度が、所定範囲(例えば、80度〜100度等)に含まれるか否かを判定する。面角度が所定範囲に含まれる場合(ステップS16:Yes)、ステップS17へ移行し、面角度が所定範囲に含まれない場合(ステップS16:No)、ステップS18へ移行する。
<ステップS17>
棄却判定部504は、認識画像が示す物体の面検出部503aにより検出された面について、面角度算出部503bにより算出された面角度が所定範囲に含まれる場合、認識画像が示す物体が側壁物であると判定し、その認識画像を棄却するものと判定する。棄却判定部504は、棄却の判定結果を出力部505に出力する。ここで、面角度が所定範囲に含まれる場合に、認識画像が示す物体が側壁物であると判定しているのは、図21に示すように、自車(車両70)の進行方向(90度)に対して、側壁部Wの壁面が平行になっていない場合についても側壁部Wを側壁物として判定できるようにするためである。そして、ステップS19へ移行する。
<ステップS18>
棄却判定部504は、認識画像が示す物体の面検出部503aにより検出された面について、面角度算出部503bにより算出された面角度が所定範囲に含まれない場合、認識画像が示す物体が側壁物ではないと判定し、その認識画像を棄却しないものと判定する。棄却判定部504は、棄却の判定結果を出力部505に出力する。そして、ステップS19へ移行する。
<ステップS19>
出力部505は、棄却判定部504から出力された棄却の判定結果、すなわち、その認識画像を棄却するか否かを示す棄却フラグを認識画像情報に含めて、トラッキング判定部550に送る。なお、出力部505は、側壁物を示す認識画像を棄却することを示す認識画像情報をトラッキング判定部550に出力するものとしているが、これに限定されるものでない。例えば、棄却部500の棄却判定処理の結果、棄却しない認識画像の認識画像情報のみをトラッキング判定部550に送り、棄却する認識画像の認識画像情報を送信しないものとしてもよい。この場合、車両制御装置6では、棄却する認識画像の認識画像情報は受信しないので、この認識画像が各種車両制御に利用されないようにすることができる。
以上のステップS11〜S19の処理を、クラスタリング部400により抽出された認識画像ごとに実行する。
以上のように、第2生成部502は、視差画像から俯瞰画像を生成し、面処理部503は、俯瞰画像上で、認識画像情報が示す基準画像Ia上の認識画像に対応する対応認識画像を特定し、面検出部503aは、対応認識画像に基づいて面を検出し、面角度算出部503bは、その面の面角度を算出し、棄却判定部504は、認識画像の物体について検出された面の数、および面角度に基づいて、認識画像が側壁物であるか否かを判定し、側壁物である場合はその認識画像を棄却するものとしている。これによって、認識物体(例えば、側壁物)の判定精度を向上させることができ、これにより棄却の精度を向上させることができる。また、これにより、車両制御装置6において、制御の対象とならない認識物体をトラッキングすることを抑制することができ、かつ、正認識された認識画像が示す物体である車両のトラッキングをすることができる。このような構成は、システム全体を通して最適化されるべきであり、どのブロックで前処理を行うかは設計者が自由に変更できるものとする。
なお、上述のように、棄却部500は、入力部501により入力された視差画像から俯瞰画像を生成する第2生成部502を有するものとしているが、これに限定されるものではない。例えば、入力部501は、認識処理部5の前段(例えば、視差値導出部3)側で視差画像から生成された俯瞰画像を入力し、面処理部503がその俯瞰画像を利用する構成としてもよい。
(変形例)
図22は、認識物体までの距離を説明する図である。図22を参照しながら、本実施の形態の変形例として、自車(車両70)からの物体の距離により、その物体を棄却判定処理の対象とするか否かを決定する動作について説明する。
上述の第1の実施の形態では、クラスタリング部400により抽出された認識画像それぞれに対して、棄却部500による棄却判定処理を行うものとした。本変形例は、例えば、棄却部500の入力部501が、入力した認識画像情報が示す認識画像の物体までの距離を、視差画像に基づいて求めて、その距離が所定値未満と判定した場合、その認識画像を棄却部500による棄却判定処理の対象に含めないものとする。例えば、図22に示す他車両71は、自車(車両70)からの距離が所定値未満であるものとし、棄却判定処理の対象に含まれないものとする。
一方、入力部501は、距離が所定値以上と判定した場合、その認識画像を棄却部500による棄却判定処理の対象に含める。例えば、図22に示す側壁部W1は、自車(車両70)からの距離が所定値以上であるものとし、棄却判定処理の対象に含むものとする。
ここで、例えば、入力部501は、認識画像を棄却部500による棄却判定処理の対象とするか否かの判定結果を、その認識画像を示す認識画像情報に含めるものとすればよい。そして、面処理部503および棄却判定部504は、認識画像情報に含まれる判定結果を参照し、棄却判定処理を行うか否かを判断すればよい。
これによって、クラスタリング部400により抽出された認識画像のうち、自車(車両70)からの距離が所定値未満の認識画像は、棄却部500による棄却判定処理の対象とならないので、棄却部500の処理の負荷を軽減することができ、追い越し車両等の誤棄却を抑制することができる。
[第2の実施の形態]
第2の実施の形態に係る物体認識装置について、第1の実施の形態に係る物体認識装置1と相違する点を中心に説明する。本実施の形態では、対応認識画像により検出された面が2つである場合に、さらに、車両であるか側壁物であるかを判定する動作について説明する。なお、本実施の形態に係る物体認識装置のハードウェア構成および機能ブロック構成、および、視差値演算処理部300の機能ブロック構成は、第1の実施の形態で説明した構成と同様である。また、本実施の形態に係る視差値導出部3のブロックマッチング処理、および、クラスタリング部400におけるクラスタリング処理も、第1の実施の形態で説明した動作と同様である。
(物体認識装置の機能ブロックの構成および動作)
図23は、第2の実施の形態に係る物体認識装置の棄却部の機能ブロック構成の一例を示す図である。図23を参照しながら、本実施の形態の認識処理部5の棄却部500aの機能ブロックの構成および動作について説明する。
本実施の形態の認識処理部5は、第1の実施の形態の認識処理部5が有する棄却部500の代わりに、棄却部500aを有する。図23に示すように、棄却部500aは、入力部501(入力手段)と、第2生成部502(第1生成手段)と、面処理部503と、棄却判定部504a(判定手段)と、出力部505(出力手段)と、を有する。なお、本実施の形態の入力部501、第2生成部502、面処理部503および出力部505の動作は、第1の実施の形態で説明した動作と同様である。
棄却判定部504aは、面処理部503から出力された処理結果に基づいて、処理結果に含まれる認識画像情報が示す基準画像Ia上の認識画像を棄却するか否かを判定する機能である。特に、棄却判定部504aは、面検出部503aにより検出された面が2つである場合に、各面の底辺(または上辺)の長さ、または、各面の面積の比に基づいて、認識画像の物体が車両であるか否かを判定する。棄却判定部504aは、棄却の判定結果を出力部505に出力する。棄却判定部504aの動作の詳細は、図24〜26で後述する。
図23に示す入力部501、第2生成部502、面処理部503、棄却判定部504aおよび出力部505は、それぞれ図6に示すFPGA51によって実現される。なお、入力部501、第2生成部502、面処理部503、棄却判定部504aおよび出力部505の一部または全部は、ハードウェア回路であるFPGA51ではなく、ROM53に記憶されているプログラムがCPU52によって実行されることによって実現されるものとしてもよい。
なお、図23に示す棄却部500aの入力部501、第2生成部502、面処理部503、棄却判定部504aおよび出力部505は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図23に示す棄却部500aで独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図23に示す棄却部500aで1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
(棄却部の棄却判定処理)
図24は、第2の実施の形態に係る認識処理部の棄却部の棄却判定処理の動作の一例を示すフローチャートである。図25は、側壁物で2つの面が検出される場合の例を示す図である。図26は、車両で2つの面が検出される例を示す図である。図24〜26を参照しながら、認識処理部5の棄却部500aの棄却判定処理の動作の一例の流れについて説明する。
<ステップS21〜S23>
ステップS21〜S23の処理は、それぞれ第1の実施の形態の図14に示すステップS11〜S13の処理と同様である。そして、ステップS24へ移行する。
<ステップS24>
棄却判定部504aは、認識画像(または対応認識画像)が示す物体について、面検出部503aにより検出された面がいくつあるか判定する。面検出部503aにより検出された面が1つである場合(ステップS24:1つ)、ステップS28へ移行し、2つである場合(ステップS24:2つ)、ステップS25へ移行する。
例えば、図25(a)は、認識画像が示す物体である側壁部W2について、面検出部503aにより1つの面SF1が検出された例を示している。
<ステップS25>
棄却判定部504aは、面検出部503aにより検出された面が2つである場合、各面の底辺(または上辺)の長さの比を算出する。ここで、棄却判定部504aは、比の値として、例えば、2つの面の底辺の長さについて、(長い底辺の長さ)/(短い底辺の長さ)の値を算出する。そして、棄却判定部504aは、算出した比が所定値以上であるか否かを判定する。比が所定値以上である場合(ステップS25:Yes)、ステップS26へ移行し、比が所定値未満である場合(ステップS25:No)、ステップS30へ移行する。なお、底辺(または上辺)の長さは、視差画像上の長さであっても、実空間に基づく実距離であってもよい。
例えば、図25(b)は、認識画像が示す物体である側壁部W3について、面検出部503aにより2つの面SF1a、SF1bが検出された例を示している。この場合、面SF1aの底辺の長さと面SF1bの底辺の長さとの比は、所定値以上となり、側壁部W3が側壁物と判定される可能性がある。一方、図26は、認識画像が示す物体である他車両72について、面検出部503aにより2つの面SF2a、SF2bが検出された例を示している。この場合、面SF2aの底辺の長さと面SF2bの底辺の長さとの比は、所定値未満となり、他車両72が車両と判定される。
なお、上述では棄却判定部504aは、2つの面の底辺(または上辺)の長さの比を算出するものとしているが、これに限定されるものではなく、例えば、2つの面の底辺のうち、短い方の底辺の長さが所定値以下であるか否かを判定するものとしてもよい。この場合、短い方の底辺の長さが所定値未満である場合、ステップS26へ移行し、長さが所定値以上である場合、ステップS30へ移行するものとすればよい。
また、上述では棄却判定部504aは、2つの面の底辺(または上辺)の長さの比を算出するものとしているが、2つの面の面積の比を算出するものとしてもよい。また、面積は、上述した長さ同様に、視差画像上の面積であっても、実空間に基づく実距離を用いた面積であってもよい。
<ステップS26>
棄却判定部504aは、認識画像が示す物体の面検出部503aにより検出された2つの面のうち、長い底辺(または上面)を有する面について、面角度算出部503bにより算出された面角度が、所定範囲(例えば、80度〜100度等)に含まれるか否かを判定する。なお、ステップS25で、2つの面の面積の比を算出した場合、棄却判定部504aは、2つの面のうち、面積が大きい面の面角度が所定範囲に含まれるか否かを判定するものとすればよい。面角度が所定範囲に含まれる場合(ステップS26:Yes)、ステップS27へ移行し、面角度が所定範囲に含まれない場合(ステップS26:No)、ステップS31へ移行する。
<ステップS27>
棄却判定部504aは、面角度算出部503bにより算出された面角度が所定範囲に含まれる場合、認識画像が示す物体が側壁物であると判定し、その認識画像を棄却するものと判定する。そして、ステップS32へ移行する。
<ステップS28>
棄却判定部504aは、認識画像が示す物体の面検出部503aにより検出された1つの面について、面角度算出部503bにより算出された面角度が、所定範囲(例えば、80度〜100度等)に含まれるか否かを判定する。面角度が所定範囲に含まれる場合(ステップS28:Yes)、ステップS27へ移行し、面角度が所定範囲に含まれない場合(ステップS28:No)、ステップS29へ移行する。
<ステップS29>
棄却判定部504aは、認識画像が示す物体の面検出部503aにより検出された1つの面について、面角度算出部503bにより算出された面角度が所定範囲に含まれない場合、認識画像が示す物体が側壁物ではないと判定し、その認識画像を棄却しないものと判定する。棄却判定部504aは、棄却の判定結果を出力部505に出力する。そして、ステップS32へ移行する。
<ステップS30>
棄却判定部504aは、面検出部503aにより検出された2つの面の底辺(または上辺)の長さの比が所定値未満である場合、認識画像が示す物体が車両であると判定し、その認識画像を棄却しないものと判定する。棄却判定部504aは、棄却の判定結果を出力部505に出力する。そして、ステップS32へ移行する。
<ステップS31>
棄却判定部504aは、認識画像が示す物体の面検出部503aにより検出された2つの面のうち、長い底辺(または上面)を有する面について、面角度算出部503bにより算出された面角度が所定範囲に含まれない場合、認識画像が示す物体が側壁物ではないと判定し、その認識画像を棄却しないものと判定する。そして、ステップS32へ移行する。
<ステップS32>
ステップS32の処理は、それぞれ第1の実施の形態の図14に示すステップS19の処理と同様である。
以上のステップS21〜S32の処理を、クラスタリング部400により抽出された認識画像ごとに実行する。
以上のように、棄却判定部504aは、面検出部503aにより2つの面が検出された場合でも、2つの面の底辺(または上辺)の比を求め、その比が所定値未満である場合、車両と判定し、所定値以上であり、かつ、長い底辺を有する面の角度が所定範囲の場合、側壁物と判定して、その側壁物の認識画像を棄却するものとしている。これによって、認識画像が示す物体に2つの面が検出されても、側壁物でも2つの面が検出される場合があることを考慮し、2つの面の底辺の比を求めて、この比に基づいて、物体が側壁物または車両であるのか否かを判定することが可能となり、さらに、認識物体(例えば、側壁物)の判定精度を向上させることができ、これにより棄却の精度を向上させることができる。また、これにより、車両制御装置6において、制御の対象とならない認識物体をトラッキングすることを抑制することができ、かつ、正認識された認識画像が示す物体である車両のトラッキングをすることができる。
なお、上述の各実施の形態では、コスト値Cは非類似度を表す評価値としているが、類似度を表す評価値であってもよい。この場合、類似度であるコスト値Cが最大(極値)となるシフト量dが視差値dpとなる。
また、上述の各実施の形態では、車両70としての自動車に搭載される物体認識装置について説明したが、これに限定されるものではない。例えば、他の車両の一例としてバイク、自転車、車椅子または農業用の耕運機等の車両に搭載されるものとしてもよい。また、移動体の一例としての車両だけでなく、ロボット等の移動体であってもよい。
さらに、ロボットは、移動体だけでなく、FA(Factory Automation)において固定設置される工業用ロボット等の装置であってもよい。また、固定設置される装置としては、ロボットだけでなく、防犯用の監視カメラ等であってもよい。
また、上述の各実施の形態において、物体認識装置の棄却部500、500aの各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の各実施の形態に係る物体認識装置で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の各実施の形態の物体認識装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の各実施の形態の物体認識装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の各実施の形態の物体認識装置で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPU52が上述のROM53からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置(RAM54等)上にロードされて生成されるようになっている。
1 物体認識装置
2 本体部
3 視差値導出部
4 通信線
5 認識処理部
6 車両制御装置
7 ステアリングホイール
8 ブレーキペダル
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換部
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理部
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
39 バスライン
51 FPGA
52 CPU
53 ROM
54 RAM
55 I/F
58 CANI/F
59 バスライン
60 機器制御システム
70 車両
71、72 他車両
100 画像取得部
200 変換部
300 視差値演算処理部
301 コスト算出部
302 決定部
303 第1生成部
400 クラスタリング部
500、500a 棄却部
501 入力部
502 第2生成部
503 面処理部
503a 面検出部
503b 面角度算出部
504、504a 棄却判定部
505 出力部
550 トラッキング判定部
600 路面
600a 路面部
601 電柱
601a 電柱部
602 車
602a 車部
611 左ガードレール
611a 左ガードレール部
612 右ガードレール
612a 右ガードレール部
613、614 車
613a、614a 車部
AR1、AR2 領域
B 基線長
C コスト値
d シフト量
dp 視差値
E 物体
EL エピポーラ線
f 焦点距離
Ia 基準画像
Ib 比較画像
L、L0、M、M0 端点
N 点
Nmax 最大頻度点
OM 俯瞰画像
p 基準画素
pb 基準領域
q 候補画素
qb 候補領域
S、Sa、Sb 点
SF1、SF1a、SF1b、SF2a、SF2b 面
UM Uマップ
VM Vマップ
W、W1〜W3 側壁部
Z 距離

Claims (13)

  1. 物体を示す認識画像を入力する入力手段と、
    前記認識画像の画素に対応する距離値の平面上での頻度を示す頻度画像上の、前記認識画像に対応する対応認識画像から、前記物体の面を検出する検出手段と、
    所定方向に対する前記面の角度を算出する算出手段と、
    前記検出手段により検出された前記面、および前記算出手段により算出された前記角度に基づいて、前記認識画像を棄却するか否かを判定する判定手段と、
    を備えた画像処理装置。
  2. 前記入力手段は、前記認識画像の画素に対応する距離値を含む距離画像を、さらに入力し、
    前記入力手段により入力された前記距離画像から、前記頻度画像を生成する第1生成手段を、さらに備えた請求項1に記載の画像処理装置。
  3. 前記検出手段は、
    前記頻度画像上で、視野角方向を示す直線が前記対応認識画像に接する2つの第1画素を特定し、
    2つの前記第1画素それぞれを含む2つの所定領域の画素の画素値に基づいて、前記2つの所定領域内それぞれにおいて第2画素を特定し、
    2つの前記第2画素を通る半円を設定し、
    前記半円上の任意の画素と、2つの前記第2画素とをそれぞれ結ぶ2つの線分上の画素の画素値に基づいて、前記半円上の画素を第3画素として決定し、
    前記第3画素と、2つの前記第2画素とをそれぞれ結ぶ2つに線分をそれぞれ含む前記面を検出する請求項1または2に記載の画像処理装置。
  4. 前記判定手段は、前記検出手段により前記対応認識画像から検出された前記面の数が1つであり、かつ、前記算出手段により算出された該面の角度が所定範囲に含まれる場合、該対応認識画像に対応する前記認識画像を棄却すると判定する請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 前記判定手段は、前記検出手段により前記対応認識画像から検出された前記面の数が2つ以上である場合、該対応認識画像に対応する前記認識画像を棄却しないと判定する請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記判定手段は、前記距離値から求まる前記認識画像が示す物体までの距離が、所定値未満である場合、該認識画像を、棄却するか否かの判定対象から外す請求項1〜5のいずれか一項に記載の画像処理装置。
  7. 前記判定手段は、
    前記検出手段により前記対応認識画像から検出された前記面の数が2つである場合、2つの前記面の底辺または上辺の長さの比を算出し、
    前記比が所定値以上であり、かつ、2つの前記面のうち底辺または上辺が長い前記面の角度が所定範囲に含まれる場合、前記対応認識画像に対応する前記認識画像を棄却すると判定する請求項1〜4のいずれか一項に記載の画像処理装置。
  8. 前記判定手段は、
    前記検出手段により前記対応認識画像から検出された前記面の数が2つである場合、2つの前記面の面積の比を算出し、
    前記比が所定値以上であり、かつ、2つの前記面のうち面積が大きい前記面の角度が所定範囲に含まれる場合、前記対応認識画像に対応する前記認識画像を棄却すると判定する請求項1〜4のいずれか一項に記載の画像処理装置。
  9. 前記判定手段により前記認識画像を棄却すると判定された場合、該認識画像を棄却する旨を示す情報を出力する出力手段を、さらに備えた請求項1〜8のいずれか一項に記載の画像処理装置。
  10. 被写体を撮像することにより第1撮像画像を得る第1撮像手段と、
    前記第1撮像手段の位置とは異なる位置に配置され、前記被写体を撮像することにより第2撮像画像を得る第2撮像手段と、
    前記第1撮像画像および前記第2撮像画像から前記被写体に対して求めた距離値に基づいて、距離画像を生成する第2生成手段と、
    前記距離画像を用いて、前記第1撮像画像に写り込んでいる物体を認識して前記物体を含む前記認識画像を抽出する抽出手段と、
    請求項1〜9のいずれか一項に記載の画像処理装置と、
    を備えた物体認識装置。
  11. 請求項10に記載の物体認識装置と、
    前記判定手段による前記認識画像を棄却するか否かの判定結果に基づいて、制御対象を制御する制御装置と、
    を備えた機器制御システム。
  12. 物体を示す認識画像を入力する入力ステップと、
    前記認識画像の画素に対応する距離値の平面上での頻度を示す頻度画像上の、前記認識画像に対応する対応認識画像から、前記物体の面を検出する検出ステップと、
    所定方向に対する前記面の角度を算出する算出ステップと、
    検出した前記面、および算出した前記角度に基づいて、前記認識画像を棄却するか否かを判定する判定ステップと、
    を有する画像処理方法。
  13. コンピュータを、
    物体を示す認識画像を入力する入力手段と、
    前記認識画像の画素に対応する距離値の平面上での頻度を示す頻度画像上の、前記認識画像に対応する対応認識画像から、前記物体の面を検出する検出手段と、
    所定方向に対する前記面の角度を算出する算出手段と、
    前記検出手段により検出された前記面、および前記算出手段により算出された前記角度に基づいて、前記認識画像を棄却するか否かを判定する判定手段と、
    して機能させるためのプログラム。
JP2017539770A 2015-09-15 2016-08-08 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム Active JP6516012B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015182206 2015-09-15
JP2015182206 2015-09-15
PCT/JP2016/073361 WO2017047282A1 (ja) 2015-09-15 2016-08-08 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017047282A1 true JPWO2017047282A1 (ja) 2018-04-26
JP6516012B2 JP6516012B2 (ja) 2019-05-22

Family

ID=58288746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017539770A Active JP6516012B2 (ja) 2015-09-15 2016-08-08 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム

Country Status (4)

Country Link
US (1) US10672141B2 (ja)
EP (1) EP3352134B1 (ja)
JP (1) JP6516012B2 (ja)
WO (1) WO2017047282A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3385904A4 (en) 2015-11-30 2018-12-19 Ricoh Company, Ltd. Image processing device, object recognition device, device conrol system, image processing method, and program
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
JP6795027B2 (ja) * 2016-03-15 2020-12-02 株式会社リコー 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP6658674B2 (ja) * 2017-06-08 2020-03-04 トヨタ自動車株式会社 運転支援システム
JP6786635B2 (ja) * 2018-05-15 2020-11-18 株式会社東芝 車両認識装置および車両認識方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048295A (ja) * 2002-07-10 2004-02-12 Toyota Motor Corp 画像処理装置、駐車支援装置、及び画像処理方法
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP2010256040A (ja) * 2009-04-21 2010-11-11 Toyota Motor Corp 車両検出装置
JP2014067406A (ja) * 2012-09-24 2014-04-17 Ricoh Co Ltd 連続型道路分割体検知方法及び検知装置
JP2015143966A (ja) * 2013-07-25 2015-08-06 株式会社リコー 画像処理装置、立体物検出方法、立体物検出プログラム、および、移動体制御システム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3995846B2 (ja) * 1999-09-24 2007-10-24 本田技研工業株式会社 物体認識装置
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
JP5320828B2 (ja) 2008-06-04 2013-10-23 日産自動車株式会社 歩行者検出装置及び歩行者検出方法
JP5316805B2 (ja) 2009-03-16 2013-10-16 株式会社リコー 車載カメラ装置の画像調整装置及び車載カメラ装置
JP5376313B2 (ja) 2009-09-03 2013-12-25 株式会社リコー 画像処理装置及び画像撮像装置
JP5440927B2 (ja) 2009-10-19 2014-03-12 株式会社リコー 測距カメラ装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
JP6102088B2 (ja) 2011-09-01 2017-03-29 株式会社リコー 画像投影装置、画像処理装置、画像投影方法、画像投影方法のプログラム及びそのプログラムを記録した記録媒体
DE102011113077A1 (de) * 2011-09-07 2013-03-07 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung einer Durchfahrbarkeit eines Objekts für ein Fahrzeug mittels einer 3D-Kamera
JP5827543B2 (ja) 2011-10-27 2015-12-02 東芝アルパイン・オートモティブテクノロジー株式会社 警告表示方法および警告表示プログラム
JP6197291B2 (ja) 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
JP2014131257A (ja) 2012-11-27 2014-07-10 Ricoh Co Ltd 画像補正システム、画像補正方法及びプログラム
DE102013002554A1 (de) * 2013-02-15 2014-08-21 Jungheinrich Aktiengesellschaft Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager
JP6398347B2 (ja) 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP6230849B2 (ja) * 2013-08-26 2017-11-15 富士通テン株式会社 アンテナ、レーダ装置、および、信号処理方法
JP6174975B2 (ja) * 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
JP2015141109A (ja) * 2014-01-29 2015-08-03 富士通テン株式会社 レーダ装置、及び、信号処理方法
JP6565188B2 (ja) 2014-02-28 2019-08-28 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP6190758B2 (ja) * 2014-05-21 2017-08-30 本田技研工業株式会社 物体認識装置及び車両
JP6417729B2 (ja) 2014-06-09 2018-11-07 株式会社リコー 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム
JP6550881B2 (ja) 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20160019429A1 (en) * 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
US9726604B2 (en) 2014-11-12 2017-08-08 Ricoh Company, Ltd. Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
US9794543B2 (en) 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP2016206774A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP6701905B2 (ja) 2015-06-16 2020-05-27 株式会社リコー 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
JP6572696B2 (ja) 2015-09-11 2019-09-11 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017138245A1 (ja) * 2016-02-08 2017-08-17 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6795027B2 (ja) * 2016-03-15 2020-12-02 株式会社リコー 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP2018200267A (ja) * 2017-05-29 2018-12-20 トヨタ自動車株式会社 上方構造物判定装置及び運転支援システム
US10354368B2 (en) * 2017-07-31 2019-07-16 GM Global Technology Operations LLC Apparatus and method for hybrid ground clearance determination
JP7111454B2 (ja) * 2017-09-28 2022-08-02 株式会社デンソー 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法
JP6939378B2 (ja) * 2017-10-11 2021-09-22 トヨタ自動車株式会社 車両制御装置
JP7000202B2 (ja) * 2018-02-27 2022-01-19 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048295A (ja) * 2002-07-10 2004-02-12 Toyota Motor Corp 画像処理装置、駐車支援装置、及び画像処理方法
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP2010256040A (ja) * 2009-04-21 2010-11-11 Toyota Motor Corp 車両検出装置
JP2014067406A (ja) * 2012-09-24 2014-04-17 Ricoh Co Ltd 連続型道路分割体検知方法及び検知装置
JP2015143966A (ja) * 2013-07-25 2015-08-06 株式会社リコー 画像処理装置、立体物検出方法、立体物検出プログラム、および、移動体制御システム

Also Published As

Publication number Publication date
EP3352134A1 (en) 2018-07-25
EP3352134A4 (en) 2018-11-14
JP6516012B2 (ja) 2019-05-22
US20180204345A1 (en) 2018-07-19
EP3352134B1 (en) 2023-10-11
US10672141B2 (en) 2020-06-02
WO2017047282A1 (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6795027B2 (ja) 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP6614247B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6597795B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6516012B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6572696B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2017151535A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6547841B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2019021591A1 (ja) 画像処理装置と画像処理方法とプログラムおよび画像処理システム
JP6992356B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
JP2017167970A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
KR20160063039A (ko) 3차원 데이터를 이용한 도로 인식 방법
EP3540643A1 (en) Image processing apparatus and image processing method
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2018092608A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6701738B2 (ja) 視差値導出装置、視差値導出方法及びプログラム
JP2018045328A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190401

R151 Written notification of patent or utility model registration

Ref document number: 6516012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151