JP7047291B2 - 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム - Google Patents

情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7047291B2
JP7047291B2 JP2017176660A JP2017176660A JP7047291B2 JP 7047291 B2 JP7047291 B2 JP 7047291B2 JP 2017176660 A JP2017176660 A JP 2017176660A JP 2017176660 A JP2017176660 A JP 2017176660A JP 7047291 B2 JP7047291 B2 JP 7047291B2
Authority
JP
Japan
Prior art keywords
unit
continuous
information
region
depth direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017176660A
Other languages
English (en)
Other versions
JP2018092601A (ja
Inventor
佑 山田
聡一郎 横田
淳 吉田
陽一郎 大林
浩喜 久保園
大輔 岡田
輔宏 木村
旅人 鈴木
真太郎 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP17204110.5A priority Critical patent/EP3330892A1/en
Publication of JP2018092601A publication Critical patent/JP2018092601A/ja
Application granted granted Critical
Publication of JP7047291B2 publication Critical patent/JP7047291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Regulating Braking Force (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラムに関する。
従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、および、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術および画像処理技術の発達により、高速に人および自動車を検出する技術が開発されている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車も既に開発されている。自動車の自動制御には、人または他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダおよびレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。
このように、ステレオカメラにより撮像された画像からガードレールおよびブロック塀等の側壁物(以下、単に「壁」という場合がある)を検出する技術として、道路がカーブしている場合にも、道路の境界を構成する一連の立体物を壁面として検出する技術が開示されている(特許文献1参照)。また、同様の技術として、道路を含む自車両の進行路を撮像した撮像画像中から道路脇のガードレール等の壁を精度よく検出する技術が開示されている(特許文献2参照)。
しかしながら、特許文献1および特許文献2に記載された技術では、ステレオカメラから得られた視差画像において、視差の分散が存在する場合、壁等の物体を安定して検出することができないという問題がある。
本発明は、上記に鑑みてなされたものであって、物体を安定して検出することができる情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、物体の横方向位置と縦方向位置と奥行き方向位置とが対応付けられた情報から物体の横方向位置と奥行き方向位置とが対応付けられた2次元分布情報を生成する生成部と、前記生成部により生成された前記2次元分布情報における奥行き方向に連続しない部分を補間する補間部と、前記補間部により補間された前記奥行き方向に連続することとなった連続領域に基づいて、前記物体を検出する物体検出部と、前のフレームの情報を用いて検出された前記物体の領域に基づいて、現在のフレームにおける前記物体が位置する領域を予測する予測部と、を備え、前記補間部は、前記予測部により予測された領域内で、前記2次元分布情報における前記奥行き方向に連続しない部分を補間することを特徴とする。
本発明によれば、物体を安定して検出することができる。
図1は、実施の形態に係る機器制御システムを車両に搭載した例を示す図である。 図2は、実施の形態に係る機器制御システムのうち物体認識装置およびその周辺の構成を示す図である。 図3は、実施の形態に係る物体認識装置の外観の一例を示す図である。 図4は、実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。 図5は、実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。 図6は、視差画像から生成されるVマップの一例を示す図である。 図7は、視差画像から生成されるUマップの一例を示す図である。 図8は、Uマップから生成されるリアルUマップの一例を示す図である。 図9は、実施の形態に係る物体認識装置による移動予測に基づく壁検出処理の動作の一例を示すフローチャートである。 図10は、検出の履歴に基づいた移動予測領域の一例を示す図である。 図11は、検出の履歴に基づいて移動予測位置を算出することを説明する図である。 図12は、実施の形態に係る物体認識装置のリアルUマップに対する補間処理の動作の一例を示すフローチャートである。 図13は、実施の形態に係る物体認識装置による直線状の壁の補間を説明する図である。 図14は、実施の形態に係る物体認識装置による曲線状の壁の補間を説明する図である。 図15は、実施の形態に係る物体認識装置の壁検出部のラベリング部のラベリング処理の動作の一例を示すフローチャートである。 図16は、実施の形態に係る物体認識装置の壁検出部のラベリング部のラベリング処理を説明する図である。 図17は、実施の形態に係る物体認識装置の壁検出部のラベリング部のラベリング処理を説明する図である。 図18は、実施の形態に係る物体認識装置の壁検出部の判定部の壁判定処理の動作の一例を示すフローチャートである。 図19は、実施の形態に係る物体認識装置の壁検出部の判定部の壁判定処理を説明する図である。 図20は、壁検出部のラベリング部および判定部の処理が壁の検出に有効であることを説明する図である。 図21は、実施の形態に係る物体認識装置の壁検出部の領域決定部の領域決定処理の動作の一例を示すフローチャートである。 図22は、壁検出部の領域決定部が決定した領域を説明する図である。 図23は、変形例に係る物体認識装置による直線状の壁の補間を説明する図である。 図24は、変形例に係る物体認識装置による曲線状の壁の補間を説明する図である。
以下に、図1~図24を参照しながら、本発明に係る情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラムの実施の形態を詳細に説明する。また、以下の実施の形態によって本発明が限定されるものではなく、以下の実施の形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施の形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
(機器制御システムを備えた車両の概略構成)
図1は、実施の形態に係る機器制御システムを車両に搭載した例を示す図である。図1を参照しながら、本実施の形態の機器制御システム60を搭載した車両70について説明する。図1のうち、図1(a)は、車両70の平面図であり、図1(b)は、車両70の側面図であり、図1(c)は、車両70の正面図である。
図1(a)に示すように、車両70は、例えば、進行方向の前側の所定の撮像範囲を撮像する物体認識装置1が前部に設けられた自動車である。物体認識装置1は、後述するように、撮像部10a、10bを備え、左目視界および右目視界から2つの画像を撮像する装置である。
図1に示すように、自動車である車両70は、機器制御システム60を搭載している。機器制御システム60は、車両70の居室空間である車室に設置された物体認識装置1と、車両制御装置6(制御装置)と、ステアリングホイール7と、ブレーキペダル8と、を備えている。
物体認識装置1は、車両70の進行方向を撮像する撮像機能を有し、例えば、車両70のフロントウィンドウ内側のバックミラー近傍に設置される。物体認識装置1は、構成および動作の詳細は後述するが、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、車両70の進行方向の被写体を撮像できるように本体部2に固定されている。
車両制御装置6は、物体認識装置1から受信した認識情報に基づいて、各種車両制御を実行するECU(Electronic Control Unit)である。車両制御装置6は、車両制御の例として、物体認識装置1から受信した認識情報に基づいて、ステアリングホイール7を含むステアリング系統(制御対象の一例)を制御して障害物を回避するステアリング制御、または、ブレーキペダル8(制御対象の一例)を制御して車両70を減速および停止させるブレーキ制御等を実行する。
このような物体認識装置1および車両制御装置6を含む機器制御システム60のように、ステアリング制御またはブレーキ制御等の車両制御が実行されることによって、車両70の運転の安全性を向上することができる。
なお、上述のように、物体認識装置1は、車両70の前方を撮像するものとしたが、これに限定されるものではない。すなわち、物体認識装置1は、車両70の後方または側方を撮像するように設置されるものとしてもよい。この場合、物体認識装置1は、車両70の後方の後続車および人、または側方の他の車両および人等の位置を検出することができる。そして、車両制御装置6は、車両70の車線変更時または車線合流時等における危険を検知して、上述の車両制御を実行することができる。また、車両制御装置6は、車両70の駐車時等におけるバック動作において、物体認識装置1によって出力された車両70の後方の障害物についての認識情報に基づいて、衝突の危険があると判断した場合に、上述の車両制御を実行することができる。
(物体認識装置およびその周辺の構成)
図2は、実施の形態に係る機器制御システムのうち物体認識装置およびその周辺の構成を示す図である。図2を参照しながら、機器制御システム60のうち物体認識装置1およびその周辺の構成について説明する。
物体認識装置1は、撮像した2つの撮像画像(輝度画像)を、ECUである車両制御装置6に出力する。車両制御装置6は、車両70に設置され、車両70のエンジン、ならびに、車両70のその他の電気的な制御および処理を総合的に行う。すなわち、図2に示すように、車両制御装置6は、様々な制御の処理対象となる制御対象9(上述のステアリング系統およびブレーキペダル8等)の動作を制御する。
(物体認識装置の構成)
図3は、実施の形態に係る物体認識装置の外観の一例を示す図である。図3に示すように、物体認識装置1は、上述のように、本体部2と、本体部2に固定された撮像部10a、10bとを備えている。撮像部10a、10bは、本体部2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図3に示す撮像部10aを「右」のカメラと称し、撮像部10bを「左」のカメラと称する場合がある。
<物体認識装置のハードウェア構成>
図4は、実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。図4を参照しながら、物体認識装置1のハードウェア構成について説明する。
図4に示すように、物体認識装置1は、本体部2(図3参照)内に、撮像部10a、10bと、画像処理装置30と、を備えている。
撮像部10aは、前方の被写体を撮像して撮像画像を生成する処理部である。撮像部10aは、撮像レンズ11aと、画像センサ12aと、センサコントローラ13aと、を備えている。
撮像レンズ11aは、入射する光を屈折させて物体の像を画像センサ12aに結像させるための光学素子である。画像センサ12aは、撮像レンズ11aに入射した光を電気的な画像信号に変換する半導体素子である。画像センサ12aは、例えば、CCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子によって実現される。センサコントローラ13aは、例えば、画像センサ12aの露光制御、画像読み出し制御、外部回路との通信、および画像データの送信制御等を行う装置である。
撮像部10bは、前方の被写体を撮像して撮像画像を生成する処理部である。撮像部10bは、撮像レンズ11bと、画像センサ12bと、センサコントローラ13bと、を備えている。なお、撮像レンズ11b、画像センサ12bおよびセンサコントローラ13bの機能は、それぞれ上述した撮像レンズ11a、画像センサ12aおよびセンサコントローラ13aの機能と同様である。また、撮像レンズ11aおよび撮像レンズ11bは、左右の撮像部10a、10bが同一の条件で撮像するように、それぞれの主面が互いに同一平面上にあるように設置されている。
画像処理装置30は、撮像部10a、10bによって変換された画像データに対して画像処理をする装置である。具体的には、画像処理装置30は、撮像部10a、10bによって撮像された2つの撮像画像から、物体に対する視差を示す視差値dp(距離情報の一例)を導出し、撮像画像におけるx方向(第1方向の一例)の位置およびy方向(第2方向の一例)の位置で定まる画素において、各視差値dpを画素値とする視差画像(第1情報の一例)を生成する。そして、画像処理装置30は、視差画像に基づいて撮像画像に写り込んでいる人および車等の物体に対する物体認識処理等を行い、物体認識処理の結果を示す情報である認識情報を、車両制御装置6に出力する。画像処理装置30は、FPGA(Field Programmable Gate Array)31と、CPU(Central Processing Unit)32と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34と、シリアルI/F(Interface)35と、データI/F36と、シリアルバスライン38と、データバスライン39と、を備えている。撮像部10a、10bは、シリアルバスライン38およびデータバスライン39を介して、画像処理装置30に接続されている。撮像部10a、10bにより撮像された撮像画像(輝度画像)のデータは、データバスライン39を介して、画像処理装置30のRAM34に書き込まれる。FPGA31およびCPU32からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、および各種設定データ等は、シリアルバスライン38を介して、センサコントローラ13a、13bと送受信される。なお、ここでいう視差画像は、物体の縦方向位置と、横方向位置と、奥行き方向位置とを対応付けた情報であると言える。また、以降、「画像」という文言を用いる場合は、必ずしもディスプレイ等における表示を要するものではなく、単なる情報の集合体を含む意とする。
FPGA31は、集積回路であり、ここでは、2つの撮像画像に対してガンマ補正およびゆがみ補正(左右の撮像画像の平行化)を行い、視差値dpを導出して視差画像を生成し、視差画像に基づいて、物体に対する物体認識処理を行う。CPU32は、撮像部10a、10bのセンサコントローラ13a、13bの動作を制御し、かつ、画像処理装置30の各機能を制御する。ROM33は、CPU32が画像処理装置30の各機能を制御するために実行する画像処理プログラム(立体物体認識プログラム等)を記憶している。RAM34は、CPU32のワークエリアとして使用される。シリアルI/F35は、FPGA31およびCPU32による物体認識処理の処理結果である物体の認識情報を、車両制御装置6に出力するためのインターフェースである。データI/F36は、車両70についてのCAN(Controller Area Network)情報(車速、加速度、舵角、および、ヨーレート等)を取得するためのインターフェースである。
立体物体認識プログラムは、画像処理プログラムの一例である。CPU32は、データI/F36を介して、例えば、車両70についてのCAN(Controller Area Network)情報(車速、加速度、舵角、および、ヨーレート等)を取得する。そして、CPU32は、ROM33に記憶されている立体物体認識プログラムに従って、RAM34に記憶されている撮像画像および視差画像のデータを用いて、物体認識処理等の各種処理を実行し、先行車両等の検出対象の検出(認識)を行う。
検出対象(認識対象)の検出情報(認識情報)は、上述のように、シリアルI/F35を介して、車両制御装置6に出力され、自動ブレーキシステム、または自動速度制御システム等の制御に利用される。自動ブレーキシステムは、認識対象の認識情報を用いて車両70のブレーキ制御を行う。自動速度制御システムは、認識対象の認識情報を用いて車両70の速度制御を行う。
なお、画像処理装置30は、物体認識処理を実行する集積回路としてFPGA31を備えるものとしているが、これに限定されるものではなく、ASIC(Application Specific Integrated Circuit)等の集積回路であってもよい。
また、上述の立体物体認識プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD-ROM(Compact Disc Read Only Memory)またはSD(Secure Digital)メモリカード等である。
<物体認識装置の機能ブロックの構成および動作>
図5は、実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。図6は、視差画像から生成されるVマップの一例を示す図である。図7は、視差画像から生成されるUマップの一例を示す図である。図8は、Uマップから生成されるリアルUマップの一例を示す図である。図5~図8を参照しながら、物体認識装置1の機能ブロックの構成および動作について説明する。
図5に示すように、物体認識装置1(撮像装置の一例)は、撮像部200と、画像処理装置30(情報処理装置の一例)と、を有する。
撮像部200は、前方の被写体を撮像して撮像画像(輝度画像)を生成する機能部である。撮像部200は、図4に示す撮像部10a、10bによって実現される。
画像処理装置30は、平行化画像生成部300と、視差画像生成部301(第2生成部)と、視差補間部302と、Vマップ生成部303と、路面形状検出部304と、路面高さテーブル算出部305と、Uマップ生成部306と、リアルUマップ生成部307(第1生成部)と、移動予測領域算出部308(予測部)と、Uマップ補間部309(補間部)と、壁検出部310(物体検出部)と、検出結果記憶部311と、を有する。
平行化画像生成部300は、撮像部200が出力した2つの撮像画像(輝度画像)のデータ(以下、単に、撮像画像(輝度画像)と称する)に対して、平行化処理(ゆがみ補正)を実行する機能部である。ここで、平行化画像生成部300が出力する2つの輝度画像のうち、右のカメラ(撮像部10a)に対応する輝度画像を基準画像Iaの画像データ(以下、単に、基準画像Iaと称する)とし、左のカメラ(撮像部10b)に対応する輝度画像を比較画像Ibの画像データ(以下、単に、比較画像Ibと称する)とする。
視差画像生成部301は、基準画像Iaおよび比較画像Ibから、ブロックマッチングにより導出された視差値dpに基づいて、この視差値dpを画素値とする視差画像の画像データ(以下、単に、視差画像と称する)を生成する機能部である。
視差補間部302は、視差画像生成部301により生成された視差画像に対して、補間処理(例えば、線形補間)を行う機能部である。
Vマップ生成部303は、基準画像Ia(または比較画像Ib)、および、視差補間部302から出力された視差画像から、路面を検出するために、図6(b)に示すV-DisparityマップであるVマップVMを生成する機能部である。ここで、V-Disparityマップ(以下、Vマップと称する)とは、縦軸を基準画像Iaのy軸とし、横軸を視差画像の視差値dp(または距離)とした、視差値dpの頻度分布を示す二次元ヒストグラムである。すなわち、Vマップは、物体の縦方向位置と奥行き方向位置とを対応付けた情報である。このVマップにおける画素の画素値は、視差値dpの頻度となる。すなわち、Vマップの画素値は、各y座標に対応する視差値dpの頻度となる。図6(a)に示す視差画像Ipには、例えば、路面600と、電柱601と、車602とが写り込んでいる。この視差画像Ipの路面600は、VマップVMにおいては路面部600aに対応し、電柱601は、電柱部601aに対応し、車602は、車部602aに対応する。
路面形状検出部304は、Vマップ生成部303により生成されたVマップから、路面に対応する視差値およびy方向の位置の組が示す特徴、すなわち、視差画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を直線近似する処理を行う機能部である。すなわち、上述のVマップVMにおいて路面部600aを検出する処理に該当する。なお、路面が平坦な場合には一本の直線で十分な精度で近似可能であるが、車両進行方向において路面の傾斜状況が変化するような路面については、例えば、VマップVMを視差値dp方向に複数に区分して、区分ごとに直線近似して路面を求めるようにすればよい。
路面高さテーブル算出部305は、路面高さ(自車両の真下の路面部分に対する相対的な高さ)を算出してテーブル化する処理を行う機能部である。路面形状検出部304により生成されたVマップ上の近似直線の情報から、撮像画像(基準画像Ia)上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車両の真下に位置する路面部分をその面に平行となるように自車両進行方向前方へ延長した仮想平面の自車両進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部304から出力される近似直線を基準直線と比較することにより、自車両前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部304から出力される近似直線上のy軸位置から、これに対応する視差値から求められる距離だけ自車両前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部305は、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。なお、路面の高さがわかると、公知の方法により、物体の高さが求まる。例えば、路面を表す直線の式が得られているため、視差値dpがdp=0のときに対応するy座標y0が定まり、このy座標y0が路面の高さを示す。例えば、視差値がdpで、y座標がy’である場合、y’-y0が視差値dpのときの路面からの高さを示す。上述の座標(dp,y’)の路面からの高さHは、H={z×(y’-y0)}/fという演算式で求めることができる。なお、この演算式における「z」は、視差値dpから計算される距離(z=BF/(dp-offset))であり、「f」は、撮像部10a、10bの焦点距離を(y’-y0)の単位と同じ単位に変換した値である。また、「z」を求める式中の「BF」は、撮像部10a、10bの基線長Bに焦点距離fを乗じた値であり、「offset」は、無限遠のオブジェクトを撮像したときの視差値である。
Uマップ生成部306は、VマップVMで検出された路面より上方に位置する情報のみを利用、すなわち、図6(a)に示す視差画像Ipでは電柱601および車602に対応する情報を利用して、物体を認識するために、図7(b)に示すU-DisparityマップであるUマップUMを生成する機能部である。Uマップ生成部306は、このUマップUMを生成するために、路面高さテーブル算出部305により算出された路面の高さの情報を利用する。ここで、U-Disparityマップ(以下、Uマップと称する)とは、横軸を基準画像Iaのx軸とし、縦軸を視差画像の視差値dp(または距離)とした、視差値dpの頻度分布を示す二次元ヒストグラムである。すなわち、Uマップは、物体の横方向位置と奥行き方向位置とを対応付けた情報である。このUマップにおける画素の画素値は、視差値dpの頻度となる。図7(a)に示す視差画像Ip1には、例えば、車両Cと、壁Wとが写り込んでいる。この視差画像Ip1の車両Cは、UマップUMにおいては領域C0に対応し、壁Wは、領域W0に対応する。
リアルUマップ生成部307は、図7(b)に示すUマップ生成部306により生成されたUマップUMから、横軸を実際の距離に変換した図8(b)に示すReal U-DisparityマップであるリアルUマップRM(第2情報、2次元分布情報の一例)を生成する機能部である。ここで、Real U-Disparityマップ(以下、リアルUマップと称する)は、横軸を、撮像部10b(左のカメラ)から撮像部10a(右のカメラ)へ向かう方向の実距離とし、縦軸を、視差画像の視差値dp(またはその視差値dpから変換した奥行き方向の距離)(第3方向)とした二次元ヒストグラムである。リアルUマップは、Uマップのスケールを変更したものに過ぎないため、本質的には、物体の横方向位置と奥行き方向位置とを対応付けた情報と同様である。また、リアルUマップは、実空間を俯瞰的に捉えたマップ(鳥瞰画像、俯瞰画像)であるとも言える。このリアルUマップにおける画素の画素値は、視差値dpの頻度(要素値の一例)となる。図8(a)に示す視差画像Ip1の車両Cは、リアルUマップRMにおいては領域C1に対応し、壁Wは、領域W1に対応する。図8(a)に示す視差画像Ip1の場合、得られるリアルUマップRMでは、図8(b)のように壁Wは垂直の線状の領域W1で表され、車両Cは背面の形状の領域C1が得られている。
具体的には、リアルUマップ生成部307は、UマップUMでは、遠方(視差値dpが小さい)では物体が小さいため、視差情報が少なく、距離の分解能も小さいので間引きせず、近距離の場合は物体が大きく写るため、視差情報が多く、距離の分解能も大きいので画素を大きく間引くことによって、俯瞰図に相当するリアルUマップRMを生成する。なお、リアルUマップ生成部307は、UマップUMからリアルUマップRMを生成することに限定されるものではなく、視差画像から、直接、リアルUマップRMを生成することも可能である。
移動予測領域算出部308は、前フレームの検出結果の情報(履歴)を利用して、前フレームにおいて検出された物体が今回のフレームでどの領域に存在しているかを算出し、算出した領域を移動予測領域として求める機能部である。ここで、前フレームとは、今回画像処理の対象となるフレームの前のフレーム、すなわち、前の2つの撮像画像(輝度画像)、ならびに、この2つの撮像画像に対応する視差画像、Vマップ、UマップおよびリアルUマップそれぞれを含む概念とする。移動予測領域の具体的な例および算出方法の詳細は、図9~図11において後述する。
Uマップ補間部309は、前フレームでの検出結果の情報(履歴)が存在する場合、移動予測領域算出部308により算出された移動予測領域には、前フレームで検出された物体が再び検出される可能性が高いので、物体としての壁の検出に有利になるように、リアルUマップを補間する機能部である。このUマップ補間部309によるリアルUマップに対する補間処理の詳細は、図12~図14において後述する。
壁検出部310は、Uマップ補間部309により補間されたリアルUマップにおいて、物体としての壁を検出する壁検出処理を実行する機能部である。壁検出部310は、図5に示すように、ラベリング部310a(連続領域検出部)と、判定部310bと、領域決定部310cと、を有する。
ラベリング部310aは、Uマップ補間部309により補間されたリアルUマップの視差値dp方向に連続する領域である画素連続領域を検出してラベルを付与するラベリング処理を行う機能部である。このラベリング部310aによるラベリング処理の詳細は、図15~図17において後述する。
判定部310bは、ラベリング部310aによりラベルが付与された視差値dp方向に延びる画素連続領域の長さに基づいて、画素連続領域が、連続する物体(例えば、壁)を示しているか否かを判定する機能部である。具体的には、判定部310bは、画素連続領域の長さが所定の長さ以上(所定の画素数以上)である場合に、画素連続領域に対応する物体が、連続する物体(例えば、壁)を示していると判定する。すなわち、判定部310bによって、ラベリング部310aが検出した画素連続領域が、連続する物体を示していると判定された場合、連続する物体が検出されたことになる。判定部310bによる判定処理(壁判定処理)の詳細は、図18および図19において後述する。
領域決定部310cは、判定部310bによって、画素連続領域が連続する物体を示していると判定された場合、リアルUマップ内において、連続しない物体等のその他の物体を検出すべき領域を決定する領域決定処理を実行する機能部である。領域決定部310cによる領域決定処理の詳細は、図21および図22において後述する。
検出結果記憶部311は、壁検出部310によって検出された壁等の連続する物体を検出した結果を認識情報として記憶する機能部である。なお、検出結果記憶部311は、壁等の連続する物体の検出結果のみではなく、連続しない物体(人または車等)の検出結果を認識情報として記憶するものとしてもよい。検出結果記憶部311は、図4に示すRAM34によって実現される。
図5に示した平行化画像生成部300、視差画像生成部301、視差補間部302、Vマップ生成部303、路面形状検出部304、路面高さテーブル算出部305、Uマップ生成部306、リアルUマップ生成部307、移動予測領域算出部308、Uマップ補間部309、ならびに、壁検出部310のラベリング部310a、判定部310bおよび領域決定部310cは、それぞれ図4に示すFPGA31によって実現される。なお、平行化画像生成部300、視差画像生成部301、視差補間部302、Vマップ生成部303、路面形状検出部304、路面高さテーブル算出部305、Uマップ生成部306、リアルUマップ生成部307、移動予測領域算出部308、Uマップ補間部309、ならびに、壁検出部310のラベリング部310a、判定部310bおよび領域決定部310cの一部または全部は、ハードウェア回路であるFPGA31でなく、ROM33に記憶されているプログラムがCPU32によって実行されることによって実現されるものとしてもよい。
なお、図5に示す平行化画像生成部300、視差画像生成部301、視差補間部302、Vマップ生成部303、路面形状検出部304、路面高さテーブル算出部305、Uマップ生成部306、リアルUマップ生成部307、移動予測領域算出部308、Uマップ補間部309、壁検出部310のラベリング部310a、判定部310bおよび領域決定部310c、ならびに、検出結果記憶部311は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図5に示す画像処理装置30で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図5に示す画像処理装置30で1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
(物体認識装置による移動予測に基づく壁検出処理)
図9は、実施の形態に係る物体認識装置による移動予測に基づく壁検出処理の動作の一例を示すフローチャートである。図10は、検出の履歴に基づいた移動予測領域の一例を示す図である。図11は、検出の履歴に基づいて移動予測位置を算出することを説明する図である。図9~図11を参照しながら、本実施の形態に係る物体認識装置1による移動予測に基づく壁検出処理について説明する。
<ステップS11>
画像処理装置30の移動予測領域算出部308は、検出結果記憶部311を参照し、前フレームに基づいて壁が検出されたか否か、すなわち、前フレームに対応する壁の検出結果を含む認識情報が存在するか否かを判定する。前フレームに対応する壁の検出結果を含む認識情報が存在する場合(ステップS11:Yes)、ステップS12へ移行し、存在しない場合(ステップS11:No)、ステップS14へ移行する。
<ステップS12>
移動予測領域算出部308は、前フレームに対応する壁の検出結果を含む認識情報が存在する場合、その前フレームの認識情報(履歴)を利用して、前フレームにおいて検出された物体が今回のフレームでどの領域に存在しているかを算出し、算出した領域を移動予測領域として求める。
例えば、10[fps]の撮像部200で、時速40[km/h]の等速で直進しているとき、秒速11.1[m/s]となるので、前フレームで検出された壁は今回のフレームでは1.1[m]手前方向にずれた位置と予測される。例えば、図10(a)に示すリアルUマップのように、前フレームで検出された壁の領域が領域700、701であるとすると、今回のフレームで壁が検出されると予測される領域は、自車の進行方向に対して手前側に移動した移動予測領域710、711となる。
また、自車が旋回している場合、自車の移動量と回転角度とから移動予測領域を計算できる。例えば、ある1点の移動の計算方法について、図11を参照しながら説明する。前フレームにおいて点P(X,Y)に位置していた物体が、前フレームと今回のフレームとの間で、回転角度θだけ回転し、横方向(X方向)に移動量move_x、縦方向(Y方向)に移動量move_yだけ移動した場合、今回のフレームでの物体の位置である点P’(X’,Y’)は、下記の式(1)および(2)によって計算することができる。
Figure 0007047291000001
例えば、図10(b)に示すリアルUマップのように、前フレームで検出された壁の領域が領域702であるとすると、自車の旋回移動の結果、今回のフレームで壁が検出されると予測される領域は、上述の式(1)および(2)に基づいて算出される移動予測領域712となる。
そして、ステップS13へ移行する。
<ステップS13>
画像処理装置30のUマップ補間部309は、前フレームに対応する壁の検出結果を含む認識情報が存在する場合、移動予測領域算出部308により算出された移動予測領域には、前フレームで検出された壁が再び検出される可能性が高いので、壁の検出に有利になるように、リアルUマップを補間する。このUマップ補間部309によるリアルUマップに対する補間処理の詳細は、図12~図14において後述する。そして、ステップS14へ移行する。
<ステップS14>
画像処理装置30の壁検出部310は、Uマップ補間部309により補間されたリアルUマップにおいて、物体としての壁を検出する壁検出処理を実行する。この壁検出部310による壁検出処理は、ラベリング部310aによるラベリング処理、判定部310bによる判定処理(壁判定処理)、および、領域決定部310cによる領域決定処理によって実現されるが、これらの処理の詳細は後述する。そして、ステップS15へ移行する。
<ステップS15>
壁検出部310の壁検出処理によって壁が検出された場合(ステップS15:Yes)、ステップS16へ移行し、検出されなかった場合(ステップS15:No)、処理を終了する。
<ステップS16>
壁検出部310は、壁検出処理による壁の検出結果を認識情報に含めて、検出結果記憶部311に記憶させる。
以上のステップS11~S16によって、物体認識装置1による移動予測に基づく壁検出処理が実行される。
(リアルUマップに対する補間処理)
図12は、実施の形態に係る物体認識装置のリアルUマップに対する補間処理の動作の一例を示すフローチャートである。図13は、実施の形態に係る物体認識装置による直線状の壁の補間を説明する図である。図14は、実施の形態に係る物体認識装置による曲線状の壁の補間を説明する図である。図12~図14を参照しながら、本実施の形態に係る物体認識装置1のUマップ補間部309によるリアルUマップに対する補間処理について説明する。
<ステップS31>
画像処理装置30のUマップ補間部309は、移動予測領域算出部308により算出された今回のフレームでの移動予測領域を構成する画素からある画素を特定する。そして、ステップS32へ移行する。
<ステップS32>
Uマップ補間部309は、特定した画素(着目画素)が画素値(頻度値)を有するか否かを判定する。画素値を有する場合(ステップS32:Yes)、ステップS33へ移行し、画素値を有さない場合(ステップS32:No)、ステップS37へ移行する。
<ステップS33>
Uマップ補間部309は、特定した画素(着目画素)が画素値を有する場合、着目画素の1つ上側(奥行き方向の奥側)の画素の画素値が0であるか否かを判定する。画素値が0である場合(ステップS33:Yes)、ステップS34へ移行し、画素値が0でない場合(ステップS33:No)、ステップS35へ移行する。なお、本実施の形態において、画素値が0か否かを判定基準としているが、画素値が一定値以下であるか否かを判定基準としてもよく、これらの判定基準を満たす場合に、画素が奥行き方向に連続していないと判定されることとなる。
<ステップS34>
Uマップ補間部309は、着目画素の1つ上側の画素の画素値を、着目画素の画素値で補間する。そして、ステップS35へ移行する。
<ステップS35>
Uマップ補間部309は、着目画素の1つ下側(奥行き方向の手前側)の画素の画素値が0であるか否かを判定する。画素値が0である場合(ステップS35:Yes)、ステップS36へ移行し、画素値が0でない場合(ステップS35:No)、ステップS37へ移行する。
<ステップS36>
Uマップ補間部309は、着目画素の1つ下側の画素の画素値を、着目画素の画素値で補間する。そして、ステップS37へ移行する。
<ステップS37>
Uマップ補間部309は、移動予測領域内のすべての画素について処理が終了したか否かを判定する。終了していない場合(ステップS37:No)、ステップS31へ戻り、終了している場合(ステップS37:Yes)、対象とする移動予測領域に対する補間処理を終了する。
以上のステップS31~S37によって、物体認識装置1のUマップ補間部309によるリアルUマップに対する補間処理が実行される。この補間処理によって、今回のフレームでは画素値を持たない画素が画素値を持つようになり、奥行き方向への連続性が増すので、後段の壁検出処理において壁として検出されやすくすることができる。
上述の図12に示す補間処理によって、例えば、図13(a)に示す移動予測領域720内の連続していない飛び飛びの画素は、図13(b)に示すように補間される。図13(b)に示す例では、移動予測領域720内の画素が補間された結果、画素値を有する画素の塊が2つ(領域731、732)生じている。
また、図14(a)に示す移動予測領域721は、前フレームにおいて曲線状の壁が検出されたことにより、その形状も曲線状となっている。この移動予測領域721には、図14(a)に示すように、連続していない飛び飛びの画素が含まれる。このような移動予測領域721でも、上述の図12に示す補間処理によって、図14(b)に示すように補間される。
(壁検出部のラベリング処理)
図15は、実施の形態に係る物体認識装置の壁検出部のラベリング部のラベリング処理の動作の一例を示すフローチャートである。図16は、実施の形態に係る物体認識装置の壁検出部のラベリング部のラベリング処理を説明する図である。図17は、実施の形態に係る物体認識装置の壁検出部のラベリング部のラベリング処理を説明する図である。図15~図17を参照しながら、本実施の形態の壁検出部310のラベリング部310aによるラベリング処理について説明する。
<ステップS51>
画像処理装置30の壁検出部310のラベリング部310aは、まず、リアルUマップにおいて処理対象となる特定の画素の画素値を取得する。ラベリング部310aは、特定の画素について、既に、後段のステップS52~S57の処理が済んでいる場合、その特定の画素の次の画素の画素値を取得する。そして、ステップS52へ移行する。
<ステップS52>
ラベリング部310aは、取得した画素の画素値が存在するか否かを判定する。画素値が存在する場合(ステップS52:Yes)、ステップS53へ移行し、画素値が存在しない場合(ステップS52:No)、ステップS56へ移行する。
<ステップS53>
ラベリング部310aは、リアルUマップ上で、取得した画素から上方向のnピクセル(n画素)以内にラベルを持ったピクセル(画素)が存在するか否かを判定する。ここで、nは、画素同士が離れていても連続しているとみなすための許容画素数である。ラベルを持ったピクセルが存在する場合(ステップS53:Yes)、ステップS54へ移行し、ラベルを持ったピクセルが存在しない場合(ステップS53:No)、ステップS55へ移行する。
<ステップS54>
ラベリング部310aは、リアルUマップ上で、取得した画素から上方向のnピクセル(n画素)以内にラベルを持ったピクセル(画素)が存在すると判定した場合、取得した画素に、ラベルを持ったピクセル(画素)と同じラベルを付与する。そして、ステップS56へ移行する。
<ステップS55>
ラベリング部310aは、リアルUマップ上で、取得した画素から上方向のnピクセル(n画素)以内にラベルを持ったピクセル(画素)が存在しないと判定した場合、取得した画素に、新しいラベルを付与する。そして、ステップS56へ移行する。
<ステップS56>
ラベリング部310aは、取得した画素が、リアルUマップにおける最終の画素であるか否かを判定する。最終の画素でない場合(ステップS56:No)、ステップS51へ戻り、最終の画素である場合(ステップS56:Yes)、ラベリング処理を終了する。
以上のステップS51~S56によって、壁検出部310のラベリング部310aによるラベリング処理が実行される。
上述のラベリング部310aによるラベリング処理の具体例を図16および図17に示す。通常のラベリング処理では、ピクセル(画素)同士が8近傍または4近傍で隣接しているかどうかを判定してラベリングを行うが、ラベリング部310aは、リアルUマップの上下方向(奥行き方向、視差値dp方向)のピクセルでの連続性のみを判定することにより、奥行き方向で連続する領域である画素連続領域を検出してラベリングを行う。また、奥行き方向に画素間で隙間が空いていても、上述した許容画素数nの適用等によって、連続を判定することにより、奥行き方向への連続性を向上させることができる。
図16には、奥行き方向でラベリングを行うラベリング処理の例が示されている。図16(a)はラベリング処理をする前のリアルUマップの特定部分の画素値の例を示し、図16(b)は、ラベリング処理を行った結果を示す。図16では、許容画素数nを1としているため、図16(a)に示すリアルUマップ中の左から5列目の画素には同一のラベルが付与され、左から3列目の画素は2画素離れているので、上下で異なるラベルが付与されている。したがって、図16(b)では、視差値dpの頻度を示す画素の塊に対して6つのラベルが付与されている。
図17(a)に示すリアルUマップRM1は、壁のような奥行き方向に長い領域W1と、車のような奥行き方向に短い領域C1とを含んでいる。このリアルUマップRM1に対してラベリング処理を実行すると、図17(b)に示すように、壁のような奥行き方向に長い領域は複数の縦長の領域それぞれにラベルが付与されたラベリング領域W1aが構成され、車のような奥行き方向に短い領域は複数の短い領域それぞれにラベルが付与されたラベリング領域C1aが構成される。
(壁検出部の壁判定処理)
図18は、実施の形態に係る物体認識装置の壁検出部の判定部の壁判定処理の動作の一例を示すフローチャートである。図19は、実施の形態に係る物体認識装置の壁検出部の判定部の壁判定処理を説明する図である。図18および図19を参照しながら、本実施の形態の壁検出部310の判定部310bによる壁判定処理について説明する。
<ステップS71>
画像処理装置30の壁検出部310の判定部310bは、まず、ラベリング部310aによる奥行き方向の画素連続領域に対するラベリングの結果を取得する。そして、ステップS72へ移行する。
<ステップS72>
判定部310bは、取得したラベリングの結果に基づいて、それぞれのラベルが付与された各画素連続領域から、特定のラベルが付与された画素連続領域を選択する。そして、ステップS73へ移行する。
<ステップS73>
判定部310bは、選択した特定のラベルが付与された画素連続領域が奥行き方向に所定の長さ(閾値となる基準長さ)以上であるか否かを判定する。画素連続領域が基準長さ以上である場合(ステップS73:Yes)、ステップS74へ移行し、基準長さ未満である場合(ステップS73:No)、ステップS75へ移行する。
<ステップS74>
判定部310bは、選択した特定のラベルが付与された画素連続領域が奥行き方向に基準長さ以上であると判定した場合、その画素連続領域は壁であるものとして検出する。判定部310bは、検出した壁である物体についての情報(壁の位置および大きさ等)を認識情報として、検出結果記憶部311に記憶させる。
例えば、図19(a)に示すラベリング結果では、それぞれラベルが付与された画素連続領域で構成されたラベリング領域W1aおよびラベリング領域C1aが示されている。ラベリング領域W1a、C1aを構成する、ラベルが付与された画素連続領域は、判定部310bによってそれぞれ基準長さ以上であるか否かが判定され、基準長さ以上であり壁として検出された画素連続領域のみを、図19(b)に示す。例えば、図19(b)では、ラベリング領域C1aを構成するすべての画素連続領域は、基準長さ未満と判定されて壁として検出されなかったため、表示されていない。一方、ラベリング領域W1aを構成する画素連続領域のうち、基準長さ以上と判定された画素連続領域は壁として検出され、図19(b)では、壁として検出された画素連続領域で構成されたラベリング領域W1bが示されている。
そして、ステップS75へ移行する。
<ステップS75>
判定部310bは、ラベルが付与された画素連続領域のすべてについてステップS72~S74の処理が終了しているか否かを判定する。処理が終了していない場合(ステップS75:No)、ステップS72へ戻り、処理が終了している場合(ステップS75:Yes)、壁判定処理を終了する。
以上のステップS71~S75によって、壁検出部310の判定部310bによる壁判定処理が実行される。
図20は、壁検出部のラベリング部および判定部の処理が壁の検出に有効であることを説明する図である。図20を参照しながら、壁検出部310のラベリング部310aおよび判定部310bによる処理が壁の検出に有効であることについて説明する。
図20(a)に示す視差画像Ip2では、車両Cが壁Wに接近して走行している状態を示している。このような場合、この視差画像Ip2に基づいて図20(b)に示すリアルUマップRM2が生成された場合、特に、横軸の実距離の解像度が低い場合では、壁の近くにある物体(ここでは車両)が壁に完全に隣接することがある。例えば、図20(b)に示すリアルUマップRM2では、車両Cに対応する領域C1が、壁Wに対応する領域W1に完全に隣接している状態を示している。しかし、このような場合においても、ラベリング部310aは、奥行き方向の画素連続領域に対してラベリングを行うので、列ごと、すなわち、奥行き方向の画素連続領域ごとにラベルを付与し、判定部310bが、基準長さを用いて、列ごとに壁判定処理を行うので、壁を検出することが可能となる。
(壁検出部の領域決定処理)
図21は、実施の形態に係る物体認識装置の壁検出部の領域決定部の領域決定処理の動作の一例を示すフローチャートである。図22は、壁検出部の領域決定部が決定した領域を説明する図である。図21および図22を参照しながら、本実施の形態の壁検出部310の領域決定部310cによる領域決定処理について説明する。
<ステップS91>
画像処理装置30の壁検出部310の領域決定部310cは、まず、判定部310bにより判定(検出)された壁の認識情報を取得する。そして、ステップS92へ移行する。
<ステップS92>
領域決定部310cは、取得した認識情報が示す壁が、リアルUマップの中心から見て左側領域に存在するか否かを判定する。壁が左側領域に存在する場合(ステップS92:Yes)、ステップS93へ移行し、壁が左側領域に存在しない場合(すなわち、右側領域に存在する場合)(ステップS92:No)、ステップS97へ移行する。
<ステップS93>
領域決定部310cは、壁が左側領域に存在すると判定した場合、壁の実距離方向の位置が左側領域内で最内側であるか否かを判定する。壁の実距離方向の位置が左側領域内で最内側である場合(ステップS93:Yes)、ステップS94へ移行し、最内側でない場合(ステップS93:No)、ステップS95へ移行する。
<ステップS94>
領域決定部310cは、壁の実距離方向の位置が左側領域内で最内側である場合、左側領域の最内側位置を、その壁の実距離方向の位置で更新する。そして、ステップS95へ移行する。
<ステップS95>
領域決定部310cは、壁の始点、すなわち、視差値dp方向の手前側の位置が、左側領域内で最手前側であるか否かを判定する。壁の視差値dp方向の手前側の位置が左側領域内で最手前側である場合(ステップS95:Yes)、ステップS96へ移行し、最手前側でない場合(ステップS95:No)、ステップS101へ移行する。
<ステップS96>
領域決定部310cは、壁の視差値dp方向の手前側の位置が左側領域内で最手前側である場合、左側領域の最手前位置を、その壁の視差値dp方向の手前側の位置で更新する。そして、ステップS101へ移行する。
<ステップS97>
領域決定部310cは、壁が右側領域に存在すると判定した場合、壁の実距離方向の位置が右側領域内で最内側であるか否かを判定する。壁の実距離方向の位置が右側領域内で最内側である場合(ステップS97:Yes)、ステップS98へ移行し、最内側でない場合(ステップS97:No)、ステップS99へ移行する。
<ステップS98>
領域決定部310cは、壁の実距離方向の位置が右側領域内で最内側である場合、右側領域の最内側位置を、その壁の実距離方向の位置で更新する。そして、ステップS99へ移行する。
<ステップS99>
領域決定部310cは、壁の始点、すなわち、視差値dp方向の手前側の位置が、右側領域内で最手前側であるか否かを判定する。壁の視差値dp方向の手前側の位置が右側領域内で最手前側である場合(ステップS99:Yes)、ステップS100へ移行し、最手前側でない場合(ステップS99:No)、ステップS101へ移行する。
<ステップS100>
領域決定部310cは、壁の視差値dp方向の手前側の位置が右側領域内で最手前側である場合、右側領域の最手前位置を、その壁の視差値dp方向の手前側の位置で更新する。そして、ステップS101へ移行する。
<ステップS101>
領域決定部310cは、すべての壁についてステップS92~S100の処理が終了しているか否かを判定する。処理が終了していない場合(ステップS101:No)、ステップS91へ戻る。一方、処理が終了している場合(ステップS101:Yes)、領域決定部310cは、リアルUマップ内の物体(例えば、人および車等の連続しない立体物)を検出すべき物体検出対象領域を決定する。例えば、領域決定部310cは、図22(a)に示すように、左側領域の最内側位置および最手前位置に対応する壁の領域がラベリング領域W1bである場合、そのラベリング領域W1bの外側の領域(壁に外接する矩形)である領域ARを除いた領域(図22(b)参照)を、物体検出対象領域に決定する。これによって、領域決定処理を終了する。
以上のステップS91~S101によって、壁検出部310の領域決定部310cによる領域決定処理が実行される。
以上のように、本実施の形態に係る物体認識装置1は、前フレームで壁として検出された領域から予測された今回のフレームでの移動予測領域において、画素値を有さない画素を、隣接する画素の画素値で補間するものとしている。これによって、奥行き方向において画素値を有する画素の連続性が向上するので、壁検出処理において壁として検出されやすくすることができる。
なお、上述した移動予測領域算出部308、Uマップ補間部309、および壁検出部310の各処理は、壁を検出するための処理に限定されるものではなく、人または車両等の連続しない物体の検出にも適用することができる。ただし、特に壁のような奥行き方向に長い物体を検出するために、移動予測領域算出部308、Uマップ補間部309、および壁検出部310の各処理が、安定した物体(壁)の検出に大きく寄与する。
(変形例)
変形例に係る画像処理装置30のUマップ補間部309によるリアルUマップに対する補間処理について、上述の実施の形態における補間処理と相違する点を中心に説明する。上述の実施の形態では、着目画素の1つ上側および1つ下側の画素の画素値を着目画素の画素値で補間する動作について説明した。本変形例では、画素値を有する画素に挟まれた画素の画素値を補間する動作について説明する。なお、本変形例に係る機器制御システム60および物体認識装置1の構成は、上述の実施の形態で説明した構成と同様である。
図23は、変形例に係る物体認識装置による直線状の壁の補間を説明する図である。図24は、変形例に係る物体認識装置による曲線状の壁の補間を説明する図である。図23および図24を参照しながら、本変形例に係る物体認識装置1のUマップ補間部309によるリアルUマップに対する補間処理について説明する。
本変形例では、画像処理装置30のUマップ補間部309は、リアルUマップの奥行き方向において、画素値を有する画素同士の間に、画素値を有さない画素が存在するか否かを判定する。Uマップ補間部309は、画素値を有する画素同士の間に、画素値を有さない1以上の画素が存在する場合、両端となる画素値を有する画素のその画素値に基づいて、画素値を有さない画素の画素値を補間する。例えば、Uマップ補間部309は、両端となる画素値を有する画素のうちいずれかの画素値によって、画素値を有さない画素の画素値を補間してもよく、または、両端となる画素値を有する画素のその画素値の平均値によって、画素値を有さない画素の画素値を補間してもよい。このような補間処理によって、上述の実施の形態の補間処理と比較して、さらに、奥行き方向への連続性が増すので、後段の壁検出処理において壁として検出されやすくすることができる。
このような補間処理によって、例えば、図23(a)に示す移動予測領域720内の連続していない飛び飛びの画素は、図23(b)に示すように補間される。図23(b)に示す例では、移動予測領域720内の画素が補間された結果、画素値を有する画素の塊が1つ(領域733)生じている。すなわち、上述の実施の形態の補間処理では、図13(b)に示すように2つの塊(領域731、732)が生じていたところ、1つの塊として補間することが可能となっている。
また、図24(a)に示す移動予測領域721は、前フレームにおいて曲線状の壁が検出されたことにより、その形状も曲線状となっている。この移動予測領域721には、図24(a)に示すように、連続していない飛び飛びの画素が含まれる。このような移動予測領域721でも、本変形例に係る補間処理によって、図24(b)に示すように補間される。
なお、上述の実施の形態およびその変形例では、車両70としての自動車に搭載される物体認識装置1について説明したが、これに限定されるものではない。例えば、他の車両の一例としてバイク、自転車、車椅子または農業用の耕運機等の車両に搭載されるものとしてもよい。また、移動体の一例としての車両だけでなく、ロボット等の移動体であってもよい。また、距離の値(距離値)と視差値とは等価に扱うことができる。このため、上述の実施の形態では、距離画像の一例として視差画像を用いて説明しているが、これに限られない。例えば、ステレオカメラを用いて生成した視差画像に対して、ミリ波レーダまたはレーザレーダ等の検出装置を用いて生成した距離情報を統合して、距離画像を生成してもよい。また、カメラによる撮像画像と、ミリ波レーダまたはレーザレーダ等の検出装置を用いて生成した距離情報とを統合して、距離画像を生成してもよい。
また、上述の実施の形態およびその変形例において、物体認識装置1の画像処理装置30の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施の形態およびその変形例に係る物体認識装置1で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施の形態およびその変形例に係る物体認識装置1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施の形態およびその変形例に係る物体認識装置1で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施の形態およびその変形例に係る物体認識装置1で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPU32が上述のROM33からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置(RAM34等)上にロードされて生成されるようになっている。
(付記項)
なお、上述の実施の形態では、以下のような発明が開示されている。
[付記項1]
移動体の移動方向を撮像する撮像部により撮像された撮像画像から求められた、前記撮像画像での第1方向の位置と、該撮像画像での前記第1方向とは異なる第2方向の位置と、距離情報とを対応付ける第1情報に基づいて、前記移動体の移動方向と交わる方向の実距離と、前記距離情報と、該距離情報の頻度を示す要素値とを対応付ける第2情報を生成する第1生成部と、
前記第1生成部により生成された前記第2情報において、前記距離情報に対応する第3方向で、前記要素値を有さない要素の値を、前記要素値を有する要素の該要素値に基づいて補間する補間部と、
前記補間部により前記第2情報において補間された要素の連続領域に基づいて物体を検出する物体検出部と、
を備えた情報処理装置。
[付記項2]
前記補間部は、前記第2情報における前記第3方向で、前記要素値を有する要素に隣接する要素であって、かつ、前記要素値を有さない要素に対して、前記要素値を有する要素の該要素値によって補間する付記項1に記載の情報処理装置。
[付記項3]
前記補間部は、前記第2情報における前記第3方向で、前記要素値を有する要素同士の間に、前記要素値を有さない1以上の要素が存在する場合、その両端となる前記要素値を有する要素の該要素値に基づいて、前記要素値を有さない要素の値を補間する付記項1に記載の情報処理装置。
[付記項4]
前記撮像画像の前のフレームに対応する前記第2情報において、前記物体検出部により検出された前記物体の領域に基づいて、現在のフレームに対応する前記第2情報において、前記物体が位置する領域を予測する予測部を、さらに備え、
前記補間部は、前記予測部により予測された領域内で、前記第3方向で、前記要素値を有さない要素の値を、前記要素値を有する要素の該要素値に基づいて補間する付記項1~3のいずれか一項に記載の情報処理装置。
[付記項5]
前記物体検出部は、
前記第2情報において前記第3方向で連続性のある連続領域を検出する連続領域検出部と、
前記連続領域検出部により検出された連続領域が、前記物体を示しているか否かを判定する判定部と、
を有する付記項1~4のいずれか一項に記載の情報処理装置。
[付記項6]
前記連続領域検出部は、前記第2情報において前記第3方向で前記要素値を有する要素が連続する連続領域を検出する付記項5に記載の情報処理装置。
[付記項7]
前記判定部は、前記連続領域検出部により検出された連続領域が、前記第3方向で所定の長さ以上である場合、該連続領域が前記物体を示していると判定する付記項5または6に記載の情報処理装置。
[付記項8]
前記撮像部と、
前記撮像部により撮像された撮像画像から前記第1情報を生成する第2生成部と、
付記項1~7のいずれか一項に記載の情報処理装置と、
を備えた撮像装置。
[付記項9]
付記項8に記載の撮像装置と、
前記物体検出部による前記物体の検出結果に基づいて、制御対象を制御する制御装置と、
を備えた機器制御システム。
[付記項10]
情報処理装置の情報処理方法であって、
撮像部により撮像された撮像画像から求められた、前記撮像画像での第1方向の位置と、該撮像画像での前記第1方向とは異なる第2方向の位置と、距離情報とを対応付ける第1情報に基づいて、前記情報処理装置の移動方向と交わる方向の実距離と、前記距離情報と、該距離情報の頻度を示す要素値とを対応付ける第2情報を生成する生成ステップと、
生成した前記第2情報において、前記距離情報に対応する第3方向で、前記要素値を有さない要素の値を、前記要素値を有する要素の該要素値に基づいて補間する補間ステップと、
前記第2情報において補間した要素の連続領域に基づいて物体を検出する物体検出ステップと、
を有する情報処理方法。
[付記項11]
コンピュータを、
移動体の移動方向を撮像する撮像部により撮像された撮像画像から求められた、前記撮像画像での第1方向の位置と、該撮像画像での前記第1方向とは異なる第2方向の位置と、距離情報とを対応付ける第1情報に基づいて、前記移動体の移動方向と交わる方向の実距離と、前記距離情報と、該距離情報の頻度を示す要素値とを対応付ける第2情報を生成する第1生成部と、
前記第1生成部により生成された前記第2情報において、前記距離情報に対応する第3方向で、前記要素値を有さない要素の値を、前記要素値を有する要素の該要素値に基づいて補間する補間部と、
前記補間部により前記第2情報において補間された要素の連続領域に基づいて物体を検出する物体検出部と、
して機能させるためのプログラム。
1 物体認識装置
2 本体部
6 車両制御装置
7 ステアリングホイール
8 ブレーキペダル
9 制御対象
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 画像センサ
13a、13b センサコントローラ
30 画像処理装置
31 FPGA
32 CPU
33 ROM
34 RAM
35 シリアルI/F
36 データI/F
38 シリアルバスライン
39 データバスライン
60 機器制御システム
70 車両
200 撮像部
300 平行化画像生成部
301 視差画像生成部
302 視差補間部
303 Vマップ生成部
304 路面形状検出部
305 路面高さテーブル算出部
306 Uマップ生成部
307 リアルUマップ生成部
308 移動予測領域算出部
309 Uマップ補間部
310 壁検出部
310a ラベリング部
310b 判定部
310c 領域決定部
311 検出結果記憶部
600 路面
600a 路面部
601 電柱
601a 電柱部
602 車
602a 車部
700~702 領域
710~712 移動予測領域
720、721 移動予測領域
731~733 領域
AR 領域
C 車両
C0、C1 領域
C1a ラベリング領域
Ia 基準画像
Ib 比較画像
Ip、Ip1、Ip2 視差画像
P、P’ 点
RM、RM1、RM2 リアルUマップ
UM Uマップ
VM Vマップ
W 壁
W0、W1 領域
W1a、W1b ラベリング領域
特許第3516856号公報 特許第4956099号公報

Claims (11)

  1. 物体の横方向位置と縦方向位置と奥行き方向位置とが対応付けられた情報から物体の横方向位置と奥行き方向位置とが対応付けられた2次元分布情報を生成する生成部と、
    前記生成部により生成された前記2次元分布情報における奥行き方向に連続しない部分を補間する補間部と、
    前記補間部により補間された前記奥行き方向に連続することとなった連続領域に基づいて、前記物体を検出する物体検出部と、
    前のフレームの情報を用いて検出された前記物体の領域に基づいて、現在のフレームにおける前記物体が位置する領域を予測する予測部と、を備え、
    前記補間部は、前記予測部により予測された領域内で、前記2次元分布情報における前記奥行き方向に連続しない部分を補間する情報処理装置。
  2. 前記補間部は、前記2次元分布情報における前記奥行き方向に連続しない部分を、前記奥行き方向に連続しない部分に隣接する情報を用いて補間する請求項1に記載の情報処理装置。
  3. 前記補間部は、前記2次元分布情報における前記奥行き方向に連続しない部分を、前記奥行き方向において前記奥行き方向に連続しない部分を挟む両端の情報を用いて補間する請求項1に記載の情報処理装置。
  4. 前記物体検出部は、
    前記2次元分布情報における前記奥行き方向に連続する連続領域を検出する連続領域検出部と、
    前記連続領域検出部により検出された連続領域が、前記物体を示しているか否かを判定する判定部と、
    を有する請求項1~のいずれか一項に記載の情報処理装置。
  5. 前記連続領域検出部は、前記2次元分布情報において情報が前記奥行き方向に連続する連続領域を検出する請求項に記載の情報処理装置。
  6. 前記判定部は、前記連続領域検出部により検出された連続領域が、前記奥行き方向において所定の長さ以上である場合、該連続領域が前記物体を示していると判定する請求項またはに記載の情報処理装置。
  7. 物体の横方向位置と縦方向位置と奥行き方向位置とが対応付けられた情報としての距離画像を生成するための撮像画像を撮像する撮像部と、
    請求項1~のいずれか一項に記載の情報処理装置と、
    を備えた撮像装置。
  8. 請求項に記載の撮像装置と、
    前記物体検出部による前記物体の検出結果に基づいて、制御対象を制御する制御装置と、
    を備えた機器制御システム。
  9. 請求項に記載の機器制御システムを備え、
    前記制御装置により制御される移動体。
  10. 物体の横方向位置と縦方向位置と奥行き方向位置とが対応付けられた情報から物体の横方向位置と奥行き方向位置とが対応付けられた2次元分布情報を生成する生成ステップと、
    生成した前記2次元分布情報における奥行き方向に連続しない部分を補間する補間ステップと、
    補間した前記奥行き方向に連続することとなった連続領域に基づいて、前記物体を検出する物体検出ステップと、
    前のフレームの情報を用いて検出された前記物体の領域に基づいて、現在のフレームにおける前記物体が位置する領域を予測する予測ステップと、を有し、
    前記補間ステップは、前記予測ステップにより予測された領域内で、前記2次元分布情報における前記奥行き方向に連続しない部分を補間する情報処理方法。
  11. コンピュータを、
    物体の横方向位置と縦方向位置と奥行き方向位置とが対応付けられた情報から物体の横方向位置と奥行き方向位置とが対応付けられた2次元分布情報を生成する生成部と、
    前記生成部により生成された前記2次元分布情報における奥行き方向に連続しない部分を補間する補間部と、
    前記補間部により補間された前記奥行き方向に連続することとなった連続領域に基づいて、前記物体を検出する物体検出部と、
    前のフレームの情報を用いて検出された前記物体の領域に基づいて、現在のフレームにおける前記物体が位置する領域を予測する予測部と、して機能させるためのプログラムであって、
    前記補間部は、前記予測部により予測された領域内で、前記2次元分布情報における前記奥行き方向に連続しない部分を補間するプログラム。
JP2017176660A 2016-11-30 2017-09-14 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム Active JP7047291B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP17204110.5A EP3330892A1 (en) 2016-11-30 2017-11-28 Information processing apparatus, imaging device, device control system, mobile object, information processing method, and carrier means

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016232918 2016-11-30
JP2016232918 2016-11-30

Publications (2)

Publication Number Publication Date
JP2018092601A JP2018092601A (ja) 2018-06-14
JP7047291B2 true JP7047291B2 (ja) 2022-04-05

Family

ID=62565592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017176660A Active JP7047291B2 (ja) 2016-11-30 2017-09-14 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7047291B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7322576B2 (ja) * 2019-07-31 2023-08-08 株式会社リコー 情報処理装置、撮像装置および移動体
WO2024042607A1 (ja) * 2022-08-23 2024-02-29 日立Astemo株式会社 外界認識装置及び外界認識方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197378A (ja) 2013-03-06 2014-10-16 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP2015179301A (ja) 2014-03-18 2015-10-08 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217208B (zh) * 2013-06-03 2018-01-16 株式会社理光 目标检测方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197378A (ja) 2013-03-06 2014-10-16 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP2015179301A (ja) 2014-03-18 2015-10-08 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chung-Hee Lee et al,Stereo vision-based vehicle detection using a road feature and disparity histogram,Optical Engineering,SPIE,2011年02月01日,https://www.spiedigitallibrary.org
Dexmont Pena et al,Fast Obstacle Detection Using Sparse Edge-Based Disparity Maps,2016 Fourth International Conference on 3D Vision (3DV),米国,IEEE,2016年10月28日,66-72,https://ieeexplore.ieee.org/document/7785078
Y. Gao et al,U-V-Disparity based Obstacle Detection with 3D Camera and steerable filter,2011 IEEE Intelligent Vehicles Symposium (IV),米国,IEEE,2011年06月09日,957-962,https://ieeexplore.ieee.org/document/5940425

Also Published As

Publication number Publication date
JP2018092601A (ja) 2018-06-14

Similar Documents

Publication Publication Date Title
JP6795027B2 (ja) 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP6675448B2 (ja) 車両位置検出方法及び装置
JP6614247B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6950170B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP6597795B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2020003236A (ja) 測距装置、移動体、測距方法、測距システム
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
CN111971682B (zh) 路面检测装置、图像显示装置、障碍物检测装置、路面检测方法、图像显示方法以及障碍物检测方法
JP5959264B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
JP2009524171A (ja) 複数の画像を結合して鳥瞰図画像にする方法
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2017098932A (ja) 車両用表示装置および車両用表示方法
JPWO2017154389A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6907513B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
JPWO2017099199A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP7047291B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6992356B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
WO2022160232A1 (zh) 一种检测方法、装置和车辆
JP6711128B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2017167970A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2019160251A (ja) 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
WO2017086057A1 (ja) 車両用表示装置および車両用表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R151 Written notification of patent or utility model registration

Ref document number: 7047291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151