以下、実施形態に係る画像処理装置、画像処理プログラムおよび画像処理システムについて説明する。
(各実施形態に共通の構成)
各実施形態に係る画像処理装置を含む運転支援装置は、例えば運転者が運転する車両(自車両とする)に設けられ、他車両の車載カメラや路上の撮像装置により撮像された画像を用いて、当該車両の周辺の様子を示す自車両周辺画像を作成する。
また、運転支援装置において、画像処理装置は、他車両や路上の撮像装置で撮像された画像に対して、歩行者といった検出対象の検出処理を行う。画像処理装置は、撮像画像から検出対象が検出された場合には、検出対象付近に存在する、検出対象以外の物体である背景物体と、自車両の車載カメラにより撮像された画像に含まれる背景物体とを対応付け、検出された検出対象の全体と、対応付けられた背景物体の一定領域以上とを含む矩形を検出対象が検出された撮像画像から切り出して、検出矩形画像を得る。そして、画像処理装置は、切り出した検出矩形画像と、自車両周辺画像とを配置した表示画像を生成する。
検出対象と運転者が目視で確認可能な背景物体とを含んで切り出した画像を、自車両周辺画像と共に表示して運転者に提示することで、運転者は、表示された画像が運転者とは異なる視線方向のカメラが撮像した画像であっても、検出対象や周辺の物体との位置関係を容易に認識可能となる。
図1を用いて、各実施形態に係る画像処理装置を含む画像処理システムについて概略的に説明する。図1において、中央部分には、道路10を上方から俯瞰した例が示されている。図1の例では、道路10(左側通行であるものとする)上に、センターライン14の左側の車線に車両20が存在し、センターライン14の右側の車線に、車両21および22と、歩行者23とが存在している様子が示されている。車両20は、センターライン14の左側の車線を走行し、車両21は、センターライン14の右側の車線を走行している。車両22は、右側の車線の右端に駐車しているものとする。また、歩行者23は、道路10を右車線側から左車線側に向けて横断しようとしているものとする。また、図1上で道路10の左端側に信号機11が設置されている。
また、車両20は、各実施形態に係る画像処理装置を含む運転支援装置30が搭載され、車両21は、撮像機能、通信機能および位置情報取得機能を備える撮像装置31が搭載されている。また、信号機11に対して、撮像機能、通信機能および位置情報取得機能を備える撮像装置32が固定的に設置されている。以下では、運転支援装置30が搭載される車両20を自車両(自車両20と記述)とし、それ以外の車両21および22を他車両(それぞれ他車両21および22と記述)とする。
自車両20において、運転支援装置30は、撮像機能を備え、図1において、運転支援装置30が備える撮像機能による撮像範囲を撮像範囲40として示している。また、図1において、車両21に搭載される撮像装置31と、信号機11に設置される撮像装置32による撮像範囲を、それぞれ撮像範囲41および42として示している。
図1の左下に、自車両20に搭載される運転支援装置30の撮像機能を用いて撮像した撮像画像40’の例を示す。同様に、図1の右上に、他車両21に搭載される撮像装置31により撮像した撮像画像41’の例を、図1の左上に、信号機11に設置された撮像装置32により撮像した撮像画像42’の例をそれぞれ示す。
撮像画像40’は、撮像範囲40に対応して、道路10および信号機11の画像がそれぞれ含まれると共に、他車両21および22の画像が含まれる。撮像画像40’は、自車両20から進行方向側に見える光景に対応している。同様に、撮像画像41’は、撮像範囲41に対応して、道路10の画像が含まれると共に、自車両20および他車両22の画像が含まれ、さらに、歩行者23の画像が含まれる。また、撮像画像42’は、撮像範囲42に対応して、道路10の画像が含まれると共に、自車両20と他車両21および22の画像が含まれ、さらに、歩行者23の画像が含まれる。
ここで、撮像画像41’および42’には歩行者23の画像が含まれるが、歩行者23は自車両20から見て他車両22の陰になっているので、撮像画像40’には歩行者23の画像が含まれない。そのため、自車両20の運転者は、自車両20に搭載される運転支援装置30の撮像機能により撮像された撮像画像40’を見ても、歩行者23の存在を認識できない。したがって、自車両20の運転者は、歩行者23が駐車中の他車両22の陰から不意に飛び出してきても対応できないおそれがある。
そこで、各実施形態では、撮像装置31および32が、自車両20による撮像範囲40とは異なる方向の撮像範囲41および42により撮像した撮像画像41’および42’を、無線通信51および52により送信する。自車両20に搭載される運転支援装置30は、これら無線通信51および52により送信された撮像画像41’および42’を受信する(無線通信51’および52’)。
運転支援装置30は、自身が持つ撮像機能により撮像した撮像画像40’と、無線通信51’および52’により受信した撮像画像41’および42’とに基づき、歩行者23の画像と自車両20からも見える他車両22の画像とを含む検出矩形画像と、自車両20と歩行者23との位置関係が分かるような自車両周辺画像とを生成し、生成した各画像を1画面中に同時に表示させて自車両20の運転者に提示する。これにより、自車両20の運転者は、他車両22の陰に歩行者23が存在することを容易に知ることができ、例えば歩行者23が他車両22の陰から不意に飛び出した場合であっても対応可能となる。
(第1の実施形態)
次に、第1の実施形態に係る画像処理装置について説明する。図2は、第1の実施形態に係る画像処理装置を用いた画像処理システムの一例の構成を概略的に示す。図2において、運転支援装置30は、図1で説明したように、自車両20に搭載されるもので、第1の実施形態に係る画像処理装置としての画像処理部300と、撮像部301と、通信部302と、位置情報取得部303とを含む。
撮像部301は、自車両20の例えば進行方向側を撮像範囲40として撮像し、撮像画像40’を出力する。通信部302は、アンテナ304を介して無線通信による送受信を行う。位置情報取得部303は、現在の位置を示す位置情報を取得する。
画像処理部300は、撮像部301から出力された撮像画像と、通信部302により受信された撮像画像と、位置情報取得部303で取得された位置情報とが入力される。画像処理部300は、入力された各撮像画像に基づき、自車両20の周辺の画像である自車両周辺画像と、検出対象(例えば人物)と背景物体とを検出して検出矩形画像とを生成し、生成した画像を位置情報と共に表示部305に表示させて運転者に提示する。
撮像装置31は、例えば他車両21といった移動体に搭載され、例えば他車両21の進行方向側を撮像して撮像画像を出力する撮像部と、現在位置を取得する位置情報取得部と、撮像画像および位置情報を無線通信51により送信する通信部とを含む。撮像装置32は、例えば信号機11といった固定物に設置され、それぞれ撮像装置31に含まれる各部と同様の、撮像部、位置情報取得部および通信部を含み、撮像部から出力された撮像画像と、位置情報取得部で取得された位置情報とを、通信部により無線通信52により送信する。なお、撮像装置32において、撮像部の撮像方向は、予め設定される。
第1の実施形態では、運転支援装置30が備える通信部302は、撮像装置31および32が含む通信部と、無線通信51および52により直接的に通信を行う。例えば、通信部302は、撮像装置31および32が含む通信部の探索を行い、各通信部が発見されると、各通信部との間で通信を確立する。このとき、通信部302は、発見された全ての通信部との間で通信を行うようにしてもよいし、各通信部に対して位置情報を要求し、この要求に応じて各通信部から送信された位置情報に基づき、通信を行う通信部をフィルタリングしてもよい。
第1の実施形態に適用できる通信方式としては、P2P(Peer to Peer)が可能であれば、特に限定しないが、無線LAN(Local Area Network)の一つであるWi−Fi(登録商標)や、Bluetooth(登録商標)を用いることができる。なお、自車両20と他車両21との間の通信のように、移動体間での通信を移動体間通信と呼び、信号機11と自車両20との間の通信のように、移動体と道路10に近接して設けられた固定物との間の通信を、対固定物通信と呼ぶ。
なお、図2の例では、画像処理システムが各1台の撮像装置31および撮像装置32を含むように示されているが、これは説明のための例に過ぎず、この例に限定されない。すなわち、画像処理システムは、それぞれ2台以上の撮像装置31および32を含むことができる。また、図2の例では、自車両20のみが運転支援装置30を搭載するように示されているが、これはこの例に限定されず、複数の車両が運転支援装置30を搭載していてもよい。この場合、各運転支援装置30は、撮像装置31および32と同様に、撮像部301から出力された撮像画像と、位置情報取得部303で取得された位置情報とを通信部302から送信するようにできる。
図3は、第1の実施形態に適用可能な運転支援装置30の一例の構成を示す。図3において、運転支援装置30は、CPU(Central Processing Unit)3000と、ROM(Read Only Memory)3001と、RAM(Random Access Memory)3002と、カメラI/F3003と、位置情報取得部3004と、ストレージ3005と、操作部3006と、表示制御部3007と、通信部3008とを含み、これら各部がバス3010により互いに通信可能に接続されている。
ストレージ3005は、不揮発にデータを記憶する記憶媒体であって、フラッシュメモリやハードディスクドライブを用いることができる。CPU3000は、ストレージ3005やROM3001に予め記憶されるプログラムに従い、RAM3002をワークメモリとして用いて、この運転支援装置30の動作を制御する。
カメラI/F3003は、カメラ3030を運転支援装置30に接続するためのインタフェースであって、複数のカメラ3030、3030、…を接続することができる。図2の撮像部301は、例えば各カメラ3030、3030、…と、カメラI/F3003とを含んだ構成に対応する。CPU3000は、カメラI/F3003を介して各カメラ3030、3030、…の撮像動作を制御することができる。
位置情報取得部3004は、図2の位置情報取得部303に対応し、例えばGNSS(全地球測位システム)を用いて現在位置を示す情報を取得する。これに限らず、位置情報取得部3004は、IMU(慣性計測装置)を用いて現在位置を取得してもよいし、GNSSとIMUとを組み合わせて現在位置を取得してもよい。また、位置情報取得部3004は、自車両20の速度とステアリングの角度とに基づき現在位置を計算してもよい。
操作部3006は、操作子やタッチパネルにより、ユーザ操作を受け付ける。表示制御部3007は、CPU3000がプログラムに従い生成した表示データを、表示装置3020を駆動可能な表示制御信号に変換して出力する。表示装置3020は、例えばLCD(Liquid Crystal Display)を表示として用い、表示制御部3007から供給される表示制御信号に応じた画面を表示する。
通信部3008は、CPU3000の制御に従い、アンテナ3009を介して無線通信を行う。通信部3008に適用可能な通信方式としては、Wi−Fi(登録商標)やBluetooth(登録商標)などがある。
図4は、第1の実施形態に係る画像処理部の機能を説明するための機能ブロック図である。図4において、画像処理部300aは、図2で説明した画像処理部300に対応するもので、取得部310と、周辺画像生成部311と、検出部320と、対応付け部321と、切り出し部323と、検出情報生成部324と、表示情報生成部325とを含む。また、対応付け部321は、分割部322を含む。
これら取得部310、周辺画像生成部311、検出部320、対応付け部321、分割部322、切り出し部323、検出情報生成部324および表示情報生成部325は、CPU3000上でプログラムが動作することで実現される。これに限らず、取得部310、周辺画像生成部311、検出部320、対応付け部321、分割部322、切り出し部323、検出情報生成部324および表示情報生成部325の一部または全部を、互いに協働して動作する個別のIC(Integrated Circuit)などのハードウェアにより構成してもよい。
取得部310は、自車両20が走行中の道路10を複数の異なる方向から撮像した撮像画像と、撮像された位置を示す位置情報とを取得する。より具体的には、取得部310は、撮像装置31および32から送信された各撮像画像と各位置情報とを、通信部302を介して取得する。また、取得部310は、運転支援装置30に接続される各カメラ3030、3030、…で撮像された撮像画像と、位置情報取得部303から位置情報とをさらに取得してもよい。
周辺画像生成部311は、取得部310が取得した各撮像画像(第1の画像)および各位置情報に基づき、自車両20の周辺の画像を、自車両20に対する自車両周辺画像として生成する。周辺画像生成部311は、生成した自車両周辺画像を、表示情報生成部325に渡す。
検出部320は、取得部310が取得した、走行中の道路を複数の異なる方向から撮像した撮像画像から、歩行者などの検出対象の画像を検出する。
対応付け部321は、取得部310が取得した各撮像画像のうち検出部320によって検出対象が検出された画像である対象検出撮像画像(第2の画像)と、自車両20に搭載された各カメラ3030、3030、…のうち当該対象検出撮像画像と撮像範囲を共有するカメラ3030が撮像した撮像画像である範囲共有撮像画像(第3の画像)との間で、対応付けを行う。具体的には、対応付け部321は、対象検出撮像画像上で検出対象の周囲一定領域内にある、検出対象とは異なる物体である背景物体と、範囲共有撮像画像中の物体とを対応付ける。
対応付け部321は、分割部322を含み、分割322は、対象検出撮像画像および範囲共有撮像画像それぞれにおいて、色情報やエッジ情報に基づきこれら対象検出撮像画像および範囲共有撮像画像を領域に分割する。対応付け部321は、分割部322により分割されて生成された各領域を対象検出撮像画像および範囲共有撮像画像間で比較して、対応付けを行う。
切り出し部323は、検出部320で検出された検出対象の全体と、対応付け部321が対応付けた背景物体とを含む最小矩形の一定の割合の領域を含む矩形の画像である検出矩形画像を、対象検出撮像画像から切り出す。
検出情報生成部324は、切り出し部323において検出対象を含む検出矩形画像が切り出された場合に、対象検出撮像画像が撮像された位置を示す位置情報と、切り出された検出矩形画像とを含む検出情報を生成する。検出情報生成部324は、位置情報を取得部310から取得することができる。検出情報生成部324は、生成した検出情報を、表示情報生成部325に渡す。
表示情報生成部325は、例えば、周辺画像生成部311から渡された自車両周辺画像と、検出情報生成部324から渡された検出情報に含まれる検出矩形画像および位置情報とを提示するための表示情報を生成する。具体的には、表示情報生成部325は、自車両周辺画像と、検出矩形画像と、位置情報とを1つの画面上に配置した表示情報を生成する。
図5は、第1の実施形態に係る画像処理部300aの処理を示す一例のフローチャートである。ステップS10で、画像処理部300aは、取得部310により、自車両20が走行中の道路10を複数の異なる方向から撮像した撮像画像と、撮像された位置を示す位置情報とを取得する。
次のステップS11の処理と、ステップS12〜ステップS15の処理とは、並列的に実行することができる。これに限らず、ステップS11の処理を、ステップS12〜ステップS15処理中の任意の位置で実行してもよい。ステップS11で、画像処理部300aは、周辺画像生成部311により、ステップS10で取得部310が取得した各撮像画像および位置情報に基づき、自車両20の周辺の画像を、自車両20に対する自車両周辺画像として生成する。
一方、ステップS12で、画像処理部300aは、検出部320により、ステップS10で取得部310が取得した各撮像画像から、歩行者などの検出対象の画像を検出する。次のステップS13で、画像処理部300aは、ステップS12の検出結果に基づき、各撮像画像に検出対象の画像が存在するか否かを判定する。
若し、ステップS13で存在しないと判定された場合、処理がステップS17に移行される。
一方、ステップS13で、画像処理部300aは、検出対象が存在する、すなわち、ステップS10で取得された各撮像画像に、検出対象の画像が含まれる対象検出撮像画像があると判定した場合、処理をステップS14に移行する。
ステップS14で、画像処理部300aは、対応付け部321により、ステップS12で、対象検出撮像画像と、ステップS10で取得した、自車両20に搭載された各カメラ3030、3030、…のうち当該対象検出撮像画像と撮像範囲を共有するカメラ3030が撮像した撮像画像である範囲共有撮像画像との間で、背景物体の対応付けを行う。
次のステップS15で、画像処理部300aは、切り出し部323により、ステップS12で検出された検出対象の全体と、ステップS14で対応付けられた背景物体とを含む最小矩形の一定の割合の領域を含む検出矩形画像を、対象検出撮像画像から切り出す。そして、次のステップS16で、画像処理部300aは、検出情報生成部324により、ステップS15で検出矩形画像が切り出された場合に、検出対象が検出された対象検出撮像画像が撮像された位置を示す位置情報と、切り出された検出矩形画像とを含む検出情報を生成する。
次のステップS17で、画像処理部300aは、表示情報生成部325により、ステップS11で周辺画像生成部311により生成された自車両周辺画像と、ステップS16で生成された検出情報とをユーザに提示するための表示情報を生成する。生成された表示情報は、表示制御部3007の制御に従い、表示装置3020により表示される。なお、上述のステップS13で各撮像画像に検出対象の画像が存在しないと判定されて処理がこのステップS17に移行した場合は、ステップS11で生成された自車両周辺画像のみを含む表示情報を生成することが考えられる。
次に、上述の図5のフローチャートにおける各処理を、より詳細に説明する。以下では、検出対象を人物であるものとして説明する。なお、検出対象は、人物に限られない。例えば、自動車、自転車、自動二輪車などを検出対象としてもよいし、犬、猫といった動物を検出対象としてもよい。
図5のステップS10の、撮像画像および位置情報の取得処理について説明する。ステップS10で、取得部310は、他車両21に搭載された撮像装置31や、道路10の近傍に設置された撮像装置32などにより、自車両20が走行中の道路10を複数の異なる方向から撮像した撮像画像と、撮像した位置を示す位置情報とを取得する。また、取得部310は、自車両20に搭載された各カメラ3030、3030、…により撮像された各撮像画像と、位置情報取得部303により取得された位置情報とをさらに取得する。
取得部310が取得する撮像画像は、一般的には、可視光を撮像するカメラを用いて撮像された撮像画像を想定している。取得部310は、これに限らず、暗所を撮像可能な赤外線カメラを用いて撮像された撮像画像を取得してもよい。また、各撮像装置31および32の撮像方向は、特に限定されず、各撮像装置31および32が互いに異なる方向を撮像してもよい。一方、各撮像装置31および32は、自車両20に搭載されるカメラ3030、3030、…のうち1つ以上のカメラ3030と、撮像範囲を共有している必要がある。例えば、図6(a)〜図6(c)に例示されるように、同一の検出対象Aに対し、カメラ3030が正面から、撮像装置31が側面から、撮像装置32が背後から撮像してもよい。
図5のステップS11の、自車両周辺画像の生成処理について説明する。周辺画像生成部311は、ステップS10により取得部310が取得した各撮像画像を用いて自車両周辺画像を生成する。自車両周辺画像は、例えば、自車両20の周辺を俯瞰した俯瞰画像を用いることができる。少なくとも一部の撮像範囲を共有する、互いに異なる方向から撮像した複数の撮像画像を用いた俯瞰画像の生成は、各撮像画像をホモグラフィ変換した後に合成することで行える。
各カメラ(カメラ3030、3030、…、撮像装置31および32)の位置情報は、ステップS10で取得部310により取得され、既知である。道路10の路面を平面と仮定すると,道路平面に対する各カメラの相対的な位置t(並進ベクトル)と姿勢R(回転行列)とが計算できる。道路平面上の点をM、対応する画像上の点をm、カメラの内部パラメータ行列をA、ホモグラフィ行列をHとすると,下記の式(1)が成り立つ。なお、式(1)において、H=A[r1 r2 t]である。
sm=HM …(1)
ここで、sは、スケール定数であり、r1およびr2は、それぞれ回転行列Rの第1列ベクトルと第2列ベクトルとを意味する。並進ベクトルtおよび回転行列Rは計算可能であり、カメラ内部パラメータ行列Aは、事前にカメラをキャリブレーションすることで既知となる。そのため、ホモグラフィ行列Hは、容易に計算できる。したがって、道路平面の法線方向を視線方向とする変換は、下記の式(2)により計算でき、これにより、各カメラによる撮像画像に基づく各俯瞰画像を作成できる。ここで、m’は変換後の画像上の点である。
m’=H−1m …(2)
こうして作成された各カメラの各俯瞰画像を合成し、1枚の俯瞰画像を作成する。例えば、位置情報に基づき複数の俯瞰画像を重ね合わせることで合成してもよいし、各俯瞰画像中の色やテクスチャ、エッジなどの情報を用いて位置合わせを行い合成してもよい。
図5のステップS12の、検出対象の検出処理について説明する。検出部320は、ステップS10で取得部310が取得した、他車両21に搭載された撮像装置31や、道路10の近傍に設置された撮像装置32により撮像された各撮像画像から、検出対象である人物らしさを計測し、計測結果に対して閾値判定を行って、計測結果が人物および非人物の何れであるかを判定する。
より具体的には、検出部320は、図7に例示されるように、対象とする撮像画像である対象画像70に対して所定の大きさの検出窓領域71を設定する。そして、検出部320は、この検出窓領域71を対象画像70内で例えば水平方向に所定単位毎に移動させ、さらに、垂直方向に所定単位毎に移動させながら、検出窓領域71内の画像に対して特徴量を算出し、算出した特徴量に基づき、対象画像70に検出対象に対応する画像72が含まれているか否かを判定する。
図8は、第1の実施形態に適用可能な、検出部320による検出対象の検出処理の例を示すフローチャートである。図8において、検出部320は、ステップS20で、検出窓領域71内の画像から特徴量を算出する。例えば、検出部320は、特徴量として、検出窓領域71内の輝度の勾配と強度とをヒストグラム化したHOG(Histgrams of Oriented Gradients)特徴量を算出することが考えられる。
次のステップS21で、検出部320は、ステップS20で算出された特徴量に基づき、識別器を用いて人物らしさを示す評価値を算出する。識別器としては、例えば対象画像についてHOG特徴量により適切に学習されたSVM(Support Vector Machine)を適用することができる。評価値としては、例えば、ステップS20で算出された特徴量の、マージン最大化超平面に対する距離を用いることができる。
また、非特許文献1に記載されるように、ステップS20で算出する特徴量を、HOG特徴量を識別性能の面で改良したCoHOG(Co-occurrence HOG)特徴量としてもよい。すなわち、ステップS20において、検出窓領域71内の画像から輝度の勾配の方向を計算し、算出された勾配の方向からCoHOG特徴量を算出する。そして、対象画像についてCoHOG特徴量により適切に学習されたSVMを用いて、算出されたCoHOG特徴量のマージン最大化超平面に対する距離を計算し、評価値とする。
次のステップS22で、検出部320は、ステップS21で算出された評価値を、閾値と比較する。次のステップS23で、検出部320は、ステップS22の比較結果に基づき、検出窓領域71内の画像が検出対象を含むか否か、すなわち、検出窓領域71内の画像が人物か、人物ではないか(非人物)を判定する。例えば、検出部320は、評価値が閾値を超える値である場合に、検出窓領域71内の画像が人物であると判定するものとする。検出部320は、判定の結果、検出窓領域71内の画像が非人物であると判定した場合、処理をステップS25に移行させる。
検出部320は、ステップS23の判定の結果、検出窓領域71内の画像が検出対象すなわち人物であると判定した場合、処理をステップS24に移行させ、当該検出対象の対象画像70での位置をRAM3002などに記憶する。これに限らず、検出部320は、人物の画像を含むと判定された検出窓領域71の実現する対象画像70内での位置を記憶しておくようにしてもよい。検出部320は、検出対象の位置を記憶すると、処理をステップS25に移行させる。
検出部320は、ステップS25で、対象とする撮像画像70内の全領域について処理が終了したか否かを判定する。処理が終了したと判定した場合、当該撮像画像70に対する図8のフローチャートによる一連の処理が終了される。一方、検出部320は、ステップS25で、処理が終了していないと判定した場合、処理をステップS26に移行させ、検出窓領域71を対象画像70上で移動させる。そして、処理をステップS20に戻し、次の撮像画像に対する処理を開始する。
図5のステップS14の、背景物体の探索処理について説明する。対応付け部321は、検出部320によって検出対象が検出された撮像画像である対象検出撮像画像と、自車両20に搭載されたカメラ3030、3030、…のうち対象検出撮像画像と撮像範囲の少なくとも一部を共有するカメラ3030が撮像した範囲共有撮像画像において、対象検出撮像画像上で検出対象の周囲一定領域内にある、検出対象とは異なる物体である背景物体の画像と、範囲共有撮像画像中の物体の画像との対応付けを行う。
図9を用いて、より具体的な例を挙げて説明する。なお、図9において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。一例として、図9(a)に示されるように、対向車である他車両21と自車両20との間に、他車両22が駐車しており、自車両20から見て、駐車中の他車両22の後ろに歩行者23が存在する状況を考える。さらに、図9(a)の例では、自車両20と同車線を走行する他車両24が存在し、道路10の自車両20から見て左側の近傍に、標識12が設置されている。
この状況において、図9(b)に示されるように、他車両21に搭載された撮像装置31が撮像した撮像画像41’に、歩行者23の画像が含まれ、さらに、歩行者23の背後に、駐車中の他車両22の画像が含まれるものとする。また、図9(c)に示されるように、自車両20に搭載された各カメラ3030、3030、…のうち、撮像装置31と撮像範囲を共有するカメラ3030により撮像した撮像画像40’には、駐車中の他車両22の画像が含まれるが、自車両20から見て他車両22の背後に存在する歩行者23の画像は含まれない。
この場合において、第1の実施形態に係る対応付け部321は、撮像画像41’に含まれる、検出部320が撮像画像41’から検出した検出対象(歩行者23の画像)の周辺に写る駐車中の他車両22の画像と、自車両20に搭載される、対向車である他車両21に搭載される撮像装置31と撮像範囲を共有するカメラ3030により撮像した撮像画像40’に含まれる、他車両22の画像とを対応付ける。
図10は、第1の実施形態に係る、対応付け部321による撮像画像間での画像の対応付けの処理を示す一例のフローチャートである。ステップS30で、対応付け部321は、検出対象の画像が含まれる撮像画像41’(対象検出撮像画像41’と呼ぶ)の、検出対象の周囲の一定領域の画像と、自車両20に搭載された、当該撮像画像41’と撮像範囲を共有するカメラ3030で撮像された撮像画像40’(範囲共有撮像画像40’とする)の全体とを取得する。
図11を用いて、第1の実施形態に係る、検出対象の周囲の一定領域の設定方法について、概略的に説明する。なお、図11において、上述した図9と共通する部分には同一の符号を付して、詳細な説明を省略する。対象検出撮像画像41’において、検出対象である歩行者23の画像を含む最小の矩形画像である検出対象矩形画像101を設定する。この検出対象矩形画像101の周囲の一定の大きさの領域100を、対象検出撮像画像41’における背景物体の探索範囲として取得する。なお、図11の例では、領域100は、下端側の一部が対象検出撮像画像41’の下端からはみ出ている。
例えば、検出対象矩形画像101の大きさを幅w0、高さh0とし、領域100の大きさを幅wd=p×w0、高さhd=q×h0とする。なお、値pおよびqは、それぞれ1より大きな値である。図11の例では、値p≒5、値q≒3としている。一例として、値pおよびqを、それぞれ2乃至10程度の範囲の値とし、幅wdおよび高さhdのうち一方を基準として、領域100の形状が正方形、または、幅および高さが所定の比率の矩形となるように設定することが考えられる。
ステップS31で、対応付け部321は、ステップS30で取得した範囲共有撮像画像40’と領域100とを、それぞれ所定に分割する。より詳細には、対応付け部321は、分割部322を含み、分割部322は、範囲共有撮像画像40’および領域100を、色情報やエッジ情報に基づき分割する。図12を用いて、第1の実施形態に係る分割部322による分割処理について説明する。なお、図12において、上述した図9および図11と共通する部分には同一の符号を付して、詳細な説明を省略する。
図12(a)は、範囲共有撮像画像40’に対する分割処理の例を示す。分割部322は、範囲共有撮像画像40’における各画素の色情報を取得すると共に、範囲共有撮像画像40’に対してエッジ検出を行いエッジ情報を取得する。エッジ検出は、既存のエッジ検出の手法を適用することができる。図12(a)の例では、分割部322は、範囲共有撮像画像40’に対して、色情報およびエッジ情報に基づき、道路10の路面に対応する領域50aと、他車両21、22および24にそれぞれ対応する領域50b、50cおよび50dとを検出している。分割部322は、検出した各領域50a〜50dを、範囲共有撮像画像40’からの分割領域として取得する。
図12(b)は、対象検出撮像画像41’における背景の探索範囲である領域100に対する分割処理の例を示す。分割部322は、上述と同様にして、領域100に対して各画素の色情報を取得すると共に、エッジ検出を行いエッジ情報を取得する。分割部322は、取得した領域100における色情報およびエッジ情報に基づき、道路10の路面に対応する領域51aと、他車両22に対応する領域51bと検出し、検出したこれら領域51aおよび51bを、背景探索範囲の領域100からの分割領域として取得する。
なお、道路10の路面に対応する領域50aおよび51aの検出は、他の背景物体の検出とは異なる方法を用いることができる。例えば、分割部322は、色(テクスチャ)情報に基づき路面を検出することができる。また、分割部322は、カメラの設置角度などが既知であれば、対象検出撮像画像41’内での位置、すなわち、対象検出撮像画像41’の下側の所定範囲を路面であるとして検出できる。対応付け部321は、道路10の路面であるとして検出された領域50aおよび51aに対して、道路であることを示す属性情報を付加する。
また、例えば図12(a)における領域50cのように、対応する物体の前後関係によっては、本来の物体の形状とは大きく異る形状で分割領域が取得されてしまう可能性がある。例えば、分割部322は、エッジ情報に基づき元の形状を推測し、推測された形状を分割領域として取得することが考えられる。
次のステップS32で、対応付け部321は、範囲共有撮像画像40’と、対象検出撮像画像41’における領域100との間で、分割された領域毎に特徴量を求め、各特徴量に基づき類似度を算出する。図12(a)および図12(b)の例では、対応付け部321は、図12(a)に示す範囲共有撮像画像40’において取得した各領域50a〜50dと、図12(b)に示す対象検出撮像画像41’内の領域100において取得した各領域51aおよび51bとの間で、それぞれ類似度を算出する。
各領域の特徴量としては、各領域の画素毎の色情報や、エッジ情報を用いることができる。また、各領域のテクスチャを特徴量として用いることもできる。特徴量間の類似度は、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。
さらに、対応付け部321は、比較する2つの特徴量を1つに纏めて識別器で識別した出力結果に基づき、対応付けを行ってもよい。識別器は、例えばSVM(Support Vector Machine)を用いることができる。対応付け部321は、例えば、1つの領域の第1の特徴量に対して、第1の特徴量と、複数の領域による各第2の特徴量の類似度をそれぞれ算出し、算出した類似度が最大の組み合わせとなる第2の特徴量が第1の特徴量に対応付けられると判定することができる。これに限らず、対応付け部321は、類似度が閾値以上となる特徴量の組み合わせが対応付くと判定してもよい。
なお、道路10に対応して分割された領域50aおよび51aは、類似度の算出から除外するのが好ましい。この場合、対応付け部321は、対象検出撮像画像41’内の領域100において取得した領域51bと、範囲共有撮像画像40’において取得した領域50a〜50dそれぞれとの類似度を算出することになる。
次のステップS33で、対応付け部321は、ステップS32で算出された各類似度のうち、最大の類似度を求め、最大の類似度が算出された範囲共有撮像画像40’内の分割領域と、領域100内の分割領域とのペアを検出する。図12(a)および図12(b)の例では、範囲共有撮像画像40’において分割された領域50dと、対象検出撮像画像41’内の領域において分割された領域51bとのペアが、最大の類似度が算出された領域のペアであるものとする。
次のステップS34で、対応付け部321は、ステップS33で検出された領域ペアに基づき、検出対象に対する背景物体を決定する。図12(b)の例では、領域51bに対応する物体(この例では他車両22)が背景物体とされ、領域51bが背景物体領域とされる。
なお、上述では、ステップS33で、各類似度のうち最大の類似度に対応する領域のペアを検出しているが、これはこの例に限定されず、対応付け部321は、領域のペアを複数検出してもよい。例えば、対応付け部321は、ステップS32で算出された各類似度のうち最大の類似度に対して所定に範囲を設定し、当該最大の類似度と、設定した範囲内に含まれる類似度とを求め、これら複数の類似度にそれぞれ対応する、複数の領域のペアを検出することが考えられる。
次に、図5のステップS15の、第1の実施形態に係る、検出対象と背景物体とを、検出矩形画像として切り出す切り出し処理について、図13のフローチャートと、図14〜図18とを用いて説明する。なお、図14〜図18において、上述した図9および図11と共通する部分には同一の符号を付して、詳細な説明を省略する。切り出し部323は、検出部320で検出された検出対象矩形画像101の全体と、対応付け部321により取得された背景物体領域の画像とを含む最小矩形の一定の割合の領域を含む矩形を検出矩形画像として切り出す。
図13のフローチャートにおいて、ステップS60で、切り出し部323は、検出対象が検出された対象検出撮像画像41’を取得する。また、切り出し部323は、図5のステップS14で対応付け部321により取得された背景物体領域の画像と、検出対象矩形画像101とを取得する。切り出し部323は、ステップS14にて複数の背景物体領域の画像が取得された場合には、この複数の背景物体領域の画像を全て取得する。
次のステップS61で、切り出し部323は、対象検出撮像画像41’において、検出対象矩形画像101の周辺の所定範囲内に、背景物体領域が存在するか否かを判定する。切り出し部323は、図5のステップS14で背景物体を探索する際に設定した探索範囲の領域100を、背景物体領域の存在の有無を判定する所定範囲とすることができる。これに限らず、領域100よりも狭い範囲を当該所定範囲としてもよい。切り出し部323は、当該所定範囲内に背景物体領域が存在しないと判定した場合、処理をステップS62に移行させる。
ステップS62で、切り出し部323は、検出対象矩形画像101を中心に、一定範囲の領域を切り出す。図14は、検出対象矩形画像101の周辺の所定範囲(この例では領域100)に背景物体領域が存在しない例を示す。この場合、切り出し部323は、検出対象矩形画像101を中心として一定範囲の領域120aを、検出矩形画像として対象検出撮像画像41’から切り出す。領域120aの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
切り出し部323は、切り出した領域120aの画像をRAM3002などに記憶させてもよいし、領域120aの座標と、切り出しを行った対象検出撮像画像41’を識別する情報とをRAM3002などに記憶させてもよい。領域120aのサイズは、検出対象矩形画像101と同じ大きさでもよいし、検出対象矩形画像101よりも多少大きなサイズ、例えば検出対象矩形画像101に対して幅および高さが1.2倍程度などであってもよい。適切なサイズは、実験的に決定する事ができる。
切り出し部323は、ステップS61で、検出対象矩形画像101の周辺の所定範囲内に背景物体領域が存在すると判定した場合、処理をステップS63に移行させる。ステップS63で、切り出し部323は、検出対象矩形画像101の周辺の所定範囲内に存在する背景物体領域が1個であるか否かを判定する。切り出し部323は、当該所定領域内に複数の背景物体領域が存在すると判定した場合、処理をステップS64に移行させる。
ステップS64で、切り出し部323は、当該所定領域内に存在する複数の背景物体領域のうち、対象検出撮像画像41’上で検出対象矩形画像101との距離が最も近い背景物体領域を含む矩形の一定の割合の領域を含む矩形と、検出対象矩形画像101とを含むように切り出す。
図15は、検出対象矩形画像101の周辺の所定範囲(領域100)に複数の背景物体領域102aおよび102bが存在する例を示す。この例では、草花13の画像を含む領域と、標識12の画像を含む領域とが、それぞれ背景物体領域102aおよび102bとして取得されている。図15において、検出対象矩形画像101の重心と、背景物体領域102aおよび102bそれぞれの重心との間の距離を求めると、背景物体領域102aの方が、背景物体領域102bよりも検出対象矩形画像101に近いことが分かる。そのため、切り出し部323は、背景物体領域102aを切り出し対象の背景物体領域として特定して、処理をステップS65に移行させる。
なお、検出対象矩形画像101と、背景物体領域102aおよび102bとの距離は、重心を用いて求める例に限定されない。切り出し部323は、例えば検出対象矩形画像101と、背景物体領域102aおよび102bそれぞれの中心位置や、頂点、エッジなどに基づき距離を求めてもよい。
上述したステップS63で、切り出し部323は、検出対象矩形画像101の周辺の所定範囲内に存在する背景物体領域が1個であると判定した場合、当該背景物体領域を切り出し対象の背景物体領域として特定して、処理をステップS65に移行させる。
ステップS65で、切り出し部323は、ステップS63またはステップS64で切り出し対象として特定された背景物体領域と検出対象矩形画像101とを比較し、背景物体領域が検出対象矩形画像101よりも大きいか否かを判定する。
切り出し部323は、背景物体領域と検出対象矩形画像101との比較の結果、背景物体領域を含む最小矩形の高さおよび幅が、それぞれ検出対象矩形画像101の高さおよび幅に対して、所定の割合よりも小さい場合に、背景物体領域が検出対象矩形画像101よりも小さいと判定する。切り出し部323は、背景物体領域が検出対象矩形画像101よりも小さいと判定した場合、処理をステップS66に移行させる。
ステップS66で、切り出し部323は、背景物体領域と検出対象矩形画像101とを含む矩形を切り出す。図16は、背景物体領域が検出対象矩形画像101よりも小さい場合の例を示す。図16の例では、背景物体領域102aの幅および高さが、検出対象矩形画像101の幅および高さよりも小さい。そのため、切り出し部323は、背景物体領域102aと検出対象矩形画像101とを含む矩形の領域120cを、検出矩形画像として対象検出撮像画像41’から切り出す。領域120cの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
ステップS65で、切り出し部323は、背景物体領域が検出対象矩形画像101よりも大きいと判定した場合、処理をステップS67に移行させる。例えば、切り出し部323は、背景物体領域102aおよび検出対象矩形画像101の幅および高さのうち少なくとも一方が、背景物体領域102aの方が大きい場合に、背景物体領域が検出対象矩形画像101よりも大きいと判定する。
ステップS67で、切り出し部323は、対象検出撮像画像41’において道路10の路面を推定し、背景物体領域に示される背景物体が路面上の物体か否かを判定する。例えば、切り出し部323は、図10のフローチャートのステップS31で、対象検出撮像画像41’において分割された路面の領域51aに基づき、背景物体が路面上の物体であるか否かを判定することができる。これに限らず、このステップS67の時点で上述と同様にして路面の領域を検出してもよい。切り出し部323は、例えば背景物体領域の底辺が路面の領域内に含まれる場合に、背景物体が路面上の物体であると判定できる。
切り出し部323は、ステップS67で、背景物体領域に示される背景物体が路面上の物体ではないと判定した場合、処理をステップS68に移行させる。ステップS68で、切り出し部323は、背景物体領域を含む最小矩形の、対象検出撮像画像41’上における垂直方向において、検出対象矩形画像101の画像上の位置と近い側の矩形の1辺から一定の割合の領域と、検出対象矩形画像101の全体とを含む矩形を切り出す。
図17は、背景物体領域に示される背景物体が路面上の物体ではない場合の例を示す。図17において、背景物体領域102cを含む最小矩形は、この例では背景物体領域102cと同一となっており、幅が検出対象矩形画像101の幅よりも大きい。そのため、背景物体領域102cが検出対象矩形画像101よりも大きいと判定できる。また、背景物体領域102cの底辺は、画像上で路面の領域に含まれないので、背景物体が路面上の物体ではないと判定できる。
さらに、図17において、検出対象矩形画像101の画像上の位置と垂直方向に向けて近い背景物体領域102cの1辺は、当該背景物体領域102cの底辺となる。したがって、切り出し部323は、検出対象矩形画像101の全体と、背景物体領域102cの一定の割合の領域とを含む矩形の領域120dを、検出矩形画像として対象検出撮像画像41’から切り出す。
図17の例では、領域120dは、背景物体領域102cの幅全体を含み、高さは、8割程度を含んでいる。これはこの例に限定されず、領域120dは、背景物体領域102cの全体を含んでもよいし、背景物体領域102cの幅および高さの所定割合までを含んでいてもよい。領域120dの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
切り出し部323は、ステップS67で、背景物体領域に示される背景物体が路面上の物体であると判定した場合、処理をステップS69に移行させる。ステップS69で、切り出し部323は、背景物体領域を含む最小矩形の、対象検出撮像画像41’上における水平方向において、検出対象矩形画像101の画像上の位置と近い側の矩形の1辺から一定の割合の領域と、検出対象矩形画像101の全体とを含む矩形を切り出す。
図18は、背景物体領域に示される背景物体が路面上の物体である場合の例を示す。図18において、背景物体領域102eを含む最小矩形は、この例では背景物体領域102eと同一となっており、幅および高さが検出対象矩形画像101の幅および高さよりそれぞれ大きい。そのため、背景物体領域102eが検出対象矩形画像101よりも大きいと判定できる。また、背景物体領域102eの底辺は、画像上で路面の領域に含まれるので、背景物体が路面上の物体であると判定できる。
さらに、検出対象矩形画像101の画像上の位置と水平方向に向けて近い背景物体領域102bの1辺は、当該背景物体領域102eの右辺となる。したがって、切り出し部323は、検出対象矩形画像101の全体と、背景物体領域102eの一定の割合の領域とを含む矩形の領域120fを、検出矩形画像として対象検出撮像画像41’から切り出す。
図18の例では、領域120fは、背景物体領域102eの高さ全体を含み、幅は、8割程度を含んでいる。これはこの例に限定されず、領域120fは、背景物体領域102eの全体を含んでもよいし、背景物体領域102eの幅および高さの所定割合までを含んでいてもよい。領域120fの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
次に、図5のステップS16の検出情報の生成処理について説明する。ステップS16で、検出情報生成部324は、取得部310から、検出対象矩形画像101が撮像された位置を示す位置情報を取得する。そして、検出情報生成部324は、取得した位置情報と、ステップS15で対象検出撮像画像41’から切り出された検出矩形画像とを含む検出情報を生成する。
次に、図5のステップS17の、表示情報の生成処理について説明する。ステップS17で、表示情報生成部325は、ステップS11で周辺画像生成部311が生成した自車両周辺画像と、ステップS16で検出情報生成部324が生成した検出情報とに基づき、ユーザに提示するための表示画面を示す表示情報を生成する。
図19(a)および図19(b)は、第1の実施形態に係る、表示情報に基づき表示装置3020に表示される表示画像の例を示す。なお、図19(a)および図19(b)において、上述した図9および図11、図14〜図18と共通する部分には同一の符号を付して、詳細な説明を省略する。
表示情報生成部325は、検出情報に含まれる検出矩形画像と自車両周辺画像とを含む表示画面を示す表示情報を生成する。このとき、表示情報生成部325は、検出矩形画像を、自車両周辺画像上または自車両周辺画像の周辺の、検出情報に含まれる位置情報に応じた位置に、位置情報と共に配置する。
このとき、表示情報生成部325は、検出矩形画像に含まれる検出対象の画像が含まれる対象検出撮像画像を撮像した位置に応じて、検出矩形画像を自車両周辺画像の左右の何れに配置するかを決める。例えば、検出対象が検出された対象検出撮像画像41’を撮像した位置が、自車両20が走行する自車線の領域に含まれる場合、当該検出対象の画像を含む検出矩形画像を、図19(a)に例示されるように、自車両周辺画像の自車線側(左側)に配置する。
図19(a)において、表示装置3020に表示される表示画面3060に対し、右側に自車両周辺画像3062が配置され、自車両周辺画像3062の左側に、検出矩形画像3061が配置されている。ここで、表示画面3060に表示される自車両周辺画像3062に対し、センターライン14が示され、自車両20および他車両24が左側車線を走行している様子が示されている。また、自車両周辺画像3062に対し、自車両20から見て他車両24の陰に歩行者23が存在し、歩行者23の近傍に標識12が設置されている様子が示されている。さらに、自車両周辺画像3062に対し、自車両20のカメラ3030の位置と、カメラ3030による撮像範囲40とが示されると共に、自車両20を特定するための情報(例えばラベル「自車両」)が示されている。
ここで、歩行者23の姿は、自車両20からは、自車両20の前方を走行する他車両24に隠されてしまい、見ることができない。自車両周辺画像3062は、上述したように、周辺画像生成部311により、互いに異なる方向から撮像した複数の撮像画像を合成した俯瞰画像として生成されている。そのため、自車両20の運転者は、図19(a)に示す自車両周辺画像3062では、画像の歪みにより歩行者23および標識12の存在を認識することが困難である場合がある。
一方、表示画面3060に表示される検出矩形画像3061は、1つの対象検出撮像画像41’から切り出すことで作成されている。そのため、自車両20の運転者は、検出矩形画像3061から、検出対象の歩行者23と、検出対象に対して背景物体である標識12とを容易に認識することができる。さらに、検出矩形画像3061には、自車両20から認識可能な背景物体(この例では標識12)の画像が含まれるため、自車両20の運転者は、歩行者23との位置関係を容易に把握することが可能である。
表示画面3060に対して、検出矩形画像3061と自車両周辺画像3062との関連を示す表示3063を表示させると、歩行者23の位置をより容易に把握でき、好ましい。
図19(b)は、検出対象が検出された対象検出撮像画像41’を撮像した位置が、自車両20に対して対向車線の領域に含まれる場合の表示画面3060の例を示す。図19(b)の例では、当該検出対象の画像を含む検出矩形画像3061’を、自車両周辺画像3062’の対向車線側(右側)に配置する。
図19(a)および図19(b)のように、検出矩形画像3061および3061’を、自車両周辺画像3062および3062’に対して、検出対象の画像が撮像された車線側に配置することで、自車両20の運転者は、検出対象(歩行者23)の位置を、より直感的に認識することが可能となる。
ここで、図19(b)において、表示画面3060に表示される自車両周辺画像3062’に対し、センターライン14が示され、自車両20および他車両24が左側車線を走行し、右側車線に他車両21および22が存在する様子が示されている。また、自車両周辺画像3062’は、他車両22の近傍に状態を示すラベル「駐車中」が配置され、他車両22が現在駐車中であることが示されている。
さらに、自車両周辺画像3062’に対し、自車両20から見て他車両22の陰に歩行者23が存在する様子が示されている。さらに、自車両周辺画像3062’に対し、自車両20のカメラ3030の位置およびカメラ3030による撮像範囲40と、他車両21の撮像装置31の位置および撮像装置31による撮像範囲41とが示されている。
一方、図19(b)において、検出矩形画像3061’は、自車両20に対して対向車線を走行する他車両21から撮像した対象検出撮像画像41’から切り出されているため、自車両20から見た場合に対して、左右が逆になっている。そのため、表示情報生成部325は、検出情報生成部324から取得した検出情報に含まれる検出矩形画像の左右を反転した画像を生成し、この左右反転画像を、検出矩形画像3061’として、表示画面3060に配置する。
図19(b)の例においても、検出矩形画像3061’には、自車両20から認識可能な背景物体(この例では他車両22)の画像が含まれるため、自車両20の運転者は、歩行者23との位置関係を容易に把握することが可能である。
(第2の実施形態)
次に、第2の実施形態について説明する。図20は、第2の実施形態に係る画像処理部の機能を説明するための機能ブロック図である。なお、第2の実施形態では、図1および図2を用いて説明した画像処理システムの構成と、運転支援装置30のハードウェア構成とをそのまま適用できるので、これらのここでの説明を省略する。また、図20において、上述した図4と共通する部分には同一の符号を付して、詳細な説明を省略する。
図20に示されるように、第2の実施形態に係る画像処理部300bにおいて、対応付け部321aは、図4で説明した第1の実施形態に係る対応付け部321が含む分割部322に代えて、物体検出部330を含む。物体検出部330は、検出部320で検出対象が検出された対象検出撮像画像41’の当該検出対象の画像の周囲一定領域内から、背景物体の画像を検出する。
図21は、第2の実施形態に係る画像処理部300bにおける、背景物体検出処理を示す一例のフローチャートである。この図21のフローチャートによる処理は、上述した図5のフローチャートにおけるステップS14の処理、および、図10のフローチャートによる処理に対応するものである。
ステップS40で、対応付け部321aは、検出対象の画像が含まれる撮像画像41’(対象検出撮像画像41’と呼ぶ)の、検出対象の周囲の一定の範囲の領域100(図11参照)の画像と、自車両20に搭載された、当該撮像画像41’と撮像範囲を共有するカメラ3030で撮像された撮像画像40’(範囲共有撮像画像40’と呼ぶ)の全体とを取得する。
ステップS41で、対応付け部321aは、物体検出部330において、ステップS40で取得した対象検出撮像画像41’における領域100に対して背景物体の検出を行う。また、次のステップS42で、対応付け部321aは、物体検出部330において、ステップS40で取得した範囲共有撮像画像40’から背景物体の検出を行う。
ステップS41およびステップS42の背景物体の検出処理は、例えば、上述した非特許文献1に開示されている技術を適用することができる。すなわち、物体検出部330は、複数種類の背景物体のそれぞれに特化した複数種類の検出器を作成し、これら複数種類の検出器を用いて領域100および範囲共有撮像画像40’からそれぞれ背景物体の領域および当該領域の画像内での位置を検出する。
例えば、車両、道路標識、動物、看板など、さらに詳細な、軽自動車、トラック、バス、案内標識、指示標識、補助標識、規制標識、警戒標識、犬、猫、店舗看板など複数種類の背景物体にそれぞれ特化した複数種類の検出器を予め作成する。物体検出部330は、これら複数種類の検出器を用いて、各種類の背景物体をそれぞれ検出する。
これに限らず、物体検出部330は、例えば特許文献2に開示される技術を用い、予め定めた複数種類の背景物体を1つの識別器を用いて学習し、領域100内および範囲共有撮像画像40’内の特徴量が、学習した複数種類の背景物体のうちどの背景物体の特徴量に近いかを識別してもよい。
次のステップS43で、対応付け部321aは、ステップS41で領域100から検出された各背景物体の領域と、ステップS42で範囲共有撮像画像40’から検出された各背景物体の領域との類似度を、それぞれの画像の特徴量に基づき算出する。そして、対応付け部321aは、領域100から検出された各背景物体の領域と、範囲共有撮像画像40’から検出された各背景物体の領域との間で、類似度が最大となる領域のペアを検出する。そして、次のステップS44で、対応付け部321aは、ステップS43で検出された領域ペアに基づき、検出対象に対する背景物体を決定する。
第2の実施形態では、検出物体に対する背景物体を、検出器を用いて検出することで、背景物体の画像の位置や領域をより正確に求めることができ、検出矩形画像の切り出しをより高精度に実行できる。
(第3の実施形態)
次に、第3の実施形態について説明する。図22は、第3の実施形態に係る画像処理部の機能を説明するための機能ブロック図である。なお、第3の実施形態では、図1および図2を用いて説明した画像処理システムの構成と、運転支援装置30のハードウェア構成とをそのまま適用できるので、ここでの説明を省略する。また、図22において、上述した図4および図20と共通する部分には同一の符号を付して、詳細な説明を省略する。
図22に示されるように、第3の実施形態に係る画像処理部300cにおいて、対応付け部321bは、図4で説明した第1の実施形態に係る対応付け部321が含む分割部322と、図20で説明した第2の実施形態に係る対応付け部321aが含む物体検出部330とを共に含む。
図23は、第3の実施形態に係る画像処理部300cにおける、背景物体検出処理を示す一例のフローチャートである。この図23のフローチャートによる処理は、上述した図5のフローチャートにおけるステップS14の処理、および、図10のフローチャートによる処理に対応するものである。
ステップS50で、対応付け部321bは、検出対象の画像が含まれる対象検出撮像画像41’の、検出対象の周囲の一定領域100(図11参照)の画像と、自車両20に搭載された、当該撮像画像41’と撮像範囲を共有するカメラ3030で撮像された範囲共有撮像画像40’の全体とを取得する。
次のステップS51で、対応付け部321bは、分割部322および物体検出330とを用いて、範囲共有撮像画像40’と、対象検出撮像画像41’における領域100とから背景物体の画像を検出する。このとき、対応付け部321bは、分割部322による、画像の色情報およびエッジ情報に基づく分割処理と、物体検出部330による、画像の特徴量に基づく物体検出処理とをそれぞれ行い、分割処理により検出された背景物体の領域と、物体検出処理により検出された背景物体の領域とをそれぞれ取得する。
次のステップS52で、対応付け部321bは、ステップS51で各処理により得られた、領域100から検出された各背景物体領域と、範囲共有撮像画像40’から検出された各背景物体領域との類似度を算出する。このとき、対応付け部321bは、分割部322により得られた色情報およびエッジ情報それぞれと、物体検出部330により得られた属性情報とのうち少なくとも1つを特徴量として用いて、類似度を算出する。
属性情報は、例えば、物体検出部330が用いる複数種類の検出器がそれぞれ検出する各種類の背景物体を示す情報(例えば、上述した車両、道路標識、動物、看板など、さらに詳細な、軽自動車、トラック、バス、案内標識、指示標識、補助標識、規制標識、警戒標識、犬、猫、店舗看板を示す情報)を用いることができる。
次のステップS53で、対応付け部321bは、領域100から検出された各背景物体の領域と、範囲共有撮像画像40’から検出された各背景物体の領域との間で、類似度が最大となる領域のペアを検出する。そして、次のステップS54で、対応付け部321bは、ステップS53で検出された領域ペアに基づき、検出対象に対する背景物体を決定する。
対応付け部321bは、特徴量間の類似度を、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。対応付け部321bは、比較する2つの特徴量を1つに纏めてSVMなどの識別器で識別した出力結果に基づき、対応付けを行ってもよい。対応付け部321bは、領域100から検出された各背景物体領域と、範囲共有撮像画像40’から検出された各背景物体領域との組み合わせのそれぞれの類似度を比較し、類似度が最大となる領域のペア、または、類似度が閾値以上となる領域のペアを求め、検出対象に対する背景物体を決定する。
第3の実施形態では、検出物体に対する背景物体を、色情報、エッジ情報および特徴量を用いて検出することで、背景物体の画像の位置や領域をより正確に求めることができ、検出矩形画像の切り出しをより高精度に実行できる。
(第4の実施形態)
次に、第4の実施形態について説明する。上述した第1〜第3の実施形態に係る画像処理システムは、自車両20に搭載された運転支援装置30は、他車両21に搭載された撮像装置31と、固定物(信号機11)に設置された撮像装置32とから、無線通信を介して直接的に撮像画像および位置情報を受け取っていた。これに対して、第4の実施形態は、運転支援装置30は、撮像装置31および32から、サーバ装置を介して撮像画像および位置情報を受け取る。
図24は、第4の実施形態に係る画像処理システムの一例の構成を概略的に示す。なお、図24において、上述した図2と共通する部分には同一の符号を付して、詳細な説明を省略する。図24において、画像処理システムは、図2の構成に対してサーバ装置60と、データベース(DB)61と、アクセスポイント(AP)62とが追加されている。運転支援装置30の通信部302、ならびに、撮像装置31および32の通信部は、AP62の探索を行い、AP62が発見されると、それぞれAP62との間で通信を確立する。
例えば撮像装置31は、撮像部により撮像した撮像画像と、位置情報取得部で取得した、撮像位置を示す位置情報とを、撮像を行った時間を示す時間情報と共にAP62に送信する。AP62は、撮像装置31から送信された撮像画像、位置情報および時間情報を受信し、受信したこれら各情報をサーバ装置60に渡す。サーバ装置60は、撮像画像に、位置情報および時間情報を関連付けてDB61に格納する。
撮像装置32の動作は、撮像装置31と略同様なので、ここでの説明を省略する。なお、固定物に設置される撮像装置32は、サーバ装置60と有線により接続することも可能である。
運転支援装置30は、通信部302によりAP62と通信を行い、サーバ装置60に対して、撮像装置31および32に撮像された撮像画像と、撮像画像を撮像した位置および時間をそれぞれ示す位置情報および時間情報とを要求する。このとき、運転支援装置30は、位置情報取得部303で取得した現在の位置示す位置情報と、現在の時間を示す時間情報とを、サーバ装置60への要求に対して付加する。また、運転支援装置30は、例えばサーバ装置60に要求を送信するタイミングに応じて、撮像部301により撮像を行い撮像画像を取得し、位置情報取得部303により現在の位置を示す位置情報を取得する。
AP62は、運転支援装置30から送信された要求と、要求に付加された位置情報および時間情報とを受信し、受信したこれら要求および各情報をサーバ装置60に渡す。サーバ装置60は、受け取った要求に従い、位置情報および時間情報に基づきDB61に格納された撮像画像の検索を実行する。例えば、サーバ装置60は、DB61に格納される撮像画像から、運転支援装置30からの要求と共に受け取った位置情報および時間情報に対してそれぞれ所定範囲内にある位置情報および時間情報を検索する。
サーバ装置60は、このようにDB61から検索された位置情報および時間情報に関連付けられた撮像画像と、当該撮像画像に関連付けられた位置情報とを、検索結果として取得する。サーバ装置60は、取得した撮像画像および位置情報を、AP62から運転支援装置30に無線通信53により送信する。運転支援装置30は、AP62から送信された撮像画像および位置情報を受信する。運転支援装置30は、受信した撮像画像および位置情報と、サーバ装置60に要求を送信するタイミングに応じて運転支援装置30の撮像部301および位置情報取得部303でそれぞれ取得された撮像画像および位置情報とを用いて、第1〜第3の実施形態で説明したような処理を行い、検出矩形画像3061と、自車両周辺画像3062とを取得する。
なお、各実施形態は、上述したそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。