JP2017162125A - 画像解析プログラム、画像解析装置、及び画像解析方法 - Google Patents

画像解析プログラム、画像解析装置、及び画像解析方法 Download PDF

Info

Publication number
JP2017162125A
JP2017162125A JP2016044951A JP2016044951A JP2017162125A JP 2017162125 A JP2017162125 A JP 2017162125A JP 2016044951 A JP2016044951 A JP 2016044951A JP 2016044951 A JP2016044951 A JP 2016044951A JP 2017162125 A JP2017162125 A JP 2017162125A
Authority
JP
Japan
Prior art keywords
image
line segment
edge line
boundary
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016044951A
Other languages
English (en)
Other versions
JP6620607B2 (ja
Inventor
純 金武
Jun Kanetake
純 金武
中山 收文
Osafumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016044951A priority Critical patent/JP6620607B2/ja
Publication of JP2017162125A publication Critical patent/JP2017162125A/ja
Application granted granted Critical
Publication of JP6620607B2 publication Critical patent/JP6620607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】面上の特定領域と立体物の領域とが接する画像から、立体物の領域を高精度に検出する。【解決手段】コンピュータは、第1時刻及び第2時刻に撮影された第1画像及び第2画像から、第1領域及び第2領域の画像特徴を抽出する(ステップ801)。次に、コンピュータは、第1領域の画像特徴に基づいて、第1領域に含まれる特定領域と立体物との境界の候補となる第1位置を求める(ステップ802)。次に、コンピュータは、2時刻間における移動体の移動量に基づいて、第1位置に対応する第2領域内の境界の候補となる第2位置を求める(ステップ803)。次に、コンピュータは、第1位置を境界として用いた場合の第1領域の画像特徴と、第2位置を境界として用いた場合の第2領域の画像特徴との特徴類似度に基づいて、第1位置を第1領域内の境界に決定する(ステップ804)。そして、コンピュータは、第1領域内の立体物の領域を特定する(ステップ805)。【選択図】図8

Description

本発明は、画像解析プログラム、画像解析装置、及び画像解析方法に関する。
車両のような移動体に外界を撮影するカメラを設置して、カメラにより撮影した映像から物体を検出する方法として、輪郭線の端点のオプティカルフローに基づく物体検出方法が知られている。この検出方法では、映像に含まれる時系列の複数の画像から輪郭線を抽出し、画像間で輪郭線の端点を対応付け、端点の位置ずれ量が計算される。この位置ずれ量は、フロー量と呼ばれる。
図1は、画像間における物体の対応付けの例を示している。図1(a)は、物体の輪郭線上の端点以外の点を対応付ける場合を示している。時刻1における画像101に物体111が写っており、移動体の移動に伴って、物体111は矢印113が示す方向に移動している。そして、時刻1よりも後の時刻2における画像102に物体112が写っている。
画像101内の物体111と画像102内の物体112が同じ物体であると仮定すると、物体111の輪郭線上の点121は、物体112の輪郭線上の点122の位置に移動する。しかし、点121は輪郭線の端点ではないため、点121と物体112の輪郭線上の点との対応関係が一意に定まらない。
図1(b)は、物体の輪郭線の端点を対応付ける場合を示している。画像101内の物体111の輪郭線の端点131及び端点132は、画像102内の物体112の輪郭線の端点133及び端点134の位置に移動する。この場合、移動体の移動方向及び輪郭線の形状に影響されることなく、端点131及び端点132と、端点133及び端点134との対応関係が一意に定まる。
図2は、車載カメラが撮影する路面上の模様及び立体物の例を示している。路面201上には立体物203が静止しており、カメラ206を搭載した車両205が路面201上を矢印211が示す方向に移動している。時刻1においてカメラ206により撮影された画像内では、立体物203上の着目点204と、路面201上の模様202に含まれる点207とが重なって写る。
このとき、時刻1におけるカメラ206の位置と着目点204とを結ぶ方向212と、時刻2におけるカメラ206の位置と着目点204とを結ぶ方向213との差分が、立体物203の視差として現れる。一方、時刻1におけるカメラ206の位置と点207とを結ぶ方向212と、時刻2におけるカメラ206の位置と点207とを結ぶ方向214との差分が、模様202の視差として現れる。この場合、立体物203の視差は、模様202の視差よりも大きいことが分かる。
このような立体物203と模様202の視差の違いにより、時刻1における画像と時刻2における画像との間で、立体物203上の点のフロー量と、模様202に含まれる点のフロー量とを比較すると、立体物203上の点のフロー量の方が大きくなる。この性質を用いて、画像内の点のフロー量が閾値以上であれば、その点は立体物203上の点であると判定し、フロー量が閾値未満であれば、その点は模様202に含まれる点であると判定することができる。フロー量に対する閾値は、画像内の点の位置及び車両205の移動量から求めることができる。
立体物のフロー量の計算では、画像の垂直方向に対する角度が所定値以内の輪郭線が用いられる。その理由は、画像内において立体物の高さ方向の輪郭線の角度は垂直に近くなることが多く、垂直方向に近い輪郭線が支配的となり、画像間における輪郭線同士の対応関係が一意に定まりやすいためである。
車両から撮影した画像内の輪郭線に基づいて、進路に飛び出す危険性が高い歩行者を判定する技術も知られている(例えば、特許文献1を参照)。車両から撮影した画像と車両の移動量とから、周囲の物体の3次元位置を計算する技術も知られている(例えば、特許文献2を参照)。
特開2012−203884号公報 特開2014−240753号公報
従来のオプティカルフローに基づく物体検出方法では、路面上の模様に含まれる輪郭線と立体物の輪郭線とが繋がった画像において、立体物の領域を誤検出する場合がある。
なお、かかる問題は、路面上の模様に含まれる輪郭線と立体物の輪郭線とが繋がった画像に限らず、面上の特定領域と立体物の領域とが接する他の画像においても生ずるものである。
1つの側面において、本発明は、面上の特定領域と立体物の領域とが接する画像から、立体物の領域を高精度に検出することを目的とする。
1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、撮像装置によって第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出する。
(2)コンピュータは、第1領域の画像特徴に基づいて、第1領域に含まれる面上の特定領域と面上に存在する立体物との境界の候補となる第1位置を求める。
(3)コンピュータは、第1時刻と第2時刻との間における移動体の移動量に基づいて、第1位置に対応する第2領域内の境界の候補となる第2位置を求める。
(4)コンピュータは、第1位置を第1領域内の境界として用いた場合の第1領域の画像特徴と、第2位置を第2領域内の境界として用いた場合の第2領域の画像特徴との特徴類似度に基づいて、第1位置を第1領域内の境界に決定する。
(5)コンピュータは、決定した境界に基づいて、第1領域内の立体物の領域を特定する。
1つの実施形態によれば、面上の特定領域と立体物の領域とが接する画像から、立体物の領域を高精度に検出することができる。
画像間における物体の対応付けを示す図である。 路面上の模様及び立体物を示す図である。 2つの物体の輪郭線が繋がった画像を示す図である。 分割点に対する評価値の計算方法を示す図である。 個別処理による失敗例を示す図である。 局所処理による失敗例を示す図である。 画像解析装置の構成図である。 画像解析処理のフローチャートである。 画像解析処理を示す図である。 画像解析装置の具体例を示す構成図である。 画像解析処理の具体例を示すフローチャートである。 輪郭線抽出処理のフローチャートである。 エッジ点Aに隣接する3画素を示す図である。 エッジ点Bと接続可能なエッジ点Cを示す図である。 輪郭線情報を示す図である。 輪郭線照合処理のフローチャートである。 相違度計算処理のフローチャートである。 重複部分を示す図である。 2つの重複部分の重ね合わせを示す図である。 候補リスト生成処理のフローチャートである。 候補リスト生成処理を示す図である。 分割スコア計算処理のフローチャートである。 特徴類似度計算処理のフローチャートである。 分割点決定処理のフローチャートである。 分割点決定処理を示す図である。 立体物検出処理のフローチャートである。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
図3は、2つの物体の輪郭線が繋がった画像の例を示している。画像301に路面上の模様311と立体物312とが写っており、模様311の輪郭線と立体物312の輪郭線とが繋がって1本の輪郭線321が抽出された場合、輪郭線321の上側の端点322は、模様311の一部であるため、路面上に位置する。また、輪郭線321の下側の端点323も、立体物312の下端に対応するため、路面上に位置する。したがって、輪郭線321は、路面上の模様の輪郭線であると判定され、立体物312の検出に失敗する。
このような画像301から立体物312を検出するために、輪郭線321を2本に分割することが考えられる。画像内で2つの物体の領域が接する場合は、それらの領域の境界付近で、画素値及び形状が変化することが多い。そこで、輪郭線上の各点について、画素値及び形状の変化に基づく評価値を計算し、計算した評価値の閾値判定を行うことで、物体間の境界を示す分割点を決定することができる。
図4は、分割点に対する評価値の計算方法の例を示している。分割対象の輪郭線上における分割点の候補となる点401によって、その輪郭線が上側の部分輪郭線402と下側の部分輪郭線403とに分割される場合、点401に対する評価値として、例えば、次式の分割スコアSを用いることができる。
S=S1+S2 (1)
S1=|I(A1)−I(A2)| (2)
S2=|θ| (3)
I(A1)は、部分輪郭線402上の局所領域A1の画素値を表し、I(A2)は、部分輪郭線403上の局所領域A2の画素値を表す。θは、部分輪郭線402と部分輪郭線403との間の角度を表す。
図3の輪郭線321上の各点について、式(1)の分割スコアSを計算することで、分割スコアSが最大となる分割点324で、輪郭線321を輪郭線325と輪郭線326とに分割することができる。そして、輪郭線326に基づいて、立体物312が検出される。このように、輪郭線が所定の分割条件を満たす場合に、その輪郭線を2本の輪郭線に分割することで、立体物の検出失敗が抑制される。
しかし、分割スコアSに基づいて輪郭線を2本の輪郭線に分割しても、分割点が正しい境界からずれて、立体物の検出に失敗することがある。その原因として、画像毎の個別処理と、画像内における局所処理とが考えられる。
図5は、個別処理による失敗例を示している。時刻1における画像内の領域501において、輪郭線上の分割点502が決定され、時刻2における画像内の領域503において、輪郭線上の分割点504が決定される。このように、映像に含まれる各時刻の画像毎に独立して分割点が決定される場合、2時刻間における拘束が課されることなく、自由に分割点が決定される。このため、時刻1における分割点502と、時刻2における分割点504との間に整合性がない。
図6は、局所処理による失敗例を示している。式(2)のS1は、局所領域間における画素値の変化に基づいて計算されるため、局所的に変化の大きな点が分割点になりやすい。図6の画像では、領域601内における点602が正しい境界であるにもかかわらず、局所的な画素値の変化に引っ張られて、点603が分割点に決定される。
これらの原因によって、2時刻における2個の分割点の位置がずれて、整合性のない組み合わせになると、正しいフロー量とは異なるフロー量が計算され、立体物の検出に失敗する。
図7は、実施形態の画像解析装置の構成例を示している。画像解析装置701は、抽出部711、決定部712、及び特定部713を含む。抽出部711は、面上を移動する移動体に設置された撮像装置によって撮影された画像から、領域の画像特徴を抽出する。決定部712は、抽出部711が抽出した画像特徴に基づいて、面上の特定領域と面上に存在する立体物との境界を決定し、特定部713は、決定部712が決定した境界に基づいて、画像内の立体物の領域を特定する。
図8は、図7の画像解析装置701が行う画像解析処理の例を示すフローチャートである。まず、抽出部711は、第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出する(ステップ801)。
次に、決定部712は、第1領域の画像特徴に基づいて、第1領域に含まれる特定領域と立体物との境界の候補となる第1位置を求める(ステップ802)。そして、決定部712は、第1時刻と第2時刻との間における移動体の移動量に基づいて、第1位置に対応する第2領域内の境界の候補となる第2位置を求める(ステップ803)。
次に、決定部712は、第1位置を第1領域内の境界として用いた場合の第1領域の画像特徴と、第2位置を第2領域内の境界として用いた場合の第2領域の画像特徴との特徴類似度に基づいて、第1位置を第1領域内の境界に決定する(ステップ804)。
そして、特定部713は、決定部712が決定した境界に基づいて、第1領域内の立体物の領域を特定する(ステップ805)。
図7の画像解析装置701によれば、面上の特定領域と立体物の領域とが接する画像から、立体物の領域を高精度に検出することができる。
図9は、画像解析装置701が行う画像解析処理の例を示している。この画像解析処理では、画像から抽出される各領域の画像特徴としてエッジ線分が用いられ、2時刻間における拘束と、分割点に対するグローバル評価とが採用される。
画像から抽出されるエッジ線分は、画像から検出されたエッジ点を接続することで生成されるエッジ点連結部分に対応し、始点及び終点を有する有限長の曲線部分又は直線部分である。エッジ線分は物体の輪郭線を表すことが多いため、以下では、エッジ線分を輪郭線と記すことがある。
2時刻間における拘束を採用することで、3次元の物体モデルから物理的に可能性のある分割点の候補が求められる。例えば、時刻1における画像内の輪郭線がN個(Nは1以上の整数)の点からなる場合、それらの点が分割点候補P1〜分割点候補PNとして用いられる。この場合、仮想的な3次元の物体モデルを輪郭線に当てはめることで、時刻1における輪郭線上の分割点候補Pi(i=1〜N)に対応する、時刻2における輪郭線上の分割点候補Qiの位置が計算される。これにより、2時刻間で整合性の取れた分割点候補の組み合わせ901−iを求めることができる。
また、分割点に対するグローバル評価を採用することで、輪郭線全体の評価値に基づき、局所的な画素値の変化の影響を受けることなく、分割点候補のN個の組み合わせ901−1〜901−Nの中から最適な組み合わせが求められる。この場合、時刻1における輪郭線全体の特徴と、時刻2における輪郭線全体の特徴とを用いて、分割点候補Piと分割点候補Qiの組み合わせ901−iに対する評価値が計算される。
具体的には、Piの上側の部分輪郭線902全体の特徴と、Piの下側の部分輪郭線903全体の特徴と、Qiの上側の部分輪郭線904全体の特徴と、Qiの下側の部分輪郭線905全体の特徴とを用いて、組み合わせ901−iに対する評価値が計算される。この評価値は、例えば、2時刻間における部分輪郭線同士の類似度と、同時刻における部分輪郭線同士の相違度とに基づいて計算される。
図10は、図7の画像解析装置701の具体例を示している。図10の画像解析装置701は、抽出部711、決定部712、特定部713、映像入力部1011、出力部1012、及び記憶部1013を含む。抽出部711は、特徴点抽出部1021及び輪郭線抽出部1022を含み、決定部712は、照合部1031、生成部1032、相違度計算部1033、類似度計算部1034、及び分割点決定部1035を含む。
例えば、駐車場で車両が発車する直前に、接触する可能性のある周囲の車両、歩行者等の静止物体を車載カメラの画像から検出し、物体の存在をドライバに通知する安全支援システムにおいて、画像解析装置701を用いることができる。この場合、撮像装置1001は、車両に搭載された1台の単眼カメラであってもよい。車両の正面と背面のように、複数箇所に撮像装置1001を設置することも可能である。
画像解析装置701は、例えば、ハードウェア回路として実装することができる。この場合、画像解析装置701の各構成要素を個別の回路として実装してもよく、1つの集積回路として実装してもよい。
図11は、図10の画像解析装置701が行う画像解析処理の具体例を示すフローチャートである。図11の画像解析処理において、撮像装置1001は、路面上を移動する車両に搭載され、撮像装置1001が撮影した画像から抽出される各領域の画像特徴として、各領域の輪郭を表す輪郭線が用いられる。
特定領域は、例えば、路面上の模様の領域であり、路面上の立体物は、例えば、他の車両、歩行者等である。特定領域と立体物との境界としては、特定領域の輪郭線と立体物の領域の輪郭線との境界が用いられる。
まず、映像入力部1011は、車両に搭載された撮像装置1001が撮影した映像から、現在時刻の画像1041を取得し、取得した画像1041を記憶部1013に格納する(ステップ1101)。
撮像装置1001が出力する映像がアナログ映像である場合、映像入力部1011は、各時刻のアナログ画像をデジタル画像に変換し、変換後のデジタル画像を画像1041として格納する。撮像装置1001が出力する映像がカラー映像である場合、映像入力部1011は、各時刻のカラー画像をモノクロ画像に変換し、変換後のモノクロ画像を画像1041として格納してもよい。複数の撮像装置1001が設置されている場合、それぞれの撮像装置1001が撮影した映像から画像1041が取得される。
次に、特徴点抽出部1021は、画像1041からエッジを検出し、検出したエッジから特徴点画像1042を生成して、記憶部1013に格納する(ステップ1102)。このとき、特徴点抽出部1021は、例えば、Sobelフィルタのような微分オペレータを画像1041に作用させて、微分処理によって各画素のエッジ強度を求める。次に、特徴点抽出部1021は、求めたエッジ強度と閾値とを比較し、閾値以上のエッジ強度を有する領域をエッジとして検出する。
そして、特徴点抽出部1021は、検出したエッジの細線化処理を行ってエッジ点を決定し、決定したエッジ点を含む特徴点画像1042を生成する。細線化処理では、例えば、各画素のエッジ強度が水平方向に隣接する2画素のエッジ強度と比較され、中央のエッジ強度がピーク値であれば、その画素がエッジ点に決定される。
輪郭線抽出部1022は、特徴点画像1042から、特徴点画像1042の垂直方向に対する角度が所定値以内の輪郭線を抽出し、抽出した輪郭線を表す輪郭線情報1043を記憶部1013に格納する(ステップ1103)。輪郭線情報1043は、映像の開始時刻から現在時刻までの複数時刻それぞれにおける、複数の特徴点画像1042内の輪郭線の情報を含む。
次に、照合部1031は、2時刻間における拘束を用いて、現在時刻における輪郭線と、輪郭線情報1043に含まれる過去の輪郭線とを照合し、2本の輪郭線が同じ物体の輪郭線であるか否かを判定する(ステップ1104)。そして、照合部1031は、同じ物体の輪郭線であると判定した2本の輪郭線を対応付ける情報を、輪郭線情報1043に設定する。
次に、生成部1032は、輪郭線情報1043内で対応付けられている2本の輪郭線のうち、過去の輪郭線上の境界の候補となる分割点候補の位置から、現在の輪郭線上の境界の候補となる分割点候補の位置を予測する(ステップ1105)。そして、生成部1032は、過去の分割点候補と現在の分割点候補との組み合わせを複数個含む候補リスト1044を生成し、生成した候補リスト1044を記憶部1013に格納する。
次に、相違度計算部1033は、候補リスト1044に含まれる各組み合わせについて、過去の輪郭線上における分割点候補の両側の部分輪郭線の相違度と、現在の輪郭線上における分割点候補の両側の部分輪郭線の相違度とを計算する(ステップ1106)。そして、相違度計算部1033は、2つの相違度から分割スコア1045を計算し、計算した分割スコア1045を記憶部1013に格納する。
次に、類似度計算部1034は、候補リスト1044に含まれる各組み合わせについて、過去の輪郭線上における分割点候補の両側の部分輪郭線と、現在の輪郭線上における分割点候補の両側の部分輪郭線との特徴類似度1046を計算する(ステップ1107)。そして、類似度計算部1034は、計算した特徴類似度1046を記憶部1013に格納する。
次に、分割点決定部1035は、分割スコア1045及び特徴類似度1046に基づいて、分割点に対するグローバル評価を行い、候補リスト1044に含まれる組み合わせの中から最適な組み合わせを求める(ステップ1108)。そして、分割点決定部1035は、その組み合わせが表す過去の分割点候補の位置を過去の輪郭線上の分割点に決定し、現在の分割点候補の位置を現在の輪郭線上の分割点に決定する。
次に、特定部713は、分割点決定部1035が決定した分割点の位置で過去及び現在の輪郭線をそれぞれ分割し、対応する画像1041内の立体物の領域を特定する(ステップ1109)。そして、特定部713は、特定した領域を含む検出結果1047を記憶部1013に格納し、出力部1012は、検出結果1047を出力する。
次に、映像入力部1011は、撮像装置1001から続けて映像が入力されているか否かをチェックし(ステップ1110)、映像が入力されている場合(ステップ1110,YES)、次の時刻の画像について、ステップ1101以降の処理を繰り返す。そして、映像の入力が停止した場合(ステップ1110,NO)、画像解析装置701は、処理を終了する。
このような画像解析処理によれば、路面上の模様に含まれる輪郭線と立体物の輪郭線とが画像内で繋がっている場合であっても、模様と立体物との境界が正しく識別されるため、立体物の領域を高精度に検出することができる。
図12は、図11のステップ1103における輪郭線抽出処理の例を示すフローチャートである。この輪郭線抽出処理では、特徴点画像1042の下端から上端へ向かって、各ラインに含まれる各エッジ点について接続判定を行い、エッジ点同士を接続することで、輪郭線が生成される。そして、各輪郭線に含まれる複数のエッジ点に対して、同じ輪郭線IDが付与される。
まず、輪郭線抽出部1022は、特徴点画像1042内の1つのエッジ点を、エッジ点Aとして選択する(ステップ1201)。次に、輪郭線抽出部1022は、エッジ点Aを含むラインよりも1本上のラインに含まれ、エッジ点Aに隣接する3画素に、エッジ点が存在するか否かをチェックする(ステップ1202)。
図13は、エッジ点Aに隣接する3画素の例を示している。エッジ点Aの左上の画素1301、エッジ点Aの上の画素1302、及びエッジ点Aの右上の画素1303が、エッジ点Aに隣接する3画素に対応する。
3画素のいずれかにエッジ点が存在する場合(ステップ1202,YES)、輪郭線抽出部1022は、3画素のうち複数の画素にエッジ点が存在するか否かをチェックする(ステップ1203)。複数の画素にエッジ点が存在する場合(ステップ1203,YES)、輪郭線抽出部1022は、それらのエッジ点のうち最適なエッジ点を、エッジ点Bとして選択する(ステップ1204)。最適なエッジ点としては、例えば、エッジ点Aのエッジ強度により近いエッジ強度を有するエッジ点を選択してもよく、エッジ点Aを含む輪郭線の傾きにより近い傾きでエッジ点Aと接続可能なエッジ点を選択してもよい。
次に、輪郭線抽出部1022は、エッジ点Bが輪郭線として登録済みか否かをチェックする(ステップ1205)。エッジ点Bに対して輪郭線IDが既に付与されている場合、エッジ点Bは登録済みと判定され、エッジ点Bに対して輪郭線IDが付与されていない場合、エッジ点Bは未登録と判定される。
エッジ点Bが未登録である場合(ステップ1205,NO)、輪郭線抽出部1022は、エッジ点Aと同じラインに含まれ、エッジ点Bと接続可能な他のエッジ点Cが存在するか否かをチェックする(ステップ1206)。
図14は、エッジ点Bと接続可能なエッジ点Cの例を示している。図14(a)のエッジ点Bは、エッジ点Aの上に隣接している。エッジ点Aの左に隣接するエッジ点Cは、エッジ点Bにも隣接しているため、エッジ点Bと接続可能である。また、図14(b)のエッジ点Bは、エッジ点Aの左上に隣接している。エッジ点Aの左側にあるエッジ点Cは、エッジ点Bに隣接しているため、エッジ点Bと接続可能である。
エッジ点Cが存在する場合(ステップ1206,YES)、輪郭線抽出部1022は、エッジ点Aとエッジ点Cとを比較して、いずれが最適なエッジ点であるかを判定する(ステップ1207)。最適なエッジ点としては、例えば、エッジ点Bのエッジ強度により近いエッジ強度を有するエッジ点を選択してもよく、エッジ点Bを含む輪郭線の傾きにより近い傾きでエッジ点Bと接続可能なエッジ点を選択してもよい。
エッジ点Cを最適なエッジ点と判定した場合(ステップ1207,YES)、輪郭線抽出部1022は、エッジ点B及びエッジ点Cに対して同じ輪郭線IDを付与することで、エッジ点Bとエッジ点Cとを接続する(ステップ1208)。エッジ点Cが登録済みである場合、エッジ点Cの輪郭線IDがエッジ点Bに対して付与され、エッジ点Cが未登録である場合、新たな輪郭線IDがエッジ点B及びエッジ点Cに対して付与される。
次に、輪郭線抽出部1022は、特徴点画像1042内のすべてのエッジ点を処理したか否かをチェックする(ステップ1210)。未処理のエッジ点が残っている場合(ステップ1210,NO)、輪郭線抽出部1022は、次のエッジ点について、ステップ1201以降の処理を繰り返す。
一方、エッジ点Aを最適なエッジ点と判定した場合(ステップ1207,NO)、輪郭線抽出部1022は、エッジ点A及びエッジ点Bに対して同じ輪郭線IDを付与することで、エッジ点Aとエッジ点Bとを接続する(ステップ1209)。エッジ点Aが登録済みである場合、エッジ点Aの輪郭線IDがエッジ点Bに対して付与され、エッジ点Aが未登録である場合、新たな輪郭線IDがエッジ点A及びエッジ点Bに対して付与される。そして、輪郭線抽出部1022は、ステップ1210以降の処理を行う。
3画素のいずれにもエッジ点が存在しない場合(ステップ1202,NO)、又はエッジ点Bが登録済みである場合(ステップ1205,YES)、輪郭線抽出部1022は、ステップ1210以降の処理を行う。1画素にのみエッジ点が存在する場合(ステップ1203,NO)、輪郭線抽出部1022は、そのエッジ点をエッジ点Bとして選択して、ステップ1205以降の処理を行う。エッジ点Cが存在しない場合(ステップ1206,NO)、輪郭線抽出部1022は、ステップ1209以降の処理を行う。
そして、すべてのエッジ点を処理した場合(ステップ1210,YES)、輪郭線抽出部1022は、輪郭線ID毎にエッジ点の情報を含む輪郭線情報1043を生成する(ステップ1211)。このとき、輪郭線抽出部1022は、複数のエッジ点が接続されたエッジ線分のうち、所定個数以上のエッジ点が接続されたエッジ線分を、輪郭線として抽出してもよい。
図15は、輪郭線情報1043の例を示している。図15の輪郭線情報1043は、画像ID、輪郭線ID、長さ、エッジ位置、ロスト回数、分割状態、及び分割点位置を含む。画像IDは、画像1041の識別情報であり、輪郭線IDは、輪郭線の識別情報である。長さは、輪郭線に含まれるエッジ点の個数を表し、エッジ位置は、輪郭線に含まれる各エッジ点の位置を表す。特徴点画像1042の水平方向及び垂直方向をそれぞれx軸及びy軸とすると、エッジ点の位置は、x座標及びy座標により表される。
ロスト回数は、映像中で輪郭線の追跡に失敗した回数を表し、その初期値は0である。ロスト回数のインクリメントは、照合部1031によって行われる。分割状態は、輪郭線上における分割点の有無を表し、その初期値は分割無しである。分割点位置は、分割点の位置を表す。分割状態の変更と分割点位置の設定は、分割点決定部1035によって行われる。
図16は、図11のステップ1104における輪郭線照合処理の例を示すフローチャートである。まず、照合部1031は、現在時刻の画像1041が映像中の何番目のフレームの画像であるかをチェックする(ステップ1601)。
現在時刻の画像1041が1番目のフレームの画像である場合(ステップ1601,NO)、対応する過去の画像1041が存在せず、現在時刻の画像1041内の輪郭線はすべて新規に抽出された輪郭線であるため、照合部1031は、処理を終了する。
一方、現在時刻の画像1041が2番目以降のフレームの画像である場合(ステップ1601,YES)、照合部1031は、現在時刻の画像1041内の輪郭線と、輪郭線情報1043に含まれる過去の画像1041内の輪郭線とを照合する。
以下では、簡単のため、過去の画像1041を画像F1と記し、現在時刻の画像1041を画像F2と記すことにする。画像F1としては、画像F2よりも所定枚数前の画像が用いられる。画像F1は、画像F2の直前のフレームの画像であってもよい。
照合部1031は、まず、画像F1に含まれる1本の輪郭線を選択し、画像F1の撮影時刻と現在時刻との間における車両の移動量と、撮像装置1001の設置情報とを用いて、選択した輪郭線の画像F2内における移動先位置を計算する(ステップ1602)。この移動先位置は、例えば、特許文献2に記載されているように、2時刻間における車両の並進量及び回転量と、撮像装置1001の車両に対する相対位置及び角度とから、エピポーラ拘束と呼ばれる幾何条件を用いて計算される。
次に、照合部1031は、画像F2内の移動先位置に輪郭線が存在するか否かをチェックする(ステップ1603)。移動先位置に輪郭線が存在する場合(ステップ1603,YES)、照合部1031は、画像F1内の輪郭線と移動先位置の輪郭線との相違度を計算し(ステップ1604)、計算した相違度を閾値と比較する(ステップ1605)。
相違度が閾値以下である場合(ステップ1605,YES)、照合部1031は、画像F1内の輪郭線と移動先位置の輪郭線とが同じ輪郭線であると判定する。そこで、照合部1031は、輪郭線情報1043において、画像F2内の移動先位置の輪郭線を示す輪郭線IDを、画像F1内の輪郭線を示す輪郭線IDと同じIDに変更する(ステップ1606)。これにより、2本の輪郭線が同じ輪郭線として登録される。
次に、照合部1031は、画像F1内のすべての輪郭線を選択したか否かをチェックし(ステップ1610)、未選択の輪郭線が残っている場合(ステップ1610,NO)、次の輪郭線について、ステップ1602以降の処理を繰り返す。
移動先位置に輪郭線が存在しない場合(ステップ1603,NO)、又は相違度が閾値よりも大きい場合(ステップ1605,NO)、照合部1031は、画像F1内の輪郭線と移動先位置の輪郭線とが同じ輪郭線ではないと判定する。この場合、照合部1031は、画像F1内の輪郭線の追跡に失敗したものとみなし、その輪郭線のロスト回数をインクリメントして(ステップ1607)、インクリメントしたロスト回数を閾値と比較する(ステップ1608)。
ロスト回数が閾値以上である場合(ステップ1608,YES)、照合部1031は、画像F1内の輪郭線の情報を輪郭線情報1043から削除して(ステップ1609)、ステップ1610以降の処理を行う。一方、ロスト回数が閾値未満である場合(ステップ1608,NO)、照合部1031は、その輪郭線の情報を削除することなく、ステップ1610以降の処理を行う。
そして、画像F1内のすべての輪郭線を選択した場合(ステップ1610,YES)、照合部1031は、処理を終了する。
図17は、図16のステップ1604における相違度計算処理の例を示すフローチャートである。まず、照合部1031は、画像F1内の輪郭線の移動方向に基づいて、画像F1内の輪郭線と、画像F2内の移動先位置の輪郭線との重複部分を求める(ステップ1701)。
図18は、画像F1内の輪郭線と画像F2内の輪郭線との重複部分の例を示している。画像F1内の輪郭線1801から求めた画像F2内の移動先位置には、輪郭線1802が存在する。
この場合、エピポーラ拘束に基づいて、輪郭線1801の一方の端点1821の移動方向を示す直線1811と、他方の端点1822の移動方向を示す直線1812とが求められる。輪郭線1802の一方の端点1831は直線1811上に存在し、他方の端点1832は直線1812上に存在しない。
そこで、照合部1031は、エピポーラ拘束に基づいて、輪郭線1802の端点1832を通る直線1813を求め、直線1813と輪郭線1801との交点1823を求める。そして、照合部1031は、端点1821と交点1823との間の部分輪郭線1803を、輪郭線1801上の重複部分に決定し、輪郭線1802全体を輪郭線1802上の重複部分に決定する。
次に、照合部1031は、2時刻間における輪郭線の長さの変化を補償するため、2本の輪郭線の重複部分の長さが同じになるようにスケール調整を行い(ステップ1702)、調整後の各重複部分の重心位置を計算する(ステップ1703)。そして、照合部1031は、2つの重複部分の重心同士を重ね合わせて、各重複部分に含まれる点を選択し、選択した点同士の水平方向のずれ量を計算する(ステップ1704)。
図19は、2つの重複部分の重ね合わせの例を示している。線分1901は、スケール調整された部分輪郭線1803を表し、線分1902は、スケール調整された輪郭線1802を表す。線分1901の重心と線分1902の重心とを点1903において重ね合わせた場合、線分1901上の各点と、同じy座標を有する線分1902上の点との間で、x座標の差分の絶対値が水平方向のずれ量として計算される。
次に、照合部1031は、重複部分のすべての点を選択したか否かをチェックし(ステップ1705)、未選択の点が残っている場合(ステップ1705,NO)、次の点について、ステップ1704の処理を繰り返す。
そして、重複部分のすべての点を選択した場合(ステップ1705,YES)、照合部1031は、複数のずれ量の統計値を計算する(ステップ1706)。ずれ量の統計値としては、複数のずれ量の平均値、中央値、最大値、最小値等を用いることができ、計算された統計値は、ステップ1604の相違度として用いられる。
図16の輪郭線照合処理によれば、2時刻間における車両の移動量と撮像装置1001の設置情報とから、過去の画像1041内の輪郭線に対応する現在時刻の画像1041内の輪郭線を特定して、それらの輪郭線を対応付けることができる。また、ロスト回数が閾値以上である場合に輪郭線を削除することで、撮影範囲から消えた立体物等の領域を処理対象から除外することができる。
図20は、図11のステップ1105における候補リスト生成処理の例を示すフローチャートである。まず、生成部1032は、輪郭線照合処理で用いられた画像F1内の1本の輪郭線を選択し、輪郭線情報1043を参照して、選択した輪郭線と同じ輪郭線IDを有する輪郭線が画像F2内に存在するか否かをチェックする(ステップ2001)。
同じ輪郭線IDを有する輪郭線が画像F2内に存在する場合(ステップ2001,YES)、生成部1032は、画像F1内の輪郭線の下側の端点が路面上に存在するという条件を用いて、その端点の3次元空間内における位置を計算する(ステップ2002)。端点が路面上に存在する場合、高さは0であるため、撮像装置1001の車両に対する相対位置及び角度から、端点の3次元空間内における位置を計算することができる。以下では、3次元空間内における位置を3次元位置と記すことがある。
次に、生成部1032は、画像F1内の輪郭線上の1個のエッジ点を選択し、画像F1内の輪郭線が、路面に対して垂直な方向における立体物の輪郭線に対応するという条件を用いて、選択したエッジ点に対応する3次元位置を計算する(ステップ2003)。
次に、生成部1032は、画像F1の撮影時刻と現在時刻との間における車両の移動量と、撮像装置1001の設置情報とを用いて、エッジ点に対応する3次元位置から、現在時刻における3次元位置を計算する(ステップ2004)。そして、生成部1032は、現在時刻における3次元位置に対応する画像F2内の位置を計算する(ステップ2005)。
ステップ2003〜ステップ2005における各位置は、例えば、特許文献2に記載されているように、2時刻間における車両の並進量及び回転量と、撮像装置1001の車両に対する相対位置及び角度とを用いて、計算することができる。
次に、生成部1032は、画像F1内の輪郭線と同じ輪郭線IDを有する、画像F2内の輪郭線上で、計算した位置に対応するエッジ点を求める(ステップ2006)。そして、生成部1032は、画像F1内の選択したエッジ点と画像F2内の求めたエッジ点とを、分割点候補の組み合わせとして候補リスト1044に記録する。
次に、生成部1032は、画像F1内の輪郭線が路面上の模様の輪郭線に対応するという条件を用いて、選択したエッジ点に対応する3次元位置を計算する(ステップ2007)。
次に、生成部1032は、ステップ2004と同様にして、エッジ点に対応する3次元位置から、現在時刻における3次元位置を計算し(ステップ2008)、ステップ2005と同様にして、画像F2内の位置を計算する(ステップ2009)。そして、生成部1032は、ステップ2006と同様にして、画像F2内の輪郭線上のエッジ点を求め、画像F1内の選択したエッジ点と画像F2内の求めたエッジ点とを、分割点候補の組み合わせとして候補リスト1044に記録する(ステップ2010)。
次に、生成部1032は、画像F1内の輪郭線上のすべてのエッジ点を選択したか否かをチェックし(ステップ2011)、未選択のエッジ点が残っている場合(ステップ2011,NO)、次のエッジ点について、ステップ2003以降の処理を繰り返す。
すべてのエッジ点を選択した場合(ステップ2011,YES)、生成部1032は、画像F1内のすべての輪郭線を選択したか否かをチェックする(ステップ2012)。未選択の輪郭線が残っている場合(ステップ2012,NO)、生成部1032は、次の輪郭線について、ステップ2001以降の処理を繰り返す。そして、すべての輪郭線を選択した場合(ステップ2012,YES)、生成部1032は、処理を終了する。
このような候補リスト生成処理によれば、各輪郭線を立体物の輪郭線と仮定した場合の分割点候補の組み合わせと、各輪郭線を路面上の模様の輪郭線と仮定した場合の分割点候補の組み合わせとを含む、候補リスト1044が生成される。
なお、生成部1032は、画像F1内の輪郭線上のすべてのエッジ点に対してではなく、所定間隔で選択した少数のエッジ点に対して、ステップ2003〜ステップ2010の処理を行ってもよい。これにより、画像解析装置701の処理負荷を軽減することができる。
図21は、候補リスト生成処理の例を示している。画像F1内の輪郭線2101の下側のエッジ点2111が路面上に存在すると仮定することで、エッジ点2111の3次元位置が計算され、2時刻間における拘束から、画像F2内の対応する輪郭線2102上のエッジ点2121が求められる。
ここで、輪郭線2101及び輪郭線2102が路面上の立体物2131の高さ方向における輪郭線であると仮定することで、輪郭線2101上のエッジ点2112〜エッジ点2115にそれぞれ対応する3次元位置が計算される。次に、2時刻間における拘束から、エッジ点2112〜エッジ点2115にそれぞれ対応する、輪郭線2102上のエッジ点2122〜エッジ点2125が求められる。そして、輪郭線2101上の各エッジ点と輪郭線2102上の各エッジ点との組み合わせが、分割点候補の組み合わせとして記録される。
このように、2時刻間における拘束を採用することで、画像F1内の輪郭線2101上の分割点候補に対応する、画像F2内の輪郭線2102上の分割点候補が一意に求められる。
図22は、図11のステップ1106における分割スコア計算処理の例を示すフローチャートである。まず、相違度計算部1033は、画像F1内の1本の輪郭線を選択し、候補リスト1044を参照して、選択した輪郭線上の分割点候補を含む1個の組み合わせを選択し、その輪郭線を分割点候補の位置で2本の部分輪郭線に分割する。
そして、相違度計算部1033は、分割点候補の上側の部分輪郭線に含まれるエッジ点の画素値の統計値V1と、その部分輪郭線の傾きU1とを計算する(ステップ2201)。画素値としては、例えば、輝度値を用いることができ、画素値の統計値としては、複数の画素値の平均値、中央値、最大値、最小値等を用いることができる。
次に、相違度計算部1033は、分割点候補の下側の部分輪郭線に含まれるエッジ点の画素値の統計値V2と、その部分輪郭線の傾きU2とを計算する(ステップ2202)。そして、相違度計算部1033は、上側の部分輪郭線と下側の部分輪郭線との相違度を示す評価値E1を、次式により計算する(ステップ2203)。
E1=w1×D1+w2×D2 (11)
D1=|V1−V2| (12)
D2=|θ1| (13)
式(11)のw1及びw2は、調整係数を表す正の実数であり、式(13)のθ1は、傾きU1と傾きU2との間の角度である。画素値相違度D1は、上側の部分輪郭線の画素値と下側の部分輪郭線の画素値との相違度を示し、傾き相違度D2は、上側の部分輪郭線の傾きと下側の部分輪郭線の傾きとの相違度を示す。
同様にして、相違度計算部1033は、画像F2内の輪郭線を分割点候補の位置で2本の部分輪郭線に分割し、分割点候補の上側の部分輪郭線に含まれるエッジ点の画素値の統計値V3と、その部分輪郭線の傾きU3とを計算する(ステップ2204)。
次に、相違度計算部1033は、分割点候補の下側の部分輪郭線に含まれるエッジ点の画素値の統計値V4と、その部分輪郭線の傾きU4とを計算する(ステップ2205)。そして、相違度計算部1033は、上側の部分輪郭線と下側の部分輪郭線との相違度を示す評価値E2を、次式により計算する(ステップ2206)。
E2=w1×D3+w2×D4 (14)
D3=|V3−V4| (15)
D4=|θ2| (16)
式(16)のθ2は、傾きU3と傾きU4との間の角度である。相違度計算部1033は、選択した分割点候補の組み合わせに対する評価値を示す分割スコアE3を、次式により計算し、分割スコアE3を分割スコア1045として記録する(ステップ2207)。
E3=E1+E2 (17)
次に、相違度計算部1033は、画像F1内の輪郭線上の分割点候補を含むすべての組み合わせを選択したか否かをチェックする(ステップ2208)。未選択の組み合わせが残っている場合(ステップ2208,NO)、相違度計算部1033は、次の組み合わせについて、ステップ2201以降の処理を繰り返す。
すべての組み合わせを選択した場合(ステップ2208,YES)、相違度計算部1033は、画像F1内のすべての輪郭線を選択したか否かをチェックする(ステップ2209)。未選択の輪郭線が残っている場合(ステップ2209,NO)、相違度計算部1033は、次の輪郭線について、ステップ2201以降の処理を繰り返す。そして、すべての輪郭線を選択した場合(ステップ2209,YES)、相違度計算部1033は、処理を終了する。
このような分割スコア計算処理によれば、画像F1内の各輪郭線上の各分割点候補について、式(17)の分割スコアE3を求めることができる。分割スコアE3が大きいほど、対応する分割点候補が輪郭線上の分割点としてより適切であることを表す。
図23は、図11のステップ1107における特徴類似度計算処理の例を示すフローチャートである。まず、類似度計算部1034は、画像F1内の1本の輪郭線を選択し、候補リスト1044を参照して、選択した輪郭線上の分割点候補を含む1個の組み合わせを選択する。
そして、類似度計算部1034は、画像F1内の輪郭線と画像F2内の輪郭線のそれぞれを、分割点候補の位置で2本の部分輪郭線に分割し、画像F1内の輪郭線の上側の部分輪郭線と、画像F2内の輪郭線の上側の部分輪郭線とを選択する(ステップ2301)。
次に、類似度計算部1034は、選択した2本の部分輪郭線の長さが同じになるようにスケール調整を行い(ステップ2302)、調整後の2本の部分輪郭線の類似度G1を、次式により計算する(ステップ2303)。
G1=w3×R1+w4×R2 (21)
R1=255−VD1/M1 (22)
R2=w5−w6×(XD1/M1) (23)
式(21)のw3及びw4と、式(23)のw5及びw6は、調整係数を表す正の実数であり、式(22)及び式(23)のM1は、調整後の各部分輪郭線上の点の総数を表す。式(22)のVD1は、部分輪郭線間における2点の画素値の差分の総和を表す。画素値としては、例えば、輝度値を用いることができる。
式(23)のXD1は、部分輪郭線間における2点の水平方向のずれ量の総和を表す。例えば、図19に示した2つの重複部分と同様に、調整後の2本の部分輪郭線を重心位置で重ね合わせることで、水平方向のずれ量を求めることができる。この場合、一方の部分輪郭線上の各点と、同じy座標を有する他方の部分輪郭線上の点との間で、x座標の差分の絶対値が水平方向のずれ量として計算される。
画素値類似度R1は、画像F1内の上側の部分輪郭線の画素値と、画像F2内の上側の部分輪郭線の画素値との類似度を示し、傾き類似度R2は、画像F1内の上側の部分輪郭線の傾きと、画像F2内の上側の部分輪郭線の傾きとの類似度を示す。
次に、類似度計算部1034は、画像F1内の輪郭線の下側の部分輪郭線と、画像F2内の輪郭線の下側の部分輪郭線とを選択する(ステップ2304)。そして、類似度計算部1034は、選択した2本の部分輪郭線同士のスケール調整を行い(ステップ2305)、調整後の2本の部分輪郭線の類似度G2を、次式により計算する(ステップ2306)。
G2=w3×R3+w4×R4 (24)
R3=255−VD2/M2 (25)
R4=w5−w6×(XD2/M2) (26)
式(25)及び式(26)のM2は、調整後の各部分輪郭線上の点の総数を表す。式(25)のVD2は、部分輪郭線間における2点の画素値の差分の総和を表し、式(26)のXD2は、部分輪郭線間における2点の水平方向のずれ量の総和を表す。
画素値類似度R3は、画像F1内の下側の部分輪郭線の画素値と、画像F2内の下側の部分輪郭線の画素値との類似度を示し、傾き類似度R4は、画像F1内の下側の部分輪郭線の傾きと、画像F2内の下側の部分輪郭線の傾きとの類似度を示す。
次に、類似度計算部1034は、画像F1内の両側の部分輪郭線と、画像F2内の両側の部分輪郭線との特徴類似度G3を、次式により計算し、特徴類似度G3を特徴類似度1046として記録する(ステップ2307)。
G3=G1+G2 (27)
次に、類似度計算部1034は、画像F1内の輪郭線上の分割点候補を含むすべての組み合わせを選択したか否かをチェックする(ステップ2308)。未選択の組み合わせが残っている場合(ステップ2308,NO)、類似度計算部1034は、次の組み合わせについて、ステップ2301以降の処理を繰り返す。
すべての組み合わせを選択した場合(ステップ2308,YES)、類似度計算部1034は、画像F1内のすべての輪郭線を選択したか否かをチェックする(ステップ2309)。未選択の輪郭線が残っている場合(ステップ2309,NO)、類似度計算部1034は、次の輪郭線について、ステップ2301以降の処理を繰り返す。そして、すべての輪郭線を選択した場合(ステップ2309,YES)、類似度計算部1034は、処理を終了する。
このような特徴類似度計算処理によれば、画像F1内の各輪郭線上の各分割点候補について、式(27)の特徴類似度G3を求めることができる。特徴類似度G3が大きいほど、対応する分割点候補が輪郭線上の分割点としてより適切であることを表す。
なお、撮像装置1001が出力する映像がカラー映像である場合、映像入力部1011は、各時刻のカラー画像を記憶部1013に格納することもできる。この場合、相違度計算部1033及び類似度計算部1034は、カラー画像のRGB値、色差信号等を画素値として用いて、分割スコアE3及び特徴類似度G3を計算してもよい。
図24は、図11のステップ1108における分割点決定処理の例を示すフローチャートである。まず、分割点決定部1035は、画像F1内の1本の輪郭線を選択し、分割スコア1045及び特徴類似度1046を参照して、選択した輪郭線上の各分割点候補に対する特徴評価値E4を、次式により計算する(ステップ2401)。
E4=E3+G3 (31)
そして、分割点決定部1035は、複数の分割点候補に対する特徴評価値E4のうち最大値を選択して、閾値と比較する(ステップ2402)。特徴評価値E4の最大値が閾値以上である場合(ステップ2402,YES)、分割点決定部1035は、最大値に対応する分割点候補を分割点に決定し、決定した分割点の位置で輪郭線を分割する(ステップ2403)。これにより、画像F1内の輪郭線と画像F2内の輪郭線とが、それぞれの分割点で分割される。
そして、分割点決定部1035は、輪郭線情報1043において、画像F1内の輪郭線と画像F2内の輪郭線の分割状態及び分割点位置を更新する(ステップ2404)。輪郭線の分割状態が分割無しである場合、分割点決定部1035は、分割状態を分割有りに変更し、決定した分割点の位置を分割点位置に設定する。
一方、輪郭線の分割状態が分割有りである場合、分割点決定部1035は、分割状態を変更することなく、分割点位置を更新する。このとき、分割点決定部1035は、既に記録されている分割点位置と、決定した分割点の位置との加重平均を求め、求めた位置を分割点位置に設定することができる。記録されている分割点位置の重みを0に設定した場合、決定した分割点の位置が分割点位置に設定される。
次に、分割点決定部1035は、画像F1内のすべての輪郭線を選択したか否かをチェックする(ステップ2405)。未選択の輪郭線が残っている場合(ステップ2405,NO)、分割点決定部1035は、次の輪郭線について、ステップ2401以降の処理を繰り返す。
特徴評価値E4の最大値が閾値未満である場合(ステップ2402,NO)、分割点決定部1035は、輪郭線を分割することなく、ステップ2405以降の処理を行う。そして、すべての輪郭線を選択した場合(ステップ2405,YES)、分割点決定部1035は、処理を終了する。
このような分割点決定処理によれば、画像F1内の各輪郭線と画像F2内の各輪郭線とを最適な分割点で分割することができる。なお、特徴類似度G3のみを特徴評価値E4として用いて、分割点を決定することも可能である。
図25は、分割点決定処理の例を示している。輝度値分布2501は、画像F1内の輪郭線上の輝度値の変化を表し、輝度値分布2502は、画像F2内の対応する輪郭線上の輝度値の変化を表す。各輝度値分布は、各輪郭線上のエッジ点のy座標に対して、輝度値をプロットすることで求められる。
例えば、輝度値分布2501上の点2511が画像F1内の分割点候補に対応する場合、輝度値分布2501は、上側の部分輪郭線の輝度値分布2503と、下側の部分輪郭線の輝度値分布2504とに区分される。同様に、輝度値分布2502上の点2512が画像F2内の分割点候補に対応する場合、輝度値分布2502は、上側の部分輪郭線の輝度値分布2505と、下側の部分輪郭線の輝度値分布2506とに区分される。
次に、画像F1内の上側の部分輪郭線と画像F2内の上側の部分輪郭線のスケール調整を行うことで、輝度値分布2503及び輝度値分布2505は、輝度値分布2507及び輝度値分布2509にそれぞれ変換される。また、画像F1内の下側の部分輪郭線と画像F2内の下側の部分輪郭線のスケール調整を行うことで、輝度値分布2504及び輝度値分布2506は、輝度値分布2508及び輝度値分布2510にそれぞれ変換される。
この場合、輝度値分布2507と輝度値分布2509との差分から、式(22)の画素値類似度R1が計算され、輝度値分布2508と輝度値分布2510との差分から、式(25)の画素値類似度R3が計算される。しかし、画素値類似度R1及び画素値類似度R3が小さいため、結果的に式(31)の特徴評価値E4が小さくなり、点2511及び点2512に対応する2個の分割点候補は分割点として採用されない。
一方、輝度値分布2501上の点2513が画像F1内の分割点候補に対応する場合、輝度値分布2501は、上側の部分輪郭線の輝度値分布2521と、下側の部分輪郭線の輝度値分布2522とに区分される。同様に、輝度値分布2502上の点2514が画像F2内の分割点候補に対応する場合、輝度値分布2502は、上側の部分輪郭線の輝度値分布2523と、下側の部分輪郭線の輝度値分布2524とに区分される。
次に、画像F1内の上側の部分輪郭線と画像F2内の上側の部分輪郭線のスケール調整を行うことで、輝度値分布2521及び輝度値分布2523は、輝度値分布2525及び輝度値分布2527にそれぞれ変換される。また、画像F1内の下側の部分輪郭線と画像F2内の下側の部分輪郭線のスケール調整を行うことで、輝度値分布2522及び輝度値分布2524は、輝度値分布2526及び輝度値分布2528にそれぞれ変換される。
この場合、輝度値分布2525と輝度値分布2527との差分から、式(22)の画素値類似度R1が計算され、輝度値分布2526と輝度値分布2528との差分から、式(25)の画素値類似度R3が計算される。そして、画素値類似度R1及び画素値類似度R3が大きいため、結果的に式(31)の特徴評価値E4が大きくなり、点2513及び点2514に対応する2個の分割点候補が分割点として採用される。
図26は、図11のステップ1109における立体物検出処理の例を示すフローチャートである。まず、特定部713は、画像F1内の1本の輪郭線を選択し、輪郭線情報1043を参照して、選択した輪郭線と同じ輪郭線IDを有する輪郭線が画像F2内に存在するか否かをチェックする(ステップ2601)。
同じ輪郭線IDを有する輪郭線が画像F2内に存在する場合(ステップ2601,YES)、特定部713は、輪郭線情報1043を参照して、画像F1内の輪郭線と画像F2内の輪郭線を、それぞれの分割点位置で分割する(ステップ2602)。そして、特定部713は、上側及び下側の部分輪郭線の端点のオプティカルフローに基づいて、各部分輪郭線のフロー量を計算する。
次に、特定部713は、各部分輪郭線のフロー量を閾値と比較する(ステップ2603)。フロー量が閾値以上である場合(ステップ2603,YES)、特定部713は、その部分輪郭線を有する領域は立体物の領域であると判定し、その領域を含む検出結果1047を生成する(ステップ2604)。フロー量に対する閾値は、例えば、車両の移動量と、画像F1及び画像F2内における部分輪郭線の位置とに基づいて、設定することができる。
一方、フロー量が閾値未満である場合(ステップ2603,YES)、特定部713は、その部分輪郭線を有する領域は路面上の模様の領域であると判定する(ステップ2605)。
次に、特定部713は、画像F1内のすべての輪郭線を選択したか否かをチェックする(ステップ2606)。未選択の輪郭線が残っている場合(ステップ2606,NO)、特定部713は、次の輪郭線について、ステップ2601以降の処理を繰り返す。そして、すべての輪郭線を選択した場合(ステップ2606,YES)、特定部713は、処理を終了する。
出力部1012は、特定部713が生成した検出結果1047を用いて、立体物の領域を強調した画像1041を画面上に表示してもよく、ドライバに対する警告音声を出力してもよい。
図7及び図10の画像解析装置701の構成は一例に過ぎず、画像解析装置701の用途又は条件に応じて、一部の構成要素を省略又は変更してもよい。例えば、エッジ検出処理が画像解析装置701の外部で行われる場合は、映像入力部1011及び特徴点抽出部1021を省略することができる。特徴類似度G3のみを用いて分割点を決定する場合は、相違度計算部1033を省略することができる。撮像装置1001は、自走式ロボット、動物等の移動体に搭載されていてもよい。
図8、図11、図12、図16、図17、図20、図22〜図24、及び図26のフローチャートは一例に過ぎず、画像解析装置701の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図11の画像解析処理において、エッジ検出処理が画像解析装置701の外部で行われる場合は、ステップ1101及びステップ1102の処理を省略することができる。特徴類似度G3のみを用いて分割点を決定する場合は、ステップ1106の処理を省略することができる。
図12のステップ1202において、輪郭線抽出部1022は、エッジ点Aを含むラインよりも1本上のラインに含まれる3画素だけでなく、その両側の画素を含む、より多くの画素を探索対象として、エッジ点を探索してもよい。
図16の輪郭線照合処理において、追跡に失敗した輪郭線を削除する必要がない場合は、ステップ1607〜ステップ1609の処理を省略することができる。ステップ1604及びステップ1605において、照合部1031は、2本の輪郭線の相違度の代わりに、2本の輪郭線の類似度に基づいて、それらの輪郭線が同じ輪郭線であるか否かを判定してもよい。
図22の分割スコア計算処理において、相違度計算部1033は、画素値相違度又は傾き相違度のいずれか一方に基づいて、分割スコアE3を計算してもよい。図23の特徴類似度計算処理において、類似度計算部1034は、画素値類似度又は傾き類似度のいずれか一方に基づいて、特徴類似度G3を計算してもよい。
図24の分割点決定処理において、特徴類似度G3のみを用いて分割点を決定する場合、ステップ2401において、分割点決定部1035は、特徴類似度G3を特徴評価値E4として用いる。
図1、図3、図5、図6、図9、図18、及び図21の画像は一例に過ぎず、画像解析装置701の構成又は条件に応じて、別の画像が撮影されることもある。図2の路面上の模様及び立体物は一例に過ぎず、撮影環境に応じて、別の物体が撮影されることもある。図13及び図14のエッジ点は一例に過ぎず、撮影された画像に応じて、別のエッジ点が検出されることもある。
図15の輪郭線情報は一例に過ぎず、画像解析装置701の構成又は条件に応じて、一部の情報を省略又は変更してもよい。例えば、追跡に失敗した輪郭線を削除する必要がない場合は、ロスト回数を省略することができる。図25の輝度値分布は一例に過ぎず、輝度値分布は撮影された画像に応じて変化する。
式(1)〜式(31)は一例に過ぎず、画像解析装置701の構成又は条件に応じて、別の計算式を用いてもよい。
画像から抽出される各領域の画像特徴として、輪郭線以外の画像特徴を用いることも可能である。例えば、各領域に含まれる画素集合を画像特徴として抽出する場合、特定領域の画素集合と、立体物の領域の画素集合との間の境界線が、特定領域と立体物との境界として用いられる。
図7及び図10の画像解析装置701は、ハードウェア回路として実装することもでき、図27に示すような情報処理装置(コンピュータ)を用いて実装することもできる。
図27の情報処理装置は、Central Processing Unit(CPU)2701、メモリ2702、入力装置2703、出力装置2704、補助記憶装置2705、媒体駆動装置2706、及びネットワーク接続装置2707を備える。これらの構成要素はバス2708により互いに接続されている。図10の撮像装置1001は、バス2708に接続されていてもよい。
メモリ2702は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ2702は、図10の記憶部1013として用いることができる。
CPU2701(プロセッサ)は、例えば、メモリ2702を利用してプログラムを実行することにより、図7及び図10の抽出部711、決定部712、及び特定部713として動作する。CPU2701は、図10の映像入力部1011、特徴点抽出部1021、輪郭線抽出部1022、照合部1031、生成部1032、相違度計算部1033、類似度計算部1034、及び分割点決定部1035としても動作する。
入力装置2703は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示や情報の入力に用いられる。出力装置2704は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。出力装置2704は、図10の出力部1012として用いることができる。処理結果は、検出結果1047であってもよい。
補助記憶装置2705は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置2705は、ハードディスクドライブ又はフラッシュメモリであってもよい。補助記憶装置2705は、図10の記憶部1013として用いることができる。情報処理装置は、補助記憶装置2705にプログラム及びデータを格納しておき、それらをメモリ2702にロードして使用することができる。
媒体駆動装置2706は、可搬型記録媒体2709を駆動し、その記録内容にアクセスする。可搬型記録媒体2709は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体2709は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体2709にプログラム及びデータを格納しておき、それらをメモリ2702にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ2702、補助記憶装置2705、又は可搬型記録媒体2709のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置2707は、Local Area Network、Wide Area Network等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。ネットワーク接続装置2707は、図10の出力部1012として用いることができる。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置2707を介して受信し、それらをメモリ2702にロードして使用することができる。
情報処理装置は、ネットワーク接続装置2707を介して、ユーザ端末から処理要求を受信し、検出結果1047をユーザ端末へ送信することもできる。
なお、情報処理装置が図27のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置がユーザ端末から通信ネットワーク経由で処理要求を受信する場合は、入力装置2703及び出力装置2704を省略してもよい。また、可搬型記録媒体2709又は通信ネットワークを利用しない場合は、媒体駆動装置2706又はネットワーク接続装置2707を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図3乃至図27を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、前記撮像装置によって前記第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出し、
前記第1領域の画像特徴に基づいて、前記第1領域に含まれる前記面上の特定領域と前記面上に存在する立体物との境界の候補となる第1位置を求め、
前記第1時刻と前記第2時刻との間における前記移動体の移動量に基づいて、前記第1位置に対応する前記第2領域内の境界の候補となる第2位置を求め、
前記第1位置を前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2位置を前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度に基づいて、前記第1位置を前記第1領域内の前記境界に決定し、
決定した前記境界に基づいて前記第1領域内の前記立体物の領域を特定する、
処理をコンピュータに実行させる画像解析プログラム。
(付記2)
前記コンピュータは、前記第1領域内の前記境界の候補として、前記第1位置を含む複数の位置を求め、前記第2領域内の前記境界の候補として、前記第2位置を含む複数の位置を求め、前記第1領域内の前記複数の位置それぞれを前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2領域内の前記複数の位置それぞれを前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度を含む特徴評価値を求め、前記第1位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値と、前記第1位置以外の位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値とを比較した結果に基づいて、前記第1位置を前記第1領域内の前記境界に決定することを特徴とする付記1記載の画像解析プログラム。
(付記3)
前記第1領域の画像特徴は、前記面上の前記特定領域の第1エッジ線分と前記立体物の高さ方向の第2エッジ線分とを含む第3エッジ線分であり、前記第2領域の画像特徴は、前記第2領域に含まれる第4エッジ線分であり、前記第1領域内の前記複数の位置は、前記第3エッジ線分上における前記第1エッジ線分と前記第2エッジ線分との境界の候補であり、前記第2領域内の前記複数の位置は、前記第4エッジ線分上の境界の候補であり、前記コンピュータは、前記第1領域内の前記複数の位置それぞれを前記第3エッジ線分上の前記境界として用い、前記第2領域内の前記複数の位置それぞれを前記第4エッジ線分上の前記境界として用いて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする付記2記載の画像解析プログラム。
(付記4)
前記コンピュータは、前記第2画像から抽出された複数のエッジ線分の中から、前記移動体の前記移動量と前記撮像装置の設置情報とに基づいて、前記第3エッジ線分に対応する前記第4エッジ線分を特定し、前記第1領域内の前記複数の位置が前記第2エッジ線分上に存在するという条件を用いて、前記第1領域内の前記複数の位置それぞれから前記第2領域内の前記複数の位置それぞれを求めることを特徴とする付記3記載の画像解析プログラム。
(付記5)
前記コンピュータは、前記第3エッジ線分の一方の端点と前記境界との間の第1部分エッジ線分の画素値と、前記第4エッジ線分の一方の端点と前記境界との間の第2部分エッジ線分の画素値との類似度を示す第1画素値類似度と、前記第3エッジ線分の他方の端点と前記境界との間の第3部分エッジ線分の画素値と、前記第4エッジ線分の他方の端点と前記境界との間の第4部分エッジ線分の画素値との類似度を示す第2画素値類似度とに基づいて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする付記3又は4記載の画像解析プログラム。
(付記6)
前記コンピュータは、前記第1部分エッジ線分の傾きと前記第2部分エッジ線分の傾きとの類似度を示す第1傾き類似度と、前記第3部分エッジ線分の傾きと前記第4部分エッジ線分の傾きとの類似度を示す第2傾き類似度とに基づいて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする付記5記載の画像解析プログラム。
(付記7)
前記コンピュータは、前記第1部分エッジ線分の前記画素値と前記第3部分エッジ線分の前記画素値との相違度を示す第1画素値相違度に基づいて、前記第3エッジ線分上の前記境界に対する第1評価値を求め、前記第2部分エッジ線分の画素値と前記第4部分エッジ線分の画素値との相違度を示す第2画素値相違度に基づいて、前記第4エッジ線分上の前記境界に対する第2評価値を求め、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度と、前記第1評価値と、前記第2評価値とを用いて、前記特徴評価値を求めることを特徴とする付記5又は6記載の画像解析プログラム。
(付記8)
前記コンピュータは、前記第1部分エッジ線分の傾きと前記第3部分エッジ線分の傾きとの相違度を示す第1傾き相違度に基づいて、前記第1評価値を求め、前記第2部分エッジ線分の傾きと前記第4部分エッジ線分の傾きとの相違度を示す第2傾き相違度に基づいて、前記第2評価値を求めることを特徴とする付記7記載の画像解析プログラム。
(付記9)
前記移動体は車両であり、前記撮像装置は前記車両の前方又は後方に設置され、前記特定領域は前記面上の模様であることを特徴とする付記1乃至8のいずれか1項に記載の画像解析プログラム。
(付記10)
面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、前記撮像装置によって前記第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出する抽出部と、
前記第1領域の画像特徴に基づいて、前記第1領域に含まれる前記面上の特定領域と前記面上に存在する立体物との境界の候補となる第1位置を求め、前記第1時刻と前記第2時刻との間における前記移動体の移動量に基づいて、前記第1位置に対応する前記第2領域内の境界の候補となる第2位置を求め、前記第1位置を前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2位置を前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度に基づいて、前記第1位置を前記第1領域内の前記境界に決定する決定部と、
前記決定部が決定した前記境界に基づいて、前記第1領域内の前記立体物の領域を特定する特定部と、
を備えることを特徴とする画像解析装置。
(付記11)
前記決定部は、前記第1領域内の前記境界の候補として、前記第1位置を含む複数の位置を求め、前記第2領域内の前記境界の候補として、前記第2位置を含む複数の位置を求め、前記第1領域内の前記複数の位置それぞれを前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2領域内の前記複数の位置それぞれを前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度を含む特徴評価値を求め、前記第1位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値と、前記第1位置以外の位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値とを比較した結果に基づいて、前記第1位置を前記第1領域内の前記境界に決定することを特徴とする付記10記載の画像解析装置。
(付記12)
前記第1領域の画像特徴は、前記面上の前記特定領域の第1エッジ線分と前記立体物の高さ方向の第2エッジ線分とを含む第3エッジ線分であり、前記第2領域の画像特徴は、前記第2領域に含まれる第4エッジ線分であり、前記第1領域内の前記複数の位置は、前記第3エッジ線分上における前記第1エッジ線分と前記第2エッジ線分との境界の候補であり、前記第2領域内の前記複数の位置は、前記第4エッジ線分上の境界の候補であり、前記決定部は、前記第1領域内の前記複数の位置それぞれを前記第3エッジ線分上の前記境界として用い、前記第2領域内の前記複数の位置それぞれを前記第4エッジ線分上の前記境界として用いて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする付記11記載の画像解析装置。
(付記13)
コンピュータが、
面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、前記撮像装置によって前記第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出し、
前記第1領域の画像特徴に基づいて、前記第1領域に含まれる前記面上の特定領域と前記面上に存在する立体物との境界の候補となる第1位置を求め、
前記第1時刻と前記第2時刻との間における前記移動体の移動量に基づいて、前記第1位置に対応する前記第2領域内の境界の候補となる第2位置を求め、
前記第1位置を前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2位置を前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度に基づいて、前記第1位置を前記第1領域内の前記境界に決定し、
決定した前記境界に基づいて前記第1領域内の前記立体物の領域を特定する、
ことを特徴とする画像解析方法。
(付記14)
前記コンピュータは、前記第1領域内の前記境界の候補として、前記第1位置を含む複数の位置を求め、前記第2領域内の前記境界の候補として、前記第2位置を含む複数の位置を求め、前記第1領域内の前記複数の位置それぞれを前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2領域内の前記複数の位置それぞれを前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度を含む特徴評価値を求め、前記第1位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値と、前記第1位置以外の位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値とを比較した結果に基づいて、前記第1位置を前記第1領域内の前記境界に決定することを特徴とする付記13記載の画像解析方法。
(付記15)
前記第1領域の画像特徴は、前記面上の前記特定領域の第1エッジ線分と前記立体物の高さ方向の第2エッジ線分とを含む第3エッジ線分であり、前記第2領域の画像特徴は、前記第2領域に含まれる第4エッジ線分であり、前記第1領域内の前記複数の位置は、前記第3エッジ線分上における前記第1エッジ線分と前記第2エッジ線分との境界の候補であり、前記第2領域内の前記複数の位置は、前記第4エッジ線分上の境界の候補であり、前記コンピュータは、前記第1領域内の前記複数の位置それぞれを前記第3エッジ線分上の前記境界として用い、前記第2領域内の前記複数の位置それぞれを前記第4エッジ線分上の前記境界として用いて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする付記14記載の画像解析方法。
101、102、301、1041 画像
111、112 物体
113、211 矢印
121、122、207、401、602、603、1903、2511〜2514 点
131〜134、322、323、1821、1822、1831、1832 端点
201 路面
202、311 模様
203、312、2131 立体物
204 着目点
205 車両
206 カメラ
212〜214 方向
321、325、326、1801、1802、2101、2102 輪郭線
324、502、504 分割点
402、403、902〜905、1803 部分輪郭線
501、503、601 領域
701 画像解析装置
711 抽出部
712 決定部
713 特定部
901−1〜901−N 組み合わせ
1001 撮像装置
1011 映像入力部
1012 出力部
1013 記憶部
1021 特徴点抽出部
1022 輪郭線抽出部
1031 照合部
1032 生成部
1033 相違度計算部
1034 類似度計算部
1035 分割点決定部
1042 特徴点画像
1043 輪郭線情報
1044 候補リスト
1045 分割スコア
1046 特徴類似度
1047 検出結果
1301〜1303 画素
1811〜1813 直線
1823 交点
1901、1902 線分
2111〜2115、2121〜2125 エッジ点
2501〜2510、2521〜2528 輝度値分布
2701 CPU
2702 メモリ
2703 入力装置
2704 出力装置
2705 補助記憶装置
2706 媒体駆動装置
2707 ネットワーク接続装置
2708 バス
2709 可搬型記録媒体

Claims (10)

  1. 面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、前記撮像装置によって前記第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出し、
    前記第1領域の画像特徴に基づいて、前記第1領域に含まれる前記面上の特定領域と前記面上に存在する立体物との境界の候補となる第1位置を求め、
    前記第1時刻と前記第2時刻との間における前記移動体の移動量に基づいて、前記第1位置に対応する前記第2領域内の境界の候補となる第2位置を求め、
    前記第1位置を前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2位置を前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度に基づいて、前記第1位置を前記第1領域内の前記境界に決定し、
    決定した前記境界に基づいて前記第1領域内の前記立体物の領域を特定する、
    処理をコンピュータに実行させる画像解析プログラム。
  2. 前記コンピュータは、前記第1領域内の前記境界の候補として、前記第1位置を含む複数の位置を求め、前記第2領域内の前記境界の候補として、前記第2位置を含む複数の位置を求め、前記第1領域内の前記複数の位置それぞれを前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2領域内の前記複数の位置それぞれを前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度を含む特徴評価値を求め、前記第1位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値と、前記第1位置以外の位置を前記第1領域内の前記境界として用いた場合の前記特徴評価値とを比較した結果に基づいて、前記第1位置を前記第1領域内の前記境界に決定することを特徴とする請求項1記載の画像解析プログラム。
  3. 前記第1領域の画像特徴は、前記面上の前記特定領域の第1エッジ線分と前記立体物の高さ方向の第2エッジ線分とを含む第3エッジ線分であり、前記第2領域の画像特徴は、前記第2領域に含まれる第4エッジ線分であり、前記第1領域内の前記複数の位置は、前記第3エッジ線分上における前記第1エッジ線分と前記第2エッジ線分との境界の候補であり、前記第2領域内の前記複数の位置は、前記第4エッジ線分上の境界の候補であり、前記コンピュータは、前記第1領域内の前記複数の位置それぞれを前記第3エッジ線分上の前記境界として用い、前記第2領域内の前記複数の位置それぞれを前記第4エッジ線分上の前記境界として用いて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする請求項2記載の画像解析プログラム。
  4. 前記コンピュータは、前記第2画像から抽出された複数のエッジ線分の中から、前記移動体の前記移動量と前記撮像装置の設置情報とに基づいて、前記第3エッジ線分に対応する前記第4エッジ線分を特定し、前記第1領域内の前記複数の位置が前記第2エッジ線分上に存在するという条件を用いて、前記第1領域内の前記複数の位置それぞれから前記第2領域内の前記複数の位置それぞれを求めることを特徴とする請求項3記載の画像解析プログラム。
  5. 前記コンピュータは、前記第3エッジ線分の一方の端点と前記境界との間の第1部分エッジ線分の画素値と、前記第4エッジ線分の一方の端点と前記境界との間の第2部分エッジ線分の画素値との類似度を示す第1画素値類似度と、前記第3エッジ線分の他方の端点と前記境界との間の第3部分エッジ線分の画素値と、前記第4エッジ線分の他方の端点と前記境界との間の第4部分エッジ線分の画素値との類似度を示す第2画素値類似度とに基づいて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする請求項3又は4記載の画像解析プログラム。
  6. 前記コンピュータは、前記第1部分エッジ線分の傾きと前記第2部分エッジ線分の傾きとの類似度を示す第1傾き類似度と、前記第3部分エッジ線分の傾きと前記第4部分エッジ線分の傾きとの類似度を示す第2傾き類似度とに基づいて、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度を求めることを特徴とする請求項5記載の画像解析プログラム。
  7. 前記コンピュータは、前記第1部分エッジ線分の前記画素値と前記第3部分エッジ線分の前記画素値との相違度を示す第1画素値相違度に基づいて、前記第3エッジ線分上の前記境界に対する第1評価値を求め、前記第2部分エッジ線分の画素値と前記第4部分エッジ線分の画素値との相違度を示す第2画素値相違度に基づいて、前記第4エッジ線分上の前記境界に対する第2評価値を求め、前記第3エッジ線分と前記第4エッジ線分との前記特徴類似度と、前記第1評価値と、前記第2評価値とを用いて、前記特徴評価値を求めることを特徴とする請求項5又は6記載の画像解析プログラム。
  8. 前記コンピュータは、前記第1部分エッジ線分の傾きと前記第3部分エッジ線分の傾きとの相違度を示す第1傾き相違度に基づいて、前記第1評価値を求め、前記第2部分エッジ線分の傾きと前記第4部分エッジ線分の傾きとの相違度を示す第2傾き相違度に基づいて、前記第2評価値を求めることを特徴とする請求項7記載の画像解析プログラム。
  9. 面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、前記撮像装置によって前記第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出する抽出部と、
    前記第1領域の画像特徴に基づいて、前記第1領域に含まれる前記面上の特定領域と前記面上に存在する立体物との境界の候補となる第1位置を求め、前記第1時刻と前記第2時刻との間における前記移動体の移動量に基づいて、前記第1位置に対応する前記第2領域内の境界の候補となる第2位置を求め、前記第1位置を前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2位置を前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度に基づいて、前記第1位置を前記第1領域内の前記境界に決定する決定部と、
    前記決定部が決定した前記境界に基づいて、前記第1領域内の前記立体物の領域を特定する特定部と、
    を備えることを特徴とする画像解析装置。
  10. コンピュータが、
    面上を移動する移動体に設置された撮像装置によって第1時刻に撮影された第1画像から、第1領域の画像特徴を抽出し、前記撮像装置によって前記第1時刻とは異なる第2時刻に撮影された第2画像から、第2領域の画像特徴を抽出し、
    前記第1領域の画像特徴に基づいて、前記第1領域に含まれる前記面上の特定領域と前記面上に存在する立体物との境界の候補となる第1位置を求め、
    前記第1時刻と前記第2時刻との間における前記移動体の移動量に基づいて、前記第1位置に対応する前記第2領域内の境界の候補となる第2位置を求め、
    前記第1位置を前記第1領域内の前記境界として用いた場合の前記第1領域の画像特徴と、前記第2位置を前記第2領域内の前記境界として用いた場合の前記第2領域の画像特徴との特徴類似度に基づいて、前記第1位置を前記第1領域内の前記境界に決定し、
    決定した前記境界に基づいて前記第1領域内の前記立体物の領域を特定する、
    ことを特徴とする画像解析方法。
JP2016044951A 2016-03-08 2016-03-08 画像解析プログラム、画像解析装置、及び画像解析方法 Active JP6620607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044951A JP6620607B2 (ja) 2016-03-08 2016-03-08 画像解析プログラム、画像解析装置、及び画像解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044951A JP6620607B2 (ja) 2016-03-08 2016-03-08 画像解析プログラム、画像解析装置、及び画像解析方法

Publications (2)

Publication Number Publication Date
JP2017162125A true JP2017162125A (ja) 2017-09-14
JP6620607B2 JP6620607B2 (ja) 2019-12-18

Family

ID=59857901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044951A Active JP6620607B2 (ja) 2016-03-08 2016-03-08 画像解析プログラム、画像解析装置、及び画像解析方法

Country Status (1)

Country Link
JP (1) JP6620607B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022102371A1 (ja) * 2020-11-16 2022-05-19
US11572064B2 (en) * 2017-08-09 2023-02-07 Valeo Schalter Und Sensoren Gmbh Method for monitoring a surrounding area of a motor vehicle, sensor control unit, driver assistance system and motor vehicle
CN117058358A (zh) * 2023-10-12 2023-11-14 之江实验室 一种场景边界检测方法和移动平台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用画像処理装置
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
JP2011203766A (ja) * 2010-03-24 2011-10-13 Daihatsu Motor Co Ltd 車両用画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用画像処理装置
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
JP2011203766A (ja) * 2010-03-24 2011-10-13 Daihatsu Motor Co Ltd 車両用画像処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山口 晃一郎、外2名: ""車載単眼カメラによる車両前方の障害物検出"", 情報処理学会研究報告, vol. 2005, no. 112, JPN6019039760, 18 November 2005 (2005-11-18), JP, pages 69 - 76, ISSN: 0004136178 *
山岸 智、外6名: ""画像認識LSI「Visconti」による車載画像認識技術"", 映像情報インダストリアル, vol. 38, no. 6, JPN6019039763, 1 May 2006 (2006-05-01), JP, pages 23 - 29, ISSN: 0004136179 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11572064B2 (en) * 2017-08-09 2023-02-07 Valeo Schalter Und Sensoren Gmbh Method for monitoring a surrounding area of a motor vehicle, sensor control unit, driver assistance system and motor vehicle
JPWO2022102371A1 (ja) * 2020-11-16 2022-05-19
WO2022102371A1 (ja) * 2020-11-16 2022-05-19 株式会社デンソー 物体検出装置、物体検出方法
CN117058358A (zh) * 2023-10-12 2023-11-14 之江实验室 一种场景边界检测方法和移动平台
CN117058358B (zh) * 2023-10-12 2024-03-22 之江实验室 一种场景边界检测方法和移动平台

Also Published As

Publication number Publication date
JP6620607B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
US10395126B2 (en) Sign based localization
US20230014725A1 (en) Map generation device, map generation method, and map generation ocmputer program
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
JP6794243B2 (ja) 物体検出装置
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6384082B2 (ja) 移動物体検出装置、移動物体検出方法、及びプログラム
JP4157620B2 (ja) 移動物体検出装置及びその方法
US20130215270A1 (en) Object detection apparatus
JP2017054494A5 (ja)
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2016148962A (ja) 物体検知装置
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
EP3324359B1 (en) Image processing device and image processing method
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP2012212282A (ja) 路面状態検出装置、路面状態検出方法、及び路面状態検出プログラム
JP6515704B2 (ja) 車線検出装置及び車線検出方法
JP2012243051A (ja) 環境認識装置および環境認識方法
JP6620607B2 (ja) 画像解析プログラム、画像解析装置、及び画像解析方法
KR101366871B1 (ko) 관심영역 분할을 통한 곡선차선 검출장치 및 그 방법
JPH11351862A (ja) 前方車両検出方法及び装置
JP6750385B2 (ja) 画像処理プログラム、画像処理方法および画像処理装置
JP6795224B2 (ja) 移動体検知装置、移動体検知方法、及びプログラム
JP2014170368A (ja) 画像処理装置、方法及びプログラム並びに移動体
JP2018092354A (ja) 物体検出装置および物体検出方法
KR20220160850A (ko) 소실점을 추정하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191105

R150 Certificate of patent or registration of utility model

Ref document number: 6620607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150