JP5710752B2 - 検出装置、方法及びプログラム - Google Patents

検出装置、方法及びプログラム Download PDF

Info

Publication number
JP5710752B2
JP5710752B2 JP2013514456A JP2013514456A JP5710752B2 JP 5710752 B2 JP5710752 B2 JP 5710752B2 JP 2013514456 A JP2013514456 A JP 2013514456A JP 2013514456 A JP2013514456 A JP 2013514456A JP 5710752 B2 JP5710752 B2 JP 5710752B2
Authority
JP
Japan
Prior art keywords
existence probability
road surface
estimation
projection position
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013514456A
Other languages
English (en)
Other versions
JPWO2014076769A1 (ja
Inventor
晃仁 関
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5710752B2 publication Critical patent/JP5710752B2/ja
Publication of JPWO2014076769A1 publication Critical patent/JPWO2014076769A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、検出装置、方法及びプログラムに関する。
従来から、自動車に設置された複数のカメラで撮像した複数の画像と当該複数の画像間の視差(対応関係)とを用いて空間位置を推定し、推定した空間位置に基づいて自動車の周囲に存在する物体(障害物)と路面との境界を検出する技術が知られている。
特許第4406381号公報
しかしながら、上述したような従来技術では、複数の画像間における視差及び奥行きが一定の関係にあることが前提とされており、当該前提が成立しなければ、物体と路面との境界を正しく検出することはできない。本発明が解決しようとする課題は、複数の画像間における視差及び奥行きが一定の関係になくても物体と路面との境界を検出することができる検出装置、方法及びプログラムを提供することである。
実施形態の検出装置は、第1推定部と、第2推定部と、第3推定部と、射影部と、算出部と、検出部と、を備える。第1推定部は、異なる撮像位置間の空間的な第1位置関係を推定する。第2推定部は、前記異なる撮像位置で路面上の物体が撮像された複数の撮像画像と前記第1位置関係とを用いて、前記複数の撮像画像のうちのいずれかである推定用撮像画像に映る前記物体の3次元位置及び当該3次元位置の誤差位置を推定する。第3推定部は、前記推定用撮像画像の撮像位置と路面との間の第2位置関係を推定する。射影部は、前記第2位置関係を用いて、前記推定用撮像画像の前記撮像位置を前記路面上に射影して第1射影位置を得、前記3次元位置を前記路面上に射影して第2射影位置を得、前記誤差位置を前記路面上に射影して第3射影位置を得る。算出部は、前記第1射影位置と前記第2射影位置とを通過する直線において、前記第1射影位置及び前記第3射影位置間よりも前記第2射影位置及び前記第3射影位置間の方が物体の存在確率が高くなるように更新して前記存在確率を算出する。検出部は、前記存在確率を用いて前記路面と前記物体との境界を検出する。
第1実施形態の検出装置の例を示す構成図。 第1実施形態の検出処理例を示すフローチャート。 第1実施形態の撮像部の配置、動き、及び撮像タイミング例の説明図。 第1実施形態の撮像画像の例を示す図。 第1実施形態の撮像画像の例を示す図。 第1実施形態の推定処理例を示すフローチャート。 第1実施形態の撮像画像の例を示す図。 第1実施形態の撮像画像の例を示す図。 第1実施形態の撮像画像における対応点の拡大図。 第1実施形態の初期領域が設定された撮像画像の例を示す図。 第1実施形態の撮像部及び路面の位置及び姿勢の関係の例を示す図。 第1実施形態の物体の存在確率の算出手法の例を示す説明図。 第1実施形態の射影処理及び存在確率算出処理例を示すフローチャート。 第1実施形態の障害物の存在確率の一例を示す図。 第1実施形態の出力例を示す図。 第2実施形態の検出装置の例を示す構成図。 第2実施形態の検出処理例を示すフローチャート。 各実施形態の検出装置ハードウェアの構成例を示す図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1実施形態)
図1は、第1実施形態の検出装置10の一例を示す構成図である。図1に示すように、検出装置10は、撮像部11と、第1推定部13と、第2推定部15と、第3推定部17と、射影部19と、算出部21と、検出部23と、出力制御部25と、出力部27とを、備える。
撮像部11は、例えば、デジタルカメラなどの撮像装置により実現できる。第1推定部13、第2推定部15、第3推定部17、射影部19、算出部21、検出部23、及び出力制御部25は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。出力部27は、例えば、液晶ディスプレイやタッチパネル式ディスプレイなどの表示出力用の表示装置、又はスピーカなどの音声出力用の音声装置などで実現してもよいし、これらの装置を併用して実現してもよい。
なお第1実施形態では、検出装置10を自動車に適用し、路面上に存在する障害物を検出する場合を例に取り説明するが、これに限定されるものではない。検出装置10は、移動体に適用でき、例えば、自律移動ロボットなどに適用してもよい。
図2は、第1実施形態の検出装置10で行われる検出処理の手順の流れの一例を示すフローチャートである。
まずステップS101では、撮像部11は、時系列で撮像した撮像画像や撮像部11(カメラ)の内部パラメータを入力する。内部パラメータは、レンズの焦点距離、1画素あたりの大きさ、及び画像中心などであり、第1実施形態では、3行3列の行列で表現されるものとする。
図3は、第1実施形態の撮像部11の配置、動き、及び撮像タイミングの一例の説明図である。図3に示す例では、撮像部11(カメラ)は、車両104の後面に進行方向(バック方向)と一致するように配置されており、車両104は、バックで後方(進行方向)に移動している。そして撮像部11は、まず位置100に位置した時点で画像を撮像して入力し、続いて、位置102に位置した時点で画像を撮像して入力する。
図4Aは、第1実施形態の撮像部11により位置102から撮像された撮像画像103の一例を示す図であり、図4Bは、第1実施形態の撮像部11により位置100から撮像された撮像画像101の一例を示す図である。図3に示す例では、車両104の進行方向に人物105が立っているため、撮像画像101、103には、人物105が写っている。なお、位置102の方が位置100よりも人物105との距離が近いため、撮像画像103の方が撮像画像101よりも人物105が大きく写っている。
但し、撮像部11の配置、動き、及び撮像画像の入力タイミングは、これに限定されるものではなく、また、撮像画像を3枚以上撮像するようにしてもよい。
また撮像部11は、撮像した撮像画像とともに内部パラメータを入力するが、第1実施形態では、図3に示すように、複数の撮像画像を1つの撮像部11(1台のカメラ)で撮像することを想定しているため、各撮像画像の内部パラメータは、変化せず一定の値となる。このため、撮像部11は、撮像画像の入力時に内部パラメータを入力するのではなく、内部パラメータを事前に入力しておいてもよい。
続いてステップS103では、第1推定部13は、異なる撮像位置間の空間的な位置関係(第1位置関係の一例)を推定する。具体的には、第1推定部13は、撮像部11から入力された時系列の撮像画像及び内部パラメータを用いて、時系列の撮像画像それぞれの撮像位置間の相対的な位置関係である回転行列及び並進ベクトルを推定する。
図5は、第1実施形態の第1推定部13で行われる推定処理の手順の流れの一例を示すフローチャートである。なお図5に示す例では、撮像画像101、103間の回転行列及び並進ベクトルを推定する例について説明する。
まず、第1推定部13は、撮像画像101、103の各々から、特徴点を抽出する(ステップS201)。特徴点の抽出には、例えば、Harrisオペレータを用いればよい。
続いて、第1推定部13は、抽出した撮像画像103の各々の特徴点と撮像画像101の各々の特徴点との撮像画像間での対応付けを行う(ステップS203)。例えば、第1推定部13は、撮像画像103の特徴点から特徴を記述する記述子を計算し、計算した特徴点の記述子に従って撮像画像101の特徴点との特徴点間の類似度を求め、求めた類似度が高いもの(例えば、類似度が閾値以上のもの)を、類似度が高い対応点組とする。
記述子は、例えば、特徴点の周りに設定した小領域内の輝度を用いることができる。なお、小領域内には複数の輝度が含まれるため、小領域内の輝度は、ベクトルで表現されるものとする。特徴点間の類似度については、小領域内の輝度(輝度ベクトル)にSAD(差分絶対値和)などを用いることで、類似度が高い対応点組を求める。
続いて、第1推定部13は、求めた対応点組を用いて、基本行列を算出する(ステップS205)。第1推定部13は、公知の5点法などにより基本行列を求めることができ、例えば、数式(1)を用いて基本行列を算出する。
ここで、Eは基本行列を表し、xは対応点組の一方の画像の正規化画像座標を同次座標系で表し、x’は残りの画像における対応点の位置を正規化画像座標を同次座標系で表し、Tは転置を表す。なお、対応点組の正規化画像座標xとx’は、対応点組を内部パラメータで変換することで求められる。
続いて、第1推定部13は、算出した基本行列を特異値分解で分解し、撮像画像101、103間の回転行列及び並進ベクトルを算出する(ステップS207)。この際、回転行列及び並進ベクトルには4通りの不定性が生じるが、第1推定部13は、撮像位置間の回転変化が小さいこと及び対応点の3次元位置が前方にあることの少なくともいずれかを通じて1つに絞り込むことで決定すればよい。
続いてステップS105では、第2推定部15は、異なる撮像位置で撮像された複数の撮像画像と、第1推定部13により推定された位置関係とを用いて、当該複数の撮像画像のうちのいずれかである推定用撮像画像内の空間位置及び当該空間位置の誤差位置を推定する。具体的には、第2推定部15は、撮像部11から入力された時系列の撮像画像と、第1推定部13により推定された回転行列及び並進ベクトルとを用いて、推定用撮像画像内の3次元位置及び当該3次元位置の誤差位置を推定する。
以下では、図6A及び図6Bを参照しながら、推定用撮像画像である撮像画像103内の点300の3次元位置を推定する例について説明する。図6Aは、第1実施形態の撮像画像103の一例を示す図であり、図6Bは、第1実施形態の撮像画像101の一例を示す図である。なお、3次元位置の推定は、撮像画像101、103間で対応付けを行い、視差を推定して行う。
まず、第2推定部15は、第1推定部13により算出された回転行列及び並進ベクトルを用いて、撮像画像101上でエピポーラ線301を算出し、エピポーラ線301上に任意の点(図6Bでは、点302、303を例示)を設定するとともに当該点の周囲に小領域を設定する。そして第2推定部15は、エピポーラ線301上に設定された各々の点の周囲の小領域の輝度パタンと点300の周囲の小領域の輝度パタンとの類似度を求め、最も輝度パタンが類似している点(図6Bでは、点303)を点300の対応点とすることで、撮像画像101、103間の対応点を求める。
続いて、第2推定部15は、点300及び求められた対応点303を用いて、点300の3次元位置を算出する。ここで、数式(2)で表される3次元位置の同次座標、数式(3)で表される点300の同次座標、数式(4)で表される対応点303の同次座標、並びに内部パラメータK、回転行列R、並進ベクトルtで与えられる撮像画像103、101それぞれの3行4列の投影変換行列P=K(I|0)、P’=(R|t)を用いると、点300の3次元位置は、数式(5)で表される。
詳細には、第2推定部15は、数式(5)に最小2乗法などを用いることで、点300の3次元位置X=(X Y Z)を得る。
続いて、第2推定部15は、対応点303の誤差γを決定し、対応点303が誤差γだけずれた場合の点300の3次元位置を算出する。ここで、第2推定部15は、1画素以下の固定値、又は、対応点303を求める際にエピポーラ線301上の探索に用いたステップ幅を基準に誤差γを決めればよい。図7は、第1実施形態の撮像画像101における対応点303の拡大図である。図7に示す誤差γを考慮した対応点304、305は、数式(6)で表される。
但し、γ +γ =γであり、対応点304、305は、エピポーラ線301上に位置する。
そして第2推定部15は、対応点304、305についても、それぞれ、対応点303の同次座標に代えて対応点304、305の同次座標を数式(5)に適用することにより、点300の3次元位置を算出する。
以降、第2推定部15は、撮像画像103内の点300以外の各点についても上述した3次元位置の推定処理を行うことで、撮像画像103の各位置における3次元位置を推定する。なお第1実施形態では、撮像画像103を推定用撮像画像とし、撮像画像103内の各点の3次元位置を推定する例について説明したが、これに限定されず、撮像画像101を推定用撮像画像とし、撮像画像101内の各点の3次元位置を推定してもよい。
続いてステップS107では、第3推定部17は、推定用撮像画像の撮像位置と路面との間の位置関係(第2位置関係の一例)を推定する。
具体的には、第3推定部17は、第2推定部15により推定された空間位置(3次元位置)を用いて、撮像部11及び路面の姿勢を推定する。但し、第2推定部15により推定された3次元位置には対応位置間違えによる推定エラーが含まれているため、撮像画像103内のどの点が路面に属しているかを判断できない。
そこで第1実施形態では、第3推定部17は、図8に示すように、撮像画像103の下方に初期領域400を設定し、初期領域400内に含まれる各点の3次元位置を使って3次元空間中の平面(路面)を推定する。なお、安定に路面を推定するため、第3推定部17は、RANSAC(RANdom Sample Consensus)を用いて、初期領域400内に含まれる各点をランダムに選択しながら検定して推定していくことが望ましい。第3推定部17は、このように3次元空間中の路面を推定することで、路面の法線ベクトルnと、撮像部11及び路面間の距離dとを、得る。
なお、第1実施形態では、路面の法線ベクトルnと撮像部11及び路面間の距離dとを得るために、第2推定部15により推定された3次元位置を用いる例について説明したが、3次元位置を用いなくてもよい。例えば、撮像部11の設置角度が路面に対して変化しない場合には、撮像部11の設置時に法線ベクトルnと撮像部11及び路面間の距離dとを求めておいてもよいし、また、ジャイロセンサや加速度センサなどを用いて法線ベクトルnと撮像部11及び路面間の距離dとを推定してもよい。
そして、第3推定部17は、図9に示すように、路面の法線ベクトルn=(n,n,n)と、撮像部11及び路面間の距離dとを用いて、撮像部11を中心とした座標系Xから路面を基準とした座標系Xへ座標変換する回転行列R及び並進ベクトルtを推定する。なお、座標系Xから座標系Xへの座標変換により、撮像部11の光軸方向Z軸がZ軸、路面と垂直な方向がY軸、Z軸及びY軸と直交する軸がX軸、にそれぞれ変換され、路面上ではY軸の大きさが0となる。
ここで、座標系Xと座標系Xとの関係は、X=R −1+tとなる。但し、t=(0、0、d)である。また、回転行列Rを一般的な回転行列と考えると、数式(7)で表すことができる。
但し、Cα=cosα、Sα=sinαであり、γやβについても同様である。
また第3推定部17は、座標系Xから座標系Xへの座標変換を、撮像部11の光軸方向のZ軸を路面に投影したときの方向が座標変換後も変わらず、路面上ではY軸の大きさが0となるように定める。これにより、路面の法線ベクトルnがY軸に一致することから、β=arcsin(nz)、α=arccos(ny/cosβ)が求まる。また、法線ベクトルnとZ軸で張る平面上にZ軸が存在することから、γ=0が求まる。このようにして、第3推定部17は、回転行列Rを推定する。
続いてステップS109では、射影部19は、第3推定部17により推定された第2位置関係を用いて、推定用撮像画像の撮像位置を路面上に射影して第1射影位置を得、空間位置を路面上に射影して第2射影位置を得、誤差位置を路面上に射影して第3射影位置を得る。そして算出部21は、第1射影位置と第2射影位置とを通過する直線において、第1射影位置及び第3射影位置間よりも第2射影位置及び第3射影位置間の方が物体の存在確率が高くなるように更新して当該存在確率を算出する。
第1実施形態では、図10に示すように、撮像画像103との位置関係の対応付けが行われ、N画素おきに小領域に区切ったグリッド画像500(存在確率算出用画像の一例)上で、物体の存在確率を算出する。図10に示す例では、撮像画像103とグリッド画像500との位置の対応関係を理解し易くするため、撮像画像103上にグリッド画像500を重畳しているが、実際には重畳させる必要はなく、撮像画像103とグリッド画像500との位置関係が対応付いていればよい。
図11は、第1実施形態の射影部19で行われる射影処理及び算出部21で行われる存在確率算出処理の手順の流れの一例を示すフローチャートである。
まず、射影部19は、数式(8)及び数式(9)を用いて、撮像画像103の撮像位置(詳細には、光学中心)を路面上に射影(投影)した場合の位置を算出し、算出した位置に1/Nを乗じることでグリッド画像500の座標系に変換し、位置501を推定する(ステップS301)。このように、撮像画像103の座標系とグリッド画像500の座標系とは、一意に決定できる。
続いて、射影部19は、撮像画像103上で水平線を算出し、算出した水平線をグリッド画像500の座標系に変換し、水平線502を推定する(ステップS302)。具体的には、射影部19は、数式(10)においてαを設定し、数式(8)及び数式(9)を用いて、撮像画像103上の2点の位置を算出する。これは、数式(10)において+αと−αとが設定されるためである。
そして射影部19は、算出した2点の位置から直線の方程式を求めることで撮像画像103上の水平線を求め、グリッド画像500の座標系に変換することで水平線502を得る。
続いて、射影部19は、撮像画像103上に未処理の注目点があるか否かを確認する(ステップS303)。ここで、注目点は、撮像画像103上の3次元位置の推定に用いられた撮像画像103上の各点である(例えば、図6Aの点300)。射影部19は、撮像画像103上に未処理の注目点がある場合には(ステップS303でYes)、いずれかの未処理の注目点(図10では、注目点300)を処理対象に設定し、ステップS305へ進む。一方、撮像画像103上に未処理の注目点がない場合には(ステップS303でNo)、処理は終了となる。
続いて、射影部19は、処理対象に設定された注目点300の路面上の位置である点503を算出する(ステップS305)。具体的には、射影部19は、第3推定部17により推定された回転行列R及び並進ベクトルtを用いて、注目点300の3次元位置X_300を、路面を基準とした座標系Xへ座標変換し、X_300を得る。そして射影部19は、路面上での位置を求めるためにY軸の大きさを0としたX’_300を再び撮像部11を中心とした座標系Xへ変換してX’_300を得、X’_300を数式(5)に適用することにより、点503を算出する。
続いて、射影部19は、処理対象に設定された注目点300の想定される誤差を算出し、注目点300の路面上の誤差位置である点504、505を算出する(ステップS307)。具体的には、射影部19は、第2推定部15により推定された対応点303が誤差γだけずれた場合(例えば、図7の対応点304、305)の点300の3次元位置を、ステップS305で説明した手順で変換し、点504、505を算出する。なお、射影部19は、数式(11)を用いて、誤差の大きさを算出する。
ここで、edは、誤差の大きさを表し、m50*は、点50*のグリッド画像500上での2次元座標を表す。なお、図10に示す例では、*は、3、4、5のいずれかとなる。
続いて、算出部21は、グリッド画像500上で障害物の存在確率を更新し、障害物の存在確率を算出し(ステップS309)、ステップS303へ戻る。具体的には、算出部21は、数式(12)や数式(13)を用いて、グリッド画像500上で障害物の存在確率を更新する。
ここで、P(E)は障害物の存在確率を表す。また、P(E|O)は障害物の存在が確認されたグリッドにおける障害物の存在確率の更新式を表し、P(E|O ̄)は障害物の存在が確認されていないグリッドの障害物の存在確率の更新式を表し、両者は、障害物の存在が確認されたか否かの条件付き確率により障害物の存在確率P(E)を求めていることに相当する。
また、P(E)は障害物の事前確率を表す。P(E)は障害物の事前確率を表すので、更新前の各グリッドにおける障害物の存在確率を用いることとする。但し、最初の処理を行う場合には、初期値(例えば、障害物の存在の有無の中間状態を意味する0.5)を用いることとする。
P(O|E)は障害物が存在したときに障害物が観測される確率(検出率)を表す。P(O|E)は検出率であるので、Po(0<Po<1)とする。P(O|E ̄)は障害物が存在しないときに障害物が観測される確率(誤検出率)を表す。P(O|E ̄)は誤検出率であるので、Pe(誤差edが大きいほど設定された範囲内で大きくなる)とする。
これにより、誤差edが大きいほどP(E)の更新幅が小さくなるので、P(O|E)を用いた場合にはP(E)が緩やかに上昇するように更新され、P(O|E ̄)を用いた場合にはP(E)が緩やかに下降するように更新される。つまり算出部21は、点503と点504又は点505との間隔が大きいほど、更新幅を小さくして存在確率を更新する。なお、同様の傾向を満たすため、P(O|E ̄)を変化させる代わりに、P(O|E)を誤差edが大きいほど設定された範囲内で小さくなるようにしてもよい。
そして算出部21は、グリッド内の障害物の存在確率を更新する場合には、図10に示すように、位置501と点503とを通過する直線506上に位置するグリッドの各々について存在確率を更新する。
この際、算出部21は、直線506の点504より点501側の区間507に属するグリッドでは、障害物の存在が確認されていないことが想定されるため、数式(13)を用いてP(E)を更新する。また算出部21は、直線506の点504と点505とを結ぶ区間508に属するグリッドでは、障害物の存在が確認されていることが想定されるため、数式(12)を用いてP(E)を更新する。
これにより、区間507に属するグリッドでは、P(E)が小さくなり、区間508に属するグリッドでは、P(E)が大きくなるように、P(E)が更新される。なお、点503が属するグリッドでは、P(E)を大きくするために、P(O|E ̄)をPeより小さくするか、P(O|E)をPoより大きくするようにしてもよい。
また、直線506の点505と水平線502とを結ぶ区間509に属するグリッドは、注目点300が観測されたため観測できない領域に相当するが、障害物が存在している可能性もあるため、算出部21は、数式(12)を用いてP(E)を更新してもよい。この際、算出部21は、障害物が直接観測されているわけではないため、P(O|E)にPoより小さい値を用いてP(E)の更新幅を更に小さくし、P(E)が更に緩やかに更新されるようにする。
このように、数式(12)及び数式(13)を計測誤差に基づいて設定することで、誤差の小さい領域では障害物の存在確率の更新幅が大きく更新されて障害物の有無が顕著に表れ、一方、誤差の大きい領域では障害物の存在確率の更新幅が小さく更新されて障害物の存在の有無が不明な状態にとどまるようになり、誤検出の可能性を下げることができる。
続いてステップS111では、検出部23は、算出部21により算出された物体の存在確率を用いて、路面と物体との境界を検出する。具体的には、検出部23は、算出部21により算出された障害物の存在確率を用いて、障害物と路面との境界位置を検出する。
図12は、第1実施形態の障害物の存在確率の一例をグリッド画像500上で表した図である。なお、図12に示す例では、グリッド画像500のグリッドの図示を省略している。図12に示す例では、格子で表された領域は、P(E)の値が1.0に近く、障害物が存在している可能性が高い。また、ドットで表された領域は、P(E)の値が0.0に近く、障害物が存在していない可能性が高い。また、斜線で表された領域は、P(E)の値が0.5に近く、障害物が存在するか否かが不定となっている。
ここで、障害物が路面と接する場所においては、その近傍で障害物の存在確率が大きく変化するため、検出部23は、近接領域で変化のあるグリッド位置の探索を行うことで障害物が路面に接する位置(障害物と路面との境界位置)を検出する。更に、撮像部11から障害物までの間に必ず路面が存在するため、検出部23は、障害物が存在しないグリッドから障害物が存在するグリッドへ変化するグリッド位置の探索を行うことで障害物が路面に接する位置(障害物と路面との境界位置)を検出する。
そこで第1実施形態では、検出部23は、位置501側のグリッド画像500の端600から水平線502方向に向かった方向、即ち、端600と直交する方向601を考え、端600に近い方から方向601に向けてグリッド602とグリッド603を設定する。ここで、グリッド602及びグリッド603は、隣接していてもよいし、所定のN個の範囲内で複数設定してもよい。そして検出部23は、グリッドXにおける障害物の存在確率G(X)が、数式(14)〜(16)の少なくともいずれかを満たす場合に、障害物と路面との境界位置を検出する。
G(603)−G(602)≧TH …(14)
G(602)≧TH …(15)
G(603)≧TH …(16)
但し、TH(第1閾値の一例)は正の値であり、TH(第2閾値の一例)は0.5以下であり、TH(第3閾値の一例)は0.5以上とする。また、G(602)は、第1存在確率の一例であり、G(603)は、第2存在確率の一例である。
なお、数式(14)は、グリッド602とグリッド603の間の差が大きければ大きいほど境界である可能性が高くなる条件を表し、数式(15)は、グリッド602が障害物の存在しない領域である条件を表し、数式(16)は、グリッド603が障害物の存在する領域である条件を表す。
以降、検出部23は、端600に沿って位置を変えながら同様の処理を行い、各位置における境界を検出する。
続いてステップS113では、出力制御部25は、算出部21により算出された物体の存在確率及び検出部23により検出された路面と物体との境界の少なくともいずれかを出力部27に出力させる。
例えば、出力制御部25は、図13に示すように、撮像画像103上に、検出部23により検出された路面と物体との境界を示す境界線611を重畳した画像を出力部27に表示出力させてもよい。また出力制御部25は、車両104と障害物との距離が一定距離以下になったら、警告表示610を出力部27に表示出力させてもよいし、警告音などの音声による警告を出力部27に音声出力させてもよい。また出力制御部25は、車両104と障害物との距離に応じて、境界線611の色、太さ、透明度、及び点滅間隔の少なくともいずれかなどの表示態様を変更してもよい。例えば出力制御部25は、車両104との距離が近い障害物ほど運転者に注意を喚起できるように、境界線611をより太く表示したり、遠くの障害物は透明度を上げて表示したりする。また例えば出力制御部25は、数式(14)〜(16)による確率値の差分や確率値が大きいものほど、注意を惹きやすいように、境界線611の色、太さ、透明度、及び点滅間隔の少なくともいずれかを変えてもよい。
また例えば、出力制御部25は、図12に示すように、撮像画像103上に、障害物の存在確率を識別可能に重畳した画像を出力部27に表示出力させてもよい。ここで、識別可能とは、色彩による可視化であってもよいし、存在確率が高いほど明度を明るくしてもよいし、点滅などであってもよい。
以上のように第1実施形態によれば、複数の画像間における視差及び奥行きが一定の関係になくても、物体と路面との境界を検出することができる。このため第1実施形態によれば、移動体に対して、進行方向と平行になるように複数の撮像部を設置する必要はなく(詳細には、画像中で、奥行Z=固定値F/視差dが成立するように複数の撮像部を設置する必要はなく)、例えば、移動体に対して単数の撮像部を配するなど簡易な事前設定で物体と路面との境界を検出することができる。
そして第1実施形態によれば、物体と路面との境界の検出結果を移動体の運転者に報知することにより、安全運転支援に役立てることができる。なお第1実施形態では、境界の検出結果を移動体の運転者に報知する例について説明しているが、境界の検出結果を移動体の制御等に用いても、安全運転支援に役立てることができる。この場合、出力部27による存在確率や境界の出力は行わなくてもよい。
(第2実施形態)
第2実施形態では、時系列で撮像された撮像画像が順次入力され、順次入力された撮像画像に対して第1実施形態で説明した処理を時間的に連続して施す例について説明する。第2実施形態では、例えば、時刻t1の撮像画像、時刻t2の撮像画像、時刻t3の撮像画像が順次入力される場合に、まず、時刻t1の撮像画像及び時刻t2の撮像画像に対して第1実施形態で説明した処理を施し、次に、時刻t2の撮像画像及び時刻t3の撮像画像に対して第1実施形態で説明した処理を施す。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図14は、第2実施形態の検出装置1010の一例を示す構成図である。図14に示すように、第2実施形態の検出装置1010では、変換部18を備える点で第1実施形態と相違する。
図15は、第2実施形態の検出装置1010で行われる検出処理の手順の流れの一例を示すフローチャートである。なお、図15に示す検出処理は、まず、時刻t1の撮像画像及び時刻t2の撮像画像に対して行われ、続いて、時刻t2の撮像画像及び時刻t3の撮像画像に対して行われ、以降も同様に、時刻tn(nは自然数)の撮像画像及び時刻tn+1の撮像画像に対して行われる。また、推定用撮像画像は、最新の時刻の撮像画像であるものとする。つまり、時刻t1の撮像画像及び時刻t2の撮像画像であれば、時刻t2の撮像画像が推定用撮像画像となり、時刻t2の撮像画像及び時刻t3の撮像画像であれば、時刻t3の撮像画像が推定用撮像画像となる。
まず、ステップS401〜S407までの処理は、図2のステップS101〜S107までの処理と同様であるため、説明を省略する。
続いてステップS409では、変換部18は、推定用撮像画像(例えば、時刻t2の撮像画像)及び当該推定用撮像画像よりも時系列が後の新たな推定用撮像画像間(例えば、時刻t3の撮像画像)の路面に対する射影変換行列を用いて、グリッド画像500上の存在確率を変換する。但し、変換部18は、前回の時刻において、グリッド画像500上で存在確率が算出されていなければ、存在確率の変換を行わず、グリッド画像500上で障害物の事前確率P(E)として初期値を設定する。なお、障害物の事前確率の設定については、第1実施形態で算出部21が行ったものと同様である。
つまり、図15に示す検出処理が時刻t1の撮像画像及び時刻t2の撮像画像に対して行われているのであれば、前回の時刻である時刻t1において、グリッド画像500上で存在確率の算出は行われていないため、変換部18は、存在確率を変換しない。一方、図15に示す検出処理が時刻t2の撮像画像及び時刻t3の撮像画像に対して行われているのであれば、前回の時刻である時刻t2において、グリッド画像500上で存在確率の算出は行われているため、変換部18は、存在確率を変換する。
具体的には、変換部18は、第2推定部15により推定された回転行列R及び並進ベクトルtと、第3推定部17により推定された路面の法線ベクトルn及び撮像部11及び路面間の距離dと、内部パラメータKとを用いて、数式(17)に示す射影変換行列Hを算出する。
射影変換行列Hは、一般に広く知られているように、画像間の路面間の対応を一意に決定することができる。そして変換部18は、射影変換行列Hを用いて、前回の時刻(例えば、時刻t2)においてグリッド画像500上で算出された存在確率を、現在の時刻(例えば、時刻t3)におけるグリッド画像500上の存在確率(詳細には、障害物の事前確率P(E))に変換する。
続いてステップS411では、射影部19は、図2のステップS109と同様の処理を行う。一方、算出部21は、障害物の事前確率の設定を行わず、グリッド画像500上で算出された存在確率を変換用に保持しておく点を除き、図2のステップS109と同様の処理を行う。
続いて、ステップS413〜S415までの処理は、図2のステップS111〜S113までの処理と同様であるため、説明を省略する。
以上のように第2実施形態によれば、第1実施形態と同様の効果を時系列的に連続して得ることができる。
(ハードウェア構成)
図16は、上記各実施形態の検出装置10、1010のハードウェア構成の一例を示すブロック図である。図16に示すように、上記各実施形態の検出装置10、1010は、CPUなどの制御装置91と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置92と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置93と、ディスプレイなどの表示装置94と、キースイッチなどの入力装置95と、通信I/F96と、車載カメラなどの撮像装置97とを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。
上記各実施形態の検出装置10、1010で実行されるプログラムは、ROM等に予め組み込んで提供される。
また、上記各実施形態の検出装置10、1010で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。
また、上記各実施形態の検出装置10、1010で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態の検出装置10、1010で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
上記各実施形態の検出装置10、1010で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、制御装置91が外部記憶装置93からプログラムを記憶装置92上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
以上説明したとおり、上記各実施形態によれば、複数の画像間における視差及び奥行きが一定の関係になくても物体と路面との境界を検出することができる。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
10、1010 検出装置
11 撮像部
13 第1推定部
15 第2推定部
17 第3推定部
18 変換部
19 射影部
21 算出部
23 検出部
25 出力制御部
27 出力部

Claims (10)

  1. 異なる撮像位置間の空間的な第1位置関係を推定する第1推定部と、
    前記異なる撮像位置で路面上の物体が撮像された複数の撮像画像と前記第1位置関係とを用いて、前記複数の撮像画像のうちのいずれかである推定用撮像画像に映る前記物体の3次元位置及び当該3次元位置の誤差位置を推定する第2推定部と、
    前記推定用撮像画像の撮像位置と路面との間の第2位置関係を推定する第3推定部と、
    前記第2位置関係を用いて、前記推定用撮像画像の前記撮像位置を前記路面上に射影して第1射影位置を得、前記3次元位置を前記路面上に射影して第2射影位置を得、前記誤差位置を前記路面上に射影して第3射影位置を得る射影部と、
    前記第1射影位置と前記第2射影位置とを通過する直線において、前記第1射影位置及び前記第3射影位置間よりも前記第2射影位置及び前記第3射影位置間の方が物体の存在確率が高くなるように更新して前記存在確率を算出する算出部と、
    前記存在確率を用いて前記路面と前記物体との境界を検出する検出部と、
    を備える検出装置。
  2. 前記算出部は、前記第2射影位置と前記第3射影位置との間隔が大きいほど更新幅を小さくして前記存在確率を更新する請求項1に記載の検出装置。
  3. 前記算出部は、前記推定用撮像画像と位置関係が対応付けられた存在確率算出用画像上で前記存在確率を更新する請求項1又は2に記載の検出装置。
  4. 前記検出部は、前記存在確率算出用画像の前記第1射影位置側の端から水平線に交差する方向に設定した直線上で所定の範囲内に存在する2つの点を選択したとき、前記端に近い側の点の第1存在確率と、前記水平線に近い側の点の第2存在確率について、前記第2存在確率と前記第1存在確率との差分が第1閾値以上であること、前記第1存在確率が第2閾値以上であること、及び前記第2存在確率が第3閾値以上であることの少なくともいずれかを満たす場合に、前記2つの点の間を境界位置として検出する請求項3に記載の検出装置。
  5. 前記推定用撮像画像及び当該推定用撮像画像よりも時系列が後の新たな推定用撮像画像間の路面に対する射影変換行列を用いて、前記存在確率算出用画像上の前記存在確率を変換する変換部を更に備え、
    前記算出部は、前記新たな推定用撮像画像と位置関係が対応付けられた変換後の前記存在確率算出用画像上で前記存在確率を更新する請求項3又は4に記載の検出装置。
  6. 前記存在確率算出用画像は、小領域に分割されたグリッドを単位として構成されている請求項3〜5のいずれか1つに記載の検出装置。
  7. 前記算出部は、前記第1射影位置と前記第2射影位置とを通過する直線において、前記第1射影位置と前記第2射影位置又は前記第3射影位置との間よりも、前記第2射影位置又は前記第3射影位置から水平線位置間の前記存在確率の更新幅を小さくして前記存在確率を更新する請求項1〜6のいずれか1つに記載の検出装置。
  8. 前記存在確率及び前記境界の少なくともいずれかを出力する出力部を更に備える請求項1〜7のいずれか1つに記載の検出装置。
  9. 第1推定部が、異なる撮像位置間の空間的な第1位置関係を推定する第1推定ステップと、
    第2推定部が、前記異なる撮像位置で路面上の物体が撮像された複数の撮像画像と前記第1位置関係とを用いて、前記複数の撮像画像のうちのいずれかである推定用撮像画像に映る前記物体の3次元位置及び当該3次元位置の誤差位置を推定する第2推定ステップと、
    第3推定部が、前記推定用撮像画像の撮像位置と路面との間の第2位置関係を推定する第3推定ステップと、
    射影部が、前記第2位置関係を用いて、前記推定用撮像画像の前記撮像位置を前記路面上に射影して第1射影位置を得、前記3次元位置を前記路面上に射影して第2射影位置を得、前記誤差位置を前記路面上に射影して第3射影位置を得る射影ステップと、
    算出部が、前記第1射影位置と前記第2射影位置とを通過する直線において、前記第1射影位置及び前記第3射影位置間よりも前記第2射影位置及び前記第3射影位置間の方が物体の存在確率が高くなるように更新して前記存在確率を算出する算出ステップと、
    検出部が、前記存在確率を用いて前記路面と前記物体との境界を検出する検出ステップと、
    を含む検出方法。
  10. 異なる撮像位置間の空間的な第1位置関係を推定する第1推定ステップと、
    前記異なる撮像位置で路面上の物体が撮像された複数の撮像画像と前記第1位置関係とを用いて、前記複数の撮像画像のうちのいずれかである推定用撮像画像に映る前記物体の3次元位置及び当該3次元位置の誤差位置を推定する第2推定ステップと、
    前記推定用撮像画像の撮像位置と路面との間の第2位置関係を推定する第3推定ステップと、
    前記第2位置関係を用いて、前記推定用撮像画像の前記撮像位置を前記路面上に射影して第1射影位置を得、前記3次元位置を前記路面上に射影して第2射影位置を得、前記誤差位置を前記路面上に射影して第3射影位置を得る射影ステップと、
    前記第1射影位置と前記第2射影位置とを通過する直線において、前記第1射影位置及び前記第3射影位置間よりも前記第2射影位置及び前記第3射影位置間の方が物体の存在確率が高くなるように更新して前記存在確率を算出する算出ステップと、
    前記存在確率を用いて前記路面と前記物体との境界を検出する検出ステップと、
    をコンピュータに実行させるためのプログラム。
JP2013514456A 2012-11-13 2012-11-13 検出装置、方法及びプログラム Active JP5710752B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/079411 WO2014076769A1 (ja) 2012-11-13 2012-11-13 検出装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP5710752B2 true JP5710752B2 (ja) 2015-04-30
JPWO2014076769A1 JPWO2014076769A1 (ja) 2016-09-08

Family

ID=50681721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013514456A Active JP5710752B2 (ja) 2012-11-13 2012-11-13 検出装置、方法及びプログラム

Country Status (5)

Country Link
US (1) US9122936B2 (ja)
EP (1) EP2922045A1 (ja)
JP (1) JP5710752B2 (ja)
CN (1) CN103988241A (ja)
WO (1) WO2014076769A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9073484B2 (en) * 2010-03-03 2015-07-07 Honda Motor Co., Ltd. Surrounding area monitoring apparatus for vehicle
EP2669845A3 (en) * 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
JP6075331B2 (ja) * 2014-06-13 2017-02-08 トヨタ自動車株式会社 車両用照明装置
US10140870B1 (en) 2015-09-30 2018-11-27 Waymo Llc Occupant facing vehicle display
US10552966B2 (en) * 2016-03-07 2020-02-04 Intel Corporation Quantification of parallax motion
JP6595401B2 (ja) * 2016-04-26 2019-10-23 株式会社Soken 表示制御装置
US10160448B2 (en) * 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
JP7528009B2 (ja) * 2021-03-17 2024-08-05 株式会社東芝 画像処理装置および画像処理方法
JP7264930B2 (ja) * 2021-03-23 2023-04-25 本田技研工業株式会社 表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (ja) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc 道路形状推定装置
WO2005038710A1 (ja) 2003-10-17 2005-04-28 Matsushita Electric Industrial Co., Ltd. 移動体動き算出方法および装置、並びにナビゲーションシステム
JP2007241326A (ja) * 2003-10-17 2007-09-20 Matsushita Electric Ind Co Ltd 移動体動き算出装置
JP4406381B2 (ja) 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
WO2008065717A1 (fr) * 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
EP2351668A4 (en) * 2008-09-12 2013-03-13 Toshiba Kk IMAGE RADIATION SYSTEM AND IMAGE RADIATION PROCESS
JP4631096B2 (ja) * 2008-10-20 2011-02-16 本田技研工業株式会社 車両周辺監視装置
JP5440461B2 (ja) * 2010-09-13 2014-03-12 株式会社リコー 校正装置、距離計測システム、校正方法および校正プログラム

Also Published As

Publication number Publication date
EP2922045A1 (en) 2015-09-23
WO2014076769A1 (ja) 2014-05-22
US9122936B2 (en) 2015-09-01
US20140133700A1 (en) 2014-05-15
CN103988241A (zh) 2014-08-13
JPWO2014076769A1 (ja) 2016-09-08

Similar Documents

Publication Publication Date Title
JP5710752B2 (ja) 検出装置、方法及びプログラム
CN110582798B (zh) 用于虚拟增强视觉同时定位和地图构建的系统和方法
US20170019657A1 (en) Stereo auto-calibration from structure-from-motion
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2015037178A1 (ja) 姿勢推定方法及びロボット
JP5754470B2 (ja) 路面形状推定装置
WO2020195875A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5756709B2 (ja) 身長推定装置、身長推定方法、及び身長推定プログラム
JP2007263669A (ja) 3次元座標取得装置
JP6701930B2 (ja) オーサリング装置、オーサリング方法およびオーサリングプログラム
WO2017051480A1 (ja) 画像処理装置及び画像処理方法
JP4941565B2 (ja) 対応点探索装置および対応点探索方法
JP6193195B2 (ja) 移動支援装置、方法及びプログラム
JP6188860B1 (ja) オブジェクト検出装置
JP2011209070A (ja) 画像処理装置
CN111089579B (zh) 异构双目slam方法、装置及电子设备
JP6603993B2 (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP2017117038A (ja) 道路面推定装置
JP2021043141A (ja) 物体距離推定装置及び物体距離推定方法
JP6670682B2 (ja) 位置検出方法及び位置検出システム
US10097772B2 (en) Image processing device and image processing method
JP6027705B2 (ja) 画像処理装置,方法,およびそのプログラム
JP2012212460A5 (ja)
JP2024070133A (ja) 目標認識方法、プログラム及び装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150304

R151 Written notification of patent or utility model registration

Ref document number: 5710752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350