JP6442834B2 - 路面高度形状推定方法とシステム - Google Patents

路面高度形状推定方法とシステム Download PDF

Info

Publication number
JP6442834B2
JP6442834B2 JP2014035646A JP2014035646A JP6442834B2 JP 6442834 B2 JP6442834 B2 JP 6442834B2 JP 2014035646 A JP2014035646 A JP 2014035646A JP 2014035646 A JP2014035646 A JP 2014035646A JP 6442834 B2 JP6442834 B2 JP 6442834B2
Authority
JP
Japan
Prior art keywords
road surface
interest
road
region
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014035646A
Other languages
English (en)
Other versions
JP2014170540A (ja
Inventor
チャオ チェヌ
チャオ チェヌ
ジョォンチャオ シ
ジョォンチャオ シ
ヤオジエ ル
ヤオジエ ル
ガン ワン
ガン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2014170540A publication Critical patent/JP2014170540A/ja
Application granted granted Critical
Publication of JP6442834B2 publication Critical patent/JP6442834B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は通常、画像処理分野に関するもので、より具体的には立体視覚の視差図に基づいて路面高度形状を推定する技術に関するものである。
現在、画像処理技術の絶えざる深化発展に伴い、人々は物体の平面視覚による2次元画像にはもう飽き足らなくなり、物体の遠近、凹凸および深い浅いといった立体感のある立体視覚の反映にますます関心を寄せており、例えば3D/3次元技術は、研究されて多くの応用を生み出してきた。
人の左右の眼は物体を観察する時に視差があり、この発見が二眼立体視覚の理論基礎を打ち立てた。二眼立体視覚は異なる位置の2台のカメラ(いわゆる二眼カメラ)または1台のカメラが移動または回転しながら同じシーンを撮影し、各種の計算方法によって相応する像点をフィッティングし、それによって当該像点の視差を算出し視差図を作成した後、三角測量原理によってこの像の深度(距離)情報を逆算する。当該二眼立体視覚による像の視差図の計算と作成は既に本分野の技術では公知のものであり、その詳細な計算方法とプロセスはここでは繰り返さない。
この種の立体視覚の応用範囲は非常に広く、例えば3D映画、3次元技術による道路検知、歩行者検知、自動運転等々に応用されている。
自動車に対する自動化要求の絶えざる高まりに連れ、信頼できる立体道路環境を感知できる立体視覚の応用は車両の安全サポート/自律操縦にとって非常に重要であり、特に環境が高速道路や、地方連絡道路よりはるかに複雑な都市道路についてそれが言える。道路本体および道路の高度等各種パラメータを如何に正確にかつ効率よく検知できるかが既に研究の重点になっている。もし高度を含む道路の各種パラメータを正確に得ることができれば、これらのパラメータによって、例えば道路上のある場所に位置する歩行者、車両または建築物の実際の高度計算等々、ますます広範な応用が得られることができる。
既知の技術も道路検知に複数の解決方法を提出している。例えば、下記に列記する2つの関係文献がある。
関係文献1は、「A Complete U−V−Disparity Study for Stereovision Based 3D Driving Environment Analysis」と題するもので、作者は Zhencheng Hu, Francisco Lamosa, Keiichi Uchimura, Kumamoto University、2005年6月13日付けで、Proceedings of the 5th international Conference on 3−D Digital Imaging and Modelingに掲載されたものである。
関係文献2は、Nakanoを発明者とする、2009年2月12日に米国特許局に公開された「Image Processing Apparatus and Method」という表題の米国特許出願公開第2009/0041337A1号である。
その中、関係文献1は立体視覚による道路シーン分析計算方法を説明しており、まず元の視差図からV視差図を構成した後、V視差図全体に一連の計算を行い道路平面、非道路平面、障害物等を区分する。通常、道路シーンには歩行者、建築物、道路、障害物等々の対象が含まれ非常に複雑であるため、V視差図全体に行う計算量は膨大なものとなり、またこの計算は道路シーン中の対象の影響を受け道路検知の間違いが非常に起こりやすい。
関係文献2は3次元情報により路面表示を検知する計算方法を説明している。それは例えばガイドラインの明瞭な高速道路等、路面表示がはっきりしているシーンにのみ適応できるものであるが、例えば地方連絡道路、複数の都市道路や高速道路、国道、省道等々、路面表示の無いまたは路面表示の不明瞭な道路では正確で効率の良い道路検知を行うことはできない。
このため、各種道路に対して正確に効率よく路面高度検知と推定を行うことのできる解決策が求められている。
本発明の目的は、立体視覚の視差図に基づいて路面高度形状を推定する方法及びシステムを提供することにある。
本発明の一面においては、道路シーン視差図が得られ、前記視差図に基づいて路面関心領域を検知し、前記路面関心領域に基づいて複数の路面関心点を確定し、そして前記複数の路面関心点に基づいて路面高度形状を推定することを含む、道路シーン内の路面高度形状推定方法を提供する。
好ましくは、前記視差図に基づいて路面関心領域検知ステップが、前記視差図の下部視差図を選択し、前記下部視差図を二値化処理して二値画像が得られ、前記二値画像にモルフォロジー・エロージョンを行い、モルフォロジー・エロージョン後の画像中の所定部分を選んで1つまたは複数のシードを設置し、前記1つまたは複数のシードに基づいて領域成長を行い、領域成長後に得られたブロックを路面関心領域とすることを含むである。
好ましくは、前記所定部分が路面の一部をカバーするが路面のエッジをはみ出ないことである。
好ましくは、前記所定部分が画像の真下に位置することである。
好ましくは、前述路面関心領域に基づいて複数の路面関心点を確定するステップが、前記路面関心領域に対し後処理を行い、後処理した路面関心領域と前記視差図の交わり部分を前記複数の路面関心点とすることを含むことである。
好ましくは、前記後処理が、前記路面関心領域に対しモルフォロジー・ダイレーションを行い、モルフォロジー・ダイレーション後の路面関心領域を後処理後の路面関心領域とし、前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭を後処理後の路面関心領域とし、そして前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭が囲むブロックを後処理後の路面関心領域とすることのうちの一つを含むことである。
好ましくは、前記複数の路面関心点に基づいて路面高度形状を推定するステップが、前記複数の路面関心点により、前記視差図中で同じ距離Dおよび同じ水平座標Xを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面の平面フィッティングを行い前記路面高度形状が得られ、そして前記複数の路面関心点をV視差図投影し、前記V視差投影中で同じ距離Dを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面のセグメントまたは複数のセグメントの直線フィッティングを行って前記路面高度形状が得られることのうちの一つを含むことである。
好ましくは、前記路面高度形状により道路シーン中の対象の実際高度を推定することを含むことである。
好ましくは、前記路面高度形状により道路シーン中の対象の実際高度推定を行うことが、推定した前記路面高度形状に基づいて、前記対象の距離D’に対して、前記距離D’に対応する路面高度h(d)が得られ、ここでdは前記距離D’に対応する視差値を表し、以下の公式に基づいて前記対象の実際高度hs(D’)が得られることを含むことである。
Figure 0006442834
このうち、bは視差図の撮影に用いる二眼カメラの基準線の長さを表し、vは前記二眼カメラに関する所定オフセット値を表し、yは視差値dを有する画素点の縦座標を表す。
本発明の別の面においては、道路シーン視差図を取得する装置、前記視差図に基づいて路面関心領域を検知する装置、前記路面関心領域に基づいて複数の路面関心点を確定する装置、そして前記1つまたは複数の路面関心点に基づいて路面高度形状を推定する装置を含む、道路シーン内路面高度形状推定システムを提供する。
本発明の実施例の方法とシステムにより複雑な路面状況を処理する事ができ、道端の溝、高架橋付近の建築物等の夾雑物に対し比較的強いロバスト性を有し、路面より高すぎる物体または路面より低すぎる物体を効率よく除去し、路面高度検知結果を比較的信頼できる正確なものにすることができる。
前記既存技術の参考文献1は視差図全体を用いて路面高度推定を行うが、本発明においては、路面関心領域と関心点の検知を先に行い、これに基づいて路面高度推定方式をもう一度行い路面より高すぎる物体および路面より低すぎる物体を除くことができ、これによってより正確に路面である可能性を有する領域を探し出すことができる。これと同時に、限られた数の路面関心点だけを使って路面の直線/平面フィッティングを行い路面の高度形状が得られるため、その計算量は大きく減少する。
如何に正確に道路である可能性を有する領域を探し出すかは路面高度推定にとって非常に有用であり、従って本発明の実施例により路面関心領域を検知し最も道路である可能性を有する領域を探し出すことは、より正確な路面高度推定を進める上で大きな助けとなる。路面関心領域が道路路面全体の領域より大きくないので、路面全体に比べてより検知しやすくなり、検知精度と信頼性を増し計算量を大きく減少させる。
前記参考文献2は路面表示を使用して路面高度推定を行うが、本発明では路面関心領域と関心点の検知を先に行い、これに基づいて路面高度推定方式をもう一度行い路面表示やその他の道路標識に頼ることがないので、異なるそして複雑な道路類型に対して比較的高い適応性を有する。
推定された路面高度形状情報は道路シーン中で実際の対象と路面との間の実際の高度を確定するのに用いることができ、これによって例えば車両や歩行者の検知に便利となる。
本発明を応用した各実施例のハードウェアシステムの構成例である。 第一実施例の路面高度形状推定方法の例である。 図2の示す方法において視差図に基づいて路面関心領域検知ステップの例示的なプロセスである。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 前記視差図に基づいて路面関心領域検知ステップの実際応用例である。 路面関心点を確定するステップの例示的なプロセスである。 路面関心領域に対して後処理を行う3つの例示的なプロセスである。 路面高度形状推定の例示的なプロセスにおいてV視差図投影を行う実際の応用例である。 本発明実施例により得られた路面高度検知と既存技術の従来方式により得られたV視差図投影と路面高度推定結果の比較の概念図その一である。 本発明実施例により得られた路面高度検知と既存技術の従来方式により得られたV視差図投影と路面高度推定結果の比較の概念図その二である。 V視差図中で路面の分割直線フィッティングを行った結果の例である。 本発明の推定した路面高度形状に基づいて得られた例示的な路面点である。 第二実施例の道路シーン中で路面高度形状を推定するシステムの例である。
今、本発明の具体的実施例を詳細に参照して、図面中に本発明の例を示す。具体的な実施例と結合して本発明を説明するが、理解を助けるためであり、本発明を前記実施例に限定しようとするものではない。反対に、前記請求項が限定する本発明の精神と範囲内に含まれる変更、修正およびそれと同等のものをカバーしたいと考えている。注意を要するのは、ここで述べる方法ステップは全てどのような機能集合または機能配置によっても実現できることで、かつどのような機能集合または機能配置も物理的実体または論理的実体、または両者の組合せに実現されることである。
当業者が本発明をより良く理解できるように、以下、図面と発明を実施するための形態を結合して更に詳しく説明を行う。
本開示においては下記順序に従って説明を行う。
1.専門用語または専門語彙の意味と解釈
2.本発明を応用したハードウェアシステムの構成
3.第一実施例の路面高度形状推定方法の例
3−1.路面関心領域検知の例示的なプロセス
3−2.路面関心点確定の例示的なプロセス
3−2−1.路面関心領域後処理の例示的なプロセス
3−3.路面高度形状推定の例示的なプロセス
3−4.対象の実際高度推定の例示的なプロセス
4.第二実施例の路面高度形状推定のシステム例
1.専門用語または専門語彙の意味と解釈
理解の便を図るため、本章で既存技術における専門用語または専門語彙、及び本公開特許における定義された専門用語または専門語彙を解釈する。これらの専門用語または専門語彙が仮に既存技術で常用または慣用されている専門用語または専門語彙の解釈と合わないところがあれば、本公開特許が公開する発明原理に従ってどの解釈を適用するか合理的に判断しなければならない。
視差図
当業者には公知であるが、視差とは、実際はある基線の両端からそれぞれ同一の比較的遠くの物体に一直線に伸びているとき、その間に形成される夾角を指す。通常、一定距離にある二つの点から同一対象を観察して発生する方向の違いを指す。対象から二点間の夾角を見たとき、この二点の視差角と呼ばれ、二点間の距離は基線と称される。視差の角度と基線の長さを知りさえすれば、対象と観測者間の距離を算出することができる。
視差図:視差図(disparity map)は、どんな画像も基準となり、その大きさが該基準画像の大きさとなり、要素値が視差値となる画像である。視差図は場面の距離情報を含む。視差図は双眼カメラが撮影した左画像と右画像、または立体画像の深度画像から計算して得ることができる。また視差値dと物体の深度距離Dは一定の対応関係d(D)を有し、これによって、視差値が分かれば、深度距離を計算することができ、逆もまた同様である。
V視差図
当業者には公知であるが、元の視差図で、各画素点は3次元空間の1点を表す(U−水平次元、V−垂直次元、D−深度次元)。側面を垂直平面(V−垂直次元とD−深度次元だけがある)に投影した後、全ての画素点のU座標は消失し、この新しく形成された映写画像がV視差図となる。V視差図は視差図から計算して得られる。V視差図中の任意の1点(d, v)の濃淡値は視差図に対応する縦座標をvとする行中で視差値がdに等しい点の個数である。
二値画像
二値画像は各画素点が黒でなければ白であるとして、その濃度に中間濃度のない画像を指す。二値画像は一般に対象の大まかな輪郭を描写するのに用いられる。
モルフォロジー・エロージョン(Morphology Erosion)およびモルフォロジー・ダイレーション(Morphology Dilation)
当業者には公知であるが、モルフォロジー演算は2値画像に対するマセマティカル・モルフォロジーの集合理論の方法に基づいて発展してきた画像処理方法である。マセマティカル・モルフォロジーは岩石学において岩石の構造を定量的に説明する作業に起源を有し、近年はデジタル画像処理とロボット視覚分野に広く応用され、独特のデジタル画像分析方法と理論を形成している。通常、モルフォロジー画像処理は近傍演算形式を表現しており、特別に定義された近傍領域を「構造要素」(Structure Element)と呼び、各画素位置上でそれが2値画像と対応する区域において特定の論理演算を行い、論理演算の結果が出力画像に相応する画素となる。モルフォロジー演算の効果は構造要素の大きさ、内容および論理演算の性質によって決まる。よく見られるモルフォロジー演算はエロージョンとダイレーションを有する。Bにより構造要素を表し、二値画像Aの各点zに対し、エロージョンとダイレーションを定義すると次のようになる。
エロージョン:
Figure 0006442834
ダイレーション:
Figure 0006442834
このうち、Eをユークリッド空間、Aを空間Eにおける二値画像とすると、Bz ={b+z|b∈B}、
、BsはBの対称行列を表し、即ちBS ={p∈E|―p∈B}となり、pはユークリッド空間中の要素を表す。
言い換えると、エロージョンの具体的な操作は、一つの構造要素B(例えば3x3の大きさ)を用いて画像中の各画素zをスキャンし、構造要素中の各画素を用いてそれと重なる画素に「と」操作を行い、もし全てが1となれば、この画素を1とし、そうでなければ0とする。ダイレーションの具体的な操作は、一つの構造要素B(例えば3x3の大きさ)を用いて画像中の各画素zをスキャンし、構造要素中の各画素を用いてそれと重なる画素に「と」操作を行い、もし全てが0となれば、この画素を0とし、そうでなければ1とする。エロージョンは一種の境界点消去で、境界を内側に向けて収縮させるプロセスであり、小さく無意味な物体を消去するのに用いることができる。ダイレーションは物体と接触する全ての背景点をこの物体に結合させることで、境界を外側に向けて拡張させるプロセスであり、物体中の空洞を埋めるのに用いることができる。その他の細部は http://en.wikipedia.org/wiki/Morphological_image_processingおよびその他の関連文献を参考にすることができる。
領域成長
当業者には公知であるが、領域成長の基本思想は相似した性質をもつ画素を集めて領域を構成することである。まず、分割を要する各領域に対して1つのシード点を探し、その後、シード画素の周辺領域でシード画素と同じまたは相似した性質をもつ画素をシード画素の存在する領域に結合する。これらの新しい画素を新しいシード点として前記プロセスを繰り返し、条件を満足する画素点が無くなった時に拡張を停止する。
このうち類似性準則は濃淡度、色彩、組織、グラデーションまたはその他の特性であってよい。類似性の度合いは閾値を確定して決定してよい。領域成長法の実現には3つのキーポイントがあり、(1)シード点の選択、(2)成長準則の確定、(3)領域成長停止の条件である。
シード点の選択は原則として領域の代表的な点を抽出する必要があり1つの画素でよいが、複数の画素を含む領域でもよい。
領域成長準則は原則としてシード点との相似度合いを評価する。領域成長準則はシード点との距離度を多く用いる。シード点は領域の拡張に連れて変化してもよいが、1つの固定数値を設定してもよい。領域成長の停止条件、徐々に変化しながら拡張している時に対する停止判断は非常に重要である。一般には成長準則に結合させて合理的に設定する。拡張停止判定の閾値は確定値でも、拡張に連れて変化する値でもよい。領域成長のその他の細部は http://en.wikipedia.org/wiki/Region_growingおよびその他の関連文献を参考にすることができる。
路面関心領域(Region of Interest,ROI)
本開示で言う「路面関心領域」(ROI)は路面関心点の領域を探し出すのに用いる。できるだけ路面全体を含むことのできる領域を可能な限り探し出して路面関心領域ROIとする。
路面関心点(Point of Interest,POI)
本開示で言う「路面関心点」(POI)は一般に前記「路面関心領域ROI」中で選び、路面高度の平面フィッティングまたは直線フィッティングに用いる各参考点である。どのようにPOIを選ぶかは路面高度の平面フィッティングまたは直線フィッティングの結果に重要な影響を与える。これらのPOIがなるべく全て立体画像の実際の路面上に位置するようにPOIを選ばなければならない。
路面高度形状
本開示で言う「路面高度形状」は路面高度の(セグメントまたは複数のセグメント)直線関数または曲線関数(2次元概念)、路面高度の平面関数または曲面関数(3次元概念)を含む。このうち、本開示では、路面高度形状の値は画像画素の意味における路面高度であり、実際のシーンにおける路面のメートルまたはセンチメートルを単位とする本当の高度ではない。
2.発明を応用したハードウェアシステムの構成
図1は本発明を応用した各実施例のハードウェアシステム100の構成例である。例えば、ハードウェアシステム100は自動車に装着され車両の自動制御を行うことができる。例に示すように、本発明を応用した各実施例のハードウェアシステム100は、二眼カメラ101、デコーダー102、記憶装置103、デジタル信号処理器104および車両制御モジュール105を含むことができる。当該二眼カメラ101の基準線の長さをbとし、二眼カメラの左右2つの撮影レンズ間の距離を表し、左側の撮影レンズが道路シーンを撮影して左画像が得られ、右側の撮影レンズが同じシーンを撮影して右画像が得られ、当該二眼カメラ101は左画像と右画像を撮影してそれをデコーダー102に入力する。デコーダー102は受け取った左画像と右画像を視差図に転換する。当該視差図は記憶装置103に保存され随時、デジタル信号処理器104によって処理されて路面高度形状の推定およびその他の処理結果が得られる。デジタル信号処理器104で行われる処理は下記の参考図1−10で詳細に説明する。デジタル信号処理器104の処理を経て得られた路面高度推定および/またはその他の処理結果は記憶装置103に保存され、同時に車両制御モジュール105に転送され、自動車に対して、例えば自動操縦、歩行者検出等のより進んだ自動制御が行われる。
当然、この応用例は1つの例に過ぎず、また本発明に対する限定ではない。
以下、更に具体的に前記デジタル信号処理器104によって路面高度推定が得られる処理プロセスを説明する。
3.第一実施例の路面高度形状推定方法の例
図2は第一実施例の路面高度形状推定方法200の例である。道路シーン内の路面高度形状推定方法200は、道路シーン視差図が得られ(S201)、前記視差図に基づいて路面関心領域を検知し(S202)、前記路面関心領域に基づいて複数の路面関心点を確定し(S203)、そして前記複数の路面関心点に基づいて路面高度形状を推定する(S204)ことを含む。
当該方法200は図1に示すデジタル信号処理器104で行うことができる。例えば、ステップS201では得たい道路シーンの視差図は図1の二眼カメラ101によって道路シーンを撮影して得られ、当該視差図の例は図4Bに見ることができる。通常、撮影した当該道路シーンには道路、建築物、歩行者、道端の障害物等々が含まれる。
3−1.路面関心領域検知の例示的なプロセス
図3は方法200のステップ202の、前記視差図に基づいて路面関心領域検知ステップの例示的なプロセスである。
前記視差図に基づいて路面関心領域検知ステップ(S202)が、前記視差図の下部視差図を選択し(S2021)、前記下部視差図を二値化処理して二値画像が得られ(S2022)、前記二値画像にモルフォロジー・エロージョンを行い(S2023)、モルフォロジー・エロージョン後の画像中の所定部分を選んで1つまたは複数のシードを設置し(S2024)、前記1つまたは複数のシードに基づいて領域成長を行い(S2025)、領域成長後に得られたブロックを路面関心領域とする(S2026)ことを含む。
路面関心領域検知の目的は路面関心点を探し出すことである。一般的に路面は全て撮影した画像の下方にあり、参考図4Aに示すとおりである。そこでS2021ステップでは、前記視差図(例えば図4B)の下部視差図(例えば図4Bの視差図の下半分)を選択し、これによってその後に行われる二値化、モルフォロジー・エロージョン、シードの設置、領域成長等々のステップの計算量を減少させることができる。
ステップS2022では、前記下部視差図を二値化処理して二値画像が得られ、参考図4Cに示すとおりである。視差図の下部に対してだけ二値化が行われていることも見て取れる。
仮に二値化の閾値をTdとし、もし画素点P(i,j)の視差値が閾値Tdより小さければ、それを最大値とし、そうでなければそれを0とし、そこではi、jはそれぞれ視差図の横座標と縦座標を表すとすると、これによって二値化後の二値画像I(x,y)が得られ、x,yはそれぞれ二値画像の横座標と縦座標を表す。
二値画像が得られるメリットは、路面の路肩を含めて物体の輪郭をざっと捉えることができる点にあり、参考図4Cで、既に路面の路肩の輪郭が概略的に見えている。ここにおける二値画像は完全な黒白ではなく、黒またはグレーであるが、当然、これは例示に便利なように白い文字を加えただけであり、実際にはここの二値画像中のグレーは白さが最高の白色(即ち255)を表している。
続いて、ステップS2023では、前記二値画像にモルフォロジー・エロージョンを行う。前記したように、モルフォロジー・エロージョンは物体の境界を内側に収縮させるプロセスであり、小さく無意味な物体を消去するのに用いることができる。モルフォロジー・エロージョンに用いる構造要素T(i,j)を選ぶ(通常は3x3の行列)。以前に選んだ構造要素T(i,j)(例えば、その内部要素を、T(i,j)={(−1,−1),(−1,0),(−1,1),(0,−1),(0,0),(0,1),(1,−1),(1,0),(1,1)}とする)を用いて、前記ステップで得られた二値化画像I(x,y)をエロージョンし、エロージョン後の画像C(x,y)が得られる。
Figure 0006442834
以上、エロージョン演算を行った公式は当業者には公知のものであり、これに限定するものではない。また当業者が公知とするその他のエロージョン演算方式を参考にしてエロージョンを行い同じ効果を実現してもよい。
図4Dから、エロージョン後の画像が路面境界(例えば路面表示、路肩等、運転できる領域と運転できない領域を区分できる標識)をよりはっきりしたものに変えられたことが見て取れるが、これは図4Cの二値画像中の境界(例えば路面表示、路肩等、運転できる領域と運転できない領域を区分できる標識)内部の極めて小さな白点(図中ではグレー表示)が消去されたからである。このようにするメリットは、路面境界を探し出すのをより容易にし、かつ次のシードの領域成長(以下に詳述する)が路面境界内部の微小白点(またはグレー点)によって誤って路面外部に拡張されることのないようにすることにある。
その後、ステップS2024では、モルフォロジー・エロージョン後の画像中の所定部分を選んで1つまたは複数のシードを設置する。当該所定部分は路面の一部をカバーするが路面境界をはみ出してはならない。路面は通常、車両の真ん前に位置し、このため車両運転中は、車両前方に寄った小さい領域が路面の一部である確率が比較的大きい。そこで、本実施例では、車両の真ん前の小さな三角形または台形領域を領域成長のシード点に選び、このようにしてこの所定部分が路面範囲内に存在し、路面境界をはみ出さないことをできる限り保証することができる。参考図4Eは、画像の真下に1つの小さな三角形を置いて当該所定部分とし、当該所定部分に1つまたは複数のシードを設置することができることを示している。
シードの選択と設置はシードを基に領域成長した結果に影響を与える可能性がある。シードを基に領域成長した後に得られる領域を実際の路面形状にできる限り近づけるためには、なるべく路面である可能性が高い領域内にシードを選択するのがよく、同時に、少量のシードだともたらされるかもしれない不確定性をより多くのシードを選択することによって消去し領域成長の正確性を高めることもできる。
ステップS2025では、前記の選択と設置した1つまたは複数のシードに基づいて領域成長を行う。前に専門用語と専門語彙の章で説明したように、領域成長はシード画素の周辺近傍領域でシード画素と同じまたは相似した性質をもつ画素をシード画素の存在する領域に結合し、これらの新しい画素を新しいシード点として前記プロセスを繰り返し、条件を満足する画素点が無くなった時に拡張を停止することを含む。
ここで1つ問題となるのは、時々、路面境界がかなり曖昧かつ不連続で、領域成長のプロセスが道路境界を越え路面以外の領域に伸びてしまいかねないことである。この状況に対しては少なくとも以下の3つの解決方法がある。
方法1は、時として路面境界が曖昧であるとしても、それは確かに運転できる領域(例えば、路面)と運転できない領域(例えば路肩、緑地帯、路辺その他建築等)の間に存在する、と言うのは運転できる領域と運転できない領域、または路面と称する領域と非路面領域とは異なる色、模様または高度等を有するからである。この特性により、1つの比較的低い閾値Tdを設定して例え曖昧な道路境界でも容易には越えさせないようにし、領域成長が過度に広がることを防止することができる。
方法2は、比較的大きな構造要素T(i,j)(例えば5x5の行列等々)を用い二値画像をエロージョンして、路面と非路面領域を分割する。
方法3は、領域成長の他のパラメータを調整して、比較的大きな近傍領域ウィンドウを設置することであり、このように領域成長すれば微小で不連続な道路境界の隙間を通り抜けることができず道路境界の外側まで成長することもない。
そこで、仮に領域成長したとした場合に得られるブロックを参考図4Fのように示す。更に参考図4Gによって異なる道路シーン中でシードの設置と領域成長を行った実体模倣結果を示すことができる。見て分かるように、本発明の実施例のシードの設置と領域成長の結果は全て比較的正確にそして信頼性高く実際の路面と同じまたは近似した路面ブロックを探し出せている。
ステップS2026では、領域成長後に得られたブロックを路面関心領域(ROI)とする。一点説明を要することは、この路面関心領域ROIは決して路面領域全体とは等しくないかもしれないことで、路面領域全体より小さいかまたは等しいかもしれない。これは本実施例において、この路面の高度推定計算は信頼できる一部の路面領域を必要とするだけでその後の路面高度推定を行っており、このため路面全体の検知を必要としていないからである。また路面領域全体と比較して、路面領域全体より小さいかまたは等しい路面関心領域ROIは検知がしやすく、このようにして計算量を更に減少させることができる。また、小さいけれど信頼できる路面領域を検出して路面高度推定を行うので、路面高度推定を更に正確にすることができる。
3−2.路面関心点確定の例示的なプロセス
路面関心点の確定に用いるステップS203では、前記路面関心領域(ROI)に基づいて複数の路面関心点(POI)を確定することができる。図5は路面関心点を確定するステップS203の例示的なプロセスである。このステップS203は具体的には、前記路面関心領域に対して後処理を行い(S2031)、後処理した路面関心領域と前記視差図の交わり部分を前記複数の路面関心点とする(S2032)ことを含む。
3−2−1. 路面関心領域後処理の例示的なプロセス
図6の(a)から(i)は路面関心領域に対して後処理を行う3つの例示的なプロセスであえる。
ステップS2031の後処理は、(1)前記路面関心領域に対しモルフォロジー・ダイレーションを行い、モルフォロジー・ダイレーション後の路面関心領域を後処理後の路面関心領域とし、(2)前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭を後処理後の路面関心領域とし、そして(3)前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭が囲むブロックを後処理後の路面関心領域とすることのうちの一つを含む。
具体的には、もし上述した後処理方法(1)を用いるなら、路面関心点を確定するのに用いるステップS203に基づいて路面関心領域ROI中の全ての点を選択し路面関心点POIとし、参考図6の(a)−(c)の示すとおりである。代替として、もし上述した後処理方法(2)を用いるなら、路面関心領域ROIの輪郭またはその付近の点を選択し路面関心点POIとし、参考図6の(d)−(f)の示すとおりである。代替として、もし上述した後処理方法(3)を用いるなら、路面関心領域ROI輪郭内の全ての点を選択し路面関心点POIとし、参考図6の(g)−(i)の示すとおりである。
上述した3つの方法(1)−(3)はそれぞれ特徴があり、実際状況に応じて最良の方法を選べばよいが、その目的は全て路面高度形状をより表すことのできる路面関心点POIを確定するためであり、これらの路面関心点POIによってより正確に以下に述べる路面高度形状推定ができる。
3−3. 路面高度形状推定の例示的なプロセス
路面高度形状推定に用いるステップS204は、(a)前記複数の路面関心点に基づいて、前記視差図中で同じ距離Dおよび同じ水平座標Xを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面の平面フィッティングを行い前記路面高度形状が得られ、そして(b)前記複数の路面関心点をV視差図投影し、前記V視差投影中で同じ距離Dを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面のセグメントまたは複数のセグメントの直線フィッティングを行って前記路面高度形状が得られることのうちの一つを含む。
上述の方法(a)は簡単に路面平面フィッティングと言うことができる。
まず路面関心点POIにより路面候補点を選ぶ必要がある。実際の3D環境では、路面は通常その他の物体の底部に位置している。このため道路シーン画像中では、路面も画像の下部に位置するので、高度特徴により路面候補点の選択を行う。例えば、同じ座標Xと同じ距離D(または同じ視差値d)を有しているそれらの点に対して、最小y座標値を有する点(即ち、最低点)を選んで各路面候補点とすることができる。この処理プロセスを経て、点のデータは更に減少し、また路面より高すぎる夾雑点を除去でき、このようにして路面候補点が確実に実際の路面上に位置する確率をできる限り高めることもできる。
その後、選択した路面候補点を利用して3次元空間における路面の平面フィッティングを行うが、これは実際の路面が3次元空間では通常平面だからである。路面平面フィッティングを行った後、路面平面の各種パラメータが得られることができ、即ちフィッティングの得られたこの路面高度形状(路面平面)を路面高度の関数、例えばh(x,y,D)またはh(x,y,d)(即ち、立体空間中で横座標x、縦座標y、深度距離Dまたは横座標x、縦座標y、視差値dが確定する路面上のある1点の高度)とすることができる。
代替として、上述の方法(b)は簡単に路面直線フィッティングと言うことができる。その処理プロセスは、以下のステップを含む。
路面候補点を選ぶ前に、先に路面POIに対して側面投影を行いV視差図を作成する。元の視差図で、各画素点は3次元空間の1つの点(U−水平次元、V−垂直次元、D−深度次元)を表示する。側面を垂直平面(V−垂直次元、D−深度次元)に投影した後、全ての画素点のU座標が消失し、この新しく生まれた映写画像がV視差図となる。V視差図中の値は元の視差図中の画素点のU方向における累積個数である。ここではV視差図だけを利用して直線フィッティングを行いフィッティング点の数が大きく減少するので計算量を減少させる。参考図7でこのV視差図投影をより容易に理解することができる。図7はV視差図投影を行う異なる道路シーンの実際の応用例である。
その後、路面候補点を選ぶ。元の視差図では、路面は通常画像の中央から下部に位置するので、V視差図投影後、路面点は依然画像の底部に位置するはずである。そのため高度特徴によって路面候補点の選択を行う。V視差図中で、同じ視差値d(または同じ深度距離D)を有する画素点に対し、最小y座標値を有する点(即ち最低点)だけを選び各路面候補点とする。図7に示すように、POIによるV視差図例では、見たところ道路線上方に夾雑点があるように見え、この最低点選択の処理プロセスを経て、路面より高すぎる夾雑点を除去でき、また点のデータは更に減少し、このようにして路面候補点が確実に実際の路面上に位置する確率をできる限り高めることもできる。
その後、選択した路面候補点を利用してV−D2次元空間(即ちV視差図)内の路面の直線フィッティングを行い、路面直線の各種パラメータが得られることができ、即ちフィッティングしたこの路面高度形状(路面直線)を路面高度の関数、例えばh(D)またはh(d)(即ち、V視差図で深度距離Dまたは視差値dが確定する路面上のある1点の高度)とすることができる。当然、路面は常に真っ直ぐというわけではないので、時には区分した直線フィッティングが必要となることもあり、多くの路面直線の各種パラメータが得られる。
ここでは、最小二乗法、Hough変換法等、色々な直線フィッティング方法を使用することができる。当然、現実世界の路面は常に平らというわけではなく、上り坂、下り坂等の道路類型がある。そのため分割直線の道路モデルを用いて道路側面輪郭を表現し、路面高度形状とすることもできる。各分割直線では、引き続き従来の直線フィッティング方法を用いて直線パラメータを取得することができる。本実施例で、もし分割直線の道路モデルを用いまたHough変換を用いて分割直線フィッティングを行った場合、V視差図中で路面の分割直線フィッティングを行った結果が得られることができ参考図9に示す。
図8Aと8Bは本発明実施例により得られた路面高度検知と既存技術の従来方式により得られたV視差図投影と路面高度推定結果の比較概念図である。
本発明は、参考図8Aと8Bに示すように、路面関心領域および路面関心点を利用してV視差図投影と直線フィッティングを行うので、本発明実施例は従来方法によってV視差図全体の投影を利用して路面検知を行うのと比べ、実際路面より高いおよび実際路面より低い夾雑点を消去することができ、より正確に路面高度検知と推定を行うことができ、道路標識に頼ることがなく、同時に計算量も減少する。
3−4. 対象の実際高度推定の例示的なプロセス
図10は本発明の推定した路面高度形状に基づいて得られた路面点の例である。つまり、これらの路面点は全て路面の高度を有する。本発明実施例を推定して例えば図10に示すような路面高度形状推定(平面推定か直線推定かを問わず)が得られた後、前記路面高度形状(例えば、h(x,y,d)またはh(d))に基づいて道路シーン中の実際のある対象の実際の高度を推定する。
以下、Hough変換を用いて直線の路面高度形状h(d)を推定するのを例に前記路面高度形状に基づいてどのように路面上のある対象の実際高度を推定するかを説明する。
まず、推定した路面高度形状h(d)により、この対象の具体的距離D’について、前記距離D’に対応する路面高度h(d)が得られ、このうちdは距離D’に対応する視差値を表す。
その中で、
Figure 0006442834
ここで、h(d)は路面高度、dは距離D’地点の視差図である。ρとθはHough変換を用いて推定した路面直線のパラメータである。ここにおける路面高度h(d)は実際の路面高度ではなく、画像座標高度(単位は画素)である。
その後、次の公式によりこの対象の実際高度hs(D’)が得られる。
Figure 0006442834
このうち、bは視差図を撮影するのに用いる二眼カメラの基準線の長さを表し、vは前記二眼カメラに関する所定オフセット値を表し、yは視差値dを有する画素点の縦座標を表す。このうち、bとvは全て二眼カメラ出荷時固有のパラメータである。この実際高度hs(D’)の単位はメートルまたはセンチメートルでよい。
このように、正確で効率良く路面を検知し及び/または路面高度形状を推定することを通じて、得られた路面高度形状を利用して、路面シーン中の対称、例えば歩行者、車両、建築物等の実際の高度推定だけに限られず、自動道路運転、車両検知、歩行者検知等々の対車両制御アプリケーションへの更なる応用も含むその他の各種応用を行うことができる。
本発明の実施例の方法により複雑な路面状況を処理する事ができ、道端の溝、高架橋付近の建築物等の夾雑物に対し比較的強いロバスト性を有し、路面より高すぎる物体または路面より低すぎる物体を効率よく除去し、路面高度検知結果を比較的信頼できる正確なものにすることができる。
前記既存技術による視差図全体を用いて路面高度推定を行うのに比べ、本発明においては、路面関心領域と関心点の検知を先に行い、これに基づいて路面高度推定方式をもう一度行い路面より高すぎる物体および路面より低すぎる物体を除くことができ、これによってより正確に路面である可能性を有する領域を探し出すことができる。これと同時に、限られた数の路面関心点だけを使って路面の直線/平面フィッティングを行い路面の高度形状が得られるため、その計算量は大きく減少する。
如何に正確に道路である可能性を有する領域を探し出すかは路面高度推定にとって非常に有用であり、従って本発明の実施例の路面関心領域を検知し最も道路である可能性を有する領域を探し出すことは、より正確な路面高度推定を進める上で大きな助けとなる。路面関心領域が道路路面全体の領域より大きくないので、路面全体に比べてより検知しやすくなり、検知精度と信頼性を増し計算量を大きく減少させる。
既存技術で路面表示を使用して路面高度推定を行うが、本発明では路面関心領域と関心点の検知を先に行い、これに基づいて路面高度推定方式をもう一度行い路面表示やその他の道路標識に頼ることがないので、異なるかつ複雑な道路類型に対して比較的高い適応性を有する。
4.第二実施例の路面高度形状推定のシステム例
図11は第二実施例の道路シーン中で路面高度形状を推定するシステム1100の例である。
道路シーン内路面高度形状推定システム1100は、道路シーン視差図が得られる装置1101、前記視差図に基づいて路面関心領域を検知する装置1102、前記路面関心領域に基づいて複数の路面関心点を確定する装置1103、そして前記1つまたは複数の路面関心点に基づいて路面高度形状を推定する装置1104を含む。
当然、当該システム1100は例えば前記参考図1−10に説明した各実施例の方法やステップを実現するのに用いるその他の装置を含むことができるが、ここでは一つ一つ繰り返して述べない。
本発明の実施例のシステムにより複雑な路面状況を処理する事ができ、道端の溝、高架橋付近の建築物等の夾雑物に対し比較的強いロバスト性を有し、路面より高すぎる物体または路面より低すぎる物体を効率よく除去し、路面高度検知結果を比較的信頼できる正確なものにすることができる。
前記既存技術による視差図全体を用いて路面高度推定を行うのに比べ、本発明においては、路面関心領域と関心点の検知を先に行い、これに基づいて路面高度推定方式をもう一度行い路面より高すぎる物体および路面より低すぎる物体を除くことができ、これによってより正確に路面である可能性を有する領域を探し出すことができる。これと同時に、限られた数の路面関心点だけを使って路面の直線/平面フィッティングを行い路面の高度形状が得られるため、その計算量は大きく減少する。
如何に正確に道路である可能性を有する領域を探し出すかは路面高度推定にとって非常に有用であり、従って本発明の実施例により路面関心領域を検知し最も道路である可能性を有する領域を探し出すことは、より正確な路面高度推定を進める上で大きな助けとなる。路面関心領域が道路路面全体の領域より大きくないので、路面全体に比べてより検知しやすくなり、検知精度と信頼性を増し計算量を大きく減少させる。
既存技術で路面表示を使用して路面高度推定を行うが、本発明では路面関心領域と関心点の検知を先に行い、これに基づいて路面高度推定方式をもう一度行い路面表示やその他の道路標識に頼ることがないので、異なるそして複雑な道路類型に対して比較的高い適応性を有する。
しかも、正確で効率良く路面を検知しそして/または路面高度形状を推定することを通じて、得られた路面高度形状を利用して、路面シーン中の対象、例えば歩行者、車両、建築物等の実際の高度推定だけに限らず、自動道路運転、歩行者検知等々の対車両制御アプリケーションへの更なる応用も含むその他の各種応用を行うことができる。
本開示に関する部品、装置、設備、システムの例示的なブロック図は例示的な例に過ぎず、必ずブロック図に示す方法に従って接続、配列、配置することを意図または暗示していない。当業者が知り得た方法、いずれの方法でこれらの部材、装置、設備、システムを接続、配列、配置してもよい。例えば、「含める」「含む」「有す」などの用語は開放性用語であり、「含むが、それに限定されない」を指し、互いに互換使用できる。ここで使用している用語「または」と「及び」は単語「及び/または」を指し、互いに互換使用できる。文脈で明確に指し示していなければ、こうではない。ここで使用している用語「例えば」は、連語「例えば〜だが、それに限定されない」を指し、また互いに互換使用できる。
本開示のステップフローチャート及び以上の方法説明は例示的な例に過ぎず、必ず示した順序に従って各実施例のステップを実施することを意図または暗示していない。当業者が知り得た順序、いずれか順序で以上の実施例内のステップの順序を行ってもよい。例えば「その後」「それから」「次に」などの用語には、ステップの順序を限定する意図はない。これらの用語は、読者がこれらの方法の説明を通読するのを誘導するのに用いるに過ぎない。このほか、例えば冠詞「ひとつ」「一」または「該」を使用した単数に対する要素のいかなる引用も該要素を単数に限定するとは解釈されない。
公開された方面の以上説明を提供することで、当業者が本発明を作成または使用できるようにしている。これら方面への各種修正は、当業者にとって非常に明らかなものであり、またここで定義している一般原理はその他方面で本発明を逸脱しない範囲で応用できる。そのため、本発明はここに示した方面に限定される意図はなく、ここで開示している原理と新しい特徴と一致する最も広い範囲に従う。

Claims (16)

  1. 道路シーン視差図が得られ、
    前記視差図に基づいて路面関心領域を検知し、
    前記路面関心領域に基づいて複数の路面関心点を確定し、
    前記複数の路面関心点に基づいて路面高度形状を推定することを含み、
    前記視差図に基づいて路面関心領域を検知するステップが、
    前記視差図の下部視差図を選択し、
    前記下部視差図を二値化処理して二値画像を取得し、
    前記二値画像にモルフォロジー・エロージョンを行い、
    モルフォロジー・エロージョン後の画像中の所定部分を選んで1つまたは複数のシードを設置し、
    前記1つまたは複数のシードに基づいて領域成長を行い、
    領域成長後に得られたブロックを路面関心領域とすることを含む、道路シーン内の路面高度形状推定方法。
  2. 前記所定部分が、路面のエッジをはみ出ることなく、路面の一部をカバーする、請求項1に記載の方法。
  3. 前記所定部分が画像の真下に位置する、請求項1または2に記載の方法。
  4. 前記路面関心領域に基づいて複数の路面関心点を確定するステップが、
    前記路面関心領域に対し後処理を行い、
    後処理した路面関心領域と前記視差図の交わり部分を前記複数の路面関心点とすることを含む、請求項1に記載の方法。
  5. 前記後処理が、
    前記路面関心領域に対しモルフォロジー・ダイレーションを行い、モルフォロジー・ダイレーション後の路面関心領域を後処理後の路面関心領域とするステップと、
    前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭を後処理後の路面関心領域とするステップと、
    前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭が囲むブロックを後処理後の路面関心領域とするステップのいずれかを含む、請求項4に記載の方法。
  6. 前記複数の路面関心点に基づいて路面高度形状を推定するステップが、
    前記複数の路面関心点により、前記視差図中で同じ距離Dおよび同じ水平座標Xを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面の平面フィッティングを行い前記路面高度形状が得られるステップと、
    前記複数の路面関心点をV視差図投影し、前記V視差投影中で同じ距離Dを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面のセグメントまたは複数のセグメントの直線フィッティングを行って前記路面高度形状が得られるステップのいずれかを含む、請求項1に記載の方法。
  7. 前記路面高度形状により道路シーン中の対象の実際高度を推定することを含む、請求項1に記載の方法。
  8. 前記路面高度形状により道路シーン中の対象の実際高度推定を行うステップが、
    推定した前記路面高度形状に基づいて、前記対象の距離D’に対して、前記距離D’に対応する路面高度h(d)が得られ、ここでdは前記距離D’に対応する視差値を表し、
    以下の公式に基づいて前記対象の実際高度hs(D’)が得られるステップを含み、
    Figure 0006442834
    式中、bは視差図の撮影に用いる二眼カメラの基準線の長さを表し、vは前記二眼カメラに関する所定オフセット値を表し、yは視差値dを有する画素点の縦座標を表す、請求項7に記載の方法。
  9. 道路シーンの視差図を取得する装置、
    前記視差図に基づいて路面関心領域を検知する装置、
    前記路面関心領域に基づいて複数の路面関心点を確定する装置、及び
    前記複数の路面関心点に基づいて路面高度形状を推定する装置を含み、
    前記視差図に基づいて路面関心領域を検知する装置が、
    前記視差図の下部視差図を選択し、
    前記下部視差図を二値化処理して二値画像を取得し、
    前記二値画像にモルフォロジー・エロージョンを行い、
    モルフォロジー・エロージョン後の画像中の所定部分を選んで1つまたは複数のシードを設置し、
    前記1つまたは複数のシードに基づいて領域成長を行い、
    領域成長後に得られたブロックを路面関心領域とする、道路シーン内路面高度形状推定システム。
  10. 前記所定部分が、路面のエッジをはみ出ることなく、路面の一部をカバーする、請求項9に記載のシステム。
  11. 前記所定部分が画像の真下に位置する、請求項9または10に記載のシステム。
  12. 前記路面関心領域に基づいて複数の路面関心点を確定する装置が、
    前記路面関心領域に対し後処理を行い、
    後処理した路面関心領域と前記視差図の交わり部分を前記複数の路面関心点とする、請求項9に記載のシステム。
  13. 前記後処理が、
    前記路面関心領域に対しモルフォロジー・ダイレーションを行い、モルフォロジー・ダイレーション後の路面関心領域を後処理後の路面関心領域とするステップと、
    前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭を後処理後の路面関心領域とするステップと、
    前記路面関心領域の路面輪郭を抽出し、前記路面輪郭に対しモルフォロジー・ダイレーションを行い、前記モルフォロジー・ダイレーション後の路面輪郭が囲むブロックを後処理後の路面関心領域とするステップのいずれかを含む、請求項12に記載のシステム。
  14. 前記複数の路面関心点に基づいて路面高度形状を推定する装置が、
    前記複数の路面関心点により、前記視差図中で同じ距離Dおよび同じ水平座標Xを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面の平面フィッティングを行い前記路面高度形状を取得し、又は
    前記複数の路面関心点をV視差図投影し、前記V視差投影中で同じ距離Dを有する最低点を選んで各路面候補点とし、前記路面候補点に基づいて路面のセグメントまたは複数のセグメントの直線フィッティングを行って前記路面高度形状を取得する、請求項9に記載のシステム。
  15. 前記路面高度形状により道路シーン中の対象の実際高度を推定する装置を更に含む、請求項9に記載のシステム。
  16. 前記路面高度形状により道路シーン中の対象の実際高度推定を行う装置が、
    推定した前記路面高度形状に基づいて、前記対象の距離D’に対して、前記距離D’に対応する路面高度h(d)を取得し、ここでdは前記距離D’に対応する視差値を表し、
    以下の公式に基づいて前記対象の実際高度hs(D’)を取得し、
    Figure 0006442834
    式中、bは視差図の撮影に用いる二眼カメラの基準線の長さを表し、vは前記二眼カメラに関する所定オフセット値を表し、yは視差値dを有する画素点の縦座標を表す、請求項15に記載のシステム。
JP2014035646A 2013-02-28 2014-02-26 路面高度形状推定方法とシステム Expired - Fee Related JP6442834B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310063898 2013-02-28
CN201310063898.2A CN104021368A (zh) 2013-02-28 2013-02-28 估计路面高度形状的方法和系统

Publications (2)

Publication Number Publication Date
JP2014170540A JP2014170540A (ja) 2014-09-18
JP6442834B2 true JP6442834B2 (ja) 2018-12-26

Family

ID=50193214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014035646A Expired - Fee Related JP6442834B2 (ja) 2013-02-28 2014-02-26 路面高度形状推定方法とシステム

Country Status (3)

Country Link
EP (1) EP2772883B1 (ja)
JP (1) JP6442834B2 (ja)
CN (1) CN104021368A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104833364B (zh) * 2015-05-07 2018-05-18 深圳市爱民科技有限公司 一种在颠簸道路上的安全路线指示方法
CN105261017B (zh) * 2015-10-14 2018-12-11 长春工业大学 基于路面约束的图像分割法提取行人感兴趣区域的方法
JP6808586B2 (ja) * 2017-07-05 2021-01-06 クラリオン株式会社 車両用外界認識装置
CN107764458A (zh) * 2017-09-25 2018-03-06 中国航空工业集团公司西安飞机设计研究所 一种飞机操纵特性曲线生成方法
CN109117837B (zh) * 2018-07-26 2021-12-07 上海鹰瞳医疗科技有限公司 感兴趣区域确定方法和设备
CN110826357B (zh) 2018-08-07 2022-07-26 北京市商汤科技开发有限公司 对象三维检测及智能驾驶控制的方法、装置、介质及设备
CN109117840A (zh) * 2018-08-16 2019-01-01 上海鹰瞳医疗科技有限公司 感兴趣区域修正方法和设备
CN111243003B (zh) * 2018-11-12 2023-06-20 海信集团有限公司 车载双目摄像机及其检测道路限高杆的方法、装置
CN110503093B (zh) * 2019-07-24 2022-11-04 中国航空无线电电子研究所 基于视差图dbscan聚类的感兴趣区域提取方法
JP7206172B2 (ja) * 2019-09-19 2023-01-17 京セラ株式会社 物体検出装置、物体検出システム、移動体及び物体検出方法
CN112149493B (zh) * 2020-07-31 2022-10-11 上海大学 基于双目立体视觉的道路高程测量方法
WO2022190314A1 (ja) * 2021-03-11 2022-09-15 日本電気株式会社 画像解析装置、画像解析方法及びプログラムが格納されたコンピュータ可読媒体
CN114495043B (zh) * 2022-04-06 2022-08-16 北京中科慧眼科技有限公司 基于双目视觉系统的上下坡路况检测方法、系统和智能终端
CN116630899B (zh) * 2023-07-21 2023-10-20 四川公路工程咨询监理有限公司 一种高速公路边坡病害监测预警系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP5441549B2 (ja) * 2009-07-29 2014-03-12 日立オートモティブシステムズ株式会社 道路形状認識装置
CN102156977A (zh) * 2010-12-22 2011-08-17 浙江大学 一种基于视觉的道路检测方法

Also Published As

Publication number Publication date
EP2772883A2 (en) 2014-09-03
CN104021368A (zh) 2014-09-03
JP2014170540A (ja) 2014-09-18
EP2772883B1 (en) 2018-10-10
EP2772883A3 (en) 2016-03-09

Similar Documents

Publication Publication Date Title
JP6442834B2 (ja) 路面高度形状推定方法とシステム
CN111209770B (zh) 一种车道线识别方法及装置
Chen et al. Next generation map making: Geo-referenced ground-level LIDAR point clouds for automatic retro-reflective road feature extraction
Cheng et al. Curb detection for road and sidewalk detection
Nedevschi et al. A sensor for urban driving assistance systems based on dense stereovision
JP6299291B2 (ja) 道路エッジ検出方法及び道路エッジ検出装置
Gomez et al. Traffic lights detection and state estimation using hidden markov models
EP2743861B1 (en) Method and device for detecting continuous object in disparity direction based on disparity map
US20090028389A1 (en) Image recognition method
Chen et al. Building reconstruction from LIDAR data and aerial imagery
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
Panev et al. Road curb detection and localization with monocular forward-view vehicle camera
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
CN109791607A (zh) 借助单应矩阵从摄像机的一系列图像中探测和验证对象
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
CN103679121A (zh) 采用视差图像检测路边的方法及系统
CN107220632B (zh) 一种基于法向特征的路面图像分割方法
KR101998584B1 (ko) 차선 검출 장치 및 차선 검출 방법
Perrollaz et al. Using obstacles and road pixels in the disparity-space computation of stereo-vision based occupancy grids
Hwang et al. Vision-based vehicle detection and tracking algorithm design
Giosan et al. Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information
Na et al. Drivable space expansion from the ground base for complex structured roads
CN104252707A (zh) 对象检测方法和装置
Kiran et al. Automatic hump detection and 3D view generation from a single road image
Schomerus et al. Camera-based lane border detection in arbitrarily structured environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R151 Written notification of patent or utility model registration

Ref document number: 6442834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees