JP2010510559A - 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 - Google Patents

地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 Download PDF

Info

Publication number
JP2010510559A
JP2010510559A JP2009534521A JP2009534521A JP2010510559A JP 2010510559 A JP2010510559 A JP 2010510559A JP 2009534521 A JP2009534521 A JP 2009534521A JP 2009534521 A JP2009534521 A JP 2009534521A JP 2010510559 A JP2010510559 A JP 2010510559A
Authority
JP
Japan
Prior art keywords
image
data
candidate
orientation
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009534521A
Other languages
English (en)
Other versions
JP2010510559A5 (ja
Inventor
ルーカス ピオラ タボロヴスキ,
ラファル ヤン グリチェニンスキ,
アルカディウズ ヴィソツキ,
マルチン ミーハウ クミーチク,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tele Atlas BV
Original Assignee
Tele Atlas BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tele Atlas BV filed Critical Tele Atlas BV
Publication of JP2010510559A publication Critical patent/JP2010510559A/ja
Publication of JP2010510559A5 publication Critical patent/JP2010510559A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

本発明は、地上モバイルマッピングデータからオブジェクトを検出する方法に関する。この場合、地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに車両の位置データ及び方位データを含み、レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含む。方法は、車両の位置及び方位を検索することと、注目領域に対応するレーザポイントを取得するため、車両の位置及び方位に依存してレーザスキャナデータをフィルタリングすることと、車両の位置及び方位と関連するソース画像を検索することと、認識マスクを生成するため、注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、注目領域内の可能なオブジェクトを表す候補3D画像を取得するため、認識マスク及びソース画像を組み合わせることと、候補3D画像からオブジェクトグループを検出することとを含むことを特徴とする。画像認識及びレーザスキャナ認識を組み合わせることにより、検出率は非常に高い割合まで増加可能であり、そのため歩行者の労力を大幅に減少する。更に、レーザデータにおいて注目領域を生成することにより、画像内のオブジェクトを検出するために必要な処理能力及び/又は処理時間を大幅に減少できる。

Description

本発明は、地上モバイルマッピングデータからオブジェクトを検出する方法に関する。この場合、地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに車両の位置データ及び方位データを含み、レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含む。更に本発明は、地図データベースで使用するために地上モバイルマッピングデータからオブジェクトを取り込む装置、コンピュータプログラム及びコンピュータプログラムを記憶するプロセッサ可読媒体に関する。
ナビゲーションシステム等において使用されるデジタル地図データベースのため、多くの「垂直」道路情報、例えば道路標識、制限速度、方向案内標識、看板等を収集する必要がある。用語「垂直」は、道路情報の情報平面が重力ベクトルに対してほぼ平行であることを示す。「垂直道路情報」の特性は、それらがほぼ平面であることである。現在、垂直道路情報は、移動収集デバイスにより収集される垂直な写真画像及び他のデータを解析及び解釈することにより取得可能である。自動車又はバン等の地上車両であるモバイルマッピング車両は、デジタル地図データベースを改善するためのモバイルマッピングデータを収集するために使用される。改善例は、交通標識、道路標識、交通信号、街路名を示す街路標識等の場所である。これらのオブジェクトのジオ空間場所は地図データベースに追加可能であり、画像内のこれらのオブジェクトの場所は、標識上に提示される情報を抽出するために更に使用可能である。
モバイルマッピング車両は多くのカメラを有し、その一部は立体カメラである。バンが高精度GPS、並びに他の位置及び方位判定機器を車載するため、カメラの地理位置は正確に決められる。道路網を走行中、画像シーケンスが取り込まれる。
モバイルマッピング車両はオブジェクト、例えば建物又は路面の2つ以上の画像シーケンスを記録し、画像シーケンスの画像毎に、地理位置が画像シーケンスの方位データと共に正確に判定される。対応する地理位置情報を有する画像シーケンスをジオコーディングされた画像シーケンスと呼ぶ。他のデータも他のセンサにより収集され且つ同時に及び同様にジオコーディングされてもよい。例えば、レーザスキャナはレーザスキャナデータを収集するために使用可能である。高解像度レーザスキャナはレーザスキャナデータを提供し、それにより、技術者はレーザスキャナデータからオブジェクトを自動検出できる。高解像度レーザスキャナは、走査平面に沿って0.1°の解像度及び300Hzの走査周波数を有する。しかし、高解像度レーザスキャナは高価であるため、通常の地上測定において使用するのは困難である。
処理するデータの量が膨大なため、画像シーケンスの解析は非常に時間がかかり且つ多くの処理能力を必要とする。更に、高解像度レーザスキャナデータは、形態、形状又は位置によるオブジェクトの検出のみに適している。
本発明は、低解像度レーザスキャナ装置により取得可能なレーザスキャナデータを含む地上モバイルマッピングデータからオブジェクトを自動検出する改良された方法を提供することを目的とする。
本発明によると、方法は、
車両の位置及び方位を検索することと、
注目領域に対応するレーザポイントを取得するため、車両の位置及び方位に依存してレーザスキャナデータをフィルタリングすることと、
車両の位置及び方位と関連するソース画像を検索することと、
認識マスクを生成するため、注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、
注目領域を表す候補3D画像を取得するため、認識マスク及びソース画像を組み合わせることと、
候補3D画像からオブジェクトグループを検出することとを備えることを特徴とする。
本発明は、デジタルカメラにより取得される画像の画素の色がカメラの直接ビュー内に存在する各最近接表面ポイントの色に対応し且つレーザスキャナ装置からのレーザデータがレーザスキャナ装置とレーザ光線を反射する表面ポイントとの間の距離に対応するという認識に基づく。通常、現在のカメラで使用されるレンズは、画素当たり約0.01°〜0.1°の角度解像度で写真を撮影する解像度及び焦点距離を有する。レーザスキャナ装置は、向けられた方向毎に、レーザスキャナ装置とレーザ光線を反射する障害物の表面ポイントとの間の距離を検出及び算出する。本発明のレーザスキャナ装置の角度解像度は約1°である。デジタルカメラの出力である画素の色及びレーザスキャナ装置の出力であるレーザスキャナと表面ポイントとの間の距離の双方は、表面ポイントとセンサとの間の最短経路を介して測定されている。従って、これらの出力は、レーザスキャナ装置により取得される3次元(3D)位置情報を画素毎に考慮することによりソース画像内のオブジェクトの認識を向上するために組み合わせ可能である。取り込まれた表面の3D表現はレーザスキャナデータから作成可能である。モバイルマッピング車両により取り込まれる画像及びレーザデータの双方は、座標参照系における関連する位置データ及び方位データを含む。これにより、異なる時間インスタンスに読み込まれた個別のレーザポイントから、車両が走行している道路環境の3D表現を生成できる。カメラの位置及び方位、並びに選択されたレーザポイントは同一の座標参照系を使用する。選択されたレーザポイントは、三角法により画像の座標系上に投影可能である。このように、3Dレーザスキャナポイントは画像空間に投影可能である。更に、道路標識、制限速度、交通信号、方向案内標識等は、道路から及び既定の道路回廊内で可視である必要がある。既定の道路回廊は、レーザデータ内の注目領域を定義する。注目領域は、注目オブジェクトに確実に関連しないレーザスキャナサンプルをレーザスキャナデータから除外することにより取得可能である。注目オブジェクトは、道路標識、交通信号、方向案内標識、看板等である。例えば道路標識は、常に地面から少なくとも0.5m〜6mの高さにある。更に、デジタルカメラの位置に対して、注目オブジェクトは常にカメラの左側及び右側から10mの位置にあり、且つソース画像内の道路標識の種類を識別するためには、道路標識はカメラの前方0.5〜30m以内に存在する必要があると言える。これを知っていることにより、探しているオブジェクトに対応する可能性のあるレーザポイントのみをレーザスキャナデータから選択するフィルタを定義できる。フィルタリングにより、更に処理されるレーザポイントの量は減少する。ソース画像内の注目領域を識別することにより、オブジェクトを認識するために解析される画像データの量は大幅に減少される。レーザデータをフィルタリングし且つ画像内の注目領域に対応する画素のみを解析することにより、モバイルマッピングセッション中に取り込まれる全データを処理する時間は短縮される。更に、レーザスキャナデータはソース画像をセグメント化するのに使用可能である。この場合、各セグメントは、連続する又は流れるような表面に対応する。これにより、認識処理は向上し且つオブジェクトが誤検出される可能性は低下する。
本発明の更なる実施形態において、組み合わせることは、
中間候補画像を取得するため、認識マスクに依存してソース画像をセグメント化することと、
候補3D画像を取得するため、注目領域のレーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加することとを含む。
これらの特徴により、ソース画像を非常に効率的に処理できる。ソース画像は、画素量が非常に限定され且つ深さ情報を含む複数の画像に分割される。深さ情報により、候補3D画像は非常に効率的に実世界サイズに変倍可能である。更に、深さ情報により、候補3D画像により表されるオブジェクトの実世界サイズを算出できる。
本発明の更なる実施形態において、検出することは、候補3D画像毎に、
前記深さ情報に依存して、候補3D画像のサイズ及び形状を判定することと、
サイズ及び形状が既定値に従う場合、深さ情報に依存して候補3D画像の表面の深さ均一性を判定することと、
候補3D画像の表面の深さが均一な場合、深さ情報に依存して走行方向に対する候補3D画像の直角度を判定することと、
候補3D画像の表面の深さが不均一な場合、先行のソース画像に依存して走行方向に対する候補3D画像の直角度を判定することと、
直角度に依存して、候補3D画像をオブジェクトグループに追加することとを含む。
これらの特徴により、本発明を実施する技術者は、候補3D画像が道路標識に対応するか否かを非常に効率的に判定できる。
本発明の別の実施形態において、フィルタリングすることは、
走行方向及びレーザスキャナデータの局所深さ均一性に依存して、注目領域内の表面に対応するレーザポイントを選択することを含み、組み合わせることは、
中間候補画像を取得するため、認識マスクに依存してソース画像をセグメント化することと、
候補3D画像を取得するため、表面に対応するレーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加することとを含む。これらの特徴により、レーザサンプルのクラスタが注目オブジェクトに対応するか否かを非常に早い段階で判定できるため、処理するレーザポイントを更に減少できる。これにより、中間画像の量が後に減少する。これは特に、車両の走行方向に対する注目オブジェクトの表面の直角度を考慮することにより達成される。車両の走行方向は、道路の方向に対する近似として使用される。セグメントが限定された量の画素を含み、セグメント数が減少され且つ中間画像により表されるオブジェクトの方位の検証を実行する必要がないため、計算量は更に減少される。
本発明の更なる実施形態において、検出することは、候補3D画像毎に、
前記深さ情報に依存して、候補3D画像のサイズ及び形状を判定することと、
サイズ及び形状に依存して、候補3D画像をオブジェクトグループに追加することとを含む。この特徴により、本発明を実施する技術者は、候補3D画像を効率的に変倍してオブジェクトの実世界サイズ及び形状を取得できる。その後、形状は測定され、対応する形状及びサイズを有する候補3D画像のみがオブジェクトグループに追加される。そのグループはデータベースに格納可能である。一実施形態において、平面を有するオブジェクトのみが検出される。
本発明の別の実施形態において、方法は、
車両の位置及び方位を検索することと、
第1の注目領域を取得するために対応するレーザポイントを取得するため、車両の位置及び方位に依存してレーザスキャナデータをフィルタリングすることと、
車両の位置及び方位と関連するソース画像を検索することと、
第1の認識マスクを生成するため、第1の注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、
第1の注目領域を表す第1の候補3D画像を取得するため、第1の認識マスク及びソース画像を組み合わせることと、
走行方向に依存して、第1の候補3D画像から第1のオブジェクトグループを検出することと、
第2の注目領域に対応するレーザポイントを取得するため、車両の位置及び方位、並びにレーザスキャナデータの局所深さ均一性に依存してレーザスキャナデータをフィルタリングすることと、
第2の認識マスクを生成するため、第2の注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、
第2の注目領域を表す第2の候補3D画像を取得するため、第2の認識マスク及びソース画像を組み合わせることと、
第2の候補3D画像から第2のオブジェクトグループを検出することと、
第1のオブジェクトグループ及び第2のオブジェクトグループを組み合わせることとを備えることを特徴とする。本実施形態により、モバイルマッピングデータからのオブジェクトの検出率を向上できる。
本発明は、ソフトウェア、ハードウェア又はソフトウェア及びハードウェアの組み合わせを使用して実現可能である。本発明の全部又は一部がソフトウェアで実現される場合、そのソフトウェアはプロセッサ可読記憶媒体に常駐可能である。適切なプロセッサ可読記憶媒体の例は、フロッピディスク、ハードディスク、CD ROM、DVD、メモリIC等を含む。システムがハードウェアを含む場合、ハードウェアは、出力デバイス(例えばモニタ、スピーカ又はプリンタ)、入力デバイス(例えばキーボード、ポインティングデバイス及び/又はマイクロホン)、並びに出力デバイスと通信するプロセッサ及びプロセッサと通信するプロセッサ可読記憶媒体を含んでもよい。プロセッサ可読記憶媒体は、本発明を実現するための動作を実行するプロセッサをプログラム可能とするコードを格納する。本発明の処理は、電話線、あるいは他のネットワーク又はインターネット接続を介してアクセス可能なサーバ上でも実現可能である。
図1は、世界座標におけるレーザスキャナデータの表現を示す図である。 図2は、図1に示す表現と関連する画像を示す図である。 図3は、本発明に係る方法の一実施形態を示すフローチャートである。 図4は、カメラ空間へのレーザポイントの投影を示す上面図である。 図5は、レーザポイントから画像画素への変換を示す図である。 図6は、投影された図1のレーザポイントを重ねた図2の画像を示す図である。 図7は、投影された注目レーザポイントを拡大して重ねた図2の画像を示す図である。 図8は、図2の画像内の注目領域のみを示す図である。 図9aは、レーザスキャナデータに対する後続の処理ステップの中間結果を示す図である。 図9bは、レーザスキャナデータに対する後続の処理ステップの中間結果を示す図である。 図9cは、レーザスキャナデータに対する後続の処理ステップの中間結果を示す図である。 図9dは、レーザスキャナデータに対する後続の処理ステップの中間結果を示す図である。 図9eは、レーザスキャナデータに対する後続の処理ステップの中間結果を示す図である。 図9fは、レーザスキャナデータに対する後続の処理ステップの中間結果を示す図である。 図10は、本発明の2つの実施形態を組み合わせる利点を示す図である。 図11は、本発明に係る方法を実現するために使用可能なコンピュータシステムを示す上位ブロック図である。 図12は、カメラ及びレーザスキャナを有するMMSシステムを示す図である。 図13は、場所パラメータ及び方位パラメータを示す図である。
多くの例示的な実施形態を使用し且つ添付の図面を参照して、本発明を以下により詳細に説明する。
図12は、自動車20の形態をとるMMSシステムを示す。自動車20は、1つ以上のカメラ29(i)及び1つ以上のレーザスキャナ23(j)を備える。i=1、2、3、...Iであり、j=1、2、3、...Jである。画角又は1つ以上のカメラ29(i)は、自動車21の走行方向に対して任意の方向にあってもよく、従って、前方観察用カメラ、側方観察用カメラ又は後方観察用カメラ等であってもよい。カメラ29(i)の観察ウィンドウは、車両前方の路面全体を範囲に含む。自動車21の走行方向とカメラの画角との間の角度は、両側において−45°〜45°の範囲内にあるのが好ましい。自動車21は、運転者により注目道路に沿って運転可能である。
自動車21は複数の車輪22を備える。更に、自動車21は高精度位置判定デバイスを備える。図12に示すように、位置判定デバイスは以下の構成要素を具備する:
・アンテナ28に接続され、複数の衛星SLi(i=1、2、3、...)と通信し且つ衛星SLiから受信する信号から位置信号を算出するように構成されるGPS(全地球測位システム)ユニット。GPSユニットは、マイクロプロセッサμPに接続される。GPSユニットから受信する信号に基づいて、マイクロプロセッサμPは、自動車1内のモニタ24に表示され且つ自動車が位置する場所及び場合によっては自動車が移動している方向を運転者に通知する適切な表示信号を判定してもよい。GPSユニットの代わりに、ディファレンシャルGPSユニットが使用可能である。ディファレンシャル全地球測位システム(DGPS)は全地球測位システム(GPS)の改良版であり、固定地上参照局のネットワークを使用して、衛星システムにより示される位置と既知の固定位置との間の差分を同報通信する。これらの局は、測定された衛星の擬似距離と実際の(内部で計算された)擬似距離との間の差分を同報通信し、受信局は、自身の擬似距離を同一量分補正してもよい。
・DMI(距離測定器)。この計器は、車輪22のうちの1つ以上の車輪の回転数を検知することにより、自動車21が移動した距離を測定する走行距離計である。GPSユニットからの出力信号から表示信号を算出する際にマイクロプロセッサμPがDMIにより測定された距離を考慮できるようにするため、DMIもマイクロプロセッサμPに接続される。
・IMU(慣性測定器)。そのようなIMUは、3つの直交方向に沿った回転加速度及び並進加速度を測定するように構成される3つのジャイロユニットとして実現可能である。GPSユニットからの出力信号から表示信号を算出する際にマイクロプロセッサμPがDMIによる測定値を考慮できるようにするため、IMUもマイクロプロセッサμPに接続される。IMUは、推測航法センサを更に含むことができる。
尚、当業者は、車両の正確な場所及び方位を提供するためにグローバルナビゲーション衛星システム、車載慣性システム及び車載推測航法システムの多くの組み合わせ、並びに機器(これらは、車両の基準位置及び基準方位を参照して、既知の位置及び方位を用いて取り付けられる)を見つけることができる。
図21に示すようなシステムは、例えば自動車21に取り付けた1つ以上のカメラ29(i)を用いて写真を撮影することにより地理データを収集するいわゆる「モバイルマッピングシステム」である。カメラ29(i)は、マイクロプロセッサμPに接続される。自動車前方のカメラ29(i)は、立体カメラであってもよい。カメラは、画像が既定のフレーム速度で取り込まれた画像シーケンスを生成するように構成可能である。例示的な一実施形態において、カメラの1つ以上は、自動車21の既定の変位毎又は時間間隔毎に写真を取り込むように構成される静止画カメラである。カメラ29(i)は、画像をμPに送出する。一実施形態において、モバイルマッピング車両は3つのカメラを具備する。そのうちの1つは前方観察用カメラであり、両側のカメラは、車両の進行方向に対して30〜60°の範囲にあり且つ好ましくは45°にある観察軸を有する。その場合、前方観察用カメラは、路面上方の道路指示を検出するのに特に適した画像を取り込み、側方観察用カメラは、道路に沿った道路標識等のオブジェクトを検出するのに特に適した画像を取り込む。
更に、レーザスキャナ23(j)は、自動車21が注目道路に沿って走行中にレーザサンプルを読み込む。従って、レーザサンプルは、これらの注目道路と関連する環境に関するデータを含み、建物の区画、樹木、交通標識、駐車中の自動車、歩行者、方向案内標識等に関するデータを含んでもよい。レーザスキャナ23(j)もマイクロプロセッサμPに接続され、これらのレーザサンプルをマイクロプロセッサμPに送出する。
一般に、3つの測定ユニット、すなわちGPS、IMU及びDMIから場所及び方位を可能な限り正確に測定することが望まれる。これらの場所データ及び方位データは、カメラ29(i)が写真を撮影し且つレーザスキャナ23(j)がレーザサンプルを読み込む間に測定される。写真及びレーザサンプルの双方は、後で使用するため、これらの写真が撮影されたのと同時に収集された自動車21の対応する場所データ及び方位データと関連付けてμPの適切なメモリに格納される。写真は、例えば建物の区画、樹木、交通標識、駐車中の自動車、歩行者、方向案内標識等に関する視覚情報を含む。レーザスキャナ23(j)は、建物の区画、樹木、交通標識、駐車中の自動車、歩行者、方向案内標識等の道路情報に沿う3D表現において視覚化するほど十分に密なレーザスキャナポイント群を提供する。一実施形態において、レーザスキャナ23(j)は、本方法のために十分に密な出力を生成するため、最低で50Hz及び1°の解像度を有する出力を生成するように構成される。SICKにより製造されるMODEL LMS291-S05等のレーザスキャナは、そのような出力を生成できる。
図2は、図1に示す3つの測定ユニットであるGPS、DMI及びIMUから取得可能な位置信号を示す。図2は、マイクロプロセッサμPが6つの異なるパラメータ、すなわち所定の座標系における原点に関する3つの距離パラメータx、y、z、並びにx軸、y軸及びz軸に関する回転をそれぞれ示す3つの角度パラメータωx、ωy及びωzを算出するように構成されることを示す。z方向は、重力ベクトルの方向と一致するのが好ましい。グローバルUTM又はWGS84座標系は、所定の座標参照系として使用可能である。尚、本発明に係る方法は、NAD 83及び他のナショナルグリッドシステム等のローカル座標参照系と共に使用可能である。6つの異なるパラメータは、車両の位置及び方位を同時に追跡するのに必要な6自由度を提供する。カメラ及びレーザスキャナは、自動車21に対して固定位置及び固定方位を有する。これにより、画像を取得した時点での座標参照系における各レーザサンプルの位置、並びに座標参照系におけるカメラの位置及び方位を6つのパラメータから正確に判定できる。
図1は、実世界座標におけるレーザスキャナデータの表現を示す。レーザスキャナは、レーザスキャナと第1の障害物との間の距離を検出及び算出する。レーザスキャナは、レーザ光線を回転し、回転が既定の角度を超える度にサンプルを取得する。サンプリング速度と組み合わせられる回転速度は、レーザスキャナデータの角度解像度を定義する。本発明において、レーザスキャナは、走査平面に沿って1°の解像度及び75Hzの走査周波数を有する。この結果、レーザスキャナは、標識までの平均距離に対応する15mの距離において25cmの垂直解像度を有する。レーザスキャナデータは、トリプレット(t,d,a)により表されるサンプルを含む。tはサンプル時間であり、dは最近接面までの距離であり、aは測定時のレーザ角度である。レーザスキャナは、モバイルマッピング車両の前方に取り付けられるのが好ましい。レーザスキャナの回転軸は、路面に対して平行であるのが好ましい。平面を有するオブジェクトを最適に検出するためには、回転軸が前記平面オブジェクトに対して45°の角度を有するのが好ましいことが分かっている。本発明の主な目的は、モバイルマッピングデータから道路標識及び方向案内標識を抽出することである。モバイルマッピングデータは、モバイルマッピング車両内のモバイルマッピングシステムにより記録される全データを含む。道路標識及び方向案内標識は、道路の軸に対して垂直な平面を有するオブジェクトである。従って、前記注目オブジェクトを検出するためには、レーザスキャナはモバイルマッピング車両の走行方向に対して45°に取り付けられるのが最適である。
モバイルマッピング車両は、GPS受信機、並びに場合によっては追加の慣性センサ及び推測航法センサ等の位置決めセンサと、ジャイロスコープ、加速度計及び距離測定ユニット等の方位センサとを具備する位置決めプラットフォームを備える。これらのセンサは周知である。これらのセンサを用いて、車両の位置及び方位は非常に正確に判定され且つ記録される。更に、モバイルマッピング車両は、画像シーケンスを記録する多くのカメラを備える。2つのカメラは、車両前方の画像を記録するために車両前方に取り付け可能である。これら2つのカメラは、一連の立体画像ペアを生成するように構成可能である。更にカメラは、車両からの側方ビューを取得するために左側及び右側に取り付け可能であり、車両後方のカメラは、車両後方から見た実世界を記録する。カメラが車両の全ての側に取り付けられる場合、車両周辺の全方向における連続したビューを取得できる。前方及び後方のカメラにより、同一路面の反対方向からの2つの画像シーケンスを取得できる。
少なくとも位置決めデータ及び方位データ、レーザ走査データ、並びに画像シーケンスを含む記録データソースは全て、同一の時間基準を使用する。位置決めプラットフォームにより、モバイルマッピング車両の位置及び方位を非常に正確に判定できる。更に、レーザスキャナは、車両の走行方向に対して既知の位置に既知の方位で車両に取り付けられる。車両の位置及び方位、車両の位置に対するレーザスキャナの位置及び方位、並びにトリプレットで記録されたスキャナデータを組み合わせることにより、レーザスキャナデータは3D世界座標に変換可能である。これにより、車両の移動に対して所定の方向における最近接ポイントのメッシュが得られる。図1は、レーザスキャナデータのトリプレットを3D世界座標に変換した結果を示す。図1に示すレーザデータは、2つのレーザスキャナにより取得された。各レーザスキャナは、180°の測定ウィンドウ及び車両の走行方向に対して平行な回転軸を有する。本明細書内の全図面において、レーザスキャナの前記構成を使用する。本願において、走行方向は道路の方向の近似である。通常、道路標識が走行方向に対して5°の角度で配置され且つ走行方向に対して垂直ではないため、道路標識は、走行方向に対して平行な回転軸を有するレーザを用いて検出可能である(これは、図1の場合に収集されたデータの構成である)。しかし、走行方向に対して45°の角度の回転軸を有するレーザスキャナが、道路標識及び建物の正面等のオブジェクトを検出するのにより適するレーザデータを提供することが分かっている。図1において、サンプルの濃度はレーザスキャナと反射面との間の距離を表す。
図2は、図1に示す表現と関連するソース画像を示す。ソース画像は、地上カメラにより記録されるある程度垂直な画像を表す。ソース画像は、例えば10mの変位毎に作動される静止画カメラにより記録される一連の静止画であってもよい。画像センサを具備するカメラは画角αを有する。画角αは、カメラのレンズの焦点距離により判定される。画角αは45°<α<180°であってもよい。更にカメラは、画角の中心に存在する観察軸を有する。観察軸は水平面、例えば路面に対して平行である。図2の例において、観察軸は車両の運動方向に対して平行である。通常、画像センサは、観察軸に対して垂直に取り付けられる。この場合、画像センサは、「純粋な」垂直ソース画像を記録する。更に、画像センサの高さは水平面、例えば地表に対して既知である。地上カメラから検索されるソース画像は、三角法により任意の仮想面に変換可能である。観察軸が水平面に対して既知の角度で傾斜する場合であっても、仮想面はソース画像に対して取得可能である。
静止画カメラにより取得される画像は、カメラの視野内にある最近接表面ポイントの色の表現である。画素の値は、前記画素に対する色を測定する画像センサの感光素子を介してカメラの焦点から観察される表面の色に対応する。通常、現在のカメラで使用されるレンズは、画素当たり約0.01〜0.1°の角度解像度で写真を記録する解像度及び焦点距離を有する。
静止画カメラの角度解像度は、レーザスキャナからの角度解像度より約10〜100倍精細である。モバイルマッピング車両で現在使用されるカメラは、0.05°の画素解像度を有する。これは、使用されるレーザスキャナの角度解像度より20倍精細である。
本発明は、レーザスキャナデータ及びソース画像の双方を組み合わせて、モバイルマッピングデータから注目オブジェクトを抽出する。本発明の特性は、レーザスキャナデータが異なる時間インスタンスで取り込まれ且つソース画像が特定の時間インスタンスで取り込まれることである。車両の位置データ及び方位データは、絶対又は相対ジオグラフィック座標参照系におけるレーザサンプルの3D位置をソース画像のx,y画素位置に投影できるようにするために不可欠である。車両の位置データ及び方位データ、各ソース画像及びレーザスキャナデータと関連する時間基準により、マイクロプロセッサは、ソース画像毎に座標参照系における基準位置及び基準方位を定義するメタデータを判定し且つレーザサンプル毎に座標系における位置を判定できる。これにより、レーザスキャナサンプルを画像空間に投影できる。
本発明の第1の実施形態は、以下の動作を有する。
1.レーザ走査ポイントに対する注目領域を選択する
2.レーザ注目領域を画像にマッピングして、認識マスクを生成する
3.注目領域をセグメント化する
4.サイズ特性及び形状特性によりセグメントをフィルタリングする
5.セグメントが隠蔽されるかを判定する
5a.6自由度の方位系を使用して、任意の隠蔽されたセグメントの方位を算出する
5b.隠蔽されないセグメントの方位をレーザデータから算出する
6.垂直なセグメントをフィルタリングにより選択する
本発明の第2の実施形態において、方法は以下の動作を有する。
1.レーザ走査ポイントの注目領域を選択する
7.注目領域から垂直な表面を抽出する
8.垂直な表面を画像にマッピングする
9.表面に対応する画像に対して色分解を実行する
10.フィルタリングを用いて、サイズ及び形状により表面を選択する
第1の実施形態及び第2の実施形態の各動作を以下により詳細に説明する。
図3は、本発明に係る方法の第3の実施形態を示すフローチャートである。第3の実施形態において、第1の実施形態及び第2の実施形態は組み合わされている。左側のパスは第1の実施形態に対応し、右側のパスは第2の実施形態に対応する。第1の実施形態及び第2の実施形態が無相関な処理を実行することは分かっている。第1の実施形態に係る方法は、画像に基づく平面オブジェクトの認識に基づき、これにより約0.01%の誤検出率でオブジェクトの98%を検出できる。第2の実施形態に係る方法は、レーザスキャナデータにおける平面オブジェクトの認識に基づき、これにより同様の誤検出率でオブジェクトの80%を検出できる。認識処理が無相関であるため、認識結果は無相関である。その結果、第2の方法は第1の方法により検出されないオブジェクトの80%を発見し、第1の処理は第2の方法により検出されないオブジェクトの98%を発見する。従って、第1の方法及び第2の方法の結果を組み合わせることにより、オブジェクトの99.6%の認識を達成できる。そのような性能により、処理を自動化できる。2つの実施形態を組み合わせる利点を図11に示す。
第1の実施形態の動作を以下により詳細に開示する。
動作1.レーザ走査ポイントに対する注目領域を選択する。
画像毎のこの動作において、レーザポイントは、注目領域を提供するためにフィルタリングされる。領域は、ポイントの集合により表されるレーザスキャナデータの一部である。各画像は、関連する位置データ及び方位データを有する。レーザポイントも、関連する位置データ及び方位データを有する。注目オブジェクトの表面に確実に対応しない全レーザスキャナポイントはフィルタリングされる。そのようなフィルタの一例は、以下を含んでもよい:
−モバイルマッピング車両の位置の左側及び/又は右側から10mより遠い位置にある全ポイント;
−路面から0.5m未満及び/又は6.0mより高い位置にある全ポイント;
−カメラ又はモバイルマッピング車両の前方0.5〜30mの距離の外側にある全ポイント。
この動作により、画像毎に処理されるレーザポイントの量は大幅に制限される。従って、画像に対する注目領域に対応するレーザポイントは、フィルタリングされずに認識オブジェクトから依然として取得可能なレーザポイントのみを含む。従って、画像に対する注目領域に対応するレーザポイントは、レーザスキャナデータのサブセットである。
動作2.レーザ注目領域を画像にマッピングして、認識マスクを生成する;
この動作において、認識を実行する必要のある各画像に対する注目領域のレーザポイントは、画像座標にマッピングされる。これは、各写真の焦点の位置が既知であり且つカメラの方位が既知である場合に実行可能である。カメラの画像空間は、観察軸、並びに水平及び垂直画角により定義される。図4は、カメラ空間へのレーザポイントの投影例を示す上面図である。カメラの画角内に存在するレーザポイントのみが画像空間内に投影される。図4において、左側から1つのポイント及び右側から3つのポイントは、画像空間に投影されないポイントである。図5は、レーザポイント(Xp,Yp,Zp)から画像画素(Xs,Ys)への変換を示す。(Xp,Yp,Zp)は、世界座標におけるレーザポイントの座標であり、(Xc,Yc,Zc)は、世界座標におけるカメラの焦点の座標であり、(Xs,Ys)は、画像空間における座標である。破線はカメラの観察軸に対応する。
一実施形態において、カメラの世界座標は、取り込まれた各写真に割り当てられる。更に、モバイルマッピングプラットフォームの位置センサ及び方位センサを用いることにより、車両の基準方位に対するカメラ及びレーザスキャナの全回転は非常に正確に把握される。時間における測定位置及び走行方向を組み合わせることにより、レーザポイントの実世界座標はカメラの観察軸に対して判定可能である。これにより、レーザポイントを非常に正確に選択し且つ画像空間に投影できる。これは、本発明の重要な点である。これは、レーザスキャナからのポイントを画像が収集された時点とは異なる時点で読み込むことができ且つ本発明に必要な正確な登録のレベルを達成するためにプラットフォームの位置及び方位を正確に考慮する必要があるという点において特に重要である。図6は図2の画像を表す。図6において、レーザポイントは前記画像の画像空間に投影される。しかし、第1の動作によりフィルタリングされなかったためオブジェクトから取得可能なレーザポイントのみがマスクを生成するために使用される。マスクにより、対応する画素のみをソース画像から非常に効率的に選択できる。マスクは、ソース画像に対応する画像空間を有する。そのため、マスクの画素とソース画像の画素との間に1対1の関係を定義できる。
レーザ走査装置及びカメラの解像度が異なるため、通常、レーザポイントはマスクにおいて個別のドットになる。従って、レーザスキャナポイントは、マスクにおいて疎に出現する。マスク内に連続的な範囲を生成するため、レーザポイントに対応する画素は、周知の形態的画像ベースフィルタにより拡大される。単純な実施形態において、全レーザポイントは、固定長さ及び固定高さ(画素数において)を有し且つその解像度及び幾何学特性から概略的に求められる正方形範囲により置換される。図7は、レーザポイントに注目領域フィルタを適用し且つフィルタリングされたレーザポイントに対応するマスクの画素を拡大した後に取得された画像を表す。
実験結果は、上述の動作によりソース画像の画素の85〜95%を破棄し、道路案内標識を表すと考えられる「有用な」画素のみを残すことができることを示す。検査されるソース画像内の画素を有用な画素のみまで減少することにより、オブジェクトの誤検出に対応する誤検出数は、総画素に対する有用な画素の比率に比例して減少される。更に、後続の処理ステップにおける画像処理速度は、同一の比率で減少される。
尚、深さ情報は、対応するレーザスキャナサンプルを有する画素のみに添付可能である。一実施形態において、マスクのその他の画素の深さ情報の値は、「非深さ情報」に対応する。従って、深さ情報は画像空間において疎に出現する。別の実施形態において、深さ情報は、拡大処理と同時に割り当てられる。このようにして、マスクの全画素は深さ情報を有する。
動作3.注目領域をセグメント化する;
この動作において、動作2において生成されたマスクに対応するソース画像の画素が選択される。その後、選択画素をセグメント化するため、選択画素に対して「成長」アルゴリズムが実行される。成長アルゴリズムにより、当業界の技術者はセグメント又は候補3D画像を生成できる。その結果、ソース画像においてセグメントの隣接画素である全画素は既定の閾値外の色距離を有し、セグメントの全画素は既定の閾値内の色距離を有する。このステップにおいて、マスク画像は候補3D画像を生成するために使用され、この場合、各候補3D画像は1つのセグメントに対応する。例えば、80の制限速度を示す制限速度標識は、赤色境界線に対する1つのセグメント、数字の周囲の白色背景に対する1つのセグメント、数字の8の黒色範囲に対する1つのセグメント、数字の0の黒色範囲に対する1つの範囲、数字の8の中の白色範囲に対する2つのセグメント及び数字の0の中の白色範囲に対する1つのセグメントの7つのセグメントにセグメント化され、その結果、7つの候補3D画像が得られる。候補3D画像の各画素は、ソース画像からの色情報及びマスクからの関連する深さ情報を含む。文献において、そのような画素はボクセルと呼ばれる。
一実施形態において、画素の深さ情報は、実世界座標におけるカメラの焦点と前記画素に関連付けられるレーザスキャナポイントを含むカメラの観察軸に対して垂直な平面との間の最短距離である。別の実施形態において、画素の深さ情報は、実世界座標におけるカメラの焦点と前記画素に関連付けられるレーザスキャナポイントとの間の距離である。
各候補3D画像は、後続の処理動作において処理される。尚、標識の1つの主要セグメントのみの存在を認識することは、案内標識情報の更なる処理に関連する。主要セグメントは、画素数の最も多いセグメント又は特徴的な既定の形状及びサイズを有するセグメントである。例えば、欧州の制限速度案内標識の場合、主要セグメントは内部を有する赤色円であり、警告標識の場合、内部を有する赤色三角形である。
別の実施形態において、マスクの画素は、ソース画像における開始画素として使用される。候補3D画像を取得するため、成長アルゴリズムはソース画像に対して実行される。本実施形態は、走査の一部においてレーザスキャナとの間のオブジェクトにより方向案内標識の一部が隠蔽されるが道標全体は画像内で可視である状況に対して有利である。マスク及びソース画像の組み合わせから候補3D画像を取得するために他のアルゴリズムが使用可能であることは明らかである。
動作4.サイズ特性及び形状特性によりセグメントをフィルタリングする。
この動作において、サイズ及び形状フィルタが各候補3D画像に対して適用される。深さ情報は、同様の深さ情報を有する候補3D画像の画素の範囲を対応する実世界位置において実世界サイズに変倍するために使用される。セグメントが複数の深さと関連する場合、対応する範囲のサイズは深さ毎に判定される。判定されたサイズは、候補3D画像が所定のサイズを有するかを判定するために使用される。注目オブジェクトより大きい又は小さい候補3D画像はフィルタリングされる。本発明の一実施形態において、0.5m×0.5mより小さいサイズ及び1.2m×1.2mより大きいサイズを有する候補3D画像は除去される。
そのため、上述の80kmの制限速度標識の例の場合、赤色境界線及び白色背景の候補3D画像は、このサイズフィルタを通過する。黒色の8、黒色の0、0内部の白色部分等、その他の候補3D画像は全て小さ過ぎるため、フィルタリングされる。最後のステップにおいて、通過した2つの候補は、同一距離及び写真の同一範囲内に存在すると認識されるため、同一標識であると考えられる。
その後、道路案内標識の検出に最適な空間形状係数、例えばBlair-Bliss及びHaralickの形状係数を判定するため、残りの候補3D画像に形状式を適用する。形状係数により、注目オブジェクトの形状に対応する形状を有さないオブジェクトをフィルタリングできる。
使用可能な形状係数は多数存在する。それらを2つのグループに分けることができる:
−算出が高速且つ容易なグループ
−オブジェクトをより正確に区別できるが、速度の遅いグループ
第2のグループからの2つの形状係数が判定されるのが好ましい。
Blair-Blissの形状係数は、次式により判定される:
式中:
S −候補3D画像の範囲
ri −形状の質量中心からのi番目の画素の距離
i −形状の画素指標
Haralickの形状係数は、次式により判定される:
式中:
di −形状の質量中心からのi番目の画素の距離
n −輪郭画素の数
i −形状の画素指標
形状係数により、円、三角形及び矩形の形態を有する形状を効果的に選択できる。
尚、セグメントを形状特性により選択することは、画像処理の分野において一般に実行される一般的な従来技術の動作である。通常、画像ソースデータのみを更に考慮せずにこの動作が実行される場合、誤検出率は、数%(1〜10%)の範囲にある。
しかし、深さ情報を候補3D画像に添付することにより、実世界サイズを判定できることに注意する必要がある。実世界サイズの検査は追加の検証ステップであり、画像ソースデータのみが考慮される場合、これを実行するのは容易ではない。追加の検証ステップにより、誤検出数が平均で1/10に減少される。
動作5.レーザスキャナデータにおいてセグメントが隠蔽されているかを判定する;
この動作は、候補3D画像の深さ均一性を判定するために動作4の後に実行される。候補3D画像は、異なる深さを有する画素を含んでもよく、又は深さ情報を全く含まない。異なる深さは、単純な周知のエッジ検出フィルタにより検出可能である。前記フィルタにより、深さ均一性が判定される。例えば樹木が、レーザ走査データにおいて道路標識を部分的に隠蔽するがソース画像において隠蔽しない場合、候補3D画像は異なる深さ情報を有することがある。その結果、候補3D画像の一部の範囲は深さ情報を含まないか、又は道路標識の背後のオブジェクトに対応する深さ情報を含むことがある。レーザスキャナと道路標識との間の大きな樹木によりレーザ光線が完全に遮られて道路標識に到達しない場合、候補3D画像が深さ情報を全く含まないこともある。
動作5a.隠蔽されたセグメントの方位を画像データから算出する;
このステップにおいて、画像処理技術は、モバイルマッピング車両の方位又は走行方向に対する候補3D画像の方位を判定するために使用される。6自由度の方位デバイスは、モバイルマッピング車両の方位及び走行方向を測定するために使用される。車両の測定された方位及び走行方向は、候補3D画像に対応するソース画像の取り込み時のカメラの方位及び絶対位置又は相対位置を算出するために使用される。オブジェクトの方位は、三角測量技術により取得可能である。候補3D画像に対応する元のソース画像が立体カメラから取得される場合、画像の立体ペアのその他の画像は、三角測量を実行し且つ候補3D画像の方位を判定するために使用可能である。別の実施形態において、元のソース画像に先行するソース画像は、距離を算出し且つオブジェクトの方位を判定するための三角測量を実行するために使用される。ソース画像は10mの距離毎に取り込まれる。従って、先行のソース画像は、現在のソース画像の10m前に取り込まれる。その結果、先行のソースは、10m手前であるため現在のソース画像内の表現より小さい候補3D画像の表現を含む。候補3D画像に対応するオブジェクトの方位は、三角測量により判定可能である。
動作5b.隠蔽されないセグメントの方位をレーザデータから算出する;
この動作は、候補3D画像の画素の深さ情報が平滑な表面、好ましくは既定の深さ均一性を有する平面に対応する場合に動作4の後に実行される。これは、候補3D画像の深さ情報が、モバイルマッピング車両の走行方向の方位に対するオブジェクトの方位において、隣接画素との間に深さ情報による大きな変動を含まない場合である。
その後、候補の画素の深さ情報は、モバイルマッピング車両の走行方向に対する表面の方位を判定するために使用される。方位の判定は、周知のアルゴリズムにより実行される。
動作5aと動作5bとの間の主な違いは、動作5aにおいては、関連する位置データ及び方位データ、並びに車両の移動方向と組み合わされる画像ソース情報のみを使用して、候補3D画像により表されるオブジェクトが走行方向に対して既定の方位を有するかを判定するのに対して、動作5bにおいては、深さ情報の形態のレーザ走査データのみを使用してオブジェクトの方位を判定することである。
更に、実際は、100個のオブジェクトのうち約1つが隠蔽されることに注意する必要がある。そのため、主要な処理ストリームは、動作5aではなく動作5bを通過する。動作5bにおける深さ情報に基づく候補3D画像の方位の判定はより正確であり、動作5aにおける画像情報に基づく各候補3D画像の方位の判定より誤検出が少ない(1/10)。更に、動作5bが必要とする処理能力は動作5aより少ない。
動作6.垂直なセグメントをフィルタリングにより選択する。
最後に、動作6において、方位は、検出されたオブジェクトのより多くの特性を取得するための更なる処理のため、オブジェクトデータベースに追加する必要のある候補3D画像を選択するために使用される。更なる処理の例は、80km制限速度標識等の道路標識の種類の認識及び道路標識の位置の算出であり、双方は、デジタル地図データベースで使用するために判定される。
上述の注目領域内で発見される平面の方位が移動車両の方向の約+/−10°の範囲内にある場合、平面オブジェクトは道路標識である可能性が高いことが分かっている。
本発明の第2の実施形態の後続の動作を以下により詳細に説明する。
動作1.レーザ走査ポイントの注目領域を選択する;
第1の実施形態と同様に、第1の動作1は、レーザデータ内の注目領域を取得するために実行される。図9aは、ある特定の絶対位置又は相対位置に対する既定の範囲内の収集された全レーザポイントの3次元表現の一例を表し、図9bは、動作1実行後の残りのレーザポイントを表す。地面付近の全レーザポイントが収集されたレーザポイントから除去されることが分かる。
7.注目領域から垂直な表面を抽出する;
このステップにおいて、注目領域の全レーザポイントは、隣接するレーザポイントが平滑な平面を形成するかを判定することにより深さ均一性を判定するために使用される。図9cは、図9bの結果において検出された平面に対応するレーザポイントの一例を示す。道路標識を検出する必要があるため、使用されるアルゴリズムは、モバイルマッピング車両の移動方向に対してほぼ垂直な表面を探し出す。アルゴリズムは、注目領域に割り当てられたレーザスキャナポイントにわたって実行される。RANSAC(Random Sample Consensus)アルゴリズムは、平面を発見するために使用される。アルゴリズムは、3つのレーザポイントをランダムに選択する。これらのポイントから平面式が生成される。その後アルゴリズムは、所定の許容範囲で平面に近接するレーザポイントを探し出し、近接レーザポイントの数をカウントする。ステップを繰り返すことにより、アルゴリズムは許容範囲内で最も多くのレーザポイントを有する平面を発見できる。この手順は、最も多くのレーザポイントを有する平面に対応するレーザポイントを除去し且つ残りのレーザポイントに対してアルゴリズムを繰り返すことにより反復可能である。このようにして、レーザデータ内の全候補平面を発見できる。RANSACアルゴリズムの有効性は、平面に属するレーザポイントと解析される注目領域に属するレーザポイントの総数との比率に依存する。関係は、次式により求められる。
式中:
pfailは、平面Aが発見されない確率であり、
pgは、ランダムなポイントが平面Aに含まれる確率(全ポイントに対する平面に近接するポイントの比率)であり、
Lは、ループの反復回数である。
従って、本方法の最適な使用法は、注目領域をサブ領域に再分割し、このアルゴリズムをサブ領域に対して適用することである。本発明の一実施形態において、注目領域の空間は、移動車両の方向において1mの深さを有するサブ領域に分割される。
その後、アルゴリズムにより発見された候補平面毎に、車両の走行方向に対する候補平面の方位が判定される。図9dは、異なる方位を有する2つの異なる平面を示す。第1の平面950は建物の壁に対応し、第2の平面960は支柱を有する道路標識に対応する。最後に、注目領域を更に減少するため、既定の方位を有する平面に対応するレーザポイントは一貫性のあるブロックにグループ化される。道路標識を検出するため、平面の方位が移動車両の方向の約+/−10°の範囲内にある場合、平面オブジェクトは殆どの場合において道路標識であることが分かっている。図9eは、既定の方位を有するオブジェクト選択後の結果を示す。標識の支柱の方位が車両の走行方向に対して判定不能であるため、この支柱も画像内で可視であるが、支柱の位置は、適切に方向付けられたオブジェクトの表面に類似する。そのような状況は、表面検出アルゴリズムにより別個の表面であると判断されない表面に結び付けられる全オブジェクトに対して発生する。
この動作の結果、レーザスキャナデータにおいて発見された平面に対応する候補平面が得られる。各候補平面は、オブジェクトを検出するため、更なる動作において別個に処理される
動作8.垂直な表面を画像にマッピングする。
この動作は動作2に類似するため、更に詳細には説明しない。この動作は、候補平面に依存してマスク画像を生成する。
動作9.表面に対応する画像に対して色分解を実行する。
この動作において、動作8で生成されたマスク画像は、候補平面に対応するソース画像の画素をセグメント化するために使用される。動作3において説明したセグメント化アルゴリズムは、マスクに対応する範囲をセグメント化するために使用される。解析される画素数が先行の動作により既に大幅に減少されているため、より小さい閾値を使用してセグメントを取得できる。前に実行された動作により、候補平面が実際に所望のオブジェクトである可能性が増加されるため、色によるセグメント化は、それほど正確に実行されなくてもよい。
更に、セグメント数が限定されるため、動作9は、セグメントに対応する候補3D画像だけでなく、1つ以上のセグメントの組み合わせである候補3D画像も生成する。この動作の結果、図9eに示すレーザポイントに対応するマスク画像は、標識に対する1つの候補3D画像、標識上方の支柱に対する1つの候補3D画像、標識下方の支柱に対する1つの候補3D画像、標識及び標識の上方の支柱の組み合わせに対する候補3D画像、標識及び標識下方の支柱に対する候補3D画像等の候補3D画像になる。
その結果、セグメントの組み合わせである候補3D画像を生成することにより、所望のオブジェクトを含むと事前に仮定された画像の任意の不適切な色セグメント化は少なくとも部分的に補正される。このように、例えば影による標識の赤色境界線の不適切なセグメント化は、太陽光における赤色境界線のセグメント及び影における赤色境界線のセグメントの組み合わせである候補3D画像を提供することにより補正される。このように、本発明の第1の実施形態において検出不能なオブジェクトが検出される。赤色境界線の各セグメントは個別に更に処理され、その結果、誤ったサイズ又は形状により道路標識として検出されない。
動作10.フィルタリングを用いてサイズ及び形状により選択する。
この動作において、動作4で説明したサイズ及び形状フィルタが適用される。サイズ及び形状フィルタは、支柱に関する候補3D画像をフィルタリングする。図9fは、選択された候補3D画像と関連するレーザポイントを示す。最後に、所望の形状及びサイズを有する候補3D画像が選択され、検出されたオブジェクトのより多くの特性を取得する更なる処理のためにオブジェクトデータベースに追加される。
尚、連続的な平面を構成するレーザポイントを選択することは、従来技術のアルゴリズムである。そのような動作後、少量の誤って選択されたレーザポイント、例えば道路標識の支柱のレーザポイントは選択ポイント群内に残される。それらの誤って選択されたレーザポイントを除去するため、更なる処理動作が必要である。使用可能な通常の従来技術の動作は、レーザデータを除去するため、形状特性によりそれらを解析することである。しかし、レーザデータの垂直及び水平解像度が低いことを考慮すると、この解析後も数%の誤検出率が存在する。レーザスキャナデータ及び画像データ処理のそのような組み合わせにより、誤検出率を平均で100倍改善できる。
更に、レーザスキャナデータからレーザポイントを選択するために実行されるフィルタは、考慮されるいくつかのルールを含むことに注意する必要がある。動作1の一実施形態において、ルールは、検出されるオブジェクトが存在する可能性のある道路回廊を定義する。例えば、道路回廊は、モバイルマッピング車両の走路の左側から10m以内及び右側から10m以内にある全レーザポイント、並びに路面に沿って車両の走路から0.5m以上及び10.0m以下にあるレーザポイントを含む。道路回廊に対応するレーザポイントは、更なる処理のために格納される。その後、道路回廊に対応するレーザポイントは、モバイルマッピング車両の走路に沿って5mのサブ領域に分割される。その場合、動作1の出力は一連の注目サブ領域であり、各注目サブ領域は車両の走路上の基準点を有する。基準点は、対応するサブ領域において車両の走路に沿った第1の位置であるのが好ましい。その後、ソース画像が処理される。ソース画像に対してその他の動作を実行する前に、ソース画像の関連する位置は、ソース画像の関連する位置に最近接する基準点を有するサブ領域を選択するために使用される。本実施形態において、認識マスクを取得するために、サブ領域のレーザポイントのみが画像空間上に投影される。本実施形態により、注目領域を生成するために必要な処理能力を低減できる。動作1において、全てのレーザスキャナデータは一度処理され、レーザポイントの複数の集合が注目サブ領域に対応して生成される。その後、ソース画像毎に、車両前方の道路回廊の最近接注目サブ領域を選択する必要がある。選択されるサブ領域の数は、考慮する必要のある対車両距離に依存する。例えば距離が30mの場合、最初の6つの5mサブ領域を選択する必要がある。
図3は、本発明の一実施形態のフローチャートを示す。フローチャート内の左側のパスは上述の第1の実施形態に対応し、右側のパスは本発明の第2の実施形態に対応する。双方の実施形態の結果は、注目オブジェクトのデータベースを構成する1つのデータベースにおいて1つにグループ化可能である。
更に、画像処理の大部分をセグメント又は候補3D画像のみに対して実行することにより、処理される画素の量は大幅に減少し、その結果、フル画像に基づく処理より約5倍速い検出速度が得られる
図11は、上述の方法を実行するオブジェクト検出器を実現するために使用可能なコンピュータシステムの上位ブロック図を示す。
図9のコンピュータシステムは、プロセッサユニット912及びメインメモリ914を含む。プロセッサユニット912は、単一マイクロプロセッサを含んでもよく、又はコンピュータシステムをマルチプロセッサシステムとして構成するために複数のマイクロプロセッサを含んでもよい。メインメモリ914は、プロセッサユニット912により実行する命令及びデータの一部を格納する。本発明の方法がソフトウェアにおいて完全に又は部分的に実現される場合、メインメモリ914は、動作時に実行可能コードを格納する。メインメモリ914は、ダイナミックランダムアクセスメモリ(DRAM)のバンク及び高速キャッシュメモリを含んでもよい。
図9のシステムは、大容量記憶装置916、周辺装置918、入力デバイス920、携帯記憶媒体ドライブ922、グラフィックスサブシステム924及び出力表示装置926を更に含む。簡潔にするため、図9に示す構成要素は、単一バス928を介して接続されるものとして示される。しかし、構成要素は1つ以上のデータ搬送手段を介して接続されてもよい。例えば、プロセッサユニット912及びメインメモリ914はローカルマイクロプロセッサバスを介して接続されてもよく、大容量記憶装置916、周辺装置918、携帯記憶媒体ドライブ922及びグラフィックスサブシステム924は、1つ以上の入出力(I/O)バスを介して接続されてもよい。磁気ディスクドライブ又は光ディスクドライブを用いて実現されてもよい大容量記憶装置916は、各カメラのジオコーディングされた画像シーケンス、カメラの較正情報、定数位置パラメータ及び変数位置パラメータ、定数方位パラメータ及び変数方位パラメータ、候補3D画像が検出されたオブジェクト、任意の中間結果、並びにプロセッサユニット912により使用される命令等のデータを格納する不揮発性記憶装置である。一実施形態において、大容量記憶装置916は、メインメモリ914にロードするために、本発明を実現するためのシステムソフトウェア又はコンピュータプログラムを格納する。
携帯記憶媒体ドライブ922は、フロッピディスク、マイクロドライブ及びフラッシュメモリ等の携帯不揮発性記憶媒体と関連して動作し、図9のコンピュータシステムとの間でデータ及びコードを入出力する。一実施形態において、本発明を実現するためのシステムソフトウェアは、そのような携帯媒体の形態のプロセッサ可読媒体に格納され、携帯記憶媒体ドライブ922を介してコンピュータシステムに入力される。周辺装置918は、更なる機能性をコンピュータシステムに追加するために、入出力(I/O)インタフェース等の任意の種類のコンピュータ支援デバイスを含んでもよい。例えば、周辺装置918は、コンピュータシステムをネットワークにインタフェースするためのネットワークインタフェースカード、モデム等を含んでもよい。
入力デバイス920は、ユーザインタフェースの一部を提供する。入力デバイス920は、英数字及び他のキー情報を入力するための英数字キーパッド、あるいはマウス、トラックボール、スタイラス又はカーソル方向キー等のポインティングデバイスを含んでもよい。文字情報及び図形情報を表示するため、図9のコンピュータシステムはグラフィックスサブシステム924及び出力表示装置926を含む。
出力表示装置926は、ブラウン管(CRT)ディスプレイ、液晶ディスプレイ(LCD)又は他の適切な表示装置を含んでもよい。グラフィックスサブシステム924は、文字情報及び図形情報を受信し、表示装置926に出力するために情報を処理する。出力表示装置926は、オブジェクト検出処理の中間結果を報告するため及び/又はユーザインタフェースの一部である他の情報を表示するために使用可能である。図9のシステムは、マイクロホンを含むオーディオシステム928を更に含む。一実施形態において、オーディオシステム928は、マイクロホンから音声信号を受信するサウンドカードを含む。更に、図9のシステムは出力デバイス932を含む。適切な出力デバイスの例は、スピーカ、プリンタ等を含む。
図9のコンピュータシステムに含まれる構成要素は、汎用コンピュータシステムにおいて通常見られる構成要素であり、当業界において周知であるそのようなコンピュータ構成要素の広範な種類を表すことを意図する。
従って、図9のコンピュータシステムは、パーソナルコンピュータ、ワークステーション、ミニコンピュータ、メインフレームコンピュータ等である。コンピュータは、異なるバス構成、ネットワーク化プラットフォーム、マルチプロセッサプラットフォーム等を更に含むことができる。UNIX(登録商標)、Solaris、Linux、Windows(登録商標)、Macintosh OS及び他の適切なオペレーティングシステムを含む種々のオペレーティングシステムが使用可能である。
上述の方法は自動的に実行可能である。画像によっては、画像処理ツール及びオブジェクト認識ツールが何らかの補正を必要とする場合がある。その場合、方法は、中間結果の確認又は適合を可能にする任意の検証動作及び手動適合動作を含む。これらの動作も、検出されたオブジェクトの中間結果又は最終結果を受け入れるのに適している。
本発明の上述の詳細な説明は、例示及び説明のために与えられた。これは、全ての実施形態を含むこと又は本発明を開示される形態に限定することを意図せず、上記の教示を鑑みて多くの変更及び変形が可能であることは明らかである。例えば、本発明は、ソース画像において検出可能な任意の種類のオブジェクトの位置を正確に判定するのにも適している。説明された実施形態は、本発明の原理及びその実際の用途を最適に説明し、それによって他の当業者が、種々の実施形態において及び考えられる特定の使用に適した種々の変更を用いて本発明を最適に利用できるようにするために選択された。本発明の範囲は、添付の請求の範囲により定義されることが意図される。

Claims (12)

  1. 地上モバイルマッピングデータからオブジェクトを検出する方法であり、前記地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、前記モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに前記車両の位置データ及び方位データを含み、前記レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含む方法であって、
    前記車両の位置及び方位を検索することと、
    注目領域に対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位に依存して前記レーザスキャナデータをフィルタリングすることと、
    前記車両の前記位置及び前記方位と関連するソース画像を検索することと、
    認識マスクを生成するため、注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
    前記注目領域内の可能なオブジェクトを表す候補3D画像を取得するため、前記認識マスク及び前記ソース画像を組み合わせることと、
    前記候補3D画像からオブジェクトグループを検出することと
    を備えることを特徴とする方法。
  2. 組み合わせることは、
    中間候補画像を取得するため、前記認識マスクに依存して前記ソース画像をセグメント化することと、
    前記候補3D画像を取得するため、注目領域の前記レーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加することと
    を備えることを特徴とする請求項1に記載の方法。
  3. 深さ情報を追加することは、
    レーザポイント座標をソース画像の画像座標に正確に変換するため、前記モバイルマッピング車両の位置センサ及び方位センサにより取り込まれる前記位置データ及び前記方位データを使用することと、
    前記レーザポイント座標及び前記位置データ及び前記方位データに依存して、前記画像座標に対する深さ情報を判定することと、
    前記深さ情報を前記画像座標を有する画素に追加すること
    とを備えることを特徴とする請求項2に記載の方法。
  4. 検出することは、候補3D画像毎に、
    前記深さ情報に依存して、候補3D画像のサイズ及び形状を判定することと、
    サイズ及び形状が既定値に従う場合、前記深さ情報に依存して前記候補3D画像の表面の深さ均一性を判定することと、
    候補3D画像の表面の深さが均一な場合、前記深さ情報に依存して前記走行方向に対する前記候補3D画像の前記方位を判定することと、
    候補3D画像の表面の深さが不均一な場合、先行のソース画像に依存して前記走行方向に対する前記候補3D画像の前記方位を判定することと、
    前記判定された方位に依存して、候補3D画像を前記オブジェクトグループに追加すること
    とを備えることを特徴とする請求項2又は3に記載の方法。
  5. フィルタリングすることは、
    前記走行方向及び前記レーザスキャナデータの前記局所深さ均一性に依存して、前記注目領域内の表面に対応するレーザポイントを選択することを含み、組み合わせることは、
    中間候補画像を取得するため、前記認識マスクに依存して前記ソース画像をセグメント化することと、
    前記候補3D画像を取得するため、前記表面に対応する前記レーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加すること
    とを備えることを特徴とする請求項1に記載の方法。
  6. 検出することは、候補3D画像毎に、
    前記深さ情報に依存して、前記候補3D画像のサイズ及び形状を判定することと、
    サイズ及び形状に依存して、候補3D画像を前記オブジェクトグループに追加すること
    とを備えることを特徴とする請求項5に記載の方法。
  7. 表面の深さ均一性は、前記表面の平面度の尺度であることを特徴とする請求項4乃至6のいずれか1項に記載の方法。
  8. 地上モバイルマッピングデータからオブジェクトを検出する方法であり、前記地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、前記モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに前記車両の位置データ及び方位データを含み、前記レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含む方法であって、
    前記車両の位置及び方位を検索することと、
    第1の注目領域を取得するために対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位に依存して前記レーザスキャナデータをフィルタリングすることと、
    前記車両の前記位置及び前記方位と関連するソース画像を検索することと、
    第1の認識マスクを生成するため、前記第1の注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
    前記第1の注目領域を表す第1の候補3D画像を取得するため、前記第1の認識マスク及び前記ソース画像を組み合わせることと、
    前記走行方向に依存して、前記第1の候補3D画像から第1のオブジェクトグループを検出することと、
    第2の注目領域に対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位、並びに前記レーザスキャナデータの局所深さ均一性に依存して前記レーザスキャナデータをフィルタリングすることと、
    第2の認識マスクを生成するため、前記第2の注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
    前記第2の注目領域を表す第2の候補3D画像を取得するため、第2の認識マスク及び前記ソース画像を組み合わせることと、
    前記第2の候補3D画像から第2のオブジェクトグループを検出することと、
    前記第1のオブジェクトグループ及び前記第2のオブジェクトグループを組み合わせること
    と備えることを特徴とする方法。
  9. 前記車両の前記位置データ及び前記方位データは、位置決めプラットフォームにより事前に判定されることを特徴とする請求項1又は8に記載の方法。
  10. 地図データベースで使用するためにオブジェクトを取り込む装置であって、
    入力デバイスと、
    プロセッサ可読記憶媒体と、
    前記入力デバイス及び前記プロセッサ可読記憶媒体と通信するプロセッサと、
    表示部との前記接続を可能にする出力デバイスとを具備し、
    前記プロセッサ可読記憶媒体は、地上モバイルマッピングデータからのオブジェクトの検出を実行する前記プロセッサをプログラムするコードを格納し、前記地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、前記モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに前記車両の位置データ及び方位データを含み、前記レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含み、方法は、
    前記車両の位置及び方位を検索することと、
    注目領域に対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位に依存して前記レーザスキャナデータをフィルタリングすることと、
    前記車両の前記位置及び前記方位と関連するソース画像を検索することと、
    認識マスクを生成するため、注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
    前記注目領域内の可能なオブジェクトを表す候補3D画像を取得するため、前記認識マスク及び前記ソース画像を組み合わせることと、
    前記候補3D画像からオブジェクトグループを検出することと、
    前記オブジェクトを特徴付けるため、前記オブジェクトグループを記憶媒体に格納すること
    とを備えることを特徴とする装置。
  11. コンピュータ構成にロードされた場合に請求項1乃至9のいずれか1項に記載の方法を実行するように構成されるコンピュータプログラム。
  12. コンピュータ構成にロードされた場合に請求項1乃至9のいずれか1項に記載の方法を実行するように構成されるコンピュータプログラムを記憶するプロセッサ可読媒体。
JP2009534521A 2006-10-30 2007-10-30 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 Pending JP2010510559A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
NL2006050269 2006-10-30
PCT/NL2007/050520 WO2008054203A1 (en) 2006-10-30 2007-10-30 Method and apparatus for detecting objects from terrestrial based mobile mapping data

Publications (2)

Publication Number Publication Date
JP2010510559A true JP2010510559A (ja) 2010-04-02
JP2010510559A5 JP2010510559A5 (ja) 2010-10-28

Family

ID=38180592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009534521A Pending JP2010510559A (ja) 2006-10-30 2007-10-30 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置

Country Status (5)

Country Link
US (1) US8325979B2 (ja)
EP (1) EP2078286A1 (ja)
JP (1) JP2010510559A (ja)
CN (1) CN101523439A (ja)
WO (1) WO2008054203A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011112644A (ja) * 2009-11-24 2011-06-09 Ind Technol Res Inst マップ作成方法および装置とそのマップを利用した定位方法
JP2013064733A (ja) * 2011-08-29 2013-04-11 Hokkaido Univ 柱状物体抽出方法、柱状物体抽出プログラム、及び柱状物体抽出装置
JP2013540985A (ja) * 2010-07-26 2013-11-07 コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション 3次元走査ビーム・システムおよび方法
JP2014071655A (ja) * 2012-09-28 2014-04-21 Mitsubishi Heavy Ind Ltd 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法
JP2014153336A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 点群解析処理装置及び点群解析処理プログラム
WO2014136976A1 (ja) * 2013-03-04 2014-09-12 公益財団法人鉄道総合技術研究所 架線位置計測装置及び方法
JP2015212942A (ja) * 2014-04-25 2015-11-26 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2016001182A (ja) * 2015-07-21 2016-01-07 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション 3次元走査ビーム・システムおよび方法
KR101743392B1 (ko) * 2016-02-05 2017-06-02 최준석 안전성 평가를 위한 도로 기하구조 분석장치 및 그 분석방법
JPWO2020175438A1 (ja) * 2019-02-27 2020-09-03
KR20210040217A (ko) * 2019-10-02 2021-04-13 고려대학교 산학협력단 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
US8325976B1 (en) * 2008-03-14 2012-12-04 Verint Systems Ltd. Systems and methods for adaptive bi-directional people counting
AU2008354776A1 (en) 2008-04-18 2009-10-22 Tele Atlas B.V. Method of using laser scanned point clouds to create selective compression masks
US8755997B2 (en) * 2008-07-30 2014-06-17 Honeywell International Inc. Laser ranging process for road and obstacle detection in navigating an autonomous vehicle
AT507618B1 (de) * 2008-11-26 2012-01-15 Riegl Laser Measurement Sys Verfahren zum bestimmen der relativlage eines laserscanners zu einem referenzsystem
WO2010068185A1 (en) * 2008-12-09 2010-06-17 Tele Atlas B.V. Method of generating a geodetic reference database product
RU2011128379A (ru) * 2008-12-09 2013-01-20 Томтом Норт Америка, Инк. Способ генерации продукта геодезической справочной базы данных
US8385055B2 (en) 2008-12-26 2013-02-26 Industrial Technology Research Institute Electric device and display panel thereof
US8284250B2 (en) 2009-01-16 2012-10-09 Microsoft Corporation Determining trigger rate for a digital camera
US8699755B2 (en) 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
JP5326920B2 (ja) * 2009-08-07 2013-10-30 株式会社リコー 画像処理装置、画像処理方法、及び、コンピュータプログラム
CN102262733B (zh) * 2010-05-28 2014-03-19 株式会社理光 激光点检测方法及装置
US9129523B2 (en) * 2013-05-22 2015-09-08 Jaybridge Robotics, Inc. Method and system for obstacle detection for vehicles using planar sensor data
US9599715B2 (en) 2010-08-03 2017-03-21 Faro Technologies, Inc. Scanner display
US20120050477A1 (en) * 2010-08-27 2012-03-01 Jeyhan Karaoguz Method and System for Utilizing Depth Information for Providing Security Monitoring
US20120250984A1 (en) * 2010-12-01 2012-10-04 The Trustees Of The University Of Pennsylvania Image segmentation for distributed target tracking and scene analysis
WO2012097077A1 (en) * 2011-01-11 2012-07-19 Intelligent Technologies International, Inc. Mobile mapping system for road inventory
US20120273048A1 (en) 2011-04-28 2012-11-01 Acro Associates, Inc. Tube dislodgement detection technology for solenoid actuators
US8565958B1 (en) 2011-06-02 2013-10-22 Google Inc. Removing extraneous objects from maps
US9251562B1 (en) * 2011-08-04 2016-02-02 Amazon Technologies, Inc. Registration of low contrast images
CN104025153B (zh) * 2011-12-30 2017-09-15 英特尔公司 粗到细多个视差候选立体匹配
JP2013140515A (ja) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
FR2988504B1 (fr) * 2012-03-23 2014-05-09 Commissariat Energie Atomique Procede de determination d'un plan du sol a partir d'une image de profondeur
US9123152B1 (en) 2012-05-07 2015-09-01 Google Inc. Map reports from vehicles in the field
KR20130127822A (ko) * 2012-05-15 2013-11-25 한국전자통신연구원 도로상 물체 분류 및 위치검출을 위한 이종 센서 융합처리 장치 및 방법
US9239965B2 (en) * 2012-06-12 2016-01-19 Electronics And Telecommunications Research Institute Method and system of tracking object
US9031281B2 (en) * 2012-06-22 2015-05-12 Microsoft Technology Licensing, Llc Identifying an area of interest in imagery
US8885151B1 (en) 2012-09-04 2014-11-11 Google Inc. Condensing sensor data for transmission and processing
KR101550972B1 (ko) 2013-09-25 2015-09-07 현대자동차주식회사 레이저 스캐너를 이용하여 장애물을 인식하기 위한 특징점 추출 장치 및 방법
WO2015073347A1 (en) * 2013-11-15 2015-05-21 Dow Global Technologies Llc Photovoltaic shade impact prediction
DE102014201238A1 (de) * 2014-01-23 2015-07-23 Siemens Aktiengesellschaft Verfahren und System zur Erstellung einer Vektorkarte
US9911190B1 (en) * 2014-04-09 2018-03-06 Vortex Intellectual Property Holding LLC Method and computer program for generating a database for use in locating mobile devices based on imaging
US10157189B1 (en) 2014-04-09 2018-12-18 Vortex Intellectual Property Holding LLC Method and computer program for providing location data to mobile devices
US10735902B1 (en) 2014-04-09 2020-08-04 Accuware, Inc. Method and computer program for taking action based on determined movement path of mobile devices
US9418284B1 (en) * 2014-04-09 2016-08-16 Vortex Intellectual Property Holding LLC Method, system and computer program for locating mobile devices based on imaging
US9834207B2 (en) * 2014-04-15 2017-12-05 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects
US9903950B2 (en) * 2014-08-27 2018-02-27 Leica Geosystems Ag Multi-camera laser scanner
US9519061B2 (en) 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
CN105806320B (zh) * 2014-12-29 2020-04-21 同方威视技术股份有限公司 拍摄测量系统以及拍摄测量方法
US10007996B2 (en) * 2015-03-02 2018-06-26 Lawrence Livermore National Security, Llc System for detecting objects in streaming 3D images formed from data acquired with a medium penetrating sensor
DE102015214743A1 (de) * 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
US9824453B1 (en) * 2015-10-14 2017-11-21 Allstate Insurance Company Three dimensional image scan for vehicle
US9881378B2 (en) 2016-02-12 2018-01-30 Vortex Intellectual Property Holding LLC Position determining techniques using image analysis of marks with encoded or associated position data
US10824878B2 (en) 2016-03-08 2020-11-03 Accuware, Inc. Method and arrangement for receiving data about site traffic derived from imaging processing
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
CN106097444B (zh) * 2016-05-30 2017-04-12 百度在线网络技术(北京)有限公司 高精地图生成方法和装置
US11055986B2 (en) * 2016-07-20 2021-07-06 Harman Becker Automotive Systems Gmbh Matching observational points to road segments represented as edges in graphs
GB2553148A (en) * 2016-08-26 2018-02-28 Nctech Ltd Modelling system and method
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
US10078790B2 (en) 2017-02-16 2018-09-18 Honda Motor Co., Ltd. Systems for generating parking maps and methods thereof
EP3376213A1 (de) * 2017-03-15 2018-09-19 Siemens Aktiengesellschaft Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln
JP6722876B2 (ja) * 2017-12-26 2020-07-15 クモノスコーポレーション株式会社 三次元レーザー光走査装置
DE102018209607A1 (de) * 2018-06-14 2019-12-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen einer Position eines Kraftfahrzeugs
FR3082643A1 (fr) * 2018-06-18 2019-12-20 Soletanche Freyssinet Procede de geolocalisation et systeme pour sa mise en œuvre
CN110827048B (zh) * 2018-08-08 2023-05-23 菜鸟智能物流控股有限公司 基于路网的地理区域分割方法、装置以及电子设备
US20220138965A1 (en) * 2019-02-05 2022-05-05 Rey Focusing Ltd. Focus tracking system
JP7233261B2 (ja) * 2019-03-13 2023-03-06 キヤノン株式会社 3次元測量装置、撮像装置、制御方法及びプログラム
CN112907164A (zh) * 2019-12-03 2021-06-04 北京京东乾石科技有限公司 物体定位方法和装置
CN114235012A (zh) * 2022-02-25 2022-03-25 四川省安全科学技术研究院 一种车载移动测量系统室外检校评定的方法及系统
CN115808126B (zh) * 2023-02-03 2023-05-30 杭州百子尖科技股份有限公司 一种基于机器视觉扫描数据的锂电极片涂布边界定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (ja) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
JP2006072495A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 立体物監視装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (ja) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
JP2006072495A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 立体物監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PERROLLAZ MATHIAS: "Long Range Obstacle Detection Using Laser Scanner and Stereovision", INTELLIGENT VEHICLES SYMPOSIUM, 2006 IEEE, JPN6011069500, 11 September 2006 (2006-09-11), pages 182 - 187, ISSN: 0002112469 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8588471B2 (en) 2009-11-24 2013-11-19 Industrial Technology Research Institute Method and device of mapping and localization method using the same
JP2011112644A (ja) * 2009-11-24 2011-06-09 Ind Technol Res Inst マップ作成方法および装置とそのマップを利用した定位方法
US9146315B2 (en) 2010-07-26 2015-09-29 Commonwealth Scientific And Industrial Research Organisation Three dimensional scanning beam system and method
JP2013540985A (ja) * 2010-07-26 2013-11-07 コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション 3次元走査ビーム・システムおよび方法
JP2013064733A (ja) * 2011-08-29 2013-04-11 Hokkaido Univ 柱状物体抽出方法、柱状物体抽出プログラム、及び柱状物体抽出装置
JP2014071655A (ja) * 2012-09-28 2014-04-21 Mitsubishi Heavy Ind Ltd 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法
JP2014153336A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 点群解析処理装置及び点群解析処理プログラム
WO2014136976A1 (ja) * 2013-03-04 2014-09-12 公益財団法人鉄道総合技術研究所 架線位置計測装置及び方法
JP2014169939A (ja) * 2013-03-04 2014-09-18 Railway Technical Research Institute 架線位置計測装置及び方法
JP2015212942A (ja) * 2014-04-25 2015-11-26 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2017152049A (ja) * 2014-04-25 2017-08-31 グーグル インコーポレイテッド レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2016001182A (ja) * 2015-07-21 2016-01-07 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション 3次元走査ビーム・システムおよび方法
KR101743392B1 (ko) * 2016-02-05 2017-06-02 최준석 안전성 평가를 위한 도로 기하구조 분석장치 및 그 분석방법
JPWO2020175438A1 (ja) * 2019-02-27 2020-09-03
WO2020175438A1 (ja) * 2019-02-27 2020-09-03 愛知製鋼株式会社 点群データの取得方法及び点群データ取得システム
US11933633B2 (en) 2019-02-27 2024-03-19 Aichi Steel Corporation Point cloud data acquiring method and point cloud data acquiring system
KR20210040217A (ko) * 2019-10-02 2021-04-13 고려대학교 산학협력단 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법
KR102257610B1 (ko) * 2019-10-02 2021-05-28 고려대학교 산학협력단 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법

Also Published As

Publication number Publication date
US20100020074A1 (en) 2010-01-28
EP2078286A1 (en) 2009-07-15
US8325979B2 (en) 2012-12-04
CN101523439A (zh) 2009-09-02
WO2008054203A1 (en) 2008-05-08

Similar Documents

Publication Publication Date Title
US8325979B2 (en) Method and apparatus for detecting objects from terrestrial based mobile mapping data
US8280107B2 (en) Method and apparatus for identification and position determination of planar objects in images
US8422736B2 (en) Method of and apparatus for producing lane information
US8847982B2 (en) Method and apparatus for generating an orthorectified tile
US20100086174A1 (en) Method of and apparatus for producing road information
EP2195613B1 (en) Method of capturing linear features along a reference-line across a surface for use in a map database
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
KR101319471B1 (ko) 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체
US20100118116A1 (en) Method of and apparatus for producing a multi-viewpoint panorama
JP6950832B2 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
JP2005056186A (ja) 交通状況観測システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120608