JP2014512591A - 画像処理 - Google Patents

画像処理 Download PDF

Info

Publication number
JP2014512591A
JP2014512591A JP2013556937A JP2013556937A JP2014512591A JP 2014512591 A JP2014512591 A JP 2014512591A JP 2013556937 A JP2013556937 A JP 2013556937A JP 2013556937 A JP2013556937 A JP 2013556937A JP 2014512591 A JP2014512591 A JP 2014512591A
Authority
JP
Japan
Prior art keywords
image
terrain
vehicle
ground surface
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013556937A
Other languages
English (en)
Inventor
パトリック アンダーウッド,ジェームズ
ドイラード,ベルトラン
レイナ,ギウリオ
ミレラ,アンナリーザ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Sydney
Original Assignee
University of Sydney
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2011900891A external-priority patent/AU2011900891A0/en
Application filed by University of Sydney filed Critical University of Sydney
Publication of JP2014512591A publication Critical patent/JP2014512591A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3826Terrain data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

画像を処理する方法および装置であって、方法は、レーダ(4)を使用して地形のエリア(8)の第1の画像を生成するステップと、センサ(5)を使用して地形のエリア(8)の第2の画像を生成するステップと、第1の画像における点を地形のエリア(8)の地表面に対応するものとして識別するために、第1の画像に対して画像分割処理を行うステップと、第2の画像における点を地形のエリア(8)の地表面に対応するものとして識別するために、第1の画像における識別された点を第1の画像から第2の画像に投影するステップとを含む。方法は、第2の画像における識別された点に対して、この点を含む第2の画像の副画像を規定するステップと、地表面に対応する副画像において点を識別するために、副画像に特徴抽出処理を行うステップとをさらに含む。

Description

本発明は画像の処理に関する。
自律型車両が、採掘、土木、農業、および惑星探査等の屋外用途に導入されることがある。
車両に搭載されたイメージセンサが、車両の目として機能する。例えば、センサからの画像が、障害物回避、特定のタスクを行う目標検出、およびナビゲーション用地形図の生成を行うために用いられることがある。
地形の分割は、自律型車両の視覚的効果を向上させるために決定的な意味を持つ傾向がある。
都市環境において、道路に特有の構造的または視覚的特徴を活用することにより、地形を識別するタスクを効果的に実行できる傾向がある。
しかし、自然の地形において、地表面についての事前情報を通常は入手できない。さらに、地形の構造および外観は、車両の操作中に著しく変化することがある。このため、特定の合図に基づく道路検出アルゴリズムは、人間の監視なしでは適切でない傾向がある。
これらの方法の限界を克服するために、自己管理型地形分類法が開発されている。例えば、非特許文献1は、レーザー距離計およびカラーカメラを用いた自己管理型地形検出方法を開示している。
レーダおよび映像(すなわち、可視光検出カメラ)からのデータの統合について、いくつかの取り組みにおいて議論されている。この種のデータ統合は、通常、運転者支援システムとの関連で開発されている。さらに、この種のデータ統合は、例えば、非特許文献2に記載されているように、物体検出および分類モジュールを特徴とする傾向がある。
第1の態様において本発明は画像を処理する方法を提供し、方法は、レーダを使用して地形のエリアの第1の画像を生成するステップと、センサを使用して地形のエリアの第2の画像を生成するステップと、第1の画像における点を地形のエリアの地表面に対応するものとして識別するために、第1の画像に対して画像分割処理を行うステップと、第2の画像における点を地形のエリアの地表面に対応するものとして識別するために、第1の画像における識別された点を第1の画像から第2の画像に投影するステップとを含む。
方法は、第2の画像における識別された点に対して、この点を含む第2の画像の副画像を規定するステップと、地形のエリアの地表面に対応する副画像において点を識別するために、副画像に特徴抽出処理を行うステップとをさらに含んでもよい。
方法は、地形のエリアの地表面に対応する副画像における点を用いて、特定の物体または地形の特徴のモデルを構築するステップをさらに含んでもよい。
モデルは、多変数ガウス分布であってもよい。
方法は、モデルを用いて、地形エリアの地表面に対応するか、地形エリアの地表面に対応しないかのいずれの場合でも、第3の画像における領域を分類するための分類子を作成するステップをさらに含んでもよい。
分類子は、1クラス分類子であってもよい。
分類子は、領域とモデルとの間のマハラノビス距離に応じて、領域を分類してもよい。
センサは、イメージセンサであってもよい。
センサは、電磁気放射線を検出するよう構成されてもよい。
センサは、可視光線を検出するよう構成されたカメラであってもよい。
他の態様において、本発明は画像を処理する装置を提供し、装置は、地形のエリアの第1の画像を生成するよう構成されたレーダと、地形のエリアの第2の画像を生成するよう構成されたセンサと、第1の画像における点を地形のエリアの地表面に対応するものとして識別するために、第1の画像に対して画像分割処理を行い、かつ第2の画像における点を地形のエリアの地表面に対応するものとして識別するために、第1の画像における識別された点を第1の画像から第2の画像に投影するよう構成された1つ以上のプロセッサとを備える。
他の態様において、本発明は、上記態様による装置を備える車両を提供する。
車両は、自律型車両であってもよい。
車両は、陸上車両であってもよい。
他の態様において、本発明は、コンピュータシステムまたは1つ以上のプロセッサによって実行されると、コンピュータシステムまたは1つ以上のプロセッサを上記態様のいずれかの方法に従って動作させるよう構成された1または複数のプログラムを提供する。
更なる態様において、本発明は、上記態様による1つのプログラムまたは複数のプログラムの少なくとも1つを格納する機械可読記憶媒体を提供する。
ひとつの実施形態による車両の近傍で地表区割を行う車両の概要図である。 車両を用いて地表区画を走査する地形モデリングシナリオの例の概要図である。 車両によって実行される地表区割処理の実施形態のある特定のステップを示すフローチャートである。 地表区割処理の間に実行される学習プロセスの実施形態のある特定のステップを示すフローチャートである。 ビジュアル分類子を用いて全体画像の区割りを行う処理のある特定のステップを示すフローチャートである。
明細書において、用語「地表」は、環境の下にある支持面または環境の領域の幾何学的構成を指す。下にある支持面は、例えば、室内もしくは室外で、地方環境において下にある地質学上の地形等の表面、あるいは都市環境における人工的支持面等の表面を含んでもよい。
明細書において、用語「地上」は、システムが地形に直接接触していること、あるいは、システムが、地形に直接接触している更なるシステムの上に取り付けられていることを指す。
図1は、車両2の近傍で地表区割を行う処理の実施形態が実行される車両2の概要図(縮尺は無視している)である。これ以降、この処理を「地表区割処理」と呼ぶ。
この実施形態では、車両2は、レーダシステム4と、カメラ5と、プロセッサ6とを備える。
この実施形態では、車両2は自律型かつ無人の地上車両である。動作中、地上の車両2は、地表区画の表面、すなわち地表に接触している。そのため、この実施形態では、(地上の車両2に搭載されているため)レーダシステム4は地上システムである。
この実施形態では、レーダシステム4は、プロセッサ6に接続される。
この実施形態では、レーダシステム4は、機械走査式のミリ波レーダを備える。レーダは、1m〜120mの範囲で反射波の振幅を読み取る95GHz周波数変調連続波(Frequency Modulated Continuous Wave:FMCW)ミリ波レーダである。
照射されたレーダ信号の波長は、3mmである。照射されたレーダ信号のビーム幅は、仰角で3.0°および方位角で3.0°である。レーダシステム4のレーダアンテナは、360°の角度範囲にわたり水平に走査する。
動作中、レーダシステム4は、連続波(Continuous Wave:CW)信号をアンテナを介して目標に向けて照射する。目標からの反射波がアンテナにより受信される。受信された反射波に対応する信号が、レーダシステム4からプロセッサ6に送られる。
この実施形態では、カメラ5がプロセッサ6に接続される。
この実施形態では、カメラ5は、Prosilica社製モノクロCCDメガピクセルギガビットイーサネットカメラである。また、カメラ5は下方、および車両2の前方を向く。
動作中、カメラ5は車両2の前方の地形の画像を取り込む。取り込まれた画像に対応する信号が、カメラ5からプロセッサ6に送られる。
この実施形態では、図4を参照して以下により詳細に説明するように、プロセッサ6が、レーダシステム4およびカメラ5から受信した信号を処理する。この実施形態では、レーダシステム4の視野とカメラ5の視野は、地上で重なり合う。
図2は、車両2を用いて地表区画8を走査する地形モデリングシナリオの例の概要図(縮尺は無視している)である。このシナリオにおいて、車両2はレーダシステム4およびカメラ5を用いて地表区画8を走査する。
この実施形態では、地表区画8は、開放された地方環境である。
図3は、車両2によって実行される地表区割処理の実施形態のある特定のステップを示すフローチャートである。
ステップS2において、車両2により学習プロセスが実行され、地形の視覚モデル(すなわち、カメラ5により検出されるような地表のモデル)が作成される。
学習プロセスは、図4を参照して以下により詳細に説明される。
ステップS4において、ビジュアル分類子を用いて、地形モデルに基づき地表区割が行われる。
図4は、地表区割処理のステップS2において実行される学習プロセスの実施形態の、ある特定のステップを示すフローチャートである。
ステップS6において、レーダシステム4を用いて、学習用レーダサンプルが生成される。
この実施形態では、レーダシステム4がCW信号を車両2の前方の地表区画8上に照射する。反射波がレーダシステム4のアンテナにより受信され、受信された反射波に対応する信号が、レーダシステム4からプロセッサ6に送られる。
ステップS8において、プロセッサ6が、レーダシステム4から受信された信号(すなわち、レーダシステム4からの一連の学習データ)に対してレーダ地表区割(Radar Ground Segmentation:RGS)処理を行う。
この実施形態においてプロセッサ6によって実行されるRGS処理についての更なる詳細は、ここに参考文献として組み込む、非特許文献3に記載されている。
この実施形態において、レーダの走査毎に、レーダ中心座標における一連の背景点を検出し分類するために、RGS処理が実行される。
このように、この実施形態では、プロセッサ6が、レーダによって生成された地形のエリア8の学習画像にRGS処理を適用して、3つの広いカテゴリ、すなわち「地形」、「地形以外」(すなわち障害物)、または「不明」に属する物体を検出する。
ステップS10において、カメラ5が、車両2の前方の地形のエリア8の一連の学習(視覚)画像を取り込む。取り込まれた学習画像に対応する信号が、カメラ5からプロセッサ6に送られる。
ステップS12において、ステップS8で「地形」としてラベル付けされた学習レーダ画像における点が、(ステップS10でプロセッサ6により受信された)学習カメラ画像に投影される。
この実施形態では、「地形」としてカメラ画像にラベル付けされたレーダ中心の点のこの投影は、従来のカメラ透視変換を用いて実行される。
ステップS14において、カメラ画像に投影された点毎に、その点を含む「注目ウインドウ」(すなわち、副画像)が画定される。この実施形態では、画定された注目ウインドウがカメラ画像内で固定される。また、この実施形態では、各注目ウインドウは約0.30m×0.30mの地形部分(すなわち、地形のエリア8内の領域)に相当する。
ステップS16において、注目ウインドウ、すなわちステップS14で画定された副画像が、特徴抽出処理を用いて処理される。
この実施形態では、この特徴抽出処理は従来の特徴抽出処理である。
この実施形態では、特徴抽出処理を用いて、注目ウインドウ毎に4次元の特徴ベクトルが生成される。各特徴ベクトルは、ビジュアルテクスチャ記述子(例えば、コントラストやエネルギー)と色記述子(例えば、正規化された赤と緑の色平面における平均強度値)とを連結したものである。他の実施形態において、別のもの(例えば、より複雑なビジュアル記述子)を用いてもよい。
特徴抽出処理は、副画像から視覚的特徴を抽出するために、副画像に対して実行される。このように、(「地形」としてラベル付けされたレーダ画像における点を用いて決定された)副画像に対して特徴抽出処理を行うことにより、地形の視覚的外観が有利に組み込まれる。
ステップS18において、抽出された特徴ベクトルが、地形モデルの構築中に「地形」の概念のための学習サンプルとして用いられる。
この実施形態では、この地形モデルの構築は、従来技術を用いて行われる。
この実施形態では、ビジュアル地形モデルは、多変量ガウス分布としてモデル化される。
このように、「地形」としてラベル付けされたレーダ画像における点が、同様に地形のビジュアルモデルを作成するために用いられるカメラ画像における断片を選択するよう導くために用いられる、学習プロセスが提供される。
この実施形態では、ビジュアル地形モデルを決定するために上記の学習プロセスを実行した後、ビジュアル地形モデルを用いてビジュアル分類子が決定され、ビジュアル分類子を用いてカメラ(すなわち、視覚的)画像の区割りが行われる。
図5は、ビジュアル分類子を用いて全体画像の区割りを行う処理の、ある特定のステップを示すフローチャートである。
ステップS20において、学習プロセス(すなわち、ステップS2)の間に決定されたビジュアル地形モデルを用いて、風景区割用のマハラノビス距離に基づく1クラス分類子が決定される。
この実施形態では、(図4を参照して上で説明した)学習プロセスのステップS10で取り込まれた学習カメラ画像を用いて、シーン分割用の分類子が決定される。
1クラス分類法は、一般的に、一方のクラス(通常、「目標クラス」と呼ばれる)は比較的十分にサンプリングされるが、もう一方のクラス(通常、「外れ値クラス」と呼ばれる)はサンプリングの数が比較的少ない、またはモデル化が難しい、2クラス分類問題の場合において有効である。また通常、1クラス分類子は、目標クラスの例を他の全ての考えられる物体と分離する決定境界線を構成するために採用される。この実施形態では、地形のサンプルが目標クラスであり、地形以外のサンプル(すなわち、障害物)が外れ値クラスである。1クラス分類の問題に関する詳細な説明は、ここに参考文献として組み込む非特許文献4に記載されている。
この実施形態では、1クラス分類子が作成される。開放された地方環境において、地形以外のサンプルは、通常散在している。そのため、この実施形態では、明らかな地形サンプルのみ使用される。この実施形態では、推定する分布が地形のクラスの分布である分布モデル問題として公式で表される。他の実施形態では、異なる種類の分類子を作成してもよい。例えば、他の実施形態では、RGS処理から地形のサンプルと地形以外のサンプルの両方を用いて2クラス分類子を学習してもよい。
この実施形態では、N個の地形パターンがある。地形パターンiは、そのm次の行特徴ベクトルf によって表され、mは特徴変数の数である。
これらのベクトルは、この実施形態でN×m行列の形で表される学習セットXを構成し、ここで各行は観測値であり、各列は変数である。
Xにおけるデータのサンプル平均は、μで表される。
Xにおけるデータのサンプル共分散は、Σで表される。
地形モデルは、M(μ,Σ)で表される。
特徴ベクトルfを有する新たなパターンを考えると、fとM(μ,Σ)との間のマハラノビス距離の二乗は、以下のように定義される。
=(f−μ)Σ−1(f−μ)
この実施形態では、dが予め設定された閾値よりも大きい場合、特徴ベクトルfを有するパターンは外れ値であり、すなわち地形以外のサンプルとして分類される。
またこの実施形態では、マハラノビス距離の二乗が予め設定された閾値以下の場合、特徴ベクトルfを有するパターンは外れ値ではなく、地形のサンプルとして分類される。
この実施形態では、この予め設定された閾値は、mの自由度を持つカイ二乗分布の変位値として計算される。
この実施形態では、地形クラスが、車両移動中に有利に連続的に更新される。この実施形態では、これは、直前のレーダ走査によって取得された特徴ベクトルを用いて、地形モデルM(μ,Σ)を連続的に再構築することにより達成される。
ステップS22において、区割りおよび区割対象の視覚的画像が、カメラ5を用いて取得される。取得されたビジュアル画像に対応する信号が、カメラ5からプロセッサ6に送られる。
ステップS24において、プロセッサ6が、ステップS20で決定された分類子を用いて、全体のビジュアル画像を分類する。
このように、オンラインで地表区割を実行するプロセスが提供される。
また、レーダおよびビジュアルカメラシステムを用いる自己管理型地表区割法も提供される。
上記の地表区割処理によってもたらされる利点は、(上記の学習プロセスを実行することにより生成される)地形のビジュアルモデルを用いて、地形の特徴付け、道路探査、および可視的風景区割り等の高度なタスクを容易にできることである。また、地形のビジュアルモデルを用いて、例えば反射および遮蔽に由来するレーダの曖昧さを解決することにより、レーダセンサを補うことができる。レーダの曖昧さに起因する問題は、地形モデルで不明のラベルが付けられた視覚的断片から抽出された視覚的特徴ベクトルとの比較に基づき、レーダの不明な反射波を分類することにより、低減または緩和される傾向にある。この意味で、ビジュアル分類子は、レーダシステム4を有利に補って不明確な状況を解決する。
レーダに基づく区割法と、ビジュアル分類システムとは、有利に組み合わせられ、レーダシステム4とカメラ5が搭載された車両2が移動する際に、地形のビジュアルモデルが徐々に構築されていく。
上記の地表区割処理の更なる利点は、例えば障害物検出および分類を行うことにより車両2の運転者を支援するために、この処理を有利に用いてもよいことである。
また、レーダデータを用いてカメラ画像内の注目ウインドウが選択され、これらのウインドウの視覚的内容が分類目的で解析される。レーダシステム4をカメラ画像の解析の前に用いて、レーダの地形からの反射波を識別し、選択されたビジュアル注目ウインドウに自動的にラベル付けすることにより、手動のラベル付けに時間を費やす必要が低減または解消される。すなわち、システムは、画像解析の前にレーダ地表区画に基づき自動でオンラインのラベル付けを実行する。これにより、学習セットを構築するための時間のかかる手動のラベル付けをしなくても済む。また、地形の外観の事前情報を必要としない。
地形モデルを直前のレーダ走査に基づき連続的に更新することができるため、この方法は、長距離ナビゲーション条件に特に適する傾向にある。地形の外観は、地形の種類、植物の存在、および採光条件等の、測定が容易でなく時間とともに変化する多くの要因の影響を受けるため、地表区割は一般的に難しい。このことは、特に長距離ナビゲーションに当てはまる。上記の処理は、レーダにより取得された直前の走査を用いて分類子を連続的に学習することにより、地形モデルを順応的に学習することで、この問題に対処している。
プロセッサ6を含む、本明細書に記載した構成を実現し、本明細書に記載した方法ステップを実行するための装置は、例えば1つ以上のコンピュータ、あるいは他の処理装置またはプロセッサといった任意の適切な装置を構成または適用することにより、および/または追加のモジュールを設けることにより、提供されてもよい。装置は、命令を実行しデータを使用するコンピュータ、コンピュータのネットワーク、または1つ以上のプロセッサを備えてもよく、この命令およびデータは、コンピュータメモリ、コンピュータディスク、ROM、PROM等、またはこれらの任意の組み合わせ、あるいは他の記憶媒体等の機械可読記憶媒体に格納された1つのコンピュータプログラムまたは複数のコンピュータプログラムの形態の命令およびデータを含む。
なお、図3〜5のフローチャートに記載して上で説明した特定の処理ステップは、省略してもよく、あるいはそのようなステップは、図に示したものと異なる順序で実行してもよい。さらに、全ての処理ステップを、便宜上かつ理解しやすいように、個別の時間的に連続したステップとして記載してきたが、処理ステップのいくつかを、実際には同時に、または少なくともある程度時間的に重複して実行してもよい。
上記の実施形態では、車両2は自律型で無人の陸上車両である。他の実施形態では、車両は異なる種類の車両であってもよい。例えば、他の実施形態では、車両2は有人および/または半自律型の車両である。また、他の実施形態では、上記のレーダ地表区割処理が、車両の代わりに、または車両に加えて、異なる種類の対象物に対して実行される。例えば、他の実施形態では、上記のシステム/方法を、無人飛行機(Unmanned Aerial Vehicle)、または無人ヘリコプタ(着陸動作を改善するために)において、あるいは視覚障害者のためのいわゆる「ロボット杖」として、実装してもよい。別の実施形態では、上記のシステム/方法が、例えば人々やその他の移動物体を地形からの反射波と区別することにより追跡する固定エリアスキャナといった、保安用途の静止したシステムにおいて、実装される。
上記の実施形態では、レーダは、1m〜120mの範囲で反射波の振幅を感知する95GHz周波数変調連続波(Frequency Modulated Continuous Wave:FMCW)ミリ波レーダである。照射されたレーダ信号の波長は、3mmである。照射されたレーダ信号のビーム幅は、仰角で3.0°および方位角で3.0°である。レーダは、異なる適切な仕様を有する適切な種類のものであってよい。
上記の実施形態では、カメラ5は、Prosilica社製モノクロCCDメガピクセルギガビットイーサネットカメラである。また、カメラ5は車両2の前方かつ下方を向いている。他の実施形態では、カメラ5は、例えば、異なる適切な仕様を有するカメラ、および/または異なる周波数/波長を有する照射を検出するよう構成されたカメラ(例えば、赤外線カメラ、紫外線カメラ等)といった異なる適切な種類のカメラである。また、他の実施形態では、カメラ5は、異なる外装を有し、車両2に取り付けられる。さらに、カメラ5は、搭載される車両2に対して固定されてもよく、あるいは可動であってもよい。さらに、レーダシステム4は、レーダ近距離場において部分的または全体的に、あるいはレーダ遠距離場において部分的または全体的に動作するよう構成されてもよい。
上記の実施形態では、レーダシステム4は、連続波(Continuous Wave:CW)信号をアンテナを介して目標に向けて照射する。他の実施形態では、レーダ信号は、異なる種類のレーダ変調を有する。
上記の実施形態では、図2に関して上で説明したシナリオにおいて、車両2を用いて地表区割処理が行われる。他の実施形態では、様々な地形の特徴および/または物体が存在するような適切なシナリオで、および/または、悪天候条件または塵/煙雲等の厳しい環境条件がある中で、上記の処理が行われる。
上記の実施形態では、ステップS8において、プロセッサ6がレーダ地表区割(Radar Ground Segmentation:RGS)処理を行う。この処理は、非特許文献3に記載されている通りである。他の実施形態では、「地形」に対応するレーダ画像点を識別するために、異なる処理がレーダ画像に対して行われる。例えば、「地形」、「地形以外」、または「不明」の分類の代わりに、またはこれに加えて、別の分類としてレーダ画像点が分類される処理を用いてもよい。
H.Dahlkamp、A.Kaehler、D.Stavens、S.Thrun、およびG.Bradski著、「Self−supervised monocular road detection in desert terrain」、ロボット工学科学およびシステム会議議事録(Proceedings of the Robotics Science and Systems Conference)、フィラデルフィア、ペンシルベニア州、2006年 Z.JiおよびD.Prokhorov著、「Radar−Vision Fusion for Object Classification」、第11回情報統合に関する国際会議、2008年 G.Reina、J.Underwood、G.Brooker、およびH.D.Durrant−Whyte著、「Radar−Based Perception for Autonomous Outdoor Vehicles」、Journal of Field Roboticsに投稿 O.M.J.Tax著、「One−Class Classification,Concept Learning in the Absence of Counter Examples」、デルフト工科大学、デルフト、オランダ、2001年

Claims (14)

  1. 画像を処理する方法であって、
    レーダシステムを使用して地形区画の第1の画像を生成するステップと、
    イメージセンサを使用して前記地形区画の第2の画像を生成するステップと、
    前記第1の画像における点を前記地形区画の地表面に対応するものとして識別するために、前記第1の画像に対して画像区割処理を行うステップと、
    前記第2の画像における点を前記地形エリアの地表面に対応するものとして識別するために、前記第1の画像における前記識別された点を前記第1の画像から前記第2の画像に投影するステップとを備える方法。
  2. 前記第2の画像における前記識別された点に対して、この点を含む前記第2の画像の副画像を画定するステップと、
    前記地形区画の地表面に対応する前記副画像における点を識別するために、前記副画像に特徴抽出処理を行うステップをさらに備える、請求項1に記載の方法。
  3. 前記地形区画の地表面に対応する前記副画像における点を用いて、特定の物体または地形の特徴のモデルを構築するステップをさらに備える、請求項2に記載の方法。
  4. 前記モデルは、多変量ガウス分布である、請求項3に記載の方法。
  5. 前記モデルを用いて、前記地形区画の地表面に対応するか、前記地形区画の地表面に対応しないかに応じて、第3の画像における領域を分類するための分類子を作成するステップをさらに備える、請求項3または4に記載の方法。
  6. 前記分類子は1クラス分類子である、請求項5に記載の方法。
  7. 前記分類子は、前記領域と前記モデルとの間のマハラノビス距離に応じて、前記領域を分類する、請求項5または6に記載の方法。
  8. 前記イメージセンサは、電磁気放射線を検出するよう構成される、請求項1から7のいずれか一項に記載の方法。
  9. 前記イメージセンサは、可視光線を検出するよう構成されたカメラである、請求項8に記載の方法。
  10. 地形区画の第1の画像を生成するよう構成されたレーダシステムと、
    前記地形区画の第2の画像を生成するよう構成されたイメージセンサと、
    前記第1の画像における点を前記地形区画の地表面に対応するものとして識別するために、前記第1の画像に対して画像区割処理を行い、かつ前記第2の画像における点を前記地形区画の地表面に対応するものとして識別するために、前記第1の画像における前記識別された点を前記第1の画像から前記第2の画像に投影する、プロセッサと
    を備える画像処理装置。
  11. 請求項10に記載の画像処理装置を備えた車両。
  12. 前記車両は自律型車両である、請求項11に記載の車両。
  13. 前記車両は陸上車両である、請求項11または12に記載の車両。
  14. コンピュータに、請求項1から9のいずれか一項に記載の方法の各ステップの手順を実行させるコンピュータプログラム。
JP2013556937A 2011-03-11 2012-03-09 画像処理 Pending JP2014512591A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2011900891A AU2011900891A0 (en) 2011-03-11 Image Processing
AU2011900891 2011-03-11
PCT/AU2012/000249 WO2012122589A1 (en) 2011-03-11 2012-03-09 Image processing

Publications (1)

Publication Number Publication Date
JP2014512591A true JP2014512591A (ja) 2014-05-22

Family

ID=46829948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556937A Pending JP2014512591A (ja) 2011-03-11 2012-03-09 画像処理

Country Status (5)

Country Link
US (1) US20140126822A1 (ja)
EP (1) EP2684008A4 (ja)
JP (1) JP2014512591A (ja)
AU (1) AU2012229874A1 (ja)
WO (1) WO2012122589A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334515A (zh) * 2015-11-25 2016-02-17 袁帅 一种基于镜面反射的无人机避障雷达

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9704043B2 (en) 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
KR101762504B1 (ko) * 2015-08-31 2017-07-28 고려대학교 산학협력단 레이저 거리 센서를 이용한 바닥 장애물 검출 방법
DE102016205433A1 (de) * 2015-11-25 2017-06-14 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung, Kartenverwaltungseinrichtung und System zum punktgenauen Lokalisieren eines Kraftfahrzeugs in einem Umfeld
WO2017089136A1 (de) * 2015-11-25 2017-06-01 Volkswagen Aktiengesellschaft Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
WO2017163716A1 (ja) * 2016-03-23 2017-09-28 古野電気株式会社 レーダ装置及び航跡表示方法
US10188580B2 (en) 2016-05-09 2019-01-29 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing environment information using an unmanned vehicle
GB201616097D0 (en) * 2016-09-21 2016-11-02 Univ Oxford Innovation Ltd Segmentation of path proposals
CN107045677A (zh) * 2016-10-14 2017-08-15 北京石油化工学院 一种危化品仓库障碍物扫描定位还原方法、装置及系统
WO2018165279A1 (en) * 2017-03-07 2018-09-13 Mighty AI, Inc. Segmentation of images
EP3577597A1 (en) * 2017-05-19 2019-12-11 Google LLC Efficient image analysis using environment sensor data
CN107167139A (zh) * 2017-05-24 2017-09-15 广东工业大学 一种变电站巡检机器人视觉定位导航方法及系统
CN109558220B (zh) * 2017-09-26 2021-02-05 汉海信息技术(上海)有限公司 一种故障车辆的管理方法和设备
CN107844121A (zh) * 2017-12-17 2018-03-27 成都育芽科技有限公司 一种车辆自动驾驶系统及其使用方法
CN108592912A (zh) * 2018-03-24 2018-09-28 北京工业大学 一种基于激光雷达的室内移动机器人自主探索方法
CN108830177A (zh) * 2018-05-25 2018-11-16 深圳春沐源控股有限公司 农事操作行为稽查方法及装置
CN108845574B (zh) * 2018-06-26 2021-01-12 北京旷视机器人技术有限公司 目标识别与追踪方法、装置、设备及介质
EP3792656A1 (en) * 2019-09-12 2021-03-17 Continental Automotive GmbH Method for elevation angle estimation based on an ultrasound sensor
CN111046861B (zh) * 2019-11-29 2023-10-27 国家电网有限公司 识别红外影像的方法、构建识别模型的方法及应用
CN112395985B (zh) * 2020-11-17 2022-10-21 南京理工大学 基于无人飞行器图像的地面无人车辆视觉道路检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334515A (zh) * 2015-11-25 2016-02-17 袁帅 一种基于镜面反射的无人机避障雷达

Also Published As

Publication number Publication date
EP2684008A4 (en) 2014-09-24
US20140126822A1 (en) 2014-05-08
EP2684008A1 (en) 2014-01-15
WO2012122589A1 (en) 2012-09-20
AU2012229874A1 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
JP2014512591A (ja) 画像処理
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
US10817731B2 (en) Image-based pedestrian detection
US9933264B2 (en) System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation
Manduchi et al. Obstacle detection and terrain classification for autonomous off-road navigation
Dominguez et al. LIDAR based perception solution for autonomous vehicles
Vandapel et al. Natural terrain classification using 3-d ladar data
EP3414641B1 (en) System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation
Shehata et al. Video-based automatic incident detection for smart roads: The outdoor environmental challenges regarding false alarms
Zhu et al. 3d lidar point cloud based intersection recognition for autonomous driving
US20100305857A1 (en) Method and System for Visual Collision Detection and Estimation
US9874878B2 (en) System and method for adaptive multi-scale perception
James et al. Learning to detect aircraft for long-range vision-based sense-and-avoid systems
Desaraju et al. Vision-based landing site evaluation and informed optimal trajectory generation toward autonomous rooftop landing
JP6826023B2 (ja) 点群から対象を特定する対象識別装置、プログラム及び方法
US20210018611A1 (en) Object detection system and method
Hammer et al. UAV detection, tracking, and classification by sensor fusion of a 360 lidar system and an alignable classification sensor
Nagarani et al. Unmanned Aerial vehicle’s runway landing system with efficient target detection by using morphological fusion for military surveillance system
Sakib Sensor Fusion for Intelligent Road Transportation
Uzkent et al. Feature matching with an adaptive optical sensor in a ground target tracking system
Tsiourva et al. LiDAR imaging-based attentive perception
CN112313535A (zh) 距离检测方法、距离检测设备、自主移动平台和存储介质
Rankin et al. Stereo-vision-based perception capabilities developed during the Robotics Collaborative Technology Alliances program
Guptha M et al. [Retracted] Generative Adversarial Networks for Unmanned Aerial Vehicle Object Detection with Fusion Technology
Budzan Fusion of visual and range images for object extraction