JP5505723B2 - 画像処理システム及び位置測位システム - Google Patents

画像処理システム及び位置測位システム Download PDF

Info

Publication number
JP5505723B2
JP5505723B2 JP2010175644A JP2010175644A JP5505723B2 JP 5505723 B2 JP5505723 B2 JP 5505723B2 JP 2010175644 A JP2010175644 A JP 2010175644A JP 2010175644 A JP2010175644 A JP 2010175644A JP 5505723 B2 JP5505723 B2 JP 5505723B2
Authority
JP
Japan
Prior art keywords
image
feature point
image feature
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010175644A
Other languages
English (en)
Other versions
JP2011227037A (ja
Inventor
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2010175644A priority Critical patent/JP5505723B2/ja
Priority to US13/019,001 priority patent/US20110242319A1/en
Priority to EP11153875.7A priority patent/EP2372310B1/en
Priority to CN201110064673.XA priority patent/CN102222236B/zh
Publication of JP2011227037A publication Critical patent/JP2011227037A/ja
Application granted granted Critical
Publication of JP5505723B2 publication Critical patent/JP5505723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理システム、特に風景画像認識処理用参照データの作成のための画像処理システム、及びその参照データを用いた位置測位システムに関する。
従来から、カーナビゲーション装置では、車両の現在位置を算出する方法として、ジャイロや地磁気センサ等のセンサから取得した情報を利用する方法(自律航法)、GPS衛星からの信号を利用する方法、あるいは自律航法とGPS信号の利用とを組み合わせる方法が採用されている。さらに、高精度に現在位置を算出するために、測位衛星からの信号等を利用して暫定的な現在位置を求めておいて、撮影された車両前方の画像を用いて、暫定現在位置を基準にした座標系(自動車座標系)における道路標示の特徴点の座標(自動車座標系特徴点)を算出し、算出した自動車座標系特徴点と記憶している道路標示の特徴点の座標(ワールド座標系で示した座標)とに基づいて、車両の現在位置を算出するように構成された位置測位装置が知られている(例えば、特許文献1参照)。この装置では、測位衛星からの信号及び各種センサからの信号による測位では誤差を含んでしまう場合であっても、精度の高い現在位置を算出することが可能となる。
特開2007−108043号公報(段落番号0009−0013、図1)
しかし、上記特許文献1による位置測位装置では、道路上の道路標示の特徴点の空間座標をステレオ画像から求め、道路標示情報データベースに収められたその特徴点を有する道路標示の緯度・経度によって求められた座標を用いて自車位置を算出するので、道路標示のない場所では当該装置を利用できない。また、画像処理によって認識された特徴点の空間座標を演算する必要があるので、装置には高い演算能力が要求され、コストアップの要因となる。
そこで、道路標識のない道路や特定敷地内においても利用できるとともに、各特徴点の空間座標を位置算出毎に演算しなくても高精度な位置決めを行うことができる位置測位システムの構築のために、風景画像認識技術の利用が考えられる。その際、風景画像認識技術に利用される効果的な参照用画像データの作成が重要となるので、そのような効果的な参照用画像データの作成に適した画像処理システムの実現が望まれる。
上記課題を解決するための本発明に係る画像処理システムは、車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、その特徴構成は、車両走行にともなって順次撮影された前記撮影画像のうち撮影位置が所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、前記処理対象撮影画像の類似度を算出する類似度算出部と、互いに前記類似度が相違する前記処理対象撮影画像を有用画像として選択する有用画像選択部と、前記有用画像から画像特徴点を抽出する特徴点抽出部と、前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、前記画像特徴点データを当該画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部とを備える点にある。
上記構成によれば、所定領域において取得された複数の撮影画像について、当該撮影画像の間での類似度を算出し、互いに類似度が相違する処理対象撮影画像を有用画像として選択する。従って、その有用画像に基づいて生成された風景画像認識のための画像特徴点データである参照データは、所定領域内で近接している撮影位置の間で類似しないため、風景画像認識としてのマッチング処理の効率を向上させることができる。
風景画像認識による正確な位置検出を実現するためには、所定領域内で風景を順次撮影して多数の撮影画像を処理する必要があるが、例えば高速道路のような場所を走行する場合、同じような風景が周期的に撮影される可能性がある。また、例えば立体駐車場のように複数階層に分かれた場所を走行する場合、各階層で同じような風景が撮影される可能性がある。これらのような状況では、複数の撮影位置における参照データとの間で撮影画像のマッチングが成功し得るので、正確な位置決めが困難であり、マッチング処理に要する時間も長くなる。
しかしながら、本発明によれば、一旦、処理対象撮影画像として一時格納された複数の撮影画像の間での類似度を算出し、撮影画像同士で類似度が相違するように有用画像が選択されて参照データが生成されるので、効率の良いマッチング処理が可能となる。すなわち、上記構成によれば、効率の良いマッチング処理を可能とするような参照データが得られる画像処理システムを構築することができる。
上記課題を解決するために提案された先の発明構成の場合、撮像画像に対して類似度を算出していたが、これに代えて、撮像画像から生成される画像特徴点データに対して類似度を算出しても、同様の効果が得られる。そのような本発明による画像処理システムの第2の特徴構成は、車両走行にともなって順次撮影された前記撮影画像のうち所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、前記処理対象撮影画像から画像特徴点を抽出する特徴点抽出部と、前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、前記画像特徴点データの類似度を算出する類似度算出部と、互いに前記類似度が相違する前記画像特徴点データを有用画像特徴点データとして選択する有用画像選択部と、前記有用画像特徴点データを当該有用画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部とを備える点にある。
この第2の特徴構成によれば、画像特徴点データから類似度を算出するので、撮影画像から類似度を算出するよりは、類似度算出のための処理が簡単となる可能性が高い。しかしながら、取得した全ての撮影画像から画像特徴点データを生成した後、当該画像特徴点データの間での類似度に基づいて有用画像特徴点データを選択することになるので、画像特徴点データを生成する処理の負担が第1の特徴構成に比べて大きくなる。第1の特徴構成を有する画像処理システムと第2の特徴構成を有する画像処理システムのいずれかを、必要とされる参照データの仕様に応じて選択することが望ましい。または、1つの画像処理システムに2つの特徴構成を混在させた複合型の画像処理システムを構築してもよい。
前記有用画像選択部による有用画像選択処理のさらに好適な実施形態として、有用画像選択部は、前記類似度と前記撮影位置とを相違パラメータとして前記類似度と前記撮影位置との両方が相違するように前記有用画像または前記有用画像特徴点データを選択する構成が提案される。この構成によれば、各処理対象撮影画像の類似度と撮影位置との両方が相違するように、複数の処理対象撮影画像から特定の処理対象撮影画像を有用画像として選択し、あるいは各画像特徴点データの類似度と撮影位置との両方が相違するように、複数の画像特徴点データから特定の画像特徴点データを有用画像特徴点データとして選択する。この較正によって生成される参照データは、類似度と撮影位置との両方が確実に類似していないため、風景画像認識としてのマッチング処理の効率を向上させることができる。
また、本発明に係る別の画像処理システムは、車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、その特徴構成は、車両走行にともなって順次撮影された前記撮影画像のうち撮影位置が所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、前記処理対象撮影画像の類似度を算出する類似度算出部と、所定位置間隔毎の前記処理対象撮影画像の類似度を評価し、前記類似度が所定度より低い場合には前記所定位置間隔毎の前記処理対象撮影画像を前記有用画像として選択し、前記類似度が前記所定度より高い部分では当該部分の間隔を前記所定位置間隔に対して異ならせる有用画像選択部と、前記有用画像から画像特徴点を抽出する特徴点抽出部と、前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、前記画像特徴点データを当該画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部と、を備える点にある。また、本発明に係る、さらに別の画像処理システムは、車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、その特徴構成は、車両走行にともなって順次撮影された前記撮影画像のうち所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、前記処理対象撮影画像から画像特徴点を抽出する特徴点抽出部と、前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、前記画像特徴点データの類似度を算出する類似度算出部と、所定位置間隔毎の前記画像特徴点データの類似度を評価し、前記類似度が所定度より低い場合には前記所定位置間隔毎の前記画像特徴点データを前記有用画像特徴点データとして選択し、前記類似度が前記所定度より高い部分では当該部分の間隔を前記所定位置間隔に対して異ならせる有用画像選択部と、前記有用画像特徴点データを当該有用画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部と、を備える点にある。れらの構成によれば、類似度が比較的高く、参照データの作成に不適切な処理対象撮影画像または画像特徴点データを確実に除去することができる。よって、無駄のない参照データデータベースを構築することができる。
前記有用画像選択部による有用画像または有用画像特徴点データの選択処理のさらに好適な実施形態として、第1の特徴構成では、前記類似度と前記撮影位置とによって二次面分布した前記処理対象撮影画像から、その散布度が最大となる前記所定数の組み合わせを前記有用画像として選択することが提案され、第2の特徴構成では、前記類似度と前記撮影位置とによって二次面分布した前記画像特徴点データから、その散布度が最大となる前記所定数の組み合わせを前記有用画像特徴点データとして選択することが提案される。この特徴を採用することにより、類似度と撮影位置とを座標軸とする二次面上で規定される処理対象撮影画像を表す座標点または画像特徴点データを表す座標点の散布度が大きくなるように、あるいは、互いの座標点の間隔が最大限に大きくなるように所定数の座標点を選択するような演算を行うことで、有用画像または有用画像特徴点データの最適な選択が実現する。
前記所定領域内に複数の識別対象経路が含まれる場合における、前記有用画像選択部による有用画像または有用画像特徴点データの選択処理の好適な実施形態として、第1の特徴構成では、複数の前記識別対象経路のそれぞれについて少なくとも1つの前記処理対象撮影画像を前記有用画像として選択することが提案され、第2の特徴構成では、複数の前記識別対象経路のそれぞれについて少なくとも1つの前記画像特徴点データを前記有用画像特徴点データとして選択することが提案される。この特徴を採用することにより、所定領域内に含まれる複数の識別対象経路のそれぞれにおいて取得される、複数の撮影画像同士で類似度が相違するように有用画像が選択されて参照データが生成され、あるいは、複数の画像特徴点データ同士で類似度が相違するように有用画像特徴点データが選択されて参照データが生成される。よって、所定領域内に複数の識別対象経路が含まれる場合でも、効率の良いマッチング処理を可能とし、経路の特定を容易化できる参照データを得ることができる。
これらの場合において、複数の前記識別対象経路は、分岐点で分岐した後の複数の経路であると好適である。この構成によれば、分岐点で分岐した後の、所定領域内における複数の経路を識別対象経路とすることで、効率の良いマッチング処理を可能とし、経路の特定を容易化できる参照データを得ることができる。
また、前記識別対象経路は、複数階層に分かれて存在する複数の経路の中から各階層に少なくとも1つ設定されていると好適である。この構成によれば、所定領域内において複数階層に分かれて存在する複数の経路を識別対象経路とすることで、効率の良いマッチング処理を可能とし、階層の特定を容易化できる参照データを得ることができる。
カーナビゲーションの分野では、推定自車位置をGPS信号や推測航法による位置座標の測定に基づいて行う際に生じる誤差に基づいて、推定自車位置を基準とした所定半径領域(以後、これを「誤差範囲」と称する)を定義し、この誤差範囲に実自車位置が存在するとみなしている。このような技術を考慮するならば、前記所定領域は、前記推定自車位置の誤差領域に対応していることが好適である。この所定領域で多数の撮影画像を取得し、それらの撮影画像または画像特徴点データに割り当てられた類似度が相違するように所定数分だけ有用画像または有用画像特徴点データとして選択することで、誤差範囲内で効率の良いマッチング処理を可能とするような参照データデータベースを構築することができる。
本発明の画像処理システムでは、車両の走行にともなって順次撮影される撮影画像に基づいて参照データを収集する。このとき、参照データの収集のための車両は、基本的に、所定経路に沿った走行を続けながら参照データを収集する。このような実情を考慮するならば、前記所定領域は、所定の走行距離領域であることが好適である。この所定の走行距離領域で多数の撮影画像を取得し、それらの撮影画像または画像特徴点データに割り当てられた類似度が相違するように所定数分だけ有用画像または有用画像特徴点データとして選択することで、所定走行距離領域内で効率の良いマッチング処理を可能とするような参照データデータベースを構築することができる。
なお、この場合においても、前記所定の走行距離領域は、前記推定自車位置の誤差領域に対応していることが好適である。また、有用画像選択部による有用画像または有用画像特徴点データの選択手法に関しても、これまで説明した各手法を採用することができる。
本発明の好適な実施形態の1つでは、前記画像特徴点の重要度を決定する特徴点重要度決定部が備えられ、画像特徴点データ生成部は、前記重要度に基づいて前記画像特徴点から前記撮影画像毎の前記画像特徴点データを生成するように構成されている。撮影画像から抽出される画像特徴点は、その位置やその画像特徴点の元となっている被写体の種別などの要因によって、風景画像認識における重要度が大きく異なる。例えば、道路表面の凹凸から得られた画像特徴点は自車位置を特定するためには有用ではない。また、併走する車両などの移動物体から得られた画像特徴点も、時間的な永続性がないので自車位置を特定するためには有用ではない。従って、上記の構成のように、画像特徴点に重要度を付与し、重要度に応じて全体の画像特徴点を整理することで、風景画像認識に適した画像特徴点データを生成することができる。
画像特徴点は、画像の上にある点で安定して検出できるものが好ましいので、一般にはエッジ検出フィルタなどを用いて検出できるエッジ点を用いるとよい。さらに、風景画像における特徴点という点を考慮すれば、ビルの輪郭やビル窓、各種看板の輪郭を示す直線上につながっていくエッジ点群が画像特徴点として適している。このため、本発明の好適な実施形態では、前記特徴点抽出部によって抽出される前記画像特徴点がエッジ点であり、前記エッジ点が直線を形成する直線成分エッジ点である場合、当該直線成分エッジ点には前記直線成分エッジ点以外のエッジ点より高い重要度が与えられるように構成されている。この構成によれば、風景を特徴付ける建物や看板などの特定の人工物などを正確かつ簡素に認識するための参照データを作成することができる。その際、前記直線成分エッジ点のうち二つの直線成分の交点としての交点エッジ点には前記交点エッジ点以外の直線成分エッジ点に比ベさらに高い重要度が与えられるようにすることが好適である。これにより、参照データに含まれる画像特徴点を建物や橋や看板などの最も重要な特徴点であるコーナ点、つまり上記交点エッジ点だけに限定して、画像認識における演算負担を減らすことが可能となる。なお、コーナ点の検出にはハリス演算子などを用いることができる。
さらに、本発明は、上述した画像処理システムによって作成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムも権利範囲としている。そのような位置測位システムは、前記参照データを格納している参照データデータベースと、車両からの風景を撮影した撮影画像を入力するデータ入力部と、入力された前記撮影画像から画像特徴点を抽出する特徴点抽出部と、前記画像特徴点から前記撮影画像毎の画像特徴点データを生成してマッチング用データとして出力する画像特徴点データ生成部と、前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部と、を備えている。この位置測位システムでは、上述したように、風景マッチングに効果的な参照データを用いているので、高精度に自車位置を決定することができる。
本発明による画像処理システムによる参照データの作成と、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位技術の基本概念を説明する模式図である。 本発明による画像処理システムの一例における主な機能の前段部を示す機能ブロック図である。 本発明による画像処理システムの一例における主な機能の後段部を示す機能ブロック図である。 本発明による画像処理システムの一例で採用されている有用画像選択アルゴリズムを模式的に示している模式図である。 撮影画像から重み係数の調整を行いながら画像特徴点データを生成する過程を模式的に示す模式図である。 本発明による画像処理システムで作成された参照データDBを用いたカーナビゲーションシステムの機能ブロックである。 本発明による画像処理システムの好適な適用場面の一例を示す模式図である。 本発明による画像処理システムの好適な適用場面の他の一例を示す模式図である。 本発明による画像処理システムの別実施例における主な機能を示す機能ブロック図である。
以下、図面を参照して本発明について詳細に説明する。図1は、車載カメラ(本例では、車両走行方向前方の風景を撮影する前方カメラ)からの風景画像を、本発明による画像処理システムによって作成される参照データを用いたマッチング処理を通じて画像認識することで、その風景画像が撮影される位置、つまり自車位置を決定する、位置測位技術の基本概念を模式的に示している。なお、以下では、車両は、所定経路に沿った走行を続けながら参照データを収集するものとして説明する。
まず、参照データデータベース(以下、単に「参照データDB」と略称する)92の構築手順を説明する。図1に示すように、走行途中における車両からの風景を撮影した撮影画像とその撮影時の撮影位置や撮影方位を含む撮影属性情報が入力される(#01a)。入力された撮影画像は、所定領域(ここでは、車両が走行する所定距離を占める領域である走行距離領域)毎に処理対象撮影画像としてワーキングメモリに一時格納される(#01b)。なお、本例では、連続的に撮影される一連の撮影画像が処理対象撮影画像となる。一時格納された複数の撮影画像間での類似度が算出され、その類似度が各撮影画像に付与される(#01c)。類似度が付与された複数の撮影画像から、類似度と撮影位置とを相違パラメータとして当該相違パラメータができるだけばらつくように、所定数の撮影画像が有用画像として選択される(#01d)。有用画像として選択された撮影画像に対して画像特徴点を検出するための特徴点検出処理、例えばエッジ検出処理が実行される(#02)。ここでは、1つの画素ないしは複数の画素に対応させたエッジ点が輪郭のような一本の線分を構成している部分をエッジと呼び、複数のエッジが交差している交点をコーナと呼ぶ。画像特徴点の一例が、このエッジとコーナである。エッジ検出処理によって得られるエッジ検出画像から、コーナを含むエッジが画像特徴点として抽出される(#03)。
さらに、別系統で、撮影画像に特定被写体が含まれている可能性を表す撮影状況情報が取得される(#04)。この撮影状況情報は、撮影画像の各領域に分布している画像特徴点に対して、特定被写体が位置する領域に属する画像特徴点の重要度を他の領域に属する画像特徴点に比べて相違させるために用いられる。詳しくは後で説明するが、例えば風景画像認識にふさわしくない画像特徴点の重要性を低くしたり、風景画像認識にとって重要となる画像特徴点の重要性を高くしたりする。これにより、最終的に信頼性の高い参照データDB92を構築することができる。この撮影状況情報に基づいて各画像特徴点の重要度が決定されると(#05)、その重要度に応じた各画像特徴点への重み係数の割り当てを規定している重み係数マトリックスが生成される(#06)。なお、撮影状況情報で取り扱われる特定被写体は、撮影画像から画像認識処理を通じて検知すること、各種車載センサ(距離センサ、障害物検出センサなど)からのセンサ信号を処理して検知すること、あるいはVICS(登録商標)(Vehicle Information and Communication System:道路交通情報通信システム)などを利用して外部からの信号を処理して検知することも可能である。
続いて、重み係数に基づいて画像特徴点を整理して撮影画像毎の画像特徴点データが生成される(#07)。この画像特徴点データの生成過程において、所定しきい値レベル以下の重み係数をもつ画像特徴点を破棄したり、所定しきい値レベル以上の重み係数をもつ画像特徴点とその周辺の画像特徴点以外の画像特徴点を破棄したりする取捨選択処理が行われる。ここで生成された画像特徴点データは、風景画像認識の目的でパターンマッチングが行われる場合には、そのパターンとして用いられる。そのため、風景画像のパターンマッチングにおいて効果的な画像特徴点だけを備えることがマッチングの高速性と正確さにとって重要である。生成された画像特徴点データはこの画像特徴点データに対応する撮影画像の撮影位置や撮影方位と関係付けることで、撮影位置や撮影方位を検索キーとして利用可能なデータベース用データとなる(#08)。つまり、この画像特徴点データは、風景画像認識のために利用される参照データ、例えばパターンマッチングのパターンとして参照データDB92に格納される(#09)。
次に、上述したような手順で構築された参照データDB92を用いて、実際の車両走行時にその車両の位置(自車位置)を決定する手順を説明する。図1に示すように、車載カメラ(本例では、車両走行方向前方の風景を撮影する前方カメラ)で風景を撮影して実撮影画像が得られると、その実撮影画像の撮影位置と撮影方位が入力される(#11)。この撮影位置と撮影方位の情報は、参照データDB92から参照データを抽出するために用いられる。なお、ここでの撮影位置は、GPS測定ユニットなどを用いて推定された推定自車位置である。入力された撮影画像から、上記ステップ#02〜#07と同様の処理手順を経て、画像特徴点データであるマッチング用データが生成される(#12)。同時的に、入力された撮影位置と撮影方位を検索条件として、該当する撮影位置(推定自車位置)の参照データ及びその撮影位置(推定自車位置)の前後の参照データがマッチング候補参照データとして抽出される(#13)。
抽出されたマッチング候補参照データセットから参照データが1つずつパターンとして設定され、ステップ#12で生成されたマッチング用データとの間のパターンマッチング処理が実行される(#14)。なお、ここではこの処理を「風景画像認識」と称する。マッチングが成功すれば、その対象となった参照データに関係付けられた撮影位置が読み出され(#15)、この撮影位置が推定自車位置に代わる正式な自車位置として決定される(#16)。
次に、上述した位置測位技術の基本概念に基づいて撮影画像から参照データを作り出す、本発明による画像処理システムの一例を図2及び図3を参照して説明する。
図2はこの画像処理システムの主な機能の前段部を示す機能ブロック図であり、図3はその後段部を示す機能ブロック図である。この画像処理システムは、データ入力部51、一時格納部61、類似度算出部62、有用画像選択部63、特徴点抽出部52、特徴点重要度決定部53、重み付け部55、調整係数設定部54、画像特徴点データ生成部56、参照データデータベース化部57、などの機能部を備えている。これらの各機能は、ハードウエアまたはソフトウエアあるいはその組み合わせで作り出すことができる。
データ入力部51には、参照データを作成する目的で走行している車両に搭載されたカメラによる風景を撮影した撮影画像と、その撮影時の撮影位置及び撮影方位を含む撮影属性情報と、さらに撮影状況情報とが入力される。本実施形態のように画像処理システムが走行車両に搭載されている形態においては、この入力部51にはリアルタイムで撮影画像と撮影属性情報と撮影状況情報とが入力されることになる。但し、この画像処理システムがデータ処理センタなどの外部施設に設置されている形態を採用することも可能である。この場合においては、撮影画像と撮影属性情報と撮影状況情報とが一時的に記録メディアに記録され、これらのデータ入力はバッチ処理的に行われる。撮影画像や撮影属性情報の生成方法は周知であるので、その説明は省略する。
撮影状況情報は、撮影画像に特定被写体が含まれている可能性を表す情報であり、本実施形態では、撮影状況情報に含まれる内容は、走行レーンデータと、移動物体データと、エリア属性データと、である。走行レーンデータは、撮影画像に対する画像処理を通じて得られる白線やガイドレールや安全地帯の認識結果から得られる、撮影画像における自車の走行レーン領域や道路外領域を示すデータである。移動物体データは、レーダなどの障害物を検知する車載センサによって認識される、車両周辺に存在する移動物体の撮影画像中における存在領域を示すデータである。エリア属性データは、撮影画像の撮影時の車両位置と地図データとに基づいて認識される、撮影場所の種別(例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなど)を表すエリア属性を示すデータである。
一時格納部61は、入力された撮影画像を、処理単位で一時的に格納するワーキングメモリであり、通常はメインメモリの一部の領域に割り当てられる。一時格納部61は、車両走行にともなって順次撮影された撮影画像のうち、撮影位置が所定領域に含まれる処理単位毎の複数の撮影画像を、処理対象撮影画像として一時格納する。本実施形態では、この処理単位は、推定自車位置を中心とする誤差範囲内で必要とされるだけの枚数の撮影画像であり、道路事情等によって予め決められている。
類似度算出部62は、一時格納部61に格納された撮影画像同士の類似度を算出する。例えば図7に示すように、高速道路のような場所を走行する場合、同じような風景が周期的に撮影されることがある。このような撮影画像に基づいて風景画像認識、例えばパターンマッチングを行ったとしても、類似するパターンが多数存在することになるため、1対1に対応する正確なパターンマッチングができず、その結果撮影位置(自車位置)の正確な特定が困難である。このような事態を回避するためには、取得した撮影画像の類似度を算出し、できるだけ類似度が低い撮影画像を選択して、パターンマッチング用のデータ(パターン)を予め整備しておくことが好ましい。さらに、類似度が低い撮影画像を選択したとしても、互いの撮影距離が偏っていて、選択された撮影画像間に長い間隔が存在すると、その区間で正確な位置検出が困難となる。このため、パターンマッチング用のデータを整備するに際しては、類似度と撮影距離との両者が適切に散布するように撮影画像を選択することが好ましい。この目的のために、まず類似度算出部62は、各撮影画像に対して類似度を算出し、付与する。
類似度を算出する手法として、種々の手法が知られている。種々の画像特性を利用して、個々の撮影画像における特徴を代表するような指標値を求め、この指標値を類似度とすることができる。以下にそのような指標値を列挙する。
(1)画素値の平均を用いる手法
画像全体での画素値の平均を各色成分毎に演算して、比較したい画像間の各色成分別の平均値の三次元ユークリッド距離を求めて、正規化する。
(2)画像ヒストグラムを用いる手法
比較したい画像の色成分毎の輝度ヒストグラムから各階級での差分の2乗和の平方根を演算し、各色成分の値を積算して、正規化する。
(3)同一位置画素値の差分を用いる手法
互いの解像度を合わせ、同一位置の画素値の差分の2乗和の平方根を演算して、正規化する。
(4)画像の空間周波数ヒストグラムを用いる手法
比較したい画像の空間周波数をフーリエ変換し、周波数−輝度ヒストグラムを生成し、各階級での差分の2乗和の平方根を演算し、正規化する。
なお、上記以外でも種々の画像特性を利用した類似度の算出手法を採用することができ、本発明は特定の算出手法に限定されるわけではない。撮影画像が取得される状況に応じて、例えば、山間部走行や都市部走行や高速道路走行などに応じて類似度の算出手法を変更してもよい。
有用画像選択部63は、上記のようにして求められた類似度を互いに比較することで、当該類似度が相違するように、撮影画像の中から有用画像を選択する。その際、さらに本発明の主旨を考慮すれば、類似度と撮影位置とによって二次面分布させた撮影画像から、その散布度が最大となるように所定数の撮影画像を有用画像として選択することが重要となる。例えば、二次面に散布度が最大となるように所定数の指標点を分布させ、各指標点に最も近い撮影画像を優先的に当該指標点に割り当てていくようなアルゴリズムを採用することができる。このようにすれば、上記主旨に沿った、類似度を考慮した有用画像の選択処理を、比較的簡単に実現することができる。
また、上述したように、車両の走行に伴って順次風景を撮影して得られた撮影画像は、その類似度が周期的であるとすれば、さらに簡単な選択アルゴリズムによって、類似度を考慮した有用画像の選択処理が可能である。類似度を上述したような手法で付与した後に実行される、この選択アルゴリズムを、図4の模式表現を用いて説明する。
図4では、取得された複数の撮影画像が、横軸に撮影位置、縦軸に類似度をとった二次元座標面にプロットされている。処理対象撮影画像は、推定自車位置(撮影位置:図4において「0」と表示)を中心とする誤差範囲(その境界線が撮影位置:0の両側に点線で示されている)に属する撮影画像全てである。
まず、図4(a)に示すように、最大類似度をもつ撮影画像(類似度算出の基本となる撮影画像)が第1有用画像として選択される。図4では選択された撮影画像(有用画像)は選択順位を示す序数とともにファイルアイコンで示されている。さらに、最小類似度をもつ撮影画像が第2有用画像として選択される。
次に、図4(b)に示すように、最大類似度と最小類似度の中間線(第1選択線L1と呼ぶ)に属する撮影画像のうち、有用画像の散布度をより増加させる方の撮影画像が第3有用画像として選択される。なお、第1選択線L1に属する撮影画像とは、第1選択線L1上に位置するか、または第1選択線L1からの垂直距離が許容範囲内である撮影画像のことである。
さらに、図4(c)に示すように、最大類似度と第1選択線L1との中間に位置する第2選択線L2に属する撮影画像のうち、有用画像の散布度をより増加させる方の撮影画像が第4有用画像として選択される。また、最小類似度と第1選択線L1との間に位置する第3選択線L3に属する撮影画像のうち、有用画像の散布度をより増加させる方の撮影画像が第5有用画像として選択される。
さらに、図4(d)に示すように、第2選択線L2と第3選択線L3との中間に位置する第4選択線L4に属する撮影画像のうち、有用画像の散布度をより増加させる方の撮影画像が第6有用画像として選択される。
上述した選択処理を所定数の有用画像が選択されるまで続けられる。このようにして、有用画像選択部63は、互いに類似度が相違する所定数の撮影画像を有用画像として選択する。なお、図7の例においては、有用画像として選択される可能性の高い撮影画像を太線で示している。有用画像選択部63による有用画像選択処理が終了すると、選択された有用画像は、後段処理の最初の処理である特徴点抽出処理を受ける。
特徴点抽出部52は、適当な演算子を使用して撮影画像(有用画像)から画像特徴点としてエッジ点を抽出する。特徴点重要度決定部53は、抽出された画像特徴点(エッジ点)の重要度を決定する。本実施形態では、エッジ検出処理によって得られるエッジ点のうち、特に1本の線分を形成する線分エッジ点(直線成分エッジ点)や、そのような2つの線分が交差(好ましくはほぼ直交)する交点であるコーナエッジ点(交点エッジ点)が、効果的な画像特徴点として扱われる。すなわち、特徴点重要度決定部53は、線分エッジ点には、当該線分エッジ点以外のエッジ点よりも高い重要度を付与する。また、特徴点重要度決定部53は、コーナエッジ点には、当該コーナエッジ点以外の線分エッジ点よりもさらに高い重要度を付与する。
また、特徴点重要度決定部53は、撮影状況情報に含まれている各データの内容にも基づいて、抽出された画像特徴点の重要度を決定する。例えば、走行レーンデータの内容を用いる場合、撮影画像中における、路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対して、前記走行レーン内の領域に属する画像特徴点に付与される重要度より高い重要度を付与する。また、移動物体データを用いる場合、撮影画像中における、移動物体が存在する領域に属する画像特徴点に対して、前記移動物体が存在しない領域に属する画像特徴点に付与される重要度より低い重要度を付与する。さらに、エリア属性データの内容を用いる場合、撮影画像中の位置に応じた重要度の付与規則を前記エリア属性に応じて変更する。例えば、山間エリアの撮影画像では、撮影中心光軸の上方は空で左右は森林である可能性が高いので、撮影中心光軸周りである中心領域に属する画像特徴点に対して、その中心領域以外の領域に属する画像特徴点に付与される重要度より高い重要度を設定する。郊外エリアの撮影画像では、車の往来が少なく、住宅等の構造物が周囲に広がっているので、撮影中心光軸の下方領域に属する画像特徴点に対して高い重要度を設定する。市街地エリアの撮影画像では、車の往来が多いので、撮影中心光軸の上方領域に属する画像特徴点に対して高い重要度を設定する。高層都市エリアの撮影画像では、高架道路や高架橋などが多いので、撮影中心光軸の上方領域に属する画像特徴点に対して高い重要度を設定する。
重み付け部55は、特徴点重要度決定部53によって決定された重要度に応じて画像特徴点に重み係数を割り当てる。正確な画像認識(パターンマッチング)を行うために重要と思われる画像特徴点には高い重要度が設定されているので、高い重要度が設定された画像特徴点に大きい重み係数が割り当てられる。一方、低い重要度が設定された画像特徴点は、実際の画像認識において使用されず、あるいは参照データから削除される可能性がある。この点を考慮して、画像特徴点の取捨選択の判定のために利用できるように、重要度に応じた重み係数が算定される。
調整係数設定部54は、重み付け部55によって割り当てられた重み係数を、対応する撮影画像領域における分布状態の観点から変更するための調整係数を算定する。つまり、特徴点抽出部52によって抽出された画像特徴点に対して、撮影状況情報に基づいて決定された重要度にはある程度の誤りが含まれ、その重要度がある程度高い画像特徴点もランダムに発生する可能性があるとも考えられる。このため、画像特徴点の偏在、言い換えると重み付け部55によって割り当てられた重み係数の偏在が生じていた場合、その偏在を緩やかにする目的でこの調整係数設定部54は用いられる。演算処理で得られた画像特徴点の散布度が画像特徴点の偏在を示している場合、画像特徴点の密度が小さい領域に属する画像特徴点の重み係数が大きくなるように調整係数が設定され、画像特徴点の密度が大きい領域に属する画像特徴点の重み係数が小さくなるように調整係数が設定される。
画像特徴点データ生成部56は、重み付け部55によって割り当てられた重み係数、及び場合によっては付与されている調整係数に基づいて、各画像特徴点を整理して撮影画像毎の画像特徴点データを生成する。その際、所定しきい値以下の重み係数をもつ画像特徴点を削除することで、マッチング処理が効率よく行われるように画像特徴点を絞り込むことができる。また、この重み係数を、そのまま参照データにおいても各画像特徴点に関係付けられるように画像特徴点データに付属させておき、その重み係数付き参照データを用いたマッチング処理時における重み付け類似度演算のために用いられるようにしてもよい。
ここで、上述した調整係数によって画像特徴点を撮影画像領域全体にわたってできるだけ広く散布させる処理を図5に示された模式的説明図を用いて説明する。撮影画像(図5(a)から画像特徴点を抽出することで特徴点画像(図5(b))が生成される。この特徴点画像の各画像特徴点に重要度が付与される。重要度の付与された様子を模式的に理解できるように、図5(c)では特徴点画像に対応する重要度レイヤの形態で、各画像特徴点に対応する重要度が示されている。この重要度レイヤを用いて、各画像特徴点に重み係数が割り当てられる。図5(d)では、大きな重み係数をもつほど大きい点となるように描いた形態で、重み係数を割り当てられた画像特徴点が示されている。ここで、例えば所定しきい値以下の重み係数を割り当てられた画像特徴点が除去されるような画像特徴点の整理が行われ、図5(d)で大きな点となっている画像特徴点だけが選別されると、特徴点画像の下方領域に位置している画像特徴点は排除され、残った画像特徴点の分布に大きな偏在が生じることになる。この偏在を回避するため、特徴点画像における画像特徴点の散布度を算出し、結果的に選別される画像特徴点の密度が低くなる領域の画像特徴点の重み係数を増加させるような調整係数が設定される。そのように設定される調整係数を模式的に理解できるように、図5(e)では調整係数群を、特徴点画像に対応するようにマトリックス的に(ここでは複数の画素領域からなる区画単位で)配置した調整係数レイヤの形態で示している。画像特徴点データ生成部56は、このような重み係数と調整係数とに基づいて最終的に設定された重み係数(調整後の重み係数)を用いて各画像特徴点を整理して、図5(f)に示されるような画像特徴点データを、撮影画像(有用画像)毎に生成する。
参照データデータベース化部57は、画像特徴点データ生成部56によって生成された画像特徴点データを、この画像特徴点データに対応する撮影画像の撮影属性情報と関係付けて、風景画像認識のために利用される参照データとしてデータベース化する。データベース化された参照データは参照データDB92に格納されていく。
以上の説明では、画像特徴点毎に重要度が決定され、その結果、画像特徴点毎に重み係数が設定されているような形態であったが、これらの処理をグループ単位で行うことも可能である。この場合には、例えば、撮影画像領域が複数の画像区画に分割され、特徴点重要度決定部53が、同一画像区画に属する記画像特徴点を画像特徴点群としてグループ化して統一的に取り扱うとよい。また、当該画像特徴点群に含まれる画像特徴点には同一の重要度を与え、重み付け部55も同様に画像特徴点群単位で重み係数を設定するとよい。また、ここで取り扱われている画像区画を、撮影画像を構成する1画素単位で取り扱ってもよいが、複数画素単位で画像区画を取り扱ってもよい。従って、本発明では、画像区画は1つまたは複数の画素から構成されることになる。
次に、上述した画像処理システムで作成された参照データDB92を用いて風景画像認識(画像特徴点パターンマッチング)で自車位置を修正する車載用カーナビゲーションシステムを説明する。図6は、そのようなカーナビゲーションシステムを車載LANに組み込んだ形態で示した機能ブロックである。このカーナビゲーションシステムは、入力操作モジュール21、ナビ制御モジュール3、自車位置検出モジュール4、撮影状況情報生成部7、上記の参照データDB92とカーナビ用道路地図データを収納した道路地図データベース(以下、単に「道路地図DB」と略称する)91とを有するデータベース9を備えている。
ナビ制御モジュール3は、経路設定部31、経路探索部32、及び経路案内部33を備えている。経路設定部31は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の利用の有無など)を設定する処理部である。経路探索部32は、経路設定部31によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理を行う処理部である。経路案内部33は、経路探索部32により探索された出発地から目的地までの経路に従って、モニタ12の表示画面による案内表示やスピーカ13による音声案内等により、運転者に対して適切な経路案内を行うための演算処理を行う処理部である。
自車位置検出モジュール4は、従来のGPS信号の利用による位置算定及び推測航法による位置算定によって得られた推定自車位置を、この推定自車位置を利用した風景画像認識によって決定された自車位置で修正する機能を有する。自車位置検出モジュール4は、GPS処理部41、推測航法処理部42、自車位置座標算定部43、マップマッチング部44、自車位置決定部45、撮影画像処理部5、及び風景マッチング部6を備えている。GPS処理部41にはGPS衛星からのGPS信号を受信するGPS測定ユニット15が接続されている。GPS処理部41はGPS測定ユニット15で受信されたGPS衛星からの信号を解析し、車両の現在位置(緯度及び経度)を算定し、GPS位置座標データとして自車位置座標算定部43に送る。推測航法処理部42には距離センサ16と方位センサ17が接続されている。距離センサ16は、車両の車速や移動距離を検出するセンサであり、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、車両の加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。距離センサ16は、その検出結果としての車速及び移動距離の情報を推測航法処理部42へ出力する。方位センサ17は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、その検出結果としての方位の情報を推測航法処理部42へ出力する。推測航法処理部42は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置座標を演算し、推測航法位置座標データとして自車位置座標算定部43に送る。自車位置座標算定部43は、GPS位置座標データと推測航法位置座標データとから公知の方法により車両の位置(自車位置)を特定する演算を行う。算定された自車位置情報は、測定誤差等を含んだ情報となっており、場合によっては道路上から外れてしまうので、マップマッチング部44により、自車位置を道路地図に示される道路上に合わせる補正が行われる。その自車位置座標は推定自車位置として自車位置決定部45に送られる。
撮影画像処理部5は、実質的には図2及び図3で示された画像処理システムを構成していた大部分の機能部を備えている。この撮影画像処理部5は、データ入力部51、特徴点抽出部52、特徴点重要度決定部53、重み付け部55、調整係数設定部54、及び画像特徴点データ生成部56を備えている。車載カメラ14によって撮影された、車両からの前方風景撮影画像がデータ入力部51に入力されると、特徴点抽出部52は、入力された前方風景撮影画像から画像特徴点を抽出する。画像特徴点データ生成部56は、画像特徴点から前方風景撮影画像毎の画像特徴点データを生成する。その際、重み付け部55によって画像特徴点に対する重み付け処理(場合により、調整係数設定部54による調整を伴う)が行われる。生成された画像特徴点データは、マッチング用データとして風景マッチング部6へ出力される。なお、特徴点重要度決定部53で利用される撮影情況情報は、車両に搭載された撮影状況情報生成部7によって生成され、撮影画像処理部5に送られる。撮影状況情報生成部7は、上記走行レーンデータを作成するために、車載カメラ14と接続されており、撮影画像処理部5に送られる撮影画像と同じものを受け取る。受け取った撮影画像を公知のアルゴリズムを用いて画像処理することで、走行レーンデータが作成される。また、撮影状況情報生成部7は、上記移動物体データを作成するために障害物検出用のセンサ群18と接続されている。このセンサ群18からのセンサ情報に基づいて移動物体データが作成される。さらに、撮影状況情報生成部7は、上記エリア属性データを作成するために、自車位置決定部45及びデータベース9と接続されている。撮影状況情報生成部7は、自車位置決定部45からの自車位置座標を検索キーとしてデータベース9を検索して、現在走行している場所のエリア属性(山間部や市街地など)を取得し、それに基づいてエリア属性データを作成する。
風景マッチング部6は、参照データDB92から抽出した参照データと画像特徴点データ生成部56から出力された画像特徴点データ(マッチング用データ)とのマッチングを行う。つまり、風景マッチング部6は、自車位置決定部45から送られてきた推定自車位置に基づいて参照データDB92から抽出された参照データをパターンとして、撮影画像処理部5から送られてきた画像特徴点データに対するパターンマッチング処理を行う。このパターンマッチングが成功した場合には、マッチングパターンである参照データに関係付けられた撮影位置が読み出される。この撮影位置が自車位置として決定され、自車位置決定部45に転送される。自車位置決定部45は転送されてきた自車位置を推定自車位置と置き換える自車位置修正を行う。
このカーナビゲーションシステムは、また、周辺装置として、タッチパネルやスイッチなどの入力デバイス11とそれらの入力デバイス11を通じた操作入力を適切な操作信号に変化してシステム内部に転送する操作入力評価部21aとを有する入力操作モジュール21、モニタ12にカーナビゲーションに必要な画像情報を表示するための表示画像生成モジュール22、スピーカ13やブザーからカーナビゲーションに必要な音声情報を流す音声生成モジュール23、車載LANを通じて送られてくる挙動データに基づいて、制動や加速や操舵などといった車両の種々の挙動を検知する車両挙動検知モジュール24を備えている。
以上説明したように、本実施形態に係る画像処理システムによれば、所定の走行距離領域内で撮影される複数の撮影画像同士で、類似度と撮影位置との両方が相違するように(より具体的には、類似度と撮影位置とによって二次面分布させた撮影画像から、その散布度が最大となるように)所定数の有用画像が選択されて、その有用画像から参照データが生成される。よって、例えば図7に示すような状況において同じような風景が周期的に撮影される場合であっても、類似度と撮影位置との両方が相違する参照データに基づいて行われるマッチング処理(風景画像認識)の効率を、大幅に向上させることができる。
〔その他の実施形態〕
(1)上述した実施形態では、図7に示されるような場面が本発明による画像処理システムの好適な適用場面の一例として想定されており、単一の経路上における所定の走行距離領域が「所定領域」として設定されている。この構成に代えて、二次元的または三次元的に互いに分離(「分岐」を含む)して存在する複数の経路に跨って「所定領域」が設定された構成としてもよい。このような「所定領域」が設定される場面としては、例えば図8に示す立体駐車場のように、複数階層に分かれた場所を車両が走行する場面を挙げることができる。このような状況においても、各階層(各フロア)で同じような風景が撮影される可能性がある。
この場合、各階層において駐車区画Cにつながる経路は、最上階の階層につながる螺旋状の経路(基幹経路La)から分岐する経路(分岐経路Lb)として捉えることができる。そして、図8の例ではこれらの基幹経路Laと複数の分岐経路Lbとにより、複数の分岐点Bで分岐した複数の経路が構成され、基幹経路Laと各階層における最上流側(基幹経路La側)の分岐経路Lbとが、識別対象経路Liとされている。これにより、複数階層に分かれて存在する複数の経路の中から各階層に1つずつ識別対象経路Liが設定され、これら複数の識別対象経路Liを全て含むように、三次元空間に亘る所定領域が設定されている。図8には、この所定領域の外縁が破線で概略的に示されている。この図8の例では、所定領域は推定自車位置の誤差領域に対応する円筒状の領域となっている。なお、この所定領域は、各分岐点Bを含むように設定されていてもいいし、各分岐点Bを含まないように設定されていてもよい。
所定領域がこのように三次元空間に亘って設定された場合であっても、上述した実施形態と同様に、所定領域内で撮影される複数の撮影画像を処理対象撮影画像として、当該処理対象撮影画像同士で類似度と撮影位置との両方が相違するように、所定数の有用画像が選択されて参照データが生成される。なお、この場合、複数の識別対象経路Liが複数階層に分かれて存在することから、断続的に入力される複数の撮影画像が処理対象撮影画像となる。
この場合において、有用画像選択部63は更に、複数の識別対象経路Liのそれぞれについて少なくとも1つの処理対象撮影画像を有用画像として選択する。すなわち、有用画像選択部63は、最終的に選択される有用画像が、各階層に1つずつ設定される複数の識別対象経路Liのそれぞれに少なくとも1つずつ含まれ、かつ、互いに類似度が相違することとなるように、複数の処理対象撮影画像の中から所定数の有用画像を選択する。有用画像選択部63により選択された有用画像に基づいて、上述した実施形態で説明したのと同様の処理を経て参照データが生成され、データベース化された参照データが参照データDB92に格納される。このような参照データに基づいて行われる風景画像認識としてのマッチング処理は、非常に効率に優れたものとなる。更に、本例では各階層に1つずつ識別対象経路Liが設定されているので、自車位置が複数階層の中でどの階層にあるのかを容易に特定することができるという利点もある。
なお、上記の例においては、各階層における最上流側の分岐経路Lbのみを識別対象経路Liとしていたが、各階層におけるさらに下流側の分岐経路Lbも、識別対象経路Liに含ませてもよい。この場合、分岐経路Lbの全部を識別対象経路Liに含ませてもよいし、一部のみを含ませてもよい。一部のみを含ませる場合には、分岐経路Lbのうち、より上流側の経路を優先的に識別対象経路Liに含ませるとよい。このように、本発明においては、1つ又は2つ以上の分岐点で分岐した複数の経路の一部又は全部を、識別対象経路とすることができる。
(2)また、上記の例においては、図8に示すような立体駐車場を一例として、互いに分離して存在する複数の経路に跨って「所定領域」が設定される場合について説明したが、本発明の適用場面はこれに限定されない。例えば、1本の道路が1つ又は2つ以上の分岐点で分岐して、その分岐後の各経路が平面的に所定距離を隔てて並行している場合において、当該分岐後の経路のそれぞれを識別対象経路とし、それら複数の識別対象経路を全て含むように、二次元空間に亘って所定領域が設定された構成としてもよい。あるいは、1本の道路が1つ又は2つ以上の分岐点で分岐して、その分岐後の各経路が立体的に重なった状態で並行している場合において、当該分岐後の経路のそれぞれを識別対象経路とし、それら複数の識別対象経路を全て含むように、三次元空間に亘って所定領域が設定された構成としてもよい。これらの場合においても、最終的に生成される参照データは、効率的なマッチング処理に適したものとなる。そして、そのような参照データに基づいて行われる風景画像認識により、自車位置が分岐後の経路の中でどの経路を走行しているのかを容易に特定することができるという利点がある。
(3)上述した実施形態では、撮影画像から参照データを作り出す画像処理システムは、図2及び図3に示されているように、その前段部がデータ入力部51、一時格納部61、類似度算出部62、及び有用画像選択部63で構成され、その後段部が特徴点抽出部52、特徴点重要度決定部53と、重み付け部55、調整係数設定部54、画像特徴点データ生成部56、及び参照データデータベース化部57で構成されている。従って、類似度が付与された複数の撮影画像の中から有用画像が選択され、選択された有用画像から画像特徴点データが生成され、最終的に参照データが作り出されている。この構成に代えて、図9に示すように、その前段部をデータ入力部51、特徴点抽出部52、特徴点重要度決定部53、重み付け部55、調整係数設定部54、及び画像特徴点データ生成部56で構成し、その後段部を一時格納部61、類似度算出部62、有用画像選択部63、及び参照データデータベース化部57で構成してもよい。この構成では、まず入力された全ての撮影画像から画像特徴点データが生成され、一時格納部61に格納される。次いで、格納されている各画像特徴点データの類似度が算出され、当該画像特徴点データに類似度が付与される。その後、有用画像選択部63によって、上述した実施形態と同様に、画像特徴点データが撮影位置と類似度との両方で高い散布度を示すように、所定数の画像特徴点データが有用画像特徴点データとして選択される。この有用画像特徴点データに、撮影位置や撮影方位の情報を関係付けて参照データが作り出される。
(4)上述した実施形態で説明した有用画像の選択アルゴリズムは単なる一例であって、本発明の実施形態はこれに限定されない。例えば有用画像の選択アルゴリズムの他の一例として、所定位置間隔毎の撮影画像である所定間隔撮影画像の類似度を評価し、所定間隔撮影画像の類似度が所定度より低い(ここでは、所定度に等しい場合を含む)場合には、所定位置間隔毎の撮影画像をそのまま有用画像として選択し、所定間隔撮影画像の類似度が所定度より高い場合には、所定位置間隔を広くするようにずらした後の撮影画像を有用画像として選択するような方法を採用しても良い。また、画像特徴点データに類似度が付与されるように構成された画像認識システムにおいても同様に、所定位置間隔毎の画像特徴点データである所定間隔画像特徴点データの類似度を評価し、所定間隔画像特徴点データの類似度が所定度より低い(ここでは、所定度に等しい場合を含む)場合には、所定位置間隔毎の画像特徴点データをそのまま有用画像特徴点データとして選択し、所定間隔画像特徴点データの類似度が所定度より高い場合には、所定位置間隔を広くするようにずらした後の画像特徴点データを有用画像特徴点データとして選択するような方法を採用しても良い。このようにすれば、類似度が比較的高く、参照データの作成に不適切な撮影画像または画像特徴点データを、確実に除去することができる。よって、無駄のない参照データDB92を構築することができる。
(5)上述した実施形態では、エッジ検出処理によって得られるエッジ点のうち、特に一本の線分を構成している線分エッジ点や、そのような線分が交差する交点であるコーナエッジ点が、効果的な画像特徴点として扱われる。しかしながら、本発明では、そのようなエッジ点のみが効果的な画像特徴点として扱われるわけではない。例えば、円や四角形などの幾何学的形状を形成する代表的なエッジ点(例えば円なら、円周上の3点など)、あるいは幾何学的形状の重心なども、その風景によっては効果的な画像特徴点となり得る。また、重要度を算定するための因子として、エッジ強度を採用することも好適である。例えば強度の強いエッジからなる線分なら、その線分の始点と終点に対応するエッジ点は、それ以外のエッジ点に比べ重要度の高い画像特徴点として取り扱うことができる。また、特徴的な幾何学的形状における特定点、例えば左右対称な物体の端点に対応するエッジ点なども、それ以外のエッジ点に比べ重要度の高い画像特徴点として取り扱うことができる。
さらには、エッジ検出処理によって得られるエッジ点ではなく、順次撮影される撮影画像における色相や彩度の変化の大きい点を、画像特徴点として採用することも可能である。同様に色情報に基づくものとして、色温度の高い物体の端点を重要度の高い画像特徴点として取り扱うことも可能である。
つまり、本発明で取り扱われる画像特徴点は、参照データと実撮影画像から生成される画像特徴点データ(マッチング用データ)との間の類似度判定(例えば、パターンマッチング)にとって有効なものであれば、全て利用の対象となる。
(6)上述した実施形態では、その重要度に応じて算定された重み係数を各画像特徴点へ割り当てていたが、この重み係数は重要度に対応する係数であり、この重み係数を導入せずに、重要度をそのまま重み係数として用いてもよい。
(7)上述した実施形態では、参照データDB92に格納される参照データには、撮影位置と撮影方位(カメラ光軸方位)とが関係付けられていたが、それ以外に、上述した撮影状況情報や、さらには撮影日時や撮影時天候なども関係付けてもよい。
なお、撮影位置は、最低限、緯度・経度データのような二次元データでよいが、高さデータも加えて三次元データとしてもよい。
また、撮影方位を参照データに関係付けることは必須ではない。例えば、参照データの作成時も、この参照データを用いた風景画像認識時も、走行道路に対して実質的に同じ撮影方位で撮影されることが保証される場合には、撮影方位の情報は不必要となる。
逆に、1つの基本的な撮影方位で作成された参照データから、撮影方位を適度にずらした参照データを作り出すことができる場合には、方位センサなどの情報から算定された車両の走行方位に基づいて、その走行方位に適合する参照データだけを風景画像認識の対象とすることも可能である。
(8)本発明で取り扱われる車載カメラは、車両走行方向前方の風景を撮影するものが最適である。しかしながら、前方斜めの風景を撮影するカメラであってもよいし、さらには側方または後方の風景を撮影するカメラであってもよい。つまり、本発明で取り扱われる撮影画像は、車両走行方向の前方風景を撮影したものだけに限定されるわけではない。
(9)上述した実施形態の説明に用いられた機能ブロック図において、区分けされて示された機能部は、分かりやすい説明を目的としている。よって、ここで示された区分けに本発明は限定されているわけではなく、それぞれの機能部を自由に組み合わせたり、1つの機能部をさらに区分けしたりすることが可能である。
本発明の画像処理システムは、カーナビゲーションのみならず、風景画像認識によって現在位置や方位を測位する技術分野に適用可能である。
3:ナビ制御モジュール
4:自車位置検出モジュール
41:GPS処理部
42:推測航法処理部
43:自車位置座標算定部
44:マップマッチング部
45:自車位置決定部
5:撮影画像処理部
6:風景マッチング部
14:カメラ
51:データ入力部
52:特徴点抽出部
53:特徴点重要度決定部
54:重み付け部
55:調整係数設定部
56:画像特徴点データ生成部
57:参照データデータベース化部
61:一時格納部
62:類似度算出部
63:有用画像選択部
92:参照データDB(参照データデータベース)
91:道路地図DB(道路地図データベース)
Li:識別対象経路
B:分岐点

Claims (18)

  1. 車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、
    車両走行にともなって順次撮影された前記撮影画像のうち撮影位置が所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、
    前記処理対象撮影画像の類似度を算出する類似度算出部と、
    互いに前記類似度が相違する前記処理対象撮影画像を有用画像として選択する有用画像選択部と、
    前記有用画像から画像特徴点を抽出する特徴点抽出部と、
    前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、
    前記画像特徴点データを当該画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部と、
    を備える画像処理システム。
  2. 前記有用画像選択部は、前記類似度と前記撮影位置とを相違パラメータとして前記類似度と前記撮影位置との両方が相違するように前記有用画像を選択する請求項1に記載の画像処理システム。
  3. 車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、
    車両走行にともなって順次撮影された前記撮影画像のうち撮影位置が所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、
    前記処理対象撮影画像の類似度を算出する類似度算出部と、
    定位置間隔毎の前記処理対象撮影画像の類似度を評価し、前記類似度が所定度より低い場合には前記所定位置間隔毎の前記処理対象撮影画像を前記有用画像として選択し、前記類似度が前記所定度より高い部分では当該部分の間隔を前記所定位置間隔に対して異ならせる有用画像選択部と、
    前記有用画像から画像特徴点を抽出する特徴点抽出部と、
    前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、
    前記画像特徴点データを当該画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部と、
    を備える画像処理システム。
  4. 前記有用画像選択部は、前記類似度と前記撮影位置とによって二次面分布した前記処理対象撮影画像から、その散布度が最大となる所定数の組み合わせを前記有用画像として選択する請求項に記載の画像処理システム。
  5. 前記所定領域内に複数の識別対象経路が含まれる場合において、前記有用画像選択部は、複数の前記識別対象経路のそれぞれについて少なくとも1つの前記処理対象撮影画像を前記有用画像として選択する請求項1から4のいずれか一項に記載の画像処理システム。
  6. 車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、
    車両走行にともなって順次撮影された前記撮影画像のうち所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、
    前記処理対象撮影画像から画像特徴点を抽出する特徴点抽出部と、
    前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、
    前記画像特徴点データの類似度を算出する類似度算出部と、
    互いに前記類似度が相違する前記画像特徴点データを有用画像特徴点データとして選択する有用画像選択部と、
    前記有用画像特徴点データを当該有用画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部と、
    を備える画像処理システム。
  7. 前記有用画像選択部は、前記類似度と前記撮影位置とを相違パラメータとして前記類似度と前記撮影位置との両方が相違するように前記有用画像特徴点データを選択する請求項6に記載の画像処理システム。
  8. 車両からの風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを作成する画像処理システムであって、
    車両走行にともなって順次撮影された前記撮影画像のうち所定領域に含まれる複数の撮影画像を処理対象撮影画像として一時格納する一時格納部と、
    前記処理対象撮影画像から画像特徴点を抽出する特徴点抽出部と、
    前記抽出された画像特徴点から構成される画像特徴点データを生成する画像特徴点データ生成部と、
    前記画像特徴点データの類似度を算出する類似度算出部と、
    定位置間隔毎の前記画像特徴点データの類似度を評価し、前記類似度が所定度より低い場合には前記所定位置間隔毎の前記画像特徴点データを前記有用画像特徴点データとして選択し、前記類似度が前記所定度より高い部分では当該部分の間隔を前記所定位置間隔に対して異ならせる有用画像選択部と、
    前記有用画像特徴点データを当該有用画像特徴点データに対応する前記撮影画像の撮影位置と関係付けて、前記参照データとしてデータベース化する参照データデータベース化部と、
    を備える画像処理システム。
  9. 前記有用画像選択部は、前記類似度と前記撮影位置とによって二次面分布した前記画像特徴点データから、その散布度が最大となる所定数の組み合わせを前記有用画像特徴点データとして選択する請求項に記載の画像処理システム。
  10. 前記所定領域内に複数の識別対象経路が含まれる場合において、前記有用画像選択部は、複数の前記識別対象経路のそれぞれについて少なくとも1つの前記画像特徴点データを前記有用画像特徴点データとして選択する請求項6から9のいずれか一項に記載の画像処理システム。
  11. 複数の前記識別対象経路は、分岐点で分岐した後の複数の経路である請求項5又は10に記載の画像処理システム。
  12. 前記識別対象経路は、複数階層に分かれて存在する複数の経路の中から各階層に少なくとも1つ設定されている請求項5、10、又は11に記載の画像処理システム。
  13. 前記所定領域は、前記推定自車位置の誤差領域に対応している請求項1から12のいずれか一項に記載の画像処理システム。
  14. 前記所定領域は、所定の走行距離領域である請求項1、3、又は8に記載の画像処理システム。
  15. 前記画像特徴点の重要度を決定する特徴点重要度決定部が備えられ、
    画像特徴点データ生成部は、前記重要度に基づいて前記画像特徴点から前記撮影画像毎の前記画像特徴点データを生成する請求項1から14のいずれか一項に記載の画像処理システム。
  16. 前記特徴点抽出部によって抽出される前記画像特徴点がエッジ点であり、前記エッジ点が直線を形成する直線成分エッジ点である場合、当該直線成分エッジ点には前記直線成分エッジ点以外のエッジ点より高い重要度が与えられる請求項15に記載の画像処理システム。
  17. 前記直線成分エッジ点のうち二つの直線成分の交点としての交点エッジ点には前記交点エッジ点以外の直線成分エッジ点に比べさらに高い重要度が与えられる請求項16に記載の画像処理システム。
  18. 請求項1から17のいずれか一項に記載の画像処理システムによって作成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムであって、
    前記参照データを格納している参照データデータベースと、
    車両からの風景を撮影した撮影画像を入力するデータ入力部と、
    入力された前記撮影画像から画像特徴点を抽出する特徴点抽出部と、
    前記画像特徴点から前記撮影画像毎の画像特徴点データを生成してマッチング用データとして出力する画像特徴点データ生成部と、
    前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部と、
    を備える位置測位システム。
JP2010175644A 2010-03-31 2010-08-04 画像処理システム及び位置測位システム Active JP5505723B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010175644A JP5505723B2 (ja) 2010-03-31 2010-08-04 画像処理システム及び位置測位システム
US13/019,001 US20110242319A1 (en) 2010-03-31 2011-02-01 Image processing system and position measurement system
EP11153875.7A EP2372310B1 (en) 2010-03-31 2011-02-09 Image processing system and position measurement system
CN201110064673.XA CN102222236B (zh) 2010-03-31 2011-03-14 图像处理系统及位置测量系统

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010084626 2010-03-31
JP2010084626 2010-03-31
JP2010175644A JP5505723B2 (ja) 2010-03-31 2010-08-04 画像処理システム及び位置測位システム

Publications (2)

Publication Number Publication Date
JP2011227037A JP2011227037A (ja) 2011-11-10
JP5505723B2 true JP5505723B2 (ja) 2014-05-28

Family

ID=44246332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010175644A Active JP5505723B2 (ja) 2010-03-31 2010-08-04 画像処理システム及び位置測位システム

Country Status (4)

Country Link
US (1) US20110242319A1 (ja)
EP (1) EP2372310B1 (ja)
JP (1) JP5505723B2 (ja)
CN (1) CN102222236B (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2935498B1 (fr) * 2008-08-27 2010-10-15 Eads Europ Aeronautic Defence Procede d'identification d'un objet dans une archive video.
WO2012035886A1 (ja) * 2010-09-16 2012-03-22 パイオニア株式会社 端末保持装置
WO2012070595A1 (ja) * 2010-11-23 2012-05-31 日本電気株式会社 位置情報提供装置、位置情報提供システム、位置情報提供方法、プログラム及び記録媒体
JP5773206B2 (ja) * 2011-12-13 2015-09-02 アイシン・エィ・ダブリュ株式会社 標高信頼度判定システム、データ整備システム、走行支援システム、走行支援プログラム及び方法、データ整備プログラム及び方法、並びに標高信頼度判定プログラム及び方法
GB201202344D0 (en) 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
DE102012005471A1 (de) * 2012-03-17 2013-09-19 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) Verkehrsinformationssystem
GB2501466A (en) 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
TWI475191B (zh) * 2012-04-03 2015-03-01 Wistron Corp 用於實景導航之定位方法、定位系統及電腦可讀取儲存媒體
JP5993233B2 (ja) * 2012-07-11 2016-09-14 オリンパス株式会社 画像処理装置及び画像処理方法
JP5942771B2 (ja) * 2012-10-18 2016-06-29 富士通株式会社 画像処理装置及び画像処理方法
JP5949435B2 (ja) * 2012-10-23 2016-07-06 株式会社Jvcケンウッド ナビゲーションシステム、映像サーバ、映像管理方法、映像管理プログラム、及び映像提示端末
CN104899545A (zh) * 2014-03-06 2015-09-09 贺江涛 一种基于手持设备的车辆信息采集的方法与装置
CN103822614B (zh) * 2014-03-14 2015-12-30 河北工业大学 倒车影像的三维测量方法
JP6365207B2 (ja) * 2014-10-09 2018-08-01 株式会社豊田自動織機 無人搬送車システムの反射板位置検査方法及び無人搬送車システムの反射板位置検査システム
CN105809088B (zh) * 2014-12-30 2019-07-19 清华大学 车辆识别方法和系统
KR102534792B1 (ko) * 2015-02-10 2023-05-19 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
CN106204516B (zh) * 2015-05-06 2020-07-03 Tcl科技集团股份有限公司 一种机器人的自动充电方法及装置
CN104809478B (zh) * 2015-05-15 2018-01-09 北京理工大学深圳研究院 一种面向大规模三维重建的图像分块方法及装置
JP6538514B2 (ja) * 2015-10-06 2019-07-03 株式会社Soken 自車位置認識装置
US10146999B2 (en) 2015-10-27 2018-12-04 Panasonic Intellectual Property Management Co., Ltd. Video management apparatus and video management method for selecting video information based on a similarity degree
CN105405204B (zh) * 2015-11-04 2018-02-02 东方通信股份有限公司 验钞机的纸币冠字号识别方法
CN105389883B (zh) * 2015-11-04 2018-01-12 东方通信股份有限公司 一种验钞机的纸币冠字号识别方法
CN105547312A (zh) * 2015-12-09 2016-05-04 魅族科技(中国)有限公司 电子导航方法及电子导航装置
US10198456B1 (en) 2015-12-28 2019-02-05 Verizon Patent And Licensing Inc. Systems and methods for data accuracy in a positioning system database
WO2017168899A1 (ja) * 2016-03-30 2017-10-05 ソニー株式会社 情報処理方法および情報処理装置
WO2017187694A1 (ja) * 2016-04-28 2017-11-02 シャープ株式会社 注目領域画像生成装置
CN107063189A (zh) * 2017-01-19 2017-08-18 上海勤融信息科技有限公司 基于视觉的定位系统及方法
DE102017210798A1 (de) * 2017-06-27 2018-12-27 Continental Automotive Gmbh Verfahren und Einrichtung zur Erzeugung von digitalen Kartenmodellen
JP6908843B2 (ja) * 2017-07-26 2021-07-28 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US11210936B2 (en) * 2018-04-27 2021-12-28 Cubic Corporation Broadcasting details of objects at an intersection
CN110503123B (zh) * 2018-05-17 2023-07-25 奥迪股份公司 图像定位方法、装置、计算机设备和存储介质
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
JP2020061049A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 点群データ構造
US10755423B2 (en) * 2018-10-18 2020-08-25 Getac Technology Corporation In-vehicle camera device, monitoring system and method for estimating moving speed of vehicle
CN110119454B (zh) * 2019-05-05 2021-10-08 西安科芮智盈信息技术有限公司 证据管理方法及装置
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
CN112348886B (zh) 2019-08-09 2024-05-14 华为技术有限公司 视觉定位方法、终端和服务器
JP7102383B2 (ja) * 2019-10-24 2022-07-19 株式会社東芝 路面画像管理システム及びその路面画像管理方法
CN112037182B (zh) * 2020-08-14 2023-11-10 中南大学 基于时序图像的机车走行部故障检测方法、装置及存储介质
CN113706488B (zh) * 2021-08-18 2024-06-21 珠海格力智能装备有限公司 弯头插接处理方法、装置、存储介质及处理器
CN114578188B (zh) * 2022-05-09 2022-07-08 环球数科集团有限公司 一种基于北斗卫星的电网故障定位方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3641335B2 (ja) * 1996-12-03 2005-04-20 シャープ株式会社 全方位視覚センサを用いた位置検出方法
JP2003046969A (ja) * 2001-07-30 2003-02-14 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2004012429A (ja) * 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd 自己位置/姿勢同定装置、及び自己位置/姿勢同定方法
JP3772838B2 (ja) * 2003-02-12 2006-05-10 トヨタ自動車株式会社 車両用運転支援装置及び車両用制御装置
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP4847090B2 (ja) 2005-10-14 2011-12-28 クラリオン株式会社 位置測位装置、および位置測位方法
CN101275854A (zh) * 2007-03-26 2008-10-01 日电(中国)有限公司 更新地图数据的方法和设备
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
US8346470B2 (en) * 2007-07-12 2013-01-01 Koninklijke Philips Electronics N.V. Providing access to a collection of content items
JP2009074995A (ja) * 2007-09-21 2009-04-09 Univ Of Electro-Communications 移動体情報処理装置、移動体情報処理方法、およびプログラム
US8379989B2 (en) * 2008-04-01 2013-02-19 Toyota Jidosha Kabushiki Kaisha Image search apparatus and image processing apparatus
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
JP4712830B2 (ja) * 2008-06-19 2011-06-29 日立オートモティブシステムズ株式会社 車両制御装置

Also Published As

Publication number Publication date
US20110242319A1 (en) 2011-10-06
JP2011227037A (ja) 2011-11-10
EP2372310A3 (en) 2013-11-06
EP2372310A2 (en) 2011-10-05
EP2372310B1 (en) 2015-03-25
CN102222236A (zh) 2011-10-19
CN102222236B (zh) 2017-03-01

Similar Documents

Publication Publication Date Title
JP5505723B2 (ja) 画像処理システム及び位置測位システム
JP5435306B2 (ja) 画像処理システム及び位置測位システム
JP5057184B2 (ja) 画像処理システム及び車両制御システム
JP5062498B2 (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP5057183B2 (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP5168601B2 (ja) 自車位置認識システム
JP5062497B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5182594B2 (ja) 画像処理システム
JP5333862B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5333860B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5177579B2 (ja) 画像処理システム及び位置測位システム
JP5333861B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5557036B2 (ja) 退出判定装置、退出判定プログラム及び退出判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140305

R150 Certificate of patent or registration of utility model

Ref document number: 5505723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150