JP5435306B2 - 画像処理システム及び位置測位システム - Google Patents

画像処理システム及び位置測位システム Download PDF

Info

Publication number
JP5435306B2
JP5435306B2 JP2011079989A JP2011079989A JP5435306B2 JP 5435306 B2 JP5435306 B2 JP 5435306B2 JP 2011079989 A JP2011079989 A JP 2011079989A JP 2011079989 A JP2011079989 A JP 2011079989A JP 5435306 B2 JP5435306 B2 JP 5435306B2
Authority
JP
Japan
Prior art keywords
image
feature point
importance
image feature
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011079989A
Other languages
English (en)
Other versions
JP2011227888A (ja
Inventor
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2011079989A priority Critical patent/JP5435306B2/ja
Publication of JP2011227888A publication Critical patent/JP2011227888A/ja
Application granted granted Critical
Publication of JP5435306B2 publication Critical patent/JP5435306B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Description

本発明は、画像処理システム、特に風景画像認識に利用する参照データの生成ための画像処理システム、及びその参照データを用いた位置測位システムに関する。
従来から、カーナビゲーション装置では、車両の現在位置を算出する方法として、ジャイロや地磁気センサ等のセンサから取得した情報を利用する方法(自律航法)、GPS衛星からの信号を利用する方法、あるいは自律航法とGPSとを組合せる方法が採用されている。さらに、高精度に現在位置を算出するために、測位衛星からの信号等を利用して暫定的な現在位置を求めておいて、撮影された車両前方の画像を用いて、暫定現在位置を基準にした座標系(自動車座標系) における道路標示の特徴点の座標(自動車座標系特徴点)を算出し、算出した自動車座標系特徴点と、記憶している道路標示の特徴点の座標(ワールド座標系で示した座標)とを用いて、車両の現在位置を算出するように構成された位置測位装置が知られている(例えば、特許文献1参照)。この装置では、測位衛星からの信号および各種センサからの信号による測位では誤差を含んでしまう場合であっても、精度の高い現在位置を算出することが可能となる。
特開2007−108043号公報(段落番号0009−0013、図1)
しかし、上記特許文献1による位置測位装置では、道路上の道路標示の特徴点の空間座標をステレオ画像から求め、道路標示情報データベースに収められたその特徴点を有する道路標示の緯度・経度によって求められた座標を用いて自車位置を算出するので、道路標示のない場所では利用できない。また、画像処理によって認識された特徴点の空間座標を演算する必要があるので、装置には高い演算能力が要求され、コストアップの要因となる。
そこで、道路標識のない道路や特定敷地内においても利用できるとともに、各特徴点の空間座標を位置算出毎に演算しなくてもよい位置決めとして風景画像認識技術の利用が考えられる。その際、風景画像認識技術に利用される効果的な参照用画像データである参照データの生成が重要となるので、そのような効果的な参照データの生成に適した画像処理システム及びそのような参照データを用いた位置測位システムの実現が望まれる。
本発明に係る画像処理システムは、風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを生成する画像処理システムであって、その特徴構成は、前記撮影画像を入力するデータ入力部と、入力された前記撮影画像から画像特徴点を抽出する特徴点抽出部と、前記撮影画像に特定被写体が含まれている可能性を表す撮影状況情報を取得する撮影状況情報取得部と、前記撮影状況情報に基づいて前記画像特徴点の重要度を決定する特徴点重要度決定部と、前記重要度に基づいて前記画像特徴点から前記撮影画像に対応する画像特徴点データを生成する画像特徴点データ生成部と、前記画像特徴点データを当該画像特徴点データに対応する前記撮影画像の撮影位置を含む撮影属性情報と関係付けて、前記参照データとして生成する参照データ生成部とを備える点にある。
この特徴構成によれば、風景を撮影した撮影画像から撮影画像毎に抽出された画像特徴点からなる画像特徴点データにその撮影時点の自車位置でもある撮影位置等の撮影属性情報が関係付けられ、参照データとして生成されるので、この画像特徴点データは風景画像認識のための参照データとして利用できる。その際に、画像特徴点の重要度がその撮影画像に特定被写体が含まれている可能性を表す撮影状況情報に基づいて決定され、割り当てられる。従って、各画像特徴点に割り当てられた重要度を用いることで当該画像特徴点を選別することや、画像マッチングなどの画像認識処理における参照データとして利用されるときの重要度を考慮した演算に利用することができるので、画像認識の高精度化に貢献できる。なお、撮影状況情報で取り扱われる特定被写体の一例は、ガードレールや路肩溝などの車両の走行レーンを規定するもの、併走車両や対向車両それに自転車や歩行者などの移動物体、さらには山間エリア・郊外エリア・市街地エリア・高層都市エリアなどを特徴づける山やビルなどの風景物である。このような特定被写体が含まれている場合に、その特定被写体の存在によって画像特徴点の重要度を変えることで、風景画像認識の精度を向上させる参照データを構築することができる。
ここで、前記特徴点重要度決定部は、前記撮影状況情報に基づいて、前記撮影画像中における時間的な変動が小さい被写体が含まれる可能性が高い領域に属する画像特徴点に対して、前記撮影画像中における時間的な変動が大きい被写体が含まれる可能性が高い領域に属する画像特徴点に対して付与される重要度よりも高い重要度を付与するように構成されていると好適である。この構成によれば、時間的な変動が少なく経時的に安定して利用できる画像特徴点を多く含む画像特徴点データを生成することができる。従って、信頼性の高い参照データを生成することができる。
また、前記撮影状況情報が車両の走行レーンの認識結果を含み、前記特徴点重要度決定部は、前記撮影画像中における路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対して、前記走行レーン内の領域に属する画像特徴点に対して付与される重要度より高い重要度を付与するように構成されていると好適である。この構成によれば、風景を撮影した撮影画像における時間的な変動が小さい被写体(例えば道路脇に配置されている人工物や自然物など)から抽出される画像特徴点の重要度を高くし、時間的な変動が大きい被写体(例えば道路上に位置している移動物体や障害物など)から抽出される画像特徴点の重要度を低くすることができる。これにより、時間的な変動が少なく経時的に安定して利用できる画像特徴点を多く含む画像特徴点データを生成することができる。従って、信頼性の高い参照データを生成することができる。
また、前記撮影状況情報が車載センサによる車両周辺に存在する移動物体の認識結果を含み、前記特徴点重要度決定部は、前記撮影画像中における前記移動物体が存在する領域に属する画像特徴点に対して、前記移動物体が存在しない領域に属する画像特徴点に対して付与される重要度より低い重要度を付与するように構成されていると好適である。この構成によれば、風景画像認識の参照データとして利用される際にはノイズとみなされる移動物体から抽出される画像特徴点の重要度を低くすることができる。これにより、移動物体に属する画像特徴点が含まれる割合が低い画像特徴点データを生成することができる。従って、信頼性の高い参照データを生成することができる。
さらに、前記撮影状況情報が前記撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所のエリア属性を含み、前記特徴点重要度決定部は、前記撮影画像中の位置に応じた前記重要度の付与規則を前記エリア属性に応じて変更するように構成されていると好適である。この構成によれば、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどといった撮影場所のエリア属性に応じて、経時的に変化しない、場所を特定するのに適した物体が存在する撮影画像上の領域を推定して、そのような領域から抽出された画像特徴点の重要度を高くし、それ以外の画像特徴点の重要度を低くすることができる。これにより、信頼性の高い参照データを生成することができる。
さらに、なお画像特徴点は、画像の上にある点で安定して検出できるものが好ましいので、一般にはエッジ検出フィルタなどを用いて検出できるエッジ点が用いられる。本発明では、風景画像における特徴点という点を考慮すれば、ビルの輪郭やビル窓、各種看板の輪郭を示す直線上につながっていくエッジ点群が適している。このため、本発明の好適な実施形態では、前記特徴点抽出部によって抽出される前記画像特徴点がエッジ点であり、前記特徴点重要度決定部は、前記エッジ点が直線を形成する直線成分エッジ点である場合、当該直線成分エッジ点には前記直線成分エッジ点以外のエッジ点より高い重要度を付与するように構成されている。この構成によれば、風景を特徴付ける建物や看板などの特定の人工物などを正確かつ簡素に認識するための参照データを生成することができる。更に、前記特徴点重要度決定部が、前記直線成分エッジ点のうち二つの直線成分の交点としての交点エッジ点には前記交点エッジ点以外の直線成分エッジ点に比べさらに高い重要度を付与するように構成されると好適である。これにより、参照データに含まれる画像特徴点を建物や橋や看板などの最も重要な特徴点であるコーナ点、つまり上記交点エッジ点だけに限定して、画像認識における演算負担を減らすことが可能となる。コーナ点の検出には、例えばハリスオペレータなどを用いることができる。
特徴点重要度決定部による画像特徴点への重要度の割り当て処理を簡単化するためには、画像特徴点に対して個別に重要度を割り当てるのではなく、撮影画像を複数の区画に分割して、その区画単位で重要度を決定し、その各区画に属する画像特徴点に対しては同じ重要度を付与するようにするとよい。この目的のため、本発明の好適な実施形態の1つでは、前記撮影画像領域が複数の画像区画に分割され、前記特徴点重要度決定部が、同一画像区画に属する前記画像特徴点を画像特徴点群としてグループ化して統一的に取り扱い、当該画像特徴点群に含まれる画像特徴点には同一の重要度を付与するように構成されている。
なお、この画像処理システムによってデータベースとして構築される参照データを用いて、リアルタイムで取得された撮影画像から抽出される画像特徴点データとのマッチング処理を通じて風景画像認識を行う際には、その参照データの利用形態によっては参照データに重要度を付属、つまり関係付けておいた方が便利な場合がある。そのため、本発明の実施形態の1つでは、前記参照データを構成する前記画像特徴点のそれぞれには当該画像特徴点に付与された重要度が関係付けられている。
最終的に画像特徴点データに関係付けられる、当該画像特徴点の抽出元である撮影画像の撮影位置を含む撮影属性情報に、撮影方位も含ませると、撮影方位を特定することでマッチング対象となる画像特徴点データを絞り込むことができて好都合である。
さらに、本発明は、上述した画像処理システムによって生成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムも権利範囲としている。そのような位置測位システムは、前記参照データを格納している参照データデータベースと、車両からの風景を撮影した撮影画像を入力するデータ入力部と、入力された前記撮影画像から画像特徴点を抽出する特徴点抽出部と、前記画像特徴点から前記撮影画像に対応する画像特徴点データを生成してマッチング用データとして出力する撮影画像処理部と、前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部とを備えている。この位置測位システムでは、上述したように、風景マッチングに適した参照データを用いているので、良好に自車位置を決定することができる。
本発明による画像処理システムによる参照データの生成と、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位技術の基本概念を説明する模式図である。 本発明による画像処理システムの一例における主な機能を示す機能ブロック図である。 調整係数を用いた重み係数の調整を模式的に示す模式図である。 本発明による画像処理システムで生成された参照データDBを用いたカーナビゲーションシステムの機能ブロックである。
以下、図面を用いて本発明に係る実施形態を詳しく説明する。本実施形態では、車載カメラにより撮影した車両からの風景の撮影画像に基づいて風景画像の認識を行なう場合を例として説明する。図1は、車載カメラからの風景画像を、本実施形態に係る画像処理システムによって生成される参照データを用いたマッチング処理を通じて画像認識することで、その風景画像が撮影される位置、つまり自車位置を決定する、位置測位技術の基本概念を模式的に示している。
まず、参照データデータベース92(以下単に参照データDBと略称する)の構築手順を説明する。図1に示すように、走行途中における車両からの風景を撮影した撮影画像とその撮影時の撮影位置や撮影方位を含む撮影属性情報が入力される(#01)。入力された撮影画像に対して画像特徴点を検出するための特徴点検出処理、例えばエッジ検出処理が実行される(#02)。ここでは、1つの画素ないしは複数の画素に対応させたエッジ点が輪郭のような一本の線分を構成している部分を線分エッジと呼び、複数の線分エッジが交差している交点をコーナと呼ぶ。また、線分エッジを構成するエッジ点を線分エッジ点と呼び、コーナに相当する線分エッジ点をコーナエッジ点と呼ぶ。画像特徴点の一例がこの線分エッジ点とコーナエッジ点である。エッジ検出処理によって得られるエッジ検出画像から、コーナエッジ点を含む線分エッジ点が画像特徴点として抽出される(#03)。
さらに、上記#01から#03の処理とは別系統で、撮影画像に特定被写体が含まれている可能性を表す撮影状況情報が取得される(#04)。後から詳しく説明するが、この撮影状況情報は、撮影画像の各領域に分布している画像特徴点に対して、特定被写体が位置する領域に属する画像特徴点の重要度を他の領域に属する画像特徴点に比べて相違させるために用いられる。これにより、風景画像認識にふさわしくない画像特徴点の重要度を低くすることや、風景画像認識にとって重要となる画像特徴点の重要度を高くすることで、最終的に信頼性の高い参照データDB92を構築することができる。この撮影状況情報に基づいて各画像特徴点の重要度が決定されると(#05)、その重要度に応じた各画像特徴点への重み係数の割り当てを規定している重み係数マトリックスが生成される(#06)。なお、撮影状況情報で取り扱われる被写体は、撮影画像から画像認識処理を通じて検知すること、各種車載センサ(距離センサ、障害物検出センサなど)からのセンサ信号を処理して検知すること、あるいはVICS (登録商標)(Vehicle Information and Communication System:道路交通情報通信システム)などを利用して外部からの信号を処理して検知することも可能である。
続いて、重み係数に基づいて画像特徴点を整理して各撮影画像に対応する画像特徴点データが生成される(#07)。この画像特徴点データの生成過程において、所定しきい値レベル以下の重み係数をもつ画像特徴点を破棄したり、所定しきい値レベル以上の重み係数をもつ画像特徴点とその周辺の画像特徴点以外を破棄したりする取捨選択処理が行われる。ここで生成された画像特徴点データは、風景画像認識の目的でパターンマッチングが採用されるときには、そのパターンとして用いられるので、風景画像のパターンマッチングにおいて効果的な画像特徴点だけを備えることがマッチングの高速性と正確性にとって重要である。生成された画像特徴点データはこの画像特徴点データに対応する撮影画像の撮影位置や撮影方位と関係付けることで、撮影位置や撮影方位を検索キーとして検索可能なデータベース用データ、すなわち参照データとして生成される(#08)。つまり、この画像特徴点データは、風景画像認識のために利用される参照データ、例えばパターンマッチングのパターンとして生成される。そして、生成された参照データは、参照データDB92に格納される(#09)。
次に、上述したような手順で構築された参照データDB92を用いて、実際の車両走行時にその車両の位置(自車位置)を決定する手順を説明する。図1に示すように、車載カメラで風景を撮影して得られた実撮影画像と、参照データDB92から参照データを抽出するために用いられる、その撮影位置と撮影方位が入力される(#11)。ここでの撮影位置は、GPS測定ユニットなどを用いて推定された推定自車位置である。入力された撮影画像から、上記ステップ#02〜#07と同様の処理手順を経て画像特徴点データであるマッチング用データが生成される(#12)。また、入力された撮影位置と撮影方位を検索条件として、該当する撮影位置(推定自車位置)の参照データ及びその撮影位置(推定自車位置)の前後の参照データがマッチング候補参照データセットとして抽出される(#13)。
抽出されたマッチング候補参照データセットから1つずつ参照データをパターンとして設定し、今生成されたマッチング用データとの間のパターンマッチング処理が風景画像認識として実行される(#14)。パターンマッチングが成功すれば、その対象となった参照データに関係付けられた撮影位置が読み出され(#15)、この撮影位置が推定自車位置に代わる正式な自車位置として決定される(#16)。
次に、上述した位置測位技術の基本概念に基づいて撮影画像から参照データを生成する、本発明による画像処理システムの一例を説明する。図2の機能ブロック図には、そのような画像処理システムの特に本発明に関係する機能が模式的に示されている。
この画像処理システムは、データ入力部51、特徴点抽出部52、特徴点重要度決定部53と、重み付け部55、調整係数設定部54、画像特徴点データ生成部56、参照データ生成部57、などの機能部を備えており、それらの各機能はハードウエアまたはソフトウエアあるいはその組み合わせで作り出すことができる。
データ入力部51には、参照データ生成目的で走行している車両に搭載されたカメラによる風景を撮影した撮影画像と、その撮影時の撮影位置及び撮影方位を含む撮影属性情報と、さらに撮影状況情報が入力される。画像処理システムが走行車両に搭載されている形態においては、このデータ入力部51にはリアルタイムで撮影画像と撮影属性情報と撮影状況情報が入力されることになるが、この画像処理システムがデータ処理センタなどに設置されている形態においては、撮影画像と撮影属性情報と撮影状況情報が一時的に記録媒体に記録され、これらのデータ入力はバッチ処理的に行われる。本実施形態では、データ入力部51に撮影状況情報が入力されるため、このデータ入力部51が本発明における撮影状況情報取得部58としても機能する。なお撮影画像や撮影属性情報の生成方法は周知であるのでその説明は省略する。
撮影状況情報は、撮影画像に特定被写体が含まれている可能性を表す情報であり、この実施の形態の撮影状況情報に含まれる内容は、走行レーンデータと、移動物体データと、エリア属性データである。走行レーンデータは、車両の走行レーンの認識結果のデータであり、撮影画像に対する画像処理を通じて得られる白線やガードレールや安全地帯などの認識結果から得られた、撮影画像における自車の走行レーン領域や道路外領域を示すデータである。移動物体データは、車載センサによる車両周辺に存在する移動物体の認識結果のデータであり、ここでは、レーダなどの障害物を検知する車載センサによって認識される車両周辺に存在する移動物体の撮影画像中における存在領域を示すデータである。エリア属性データは、撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所のエリア属性を示すデータであり、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどといった撮影場所の種別を示すデータである。
特徴点抽出部52は、適当な演算子を使用して撮影画像から画像特徴点としてエッジ点を抽出する。特徴点重要度決定部53は、特徴点抽出部52によって抽出された画像特徴点の重要度を、撮影状況情報に含まれている各データの内容に基づいて決定する。この際、特徴点重要度決定部53は、撮影状況情報に基づいて、撮影画像中における時間的な変動が小さい被写体が含まれる可能性が高い領域に属する画像特徴点に対して、撮影画像中における時間的な変動が大きい被写体が含まれる可能性が高い領域に属する画像特徴点に対して付与される重要度よりも高い重要度を付与する。ここで、時間的な変動が小さい被写体としては、例えば、道路脇(路肩)に配置されている建築物や標識等の人工物、或いは樹木等の自然物などが含まれる。また、時間的な変動が大きい被写体としては、例えば、道路上に位置している他の車両や歩行者や自転車等の移動物体、或いは工事現場の柵等の各種障害物などが含まれる。このように道路上に位置している移動物体等は、短期的に移動し、或いは取り除かれる可能性が高いため、風景画像認識の参照データとして用いるのに適していない。従って、そのような時間的な変動が大きい被写体が含まれる可能性が高い領域に属する画像特徴点に対して低い重要度を付与し、時間的な変動が小さい被写体が含まれる可能性が高い領域に属する画像特徴点に対して高い重要度を付与することで、時間的な変動が少なく経時的に安定して利用できる画像特徴点を多く含む画像特徴点データを生成することができる。
そこで、特徴点重要度決定部53は、例えば、走行レーンデータの内容を用いる場合、撮影画像中における、路肩寄りの走行レーンからさらに路肩側に外れた領域(走行レーン外側の路肩側の領域)に属する画像特徴点に対して、前記走行レーン内の領域に属する画像特徴点に対して付与される重要度より高い重要度を付与する。また、特徴点重要度決定部53は、移動物体データを用いる場合、撮影画像中における、移動物体が存在する領域に属する画像特徴点に対して、前記移動物体が存在しない領域に属する画像特徴点に対して付与される重要度より低い重要度を付与する。さらに、特徴点重要度決定部53は、エリア属性データの内容を用いる場合、撮影画像中の位置に応じた重要度の付与規則を前記エリア属性に応じて変更する。例えば、山間エリアの撮影画像では、撮影中心光軸の上方は空で左右は森林である可能性が高いので、撮影中心光軸周りである中心領域に属する画像特徴点に対してその中心領域以外の領域に属する画像特徴点に比べ高い重要度を設定する。郊外エリアの撮影画像では、車の往来が少なく、住宅等の構造物が周囲に広がっているので、撮影中心光軸の下方領域に属する画像特徴点に対して高い重要度を設定する。市街地エリアの撮影画像では、車の往来が多いので、撮影中心光軸の上方領域に属する画像特徴点に対して高い重要度を設定する。高層都市エリアの撮影画像では、高架道路や高架橋などが多いので、撮影中心光軸の上方領域に属する画像特徴点に対して高い重要度を設定する。
重み付け部55は、特徴点重要度決定部53によって決定された重要度に応じて画像特徴点に重み係数を割り当てる。上記のとおり、特徴点重要度決定部53により、正確な画像認識(パターンマッチング)を行うために重要と思われる画像特徴点には高い重要度が設定されている。そこで、重み付け部55は、高い重要度が設定された画像特徴点に大きい重み係数を割り当てる。一方、低い重要度が設定された画像特徴点は実際の画像認識において使用されない可能性が高いこと、あるいは参照データから削除される方が好ましい場合があることを考慮して、重み付け部55は、画像特徴点の取捨選択の判定のために利用できるように小さい重み係数を割り当てる。
調整係数設定部54は、重み付け部55によって割り当てられた重み係数を、撮影画像領域における重み係数の分布状態の観点から変更するための調整係数を算定する。つまり、特徴点抽出部52によって抽出された画像特徴点に対して撮影状況情報に基づいて決定された重要度にはある程度の誤りが含まれ、その結果として重要度がある程度高い画像特徴点もランダムに発生する可能性があるとも考えられる。このため、画像特徴点の偏在、言い換えると重み付け部55によって割り当てられた重み係数の偏在が生じていた場合、その偏在を緩やかにする目的でこの調整係数設定部54は用いられる。すなわち、調整係数設定部54は、演算処理で得られた画像特徴点の散布度が画像特徴点の偏在を示している場合、画像特徴点の密度が小さい領域に属する画像特徴点の重み係数が大きくなるように調整係数を設定し、画像特徴点の密度が大きい領域に属する画像特徴点の重み係数が小さくなるように調整係数を設定する。
画像特徴点データ生成部56は、重み付け部55によって割り当てられた重み係数、及び場合によっては付与されている調整係数に基づいて、各画像特徴点を整理して各撮影画像に対応する画像特徴点データを生成する。その際、所定しきい値以下の重み係数をもつ画像特徴点を削除することでマッチング処理が効率よく行われるように画像特徴点を絞り込むことができる。また、この重み係数をそのまま参照データにおいても各画像特徴点に関係付けられるように画像特徴点データに付属させておき、その重み係数付き参照データを用いたマッチング処理時における重み付け類似度演算のために用いられるようにしてもよい。
ここで、上述した調整係数によって画像特徴点を撮影画像領域全体にわたってできるだけ広く散布させる処理を、図3に示された模式的説明図を用いて説明する。撮影画像(図3(a)から画像特徴点を抽出することで特徴点画像(図3(b))が生成される。この特徴点画像の各画像特徴点に重要度が付与される。重要度の付与された様子を模式的に理解できるように、図3(c)では特徴点画像に対応する重要度レイヤの形で各画像特徴点に対応する重要度が示されている。この重要度レイヤを用いて、各画像特徴点に重み係数が割り当てられる。図3(d)では、大きな重み係数をもつほど大きい点となるように画像特徴点を描いた特徴点画像の形で、重み係数が割り当てられた画像特徴点が示されている。ここで、所定しきい値以下の重み係数を割り当てられた画像特徴点が除去されるような画像特徴点の整理が行われる場合を考える。この場合、例えば、図3(d)で大きな点となっている画像特徴点だけが選別されると、特徴点画像の下方領域に位置している画像特徴点は排除され、残った画像特徴点の分布に大きな偏在が生じる。そこで、調整係数設定部54は、この偏在を回避するため、特徴点画像における画像特徴点の散布度を算出し、結果的に選別される画像特徴点の密度が低くなる領域の画像特徴点の重み係数を増加させるような調整係数を設定する。そのように設定される調整係数を模式的に理解できるように、図3(e)では、調整係数群を特徴点画像に対応させてマトリックス的に(ここでは複数の画素領域からなる区画単位で)配置した調整係数レイヤの形で示している。画像特徴点データ生成部56は、このような重み係数と調整係数に基づいて最終的に設定された重み係数を用いて各画像特徴点を整理し、図3(f)で示されたような画像特徴点データを各撮影画像に対応させて生成する。
参照データ生成部57は、画像特徴点データ生成部56によって生成された画像特徴点データを、この画像特徴点データに対応する撮影画像の撮影属性情報と関係付けて、風景画像認識のために利用される参照データとして生成する。参照データ生成部57は、生成した参照データを参照データDB92に格納する。従って、参照データ生成部57は、生成した参照データをデータベース化する参照データデータベース化部としても機能する。
以上の説明では、画像特徴点毎に重要度が決定され、その結果、画像特徴点毎に重み係数が設定されているような形態であったが、これらの処理をグループ単位で行うことも可能である。例えば、撮影画像領域が複数の画像区画に分割され、特徴点重要度決定部53が、同一画像区画に属する画像特徴点を画像特徴点群としてグループ化して統一的に取り扱う構成としても好適である。この場合、特徴点重要度決定部53は、同じ画像特徴点群に含まれる画像特徴点には同一の重要度を与え、重み付け部55も同様に画像特徴点群単位で重み係数を設定する。なお、本発明では、画像区画は1つ又は複数の画素から構成される。すなわち、特徴点重要度決定部53は、撮影画像を構成する複数画素を単位として前記画像区画を設定してもよいが、撮影画像を構成する1画素単位で前記画像区画を設定することも可能である。
次に、上述した画像処理システムで生成された参照データDB92を用いて風景画像認識(画像特徴点パターンマッチング)で自車位置を修正するカーナビゲーションシステムを説明する。図4には、そのようなカーナビゲーションシステムを車載LANに組み込んだ形態で示した機能ブロックである。このカーナビゲーションシステムは、入力操作モジュール21、ナビ制御モジュール3、自車位置検出モジュール4、撮影状況情報生成部7、上記の参照データDB92とナビゲーション用道路地図データを収納した道路地図データベース91(以下単に道路地図DBと略称する)とを有するデータベース9を備えている。
ナビ制御モジュール3は、経路設定部31、経路探索部32、経路案内部33を備えている。経路設定部31は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する。経路探索部32は、経路設定部31によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理を行う処理部である。経路案内部33は、経路探索部32により探索された出発地から目的地までの経路に従って、モニタ12の表示画面による案内表示やスピーカ13による音声案内等により、運転者に対して適切な経路案内を行うための演算処理を行う処理部である。
自車位置検出モジュール4は、従来のGPSによる位置算定及び推測航法による位置算定によって得られた推定自車位置を、この推定自車位置を利用した風景画像認識によって決定された自車位置で修正する機能を有する。自車位置検出モジュール4は、GPS処理部41、推測航法処理部42、自車位置座標算定部43、マップマッチング部44、自車位置決定部45、撮影画像処理部5、風景マッチング部6を備えている。GPS処理部41にはGPS衛星からのGPS信号を受信するGPS測定ユニット15が接続されている。GPS処理部41はGPS測定ユニット15で受信されたGPS衛星からの信号を解析し、車両の現在位置(緯度及び経度)を算定し、GPS位置座標データとして自車位置座標算定部43に送る。推測航法処理部42には距離センサ16と方位センサ17が接続されている。距離センサ16は、車両の車速や移動距離を検出するセンサであり、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両の加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。距離センサ16は、その検出結果としての車速及び移動距離の情報を推測航法処理部42へ出力する。方位センサ17は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、その検出結果としての方位の情報を推測航法処理部42へ出力する。推測航法処理部42は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置座標を演算し、推測航法位置座標データとして自車位置座標算定部43に送る。自車位置座標算定部43は、GPS位置座標データと推測航法位置座標データとから公知の方法により車両の位置を特定する演算を行う。算定された自車位置情報は、測定誤差等を含んだ情報となっており、場合によっては道路上から外れてしまうので、マップマッチング部44により、自車位置を道路地図に示される道路上とする補正が行われる。その自車位置座標は推定自車位置として自車位置決定部45に送られる。
撮影画像処理部5は、実質的には図2で示された画像処理システムを構成していた大部分の機能部を備えている。すなわち、この撮影画像処理部5は、データ入力部51、特徴点抽出部52、特徴点重要度決定部53と、重み付け部55、調整係数設定部54、画像特徴点データ生成部56を備え、車載カメラ14によって撮影された車両からの前方風景撮影画像がデータ入力部51に入力されると、上述したような手順を経て画像特徴点データが画像特徴点データ生成部56から出力される。なお、特徴点重要度決定部53で利用される撮影状況情報は、車両に搭載された撮影状況情報生成部7によって生成され、撮影画像処理部5に送られる。撮影状況情報生成部7は、上記走行レーンデータを生成するために、車載カメラ14と接続されており、撮影画像処理部5に送られる撮影画像と同じものを受け取る。撮影状況情報生成部7は、受け取った撮影画像を公知のアルゴリズムを用いて画像処理することで走行レーンデータを生成する。また、撮影状況情報生成部7は、上記移動物体データを生成するために障害物検出用のセンサ群18と接続されている。撮影状況情報生成部7は、このセンサ群18からのセンサ情報に基づいて移動物体データを生成する。さらに、撮影状況情報生成部7は、上記エリア属性データを生成するために、自車位置決定部45及びデータベース9と接続されている。撮影状況情報生成部7は、自車位置決定部45からの自車位置座標を検索キーとしてデータベース9を検索して、現在走行している場所のエリア属性(山間部や市街地など)を取得し、それに基づいてエリア属性データを生成する。
風景マッチング部6は、自車位置決定部45から送られてきた推定自車位置に基づいて参照データDB92から抽出された参照データをパターンとして用い、撮影画像処理部5から送られてきた画像特徴点データに対するパターンマッチング処理を行う。このパターンマッチングが成功した場合には、当該マッチングが成功した参照データに関係付けられた撮影位置が読み出される。この撮影位置が自車位置として、自車位置決定部45に転送される。自車位置決定部45は転送されてきた自車位置を推定自車位置と置き換える自車位置修正を行う。
このカーナビゲーションシステムは、また、周辺装置として、タッチパネルやスイッチなどの入力デバイス11とそれらの入力デバイス11を通じての操作入力を適切な操作信号に変換して内部に転送する操作入力評価部21aとを有する入力操作モジュール21、モニタ12にカーナビゲーションに必要な画像情報を表示するための表示画像生成モジュール22、スピーカ13やブザーからカーナビゲーションに必要な音声情報を出力するための音声生成モジュール23、車載LANを通じて送られてくる挙動データに基づいて、制動や加速や操舵などといった車両の種々の挙動を検知する車両挙動検知モジュール24を備えている。
上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点のうち、特に一本の線分を構成している線分エッジ点(直線成分エッジ点)やそのような線分が交差、好ましくはほぼ直交する交点に相当するコーナエッジ点(交点エッジ点)が効果的な画像特徴点として扱われる。しかしながら、本発明における画像特徴点は、そのようなエッジ点に限定されるわけではない。風景によって効果的な画像特徴点として、例えば、円や四角形など幾何学的形状を形成する代表的なエッジ点(円なら円周上の3点など)あるいは幾何学的形状の重心やその重心を示す画像上の点なども用いてよい。また、エッジ強度も重要度を算定するための因子として採用することも好適であり、例えば強度の強いエッジからなる線分なら、その線分の始点と終点はそれ以外のエッジ点に比べ重要度の高い画像特徴点として取り扱うことができる。また、特徴的な幾何学的形状における特定点、例えば左右対称な物体の端点なども、それ以外のエッジ点に比べ重要度の高い画像特徴点として取り扱うことができる。
さらには、エッジ検出処理によって得られるエッジ点以外に、撮影画像を色相や彩度の変化として捉え、その変化の大きい点を画像特徴点として採用することも可能である。同様に色情報に基づくものとして色温度の高い物体の端点を重要度の高い画像特徴点として取り扱うことも可能である。
つまり、本発明で取り扱われる画像特徴点は、参照データと実撮影画像から生成される画像特徴量データとの間の類似度判定、例えば、パターンマッチングにとって有効なものであれば、全て利用の対象となる。
上述した実施形態では、その重要度に応じて算定された重み係数を各画像特徴点に割り当てていたが、この重み係数は重要度に対応する係数である。従って、この重み係数を導入せずに、特徴点重要度決定部53により決定した重要度をそのまま重み係数として用いてもよい。
上述した実施形態では、参照データDB92に格納される参照データには、撮影属性情報としての撮影位置と撮影方位(カメラ光軸方位)が関係付けられていたが、それ以外に、上述した撮影状況情報、さらには撮影日時や撮影時天候などを関係付けてもよい。
なお、撮影位置は、最低限、緯度・経度データのような二次元データでよいが、高さデータも加えて三次元データとしてもよい。
また、撮影方位を参照データに関係付けることは必須ではない。例えば、参照データの生成時も、この参照データを用いての風景画像認識時も、走行道路に対して実質的に同じ撮影方位で撮影されることが保証される場合には、撮影方位は不必要となる。
逆に、1つの基本的な撮影方位での参照データから撮影方位を適度に異ならせた参照データを用意することができる場合には、方位センサなどの情報から算定された車両の走行方向に基づいて、その走行方位に適合する参照データだけを風景画像認識の対象とすることも可能である。このように、撮影属性情報に撮影方位も含ませると、撮影方位を特定することでマッチング対象となる画像特徴点データを絞り込むことができる。
本発明で取り扱われる車載カメラは、車両走行方向前方の風景を撮影するものが最適である。しかしながら、前方斜めの風景をとるカメラであってもよいし、さらには側方、後方の風景を撮影するカメラであってよい。つまり、本発明で取り扱われる撮影画像は、車両走行方向の前方風景を撮影したものだけに限定されるわけではない。
上述した実施形態では、風景を撮影した撮影画像が、車両に搭載されたカメラにより撮影される場合を例として説明した。しかし、本発明に係る画像処理システムは、このような車両からの風景の撮影画像に基づいて風景画像認識を行なうものに限定されない。例えば、携帯電話や携帯可能なナビゲーション装置等の各種の携帯端末に搭載されたカメラの撮影画像に基づいて風景画像認識を行なう画像処理システムにも、本発明を適用することが可能である。そして、風景画像を撮影するカメラが、車両や携帯端末などのいずれに設けられる場合であっても、本発明に係る画像処理システム及び位置測位システムの全部又は一部は、当該車両や携帯端末に備えられていてもよいし、これらとは離れた場所にあるデータ処理センタなどのサーバに備えられていてもよい。画像処理システムや位置測位システムがカメラ等と離れたサーバに備えられる場合には、撮影画像、撮影属性情報、撮影状況情報等は、各種の通信手段を介して送受信されて取得され、或いは一旦記録媒体に記録されてから当該記録媒体から読み出されることにより取得される構成とすることができる。
上述した実施形態の説明に用いられた機能ブロック図で区分けされて示された機能部はわかりやすい説明を目的としており、ここで示された区分けに本発明は限定されているわけではない。よって、それぞれの機能部を自由に組み合わせたり、1つの機能部をさらに区分けしたりすることが可能である。
本発明は、風景画像認識に利用する参照データの生成ための画像処理システム、及びその参照データを用いた位置測位システムに好適に利用可能である。
3:ナビ制御モジュール
4:自車位置検出モジュール
41:GPS処理部
42:推測航法処理部
43:自車位置座標算定部
44:マップマッチング部
45:自車位置決定部
5:撮影画像処理部
51:データ入力部
52:特徴点抽出部
53:特徴点重要度決定部
54:重み付け部
55:調整係数設定部
56:画像特徴点データ生成部
57:参照データ生成部
58:撮影状況情報取得部
6:風景マッチング部
14:カメラ
92:参照データDB
91:道路地図DB

Claims (11)

  1. 風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを生成する画像処理システムであって、
    前記撮影画像を入力するデータ入力部と、
    入力された前記撮影画像から画像特徴点を抽出する特徴点抽出部と、
    前記撮影画像に特定被写体が含まれている可能性を表す撮影状況情報を取得する撮影状況情報取得部と、
    前記撮影状況情報に基づいて前記画像特徴点の重要度を決定する特徴点重要度決定部と、
    前記重要度に基づいて前記画像特徴点から前記撮影画像に対応する画像特徴点データを生成する画像特徴点データ生成部と、
    前記画像特徴点データを当該画像特徴点データに対応する前記撮影画像の撮影位置を含む撮影属性情報と関係付けて、前記参照データとして生成する参照データ生成部と、
    を備える画像処理システム。
  2. 前記特徴点重要度決定部は、前記撮影状況情報に基づいて、前記撮影画像中における時間的な変動が小さい被写体が含まれる可能性が高い領域に属する画像特徴点に対して、前記撮影画像中における時間的な変動が大きい被写体が含まれる可能性が高い領域に属する画像特徴点に対して付与される重要度よりも高い重要度を付与する請求項1に記載の画像処理システム。
  3. 前記撮影状況情報が車両の走行レーンの認識結果を含み、
    前記特徴点重要度決定部は、前記撮影画像中における路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対して、前記走行レーン内の領域に属する画像特徴点に対して付与される重要度より高い重要度を付与する請求項1又は2に記載の画像処理システム。
  4. 前記撮影状況情報が車載センサによる車両周辺に存在する移動物体の認識結果を含み、
    前記特徴点重要度決定部は、前記撮影画像中における前記移動物体が存在する領域に属する画像特徴点に対して、前記移動物体が存在しない領域に属する画像特徴点に対して付与される重要度より低い重要度を付与する請求項1から3のいずれか一項に記載の画像処理システム。
  5. 前記撮影状況情報が前記撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所のエリア属性を含み、
    前記特徴点重要度決定部は、前記撮影画像中の位置に応じた前記重要度の付与規則を前記エリア属性に応じて変更する請求項1から4のいずれか一項に記載の画像処理システム。
  6. 前記特徴点抽出部によって抽出される前記画像特徴点がエッジ点であり、
    前記特徴点重要度決定部は、前記エッジ点が直線を形成する直線成分エッジ点である場合、当該直線成分エッジ点には前記直線成分エッジ点以外のエッジ点より高い重要度を付与する請求項1から5のいずれか一項に記載の画像処理システム。
  7. 前記特徴点重要度決定部は、前記直線成分エッジ点のうち二つの直線成分の交点としての交点エッジ点には前記交点エッジ点以外の直線成分エッジ点に比べさらに高い重要度を付与する請求項6に記載の画像処理システム。
  8. 前記撮影画像領域が複数の画像区画に分割され、前記特徴点重要度決定部が、同一画像区画に属する前記画像特徴点を画像特徴群としてグループ化して統一的に取り扱い、当該画像特徴群に含まれる画像特徴点には同一の重要度を付与する請求項1から7のいずれか一項に記載の画像処理システム。
  9. 前記参照データを構成する前記画像特徴点のそれぞれには当該画像特徴点に付与された重要度が関係付けられている請求項1から8のいずれか一項に記載の画像処理システム。
  10. 前記撮影属性情報は、前記撮影画像の撮影位置に加えて撮影方位を含む請求項1から9のいずれか一項に記載の画像処理システム。
  11. 請求項1から10のいずれか一項に記載の画像処理システムによって生成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムにおいて、
    前記参照データを格納している参照データデータベースと、
    車両からの風景を撮影した撮影画像を入力するデータ入力部と、
    入力された前記撮影画像から画像特徴点を抽出する特徴点抽出部と、
    前記画像特徴点から前記撮影画像に対応する画像特徴点データを生成してマッチング用データとして出力する撮影画像処理部と、
    前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部とを備えた位置測位システム。
JP2011079989A 2010-03-31 2011-03-31 画像処理システム及び位置測位システム Expired - Fee Related JP5435306B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011079989A JP5435306B2 (ja) 2010-03-31 2011-03-31 画像処理システム及び位置測位システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010084623 2010-03-31
JP2010084623 2010-03-31
JP2011079989A JP5435306B2 (ja) 2010-03-31 2011-03-31 画像処理システム及び位置測位システム

Publications (2)

Publication Number Publication Date
JP2011227888A JP2011227888A (ja) 2011-11-10
JP5435306B2 true JP5435306B2 (ja) 2014-03-05

Family

ID=44212123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011079989A Expired - Fee Related JP5435306B2 (ja) 2010-03-31 2011-03-31 画像処理システム及び位置測位システム

Country Status (4)

Country Link
US (1) US8791996B2 (ja)
EP (1) EP2372605A3 (ja)
JP (1) JP5435306B2 (ja)
CN (1) CN102208035B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7273552B2 (ja) 2019-03-14 2023-05-15 株式会社東芝 軸受装置用潤滑流体槽および軸受装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5954712B2 (ja) * 2011-01-13 2016-07-20 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及びそのプログラム
WO2012171739A2 (de) * 2011-06-17 2012-12-20 Robert Bosch Gmbh Verfahren und steuergerät zur erkennung einer wetterbedingung in einem umfeld eines fahrzeugs
JP5773206B2 (ja) * 2011-12-13 2015-09-02 アイシン・エィ・ダブリュ株式会社 標高信頼度判定システム、データ整備システム、走行支援システム、走行支援プログラム及び方法、データ整備プログラム及び方法、並びに標高信頼度判定プログラム及び方法
JP5891802B2 (ja) * 2012-01-17 2016-03-23 日産自動車株式会社 車両位置算出装置
JP5903901B2 (ja) * 2012-01-17 2016-04-13 日産自動車株式会社 車両位置算出装置
GB201202344D0 (en) * 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
DE102012005471A1 (de) * 2012-03-17 2013-09-19 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) Verkehrsinformationssystem
GB2501466A (en) 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
JP5747014B2 (ja) * 2012-11-05 2015-07-08 東芝テック株式会社 商品認識装置及び商品認識プログラム
JP6040715B2 (ja) * 2012-11-06 2016-12-07 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
CN103945088B (zh) * 2013-01-21 2017-06-27 华为终端有限公司 场景识别方法及装置
JP6253467B2 (ja) 2014-03-24 2017-12-27 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム
KR20160001178A (ko) * 2014-06-26 2016-01-06 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
CN105333878A (zh) * 2015-11-26 2016-02-17 深圳如果技术有限公司 一种路况视频导航系统及方法
US10198456B1 (en) * 2015-12-28 2019-02-05 Verizon Patent And Licensing Inc. Systems and methods for data accuracy in a positioning system database
JP6727032B2 (ja) * 2016-05-26 2020-07-22 三菱電機株式会社 モバイル端末およびこれを用いた自己位置推定システム並びにサーバおよび自己位置推定方法
EP3290864A1 (en) 2016-08-30 2018-03-07 Continental Automotive GmbH Driver assistance system for determining a position of a vehicle
CN107967691B (zh) * 2016-10-20 2021-11-23 株式会社理光 一种视觉里程计算方法和装置
GB2559196B (en) * 2017-01-31 2021-11-17 Sony Europe Bv Determining a position of a vehicle on a track
US10929462B2 (en) 2017-02-02 2021-02-23 Futurewei Technologies, Inc. Object recognition in autonomous vehicles
EP3379459A1 (en) * 2017-03-24 2018-09-26 Tata Consultancy Services Limited System and method for telecom inventory management
CN108413973A (zh) * 2018-02-12 2018-08-17 上海与德科技有限公司 车辆转弯提示方法、装置、终端及计算机可读介质
WO2019210978A1 (en) * 2018-05-04 2019-11-07 Huawei Technologies Co., Ltd. Image processing apparatus and method for an advanced driver assistance system
CN109241979A (zh) * 2018-08-24 2019-01-18 武汉光庭信息技术股份有限公司 一种基于高速视觉特征点匹配的车辆相对位置推测方法
CN110895699B (zh) * 2018-09-12 2022-09-13 北京字节跳动网络技术有限公司 用于处理图像的特征点的方法和装置
KR102627658B1 (ko) * 2018-10-11 2024-01-22 삼성전자주식회사 레이아웃에 대한 이미지의 배치를 판단하는 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체.
JP2020125960A (ja) * 2019-02-04 2020-08-20 株式会社豊田中央研究所 移動体位置推定装置、及び移動体位置推定プログラム
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
DE102019119852A1 (de) * 2019-07-23 2021-01-28 Man Truck & Bus Se Erzeugen nicht-semantischer Referenzdaten zur Positionsbestimmung eines Kraftfahrzeugs
JP7102383B2 (ja) * 2019-10-24 2022-07-19 株式会社東芝 路面画像管理システム及びその路面画像管理方法
KR102578292B1 (ko) * 2020-12-15 2023-09-15 한국과학기술연구원 컴퓨터 메모리 효율성이 향상된 물체/영역 검출 및 분류 시스템
CN116132798B (zh) * 2023-02-02 2023-06-30 深圳市泰迅数码有限公司 一种智能摄像头的自动跟拍方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047234A (en) 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
JP3772838B2 (ja) * 2003-02-12 2006-05-10 トヨタ自動車株式会社 車両用運転支援装置及び車両用制御装置
JP2005326168A (ja) * 2004-05-12 2005-11-24 Fuji Photo Film Co Ltd 運転支援システム、車両、および運転支援方法
JP4847090B2 (ja) 2005-10-14 2011-12-28 クラリオン株式会社 位置測位装置、および位置測位方法
US9126533B2 (en) * 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device
JP4784572B2 (ja) * 2007-02-23 2011-10-05 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP4569837B2 (ja) 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
US8379989B2 (en) * 2008-04-01 2013-02-19 Toyota Jidosha Kabushiki Kaisha Image search apparatus and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7273552B2 (ja) 2019-03-14 2023-05-15 株式会社東芝 軸受装置用潤滑流体槽および軸受装置

Also Published As

Publication number Publication date
US20110242311A1 (en) 2011-10-06
US8791996B2 (en) 2014-07-29
CN102208035B (zh) 2015-12-02
JP2011227888A (ja) 2011-11-10
EP2372605A3 (en) 2012-09-26
CN102208035A (zh) 2011-10-05
EP2372605A2 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
JP5435306B2 (ja) 画像処理システム及び位置測位システム
JP5057184B2 (ja) 画像処理システム及び車両制御システム
JP5505723B2 (ja) 画像処理システム及び位置測位システム
JP5057183B2 (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP5062498B2 (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP5062497B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5168601B2 (ja) 自車位置認識システム
JP5333862B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5333860B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5182594B2 (ja) 画像処理システム
JP5177579B2 (ja) 画像処理システム及び位置測位システム
JP5333861B2 (ja) 風景画像認識を用いた自車位置検出システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131127

R150 Certificate of patent or registration of utility model

Ref document number: 5435306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees