JP4321821B2 - 画像認識装置及び画像認識方法 - Google Patents

画像認識装置及び画像認識方法 Download PDF

Info

Publication number
JP4321821B2
JP4321821B2 JP2005021337A JP2005021337A JP4321821B2 JP 4321821 B2 JP4321821 B2 JP 4321821B2 JP 2005021337 A JP2005021337 A JP 2005021337A JP 2005021337 A JP2005021337 A JP 2005021337A JP 4321821 B2 JP4321821 B2 JP 4321821B2
Authority
JP
Japan
Prior art keywords
image
recognition
information
road
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005021337A
Other languages
English (en)
Other versions
JP2006209510A (ja
Inventor
孝幸 宮島
正樹 中村
元裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2005021337A priority Critical patent/JP4321821B2/ja
Priority to US11/338,712 priority patent/US7668341B2/en
Priority to EP06001527.8A priority patent/EP1686537B1/en
Priority to CNB2006100069534A priority patent/CN100555311C/zh
Publication of JP2006209510A publication Critical patent/JP2006209510A/ja
Application granted granted Critical
Publication of JP4321821B2 publication Critical patent/JP4321821B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/45Pedestrian sidewalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、例えば車両等に搭載され、道路上で撮像した画像情報の中に含まれる所定の認識対象物の画像を認識する処理を行う画像認識装置及び画像認識方法に関する。
道路上で撮像した画像情報に基づいて、所定の認識対象物の画像認識を行う技術として、例えば下記の特許文献1には、以下のような技術が開示されている。この文献に開示されている技術は、道路上で撮像した画像情報に基づいて道路面に設けられた区画線(レーンマーク)を認識する装置に関するものである。すなわち、この装置は、道路上を走行して移動する車両に搭載され、車両前方の道路を撮像する撮像手段と、この撮像手段によって撮像した画像情報に基づいて前記道路面に設けられた区画線を認識する認識手段とを備える認識装置である。そして、前記認識手段は、撮像画像中における区画線の画像的特徴量に応じて変形する特性を持つストリングモデルを用いて区画線の認識を行う。ここで、区画線の画像的特徴量としては、画素単位の輝度や色度等が用いられる。
この装置は、撮像した画像情報の「二値化処理」及び「点から線への拡張処理」を行わないことにより、これらの処理に起因する外部環境の変動に対する認識の不安定さを解消して、区画線の認識率を高めることを目的としている。
特開平11−213155号公報(第2−3頁、第1図)
上記のような従来の技術は、カメラ等により撮像した画像情報に基づいて、認識アルゴリズムの工夫により区画線等の認識対象物の認識率を高めようとする技術である。しかしながら、このような従来の技術では、認識処理に用いられる情報が画像情報のみであるため、画像情報から良好な画像的特徴量を取得できない場合には、極端に認識率が低下する場合があるという問題が生じ得る。
したがって、例えば、認識対象物と誤認し易い画像的特徴量を有する物が撮像された画像情報に含まれる場合や、撮影時の天候や明るさ等の条件により、或いは認識対象物やその周辺の状態や種類等により認識対象物とその周辺とで輝度や色彩等の差が小さい場合等には、認識対象物の画像を正確に認識することが困難な場合が多かった。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、撮像した画像情報のみによっては良好な画像認識を行うことが困難な場合であっても、認識対象物の認識率を高めることが可能な画像認識装置及び画像認識方法を提供する点にある。
上記目的を達成するための本発明に係る画像認識装置の特徴構成は、道路上で撮像した画像情報を取り込む画像情報取得手段と、地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、前記道路特徴情報を用いて前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と、を備え、前記画像情報認識手段は、前記道路特徴情報に基づいて前記画像情報中における前記認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、前記認識対象物の画像が存在すると推測される領域内では前記認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して前記認識対象物の画像を認識する認識処理を行う点にある。
この特徴構成によれば、撮像した画像情報のみに基づいて画像認識を行うのではなく、地図情報から取得される画像情報の撮像位置周辺の地物に関する道路特徴情報を利用して画像情報の認識処理を行うので、撮像した画像情報のみによっては良好な画像認識を行うことが困難な場合であっても、前記地物に対応する認識対象物の画像の認識率を高めることができる。
さらに、地図情報から取得される道路特徴情報に基づいて認識対象物が存在すると推測される領域内について、他の領域よりも認識対象物を認識し易くなるように認識アルゴリズムを調整して画像認識を行うので、撮影時の天候や明るさ等の条件により、或いは認識対象物やその周辺の状態や種類等により認識対象物とその周辺とで輝度や色彩等の差が小さい場合等であっても、認識対象物の認識率を高めることができる。
ここで、前記画像情報認識手段は、前記認識処理と組み合わせて、前記画像情報から前記認識対象物の画像候補を抽出して前記道路特徴情報と対比し、前記道路特徴情報との整合性が高い前記画像候補を前記認識対象物の画像として認識する認識処理を行う構成とすることが可能である。
これにより、地図情報から取得される道路特徴情報との整合性が高い画像候補を認識対象物の画像として認識するので、認識対象物と誤認し易い画像的な特徴を有する物が撮像された画像情報に含まれる場合等であっても、誤認識を大幅に減少させることができ、認識対象物の認識率を高めることができる。
また、前記道路特徴情報は、前記地物に関する位置情報と、形状情報及び色彩情報の少なくとも一方とを含む構成とすれば、道路特徴情報を、撮像された画像情報と容易に対比可能な形で取得することができる。
ここで、前記地物としては、例えば、道路の路面に設けられた区画線や進行方向別通行区分表示等のペイント表示及び道路に隣接する路肩や歩道等の走行不可能領域の一方又は双方が含まれる。
本発明に係る画像認識装置の更なる特徴構成は、道路上で撮像した画像情報を取り込む画像情報取得手段と、地図情報から前記画像情報の撮像位置周辺の第一及び第二の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、前記画像情報の中に含まれる、認識が比較的容易な前記第一の地物に対応する第一の認識対象物の画像を認識する第一対象物認識手段と、前記第一対象物認識手段による前記第一の認識対象物の画像の認識結果と、前記道路特徴情報取得手段により取得された前記第一の地物に関する前記道路特徴情報とを対比し、前記画像情報と前記道路特徴情報との照合を行う道路特徴情報照合手段と、前記道路特徴情報照合手段による照合結果に基づいて、前記画像情報中における、前記第一の認識対象物より認識が困難な前記第二の地物に対応する第二の認識対象物の画像が存在する領域を推測する領域推測手段と、前記領域推測手段による推測結果に基づいて、前記第二の認識対象物の画像が存在すると推測される領域内では前記第二の認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、前記画像情報の中に含まれる前記第二の認識対象物の画像の認識を行う第二対象物認識手段と、を備える点にある。
この特徴構成によれば、認識が比較的容易な第一の地物に対応する第一の認識対象物の画像の認識結果と、前記第一の地物に関する道路特徴情報とを対比して画像情報と道路特徴情報との照合を行い、その照合結果に基づいて第二の認識対象物の画像が存在する領域を推測するので、第二の認識対象物の画像が存在する領域を正確に推測することが可能となる。そして、この推測結果に基づいて第二の認識対象物が存在すると推測される領域内について、他の領域よりも第二の認識対象物を認識し易くなるように認識アルゴリズムを調整して画像認識を行うので、第一の認識対象物より認識が困難な第二の認識対象物の認識率を高めることができる。
ここで、前記第一対象物認識手段は、前記画像情報から前記第一の認識対象物の画像候補を抽出し、前記道路特徴情報照合手段は、前記第一の認識対象物の画像候補と前記道路特徴情報取得手段により取得された前記第一の地物に関する前記道路特徴情報とを対比し、整合性が高い前記第一の認識対象物の画像候補を前記第一の認識対象物の画像として認識し、認識された前記第一の認識対象物の画像を基準として前記画像情報と前記道路特徴情報との照合を行う構成とすると好適である。
これにより、地図情報から取得される道路特徴情報との整合性が高い画像候補を第一の認識対象物の画像として認識するので、第一の認識対象物と誤認し易い画像的な特徴を有する物が撮像された画像情報に含まれる場合等であっても、第一の認識対象物の認識率を高めることができる。そして、このように認識された第一の認識対象物の画像を基準として画像情報と地図情報との照合を行うので、画像情報と地図情報との照合をより高い精度で行うことができる。
また、前記道路特徴情報は、前記第一及び第二の地物に関する位置情報と、形状情報及び色彩情報の少なくとも一方とを含む構成とすれば、道路特徴情報を、撮像された画像情報と容易に対比可能な形で取得することができ、第一及び第二の認識対象物の認識処理の負荷を軽減することが可能となる。
ここで、認識が比較的容易な第一の地物としては、例えば道路の路面に設けられた区画線や進行方向別通行区分表示等のペイント表示が該当し、第一の地物より認識が困難な第二の地物としては、例えば道路に隣接する路肩や歩道等の走行不可能領域が該当する。
また、前記道路特徴情報取得手段は、ナビゲーション装置を構成する地図情報データベースが有する地図情報から、前記撮像装置による前記画像情報の撮像時に、前記ナビゲーション装置を構成する位置情報取得手段により取得された位置周辺の前記道路特徴情報を取得する構成とすること好適である。
これにより、ナビゲーション装置に必須の構成を利用して道路特徴情報を容易に取得することができる。したがって、画像認識装置の専用の構成として道路特徴情報を有する地図情報のデータベース及び画像情報の撮像位置の認識装置等を設ける必要がなく、画像認識装置を安価に構成することができる。
また、前記画像情報取得手段は、車両に搭載した撮像装置により撮像した画像情報を所定の時間間隔で取り込む構成とすること好適である。
これにより、本発明に係る画像認識装置が車両に搭載されたこと等によって移動する場合に、移動中の道路の画像認識をリアルタイムで行うことができる。
本発明に係る車両制御装置の特徴構成は、上記の画像認識装置を備えるとともに、前記画像情報認識手段による認識結果に基づいて車両の走行制御を行う走行制御手段を備える点にある。
この特徴構成によれば、画像情報の認識結果に基づいて車両の周囲の状態を認識することができるので、例えばレーンキープや衝突防止等のための操舵や加減速等といった車両の走行制御を好適に行うことが可能となる。
本発明に係るナビゲーション装置の特徴構成は、上記の画像認識装置を備えるとともに、前記地図情報を有する地図情報データベースと、自位置情報を取得する位置情報取得手段と、前記画像情報認識手段による認識結果に基づいて前記自位置情報を補正する自位置補正手段と、を備える点にある。
この特徴構成によれば、画像情報の認識結果に基づいて自位置をより詳細に認識することができるので、ナビゲーション装置において、例えば車線単位等での自位置の詳細な表示を行うことや、詳細に認識される自位置の情報に基づいて最適なタイミングで経路案内を行うこと等が可能となる。
本発明に係る画像認識方法の特徴構成は、道路上で撮像した画像情報を取り込む画像情報取得工程と、地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得工程と、前記道路特徴情報を用いて前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識工程と、を有し、前記画像情報認識工程は、前記道路特徴情報に基づいて前記画像情報中における前記認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、前記認識対象物の画像が存在すると推測される領域内では前記認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して前記認識対象物の画像を認識する認識処理工程を含む点にある。
この特徴構成によれば、撮像した画像情報のみに基づいて画像認識を行うのではなく、地図情報から取得される画像情報の撮像位置周辺の地物に関する道路特徴情報を利用して画像情報の認識処理を行うので、撮像した画像情報のみによっては良好な画像認識を行うことが困難な場合であっても、前記地物に対応する認識対象物の画像の認識率を高めることができる。
さらに、地図情報から取得される道路特徴情報に基づいて認識対象物が存在すると推測される領域内について、他の領域よりも認識対象物を認識し易くなるように認識アルゴリズムを調整して画像認識を行うので、撮影時の天候や明るさ等の条件により、或いは認識対象物やその周辺の状態や種類等により認識対象物とその周辺とで輝度や色彩等の差が小さい場合等であっても、認識対象物の認識率を高めることができる。
本発明に係る画像認識方法の更なる特徴構成は、道路上で撮像した画像情報を取り込む画像情報取得工程と、地図情報から前記画像情報の撮像位置周辺の第一及び第二の地物に関する道路特徴情報を取得する道路特徴情報取得工程と、前記画像情報の中に含まれる、認識が比較的容易な前記第一の地物に対応する第一の認識対象物の画像を認識する第一対象物認識工程と、前記第一対象物認識工程による前記第一の認識対象物の画像の認識結果と、前記道路特徴情報取得工程により取得された前記第一の認識対象物に関する前記道路特徴情報とを対比し、前記画像情報と前記道路特徴情報との照合を行う道路特徴情報照合工程と、前記道路特徴情報照合工程による照合結果に基づいて、前記画像情報中における、前記第一の認識対象物より認識が困難な前記第二の地物に対応する第二の認識対象物の画像が存在する領域を推測する領域推測工程と、前記領域推測工程による推測結果に基づいて、前記第二の認識対象物の画像が存在すると推測される領域内では前記第二の認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、前記画像情報の中に含まれる前記第二の認識対象物の画像の認識を行う第二対象物認識工程と、を有する点にある。
この特徴構成によれば、認識が比較的容易な第一の地物に対応する第一の認識対象物の画像の認識結果と、当該第一の地物に関する道路特徴情報とを対比して画像情報と道路特徴情報との照合を行い、その照合結果に基づいて第二の認識対象物の画像が存在する領域を推測するので、第二の認識対象物の画像が存在する領域を正確に推測することが可能となる。そして、この推測結果に基づいて第二の認識対象物が存在すると推測される領域内について、他の領域よりも第二の認識対象物を認識し易くなるように認識アルゴリズムを調整して画像認識を行うので、第一の認識対象物より認識が困難な第二の認識対象物の認識率を高めることができる。
以下に、本発明の実施の形態について図面に基づいて説明する。
本実施形態では、本発明に係る画像認識装置1を車両Mに搭載した場合を例として説明する。図1は、本実施形態に係る画像認識装置1のハードウエア構成の概略を示すブロック図である。
この図1に示すように、本実施形態に係る画像認識装置1は、主たる構成として、車両M(図2参照)に搭載された撮像装置2からの画像情報Gを取り込む画像情報取得部3と、GPS(グローバル・ポジショニング・システム)受信機4、方位センサ5及び距離センサ6からの出力に基づいて撮像装置2による撮像位置を特定するための演算を行う位置特定演算部7と、地図情報データベース8に格納されている地図情報から撮像装置2による撮像位置周辺の地物に関する道路特徴情報Cを取得するための演算を行う道路特徴情報取得演算部9と、取得された道路特徴情報Cを用いて画像情報Gの認識処理を行い、画像情報Gの中に含まれる前記地物に対応する認識対象物の画像を認識するための演算を行う画像情報認識演算部10と、を備えている。
ここで、位置特定演算部7、GPS受信機4、方位センサ5、距離センサ6、及び地図情報データベース8は、車両に搭載され、車両の経路案内等を行うためのナビゲーション装置の構成を利用することができる。この場合、位置特定演算部7、GPS受信機4、方位センサ5、距離センサ6等が、本発明における「位置情報取得手段」に相当する。
撮像装置2は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置2は、車両Mの、例えば図2のQ1〜Q3で示す位置に前方や後方に向けて配置され、車両Mが走行する道路11の路面及びその周囲が撮影されるように設けられる。このような撮像装置2としては、車両Mの前方や後方等の映像を撮像するためにこれまでにも設けられている車載カメラ等が好適に用いられる。
画像情報取得部3は、撮像装置2と接続するためのインターフェース回路12と、撮像装置2からの画像情報Gに対して前処理を行う画像前処理回路13と、前処理後の画像情報Gを格納する画像メモリ14とを有している。インターフェース回路12は、アナログ/デジタル・コンバータ等を備えており、撮像装置2により撮像したアナログの画像情報Gを所定の時間間隔で取り込み、デジタル信号に変換して画像前処理回路13へ出力する。このインターフェース回路12による画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部3は、車両Mが走行中の道路11の画像情報をほぼ連続的に取得することができる。画像前処理回路13は、ここでは画像情報Gに対する前処理として二値化処理、エッジ検出処理等の画像情報認識演算部10による画像認識を容易にするための処理を行う。そして、このような前処理後の画像情報Gが画像メモリ14に格納される。
また、インターフェース回路12は、画像前処理回路13へ送る画像情報Gとは別に、直接画像メモリ14へも画像情報Gを出力する。したがって、画像メモリ14には、画像前処理回路13により前処理を行った後の画像情報G2と、前処理を行っていないそのままの画像情報G1との両方が格納されることになる。
本実施形態においては、この画像情報取得部3が、本発明における「画像情報取得手段」を構成する。
位置特定演算部7は、本実施形態においては、GPS受信機4、方位センサ5、及び距離センサ6と接続されている。ここで、GPS受信機4は、GPS衛星からの信号を受信する装置であり、GPS受信機4の位置(緯度及び経度)や移動速度など様々な情報を得ることができる。方位センサ5は、地磁気センサやジャイロセンサ、或いは、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、車両Mの進行方向を検知することができる。距離センサ6は、車輪の回転数を検知する車速センサや車両Mの加速度を検知するヨー・Gセンサと、検知された加速度を2回積分する回路との組み合わせ等により構成され、車両Mの移動距離を検知することができる。そして、位置特定演算部7は、これらのGPS受信機4、方位センサ5及び距離センサ6からの出力に基づいて、車両Mの現在位置を特定する演算を行う。こうして演算された車両Mの位置が撮像装置2の位置となる。
また、位置特定演算部7は、画像情報取得部3のインターフェース回路12とも接続されている。このインターフェース回路12は、撮像装置2による撮像のタイミングで位置特定演算部7に対して信号の出力を行う。したがって、位置特定演算部7は、このインターフェース回路12からの信号の入力を受けたタイミングでの撮像装置2の位置を演算することにより、画像情報Gの撮像位置を特定することができる。このようにして位置特定演算部7により特定された画像情報Gの撮像位置は緯度及び経度で表され、道路特徴情報取得演算部9に出力される。
この位置特定演算部7は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
道路特徴情報取得演算部9は、位置特定演算部7及び地図情報データベース8と接続されている。
図3は、地図情報データベース8に格納されている地図情報の内容を示す説明図である。この図に示すように、本実施形態に係る地図情報データベース8には、地図情報として、道路ネットワークレイヤL1、道路形状レイヤL2、地物レイヤL3が格納されている。
道路ネットワークレイヤL1は、道路11間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路11を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路11の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。
道路形状レイヤL2は、道路ネットワークレイヤL1に関連付けられて格納され、道路11の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報と、各道路形状補完点Sにおける道路幅Wの情報とを有して構成されている。
地物レイヤL3は、道路ネットワークレイヤL1及び道路形状レイヤL2に関連付けられて格納され、道路11上及び道路11の周辺に設けられた各種地物の情報を示すレイヤである。この地物レイヤL3に格納する地物情報としては、少なくともこの画像認識装置1において認識対象物となり得る地物に関する位置、形状、色彩等の情報が格納されている。本実施形態においては、具体的には、道路11の路面に設けられたペイント表示P、道路11に隣接する走行不可能領域I、道路11上に設けられた各種の標識15や信号機16等の各種地物について、道路形状補完点S又はノードNを基準とした地図上の位置、並びに形状及び色彩等の地物情報を有して構成されている。ここで、ペイント表示Pには、例えば、車線を分ける区画線(実線、破線、二重線等の区画線の種類の情報も含む。)、ゼブラゾーン、各レーンの進行方向を指定する進行方向別通行区分表示、停止線、横断歩道、速度表示等が含まれる。また、正確にはペイントによるものではないが、同じく道路11の路面に設けられるマンホールもここではペイント表示Pに含めることとする。走行不可能領域Iには、例えば、道路に隣接する路肩、歩道、分離帯等が含まれる。
なお、地図情報データベース8は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。
そして、道路特徴情報取得演算部9は、位置特定演算部7により特定された画像情報Gの撮像位置を示す緯度及び経度の情報に基づいて、地図情報データベース8に格納されている地図情報から、画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを取得するための演算を行う。ここでは、道路特徴情報取得演算部9は、画像情報Gの撮像位置周辺の、少なくとも撮像装置2による撮像領域を含む領域内に含まれる地物の位置、形状、色彩等の地物情報を、道路特徴情報Cとして地図情報データベース8の地物レイヤL3から抽出する演算処理を行う。
この道路特徴情報取得演算部9は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
本実施形態においては、この道路特徴情報取得演算部9が、本発明における「道路特徴情報取得手段」を構成する。
画像情報認識演算部10は、画像情報取得部3の画像メモリ14及び道路特徴情報取得演算部9と接続されている。そして、画像情報認識演算部10は、道路特徴情報取得演算部9により取得された道路特徴情報Cを用いて画像情報Gの認識処理を行い、画像情報Gの中に含まれる認識対象物の画像を認識するための演算を行う。
また、この画像情報認識演算部10において画像認識を行う認識対象物は、上述したペイント表示P、走行不可能領域I、及び各種の標識15や信号機16等の地物レイヤL3に地物情報として格納されている地物に対応するものとする。
この画像情報認識演算部10は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装された構成を備えている。
本実施形態においては、この画像情報認識演算部10が、本発明における「画像情報認識手段」を構成する。
画像情報認識演算部10における道路特徴情報Cを用いた画像情報Gの認識処理の具体的方法として、この画像認識装置1では、以下の2つの方法をそれぞれ単独で或いはこれらを組み合わせて用いる。
第一の画像認識処理方法は、画像情報Gから認識対象物の画像候補を抽出して道路特徴情報Cと対比し、道路特徴情報Cとの整合性が高い画像候補を認識対象物の画像として認識する処理方法である。
また、第二の画像認識処理方法は、道路特徴情報Cに基づいて画像情報G中における認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、認識対象物の画像が存在すると推測される領域内では認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、画像情報Gの中から認識対象物の画像を認識する処理方法である。
本実施形態においては、後にフローチャートを用いて説明するように、画像情報認識演算部10は、これらの第一及び第二の画像認識処理方法を組み合わせて、道路11の路面に設けられたペイント表示Pと、道路11に隣接する走行不可能領域Iとを認識する処理を行う。そのため、この画像情報認識演算部10は、ペイント表示認識演算部10a、道路特徴情報照合部10b、領域推測部10c、及び走行不可能領域認識部10dを備えている。
そこで、次に、これらの第一及び第二の画像認識処理方法を組み合わせて、道路11の路面に設けられたペイント表示Pと、道路11に隣接する走行不可能領域Iとを認識する場合の具体的な画像認識処理の各工程について、図4に示すフローチャートを用いて詳細に説明する。
なお、この画像認識処理の例において、ペイント表示Pは、道路11の路面との輝度や色彩の差が大きく画像認識が比較的容易であるため、本発明における「第一の認識対象物」に相当する。一方、路肩、歩道、分離帯等の走行不可能領域Iは、道路11やその周囲との輝度や色彩の差が小さいためにエッジ検出等によっても輪郭を特定することが困難な場合が多く、画像認識がペイント表示Pよりも困難であるため、本発明における「第二の認識対象物」に相当する。
図4に示すように、画像認識装置1は、まず、撮像装置2により撮像された画像情報Gを取り込む処理を行う(ステップ#01)。具体的には、車載カメラ等からなる撮像装置2により撮像した画像情報Gをインターフェース回路12を介して画像前処理回路13及び画像メモリ14に送る処理を行う。またこの際、インターフェース回路12は、撮像装置2からの画像情報Gの取り込みのタイミングで、すなわち撮像装置2による撮像のタイミングとほぼ同じタイミングで、位置特定演算部7に対して信号の出力を行う。この信号は位置特定演算部7に対して撮像のタイミングを知らせるための信号である。
画像情報Gの入力を受けた画像前処理回路13では、画像情報Gに対する前処理を行う(ステップ#02)。ここで行う前処理としては、例えば、二値化処理やエッジ検出処理等の画像情報認識演算部10による画像認識を容易にするための各種の処理を行う。図5(a)は、撮像装置2により撮像された画像情報G(G1)の一例であり、図5(b)は、(a)に示された画像情報Gに対して前処理を行った後の画像情報G(G2)の一例である。この図5(b)に示す例では、エッジ検出処理により画像情報Gとして撮像された物の輪郭を示す画像が抽出されている。そして、このステップ#02において前処理が行われた後の画像情報G2、及びインターフェース回路12から直接送られてきた画像情報G1が画像メモリ14に格納される(ステップ#03)。
また、ステップ#02及び#03の処理と並行して、位置特定演算部7では、画像情報Gの撮像位置を特定する処理を行う(ステップ#04)。具体的には、インターフェース回路12から画像情報Gの取り込みのタイミングを示す信号が出力された時に、それを撮像装置2による撮像のタイミングとして、GPS受信機4、方位センサ5及び距離センサ6に基づいて車両Mの現在位置を特定する演算を行う。そして、これにより特定された車両Mの現在位置を画像情報Gの撮像位置とする。ここで特定された撮像位置の情報は、緯度及び経度の情報として道路特徴情報取得演算部9に送られる。
次に、道路特徴情報取得演算部9において、地図情報データベース8に格納されている地図情報から画像情報Gの撮像位置周辺の地物に関する道路特徴情報Cを取得する処理を行う(ステップ#05)。この際、道路特徴情報取得演算部9は、地図情報データベース8に格納されている広範囲の地図情報の中から、ステップ#04において特定された撮像位置の周辺の一定範囲R内の道路特徴情報Cを抽出して取得する。ここで、撮像位置周辺の一定範囲Rとしては、撮像装置2により画像情報Gとして撮像される領域を含むように設定すると好適である。
図6は、道路特徴情報取得演算部9により取得された道路特徴情報Cの一例を図形化して示したものである。本例では、道路特徴情報Cに含まれる地物としては、ペイント表示Pとして、片側3車線の道路11の車道の外縁を示す2本の実線の区画線P1a、P1bと、3車線の間を区切る2本の破線の区画線P2a、P2bと、3車線のうちの左側車線に設けられたマンホールP3とがある。また、走行不可能領域Iとして、道路11の左側に隣接する歩道I1と、道路11の右側に隣接する中央分離帯I2とがある。なお、この図6は単なる一例であり、画像情報Gの撮像位置によって様々な地物が道路特徴情報Cに含まれることになる。
そして、この道路特徴情報Cの内容は、これらの各地物の位置情報、形状情報及び色彩情報により構成されている。ここで、各地物の位置情報は、道路形状補完点S(交差点等のノードNが存在する場所ではノードN(図3参照)も含む。)を基準とする位置情報により表される。すなわち、例えば、ペイント表示Pのうちの実線の区画線P1a、P1bや破線の区画線P2a、P2b、或いは走行不可能領域Iの歩道I1や中央分離帯I2等の道路11に沿って設けられている地物については、道路形状補完点S(又はノードN)からの距離(オフセット量)のみにより表される。一方、例えば、道路11に沿って設けられないマンホールP3や、停止線、標識等の地物については、特定の道路形状補完点S(又はノードN)からの距離及び方向により位置情報を表される。
また、各地物の形状情報は、上記位置情報により特定される位置を基準として縦、横、高さ方向にそれぞれどれだけの大きさを有し、どのような形状(シルエット)を備えているか等の情報を有する。この形状情報は、画像情報Gとの対比が容易となるように簡略化して表された情報とすると好適である。
各地物の色彩情報は、例えば道路標識等の一様な色彩でない地物の場合には、上記形状情報の中の領域毎に色彩情報が格納された情報とすると好適である。
次に、画像情報認識演算部10のペイント表示認識演算部10aにおいて、画像情報Gの中に含まれるペイント表示Pの画像を認識する処理を行う(ステップ#06)。本実施形態においては、ステップ#02において前処理を行った後の画像情報G2の中からペイント表示Pの可能性がある画像候補を抽出する処理までをこのステップで行うこととする。ここでは、具体的には、図5(b)に示されるようにエッジ検出処理等の前処理を行った後の画像情報G2の中から、区画線やマンホール等のペイント表示Pの特徴を表すテンプレート等の予め規定された特徴データと整合性が高い画像を抽出し、それをペイント表示Pの画像候補とする処理を行う。図5に示す例では、前方を走行する車両の画像GS及びそれと重なっている右側の破線の区画線の画像GP2bは除外され、それ以外の画像、すなわち、左側の破線の区画線の画像GP2a、左側の実線の区画線の画像GP1a、その外側にある歩道の縁石の画像GI1a、右側の実線の区画線の画像GP1b、及びマンホールの画像GP3がペイント表示Pの画像候補として抽出される。
上記のとおり、本例ではペイント表示Pが本発明における「第一の認識対象物」に相当するので、このペイント表示Pの画像認識を行うペイント表示認識演算部10aが、本発明における「第一対象物認識手段」を構成する。
その後、画像情報認識演算部10の道路特徴情報照合部10bにおいて、ステップ#06におけるペイント表示Pの画像の認識結果と、ステップ#05により取得された道路特徴情報Cの中のペイント表示Pに関するものとを対比し、画像情報Gと道路特徴情報Cとの照合を行う(ステップ#07)。本実施形態においては、ペイント表示Pの画像候補とペイント表示Pに関する道路特徴情報Cとを対比し、整合性が高いペイント表示Pの画像候補をペイント表示Pの画像として認識し、認識されたペイント表示Pの画像を基準として画像情報Gと道路特徴情報Cとの照合を行う。
したがって、本実施形態においては、この道路特徴情報照合部10bが、本発明における「道路特徴情報照合手段」を構成する。
本実施形態におけるステップ#07の処理のフローチャートを図7に示す。この図に示すように、このステップ#07の処理は、まずステップ#06で抽出されたペイント表示Pの画像候補と、ステップ#05で取得された道路特徴情報Cの中のペイント表示Pに関する情報とを対比し(ステップ#71)、位置関係、形状、及び色彩や輝度等の各情報についての整合性が高い画像候補を抽出する(ステップ#72)。図6に示す例では、ペイント表示Pに関する道路特徴情報Cに基づいて、実線及び破線の区画線P1a、P1b、P2a、P2bの位置関係(間隔)、これらの区画線P1a、P1b、P2a、P2bとマンホールP3との位置関係、並びにこれらの区画線P1a、P1b、P2a、P2b及びマンホールP3の形状及び色彩や輝度等がわかる。したがって、これらの道路特徴情報Cと整合性が高い画像情報G中のペイント表示Pの画像候補を抽出することで、ペイント表示Pの可能性が高い画像候補のみを抽出することができる。図5に示す例の場合、このステップ#72の処理により、左側の実線の区画線の画像GP1aの外側にある歩道の縁石の画像GI1aが除外される。そして、このように抽出された画像候補をペイント表示Pの画像と認識する。なお、ペイント表示Pの画像候補の色彩や輝度等の情報は、画像メモリ14に格納されている前処理が行われていない画像情報Gから取得することができる。
図8(a)は、画像情報Gからステップ#72の処理により抽出されたペイント表示Pの画像のみを表した図である。なお、右側の破線の区画線の画像GP2bは、車両の画像GSとともにペイント表示Pの画像候補から除外されているので、ここで抽出されたペイント表示Pの画像には含まれない(なお、図8(a)においては点線で示している)。
次に、認識されたペイント表示Pの画像を基準として、画像情報Gと道路特徴情報Cとの照合を行う(ステップ#73)。すなわち、画像情報G中における認識されたペイント表示Pの画像の位置と、道路特徴情報Cに含まれるペイント表示Pの位置とが合致するように対応付けることにより、道路特徴情報Cに含まれる各地物の情報と画像情報Gに含まれる画像とを対応付けることが可能になる。この際、道路11に沿って設けられている区画線GP1a、GP2a等の地物を基準とすることにより道路11の幅方向の位置関係を正確に対応付けることができ、道路11に沿って設けられないマンホールP3や、図示しない停止線、標識等の地物を基準とすることにより道路11に沿った方向の位置関係を正確に対応付けることができる。
その後、図4に示すように、画像情報認識演算部10の領域推測部10cにおいて、ステップ#07における道路特徴情報Cと画像情報Gとの照合結果に基づいて、画像情報G中における走行不可能領域Iの画像が存在する領域を推測する処理を行う(ステップ#08)。すなわち、上記のステップ#07における画像情報Gと道路特徴情報Cとの照合結果に基づけば、画像情報Gの中におけるペイント表示Pや走行不可能領域Iを含む各地物の画像の配置が推測可能である。そこで、道路特徴情報Cに含まれる走行不可能領域Iの位置及び形状に対応する画像情報G中の領域を、ステップ#07における照合結果から推測する演算を行う。そして、このステップ#08の処理の結果として演算される領域を、走行不可能領域Iの画像が存在する領域と推測する。
本実施形態においては、図8(b)に示すように、画像情報Gとして撮像された画像範囲を、ステップ#72の処理により抽出されたペイント表示Pの中の区画線P1a、P1b、P2aに基づいて、区画線P1a、P1b、P2aのそれぞれが属する領域A1〜A3と、これらの領域A1〜A3により挟まれた領域A4〜A7とに簡易的に区分している。そして、それぞれの領域A4〜A7が走行不可能領域Iを含むか否かという判断をステップ#07における照合結果に基づいて行うことにより、走行不可能領域Iの画像が存在する領域を推測する処理を行う。ここでは、図6に示されるように、道路特徴情報Cに基づいて、道路11の両側の実線の区画線P1a、P1bの外側にそれぞれ走行不可能領域Iが存在していると判断することができるので、当該道路11の両側の実線の区画線P1a、P1bが属する領域A1及びA3の外側の領域A4及びA7内に走行不可能領域Iの画像が存在と推測できる。
次に、ステップ#08の推測結果に基づいて、画像情報認識演算部10の走行不可能領域認識部10dにおける認識アルゴリズムを調整し(ステップ#09)、画像情報Gの中に含まれる走行不可能領域Iの画像の認識を行う(ステップ#10)。
本実施形態においては、ステップ#08において走行不可能領域Iの画像が存在すると推測された領域A4及びA7内について、走行不可能領域Iであるか否かの判断基準が他の領域(ここでは領域A5及びA6)よりも低くなるように認識アルゴリズムを調整する。すなわち、上述のとおり、歩道I1、分離帯I2、路肩等の走行不可能領域Iは、道路11やその周囲との輝度や色彩の差が小さいためにエッジ検出等によっても輪郭を特定することが困難な場合が多く、ペイント表示Pよりも画像認識が一般的に困難である。そこで、走行不可能領域Iの画像が存在すると推測された領域A4及びA7について、他の領域よりも走行不可能領域Iと認識しやすくする方向に認識アルゴリズムを調整することにより、走行不可能領域Iの認識率を高めることができる。
なお、走行不可能領域Iであるか否かの判断基準が他の領域よりも低くなるように認識アルゴリズムを調整するためには、走行不可能領域Iの画像が存在すると推測された領域A4及びA7における判断基準を他の領域に対して低くする方法の他に、他の領域の判断基準を領域A4及びA7に対して高くする方法や、領域A4及びA7における判断基準を他の領域に対して低くするとともに他の領域の判断基準を領域A4及びA7に対して高くする方法等がある。この認識アルゴリズムの具体的な調整方法は、走行不可能領域Iの認識方法に応じた方法とする。
例えば、本実施形態においては、走行不可能領域Iの画像の認識アルゴリズムとして、画像情報Gに対してエッジ検出処理を行い、道路11の幅方向の各位置におけるエッジ点数を検出し、このエッジ点数が所定のしきい値以上となっている場所が走行不可能領域Iであると認識するアルゴリズムとしている。そして、この際のしきい値として、図9に示すように、低い値に設定された第一しきい値t1と、高い値に設定された第二しきい値t2とを用いている。すなわち、走行不可能領域Iの画像が存在すると推測された領域A4及びA7内では第一しきい値t1を用い、それ以外の領域A5及びA6内では第二しきい値t2を用いることにより、走行不可能領域Iの画像が存在すると推測された領域A4及びA7内について、走行不可能領域Iであるか否かの判断基準が他の領域A5及びA6よりも低くなるように認識アルゴリズムを調整している。
図9は、図5に示す画像情報Gについて、道路11の幅方向の各位置におけるエッジ点数を検出した結果を示すグラフである。この図に示すように、領域A1〜A3は、区画線P1a、P1b、P2aが存在するのでエッジ点数は多くなっていが、これらの領域A1〜A3は走行不可能領域Iの画像認識の対象とはならない。領域A5は、マンホールP3が存在する位置以外はアスファルトの路面のみであるので全体的にエッジ点数は少なくなっている。
一方、領域A4、A6、及びA7は、エッジ点数はある程度多くなっている。結論からいうと、領域A4及びA7はそれぞれ歩道I1又は中央分離帯I2といった走行不可能領域Iが存在することによりエッジ点数が多くなっているのに対して、領域A6は前方の車両の画像Gs及びその車両の画像Gsに隠れた破線の区画線GP2bが存在することによりエッジ点数が多くなっている。しかし、エッジ点数のみからそれが走行不可能領域Iであるか否かを判断することは困難である。
そこで、ステップ#08の推測結果に基づいて、走行不可能領域Iの画像が存在すると推測された領域A4及びA7内については、走行不可能領域Iであると判断するしきい値を低い値に設定された第一しきい値t1とし、その他の領域A5及びA6内については、走行不可能領域Iであると判断するしきい値を高い値に設定された第二しきい値t2としている。これにより、ステップ#08の推測結果に基づいて、走行不可能領域Iの画像が存在すると推測された領域A4及びA7内で走行不可能領域Iの検出漏れを減らすとともに、それ以外の領域A5及びA6内で走行不可能領域Iと誤検出することを防止できる。したがって、走行不可能領域Iの認識率を高めることができる。これらの第一しきい値t1及び第二しきい値t2の値は、実験的及び統計的に適切な値を求めるとよい。また、これらの第一しきい値t1及び第二しきい値t2の値を、画像情報Gから抽出される他の情報や車両Mに搭載された他のセンサからの信号等に基づいて変化する可変値とすることも好適な実施形態の一つである。
このような走行不可能領域Iの画像の認識処理により、路肩、歩道、分離帯等の走行不可能領域Iの画像認識を高い精度で行うことが可能となる。本実施形態においては、図10に示すように、ステップ#72の処理により抽出されたペイント表示Pの画像に加えて、区画線P1aの画像GP1aの左側に歩道I1の画像GI1が、区画線P1bの画像GP1bの右側に中央分離帯I2の画像GI2がそれぞれ認識されることになる。
以上に説明したステップ#01〜#10の一連の工程は、所定の時間間隔で繰り返し行われる。これにより、走行中の車両Mによるリアルタイムの画像認識を実現することができる。
そして、この画像認識装置1は、車両Mの走行制御を行う車両制御装置や、自位置の表示等を行うナビゲーション装置等に適用することができる。例えば、この画像認識装置1を車両制御装置に適用する場合には、画像情報認識演算部10による画像認識結果に基づいて、車両Mの周囲の状況、例えば、車両Mから歩道や分離帯等の走行不可能領域Iまでの距離及び方向、停止線、区画線、横断歩道等までの距離及び方向等を認識することができるので、例えばレーンキープ、衝突防止、事故防止等のための操舵や加減速等といった車両の走行制御を好適に行うことが可能となる。
また、例えば、この画像認識装置1をナビゲーション装置に適用する場合には、画像情報認識演算部10による画像認識結果に基づいて従来のGPS受信機4、方位センサ5、及び距離センサ6等のみによる場合よりも自位置をより詳細に認識することができるので、例えば車線単位等での自位置の詳細な表示を行うことや、詳細に認識される自位置の情報に基づいて最適なタイミングで経路案内を行うこと等が可能となる。
〔その他の実施形態〕
(1)上記のとおり、図4のフローチャートに示す実施形態では、第一の画像認識処理方法と第二の画像認識処理方法とを組み合わせて、道路11の路面に設けられたペイント表示Pと、道路11に隣接する走行不可能領域Iとを認識する場合について説明したが、第一の画像認識処理方法のみを用いてペイント表示Pや走行不可能領域Iの画像候補を抽出して道路特徴情報Cと対比し、道路特徴情報Cとの整合性が高い画像候補をペイント表示Pや走行不可能領域Iの画像として認識する画像認識を行うことも当然に可能である。
また、第二の画像認識処理方法のみを用いてペイント表示Pや走行不可能領域Iの画像認識を行うことも可能である。すなわち、位置特定演算部7により特定された撮像位置と道路特徴情報Cとに基づいて画像情報G中におけるペイント表示Pや走行不可能領域Iの画像が存在する領域を推測し、その推測結果に基づいて、ペイント表示Pや走行不可能領域Iの画像が存在すると推測される領域内ではペイント表示Pや走行不可能領域Iであるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、画像情報Gの中から認識対象物の画像を認識する画像認識を行うことも可能である。
(2)上記の実施形態においては、画像認識装置1を車両Mに搭載した場合を例として説明したが、この画像認識装置1の用途は車両Mに搭載されるものに限定されない。すなわち、本発明に係る画像認識装置1は、撮像装置2が道路上を移動する場合に好適に用いることができる。また、道路上で撮像された静止画の画像認識を行うものとしても用いることが可能である。
また、画像認識装置1の全ての構成が車両Mに搭載されるとは限らない。すなわち、撮像装置2を除く一部の構成が、インターネット等の通信ネットワークを介して接続された状態で車両Mの外に設置されており、ネットワークを介して情報や信号の送受信を行うことにより、画像認識装置1を構成するものとすることもできる。この場合、例えば画像情報認識演算部10の機能を車外のサーバ等により実行させることも可能である。
本発明に係る画像認識装置及び画像認識方法は、例えば車両等に搭載された場合のように、道路上を移動する撮像装置により撮像された画像情報の認識処理を行う用途等に好適に用いることが可能である。
本発明の実施形態に係る画像認識装置のハードウエア構成の概略を示すブロック図 本発明の実施形態に係る画像認識装置における撮像装置の配置例を示す図 本発明の実施形態に係る画像認識装置における地図情報データベースに格納されている地図情報の内容を示す説明図 本発明の実施形態に係る画像認識装置における画像認識処理の具体例を示すフローチャート (a):撮像装置により撮像された画像情報の一例、(b):(a)に示された画像情報に対して前処理を行った後の画像情報の一例 本発明の実施形態に係る画像認識装置における道路特徴情報取得演算部により取得された道路特徴情報の一例を図形化して示した図 本発明の実施形態に係る画像認識装置における画像情報と道路特徴情報との照合の処理(ステップ#07)のフローチャート (a):画像情報からステップ#72の処理により抽出されたペイント表示の画像のみを表した図、(b):(a)に示された画像に基づいて区画線により領域を区分した状態を示す図 図5に示す画像情報について、道路の幅方向の各位置におけるエッジ点数を検出した結果を示すグラフ 本発明の実施形態に係る画像認識装置において、ステップ#7及びステップ#10の処理により認識された画像情報G中の画像を示す図
符号の説明
1:画像認識装置
2:撮像装置
3:画像情報取得部(画像情報取得手段)
7:位置特定演算部
8:地図情報データベース
9:道路特徴情報取得演算部(道路特徴情報取得手段)
10:画像情報認識演算部(画像情報認識手段)
10a:ペイント表示認識演算部(第一対象物認識手段)
10b:道路特徴情報照合部(道路特徴情報照合手段)
10c:領域推測部(領域推測手段)
10d:走行不可能領域認識部(第二対象物認識手段)
G:画像情報
C:道路特徴情報
P:ペイント表示
I:走行不可能領域

Claims (14)

  1. 道路上で撮像した画像情報を取り込む画像情報取得手段と、
    地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、
    前記道路特徴情報を用いて前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識手段と、
    を備え
    前記画像情報認識手段は、前記道路特徴情報に基づいて前記画像情報中における前記認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、前記認識対象物の画像が存在すると推測される領域内では前記認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して前記認識対象物の画像を認識する認識処理を行う画像認識装置。
  2. 前記画像情報認識手段は、前記認識処理と組み合わせて、前記画像情報から前記認識対象物の画像候補を抽出して前記道路特徴情報と対比し、前記道路特徴情報との整合性が高い前記画像候補を前記認識対象物の画像として認識する認識処理を行う請求項1に記載の画像認識装置。
  3. 前記道路特徴情報は、前記地物に関する位置情報と、形状情報及び色彩情報の少なくとも一方とを含む請求項1又は2に記載の画像認識装置。
  4. 前記地物として、道路の路面に設けられたペイント表示及び道路に隣接する走行不可能領域の一方又は双方を含む請求項1からの何れか一項に記載の画像認識装置。
  5. 道路上で撮像した画像情報を取り込む画像情報取得手段と、
    地図情報から前記画像情報の撮像位置周辺の第一及び第二の地物に関する道路特徴情報を取得する道路特徴情報取得手段と、
    前記画像情報の中に含まれる、認識が比較的容易な前記第一の地物に対応する第一の認識対象物の画像を認識する第一対象物認識手段と、
    前記第一対象物認識手段による前記第一の認識対象物の画像の認識結果と、前記道路特徴情報取得手段により取得された前記第一の地物に関する前記道路特徴情報とを対比し、前記画像情報と前記道路特徴情報との照合を行う道路特徴情報照合手段と、
    前記道路特徴情報照合手段による照合結果に基づいて、前記画像情報中における、前記第一の認識対象物より認識が困難な前記第二の地物に対応する第二の認識対象物の画像が存在する領域を推測する領域推測手段と、
    前記領域推測手段による推測結果に基づいて、前記第二の認識対象物の画像が存在すると推測される領域内では前記第二の認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、前記画像情報の中に含まれる前記第二の認識対象物の画像の認識を行う第二対象物認識手段と、
    を備える画像認識装置。
  6. 前記第一対象物認識手段は、前記画像情報から前記第一の認識対象物の画像候補を抽出し、
    前記道路特徴情報照合手段は、前記第一の認識対象物の画像候補と前記道路特徴情報取得手段により取得された前記第一の地物に関する前記道路特徴情報とを対比し、整合性が高い前記第一の認識対象物の画像候補を前記第一の認識対象物の画像として認識し、認識された前記第一の認識対象物の画像を基準として前記画像情報と前記道路特徴情報との照合を行う請求項に記載の画像認識装置。
  7. 前記道路特徴情報は、前記第一及び第二の地物に関する位置情報と、形状情報及び色彩情報の少なくとも一方とを含む請求項又はに記載の画像認識装置。
  8. 前記第一の地物は道路の路面に設けられたペイント表示であり、前記第二の地物は道路に隣接する走行不可能領域である請求項からの何れか一項に記載の画像認識装置。
  9. 前記道路特徴情報取得手段は、ナビゲーション装置を構成する地図情報データベースが有する地図情報から、前記撮像装置による前記画像情報の撮像時に、前記ナビゲーション装置を構成する位置情報取得手段により取得された位置周辺の前記道路特徴情報を取得する請求項1からの何れか一項に記載の画像認識装置。
  10. 前記画像情報取得手段は、車両に搭載した撮像装置により撮像した画像情報を所定の時間間隔で取り込む請求項1からの何れか一項に記載の画像認識装置。
  11. 請求項1に記載の画像認識装置を備えるとともに、
    前記画像情報認識手段による認識結果に基づいて車両の走行制御を行う走行制御手段を備える車両制御装置。
  12. 請求項1に記載の画像認識装置を備えるとともに、
    前記地図情報を有する地図情報データベースと、
    自位置情報を取得する位置情報取得手段と
    記画像情報認識手段による認識結果に基づいて前記自位置情報を補正する自位置補正手段と、を備えるナビゲーション装置。
  13. 道路上で撮像した画像情報を取り込む画像情報取得工程と、
    地図情報から前記画像情報の撮像位置周辺の地物に関する道路特徴情報を取得する道路特徴情報取得工程と、
    前記道路特徴情報を用いて前記画像情報の認識処理を行い、前記画像情報の中に含まれる前記地物に対応する認識対象物の画像を認識する画像情報認識工程と、
    を有し、
    前記画像情報認識工程は、前記道路特徴情報に基づいて前記画像情報中における前記認識対象物の画像が存在する領域を推測し、その推測結果に基づいて、前記認識対象物の画像が存在すると推測される領域内では前記認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して前記認識対象物の画像を認識する認識処理工程を含む画像認識方法。
  14. 道路上で撮像した画像情報を取り込む画像情報取得工程と、
    地図情報から前記画像情報の撮像位置周辺の第一及び第二の地物に関する道路特徴情報を取得する道路特徴情報取得工程と、
    前記画像情報の中に含まれる、認識が比較的容易な前記第一の地物に対応する第一の認識対象物の画像を認識する第一対象物認識工程と、
    前記第一対象物認識工程による前記第一の認識対象物の画像の認識結果と、前記道路特徴情報取得工程により取得された前記第一の認識対象物に関する前記道路特徴情報とを対比し、前記画像情報と前記道路特徴情報との照合を行う道路特徴情報照合工程と、
    前記道路特徴情報照合工程による照合結果に基づいて、前記画像情報中における、前記第一の認識対象物より認識が困難な前記第二の地物に対応する第二の認識対象物の画像が存在する領域を推測する領域推測工程と、
    前記領域推測工程による推測結果に基づいて、前記第二の認識対象物の画像が存在すると推測される領域内では前記第二の認識対象物であるか否かの判断基準が他の領域より低くなるように認識アルゴリズムを調整して、前記画像情報の中に含まれる前記第二の認識対象物の画像の認識を行う第二対象物認識工程と、
    を有する画像認識方法。
JP2005021337A 2005-01-28 2005-01-28 画像認識装置及び画像認識方法 Active JP4321821B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005021337A JP4321821B2 (ja) 2005-01-28 2005-01-28 画像認識装置及び画像認識方法
US11/338,712 US7668341B2 (en) 2005-01-28 2006-01-25 Image recognition apparatus and image recognition method
EP06001527.8A EP1686537B1 (en) 2005-01-28 2006-01-25 Image recognition apparatus and image recognition method
CNB2006100069534A CN100555311C (zh) 2005-01-28 2006-01-26 图像识别装置及图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005021337A JP4321821B2 (ja) 2005-01-28 2005-01-28 画像認識装置及び画像認識方法

Publications (2)

Publication Number Publication Date
JP2006209510A JP2006209510A (ja) 2006-08-10
JP4321821B2 true JP4321821B2 (ja) 2009-08-26

Family

ID=36540127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005021337A Active JP4321821B2 (ja) 2005-01-28 2005-01-28 画像認識装置及び画像認識方法

Country Status (4)

Country Link
US (1) US7668341B2 (ja)
EP (1) EP1686537B1 (ja)
JP (1) JP4321821B2 (ja)
CN (1) CN100555311C (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1536393A4 (en) * 2002-07-03 2009-11-18 Iwane Lab Ltd AUTOMATIC GUIDING APPARATUS FOR PUBLIC TRANSPORT
JP4631750B2 (ja) * 2006-03-06 2011-02-16 トヨタ自動車株式会社 画像処理システム
JP4248558B2 (ja) * 2006-03-24 2009-04-02 トヨタ自動車株式会社 道路区画線検出装置
JP4861850B2 (ja) * 2007-02-13 2012-01-25 アイシン・エィ・ダブリュ株式会社 レーン判定装置及びレーン判定方法
US7903883B2 (en) * 2007-03-30 2011-03-08 Microsoft Corporation Local bi-gram model for object recognition
JP4446201B2 (ja) * 2007-03-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
RU2009139989A (ru) * 2007-05-04 2013-11-10 Боэгли-Гравюр С.А. Способ и устройство для распознавания идентификационной метки на огибающей поверхности объекта
KR20090001721A (ko) * 2007-05-14 2009-01-09 팅크웨어(주) 맵 매칭 보정 방법 및 상기 방법을 수행하는 내비게이션시스템
JP4497424B2 (ja) * 2007-05-31 2010-07-07 アイシン・エィ・ダブリュ株式会社 地物認識装置及び地物認識方法、並びにそれを用いたレーン判定装置及びレーン判定方法
JP4703605B2 (ja) 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法
US20090037039A1 (en) * 2007-08-01 2009-02-05 General Electric Company Method for locomotive navigation and track identification using video
WO2009072507A1 (ja) * 2007-12-05 2009-06-11 Nec Corporation 路面標示認識装置,路面標示認識方法及び路面標示認識プログラム
JP4788778B2 (ja) 2009-01-27 2011-10-05 株式会社デンソー 逸脱警報装置、および逸脱警報プログラム
JP5066123B2 (ja) * 2009-03-24 2012-11-07 日立オートモティブシステムズ株式会社 車両運転支援装置
JP5062497B2 (ja) * 2010-03-31 2012-10-31 アイシン・エィ・ダブリュ株式会社 風景画像認識を用いた自車位置検出システム
JP5062498B2 (ja) * 2010-03-31 2012-10-31 アイシン・エィ・ダブリュ株式会社 風景マッチング用参照データ生成システム及び位置測位システム
JP5168601B2 (ja) * 2010-03-31 2013-03-21 アイシン・エィ・ダブリュ株式会社 自車位置認識システム
JP5057183B2 (ja) * 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 風景マッチング用参照データ生成システム及び位置測位システム
JP5088592B2 (ja) * 2010-04-28 2012-12-05 アイシン・エィ・ダブリュ株式会社 自車位置認識装置及び自車位置認識プログラム
JP5099460B2 (ja) * 2010-04-28 2012-12-19 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
CN102892655B (zh) * 2010-05-13 2015-08-26 丰田自动车株式会社 车辆控制装置和车辆控制系统
US8831830B2 (en) 2010-05-19 2014-09-09 Toyota Jidosha Kabushiki Kaisha Vehicle controlling system
JP5516301B2 (ja) * 2010-10-05 2014-06-11 トヨタ自動車株式会社 車両の走路判定システム
JP5626578B2 (ja) 2010-12-02 2014-11-19 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援プログラム、及び走行支援方法
JP5272042B2 (ja) * 2011-05-12 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
JP2012247840A (ja) * 2011-05-25 2012-12-13 Sony Corp 近隣人物特定装置、近隣人物特定方法、近隣人物特定プログラム及び近隣人物特定システム
JP5780307B2 (ja) * 2011-09-20 2015-09-16 トヨタ自動車株式会社 対象物変化検出装置および対象物変化検出方法
US9235766B2 (en) 2011-10-20 2016-01-12 International Business Machines Corporation Optimizing the detection of objects in images
CN102521566B (zh) * 2011-11-25 2013-07-24 中国科学院光电技术研究所 一种地面自主设备用低功耗实时道路自动识别装置
JP5929330B2 (ja) * 2012-03-05 2016-06-01 日産自動車株式会社 段差検出装置
WO2014115319A1 (ja) * 2013-01-25 2014-07-31 トヨタ自動車株式会社 道路環境認識システム
DE112014006929B4 (de) * 2014-09-05 2023-03-02 Mitsubishi Electric Corporation Autonomes Fahrmanagementsystem, Server und autonomes Fahrmanagementverfahren
DE112014007007T5 (de) * 2014-09-29 2017-06-08 Mitsubishi Electric Corporation Informationsanzeige-Steuersystem und Verfahren zum Steuern einer Anzeige einer Information
KR102383425B1 (ko) * 2014-12-01 2022-04-07 현대자동차주식회사 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
JP6791645B2 (ja) * 2016-03-29 2020-11-25 本田技研工業株式会社 光通信装置、光通信システム、および光通信方法
KR102647407B1 (ko) * 2016-11-04 2024-03-14 현대모비스 주식회사 차량 사고 예방 시스템 및 그 방법
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置
JP6804965B2 (ja) 2016-12-15 2020-12-23 株式会社日立製作所 画像処理装置、画像処理システム、および画像処理方法
CN106504565B (zh) * 2017-01-03 2023-06-20 上海量明科技发展有限公司 共享车辆停靠位置的判定方法、装置及系统
CN106886217B (zh) * 2017-02-24 2020-09-08 深圳中智卫安机器人技术有限公司 自主导航控制方法和装置
DE102018214959A1 (de) 2018-09-04 2020-03-05 Robert Bosch Gmbh Verfahren zur Auswertung von Sensordaten mit einer erweiterten Objekterkennung
US10495476B1 (en) 2018-09-27 2019-12-03 Phiar Technologies, Inc. Augmented reality navigation systems and methods
US11448518B2 (en) * 2018-09-27 2022-09-20 Phiar Technologies, Inc. Augmented reality navigational overlay
CN109683613B (zh) * 2018-12-24 2022-04-29 驭势(上海)汽车科技有限公司 一种用于确定车辆的辅助控制信息的方法与设备
CN111775944B (zh) 2019-04-04 2021-12-28 富泰华工业(深圳)有限公司 辅助驾驶装置、方法及计算机可读存储介质
JP7102383B2 (ja) * 2019-10-24 2022-07-19 株式会社東芝 路面画像管理システム及びその路面画像管理方法
KR102206834B1 (ko) * 2020-04-28 2021-01-25 네이버랩스 주식회사 도로정보 변화 감지 방법 및 시스템
CN117237881B (zh) * 2023-11-16 2024-02-02 合肥中科类脑智能技术有限公司 三跨塔的绝缘子异常监测方法及装置、计算机设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351044A (en) * 1992-08-12 1994-09-27 Rockwell International Corporation Vehicle lane position detection system
US6553130B1 (en) 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3373773B2 (ja) 1998-01-27 2003-02-04 株式会社デンソー レーンマーク認識装置、車両走行制御装置および記録媒体
US20020134151A1 (en) 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
JP3876972B2 (ja) 2001-10-12 2007-02-07 株式会社デンソー 案内画像生成装置、案内画像表示装置、ナビゲーション装置、及びプログラム
JP4327389B2 (ja) * 2001-10-17 2009-09-09 株式会社日立製作所 走行レーン認識装置
JP4218441B2 (ja) 2003-06-27 2009-02-04 株式会社デンソー 車載用移動体検出装置

Also Published As

Publication number Publication date
US20060228000A1 (en) 2006-10-12
EP1686537B1 (en) 2015-07-29
JP2006209510A (ja) 2006-08-10
CN1818929A (zh) 2006-08-16
CN100555311C (zh) 2009-10-28
EP1686537A3 (en) 2010-12-29
EP1686537A2 (en) 2006-08-02
US7668341B2 (en) 2010-02-23

Similar Documents

Publication Publication Date Title
JP4321821B2 (ja) 画像認識装置及び画像認識方法
JP4557288B2 (ja) 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP2006208223A (ja) 車両位置認識装置及び車両位置認識方法
US11756316B2 (en) Vehicular lane keeping system
EP2372304B1 (en) Vehicle position recognition system
JP4831434B2 (ja) 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置
JP4903426B2 (ja) 画像認識装置及び方法、並びに自車位置認識装置及び方法
JP6626410B2 (ja) 自車位置特定装置、自車位置特定方法
JP4775658B2 (ja) 地物認識装置・自車位置認識装置・ナビゲーション装置・地物認識方法
KR101704405B1 (ko) 차선 인식 시스템 및 방법
JP4761156B2 (ja) 地物位置認識装置及び地物位置認識方法
JP2007178271A (ja) 自位置認識システム
JP2020057069A (ja) 区画線認識装置
JP2019212188A (ja) 道路標識認識装置
JP4731380B2 (ja) 自車位置認識装置及び自車位置認識方法
JP5355209B2 (ja) ナビゲーション装置、自車の走行車線の判定方法および判定プログラム
JP7529526B2 (ja) 車両制御装置及び車両制御方法
JP4831433B2 (ja) 自車位置認識装置及び自車位置認識プログラム、並びにナビゲーション装置
JP4844812B2 (ja) 車両間情報通信システム
CN116524454A (zh) 物体追踪装置、物体追踪方法及存储介质
KR20210034626A (ko) 주차 공간 유형 결정 방법
JP4234071B2 (ja) 車両の路面標識検出装置
JP2001175846A (ja) 走行路判別装置
US11721113B2 (en) Vehicular driving assist system with lane detection using rear camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090528

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090529

R150 Certificate of patent or registration of utility model

Ref document number: 4321821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250