JP2009163714A - 標識判定装置および標識判定方法 - Google Patents

標識判定装置および標識判定方法 Download PDF

Info

Publication number
JP2009163714A
JP2009163714A JP2008279978A JP2008279978A JP2009163714A JP 2009163714 A JP2009163714 A JP 2009163714A JP 2008279978 A JP2008279978 A JP 2008279978A JP 2008279978 A JP2008279978 A JP 2008279978A JP 2009163714 A JP2009163714 A JP 2009163714A
Authority
JP
Japan
Prior art keywords
sign
image
area
color
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008279978A
Other languages
English (en)
Other versions
JP2009163714A5 (ja
JP5200861B2 (ja
Inventor
Seiya Shimizu
誠也 清水
Shinya Namatame
慎也 生田目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008279978A priority Critical patent/JP5200861B2/ja
Publication of JP2009163714A publication Critical patent/JP2009163714A/ja
Publication of JP2009163714A5 publication Critical patent/JP2009163714A5/ja
Application granted granted Critical
Publication of JP5200861B2 publication Critical patent/JP5200861B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対向車両のドライバーを眩惑させることなく、道路標識の認識率を向上させて、安定的に道路標識を判定すること。
【解決手段】標識判定装置100は、標識検出部109が近赤外線照明が照射された時点での画像(偶数フィールド画像)と前記近赤外線照明が照射されていない時点での画像(奇数フィールド画像)との差分を算出することにより差分画像を生成し、標識判定部110が差分画像に基づいて、画像中の標識の領域を検出し、標識判定部110が、標識検出部109が検出した画像中の標識の領域およびカラー画像を基にして標識の種別を判定する。
【選択図】 図4

Description

この発明は、標識を判定する標識判定装置およびその標識判定方法に関し、特に対向車両のドライバーを眩惑させることなく、道路標識の認識率を向上させて、安定的に道路標識を判定することができる標識判定装置および標識判定方法に関するものである。
近年、道路標識の検出方式として種々の手法が考案され実用化されている。例えば、車両周囲のカラー画像のエッジヒストグラムおよびRGBカラー成分により道路標識の形状や色を判定することで道路標識を認識する方法がある(例えば、特許文献1参照)。このように、道路標識を認識する上で、道路標識の形状や色を用いることは一般的であるが、上記のようにカラー画像を用いる場合には、外界の照明条件(影、夕日、街灯等)の影響を受け易く、不要なエッジの発生やカラー成分の変化が生じ、認識率の低下が起こるという問題がある。
そのような問題に対応するため、能動的に照明を照射して反射光を撮影することにより、道路標識の認識を実行するという手法も考案されている。例えば、照明を照射している時点での画像と照明を照射していない時点での画像とを比較して差分値をとることで外界の照明条件を取り除いた画像を作成し、道路標識の認識することを可能としている。
特開2000−293670号公報
しかしながら、上記した従来の技術では、道路標識の認識を実行する場合に、照明(可視光)のオン・オフを実行する必要があり、対向車両のドライバーを眩惑させてしまうという問題があった。なお、可視光の代わりに近赤外線を利用することでドライバーを眩惑させるという問題を解消することも考えられるが、近赤外線では、道路標識のカラーパターンを撮影することができないので、認識率が低下してしまう。
すなわち、対向車両のドライバーを眩惑させることなく、道路標識の認識率を向上させて、安定的に道路標識を判定することが極めて重要な課題となっている。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、対向車両のドライバーを眩惑させることなく、道路標識の認識率を向上させて、安定的に道路標識を判定することができる標識判定装置および標識判定方法を提供することを目的とする。
上述した課題を解決し、目的を達成するため、この標識判定装置は、標識を判定する標識判定装置であって、近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像との差分を算出することにより差分画像を生成する差分画像生成手段と、前記差分画像生成手段により生成された差分画像に基づき、画像中の標識の領域を検出する領域検出手段と、前記領域検出手段が検出した画像中の標識の領域と、カラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定手段と、を備えたことを要件とする。
また、この標識判定装置は、上記標識判定装置において、前記カラーまたはモノクロの画像を撮影するカメラを搭載した移動体の位置を検出する位置検出手段と、当該位置検出手段により検出された、前記画像撮影時の移動体の位置と、前記画像の撮影方向と、前記標識判定手段により判定された標識の前記画像中における位置に基づいて、前記標識の地図上の位置を特定する標識位置特定手段とを更に備えたことを要件とする。
また、この標識判定装置は、上記標識判定装置において、前記標識判定手段は、前記領域検出手段が検出した画像中の標識の領域に対応する前記カラーまたはモノクロの画像の領域から色情報を取得し、当該色情報に含まれる色を、予め設定した複数種類の色分類のいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域の形状に基づいて標識の種別を判定することを要件とする。
また、この標識判定装置は、上記標識判定装置において、前記標識判定手段は、連続して撮影された画像を取得した場合に、各画像に含まれる標識の領域をそれぞれ対応付けて記憶し、前記標識の領域に対応する標識の種別を判定した場合に、当該標識の領域に対応付けられた他の画像中の標識の領域を同一の標識の種別として判定することを要件とする。
また、この標識判定方法は、標識を判定する標識判定装置の標識判定方法であって、前記標識判定装置は、近赤外線を照射する近赤外線照明とカラーまたはモノクロの画像を撮影するカメラを備え、前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを記憶装置に記憶する記憶ステップと、前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを前記記憶装置から取得し、取得した画像の差分を算出することにより差分画像を生成する差分画像生成ステップと、前記差分画像生成ステップにより生成された差分画像に基づき、画像中の標識の領域を検出する領域検出ステップと、前記領域検出ステップにより検出された画像中の標識の領域と、前記カメラにより撮影されたカラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定ステップと、を含んだことを要件とする。
この標識判定装置によれば、近赤外線照明が照射された時点での画像(偶数フィールド画像)と前記近赤外線照明が照射されていない時点での画像(奇数フィールド画像)との差分を算出することにより差分画像を生成し、差分画像に基づいて、画像中の標識の領域を検出し、画像中の標識の領域およびカラー画像を基にして標識の種別を判定するので、対向車両のドライバーを眩惑させることなく、道路標識の認識率を向上させて、安定的に道路標識を判定することができる。
また、この標識判定装置によれば、画像撮影時の車両の位置と、画像の撮影方向と、標識の画像中における位置に基づいて、標識の地図上の位置を特定するので、複雑な処理を実行することなく、標識の位置を正確に計測することができる。
また、この標識判定装置によれば、画像中の標識の領域に対応するカラー画像の領域から色情報を取得し、この色情報に含まれる色を、予め設定した複数種類の色分類のいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域に基づいて標識の種別を判定するので、外界の照明条件(影、夕日、街灯等)の影響を受けることなく、正確に標識の種別を判定することができる。
また、この標識判定装置によれば、各フレームの画像に含まれる標識の領域をそれぞれ対応付けて記憶し、標識の領域に対応する標識の種別を判定した場合に、判定した標識の領域に対応付けられた他のフレームの標識の領域を同一の標識の種別として判定するので、標識種別判定にかかる処理負荷を軽減させることができる。
以下に添付図面を参照して、この発明に係る標識判定装置および標識判定方法の好適な実施の形態を詳細に説明する。
まず、本実施例1にかかる標識判定装置の概要および特徴について説明する。図1は、本実施例1にかかる標識判定装置の概要および特徴を説明するための図である。同図に示すように、この標識判定装置100は、近赤外線を照射する近赤外線照明101、近赤外線カメラ102およびカラーカメラ103を有し、車両10に搭載されている。
標識判定装置100は、近赤外線照明101を制御して、断続的に近赤外線を車両10の進行方向(道路標識50)に照射すると共に、近赤外線カメラ102を制御して、近赤外線が照射されている時点の画像と近赤外線が照射されていない時点での画像を撮影する。
図2は、近赤外線照明101の照射タイミングと近赤外線カメラ102の露光タイミングとの関係を示す図である。同図に示す例では、近赤外線カメラ102は、奇数フィールド露光タイミングにおいて、近赤外線が照射されていない時点の画像を撮影し、偶数フィールド露光タイミングにおいて、近赤外線が照射されている時点の画像を撮影する。以下において、近赤外線が照射されていない時点の画像を奇数フィールド画像と表記し、近赤外線が照射されている時点の画像を偶数フィールド画像と表記する。
標識判定装置100は、奇数フィールド画像の画素値と偶数フィールド画像の画素値との差分をとることで生成される差分画像に基づいて、画像中の道路標識50の領域を検出する。一般的に、道路標識50は、強く近赤外線を反射するので、差分画像中で画素値が閾値以上となる領域が道路標識50の領域として検出される。そして、道路標識50の領域(道路標識の形状)が検出されることで、道路標識50の種別はある程度絞られる。
図3は、道路標識の形状と道路標識の種別との関係を示す図である。同図に示すように、例えば、道路標識の形状が「円形」である場合には、道路標識の種別は、「規制標識」、「制限解除」、「補助標識」に絞られることとなる。
一方で、標識判定装置100は、カラーカメラ103を制御して、車両10前方のカラー画像を撮影している。標識判定装置100は、道路標識50の領域に対応するカラー画像の領域の色情報を取得し、取得した色情報および道路標識の形状によって絞られる道路標識の各種別に基づいて道路標識50の種別を判定する。
このように、本実施例1にかかる標識判定装置100は、差分画像に基づいて道路標識の領域を検出して、標識の種別をある程度絞込み、道路標識の領域に含まれる色情報と、絞り込まれた標識の種別から、道路標識の種別を判定するので、外界の照明条件によらず、道路標識の認識率を向上させて、安定的に道路標識を判定することができる。
また、本実施例1にかかる標識判定装置100は、可視光を照射する代わりに、近赤外線照明101を制御して、近赤外線を断続的に照射するので、対向車両のドライバーを眩惑させてしまうという問題を解消することができる。
次に、図1に示した標識判定装置100の構成について説明する。図4は、本実施例1にかかる標識判定装置100の構成を示す機能ブロック図である。同図に示すように、この標識判定装置100は、近赤外線照明101と、近赤外線カメラ102と、カラーカメラ103と、同期信号生成部104と、位置計測部105と、方位計測部106と、標識情報格納部107と、差分画像生成部108と、標識検出部109と、標識判定部110と、標識位置推定部111とを備えて構成される。
このうち、近赤外線照明101は、同期信号生成部104から出力される同期信号に基づいて断続的に近赤外線を照射する手段である。近赤外線カメラ102は、同期信号生成部104から出力される同期信号に基づいて動作し、奇数フィールド画像および偶数フィールド画像を撮影する手段である。カラーカメラ103は、カラーカメラ103前方のカラー画像を撮影する手段である。
同期信号生成部104は、近赤外線照明101の照射タイミングおよび近赤外線カメラ102の露光タイミングを示す同期信号を生成する手段である。具体的には、同期信号生成部104は、偶数フィールド画像を撮影するタイミングで、近赤外線を照射させ、奇数フィールド画像を撮影するタイミングで、近赤外線を照射させないような同期信号を生成する(図2参照)。同期信号生成部104は、生成した同期信号を近赤外線照明101および近赤外線カメラ102に出力する。
位置計測部105は、標識判定装置100(車両10)の位置を計測する手段である。例えば、位置計測部105は、周知技術であるGPS(Global Positioning System)等を利用することにより、標識判定装置100の位置を計測する。位置測定部105は、計測した位置情報を標識位置推定部111に出力する。
方位計測部106は、車両10(カラーカメラ103等)の方位を計測する手段である。例えば、方位計測部106は、周知技術である電子コンパス装置等を利用することにより、車両10(近赤外線カメラ102、カラーカメラ103)の方位を計測する。方位計測部106は、計測した方位情報を標識位置推定部111に出力する。
標識情報格納部107は、標識判定にかかる各種の情報を記憶する記憶手段であり、図4に示すように、道路標識管理テーブル107aおよび標識候補領域テーブル107bを記憶する。
このうち、道路標識管理テーブル107aは、道路標識に関する各種情報を記憶するテーブルである。図5は、道路標識管理テーブル107aの一例を示す図である。同図に示すように、この道路標識管理テーブル107aは、道路標識種別と、標識形状と、標識中の色リストと、標識のテンプレートデータと、HSV(Hue Saturation Value)色空間データとを有する。
このうち、標識中の色リストは、標識に含まれる色を示す情報である。例えば、道路標識種別「進入禁止標識」に含まれる色リストは、「赤」、「白」となる。標識のテンプレートデータは、標識に対応する画像データを示す。図6は、道路標識種別「進入禁止標識」のテンプレートデータのイメージ図である。
HSV色空間データは、道路標識に含まれる各色をそれぞれHSV色空間の色相(Hue)に変換した値を記憶する情報である。例えば、道路標識種別「進入禁止標識」では、赤色に対応する色相の値と、白色に対応する色相の値がHSV色空間データとして記憶される。
標識候補領域テーブル107bは、車両および道路標識にかかる各種の情報を記憶するテーブルである。図7は、標識候補領域テーブル107bの一例を示す図である。同図に示すように、この標識候補領域テーブル107bは、フレーム通番と、車両位置と、カメラ方向と、第1標識候補領域ID(Identification)と、第2標識候補領域IDと、中心点位置と、外接四角形座標値と、標識形状と、標識判定結果と、標識位置とを有する。
このうち、フレーム通番は、画像を撮影した各フレームを識別するための情報である。車両位置は、フレーム通番に対応する画像を撮影した時点での車両の位置(緯度経度)を示す情報であり、上記した位置計測部105によって計測される。カメラ方向(方位)は、フレーム通番に対応する画像を撮影した時点でのカメラ(近赤外線カメラ102、カラーカメラ103)の方向を示す情報であり、上記した方位計測部106によって計測される。
第1標識候補領域IDは、同一フレームの画像上に存在する各標識の候補となる領域(以下、単に標識の領域と表記する)をそれぞれ識別するための情報である。例えば、同一フレームの画像中に標識の領域が2つ存在する場合には、2種類の第1標識候補領域IDがそれぞれの領域に割り振られる。
第2標識候補領域IDは、前フレーム中の対応する第1標識候補領域IDを識別するための情報である。例えば、フレーム通番「100」、第1標識候補領域ID「2」によって識別される標識の領域は、第2標識候補領域IDが「1」であるため、前フレームの第1標識候補領域ID「1」によって識別される標識の領域に対応している。かかる第2標識候補領域IDによって各フレームにおける標識の領域はそれぞれ対応付けられることになる。したがって、いずれかの画像において、標識の領域に対する種別が判定できれば、かかる領域に対応付けられた他の標識の領域に対する種別も判定されたことになる。
中心点位置は、標識の領域の中心点位置の座標を示す情報である。外接四角形座標値は、標識の領域を包含する外接四角形の座標値(左、上、右、下)を示す情報である。標識形状は、標識の領域に対応する形状を示す情報である。
標識判定結果は、標識の領域の種別を示す情報であり、後述する標識判定部110によって判定される。標識位置は、標識の位置(経度緯度)を示す情報であり、後述する標識位置推定部111によって算出される。
図4の説明に戻ると、差分画像生成部108は、近赤外線カメラ102から奇数フィールド画像と偶数フィールド画像とを含んだ画像を取得し、奇数フィールド画像の画素値と偶数フィールド画像の画素値との差分を算出することで差分画像を生成する手段である。
図8は、差分画像生成部108の処理を説明するための図である。同図に示すように、差分画像生成部108は、近赤外線カメラ102から画像データを取得し、取得した画像をフィールド分離して、奇数フィールド画像と偶数フィールド画像に分離する。そして、差分画像生成部108は、奇数フィールド画像の画素値と偶数フィールド画像の画素値との差分をとることで、差分画像を生成する。
道路標識は、他の物体と比較して、近赤外線を強く反射する。したがって、偶数フィールド画像における道路標識の領域の画素値が、奇数フィールドの道路標識の領域の画素値と比較して大きくなるため、差分画像では、道路標識の領域(高輝度領域)にかかる画素値が他の領域の画素値と比較して大きくなる。
標識検出部109は、差分画像生成部108によって生成された差分画像に基づいて、標識の領域を検出する手段である。具体的に、標識検出部109の説明を行うと、まず、標識検出部109は、差分画像に対して二値化処理を実行し、差分画像の領域を、強反射領域(画素値が閾値以上となる領域)とその他の領域(画素値が閾値未満となる領域)に分離する。そして、標識検出部109は、差分画像中の各強反射領域のうち、面積が閾値以上となる強反射領域を標識の領域(標識の候補となる領域)として検出する。
続いて、標識検出部109は、現フレームの画像にて検出した標識の領域(以下、第1の標識領域)と、前フレームの画像にて検出した標識の領域(以下、第2の標識領域)とを対応付けるためのトラッキング処理を実行する。例えば、標識検出部109は、第1の標識領域と第2の標識領域とを比較して、重複率が閾値以上となる場合に、第1の標識領域と第2の標識領域とを対応付ける。
続いて、標識検出部109は、予め設定された道路標識の形状情報(円形、逆三角形、五角形、菱形、逆三角形、矩形等;図3参照)と、第1の標識領域の形状とを比較して、第1の標識領域に合致する標識形状が存在するか否かを判定する。
そして、標識検出部109は、第1の標識領域の形状に合致する標識形状が存在すると判定した場合には、かかる第1の標識領域を道路標識領域として確定し、標識候補領域テーブル107bに標識領域情報(フレーム通番、第1、第2標識候補領域ID、中心点位置、外接四角形座標値、標識形状)を登録すると共に、標識領域情報を標識判定部110に出力する。
標識判定部110は、標識領域情報、カラーカメラ103から出力されるカラー画像、道路標識管理テーブル107aを基にして、道路標識領域の種別を判定する手段である。具体的に、標識判定部110の説明を行うと、まず、標識判定部110は、カラー画像中における道路標識領域を判定する。カラー画像中の道路標識領域は、標識領域情報に含まれる中心点位置および外接四角形座標値等により判定する。
図9は、差分画像の道路標識領域とカラー画像の道路標識領域との関係を示す図である。図9に示す例では、差分画像の道路標識領域11に対応するカラー画像の道路標識領域は道路標識領域13となり、差分画像の道路標識領域12に対応するカラー画像の道路標識領域は道路標識領域14となる。
続いて、標識判定部110は、カラー画像中の道路標識領域に対してセグメンテーション処理を実行する。ここで、セグメンテーション処理は、道路標識領域に含まれる色を、予め設定される色リスト中の色に分類する処理である。例えば、予め設定されている色リストの色が、「赤」、「白」の場合には、道路標識領域中の色を「赤」あるいは「白」に分類する。
標識判定部110が、セグメンテーション処理で利用する色リストを設定する処理について説明すると、標識判定部110は、標識領域情報に含まれる標識形状と、道路標識管理テーブル107a(図5参照)の標識形状とを比較して、同一の標識形状に対応する色リストを、セグメンテーション処理で利用する色リストとして設定する。
続いて、セグメンテーション処理について具体的に説明する(ここでは説明の便宜上、色リストが「赤」、「白」に設定されている場合について説明する)。標識判定部110は、道路標識領域から色情報(R(Red)G(Green)B(Blue)値)を取得し、かかるRGB値をHSV色空間の色相に変換する。
標識判定部110が、色情報を色相に変換する場合には、
Figure 2009163714
Figure 2009163714
Figure 2009163714
のうちいずれか一つの式を利用する。具体的には、色情報のRGB値のうち、Rの値がGの値またはBの値よりも大きい場合に、式(1)を利用して、色情報を色相Hに変換する。式(1)にかかるMAXには、Rの値が代入され、MINには、Gの値およびBの値のうち小さい方の値が代入される。
色情報のRGB値のうち、Gの値がRの値またはBの値よりも大きい場合に、式(2)を利用して、色情報を色相Hに変換する。式(2)にかかるMAXには、Gの値が代入され、MINには、Rの値およびBの値のうち小さい方の値が代入される。
色情報のRGB値のうち、Bの値がRの値またはGの値よりも大きい場合に、式(3)を利用して、色情報を色相Hに変換する。式(3)にかかるMAXには、Bの値が代入され、MINには、Rの値およびGの値のうち小さい方の値が代入される。
標識判定部110は、色情報を色相に変換した後に、変換した色相(以下、変換色相)と、赤の色相と、白の色相とを比較して、色情報に対応する色を赤または白に分類する(色リストに含まれる色の色相の情報は、予め算出されており、道路標識管理テーブル107aに登録されているものとする)。具体的に、赤の色相をH1、白の色相をH2、変換色相をHとすると、
|H−H1|>|H−H2|
の条件を満たす場合(変換色相が赤の色相よりも白の色相に近い場合)に、色情報に対応する色は、白に分類され、上記条件を満たさない場合(変換色相が白の色相よりも赤の色相に近い場合)には赤に分類される。標識判定部110は、道路標識領域に含まれる全ての画素の色情報に対して上記セグメンテーション処理を実行する。
図10は、セグメンテーション実行前と実行後の標識画像の一例を示す図である。同図に示すように、セグメンテーション実行前では、標識が影の影響を受けている(図10の左側参照)が、セグメンテーション処理を実行することにより、標識の影の影響を取り除くことができる(図10の右側参照)。
続いて、標識判定部110は、セグメンテーション処理を実行した道路標識領域と、道路標識管理テーブル107a中の標識のテンプレートデータとを基にして、周知技術となるマッチング処理を実行することにより、道路標識領域の種別を判定する。そして、標識判定部110は、判定結果を標識候補領域テーブル107bの標識判定結果に登録すると共に、標識情報(フレーム通番、第1、第2標識候補領域ID、中心点位置、外接四角形座標値、標識形状、標識判定結果)を標識位置推定部111に出力する。
標識位置推定部111は、標識情報、車両位置、カメラ方位および標識候補領域テーブル107bに基づいて、標識の地図上の位置を特定する手段である。図11は、標識位置推定部111の処理を説明するための図である。同図に示すように、標識位置推定部111は、三角測量の要領で、nフレーム(現フレーム)の画像上の標識の位置、車両位置、カメラ方位を基にして標識の方向を算出する。
また、標識位置推定部111は、現フレームの標識に対応する過去のフレーム中の標識を、標識候補領域テーブル107bの第2標識候補領域IDを基にして判定し、判定した標識の画面上の位置、車両位置(該当フレームを撮影した時点での位置)、カメラ方位(該当フレームを撮影した時点での方位)を基にして、標識の方向を算出する(三角測量の要領で算出する)。
そして、標識位置推定部111は、nフレームから過去のフレームにおいて算出した各標識の方向の重なりに基づいて(予め記憶されている地図上で、各フレームの車両位置と各フレームで算出された標識位置とを通る直線をそれぞれ生成し)、各標識の方向の重なりが大きくなる位置を標識の位置として判定し、該当するフレーム通番の車両位置、カメラ方位、標識位置の情報を更新する。
次に、本実施例1にかかる標識判定装置100の処理手順について説明する。図12は、本実施例1にかかる標識判定装置100の処理手順を示すフローチャートである。同図に示すように、標識判定装置100は、位置計測部105、方位計測部106から位置・方位データを取得し(ステップS101)、近赤外線カメラ102から画像(奇数フィールド画像および偶数フィールド画像)を取得する(ステップS102)。
続いて、標識判定装置100は、標識検出処理を実行し(ステップS103)、検出した標識の領域が種別判定済みの標識の領域か否かを判定する(ステップS104)。ステップS104において、標識判定装置100(標識判定部)は、標識候補領域テーブル107bを参照し、トラッキング処理により関連付けられた各標識の領域のうち、過去の標識の領域の種別が判定済みである場合に、種別判定済みの標識の領域であると判定する。
種別判定済みの標識の領域である場合には(ステップS105,Yes)、ステップS108に移行する。一方、種別判定済みの標識の領域でない場合には(ステップS105,No)、標識判定装置100は、カラーカメラ103からカラー画像を取得し(ステップS106)、標識判定処理を実行する(ステップS107)。
そして、標識判定装置100は、標識位置推定処理を実行し(ステップS108)、処理を終了するか否かを判定する(ステップS109)。処理を終了する場合には(ステップS110,Yes)、そのまま処理を終了し、処理を終了しない場合には(ステップS110,No)、ステップS101に移行する。
次に、図12のステップS103に示した標識検出処理について説明する。図13は、標識検出処理の処理手順を示すフローチャートである。同図に示すように、標識検出部109は、近赤外線反射成分を抽出し(ステップS201)、高輝度領域を抽出し(二値化処理を実行し)(ステップS202)、連結領域を抽出する(ラベリング処理を実施して、第1標識候補IDを割り当てる)(ステップS203)。
そして、標識検出部109は、未処理の連結領域を取得し(ステップS204)、領域面積は閾値以上か否かを判定し(ステップS205)、閾値未満の場合には(ステップS206,No)、ステップS204に移行する。
一方、領域面積が閾値以上である場合には(ステップS206,Yes)、連結領域内の中心および外接四角形を抽出し(ステップS207)、現フレームの標識の領域と前フレーム中の標識の領域と対応付ける(トラッキング処理を実行する)(ステップS208)。
そして、標識検出部109は、種別判定済みか否かを判定し(ステップS209)、種別判定済みである場合には(ステップS210,Yes)、前フレームの標識判定結果を連結領域の標識判定結果とし(ステップS211)、ステップS215に移行する。
一方、種別判定済みでない場合には(ステップS210,No)、標識形状を判定し(ステップS212)、合致する標識形状が道路標識管理テーブル107aに存在しない場合には(ステップS213,No)、ステップS215に移行する。
一方、合致する標識形状が道路標識管理テーブル107aに存在する場合には(ステップS213,Yes)、連結領域を道路標識領域として確定し(ステップS214)、未処理の連結領域が存在するか否かを判定し(ステップS215)、存在する場合には(ステップS216,Yes)、ステップS204に移行し、存在しない場合には(ステップS216,No)、標識検出処理を終了する。
このように、標識検出部109が、差分画像から得られる標識形状と、道路標識管理テーブル107aの標識形状とを比較して、標識に該当する領域を絞り込むので、標識判定にかかる精度を向上させることができる。また、トラッキング処理により対応付けられた各標識の領域中に、標識の種別が判定されている標識の領域がすでに存在する場合には、対応する領域の標識検出処理を省略するので、処理負荷を軽減することができる。
次に、図12のステップS107に示した標識判定処理について説明する。図14は、標識判定処理の処理手順を示すフローチャートである。同図に示すように、標識判定部110は、未処理の道路標識領域を取得し(ステップS301)、カラー画像から該当画素(色情報)を取得する(ステップS302)。
そして、標識判定部110は、標識形状から可能性のある標識を絞り込み、絞り込んだ標識に含まれる色集合(色リスト)を特定し(ステップS303)、画素を色集合中の色に分類し(セグメンテーション処理を実行し)(ステップS304)、標識を判定する(ステップS305)。
合致する標識が存在しない場合には(ステップS306,No)、ステップS308に移行する。一方、合致する標識が存在する場合には(ステップS306,Yes)、該当する標識種別を登録する(ステップS307)。続いて、標識判定部110は、未処理の道路標識領域が存在するか否かを判定し(ステップS308)、存在する場合には(ステップS309,Yes)、ステップS301に移行し、存在しない場合には(ステップS309,No)、標識判定処理を終了する。
このように、標識判定部110が、道路標識領域に対してフラグメンテーション処理を実行して標識の種別を判定するので、周辺環境の影響を受けることなく、標識種別の判定を精度よく実施することができる。
次に、図12のステップS108に示した標識位置推定処理について説明する。図15は、標識位置推定処理の処理手順を示すフローチャートである。同図に示すように、標識位置推定部111は、未処理の道路標識領域を取得し(ステップS401)、該当領域のトラッキング結果を標識候補領域テーブル107bから取得する(ステップS402)。
そして、標識位置推定部111は、過去のフレームの対応領域を含めて、地図上に標識の存在方向をプロットし(ステップS403)、重なりの大きい分部の座標を標識位置として登録する(ステップS404)。
標識位置推定部111は、未処理の道路標識領域が存在するか否かを判定し(ステップS405)、未処理の道路標識が存在する場合には(ステップS406,Yes)、ステップS401に移行し、未処理の道路標識が存在しない場合には(ステップS406,No)、標識位置推定処理を終了する。
このように、標識位置推定部111は、複数のフレームに基づいて、同一標識に対する方向をフレームごとに求め、重なりの大きい部分を標識の位置として計測するので、複雑な処理を実行することなく、標識の位置を正確に計測することができる。
上述してきたように、本実施例1にかかる標識判定装置100は、標識検出部109が近赤外線照明が照射された時点での画像(偶数フィールド画像)と前記近赤外線照明が照射されていない時点での画像(奇数フィールド画像)との差分を算出することにより差分画像を生成し、標識判定部110が差分画像に基づいて、画像中の標識の領域を検出し、標識判定部110が、標識検出部109が検出した画像中の標識の領域およびカラー画像を基にして標識の種別を判定するので、対向車両のドライバーを眩惑させることなく、道路標識の認識率を向上させて、安定的に道路標識を判定することができる。
また、本実施例1にかかる標識判定装置100は、標識位置推定部111が、画像撮影時の車両の位置と、画像の撮影方向と、標識の画像中における位置に基づいて、標識の地図上の位置を特定するので、複雑な処理を実行することなく、標識の位置を正確に計測することができる。
また、本実施例1にかかる標識判定装置100は、標識検出部109が、画像中の標識の領域に対応するカラー画像の領域から色情報を取得し、この色情報に含まれる色を、予め設定した複数種類の色リストのいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域に基づいて標識の種別を判定するので、外界の照明条件(影、夕日、街灯等)の影響を受けることなく、正確に標識の種別を判定することができる。
また、本実施例1にかかる標識判定装置100は、標識判定部110が、各フレームの画像に含まれる標識の領域をそれぞれ対応付けて記憶し、標識の領域に対応する標識の種別を判定した場合に、判定した標識の領域に対応付けられた他のフレームの標識の領域を同一の標識の種別として判定するので、標識種別判定にかかる処理負荷を軽減させることができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例2として本発明に含まれる他の実施例を説明する。
(1)標識を識別する画像領域について
例えば、上記の実施例1では、標識判定装置100は、近赤外線カメラ102が撮影する画像の全領域から差分画像を生成し、生成した差分画像から標識の領域を検出していたが本発明はこれに限定されるのもではない。すなわち、道路標識は、一般的に、画像の上方に存在するため、標識判定装置100は、近赤外線カメラ102が撮影する画像のうち、上半分の画像から差分画像を生成し、生成した差分画像から標識の領域を検出しても良い。このように、処理対象となる画像の領域を削減することで、標識判定装置100の処理負荷を軽減させることができる。
(2)カメラについて
例えば、上記の実施例1では、標識判定装置100は、カラーカメラ103を利用して、標識の種別を判定していた(例えば、図14参照)が本発明はこれに限定されるものではない。すなわち、カラーカメラの代わりに、モノクロカメラ(近赤外線カメラ102)を利用して標識の種別を判定しても良い。例えば、近赤外線カメラ102を利用して、モノクロ画像を撮影し、かかるモノクロ画像から標識の種別を判定することで、カラーカメラを搭載する必要性をなくし、標識判定装置100のコストを削減することができる。
(3)標識判定結果の利用について
上記の実施例1では、標識判定部110が標識の種別を判定し、標識判定結果を標識候補領域テーブル107bに登録していたが、かかる標識判定結果の情報をどのように利用しても構わない。例えば、標識判定装置100がカーナビ装置(図示略)と連携して、標識判定結果となる標識をモニタ上に表示し、ユーザに標識の種別をリアルタイムに通知することができる。
(4)標識位置の利用について
上記の実施例1では、標識位置推定部111が標識位置を特定し、特定した標識位置を標識候補領域テーブル107bに登録していたが、かかる標識位置の情報をどのように利用しても構わない。例えば、カーナビ装置(図示略)が、かかる標識位置を基にして、自身が有する地図情報の標識位置を補正しても良い。
(5)道路標識領域を判定するその他の方法
近赤外線カメラ102とカラーカメラ103との光軸が一致していない場合は、視差ずれが生じるので、標識判定装置100(例えば、標識判定部110)は、以下に述べる方法でカラー画像中における道路標識領域を判定する。
まず、標識判定部110は、図16に示すように、差分画像から、標識候補の領域に接する外接四角形領域を切り出す。図16は、差分画像から外接四角形領域を切り出す場合の図である。図16において、外接四角形領域の四隅をA,B,C,Dとし、Aの座標を(x1,y1)、Bの座標を(x2,y1)、Cの座標を(x2,y2)、Dの座標を(x1,y2)とする。
そして、標識判定部110は、外接四角形領域の四隅の座標を基準にして、カラー画像から、所定の領域を切り出す。標識判定部110が、カラー画像から切出した所定の領域は、図16に示した外接四角形領域よりも大きめの領域となっている。以下の説明において、カラー画像から切り出した所定の領域を標識包含領域と表記する。図17は、カラー画像から標識包含領域を切り出す場合の図である。なお、図16に示した差分画像および図17に示したカラー画像は、近赤外線カメラ102およびカラーカメラ103が、ほぼ同一の景色を撮影したものである。
図17において、標識包含領域の四隅をA’、B’、C’、D’とし、A’の座標を(x1−px,y1)、B’の座標を(x2+px,y1−py)、C’の座標を(x2+px,y2+py)、D’の座標を(x1−px,y2+py)とする。
次に、図17に示した標識包含領域のパラメータpx、pyの決定方法について説明する。標識判定部110は、pxを、法令(建設省令:道路標識、区画線及び道路標示に関する命令)で定められている標識の最小サイズを元に決定する。例えば、円形標識の場合には、標識のサイズが30〜90cmと定められているので、最小サイズの30cmを元にして、pxの値を決定する。
三角測量の原理より、標識候補の近赤外線、カラーカメラ画像上の位置のずれは、カメラから標識候補までの距離に反比例する。言い換えると、カメラと標識候補との距離が短いほど各カメラの画像上の標識候補の位置のずれは大きくなる。図16のように、画像上の標識候補の大きさ(ピクセル数)が分かっている場合、標識の実際の大きさが最小であると仮定すれば距離は最小となる。つまり、左右カメラ(近赤外線カメラ102、カラーカメラ103)の画像上の標識候補の位置ずれが最大となる。このずれの値をpxとする。
近赤外線カメラ102、カラーカメラ103間の距離をd[m]、各カメラのCCD(Charge Coupled Device)の水平方向のサイズをw_ccd[m]、画像上の標識候補の水平方向の大きさをw_sign[ピクセル]、画像の水平方向の大きさをW_img[ピクセル]、法令で定められている標識の大きさをw_x[m]とするとpxは
Figure 2009163714
で表すことが出来る。ここで、2台のカメラ(近赤外線カメラ102、カラーカメラ103)のCCDのサイズは等しいとしている。
続いて、式(4)の導出過程について説明する。図18は、被写体(標識候補)とカメラとの関係を示す図であり、図19は、図18のCCDで撮影された照明ON/OFF時の画像の差分を示す図である。図18において、図18の撮影範囲W_area[m]、標識候補W_x[m]の大きさと、図19の画像サイズW_img[ピクセル]、標識候補サイズW_sign[ピクセル]は比例するので、式(5)、(6)の関係が成り立つ。
Figure 2009163714
Figure 2009163714
図18における相似の関係より、式(7)、(8)の関係が成り立つ。
Figure 2009163714
Figure 2009163714
三角測量の原理より、距離Lと2台のカメラ(近赤外線カメラ102、カラーカメラ103)には、式(9)、(10)の原理が成り立つ。
Figure 2009163714
Figure 2009163714
式(9)、(10)におけるU_l、U_r[m]は、それぞれ左右(left,right)のカメラにおける標識候補のCCD上の位置を示す。座標の位置関係については、参考文献([1]新編画像解析ハンドブック、高木幹夫・下田陽久監修、東京大学出版会、2004、p1327、図6.2.7)参照。
ここでは、u_lを近赤外線カメラ102のCCDの標識候補の水平位置とし、u_rをカラーカメラ103のCCDの標識候補の水平位置とする。式(10)を式(8)に代入すると、式(11)が成り立つ。
Figure 2009163714
単位ピクセルあたりの長さはW_img/W_area[m/ピクセル]なので、ピクセルのずれは、式(12)で表すことが出来る。
Figure 2009163714
式(12)は、式(4)と同一である。
ところで、pyにおいて、レンズの歪みが無視できる場合は、近赤外線カメラ102の画像と、カラーカメラ103の画像との標識候補の水平方向の位置ずれが理論的には無い。そのため、py=0としてよい。しかし、実際には両カメラの光軸を完全に平行にすることは難しいため、大抵の場合若干の位置ずれが生じる。
そこで、pyの値としてpxの値を代用する。レンズの歪みが無視できない場合は歪み補正を行い、歪みが無視できる場合と同様にpxの値を代用すればよい。上記の手法により、標識判定部110は、px、pyを算出する。
次に、カラー画像中の道路標識領域推定方法について説明する。図20は、カラー画像中の道標識領域推定方法を説明するための図である。まず、標識判定部110は、差分画像から標識領域を切出し(図20の(a)参照)、切り出した標識領域の輪郭画像を生成する(図20の(b)参照)。
そして、標識判定部110は、式(4)を利用して、px,pyを算出した後に、カラー画像から標識包含領域を切出し(図20の(c)参照)、標識包含領域中の画像データからエッジ画像を生成する(図20の(d)参照)。標識判定部110は、輪郭画像と、エッジ画像とを重ね合わせて、各画素の差の絶対値の和が最小になる場所を道路標識領域として判定する(図20の(e)参照)。
上述したような手法によって、道路標識の領域を判定することで、近赤外線カメラ102とカラーカメラ103の光軸が一致していない場合であっても、正確に道路標識の領域を判定でき、結果として、道路標識の認識率を向上させて、安定的に道路標識を判定することができる。
(6)システムの構成など
ところで、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図4に示した標識判定装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図21は、実施例1にかかる標識判定装置100を構成するコンピュータのハードウェア構成を示す図である。図21に示すように、このコンピュータ(携帯端末)200は、入力装置201、モニタ202、カラーカメラ203、近赤外線カメラ204、近赤外線照明205、RAM(Random Access Memory)206、ROM(Read Only Memory)207、記憶媒体からデータを読み取る媒体読取装置208、他の装置との間でデータの送受信を行う通信装置209、CPU(Central Processing Unit)210、HDD(Hard Disk Drive)211をバス212で接続して構成される。
ここで、カラーカメラ203、近赤外線カメラ204、近赤外線照明205は、図4に示したカラーカメラ103、近赤外線カメラ102、近赤外線照明101にそれぞれ対応する。
そして、HDD211には、上記した標識判定装置100の機能と同様の機能を発揮する標識検出プログラム211b、標識判定プログラム211c、位置検出プログラム211dが記憶されている。CPU210が標識検出プログラム211b、標識判定プログラム211c、位置検出プログラム211dを読み出して実行することにより、標識検出プロセス210a、標識判定プロセス210b、位置検出プロセス210cが起動される。ここで、標識検出プロセス210aは、差分画像生成部108、標識検出部109に対応し、標識判定プロセス210bは、標識判定部110に対応し、位置検出プロセス210cは、標識位置推定部111に対応する。
また、HDD211は、標識情報格納部107に記憶される情報に対応する各種データ211aを記憶する。CPU210は、HDD211に格納された各種データ211aを読み出して、RAM206に格納し、RAM206に格納された各種データ206aを用いて、標識の種別を判定する。
ところで、図21に示した標識検出プログラム211b、標識判定プログラム211c、位置検出プログラム211dは、必ずしも最初からHDD211に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに標識検出プログラム211b、標識判定プログラム211c、位置検出プログラム211dを記憶しておき、コンピュータがこれらから標識検出プログラム211b、標識判定プログラム211c、位置検出プログラム211dを読み出して実行するようにしてもよい。
上記の実施例1,2を含む実施形態に関し、以下の付記を開示する。
(付記1)標識を判定する標識判定装置であって、
近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像との差分を算出することにより差分画像を生成する差分画像生成手段と、
前記差分画像生成手段により生成された差分画像に基づき、画像中の標識の領域を検出する領域検出手段と、
前記領域検出手段が検出した画像中の標識の領域と、カラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定手段と、
を備えたことを特徴とする標識判定装置。
(付記2)前記カラーまたはモノクロの画像を撮影するカメラを搭載した移動体の位置を検出する位置検出手段と、当該位置検出手段により検出された、前記画像撮影時の移動体の位置と、前記画像の撮影方向と、前記標識判定手段により判定された標識の前記画像中における位置に基づいて、前記標識の地図上の位置を特定する標識位置特定手段とを更に備えたことを特徴とする付記1に記載の標識判定装置。
(付記3)前記標識判定手段は、前記領域検出手段が検出した画像中の標識の領域に対応する前記カラーまたはモノクロの画像の領域から色情報を取得し、当該色情報に含まれる色を、予め設定した複数種類の色分類のいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域の形状に基づいて標識の種別を判定することを特徴とする付記1または2に記載の標識判定装置。
(付記4)前記標識判定手段は、連続して撮影された画像を取得した場合に、各画像に含まれる標識の領域をそれぞれ対応付けて記憶し、前記標識の領域に対応する標識の種別を判定した場合に、当該標識の領域に対応付けられた他の画像中の標識の領域を同一の標識の種別として判定することを特徴とする付記1、2または3に記載の標識判定装置。
(付記5)標識を判定する標識判定装置の標識判定方法であって、
前記標識判定装置は、近赤外線を照射する近赤外線照明とカラーまたはモノクロの画像を撮影するカメラを備え、
前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを記憶装置に記憶する記憶ステップと、
前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを前記記憶装置から取得し、取得した画像の差分を算出することにより差分画像を生成する差分画像生成ステップと、
前記差分画像生成ステップにより生成された差分画像に基づき、画像中の標識の領域を検出する領域検出ステップと、
前記領域検出ステップにより検出された画像中の標識の領域と、前記カメラにより撮影されたカラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定ステップと、
を含んだことを特徴とする標識判定方法。
(付記6)前記カメラを搭載した移動体の位置を検出する位置検出ステップと、当該位置検出ステップにより検出された、前記画像撮影時の移動体の位置と、前記画像の撮影方向と、前記標識判定ステップにより判定された標識の前記画像中における位置に基づいて、前記標識の地図上の位置を特定する標識位置特定ステップとを更に含んだことを特徴とする付記5に記載の標識判定方法。
(付記7)前記標識判定ステップは、前記領域検出ステップが検出した画像中の標識の領域に対応する前記カラーまたはモノクロの画像の領域から色情報を取得し、当該色情報に含まれる色を、予め設定した複数種類の色分類のいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域の形状に基づいて標識の種別を判定することを特徴とする付記5または6に記載の標識判定方法。
(付記8)前記標識判定ステップは、連続して撮影された画像を取得した場合に、各画像に含まれる標識の領域をそれぞれ対応付けて記憶し、前記標識の領域に対応する標識の種別を判定した場合に、当該標識の領域に対応付けられた他の画像中の標識の領域を同一の標識の種別として判定することを特徴とする付記5、6または7に記載の標識判定方法。
(付記9)コンピュータに、
近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを記憶装置に記憶する記憶手順と、
近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを前記記憶装置から取得し、取得した画像の差分を算出することにより差分画像を生成する差分画像生成手順と、
前記差分画像生成手順により生成された差分画像に基づき、画像中の標識の領域を検出する領域検出手順と、
前記領域検出手順が検出した画像中の標識の領域と、カラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定手順と、
を実行させるための標識判定プログラム。
(付記10)前記カラーまたはモノクロの画像を撮影するカメラを搭載した移動体の位置を検出する位置検出手順と、当該位置検出手順により検出された、前記画像撮影時の移動体の位置と、前記画像の撮影方向と、前記標識判定手順により判定された標識の前記画像中における位置に基づいて、前記標識の地図上の位置を特定する標識位置特定手順とを更にコンピュータに実行させることを特徴とする付記9に記載の標識判定プログラム。
(付記11)前記標識判定手順は、前記領域検出手順が検出した画像中の標識の領域に対応する前記カラーまたはモノクロの画像の領域から色情報を取得し、当該色情報に含まれる色を、予め設定した複数種類の色分類のいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域の形状に基づいて標識の種別を判定することを特徴とする付記9または10に記載の標識判定プログラム。
(付記12)前記標識判定手順は、連続して撮影された画像を取得した場合に、各画像に含まれる標識の領域をそれぞれ対応付けて記憶し、前記標識の領域に対応する標識の種別を判定した場合に、当該標識の領域に対応付けられた他の画像中の標識の領域を同一の標識の種別として判定することを特徴とする付記9、10または11に記載の標識判定プログラム。
(付記13)標識を判定する標識判定装置であって、
前記標識判定装置は、車両に搭載された近赤外線を照射する近赤外線照明およびカラーまたはモノクロの画像を撮影するカメラに接続され、
前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像との差分を算出することにより差分画像を生成する差分画像生成手段と、
前記差分画像生成手段により生成された差分画像に基づき、画像中の標識の領域を検出する領域検出手段と、
前記領域検出手段が検出した画像中の標識の領域と、前記カメラにより撮影されたカラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定手段と、
を備えたことを特徴とする標識判定装置。
(付記14)前記標識判定装置は、車両の位置を検出する位置検出装置に接続され、当該位置検出装置により検出された、前記画像撮影時の移動体の位置と、前記画像の撮影方向と、前記標識判定手段により判定された標識の前記画像中における位置に基づいて、前記標識の地図上の位置を特定する標識位置特定手段とを更に備えたことを特徴とする付記13に記載の標識判定装置。
以上のように、本発明にかかる標識判定装置および標識判定方法は、対象物を検出する検出装置等に有用であり、特に、外界の影響を受けずに、対象物の認識率を向上させる必要がある場合に適している。
本実施例1にかかる標識判定装置の概要および特徴を説明するための図である。 近赤外線照明の照射タイミングと近赤外線カメラの露光タイミングとの関係を示す図である。 道路標識の形状と道路標識の種別との関係を示す図である。 本実施例1にかかる標識判定装置の構成を示す機能ブロック図である。 道路標識管理テーブルの一例を示す図である。 道路標識種別「進入禁止標識」のテンプレートデータのイメージ図である。 標識候補領域テーブルの一例を示す図である。 差分画像生成部の処理を説明するための図である。 差分画像の道路標識領域とカラー画像の道路標識領域との関係を示す図である。 セグメンテーション実行前と実行後の標識画像の一例を示す図である。 標識位置推定部の処理を説明するための図である。 本実施例1にかかる標識判定装置の処理手順を示すフローチャートである。 標識検出処理の処理手順を示すフローチャートである。 標識判定処理の処理手順を示すフローチャートである。 標識位置推定処理の処理手順を示すフローチャートである。 差分画像から外接四角形領域を切り出す場合の図である。 カラー画像から標識包含領域を切り出す場合の図である。 被写体(標識候補)とカメラとの関係を示す図である。 図18のCCDで撮影された照明ON/OFF時の画像の差分を示す図である。 カラー画像中の道路標識領域推定方法を説明するための図である。 実施例1にかかる標識判定装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
10 車両
100 標識判定装置
101 近赤外線照明
102 近赤外線カメラ
103 カラーカメラ
104 同期信号生成部
105 位置計測部
106 方位計測部
107 標識情報格納部
107a 道路標識管理テーブル
107b 標識候補領域テーブル
108 差分画像生成部
109 標識検出部
110 標識判定部
111 標識位置推定部
200 コンピュータ
201 入力装置
202 モニタ
203 カラーカメラ
204 近赤外線カメラ
205 近赤外線照明
206 RAM
206a,211a 各種データ
207 ROM
208 媒体読取装置
209 通信装置
210 CPU
210b 標識判定プロセス
210c 位置検出プロセス
211 HDD
211b 標識検出プログラム
211c 標識判定プログラム
211d 位置検出プログラム
212 バス

Claims (5)

  1. 標識を判定する標識判定装置であって、
    近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像との差分を算出することにより差分画像を生成する差分画像生成手段と、
    前記差分画像生成手段により生成された差分画像に基づき、画像中の標識の領域を検出する領域検出手段と、
    前記領域検出手段が検出した画像中の標識の領域と、カラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定手段と、
    を備えたことを特徴とする標識判定装置。
  2. 前記カラーまたはモノクロの画像を撮影するカメラを搭載した移動体の位置を検出する位置検出手段と、当該位置検出手段により検出された、前記画像撮影時の移動体の位置と、前記画像の撮影方向と、前記標識判定手段により判定された標識の前記画像中における位置に基づいて、前記標識の地図上の位置を特定する標識位置特定手段とを更に備えたことを特徴とする請求項1に記載の標識判定装置。
  3. 前記標識判定手段は、前記領域検出手段が検出した画像中の標識の領域に対応する前記カラーまたはモノクロの画像の領域から色情報を取得し、当該色情報に含まれる色を、予め設定した複数種類の色分類のいずれかにグルーピングし、同一グループの色に属する領域を一連の領域と判定し、判定した一連の領域の形状に基づいて標識の種別を判定することを特徴とする請求項1または2に記載の標識判定装置。
  4. 前記標識判定手段は、連続して撮影された画像を取得した場合に、各画像に含まれる標識の領域をそれぞれ対応付けて記憶し、前記標識の領域に対応する標識の種別を判定した場合に、当該標識の領域に対応付けられた他の画像中の標識の領域を同一の標識の種別として判定することを特徴とする請求項1、2または3に記載の標識判定装置。
  5. 標識を判定する標識判定装置の標識判定方法であって、
    前記標識判定装置は、近赤外線を照射する近赤外線照明とカラーまたはモノクロの画像を撮影するカメラを備え、
    前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを記憶装置に記憶する記憶ステップと、
    前記近赤外線照明が照射された時点での画像と前記近赤外線照明が照射されていない時点での画像とを前記記憶装置から取得し、取得した画像の差分を算出することにより差分画像を生成する差分画像生成ステップと、
    前記差分画像生成ステップにより生成された差分画像に基づき、画像中の標識の領域を検出する領域検出ステップと、
    前記領域検出ステップにより検出された画像中の標識の領域と、前記カメラにより撮影されたカラーまたはモノクロの画像とを基にして標識の種別を判定する標識判定ステップと、
    を含んだことを特徴とする標識判定方法。
JP2008279978A 2007-12-10 2008-10-30 標識判定装置および標識判定方法 Expired - Fee Related JP5200861B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008279978A JP5200861B2 (ja) 2007-12-10 2008-10-30 標識判定装置および標識判定方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007318843 2007-12-10
JP2007318843 2007-12-10
JP2008279978A JP5200861B2 (ja) 2007-12-10 2008-10-30 標識判定装置および標識判定方法

Publications (3)

Publication Number Publication Date
JP2009163714A true JP2009163714A (ja) 2009-07-23
JP2009163714A5 JP2009163714A5 (ja) 2011-10-06
JP5200861B2 JP5200861B2 (ja) 2013-06-05

Family

ID=40966214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008279978A Expired - Fee Related JP5200861B2 (ja) 2007-12-10 2008-10-30 標識判定装置および標識判定方法

Country Status (1)

Country Link
JP (1) JP5200861B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120111A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2016151967A (ja) * 2015-02-18 2016-08-22 株式会社東芝 情報処理装置、道路構造物管理システム、及び道路構造物管理方法
JP2016196233A (ja) * 2015-04-03 2016-11-24 クラリオン株式会社 車両用道路標識認識装置
JP2017036980A (ja) * 2015-08-10 2017-02-16 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
KR101782575B1 (ko) 2015-03-26 2017-09-27 주식회사 만도 왜곡된 원형 이미지를 추출하기 위한 이미지 처리 방법 및 시스템
JP2018077078A (ja) * 2016-11-08 2018-05-17 株式会社デンソー 自車位置推定装置
US10616495B2 (en) 2017-05-26 2020-04-07 Panasonic Intellectual Property Management Co., Ltd. Imaging device, imaging system, vehicle running control system, and image processing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203458A (ja) * 1998-01-13 1999-07-30 Nissan Motor Co Ltd 道路形状認識装置
JPH11317939A (ja) * 1999-01-08 1999-11-16 Sumitomo Electric Ind Ltd 対象物の追従認識装置
JP2002259969A (ja) * 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd 画像検出装置、プログラムおよび記録媒体
JP2005136952A (ja) * 2003-07-11 2005-05-26 Valeo Vision 色付き赤外線夜間視覚装置
JP2006011671A (ja) * 2004-06-24 2006-01-12 Alpine Electronics Inc 車載周辺状況検出装置
JP2007278765A (ja) * 2006-04-04 2007-10-25 Xanavi Informatics Corp ナビゲーション装置、および地図データ更新方法
JP2008077154A (ja) * 2006-09-19 2008-04-03 Honda Motor Co Ltd 車両周辺監視装置
JP2008252327A (ja) * 2007-03-29 2008-10-16 Toyota Motor Corp 車両周辺監視装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203458A (ja) * 1998-01-13 1999-07-30 Nissan Motor Co Ltd 道路形状認識装置
JPH11317939A (ja) * 1999-01-08 1999-11-16 Sumitomo Electric Ind Ltd 対象物の追従認識装置
JP2002259969A (ja) * 2000-12-25 2002-09-13 Matsushita Electric Ind Co Ltd 画像検出装置、プログラムおよび記録媒体
JP2005136952A (ja) * 2003-07-11 2005-05-26 Valeo Vision 色付き赤外線夜間視覚装置
JP2006011671A (ja) * 2004-06-24 2006-01-12 Alpine Electronics Inc 車載周辺状況検出装置
JP2007278765A (ja) * 2006-04-04 2007-10-25 Xanavi Informatics Corp ナビゲーション装置、および地図データ更新方法
JP2008077154A (ja) * 2006-09-19 2008-04-03 Honda Motor Co Ltd 車両周辺監視装置
JP2008252327A (ja) * 2007-03-29 2008-10-16 Toyota Motor Corp 車両周辺監視装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120111A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2016151967A (ja) * 2015-02-18 2016-08-22 株式会社東芝 情報処理装置、道路構造物管理システム、及び道路構造物管理方法
KR101782575B1 (ko) 2015-03-26 2017-09-27 주식회사 만도 왜곡된 원형 이미지를 추출하기 위한 이미지 처리 방법 및 시스템
US9953238B2 (en) 2015-03-26 2018-04-24 Mando Corporation Image processing method and system for extracting distorted circular image elements
JP2016196233A (ja) * 2015-04-03 2016-11-24 クラリオン株式会社 車両用道路標識認識装置
JP2017036980A (ja) * 2015-08-10 2017-02-16 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
JP2018077078A (ja) * 2016-11-08 2018-05-17 株式会社デンソー 自車位置推定装置
US10616495B2 (en) 2017-05-26 2020-04-07 Panasonic Intellectual Property Management Co., Ltd. Imaging device, imaging system, vehicle running control system, and image processing device
US10841505B2 (en) 2017-05-26 2020-11-17 Panasonic Intellectual Property Management Co., Ltd. Imaging device, imaging system, vehicle running control system, and image processing device
US11528424B2 (en) 2017-05-26 2022-12-13 Panasonic Intellectual Property Management Co., Ltd. Imaging device, imaging system, vehicle running control system, and image processing device

Also Published As

Publication number Publication date
JP5200861B2 (ja) 2013-06-05

Similar Documents

Publication Publication Date Title
JP5200861B2 (ja) 標識判定装置および標識判定方法
CN107506760B (zh) 基于gps定位与视觉图像处理的交通信号检测方法及系统
JP5747549B2 (ja) 信号機検出装置及びプログラム
US7936904B2 (en) Image recognition device for vehicle and vehicle head lamp controller and method of controlling head lamps
KR101261409B1 (ko) 영상 내 노면표시 인식시스템
JP5105400B2 (ja) 交通量計測方法および交通量計測装置
JP2011216051A (ja) 信号灯識別プログラムおよび信号灯識別装置
JP2018063680A (ja) 交通信号認識方法および交通信号認識装置
JP2008123113A (ja) 歩行者検知装置
JP2013203374A (ja) 車両用表示装置、その制御方法及びプログラム
JP2004297223A (ja) 撮影装置
KR20150125863A (ko) 연안에서의 객체 인식 장치 및 그 방법
CN108197523A (zh) 基于图像转换及轮廓邻域差异的夜间车辆检测方法及系统
JP2009298344A (ja) 車両灯火判定装置及びプログラム
JP2007072628A (ja) 顔向き判別装置
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
KR20140133713A (ko) 객체 인식 장치 및 그 방법
JP4517003B2 (ja) 道路標識自動認識システム
CN109916415A (zh) 道路类型确定方法、装置、设备及存储介质
JP2007004256A (ja) 画像処理装置、画像処理方法
JP4762026B2 (ja) 道路標識データベース構築装置
JP5062091B2 (ja) 移動体識別装置、コンピュータプログラム及び光軸方向特定方法
US9727780B2 (en) Pedestrian detecting system
JP2004086417A (ja) 横断歩道等における歩行者検出方法及び同装置
CN107992788B (zh) 识别交通灯的方法、装置及车辆

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees