JPWO2007083494A1 - 図形認識装置、図形認識方法および図形認識プログラム - Google Patents

図形認識装置、図形認識方法および図形認識プログラム Download PDF

Info

Publication number
JPWO2007083494A1
JPWO2007083494A1 JP2007554840A JP2007554840A JPWO2007083494A1 JP WO2007083494 A1 JPWO2007083494 A1 JP WO2007083494A1 JP 2007554840 A JP2007554840 A JP 2007554840A JP 2007554840 A JP2007554840 A JP 2007554840A JP WO2007083494 A1 JPWO2007083494 A1 JP WO2007083494A1
Authority
JP
Japan
Prior art keywords
graphic
recognition
shadow
area
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007554840A
Other languages
English (en)
Inventor
伸一 宮本
伸一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2007083494A1 publication Critical patent/JPWO2007083494A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 画像中に存在する影領域に影響されることなく、図形を認識することができる図形認識装置、図形認識方法および図形認識プログラムを提供する。【解決手段】 画像入力手段1は、車外環境の画像を取得し、光源位置情報獲得手段2は、太陽等の光源の位置を算出する。自車両形状獲得手段3および他車両形状獲得手段4は、それぞれ自車両および他車両の輪郭を形成する各点の位置を示す自車両形状情報および他車両形状情報を生成する。影領域計算手段5は、自車両形状情報、他車両形状情報、オブジェクト形状情報および光源位置情報に基づいて影領域の位置座標を算出し、画像上の2次元座標に変換して影/非影領域協調標識認識手段6に出力する。影/非影領域協調標識認識手段6は、特定された影領域および非影領域のそれぞれにおいて認識対象の標識の有無を判断することにより、画像中の標識を認識する。【選択図】図1

Description

本発明は、画像中の図形を認識する図形認識装置、標識認識方法および標識認識プログラムに関し、特に車載カメラによる撮影画像中の標識を認識する図形認識装置、標識認識方法および標識認識プログラムに関する。
自動車による交通事故の多くは、死角や注意不足による運転者の見落としが原因である。運転者にとって安全運転のためには、「止まれ」などの道路標識や、横断歩道、停止線、速度規制などを示す路面標識などの安全に関わる道路情報を正確に認識することが重要である。このため、周囲の標識を認識して運転者に通知する技術としては、路面と車両の間で通信を行う方法や、車外撮影用のカメラから取得した画像についてパターン認識を行う方法などが用いられている。
パターン認識を行うための車外環境を記録した画像中には、認識対象である標識以外にも、建造物、街路樹、看板、歩行者、他車両等のように多様なオブジェクトが存在している。これらのオブジェクトは、標識のパターン認識に大きな影響を及ぼしてしまう。例えば、交差点を通過中の先行車両によって横断歩道の一部が遮蔽されていたり、市街地の道路上を通行する歩行者によって白線の一部が遮蔽されていたりするとパターン認識を妨げることがある。
また、オブジェクトが作り出す影も、標識のパターン認識の認識結果を左右する。例えば、昼間に走行中の自車両が作り出す影や道路標識が道路面に落とす影によって路面標識の一部のコントラストが著しく低下したように撮影されると路面標識が認識されないことがある。
オブジェクトによって遮蔽されたパターン部分については、情報が完全に欠落したことになり、パターン形状等の事前知識を用いないと遮蔽部分の情報を得ることはできない。一方、影によってパターンのコントラストが変化した場合は、パターン形状に関する情報が完全に欠落したわけではないので、本来のパターン形状情報を復元することができる。
また、パターン認識においては、見え方が異なるという理由から認識対象の一部のみを用いて認識するよりも、出来るだけ認識対象全体を用いて認識を行った方が認識率を上げることが出来ることが知られている。従って、画像中においてオブジェクトの影を特定し、影のある領域(影領域)または影のない領域(非影領域)で標識認識を協調させながら行うことが、信頼度の高い標識認識処理を行う上で重要となる。
画像中のオブジェクトの影を特定するためには光源の位置を特定する必要がある。そこで、太陽の位置情報を取得し車両の制御やカーナビゲーションシステム(以下、カーナビと表記する)に用いる技術が、特許文献1および特許文献2に開示されている。
特許文献1に記載されたシステムでは、自車両の傾斜角、進行方向、位置、走行時の日時から太陽の位置を計算することにより、車両の特定部位を太陽光から遮蔽するための遮蔽シールドを制御している。
特許文献2に記載されたシステムは、自車両の位置と方位と走行時の日付とから太陽の位置を計算し、カーナビ画面において、太陽、建造物、標識などの表示対象物に対し、実際の気象条件に合わせた表示色、表示形状、表示陰影をつけるシステムである。
特開2005−8058号公報(段落0033−0043) 特開2002−310689号公報(段落0039−0049)
しかし、特許文献1に記載されたシステムでは、太陽の位置の計算は行っているものの、オブジェクトが生成する影領域の特定は行っておらず、標識認識処理に影領域の情報を付与することはできない。
また、特許文献2に記載されたシステムでは、太陽の位置を算出した上で、地図データベースを基に実際の影領域を特定し、地図上のオブジェクトに陰影として表示させているが、道路画像に高い確率で存在する車両などの移動オブジェクトが生成する影までは考慮していない。また、影領域を特定した後で認識処理を行っている訳ではなく、影領域の影響に頑健な標識認識を実現していない。
そこで、本発明は、画像中に存在する影領域に影響されることなく、標識を認識することができる図形認識装置、図形認識方法および図形認識プログラムを提供することを目的とする。
上記目的を達成するため、本発明の図形認識装置は、撮影装置に撮影された画像中の図形を認識する図形認識装置であって、画像における物体の影の領域を算出する影領域算出手段と、予め定められた特定の図形が存在するか否かを、影領域算出手段が算出した影の領域内と外とについて個別に判断する領域図形認識手段と、領域図形認識手段が判断した結果に基づいて画像中に特定の図形が存在するか否かを判断する図形認識手段とを備えたことを特徴とする。
また、上記の図形認識装置において、領域図形認識手段は、画像中の影の領域についてコントラストを強調した上で特定の図形が存在するか否かを判断する。このようにすると、画像中の影の領域についても正確なパターン認識が可能となる。
また、上述した影領域算出手段は、光源の位置を示す光源位置情報と影を生成している物体の輪郭を形成する複数の点の現実の位置を示す物体位置情報とを基に影の領域を算出してもよい。
また、影領域算出手段は、光源位置情報が示す一点と物体位置情報が示す一点とを通る直線の地面との交点を影の領域内の点として算出してもよい。このような構成にすると、光源の位置情報と物体の形状情報に基づいて影領域を算出できる。
上述した領域図形認識手段は、テンプレートマッチングにより特定の図形が存在するか否かを影の領域内と外とについて個別に判断してもよい。
領域図形認識手段は、ニューラルネットワークを用いた統計的な学習に基づいて特定の図形が存在するか否かを影の領域内と外とについて個別に判断してもよい。
領域図形認識手段は、特定の図形が周期性を有する場合に、影の領域内と外とについて特定のパターンの周期性の有無を判断してもよい。
領域図形認識手段は、影の領域内及び外のそれぞれについての判断結果を数値で出力し、図形認識手段は、領域図形認識手段により出力された各領域についての判断結果と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断してもよい。このような構成にすると、例えば、各領域におけるマッチングスコアが閾値以上の場合に、認識対象の標識が在ると判断することができる。
上述した図形認識手段は、領域図形認識手段により出力された各領域についての判断結果の重み付き線形和と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断してもよい。このような構成にすると、例えば、影領域又は非影領域のどちらかのみに限定したマッチングスコアが閾値以上の場合に、認識対象の標識が在ると判断することができる。
また、上記の図形認識装置は、光源の位置を撮影装置の位置及び撮影方向から算出し光源位置情報として出力する光源位置情報獲得手段を備えてもよい。
光源位置情報が天体の現実の位置を示す情報でもよい。
光源位置情報が人工光源の現実の位置を示す情報でもよい。
上述した影領域算出手段は、光源位置情報に基づいて推測される影の領域を算出し画像中の該当部分と比較して影の領域を特定してもよい。この場合、光源位置情報が仮想光源の位置を示す情報でもよい。このようにすると、光源の位置が正確にわからない場合でも影領域を算出できる。
また、上記の図形認識装置は、撮影装置を搭載した自車両の輪郭形状を示す座標データと撮影装置の位置情報とを基に当該自車両の輪郭を形成する各点の現実の位置を示す情報を算出し物体位置情報として出力する自車両形状獲得手段を備えてもよい。
さらに、上記の図形認識装置は、撮影装置を搭載した自車両の近傍に在る他車両の輪郭形状を示す座標データと撮影装置の位置情報とを基に当該他車両の輪郭を形成する各点の現実の位置を示す情報を算出し物体位置情報として出力する他車両形状獲得手段を備えてもよい。
またさらに、上記の図形認識装置は、構造物の輪郭形状と位置とを示す情報を物体位置情報として格納した地図データベースを備えてもよい。
次に、本発明の図形認識方法は、撮影装置に撮影された画像中の図形を認識する図形認識方法であって、画像における物体の影の領域を算出する影領域算出ステップと、予め定められた特定の図形が存在するか否かを、影領域算出ステップにおいて算出した影の領域内と外とについて個別に判断する領域図形認識ステップと、領域図形認識ステップにおいて判断した結果に基づいて画像中に特定の図形が存在するか否かを判断する図形認識ステップとを含むことを特徴とする。
上述した領域図形認識ステップでは、画像中の影の領域についてコントラストを強調した上で特定の図形が存在するか否かを判断してもよい。
上述した影領域算出ステップでは、光源の位置を示す光源位置情報と影を生成している物体の輪郭を形成する複数の点の現実の位置を示す物体位置情報とを基に影の領域を算出してもよい。
影領域算出ステップでは、光源位置情報が示す一点と物体位置情報が示す一点とを通る直線の地面との交点を影の領域内の点として算出してもよい。
上述した領域図形認識ステップでは、テンプレートマッチングにより特定の図形が存在するか否かを影の領域内と外とについて個別に判断してもよい。
領域図形認識ステップでは、ニューラルネットワークを用いた統計的な学習に基づいて特定の図形が存在するか否かを影の領域内と外とについて個別に判断してもよい。
領域図形認識ステップでは、特定の図形が周期性を有する場合に、影の領域内と外とについて特定のパターンの周期性の有無を判断してもよい。
領域図形認識ステップでは、影の領域内及び外のそれぞれについての判断結果を数値で出力し、図形認識ステップでは、領域図形認識ステップにより出力された各領域についての判断結果と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断してもよい。
また、上述した図形認識ステップでは、領域図形認識ステップにより出力された各領域についての判断結果の重み付き線形和と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断してもよい。
また、上記の図形認識方法は、光源の位置を撮影装置の位置及び撮影方向から算出し光源位置情報とする光源位置情報獲得ステップを含んでもよい。
また、光源位置情報が天体の現実の位置を示す情報であってもよい。
光源位置情報が人工光源の現実の位置を示す情報であってもよい。
上述した影領域算出ステップでは、光源位置情報に基づいて推測される影の領域を算出し画像中の該当部分と比較して影の領域を特定してもよい。この場合、光源位置情報が仮想光源の位置を示す情報であってもよい。
また、上記の図形認識方法は、撮影装置を搭載した自車両の輪郭形状を示す座標データと撮影装置の位置情報とを基に当該自車両の輪郭を形成する各点の現実の位置を示す情報を算出し物体位置情報とする自車両形状獲得ステップを含んでもよい。
さらに、上記の図形認識方法は、撮影装置を搭載した自車両の近傍に在る他車両の輪郭形状を示す座標データと撮影装置の位置情報とを基に当該他車両の輪郭を形成する各点の現実の位置を示す情報を算出し物体位置情報とする他車両形状獲得ステップを含んでもよい。
またさらに、上記の図形認識方法は、構造物の輪郭形状と位置情報とを示す情報を物体位置情報としてもよい。
次に、本発明の図形認識プログラムは、撮影装置に撮影された画像中の図形を認識するコンピュータに搭載される図形認識プログラムであって、画像における物体の影の領域を算出する影領域算出処理と、予め定められた特定の図形が存在するか否かを、影領域算出処理で算出した影の領域内と外とについて個別に判断する領域図形認識処理と、領域図形認識処理で判断した結果に基づいて画像中に特定の図形が存在するか否かを判断する図形認識処理とを実行させることを特徴とする。
本発明は以上のように構成され機能するため、これにより、自車両形状、他車両形状、その他のオブジェクトの形状の情報を利用して実際に車外撮影用カメラから取得される画像上の影領域を正確に特定した上で、影領域と非影領域とにおいて標識認識を協調させながら実行し、影に影響されないで標識認識を実行することが出来る。
以下、本発明の実施形態を図面を参照して説明する。
[実施形態1]
図1は、本発明における第1の実施形態の図形認識装置の構成を示すブロック図である。図1に示す図形認識装置は、画像入力手段1と、光源位置情報獲得手段2と、自車両形状獲得手段3と、他車両形状獲得手段4と、影領域算出手段5と、影/非影領域協調標識認識手段6と、認識結果出力手段7と、3次元地図データベース10とを備えている。
画像入力手段1は、自車両に搭載された車外撮影用カメラ(撮影装置)で撮影された車外環境の画像を入力する。画像入力手段1は、例えば、車載カメラによって撮影された車外環境の撮影画像を入力し、デジタル画像にして影/非影領域協調標識認識手段6に出力する。
光源位置情報獲得手段2は、太陽等の光源の位置を算出する。光源位置情報獲得手段2は、例えば、自車両が走行している位置および方位角をGPS(Global Positioning System )から取得し、走行時の日時から太陽の位置を計算して光源位置情報として影領域算出手段5へ出力する。
自車両形状獲得手段3は、自車両の形状情報(自車両形状情報)を獲得する。自車両形状情報は、自車両の輪郭を形成する各点の位置を示す3次元座標データの集合である。自車両形状獲得手段3は、既知である自車両の輪郭形状を示す3次元座標データを予め記憶している。自車両形状獲得手段3は、例えば、予め記憶する自車両の輪郭形状を示すデータと、GPSから取得した自車両の位置情報とに基づいて、自車両の輪郭を形成する各点の位置を示す自車両形状情報を生成し、影領域算出手段5に出力する。既知である自車両の輪郭形状を示すデータを用いることで、自車両形状を算出する必要がなく、迅速な処理が可能となる。
他車両形状獲得手段4は、他車両の形状情報(他車両形状情報)を獲得する。他車両形状情報は、他車両の輪郭を形成する各点の位置を示す3次元座標データの集合である。他車両形状獲得手段4は、例えば、自車両に搭載されたミリ波レーダによる剛体物体検出やステレオマッチングによる画像処理などの方法を用いることにより、他車両を道路面から立ち上がっている剛体として認識し、その輪郭形状を示す3次元座標データを記憶する。ここで、他車両とは自車両の近傍に在る車両であり、例えば、画像処理によって認識する場合には、撮影画像に写っている自車両以外の車両である。
また、他車両形状獲得手段4は、自車両から観測される他車両の位置情報を保存する。他車両形状獲得手段4は、例えば、ステレオマッチングにより三角測量の原理で自車両との位置関係を取得したり、ミリ波レーダを用いて他車両との距離を測定しカメラパラメータから計算したりすることによって他車両の位置情報を取得する。他車両形状獲得手段4は、例えば、他車両の輪郭形状を示すデータと、他車両の位置情報とに基づいて、他車両の輪郭を形成する各点の位置を示す他車両形状情報を生成し影領域算出手段5に出力する。
3次元地図データベース10は、道路、建造物、標識等の構造物(オブジェクト)についての形状と位置とを示す情報(オブジェクト形状情報)を格納するデータベースである。オブジェクト形状情報は、例えば、直方体に近似してよいビルのような建物の場合、その8つの頂点を示す緯度、経度、高さなどの3次元座標データである。
影領域算出手段5は、光源位置情報獲得手段2の出力である光源位置情報と、自車両形状獲得手段3の出力である自車両形状情報と、他車両形状獲得手段4の出力である他車両形状情報と、3次元地図データベース10が格納するオブジェクト形状情報とから影領域を特定する。すなわち、影領域算出手段5は、自車両、他車両およびオブジェクトが作る影領域の現実の位置座標を画像を用いずに算出する。
図2は、影領域算出手段5が影領域を特定する方法の一例を説明するための説明図である。具体的には、影領域算出手段5は、図2に示すように、車両およびオブジェクトの外側輪郭によって囲まれる閉じた空間を車両およびオブジェクトの内部領域(内部空間)とみなす。そして、光源Sと道路面上の1点Aを結ぶ光線のパスがこれらの内部領域を通過する場合には、影を生成する光線のパスとみなし、この道路面の1点Aを影領域内の点と特定する。
影領域算出手段5は、画像入力手段1が取得した画像上の2次元座標と、現実の3次元座標との対応関係をあらかじめ算出するものとする。具体的には、影領域算出手段5は、カメラの取り付け状態(車での取り付け位置や取り付け角度など)とカメラパラメータ(焦点距離、CCDセルサイズなど)を用いて、画像上の2次元座標と現実の3次元座標との対応関係を計算で求める。
影領域算出手段5は、算出した影領域の3次元座標データを、画像上の2次元座標に変換して影/非影領域協調標識認識手段6に出力する。これにより、画像上での影領域を特定することができる。
影/非影領域協調標識認識手段6は、影領域および非影領域のそれぞれにおいて、標識を認識するための処理を行う。図3は、影/非影領域協調標識認識手段6が標識を認識する方法の一例を説明するための説明図である。影/非影領域協調標識認識手段6は、図3に示すように、画像入力手段1に入力された画像を影領域と非影領域とに分割し、影領域のコントラストを強調した上で、各領域において認識対象の標識に対応したテンプレートとのマッチングなどの認識処理を行う。
すなわち、影/非影領域協調標識認識手段6は、影領域および非影領域のそれぞれについて、認識対象の標識の有無を判断する。影/非影領域協調標識認識手段6は、非影領域でのマッチングスコアと影領域でのマッチングスコアの和が閾値以上の場合は、画像中に認識対象の標識が存在したものとみなし、認識処理結果を認識処理結果出力手段7に出力する。ここで、認識処理結果とは、認識した標識を示す情報であって標識名などの情報である。認識処理結果出力手段7は、例えば、認識処理結果を表示する表示装置である。
ここで、影/非影領域強調標識認識手段6は、非影領域のみに限定して標識認識処理を行い、非影領域におけるマッチングスコアが閾値以上の場合に標識が存在すると判断してもよい。また、影/非影領域強調標識認識手段6は、非影領域および影領域の面積を計算し、面積が大きい領域におけるマッチングスコアが閾値以上の場合に標識が存在すると判断してもよい。
また、影/非影領域強調標識認識手段6が非影領域と影領域とで行う認識処理は、ニューラルネットワークを用いた統計的な学習に基づく認識処理でもよい。
また、認識対象の標識が横断歩道のような周期性を持つパターンである場合、影/非影領域強調標識認識手段6が非影領域と影領域とで行う認識処理は、フーリエ変換やガボール特徴量のようなパターンの周期性に反応するフィルタ処理でもよい。
本第1の実施形態において、影/非影領域協調標識認識手段6は、このように構成されているので、特定の図形が存在するか否かを影領域算出手段5が算出した影の領域内と外とについて個別に判断する領域図形認識手段及びその結果に基づいて画像中に特定の図形が存在するか否かを判断する図形認識手段として機能している。
また、本第1の実施形態では、光源位置情報獲得手段2が、光源として太陽の位置を算出する場合を例にしているが、光源はこれに限定したものではない。例えば、夜間の場合に、月の位置情報を獲得して月光が生成する影を算出してもよい。
ここで、図形認識装置は、コンピュータで実現可能であり、図形認識装置を構成する各構成要素、すなわち、画像入力手段1、光源位置情報獲得手段2、自車両形状獲得手段3、他車両形状獲得手段4、影領域算出手段5、影/非影領域協調標識認識手段6および認識結果出力手段7は、コンピュータの処理装置(CPU)に上述した機能を実現させるためのプログラムとして実現可能である。図形認識装置を構成する各構成要素がコンピュータで実現可能であること、およびプログラムとして実現可能であることは、第1の実施の形態に限らず、第2および第3の実施の形態でも同様である。
次に、図1および図4を参照して、本第1の実施形態の動作について説明する。
図4は、第1の実施形態の図形認識装置の動作を示すフローチャートである。図4は、画像入力手段1と認識結果出力手段7を除いた処理の流れ図を表し、ステップS1が光源位置情報獲得手段2、ステップS2〜ステップS3が自車両形状獲得手段3、ステップS4〜ステップS5が他車両形状獲得手段4、ステップS6が3次元地図データベース10、ステップS7〜ステップS15が影領域算出手段5、ステップS16〜ステップS21が影/非影領域協調標識認識手段6の、それぞれの動作を示している。
ステップS1において、光源位置情報獲得手段2は、3次元空間上での太陽の位置(Sx,Sy,Sz)をGPSからの自車両位置情報、方位角情報および走行時の日時から算出する。
自車両形状獲得手段3は、ステップS2において、自車両形状情報として自車両の外側輪郭を形成する各点の位置を示す3次元座標データを取得する。そして、ステップS3において、ステップS2で取得した自車両形状情報によって囲まれる閉領域空間を自車両内部とみなし、車両内部空間を表現する配列Carを生成する。ここで、配列Carは、座標(x,y,z)が車両の内部にあるか否かを示す配列であって、配列要素はCar[0][x][y][z]で表されるものとする。例えば、座標(x,y,z)が自車両の内部にある場合は、対応する配列要素Car[0][x][y][z]を1とし、自車両の外部にある場合はCar[0][x][y][z]を0とする。
他車両形状獲得手段4は、ステップS4において、他車両の合計台数をN台として、他車両形状情報として全ての他車両の外側輪郭を形成する各点の位置を示す3次元座標データを取得する。そして、ステップS5において、これらN台の他車両のそれぞれについて、車両内部空間を表現する配列Carを生成する。例えば、座標(x,y,z)がi番目(i=1,2,・・・,N)の他車両の内部にある場合は、対応する配列要素Car[i][x][y][z]を1とし、外部にある場合はCar[i][x][y][z]を0とする。
影領域算出手段5は、ステップS6において、3次元地図データベース10から、オブジェクト形状情報として3次元オブジェクトの外側輪郭情報を取得する。ここで、取得したオブジェクトの総数をMとする。
ステップS7において、影領域算出手段5は、オブジェクト内部空間を表現する配列OBJを生成する。例えば、座標(x,y,z)がj番目(j=1,2,・・・,M)のオブジェクトの内部にある場合は、対応する配列要素OBJ[j][x][y][z]を1とし、オブジェクト外部にある場合はOBJ[j][x][y][z]を0とする。
ステップS8において、影領域算出手段5は、道路面上の点(x,y,0)に注目し、(x,y,0)とステップS1で得た太陽の位置(Sx,Sy,Sz)とを結ぶ線分lを算出する。
ステップS9において、影領域算出手段5は、線分l上の座標(x’,y’,z’)に注目し、ステップS10において、座標(x’,y’,z’)に対応した配列値Car[i][x’][y’][z’](i=0,1,・・・,N)、OBJ[j][x’][y’][z’](j=1,2,・・・,M)を生成して、1となるものがあるか否かを判定する。この判定は、道路面上で影となる点と太陽の座標を結んだとき、必ず何らかのオブジェクトにより光線のパスが遮られることを利用している。
ステップS10でyesの場合、すなわち、Car[i][x’][y’][z’](i=0,1,・・・,N)=1またはOBJ[j][x’][y’][z’](j=1,2,・・・,M)=1となるものがある場合、道路面上の座標(x,y,0)は影領域内の座標とみなされる。影領域算出手段5は、ステップS11において、影領域配列Shadow(要素値は全て0で初期化されている)の対応する要素値Shadow[x][y]の値を1としてステップS14に移行する。
ステップS10でnoの場合、すなわち、Car[i][x’][y’][z’](i=0,1,・・・,N)=1またはOBJ[j][x’][y’][z’](j=1,2,・・・,M)=1となるものがない場合は、ステップS12に移行し、線分l上の全ての座標でステップS10の判定を行ったか否かを判定する。
ステップS12においてnoの場合、すなわち、ステップS10の判定を行っていない座標がある場合には、ステップS13に移行して未判定の線分l上の座標を選択した上でステップS9に移行する。ステップS12においてyesの場合(線分l上の全ての座標でステップS10の判定を行っている場合)には、ステップS14に移行する。
ステップS14では、道路面上の全ての座標でステップS8〜ステップS13の処理が実行されたか否かが判定される。ステップS14において、noの場合、すなわち道路面上の全ての座標で処理が実行されていない場合は、ステップS15に移行し、未判定の道路面上の座標が選択されてステップS8に移行する。ステップS14においてyesの場合、すなわち、道路面上の全ての座標で処理が実行された場合には、ステップS16に移行する。
ステップS16において、影領域算出手段5は、非影領域を表すShadow[x][y]=0を満たす座標(x,y,0)を画像上の2次元座標に変換することにより、画像上での非影領域を特定し、影/非影領域協調標識認識手段6に出力する。次いで、影/非影領域協調標識認識手段6は、画像上での非影領域において、テンプレートマッチングを実行し、そのスコア値SC1を計算する。
ステップS17において、影領域算出手段5は、影領域を表すShadow[x][y]=1を満たす座標(x,y,0)において、画像のコントラスト強調を実行する。ステップS18で、影領域算出手段5は、Shadow[x][y]=1を満たす座標(x,y,0)を画像上の2次元座標に変換することにより、画像上での影領域を特定し、影/非影領域協調標識認識手段6に出力する。次いで、影/非影領域協調標識認識手段6は、画像上での影領域においてテンプレートマッチングを行い、そのスコア値SC2を計算する。
ステップS19において、影/非影領域協調標識認識手段6は、予め設定された重み係数w1及びw2を用いてSC1とSC2との重み付き線形和w1×SC1+w2×SC2を計算する。ここで、w1=0かつw2≠0の場合は影領域のみに限定したテンプレートマッチングに相当し、w1≠0かつw2=0の場合は非影領域のみに限定したテンプレートマッチングに相当する。
次に、影/非影領域協調標識認識手段6は、SC1とSC2の重み付き線形和w1×SC1+w2×SC2と、予め決められた閾値Threとの大小関係を判定する。w1×SC1+w2×SC2がThreより大きい場合は、ステップS20においてテンプレートに対応した標識パターンが存在すると判定し、小さい場合はステップS21においてテンプレートに対応した標識パターンは存在しないと判定して、一連の処理を終了する。
以上に説明したように、第1の実施形態によれば、影領域を物体および光源の位置情報に基づいて算出し、影領域および非影領域のそれぞれにおいて認識処理を行うことにより、影の影響に頑健な標識認識を実行することができるという効果がある。
[実施形態2]
次に、本発明における第2の実施形態を図面を参照して説明する。
図5は、本発明における第2の実施形態の図形認識装置の構成を示すブロック図である。本第2の実施形態の図形認識装置は、光源の位置情報を、自車両位置,他車両位置および3次元地図データベースから算出するものである。
図5に示す光源位置情報獲得手段2は、自車両形状獲得手段3から得られる自車両形状情報と、他車両形状獲得手段4から得られる他車両形状情報および他車両の位置情報と、3次元地図データベース10が格納するオブジェクト形状情報とを入力として、光源の位置を算出する。本第2の実施形態は、図5に示すように、自車両形状獲得手段3、他車両形状獲得手段4の出力および3次元地図データベース10の出力が光源位置情報獲得手段2の入力になっていることに、前述した第1の実施形態との相違点がある。
次に、図5を参照して、本第2の実施形態の動作について説明する。
光源位置情報獲得手段2は、自車両形状獲得手段3の出力である自車両形状情報から、自車両のヘッドライトとテールランプの位置の3次元座標データを取得する。また、他車両形状獲得手段4の出力である他車両形状情報および自車両から観測される他車両の位置情報から、他車両のヘッドライトとテールランプの位置の3次元座標データを算出する。ここで、自車両形状情報および他車両形状情報は、車両のヘッドライトおよびテールランプの位置を示す3次元座標データを含むものとする。
また、光源位置情報獲得手段2は、3次元地図データベース10が格納するオブジェクト形状情報から、街灯等の光源となり得るオブジェクトの光源部分の位置を示す3次元座標データを取得する。なお、オブジェクト形状情報は、オブジェクトの光源部分の位置を示す3次元座標データを含むものとする。
すなわち、光源位置情報獲得手段2は、自車両および他車両のヘッドライトとテールランプの位置を示す3次元座標データと、街灯等の光源部分の位置を示す3次元座標データを取得して、影領域算出手段5に出力する。
影領域算出手段5は、光源位置情報獲得手段2の出力である各光源の位置情報に基づき、各光源が画像中に生成する影領域を算出する。ここで、本第2実施形態の図形認識装置のその他の構成は、図1に示す第1の実施形態の構成と同様であるため説明を省略する。
本第2の実施形態によれば、前述した第1の実施形態による効果に加えて、人工光源の光源位置情報を、自車両位置、他車両位置および3次元地図データベースから算出することができるという効果がある。
[実施形態3]
次に、本発明における第3の実施形態を図面を参照して説明する。
図6は、本発明における第3の実施形態の図形認識装置の構成を示すブロック図である。本第3の実施形態は、光源位置が正確にわからない場合に、光源位置をあらかじめ定められた規則に従って複数種類設定し、各設定位置から計算される影領域と実際に撮影された画像を比較し、最もマッチする影領域を選択するものである。
図7は、図6に示す光源位置情報獲得手段8が、候補となる仮想光源(仮想太陽)を複数設定する方法の一例を示す説明図である。
光源位置情報獲得手段8は、仮想光源を複数設定し、それぞれの位置を示す3次元座標データを影領域算出手段5に出力する。
図6に示すように、影領域算出手段5は、自車両形状獲得手段3の出力である自車両形状情報と、他車両形状獲得手段4の出力である他車両形状情報と、3次元地図データベース10が格納するオブジェクト形状情報とを用いて、光源位置情報獲得手段8によって設定されたそれぞれの位置に光源が存在する場合に生成される影領域を計算する。ここで、影領域算出手段5が算出する影領域は、3次元位置座標を画像上の2次元座標に変換したものである。
また、影領域算出手段5は、計算した各影領域と、画像入力手段1の出力である画像とを比較し、最もマッチする影領域を選択する。本第3の実施形態は、図6に示すように、光源位置情報獲得手段8が存在する点と画像入力手段1の出力が影領域算出手段5の入力となっている点に、前述した第1の実施形態との相違点がある。
次に、図6を参照して、本第3の実施形態の動作について説明する。
太陽の位置を算出する際に必要となる自車両の位置、太陽から自車両への方位角および走行時の日時のうち、自車両への方位角のみが不明の場合を例に説明する。
自車両の位置がわかっていることから太陽の仰角θは自明であるので、光源位置情報獲得手段8は、図7に示すように、天空上の仰角θの位置に仮想太陽を複数設定する。すなわち、光源位置情報獲得手段8は、仰角θの位置にある仮想太陽のそれぞれの位置を示す3次元座標データを影領域算出手段5に出力する。
影領域算出手段5は、自車両形状獲得手段3の出力である自車両形状情報と、他車両形状獲得手段4の出力である他車両形状情報と、3次元地図データベース10が格納するオブジェクト形状情報とを用いて、光源位置情報獲得手段8によって設定された複数の仮想太陽が生成する影領域をそれぞれ計算する。ここで、影領域算出手段5が算出する影領域は、3次元位置座標を画像上の2次元座標に変換したものである。
次いで、影領域算出手段5は、計算した各影領域と、画像入力手段1の出力である画像中の該当部分とを比較し、影領域どうしが最もよく一致する場合の計算した影領域を、実際の影領域として特定する。例えば、該当部分における画像画素値の和が最も小さくなる仮想太陽の位置を実際の太陽の位置とみなし、対応する影領域を実際の影領域とみなす。
ここで、本第3の実施形態の光源位置情報獲得手段8において、太陽の仰角θが既知である場合について説明したが、太陽の方位角が既知の場合にも同様に仮想太陽の位置を設定してもよい。
本第3の実施形態によれば、前述した第1の実施形態による効果に加えて、光源の位置が正確にわからない場合であっても、影領域を算出することができるという効果がある。
本発明を、撮影画像中の標識を認識する図形認識装置に適用することができ、特に、車外環境撮影用カメラを用いた図形認識装置において、撮影画像中に存在する影の影響に対して頑健な標識認識を行うために本発明は好適に実施される。
本発明における第1の実施形態の図形認識装置の構成を示すブロック図である。 図1に開示された実施形態において影領域を特定する方法の一例を示す説明図である。 図1に開示された実施形態において標識を認識する方法の一例を示す説明図である。 図1に開示された実施形態の図形認識装置の動作を示すフローチャートである。 本発明における第2の実施形態の図形認識装置の構成を示すブロック図である。 本発明における第3の実施形態の図形認識装置の構成を示すブロック図である。 図6に開示された実施形態において光源を複数設定する方法の一例を示す説明図である。
符号の説明
1 画像入力手段
2 光源位置情報獲得手段
3 自車両形状獲得手段
4 他車両形状獲得手段
5 影領域算出手段
6 影/非影領域協調標識認識手段
7 認識結果出力手段
10 3次元地図データベース

Claims (35)

  1. 撮影装置に撮影された画像中の図形を認識する図形認識装置であって、
    前記画像における物体の影の領域を算出する影領域算出手段と、
    予め定められた特定の図形が前記画像中に存在するか否かを、前記影領域算出手段が算出した影の領域内と外とについて個別に判断する領域図形認識手段と、
    前記領域図形認識手段が判断した結果に基づいて前記画像中に特定の図形が存在するか否かを判断する図形認識手段とを備えたことを特徴とする図形認識装置。
  2. 前記領域図形認識手段は、前記画像中の影の領域についてコントラストを強調した上で特定の図形が存在するか否かを判断する前記請求項1に記載の図形認識装置。
  3. 前記影領域算出手段は、光源の位置を示す光源位置情報と前記影を生成している物体の輪郭を形成する複数の点の現実の位置を示す物体位置情報とを基に前記影の領域を算出する前記請求項1又は請求項2に記載の図形認識装置。
  4. 前記影領域算出手段は、前記光源位置情報が示す一点と前記物体位置情報が示す一点とを通る直線の地面との交点を前記影の領域内の点として算出する前記請求項3に記載の図形認識装置。
  5. 前記領域図形認識手段は、テンプレートマッチングにより特定の図形が存在するか否かを前記影の領域内と外とについて個別に判断する前記請求項1から請求項4のいずれか一項に記載の図形認識装置。
  6. 前記領域図形認識手段は、ニューラルネットワークを用いた統計的な学習に基づいて特定の図形が存在するか否かを前記影の領域内と外とについて個別に判断する前記請求項1から請求項4のいずれか一項に記載の図形認識装置。
  7. 前記領域図形認識手段は、前記特定の図形が周期性を有する場合に、前記影の領域内と外とについて特定のパターンの周期性の有無を判断する前記請求項1から請求項4のいずれか一項に記載の図形認識装置。
  8. 前記領域図形認識手段は、影の領域内及び外のそれぞれについての判断結果を数値で出力し、
    前記図形認識手段は、前記領域図形認識手段により出力された各領域についての判断結果と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断する前記請求項1から請求項7のいずれか一項に記載の図形認識装置。
  9. 前記図形認識手段は、前記領域図形認識手段により出力された各領域についての判断結果の重み付き線形和と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断する前記請求項8に記載の図形認識装置。
  10. 前記光源の位置を前記撮影装置の位置及び撮影方向から算出し前記光源位置情報として出力する光源位置情報獲得手段を備えた前記請求項3から請求項9のうちのいずれか一項に記載の図形認識装置。
  11. 前記光源位置情報が天体の現実の位置を示す前記請求項3から請求項10のうちのいずれか一項に記載の図形認識装置。
  12. 前記光源位置情報が人工光源の現実の位置を示す前記請求項3から請求項10のうちのいずれか一項に記載の図形認識装置。
  13. 前記影領域算出手段は、前記光源位置情報に基づいて推測される影の領域を算出し画像中の該当部分と比較しその比較結果に基づいて前記影の領域を特定する前記請求項3から請求項12のいずれか一項に記載の図形認識装置。
  14. 前記光源位置情報が仮想光源の位置を示す前記請求項13に記載の図形認識装置。
  15. 前記撮影装置を搭載した自車両の輪郭形状を示す座標データと前記撮影装置の位置情報とを基に当該自車両の輪郭を形成する各点の現実の位置を示す情報を算出し前記物体位置情報として出力する自車両形状獲得手段を備えた前記請求項3から請求項14のいずれか一項に記載の図形認識装置。
  16. 前記撮影装置を搭載した自車両の近傍に在る他車両の輪郭形状を示す座標データと前記撮影装置の位置情報とを基に当該他車両の輪郭を形成する各点の現実の位置を示す情報を算出し前記物体位置情報として出力する他車両形状獲得手段を備えた前記請求項3から請求項15のいずれか一項に記載の図形認識装置。
  17. 構造物の輪郭形状と位置とを示す情報を前記物体位置情報として格納した地図データベースを備えた前記請求項3から請求項16のいずれか一項に記載の図形認識装置。
  18. 撮影装置に撮影された画像中の図形を認識する図形認識方法であって、
    前記画像における物体の影の領域を算出する影領域算出ステップと、
    予め定められた特定の図形が前記画像中に存在するか否かを、前記影領域算出ステップにおいて算出した影の領域内と外とについて個別に判断する領域図形認識ステップと、
    前記領域図形認識ステップにおいて判断した結果に基づいて前記画像中に特定の図形が存在するか否かを判断する図形認識ステップとを含むことを特徴とする図形認識方法。
  19. 前記領域図形認識ステップでは、前記画像中の影の領域についてコントラストを強調した上で特定の図形が存在するか否かを判断する前記請求項18に記載の図形認識方法。
  20. 前記影領域算出ステップでは、光源の位置を示す光源位置情報と前記影を生成している物体の輪郭を形成する複数の点の現実の位置を示す物体位置情報とを基に前記影の領域を算出する前記請求項18又は請求項19に記載の図形認識方法。
  21. 前記影領域算出ステップでは、前記光源位置情報が示す一点と前記物体位置情報が示す一点とを通る直線の地面との交点を前記影の領域内の点として算出する前記請求項20に記載の図形認識方法。
  22. 前記領域図形認識ステップでは、テンプレートマッチングにより特定の図形が存在するか否かを前記影の領域内と外とについて個別に判断する前記請求項18から請求項21のいずれか一項に記載の図形認識方法。
  23. 前記領域図形認識ステップでは、ニューラルネットワークを用いた統計的な学習に基づいて特定の図形が存在するか否かを前記影の領域内と外とについて個別に判断する前記請求項18から請求項21のいずれか一項に記載の図形認識方法。
  24. 前記領域図形認識ステップでは、前記特定の図形が周期性を有する場合に、前記影の領域内と外とについて特定のパターンの周期性の有無を判断する前記請求項18から請求項21のいずれか一項に記載の図形認識方法。
  25. 前記領域図形認識ステップでは、影の領域内及び外のそれぞれについての判断結果を数値で出力し、
    前記図形認識ステップでは、前記領域図形認識ステップにより出力された各領域についての判断結果と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断する前記請求項18から請求項24のいずれか一項に記載の図形認識方法。
  26. 前記図形認識ステップでは、前記領域図形認識ステップにより出力された各領域についての判断結果の重み付き線形和と予め定められた閾値との大小関係に基づいて、画像中に特定の図形が存在するか否かを判断する前記請求項25に記載の図形認識方法。
  27. 前記光源の位置を前記撮影装置の位置及び撮影方向から算出し前記光源位置情報とする前記光源位置情報獲得ステップを含む前記請求項20から請求項26のうちのいずれか一項に記載の図形認識方法。
  28. 前記光源位置情報が天体の現実の位置を示す前記請求項20から請求項27のうちのいずれか一項に記載の図形認識方法。
  29. 前記光源位置情報が人工光源の現実の位置を示す前記請求項20から請求項27のうちのいずれか一項に記載の図形認識方法。
  30. 前記影領域算出ステップでは、前記光源位置情報に基づいて推測される影の領域を算出し画像中の該当部分と比較して前記影の領域を特定する前記請求項20から請求項29のいずれか一項に記載の図形認識方法。
  31. 前記光源位置情報が仮想光源の位置を示す前記30に記載の図形認識方法。
  32. 前記撮影装置を搭載した自車両の輪郭形状を示す座標データと前記撮影装置の位置情報とを基に当該自車両の輪郭を形成する各点の現実の位置を示す情報を算出し前記物体位置情報とする自車両形状獲得ステップを含む前記請求項20から請求項31のいずれか一項に記載の図形認識方法。
  33. 前記撮影装置を搭載した自車両の近傍に在る他車両の輪郭形状を示す座標データと前記撮影装置の位置情報とを基に当該他車両の輪郭を形成する各点の現実の位置を示す情報を算出し前記物体位置情報とする他車両形状獲得ステップを含む前記請求項20から請求項32のいずれか一項に記載の図形認識方法。
  34. 構造物の輪郭形状と位置情報とを示す情報を前記物体位置情報とする前記請求項20から請求項33のいずれか一項に記載の図形認識方法。
  35. 撮影装置に撮影された画像中の図形を認識するコンピュータに搭載される図形認識プログラムであって、
    前記画像における物体の影の領域を算出する影領域算出処理と、
    予め定められた特定の図形が前記画像中に存在するか否かを、前記影領域算出処理で算出した影の領域内と外とについて個別に判断する領域図形認識処理と、
    前記領域図形認識処理で判断した結果に基づいて前記画像中に特定の図形が存在するか否かを判断する図形認識処理とを実行させることを特徴とする図形認識プログラム。
JP2007554840A 2006-01-17 2006-12-26 図形認識装置、図形認識方法および図形認識プログラム Pending JPWO2007083494A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006009132 2006-01-17
JP2006009132 2006-01-17
PCT/JP2006/325903 WO2007083494A1 (ja) 2006-01-17 2006-12-26 図形認識装置、図形認識方法および図形認識プログラム

Publications (1)

Publication Number Publication Date
JPWO2007083494A1 true JPWO2007083494A1 (ja) 2009-06-11

Family

ID=38287449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007554840A Pending JPWO2007083494A1 (ja) 2006-01-17 2006-12-26 図形認識装置、図形認識方法および図形認識プログラム

Country Status (3)

Country Link
US (1) US8229162B2 (ja)
JP (1) JPWO2007083494A1 (ja)
WO (1) WO2007083494A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5299513B2 (ja) * 2009-08-12 2013-09-25 日本電気株式会社 障害物検知装置及び方法並びに障害物検知システム
JP5066558B2 (ja) * 2009-09-17 2012-11-07 日立オートモティブシステムズ株式会社 自車影認識装置
KR20120059109A (ko) * 2010-11-30 2012-06-08 한국전자통신연구원 레이저 스캐너 센서를 이용한 다중 차량 감지 장치 및 그 방법
US10046716B2 (en) 2011-02-10 2018-08-14 Denso Corporation In-vehicle camera and vehicle control system
US9690997B2 (en) 2011-06-06 2017-06-27 Denso Corporation Recognition object detecting apparatus
JP6176028B2 (ja) 2013-09-26 2017-08-09 株式会社デンソー 車両制御システム、画像センサ
US9068839B2 (en) * 2012-06-29 2015-06-30 Nokia Technologies Oy Method and apparatus for providing shadow-based location positioning
JP5942771B2 (ja) * 2012-10-18 2016-06-29 富士通株式会社 画像処理装置及び画像処理方法
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9892550B2 (en) * 2013-10-08 2018-02-13 Here Global B.V. Photorealistic rendering of scenes with dynamic content
US9367759B2 (en) * 2014-01-16 2016-06-14 Gm Global Technology Opearations Llc Cooperative vision-range sensors shade removal and illumination field correction
US10713503B2 (en) * 2017-01-31 2020-07-14 General Electric Company Visual object detection system
WO2016075810A1 (ja) * 2014-11-14 2016-05-19 日産自動車株式会社 表示装置及び表示方法
KR102573705B1 (ko) * 2015-11-24 2023-09-04 삼성디스플레이 주식회사 디스플레이 제어 시스템
US10325163B2 (en) * 2016-11-22 2019-06-18 Ford Global Technologies, Llc Vehicle vision
US10436152B2 (en) * 2017-02-06 2019-10-08 Ford Global Technologies, Llc Vehicle repositioning for evaporative emission reduction
US10726275B2 (en) * 2018-03-07 2020-07-28 Visteon Global Technologies, Inc. System and method for correlating vehicular sensor data
US11367252B2 (en) * 2020-10-01 2022-06-21 Here Global B.V. System and method for generating line-of-sight information using imagery
CN113364990B (zh) * 2021-04-29 2023-04-07 佛山职业技术学院 车辆摄像头适应阴影区的方法、控制器及系统
KR20230082387A (ko) * 2021-12-01 2023-06-08 현대자동차주식회사 차량 영상 처리 장치 및 그 방법
CN115979589B (zh) * 2023-03-21 2023-07-07 陕西中信机电有限公司 一种可靠性检测方法、系统、存储介质及智能终端
CN118038191B (zh) * 2024-04-11 2024-06-14 山东农业大学 融合阴影动态变化的城市下垫面识别方法、系统、装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283012A (ja) * 1998-03-31 1999-10-15 Hitachi Software Eng Co Ltd 陰の認識方法
JP2006338555A (ja) * 2005-06-03 2006-12-14 Honda Motor Co Ltd 車両及び路面標示認識装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002310689A (ja) 2001-04-19 2002-10-23 Mitsubishi Electric Corp 移動体ナビゲーション装置及び地図画像表示方法
JP2005008058A (ja) 2003-06-19 2005-01-13 Matsushita Electric Ind Co Ltd 遮光制御装置
US8553088B2 (en) * 2005-11-23 2013-10-08 Mobileye Technologies Limited Systems and methods for detecting obstructions in a camera field of view

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283012A (ja) * 1998-03-31 1999-10-15 Hitachi Software Eng Co Ltd 陰の認識方法
JP2006338555A (ja) * 2005-06-03 2006-12-14 Honda Motor Co Ltd 車両及び路面標示認識装置

Also Published As

Publication number Publication date
WO2007083494A1 (ja) 2007-07-26
US8229162B2 (en) 2012-07-24
US20100254595A1 (en) 2010-10-07

Similar Documents

Publication Publication Date Title
US8229162B2 (en) Graphic recognition device, graphic recognition method, and graphic recognition program
US11380089B1 (en) All-weather target detection method based on vision and millimeter wave fusion
CN111448591B (zh) 不良光照条件下用于定位车辆的系统和方法
CN109461211B (zh) 基于视觉点云的语义矢量地图构建方法、装置和电子设备
US11183067B2 (en) Image generating apparatus, image generating method, and recording medium
CN110531376B (zh) 用于港口无人驾驶车辆的障碍物检测和跟踪方法
Negru et al. Image based fog detection and visibility estimation for driving assistance systems
JP4746137B2 (ja) カメラからのカメラ画像に基づいて位置を判定する装置、方法およびコンピュータ・プログラム
CN111133447A (zh) 适于自主驾驶的对象检测和检测置信度
KR102218881B1 (ko) 차량 위치 결정 방법 및 시스템
Mahaur et al. Road object detection: a comparative study of deep learning-based algorithms
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
CN111209825A (zh) 一种用于动态目标3d检测的方法和装置
WO2024012211A1 (zh) 自动驾驶环境感知方法、介质及车辆
EP3779871A1 (en) Arithmetic processing device, object identification system, object identification method, automobile, and vehicular lighting fixture
CN112639822B (zh) 一种数据处理方法及装置
US11869253B2 (en) Vehicle environment modeling with a camera
US11555928B2 (en) Three-dimensional object detection with ground removal intelligence
CN113902047B (zh) 图像元素匹配方法、装置、设备以及存储介质
EP3871192B1 (en) Orientation determination for mobile computing devices
CN114581748A (zh) 基于机器学习的多智能体感知融合系统及其实现方法
CN114677658A (zh) 十亿像素动态大场景图像采集和多目标检测方法及装置
CN116534052B (zh) 行驶场景感知数据处理方法、装置、控制器及存储介质
JP2019139471A (ja) 画像処理装置、方法及びプログラム
US20230316565A1 (en) Image view adjustment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100330