JPWO2006075536A1 - 車両前方画像表示装置及び方法 - Google Patents

車両前方画像表示装置及び方法 Download PDF

Info

Publication number
JPWO2006075536A1
JPWO2006075536A1 JP2006552889A JP2006552889A JPWO2006075536A1 JP WO2006075536 A1 JPWO2006075536 A1 JP WO2006075536A1 JP 2006552889 A JP2006552889 A JP 2006552889A JP 2006552889 A JP2006552889 A JP 2006552889A JP WO2006075536 A1 JPWO2006075536 A1 JP WO2006075536A1
Authority
JP
Japan
Prior art keywords
image
edge
vehicle
color
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006552889A
Other languages
English (en)
Other versions
JP4466963B2 (ja
Inventor
隆二郎 藤田
隆二郎 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2006075536A1 publication Critical patent/JPWO2006075536A1/ja
Application granted granted Critical
Publication of JP4466963B2 publication Critical patent/JP4466963B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

カメラによって撮影された車両前方の白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成し、エッジ画像のエッジで区切られた区分領域を形成する対象物を判定し、エッジ画像の区分領域毎にその判定した対象物に対応した色を割り当てて推定カラー画像を作成する車両前方画像表示装置及び方法。

Description

本発明は、車両前方の画像を表示する車両前方画像表示装置及び方法に関する。
夜間に車両を運転する運転者のために、車両にカメラを搭載して周囲を撮影し、得られた画像を処理して道路上の白線などを認識する装置があることは既に知られている(特開平11−272849号公報参照)。
しかしながら、夜間に車両を運転する運転者は、そのような従来装置を用いても道路以外の周囲の様子が確認できず、特に、初めて通る道路の場合には不安な心理状態になることが考えられる。
本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、夜間走行中における運転者の不安心理状態を緩和することができる車両前方画像表示装置及び方法を提供することが本発明の目的である。
本発明の車両前方画像表示装置は、車両に搭載されその車両前方を撮影して白黒画像を出力するカメラを備え、前記カメラによって撮影された前記車両前方の白黒画像を推定カラー画像に変換して表示する車両前方画像表示装置であって、前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成するエッジ画像生成手段と、前記エッジ画像のエッジで区切られた区分領域を形成する対象物を判定する対象物判定手段と、前記エッジ画像の区分領域毎に前記対象物判定手段によって判定された対象物に対応した色を割り当てて前記推定カラー画像を作成する推定カラー画像作成手段と、を備えたことを特徴としている。
本発明の車両前方画像表示方法は、車両に搭載されその車両前方をカメラによって撮影して得られた白黒画像を推定カラー画像に変換して表示する車両前方画像表示方法であって、前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成し、前記エッジ画像のエッジで区切られた区分領域を形成する対象物を判定し、前記エッジ画像の区分領域毎に判定した対象物に対応した色を割り当てて前記推定カラー画像を作成することを特徴としている。
図1は本発明の実施例を示すブロック図である。
図2は車両前方画像処理を示すフローチャートである。
図3A及び図3Bはカメラから得られた白黒画像及びエッジ画像を示す図である。
図4はエッジ画像の4分割を示す図である。
図5は道路解析処理を示すフローチャートである。
図6は背景解析処理及び風景解析処理を示すフローチャートである。
図7は背景領域及び風景領域の小領域への分割を示す図である。
図8は対象物テーブルを示す図である。
図9は色テーブルを示す図である。
図10は推定カラー画像を示す図である。
図11は経路案内が推定カラー画像の道路部分に付加された画像を示す図である。
図12は消失点によるエッジ画像の4分割を示す図である。
以下、本発明の実施例を図面を参照しつつ詳細に説明する。
図1は本発明による車両前方画像表示装置を示している。この車両前方画像表示装置は、車両に搭載され、近赤外線カメラ1、近赤外線照射装置2、画像処理装置3、ナビゲーション装置4、表示装置5及び入力装置6を備えている。
近赤外線カメラ1は、夜間において近赤外線に感光して車両前方を撮影できるように車両に取り付けられている。近赤外線照射装置2は近赤外線カメラ1の撮影方向(車両前方)に近赤外線光を照射する。この実施例では近赤外線カメラ1と近赤外線照射装置2とは一体に形成されているが、個別に設けても良い。近赤外線カメラ1は画像処理装置3に接続され、近赤外線カメラ1によって撮影された画像データが画像処理装置3に供給される。また、近赤外線カメラ1は画像処理装置3によって近赤外線照射装置2と共に制御される。
画像処理装置3は、例えば、マイクロコンピュータからなり、近赤外線カメラ1から供給される画像データを入力して画像データが示す画像について車両前方画像処理する。その画像処理の詳細については後述する。
ナビゲーション装置4はGPS装置、車両運行検出部及びプロセッサ(共に図示せず)を備え、GPS装置によって車両の現在位置及び進行方位を検出し、車両運行検出部によって車速、エンジン回転数等の車両の運行状態を検出し、それらの検出出力に応じてプロセッサがナビゲーション処理を行う構成を有する。
表示装置5はディスプレイからなり、画像処理装置3による車両前方画像処理又はナビゲーション装置4によるナビゲーション処理の結果を表示する。入力装置6は例えば、キーボードからなり、ユーザによる入力操作に応じた指令を画像処理装置3及びナビゲーション装置4に供給する。
車両前方画像処理においては画像処理装置3内のプロセッサ(図示せず)は、図2に示すように、先ず、近赤外線照射装置2に対して近赤外線照射指令を発する(ステップS1)。近赤外線照射指令に応答して近赤外線照射装置2は近赤外線カメラ1の撮影方向に近赤外線光を照射する。近赤外線照射指令の発生後、プロセッサは近赤外線カメラ1からの画像データを取り込み(ステップS2)、その画像データが示す白黒画像(静止画)についてエッジ抽出を行う(ステップS3)。ステップS3では白黒画像のエッジ、すなわち画像中の物体や色等の区切りとなる輪郭だけを抽出することが行われる。例えば、取り込まれた画像データが示す白黒画像が図3Aに示す如き画像であるとすると、エッジ抽出した画像、すなわちエッジ画像は図3Bに示すようになる。
プロセッサは、そのエッジ画像を対角線で4つの領域に分割する(ステップS4)。図4に示すようにエッジ画像は4角形であり、対角線A,Bによって上下及び左右の4つの領域に分割される。上方領域は背景領域、下方領域は道路領域、左右領域は風景領域とされる。そして、下方領域の画像に応じて道路領域解析処理を行い(ステップS5)、左右領域の画像に応じて風景領域解析処理を行い(ステップS6)、上方領域の画像に応じて背景領域解析処理を行う(ステップS7)。
ステップS5の道路領域解析処理では、図5に示すように、道路領域内で白線認識が行われ(ステップS51)、白線認識結果の白線領域が白色に変換され(ステップS52)、白線領域以外のエッジで囲まれた領域が灰色に変換される(ステップS53)。すなわち、道路上の白線が認識され、その白線の領域が白色にされ、それ以外のエッジで囲まれた領域はアスファルト部分と見なすことができるので、そのアスファルト部分の領域が灰色にされる。
ステップS6の風景領域解析処理及びステップS7の背景領域解析では、図6に示すように、その風景領域及び背景領域各々の領域が小正方形の小領域(セル)に分割され(ステップS61)、小領域毎にフラクタル次元の値が算出される(ステップS62)。図3Bのエッジ抽出した画像に対して風景領域及び背景領域には例えば、図7に示すように小領域が形成される。その小領域毎のフラクタル次元解析が行われ、その結果としてフラクタル次元の値が得られる。フラクタル次元解析については例えば、特開2000−57353号公報に示されている。抽出されたエッジで区切られた区分領域毎にフラクタル次元の値の平均値を算出し(ステップS63)、その平均値に対応する対象物を判定し(ステップS64)、更に、対象物に対応する色に変換する(ステップS65)ことが行われる。平均値の算出では例えば、図7に示すように1つの対象物を含む小領域全て(図7の塗りつぶし部分C)のフラクタル次元について平均値がとられる。フラクタル次元の値と対象物との間には、風景領域及背景領域の各々で図8に示すような対応関係がほぼある。この対応関係を示す対象物テーブルを用いてステップS64では対象物が設定される。また、対象物と色との間には、図9に示すような対応関係を色テーブルとして予め用意しておき、色テーブルを用いてステップS65では区分領域の色変換が実行される。例えば、風景領域の1つの区分領域のフラクタル次元の平均値が1.1であった場合には、その領域は建造物と判定され、ベージュや白などの建物の色がランダムに設定される。図10は図3Bのエッジ抽出した画像に対するステップS52、S53及びS65の処理の結果として道路及び区分領域毎に色を付加した画像を示している。各領域の解析処理を行った後の画像は色付加画像、すなわち車両前方の推定カラー画像となる。なお、対象物テーブル及び色テーブルは画像処理装置3内のメモリ(図示せず)に予め記憶されている。
画像処理装置3内のプロセッサは、ステップS5〜S7各々の解析処理後、ナビゲーション装置4から経路案内情報を取得して経路案内情報に基づいた画像を解析処理後の推定カラー画像に合成してその合成後の映像を表示装置7にて表示させる(ステップS8)。
ナビゲーション処理としては、入力装置6からの入力操作に応じて目的地が受け入れられ、GPS装置から車両の現在地及び進行方位がデータとして得られ、現在地から目的地への経路が演算される。演算された経路が経路案内情報として画像処理装置3に供給される。ステップS8では経路案内情報に示される経路が推定カラー画像の道路部分に付加される。表示装置7には、例えば、図11に示すように経路を示す矢印画像(黄緑)が推定カラー画像の道路部分に合成されて表示される。
ステップS8の実行後、車両前方画像処理を継続するか否かを判別し(ステップS9)、例えば、入力装置6の操作入力に応じて継続する場合にはステップS1に戻って上記のステップS1〜S9の動作を繰り返す。一方、継続しない場合には、車両前方画像処理を終了する。
上記した実施例においては、近赤外線カメラ1で撮影した白黒画像に対してエッジを抽出して対象物を認識し易くするだけでなく、道路を灰色に、建造物や樹木等はそれとして適切な色に変換するので、運転者等のユーザに理解しやすい経路案内画像を提供することができる。また、近赤外線カメラ1により撮影された白黒画像をカラー画像化するので、夜間でも利用可能となる。更に、夜間でリアルタイムに昼に近い画像を提供することができる。
また、上記した実施例においては、フラクタル次元から対象物を判定してその対象物に適したカラー画像化を行って推定カラー画像を得るので、ユーザは推定カラー画像から対象物を容易に識別することができる。
更に、上記した実施例においては、ステップS4ではエッジ抽出画像を対角線で道路領域、左右風景領域及び背景領域に分割するが、その4つの領域に分ける方法として、前方道路の消失点を中心とした領域分けを行っても良い。特開平08−159716号公報に開示されたように、撮影された画像から白線認識をすることより消失点を求める方法を用いることができる。すなわち、図12に示すように、消失点から画像の四隅への直線で領域を4つに分け、下方領域を道路領域、左右領域を風景領域、上方領域を背景領域として解析を行うことができる。近赤外線カメラの取り付け位置や走行時の移動体や近赤外線カメラの振動により、撮影された画像の消失点が2本の対角線が交差する中心からずれて、対角線で分けた4つの領域が正しく領域分けできない場合があるので、消失点を中心として4領域に分割することによりそれに対処することができる。
また、上記した実施例においては、近赤外線カメラを用いて夜間に車両前方を撮影して白黒映像を得るようにしたが、通常のカメラで昼間に車両前方を撮影して白黒映像を得てそれを推定カラー映像に変換しても良い。
更に、対象物部分に色を付加する方法として近赤外線カメラ画像の輝度情報に応じた色を用い相対的に色を付加しても良い。また、カメラから得られた白黒画像から前方車両を認識して自動車として色を付加しても良い。暗視カメラは発色が少ないため、そのようなカメラを用いた場合にも本発明を適用することができる。また、対象物の表面の質感を表現するためテクスチャーを画像に貼って更にリアルに表現しても良い。
以上のように、本発明によれば、カメラによって撮影された車両前方の白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成するエッジ画像生成手段と、エッジ画像のエッジで区切られた区分領域を形成する対象物を判定する対象物判定手段と、エッジ画像の区分領域毎に対象物判定手段によって判定された対象物に対応した色を割り当てて推定カラー画像を作成する推定カラー画像作成手段と、を備えたので、運転者は車両前方の推定カラー画像をみることができ、知らない道を夜間走行する場合でも運転者の不安心理を緩和させることができる。
【発明の名称】車両前方画像表示装置及び方法
【0001】
【技術分野】
本発明は、車両前方の画像を表示する車両前方画像表示装置及び方法に関する。
【背景技術】
夜間に車両を運転する運転者のために、車両にカメラを搭載して周囲を撮影し、得られた画像を処理して道路上の白線などを認識する装置があることは既に知られている(特開平11−272849号公報参照)。
しかしながら、夜間に車両を運転する運転者は、そのような従来装置を用いても道路以外の周囲の様子が確認できず、特に、初めて通る道路の場合には不安な心理状態になることが考えられる。
【発明の開示】
本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、夜間走行中における運転者の不安心理状態を緩和することができる車両前方画像表示装置及び方法を提供することが本発明の目的である。
本発明の車両前方画像表示装置は、車両に搭載されその車両前方を撮影して白黒画像を出力するカメラを備え、前記カメラによって撮影された前記車両前方の白黒画像を推定カラー画像に変換して表示する車両前方画像表示装置であって、前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成するエッジ画像生成手段と、前記エッジ画像を2つの交差線で上方領域、下方領域、左方領域及び右方領域の4領域に分ける4分割手段と、前記4領域各々の領域内のエ
【0002】
ッジ画像を形成する対象物を判定する対象物判定手段と、前記4領域の領域毎に前記対象物判定手段によって判定された対象物に対応した色を割り当てて前記推定カラー画像を作成する推定カラー画像作成手段、を備えたことを特徴としている。
本発明の車両前方画像表示方法は、車両に搭載されたカメラによってその車両前方を撮影して得られた白黒画像を推定カラー画像に変換して表示する車両前方画像表示方法であって、前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成し、前記エッジ画像を2つの交差線で上方領域、下方領域、左方領域及び右方領域の4領域に分割し、前記4領域各々の領域内のエッジ画像を形成する対象物を判定し、前記4領域の領域毎に判定した対象物に対応した色を割り当てて前記推定カラー画像を作成することを特徴としている。
【図面の簡単な説明】
図1は本発明の実施例を示すブロック図である。
図2は車両前方画像処理を示すフローチャートである。
図3A及び図3Bはカメラから得られた白黒画像及びエッジ画像を示す図である。
図4はエッジ画像の4分割を示す図である。
図5は道路解析処理を示すフローチャートである。
図6は背景解析処理及び風景解析処理を示すフローチャートである。
図7は背景領域及び風景領域の小領域への分割を示す図である。
図8は対象物テーブルを示す図である。
図9は色テーブルを示す図である。
図10は推定カラー画像を示す図である。
図11は経路案内が推定カラー画像の道路部分に付加された画像を示す図である。
【0001】
技術分野
本発明は、車両前方の画像を表示する車両前方画像表示装置及び方法に関する。
背景技術
夜間に車両を運転する運転者のために、車両にカメラを搭載して周囲を撮影し、得られた画像を処理して道路上の白線などを認識する装置があることは既に知られている(特開平11−272849号公報参照)。
しかしながら、夜間に車両を運転する運転者は、そのような従来装置を用いても道路以外の周囲の様子が確認できず、特に、初めて通る道路の場合には不安な心理状態になることが考えられる。
発明の開示
本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、夜間走行中における運転者の不安心理状態を緩和することができる車両前方画像表示装置及び方法を提供することが本発明の目的である。
本発明の車両前方画像表示装置は、車両に搭載されその車両前方を撮影して白黒画像を出力するカメラを備え、前記カメラによって撮影された前記車両前方の白黒画像を推定カラー画像に変換して表示する車両前方画像表示装置であって、前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成するエッジ画像生成手段と、前記エッジ画像を2つの交差線で上方領域、下方領域、左方領域及び右方領域の4領域に分ける4分割手段と、前記4領域各々の領域内のエ
【0002】
ッジ画像を形成する対象物を判定する対象物判定手段と、前記4領域の領域毎に前記対象物判定手段によって判定された対象物に対応した色を割り当てて前記推定カラー画像を作成する推定カラー画像作成手段、を備えたことを特徴としている。
本発明の車両前方画像表示方法は、車両に搭載されたカメラによってその車両前方を撮影して得られた白黒画像を推定カラー画像に変換して表示する車両前方画像表示方法であって、前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成し、前記エッジ画像を2つの交差線で上方領域、下方領域、左方領域及び右方領域の4領域に分割し、前記4領域各々の領域内のエッジ画像を形成する対象物を判定し、前記4領域の領域毎に判定した対象物に対応した色を割り当てて前記推定カラー画像を作成することを特徴としている。
図面の簡単な説明
図1は本発明の実施例を示すブロック図である。
図2は車両前方画像処理を示すフローチャートである。
図3A及び図3Bはカメラから得られた白黒画像及びエッジ画像を示す図である。
図4はエッジ画像の4分割を示す図である。
図5は道路解析処理を示すフローチャートである。
図6は背景解析処理及び風景解析処理を示すフローチャートである。
図7は背景領域及び風景領域の小領域への分割を示す図である。
図8は対象物テーブルを示す図である。
図9は色テーブルを示す図である。
図10は推定カラー画像を示す図である。
図11は経路案内が推定カラー画像の道路部分に付加された画像を示す図である。

Claims (9)

  1. 車両に搭載されその車両前方を撮影して白黒画像を出力するカメラを備え、前記カメラによって撮影された前記車両前方の白黒画像を推定カラー画像に変換して表示する車両前方画像表示装置であって、
    前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成するエッジ画像生成手段と、
    前記エッジ画像のエッジで区切られた区分領域を形成する対象物を判定する対象物判定手段と、
    前記エッジ画像の区分領域毎に前記対象物判定手段によって判定された対象物に対応した色を割り当てて前記推定カラー画像を作成する推定カラー画像作成手段と、を備えたことを特徴とする車両前方画像表示装置。
  2. 前記対象物判定手段は、前記エッジ画像を2つの交差線で上方領域、下方領域及び左右領域の4領域に分ける4分割手段と、
    前記4領域のうちの下方領域のエッジ画像に応じて道路の白線認識を行う白線認識手段と、
    前記4領域のうちの下方領域及び左右領域の前記エッジ画像のエッジで区切られた区分領域毎にフラクタル次元解析を行うフラクタル次元解析手段と、
    前記区分領域毎に前記フラクタル次元解析手段によって解析結果に対応する対象物を設定する対象物設定手段と、を備え、
    前記推定カラー画像作成手段は、前記白線認識手段によって認識された前記下方領域内の道路の白線領域を白に変換し、その他の領域を灰色に変換する手段と、
    対象物と色との対応関係を示す色テーブルを有し、前記対象物設定手段によって設定された対象物に対応した色を前記色テーブルを用いて設定して前記エッジ画像のその対象物部分を設定色に変換する色設定手段と、を備えたことを特徴とする請求項1記載の車両前方画像表示装置。
  3. 前記4分割手段は、前記エッジ画像を2つの対角線で前記4領域に分けることを特徴とする請求項2記載の車両前方画像表示装置。
  4. 前記4分割手段は、前記エッジ画像を道路の消失点を中心として前記エッジ画像の四隅を結ぶ線で前記4領域に分けることを特徴とする請求項2記載の車両前方画像表示装置。
  5. 前記フラクタル次元算出手段は、前記4領域のうちの下方領域及び左右領域を正方形の小領域に分割する小分割手段と、
    前記小領域毎にフラクタル次元を算出するフラクタル次元算出手段と、
    前記区分領域毎に前記フラクタル次元算出手段によって算出されたフラクタル次元の平均値を算出してその平均値を前記解析結果とする平均値算出手段と、を備えたことを特徴とする請求項2記載の車両前方画像表示装置。
  6. 前記対象物設定手段は、前記解析結果と色との対応関係を示す対象物テーブルを前記下方領域及び左右領域各々で有し、前記フラクタル次元解析手段によって解析されたフラクタル次元の値に対応した対象物を前記対象物テーブルを用いて設定することを特徴とする請求項2記載の車両前方画像表示装置。
  7. 前記カメラは近赤外線カメラであり、前記近赤外線カメラの撮影方向に近赤外線光を照射する近赤外線照射装置を含むことを特徴とする請求項1記載の車両前方画像表示装置。
  8. 前記推定カラー画像作成手段によって生成された前記推定カラー画像にナビゲーション装置による経路案内画像を合成する合成手段と、
    前記合成手段によって合成された画像を表示する表示手段と、を備えたことを特徴とする請求項1記載の車両前方画像表示装置。
  9. 車両に搭載されその車両前方をカメラによって撮影して得られた白黒画像を推定カラー画像に変換して表示する車両前方画像表示方法であって、
    前記白黒画像中のエッジを検出してそのエッジだけのエッジ画像を生成し、
    前記エッジ画像のエッジで区切られた区分領域を形成する対象物を判定し、
    前記エッジ画像の区分領域毎に判定した対象物に対応した色を割り当てて前記推定カラー画像を作成することを特徴とする車両前方画像表示方法。
JP2006552889A 2005-01-11 2005-12-27 車両前方画像表示装置及び方法 Active JP4466963B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005003974 2005-01-11
JP2005003974 2005-01-11
PCT/JP2005/024225 WO2006075536A1 (ja) 2005-01-11 2005-12-27 車両前方画像表示装置及び方法

Publications (2)

Publication Number Publication Date
JPWO2006075536A1 true JPWO2006075536A1 (ja) 2008-06-12
JP4466963B2 JP4466963B2 (ja) 2010-05-26

Family

ID=36677563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006552889A Active JP4466963B2 (ja) 2005-01-11 2005-12-27 車両前方画像表示装置及び方法

Country Status (3)

Country Link
US (1) US8170284B2 (ja)
JP (1) JP4466963B2 (ja)
WO (1) WO2006075536A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4712659B2 (ja) * 2006-09-22 2011-06-29 富士フイルム株式会社 画像評価装置およびそのプログラム
JP4222411B2 (ja) * 2006-11-08 2009-02-12 日本電気株式会社 消失点検出システム、消失点検出方法および消失点検出用プログラム
US8396297B2 (en) * 2008-05-27 2013-03-12 Intel Corporation Supervised edge detection using fractal signatures
US20100238165A1 (en) * 2009-03-17 2010-09-23 Harris Corporation Geospatial modeling system for colorizing images and related methods
TWI412730B (zh) * 2009-06-08 2013-10-21 Wistron Corp 用於一智慧型手持裝置之測距方法及測距裝置、辨識標的物之位置的方法及電子裝置以及辨識當前位置的方法及電子裝置
US9834207B2 (en) * 2014-04-15 2017-12-05 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects
US20220014650A1 (en) * 2018-11-14 2022-01-13 Koito Manufacturing Co., Ltd. Infrared camera system, infrared camera module, and vehicle

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2611325B2 (ja) 1988-04-14 1997-05-21 株式会社デンソー 車両用道路認識装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JPH11243538A (ja) 1998-02-25 1999-09-07 Nissan Motor Co Ltd 車両用視認装置
JPH11272849A (ja) 1998-03-24 1999-10-08 Toyota Motor Corp 周辺監視装置
US6483429B1 (en) * 1999-10-21 2002-11-19 Matsushita Electric Industrial Co., Ltd. Parking assistance system
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP2006033570A (ja) * 2004-07-20 2006-02-02 Olympus Corp 画像生成装置

Also Published As

Publication number Publication date
US20080037828A1 (en) 2008-02-14
WO2006075536A1 (ja) 2006-07-20
JP4466963B2 (ja) 2010-05-26
US8170284B2 (en) 2012-05-01

Similar Documents

Publication Publication Date Title
US9467679B2 (en) Vehicle periphery monitoring device
JP4466963B2 (ja) 車両前方画像表示装置及び方法
JP7133926B2 (ja) 情報処理装置、システム、情報処理方法
US20120069153A1 (en) Device for monitoring area around vehicle
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
KR20100113959A (ko) 차량 주위 화상 표시 시스템
JP5516998B2 (ja) 画像生成装置
US11410430B2 (en) Surround view system having an adapted projection surface
JP2010136289A (ja) 運転支援装置及び運転支援方法
JP6471522B2 (ja) カメラパラメータ調整装置
JP2012105090A (ja) 駐車支援装置
JP2003132349A (ja) 描画装置
KR20160007022A (ko) 어라운드 뷰 시스템 및 그 동작방법
JP3521859B2 (ja) 車両周辺画像処理装置及び記録媒体
JP2000293693A (ja) 障害物検出方法および装置
KR20190067578A (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
JP2009139324A (ja) 車両用走行路面検出装置
JP6802999B2 (ja) 区画線検出システム
JP2019128153A (ja) 距離算出装置及び車両制御装置
JP4246691B2 (ja) 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車
JP7505596B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2009077022A (ja) 運転支援システム及び車両
JPH1055446A (ja) 物体認識装置
JP2008294616A (ja) 運転支援システム及び車両
JP4398216B2 (ja) 情報表示装置および情報表示方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100218

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3