JP2010141836A - 障害物検知装置 - Google Patents

障害物検知装置 Download PDF

Info

Publication number
JP2010141836A
JP2010141836A JP2008318860A JP2008318860A JP2010141836A JP 2010141836 A JP2010141836 A JP 2010141836A JP 2008318860 A JP2008318860 A JP 2008318860A JP 2008318860 A JP2008318860 A JP 2008318860A JP 2010141836 A JP2010141836 A JP 2010141836A
Authority
JP
Japan
Prior art keywords
difference
axis
bird
image
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008318860A
Other languages
English (en)
Inventor
Nagateru Yo
長輝 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008318860A priority Critical patent/JP2010141836A/ja
Priority to US12/638,279 priority patent/US20100149333A1/en
Publication of JP2010141836A publication Critical patent/JP2010141836A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

【構成】カメラC_1〜C_4は、地面に斜めに交差する方向の被写界を表す被写界像P_1〜P_4を繰り返し出力する。CPU12pは、被写界像P_1〜P_4の各々を鳥瞰画像に変換し、変換された鳥瞰画像の画面間における差分を検出する。CPU12pはまた、カメラC_1〜C_4の撮像面の中心に対応する4つの基準点の各々から地面に平行に延びる連結線軸に沿う一部の差分を、鳥瞰画像の画面間における差分の中から特定する。CPU12pはさらに、連結線軸と交差して地面に平行に延びる連結線垂直軸に沿う一部の差分を、鳥瞰画像の画面間における差分の中から特定する。こうして特定された差分が既定条件を満足すれば、CPU12pは、障害物の存在を報知するべく、障害物エリアの位置に対応して操縦支援画像に矩形キャラクタを多重する。
【効果】障害物の検知性能が向上する。
【選択図】図1

Description

この発明は、障害物検知装置に関し、特に、自動車のような移動体に設けられて周辺の障害物を検知する、障害物検知装置に関する。
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、車両の周辺の被写界を表す画像が車両に搭載された撮像装置から繰り返し出力される。画像処理ユニットは、撮像装置から出力された2つの画像の各々を鳥瞰画像に変換し、変換された2つの鳥瞰画像に位置合わせを施し、そして位置が合わせられた2つの鳥瞰画像の差分を検出する。検出された差分には、高さのある障害物に相当する成分が現れる。これによって、被写界から障害物を検知することができる。
特開2006−268076号公報
しかし、背景技術では、鳥瞰画像への変換処理の誤差や位置合わせ処理の誤差に起因して、障害物の検知精度が低下するおそれがある。
それゆえに、この発明の主たる目的は、動的な障害物の検知精度を向上させることができる、障害物検知装置を提供することである。
この発明に従う障害物検知装置(10:実施例で相当する参照符号。以下同じ)は、基準面に斜めに交差する方向の被写界を捉える撮像手段(C_1~C_4)から繰り返し出力される被写界像を取り込む取り込み手段(S3)、取り込み手段によって取り込まれた被写界像を鳥瞰画像に変換する変換手段(S5)、変換手段によって変換された鳥瞰画像の画面間における差分を検出する検出手段(S15)、撮像面の中心に対応する基準点から基準面に平行に延びる第1軸に沿う一部の差分を検出手段によって検出された差分の中から特定する第1特定手段(S35)、第1軸と交差して基準面に平行に延びる第2軸に沿う一部の差分を検出手段によって検出された差分の中から特定する第2特定手段(S39)、および第1特定手段によって特定された差分と第2特定手段によって特定された差分とが既定条件を満足するとき報知を発生する発生手段(S47~S51)を備える。
取り込み手段は、基準面に斜めに交差する方向の被写界を捉える撮像手段から繰り返し出力される被写界像を取り込む。取り込み手段によって取り込まれた被写界像は、変換手段によって鳥瞰画像に変換される。変換手段によって変換された鳥瞰画像の画面間における差分は、検出手段によって検出される。第1特定手段は、撮像面の中心に対応する基準点から基準面に平行に延びる第1軸に沿う一部の差分を検出手段によって検出された差分の中から特定する。第2特定手段は、第1軸と交差して基準面に平行に延びる第2軸に沿う一部の差分を検出手段によって検出された差分の中から特定する。第1特定手段によって特定された差分と第2特定手段によって特定された差分が既定条件を満足すれば、報知手段によって報知が発生される。
第1特定手段および第2特定手段の各々によって注目される差分は、基準面に斜めに交差する方向において捉えられた被写界像に対応する鳥瞰画像の画面間差分に相当する。したがって、動的な障害物が第1軸に対応する位置に存在するときは、動的な障害物の高さに相当する差分が第1特定手段によって特定され、動的な障害物の幅に相当する差分が第2特定手段によって特定される。一方、基準面に描かれた模様あるいは静的な障害物が第1軸に対応する位置に存在するときは、鳥瞰画像への変換処理の誤差に相当する差分が第1特定手段および第2特定手段によって特定される。こうして特定された差分が既定条件を満足するか否か判別することで、動的な障害物の検知性能が向上する。
好ましくは、基準面に直交するように基準点から延びる基準軸の回転方向における1または2以上の角度の各々に対応して第1軸を定義する第1定義手段(S21~S31)がさらに備えられ、第1特定手段は第1定義手段の定義処理に関連して差分特定処理を実行する。
さらに好ましくは、検出手段によって検出された差分の回転方向における分布状態を表すヒストグラムを作成する作成手段(S17)がさらに備えられ、第1定義手段は作成手段によって作成されたヒストグラムを参照して定義処理を実行する。
好ましくは、第1特定手段によって特定された差分に対応する1または2以上の位置の各々に第2軸を定義する第2定義手段(S37)がさらに備えられ、第2特定手段は第2定義手段の定義処理に関連して差分特定処理を実行する。
好ましくは、第2特定手段によって特定される差分は第2軸に沿って連続的に現れる差分に相当する。
好ましくは、既定条件は、第1特定手段によって特定された差分の大きさが第1閾値を上回り、かつ第2特定手段によって特定された差分の大きさが第2閾値を下回るという条件に相当する。
この発明によれば、第1特定手段および第2特定手段の各々によって注目される差分は、基準面に交差する方向において捉えられた被写界像に対応する鳥瞰画像の画面間差分に相当する。したがって、動的な障害物が第1軸に対応する位置に存在するときは、動的な障害物の高さに相当する差分が第1特定手段によって特定され、動的な障害物の幅に相当する差分が第2特定手段によって特定される。一方、基準面に描かれた模様あるいは静的な障害物が第1軸に対応する位置に存在するときは、鳥瞰画像への変換処理の誤差に相当する差分が第1特定手段および第2特定手段によって特定される。こうして特定された差分が既定条件を満足するか否か判別することで、動的な障害物の検知性能が向上する。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1に示すこの実施例の操縦支援装置(障害物検知装置)10は、4個のカメラC_1〜C_4を含む。カメラC_1〜C_4はそれぞれ、共通の垂直同期信号Vsyncに応答して、被写界像P_1〜P_4を1/30秒毎に出力する。出力された被写界像P_1〜P_4は、画像処理回路12によって取り込まれる。取り込まれた被写界像P_1〜P_4はそれぞれ、SDRAM12mのワークエリアF1〜F4に書き込まれる。
図2(A)〜図2(D)を参照して、操縦支援装置10は、地面を走行する自動車100に搭載される。具体的には、カメラC_1は、自動車100の前方斜め下を向く姿勢で、自動車100の前部のほぼ中央に設置される。カメラC_2は、自動車100の右斜め下を向く姿勢で、自動車100の右側の幅方向ほぼ中央でかつ高さ方向上側に設置される。
カメラC_3は、自動車100の後方斜め下を向く姿勢で、自動車100の後部の幅方向ほぼ中央でかつ高さ方向上側に設置される。カメラC_4は、自動車100の左斜め下を向く姿勢で、自動車100の左側の幅方向ほぼ中央でかつ高さ方向上側に設置される。
自動車100とその周辺の地面とを鳥瞰した状態を図3に示す。図3によれば、カメラC_1は自動車100の前方を捉える視野VW_1を有し、カメラC_2は自動車100の右方向を捉える視野VW_2を有し、カメラC_3は自動車100の後方を捉える視野VW_3を有し、そしてカメラC_4は自動車100の左方向を捉える視野VW_4を有する。また、視野VW_1およびVW_2は共通視野VW_12を有し、視野VW_2およびVW_3は共通視野VW_23を有し、視野VW_3およびVW_4は共通視野VW_34を有し、そして視野VW_4およびVW_1は共通視野VW_41を有する。
図1に戻って、画像処理回路12に設けられたCPU12pは、ワークエリアF1に格納された被写界像P_1に基づいて図4(A)に示す鳥瞰画像BEV_1を生成し、ワークエリアF2に格納された被写界像P_2に基づいて図4(B)に示す鳥瞰画像BEV_2を生成する。CPU12pはまた、ワークエリアF3に格納された被写界像P_3に基づいて図4(C)に示す鳥瞰画像BEV_3を生成し、ワークエリアF4に格納された被写界像P_4に基づいて図4(D)に示す鳥瞰画像BEV_4を生成する。鳥瞰画像BEV_1〜BEV_4もまた、ワークエリアF1〜F4に格納される。
鳥瞰画像BEV_1は視野VW_1を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_2は視野VW_2を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。また、鳥瞰画像BEV_3は視野VW_3を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_4は視野VW_4を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。
図4(A)〜図4(D)によれば、鳥瞰画像BEV_1は鳥瞰座標系X1・Y1を有し、鳥瞰画像BEV_2は鳥瞰座標系X2・Y2を有し、鳥瞰画像BEV_3は鳥瞰座標系X3・Y3を有し、そして鳥瞰画像BEV_4は鳥瞰座標系X4・Y4を有する。
CPU12pは続いて、鳥瞰画像BEV_1〜BEV_4を互いに結合するべく、鳥瞰画像BEV_2〜BEV_4を鳥瞰画像BEV_1を基準として回転および/または移動させる。鳥瞰画像BEV_2〜BEV_4の座標は、図5に示す全周鳥瞰画像を描くように、ワークエリアF2〜F4上で変換される。
図5において、重複エリアOL_12は共通視野VW_12を再現するエリアに相当し、重複エリアOL_23は共通視野VW_23を再現するエリアに相当する。また、重複エリアOL_34は共通視野VW_34を再現するエリアに相当し、そして重複エリアOL_41は共通視野VW_41を再現するエリアに相当する。
さらに、固有エリアOR_1は視野VW1のうち共通視野VW_41およびVW_12を除く一部の視野を再現するエリアに相当し、固有エリアOR_2は視野VW2のうち共通視野VW_12およびVW_23を除く一部の視野を再現するエリアに相当する。また、固有エリアOR_3は視野VW3のうち共通視野VW_23およびVW_34を除く一部の視野を再現するエリアに相当し、固有エリアOR_4は視野VW4のうち共通視野VW_34およびVW_41を除く一部の視野を再現するエリアに相当する。
自動車100の運転席に設置された表示装置14は、重複エリアOL_12〜OL_41が四隅に位置する区画BK1を定義し、定義された区画BLK1に属する一部の鳥瞰画像をワークエリアF1〜F4の各々から読み出す。表示装置14はさらに、読み出された鳥瞰画像を互いに結合し、これによって得られた全周鳥瞰画像の中央に自動車100の上部を模したグラフィック画像G1を貼り付ける。この結果、図6に示す操縦支援画像がモニタ画面に表示される。
次に、鳥瞰画像BEV_1〜BEV_4の作成要領について説明する。ただし、鳥瞰画像BEV_1〜BEV_4はいずれも同じ要領で作成されるため、鳥瞰画像BEV_1〜BEV_4を代表して鳥瞰画像BEV3の作成要領を説明する。
図7を参照して、カメラC_3は自動車100の後部に後方斜め下向きに配置される。カメラC_3の俯角を“θd”とすると、図7に示す角度θは“180°−θd”に相当する。また、角度θは、90°<θ<180°の範囲で定義される。
図8は、カメラ座標系X・Y・Zと、カメラC_3の撮像面Sの座標系Xp・Ypと、世界座標系Xw・Yw・Zwとの関係を示す。カメラ座標系X・Y・Zは、X軸,Y軸およびZ軸を座標軸とする三次元の座標系である。座標系Xp・Ypは、Xp軸およびYp軸を座標軸とする二次元の座標系である。世界座標系Xw・Yw・Zwは、Xw軸,Yw軸およびZw軸を座標軸とする三次元の座標系である。
カメラ座標系X・Y・Zでは、カメラC3の光学的中心を原点Oとして、光軸方向にZ軸が定義され、Z軸に直交しかつ地面に平行な方向にX軸が定義され、そしてZ軸およびX軸に直交する方向にY軸が定義される。撮像面Sの座標系Xp・Ypでは、撮像面Sの中心を原点として、撮像面Sの横方向にXp軸が定義され、撮像面Sの縦方向にYp軸が定義される。
世界座標系Xw・Yw・Zwでは、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Owとして、地面と垂直な方向にYw軸が定義され、カメラ座標系X・Y・ZのX軸と平行な方向にXw軸が定義され、そしてXw軸およびYw軸に直交する方向にZw軸が定義される。また、Xw軸からX軸までの距離は“h”であり、Zw軸およびZ軸によって形成される鈍角が上述の角度θに相当する。
カメラ座標系X・Y・Zにおける座標を(x,y,z)と表記した場合、“x”,“y”および“z”はそれぞれ、カメラ座標系X・Y・ZにおけるX軸成分,Y軸成分およびZ軸成分を示す。撮像面Sの座標系Xp・Ypにおける座標を(xp,yp)と表記した場合、“xp”および“yp”はそれぞれ、撮像面Sの座標系Xp・YpにおけるXp軸成分およびYp軸成分を示す。世界座標系Xw・Yw・Zwにおける座標を(xw,yw,zw)と表記した場合、“xw”,“yw”および“zw”はそれぞれ、世界座標系Xw・Yw・ZwにおけるXw軸成分,Yw軸成分およびZw軸成分を示す。
カメラ座標系X・Y・Zの座標(x,y,z)と世界座標系Xw・Yw・Zwの座標(xw,yw,zw)との間の変換式は、数1で表される。
Figure 2010141836
ここで、カメラC_3の焦点距離を“f”とすると、撮像面Sの座標系Xp・Ypの座標(xp,yp)とカメラ座標系X・Y・Zの座標(x,y,z)との間の変換式は、数2で表される。
Figure 2010141836
また、数1および数2に基づいて数3が得られる。数3は、撮像面Sの座標系Xp・Ypの座標(xp,yp)と二次元地面座標系Xw・Zwの座標(xw,zw)との間の変換式を示す。
Figure 2010141836
また、図4(C)に示す鳥瞰画像BEV_3の座標系である鳥瞰座標系X3・Y3が定義される。鳥瞰座標系X3・Y3は、X3軸及びY3軸を座標軸とする二次元の座標系である。鳥瞰座標系X3・Y3における座標を(x3,y3)と表記した場合、鳥瞰画像BEV_3を形成する各画素の位置は座標(x3,y3)によって表される。“x3”および“y3”はそれぞれ、鳥瞰座標系X3・Y3におけるX3軸成分およびY3軸成分を示す。
地面を表す二次元座標系Xw・Zwから鳥瞰座標系X3・Y3への投影は、いわゆる平行投影に相当する。仮想カメラつまり仮想視点の高さを“H”とすると、二次元座標系Xw・Zwの座標(xw,zw)と鳥瞰座標系X3・Y3の座標(x3,y3)との間の変換式は、数4で表される。仮想カメラの高さHは予め決められている。
Figure 2010141836
さらに、数4に基づいて数5が得られ、数5および数3に基づいて数6が得られ、そして数6に基づいて数7が得られる。数7は、撮像面Sの座標系Xp・Ypの座標(xp,yp)を鳥瞰座標系X3・Y3の座標(x3,y3)に変換するための変換式に相当する。
Figure 2010141836
Figure 2010141836
Figure 2010141836
撮像面Sの座標系Xp・Ypの座標(xp,yp)は、カメラC_3によって捉えられた被写界像P_3の座標を表す。したがって、カメラC3からの被写界像P_3は、数7を用いることによって鳥瞰画像BEV_3に変換される。実際には、被写界像P_3はまずレンズ歪み補正などの画像処理を施され、その後に数7によって鳥瞰画像BEV_3に変換される。
図9を参照して、表面に描かれた模様を有する動的な障害物200が自動車100の周辺に存在し、かつ自動車100の周辺の地面に横断歩道のような模様300が描かれている場合、障害物200は、以下に述べる要領で検知される。
この実施例では、自動車100との間で相対的に動きを示す障害物を“動的な障害物”と定義する。したがって、静止している自動車100の周辺で動いている障害物,動いている自動車100の周辺で静止している障害物,自動車100の移動速度と異なる速度で動いている障害物,或いは自動車100の移動方向と異なる方向に動いている障害物は、“動的な障害物”とされる。これに対して、静止している自動車100の周辺で静止している障害物や、自動車100の移動速度と同じ速度で自動車100の移動方向と同じ方向に動いている障害物は、“静的な障害物”とされる。
図9に示す状況では、図10に示す全周鳥瞰画像が上述の区画BK1に対応して作成される。障害物200はカメラC_2によって捉えられる立体的な物体であるため、障害物200の画像はカメラC_2と障害物200の底部とを結ぶ連結線Lに沿って倒れたように再現される。
以下の説明では、図10に示す全周鳥瞰画像のうち、図5に示す固有エリアOR_1に対応して再現される一部の画像を“再現画像REP_1”と定義し、図5に示す固有エリアOR_2に対応して再現される一部の画像を“再現画像REP_2”と定義する。同様に、図10に示す鳥瞰画像のうち、図5に示す固有エリアOR_3に対応して再現される一部の画像を“再現画像REP_3”と定義し、図5に示す固有エリアOR_4に対応して再現される一部の画像を“再現画像REP_4”と定義する。
また、図10を参照して、カメラC_1の撮像面の中心に相当する全周鳥瞰画像上の点を“基準点RP_1”と定義し、基準点RP_1から地面に直交するように延びる軸を“基準軸RAX_1“と定義する。同様に、カメラC_2の撮像面の中心に相当する全周鳥瞰画像上の点を“基準点RP_2”と定義し、基準点RP_2から地面に直交するように延びる軸を“基準軸RAX_2“と定義する。
さらに、カメラC_3の撮像面の中心に相当する全周鳥瞰画像上の点を“基準点RP_3”と定義し、基準点RP_3から地面に直交するように延びる軸を“基準軸RAX_3“と定義する。同様に、カメラC_4の撮像面の中心に相当する全周鳥瞰画像上の点を“基準点RP_4”と定義し、基準点RP_4から地面に直交するように延びる軸を“基準軸RAX_4“と定義する。
画像処理回路12では、垂直同期信号Vsyncに応答して変数Lが“1”〜“4”の各々に設定され、各々の数値に対応して以下の処理が実行される。
まず、再現画像REP_Lのフレーム間差分を表す差分画像DEF_Lが、差分算出処理によって作成される。自動車100が動いているときは、前フレームの差分画像REP_Lと現フレームの差分画像REP_Lとの間で自動車100の動きを考慮した位置合わせを行う位置合わせ処理が、差分算出処理に先立って実行される。この結果、図11(A)に示す再現画像REP_2については、図11(B)に示す差分画像DEF_2が作成される。
障害物200は立体的であるため、斜め方向から捉えた動的かつ立体的な障害物200の画像を鳥瞰画像に変換した場合、現フレームにおける障害物200の鳥瞰画像は、フレーム間の位置合わせに関係なく、前フレームにおける障害物200の鳥瞰画像と原理的に相違する。したがって、差分画像DEF_2には、障害物200を表す高輝度成分が明確に現れる。
これに対して、地面に描かれた模様300は平面的であるため、フレーム間の位置合わせを行えば、現フレームにおける模様300の鳥瞰画像は、前フレームにおける模様300の鳥瞰画像と原理的に一致する。しかし、実際には、鳥瞰画像への変換処理の誤差やフレーム間の位置合わせの誤差に起因して、模様300の輪郭を表す高輝度成分が差分画像DEF_2に現れる。
差分画像DEF_Lが作成されると、基準軸RAX_Lの回転方向における差分画像DEF_Lの輝度分布を表すヒストグラムが作成される。図11(B)に示す差分画像DEF_2については、図12に示すヒストグラムが作成される。
続いて、有意な差分量を連続的に有する1または2以上の角度範囲(角度範囲:基準軸RAX_Lの回転方向における角度範囲)が、ヒストグラムから特定される。特定された角度範囲は、動的な障害物が存在するか否かを解析する解析範囲として指定される。図12によれば、有意な差分量は角度範囲AR1およびAR2の各々に連続して現れる。したがって、角度範囲AR1およびAR2の各々が解析範囲として指定される。
指定された解析範囲の大きさは、基準値REFと比較される。そして、解析範囲の大きさが基準値REFを下回れば、基準点RP_Lから地面に平行に延びる1つの連結線軸が解析範囲の中央に相当する角度に定義される。これに対して、解析範囲の大きさが基準値REF以上であれば、基準点RP_Lから地面の平行に延びる複数の連結線軸が解析範囲の全域に均一な角度を隔てて定義される。
この結果、図12に示す解析範囲AR1については、角度θ1に対応する1つの連結線軸CL1が図13に示す要領で定義される。また、解析範囲AR2については、角度θ2〜θ5にそれぞれ対応する4つの連結線軸CL2〜CL5が図13に示す要領で定義される。
続いて、定義された1または2以上の連結線軸にそれぞれ対応する1または2以上の連結線軸グラフが作成される。作成される連結線軸グラフは、注目する連結線軸に沿う差分画像の輝度変化を表す。したがって、図13に示す連結線軸CL1については図14(A)に示す連結線軸グラフが作成され、図13に示す連結線軸CL2については図15(A)に示す連結線軸グラフが作成される。また、図13に示す連結線軸CL3については図16(A)に示す連結線軸グラフが作成され、図13に示す連結線軸CL4については図17(A)に示す連結線軸グラフが作成される。さらに、図13に示す連結線軸CL5については図18(A)に示す連結線軸グラフが作成される。
また、有意な差分量を有する1または2以上の位置(位置:連結線軸上の位置)が、上述の要領で作成された連結線軸グラフに基づいて検出される。検出された1または2以上の位置の各々には、連結線軸に直交する軸である連結線垂直軸が定義される。定義された連結線垂直軸は、連続する有意な差分量に相当する長さを有する。
したがって、図13に示すように、連結線軸CL1上には9つの連結線垂直軸VL1が定義され、連結線軸CL2上には5つの連結線垂直軸VL2が定義される。また、連結線軸CL3上には7つの連結線垂直軸VL3が定義され、連結線軸CL4上には3つの連結線垂直軸VL4が定義される。さらに、連結線軸CL5上には、1つの連結線垂直軸VL5が定義される。
連結線垂直軸グラフは、こうして定義された1または2以上の連結線垂直軸に注目して、連結線軸毎に作成される。作成された連結線垂直軸グラフは、注目する連結線軸上で定義された1または2以上の連結線垂直軸にそれぞれ沿う1または2以上の輝度変化の平均を表す。
これによって、図14(B)に示す連結線垂直軸グラフが連結線軸CL1に対応して作成され、図15(B)に示す連結線垂直軸グラフが連結線軸CL2に対応して作成される。また、図16(B)に示す連結線垂直軸グラフが連結線軸CL3に対応して作成され、図17(B)に示す連結線垂直軸グラフが連結線軸CL4に対応して作成される。さらに、図18(B)に示す連結線垂直軸グラフが、連結線軸CL5に対応して作成される。
こうして、角度θ1〜θ5の各々に対応する連結線軸グラフおよび連結線垂直軸グラフが完成すると、連結線軸グラフおよび連結線軸グラフによって示される輝度特性が既定条件を満足するか否かが、角度θ1〜θ5の各々に対応して判別される。ここで、既定条件とは、連結線軸グラフにおいて輝度レベルが連続的に立ち上がる範囲の大きさが閾値TH1を上回り、かつ連結線垂直軸グラフにおいて輝度レベルが連続的に立ち上がる範囲の大きさが閾値TH2を下回るという条件に相当する、
上述のように、立体的な障害物200の画像は、カメラC_2と障害物200の底部とを結ぶ連結線Lに沿って倒れたように再現される。さらに、斜め方向から捉えた動的かつ立体的な障害物200の画像を鳥瞰画像に変換した場合、変換された鳥瞰画像はフレーム間において原理的に相違し、これによって障害物200を表す高輝度成分が差分画像DEF_2に明確に現れる。
したがって、障害物200に対応する差分画像の輝度レベルは、連結線軸グラフにおいて広い範囲で立ち上がる一方、連結線垂直軸グラフにおいて狭い範囲で立ち上がる。
これに対して、地面に描かれた平面的な模様300に対応する鳥瞰画像は、フレーム間で原理的に一致する。このため、模様300については、鳥瞰画像への変換処理の誤差やフレーム間の位置合わせの誤差に起因して、模様300の輪郭が差分画像DEF_2に現れるに過ぎない。したがって、模様200に対応する差分画像の輝度レベルは、連結線軸グラフおよび連結線垂直軸グラフのいずれにおいても狭い範囲で立ち上がる。
既定条件を満足するのは、図14(A)に示す連結線軸グラフおよび図14(B)に示す連結線垂直軸グラフである。したがって、これらのフラグが、障害物200に対応するグラフとして特定される。
障害物200が存在するエリア(エリア:再現画像REP_2上のエリア)は、特定された連結線軸グラフおよび連結線垂直軸グラフに基づいて検出される。検出されたエリアには、矩形のキャラクタCT1が図19に示す要領で表示される。これによって、障害物200の存在が運転手に向けて報知される。
CPU12pは、具体的には図20に示す画像作成タスクおよび図21〜図23に示す障害物検知タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ16(図1参照)に記憶される。
図20を参照して、垂直同期信号Vsyncが発生するとステップS1からステップS3に進み、カメラC_1〜C_4から被写界像P_1〜P_4をそれぞれ取り込む。取り込まれた被写界像P_1〜P_4はそれぞれ、ワークエリアF1〜F4に格納される。ステップS5では、取り込まれた被写界像P_1〜P_4に基づいて鳥瞰画像BEV_1〜BEV_4を作成する。ステップS7では、鳥瞰画像BEV_2〜BEV_4に座標変換を施し、鳥瞰画像BEV_1〜BEV_4を互いに結合する。表示装置16のモニタ画面には、座標変換によって結合された全周鳥瞰画像の一部とこれに多重されたグラフィック画像G1が、操縦支援画像として表示される。ステップS7の処理が完了すると、ステップS1に戻る。
図19を参照して、ステップS11では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS13で変数Lを“1”に設定する。ステップS15では、前フレームの再現画像REP_Lと現フレームの差分画像REP_Lとの差分を表す差分画像DEF_Lを作成するべく、差分算出処理を実行する。自動車100が動いているときは、この動きを考慮したフレーム間の位置合わせを経て差分算出処理を実行する。続くステップS17では、差分算出処理によって得られた差分画像DEF_Lのヒストグラムを作成する。ヒストグラムは、基準軸RAX_Lの回転方向における差分画像DEF_Lの輝度分布を示す。
ステップS19では、有意な差分量を各々が連続的に有する1または2以上の角度範囲(角度範囲:基準軸RAX_Lの回転方向における角度範囲)をステップS17で作成されたヒストグラムを参照して特定し、特定された1または2以上の角度範囲の各々を解析範囲として指定する。ステップS21では、指定された1または2以上の解析範囲のうち1番目の解析範囲に注目するべく、変数Mを“1”に設定する。
ステップS23ではM番目の解析範囲の大きさが基準値REFを上回るか否かを判別し、YESであればステップS25に進む一方、NOであればステップS27に進む。ステップS25では、基準点RP_Lから地面に平行に延びる1つの連結線軸をM番目の解析範囲の中央に定義する。ステップS27では、基準点RP_Lから地面に平行に延びる複数の連結線軸をM番目の解析範囲の全域に均等の角度を隔てて定義する。
ステップS29では、変数MがステップS19で特定された解析範囲の総数(=Mmax)に達したか否かを判別する。ここでNOであれば、ステップS31で変数Mをインクリメントし、その後にステップS23に戻る。この結果、ステップS19で特定された1または2以上の解析範囲の各々に、1または2以上の連結線軸が定義される。
変数Mが総数Mmaxに達すると、ステップS29からステップS33に進み、変数Nを“1”に設定する。ステップS35では、上述の要領で定義された1または2以上の連結線軸のうちN番目の連結線軸に注目して、N番目の連結線軸グラフを作成する。作成されたN番目の連結線軸グラフは、N番目の連結線軸に沿う差分画像の輝度変化を表す。
ステップS37では、有意な差分量を有する1または2以上の位置をN番目の連結線軸グラフから検出し、連結線軸に直交する軸である連結線垂直軸を検出された1または2以上の位置の各々に定義する。ステップS39では、定義された1または2以上の連結線垂直軸に注目して、連結線垂直軸グラフを作成する。作成された連結線垂直軸グラフは、定義された1または2以上の連結線垂直軸の各々に沿う輝度変化(輝度変化:差分画像の輝度変化)の平均を表す。
ステップS41では、変数NがステップS25またはS27で定義された連結線軸の総数(=Nmax)に達したか否かを判別する。ここでNOであれば、ステップS43で変数Nをインクリメントし、その後にステップS35に戻る。この結果、総数Nmaxに相当する連結線軸の各々に対応する連結線軸グラフおよび連結線垂直軸グラフが得られる。
ステップS41でYESと判別されると、ステップS45で変数Nを再度“1”に設定する。ステップS47では、N番目の連結線軸グラフおよび連結線垂直軸グラフにおける輝度変化が既定条件を満足するか否かを判別し、NOであればそのままステップS53に進む一方、YESであればステップS49〜S51を経てステップS53に進む。
ステップS49では、N番目の連結線軸グラフおよび連結線垂直軸グラフに基づいて動的な障害物が存在するエリアを再現画像REP_L上で特定する。ステップS51では、ステップS49で特定されたエリアに対応して矩形キャラクタを再現画像REP_L上に多重するべく、対応する命令を表示装置14に与える。
ステップS53では変数Nが“Nmax”に達したか否かを判別し、NOであればステップS55で変数NをインクリメントしてからステップS47に戻る。ステップS53でYESであれば、変数Lが“4”に達したか否かをステップS57で判別する。NOであれば、ステップS59で変数LをインクリメントしてからステップS15に戻る。一方、YESであれば、そのままステップS11に戻る。
以上の説明から分かるように、CPU12pは、地面(基準面)に斜めに交差する方向の被写界を捉えるカメラC_1〜C_4から繰り返し出力される被写界像P_1〜P_4を取り込む(S3)。取り込まれた被写界像P_1〜P_4はそれぞれ、CPU12pによって鳥瞰画像BEV_1〜BEV_4に変換される(S5)。変換された鳥瞰画像BEV_1〜BEV_4の画面間における差分も、CPU12pによって検出される(S15)。CPU12pは、カメラC_1〜C_4の撮像面の中心に対応する基準点RP_1〜RP_4の各々から地面に平行に延びる連結線軸に沿う一部の差分を、鳥瞰画像BEV_1〜BEV_4の画面間における差分の中から特定する(S35)。CPU12pはまた、連結線軸と交差して地面に平行に延びる連結線垂直軸に沿う一部の差分を鳥瞰画像BEV_1〜BEV_4の画面間における差分の中から特定する(S39)。こうして特定された差分が既定条件を満足すれば、CPU12pは、障害物の存在を報知するべく、障害物エリアの位置に対応して操縦支援画像に矩形キャラクタを多重する(S47~S51)。
この実施例で注目される差分は、地面に斜めに交差する方向において捉えられた被写界像に対応する鳥瞰画像BEV_1〜BEV_4の画面間差分に相当する。したがって、動的な障害物が連結線軸に対応する位置に存在するときは、動的な障害物の高さに相当する差分が連結線軸に沿って特定され、動的な障害物の幅に相当する差分が連結線垂直軸に沿って特定される。一方、地面に描かれた模様あるいは静的な障害物が連結線軸に対応する位置に存在するときは、鳥瞰画像BEV_1〜BEV_4への変換処理の誤差に相当する差分が連結線軸および連結線垂直軸に沿って特定される。こうして特定された差分が既定条件を満足するか否か判別することで、動的な障害物の検知性能が向上する。
上述の実施例に関する注釈事項を以下に示す。この注釈事項は、矛盾がない限り、上述の実施例に任意に組み合わせることが可能である。
実施例で述べたような撮影画像から鳥瞰画像を生成する座標変換は、一般に透視投影変換と呼ばれる。この透視投影変換を用いるのではなく、公知の平面射影変換によって撮影画像から鳥瞰画像を生成するようにしてもよい。平面射影変換を用いる場合、撮影画像上の各画素の座標値を鳥瞰画像上の各画素の座標値に変換するためのホモグラフィ行列(座標変換行列)をカメラ校正処理の段階で予め求めておく。ホモグラフィ行列の求め方は公知である。そして、画像変換を行う際に、ホモグラフィ行列に基づいて撮影画像を鳥瞰画像に変換すればよい。いずれにせよ、撮影画像を鳥瞰画像上に投影することによって撮影画像が鳥瞰画像に変換される。
この発明の一実施例の構成を示すブロック図である。 (A)は自動車の正面を眺めた状態を示す図解図であり、(B)は自動車の右側面を眺めた状態を示す図解図であり、(C)は自動車の背面を眺めた状態を示す図解図であり、(D)は自動車の左側面を眺めた状態を示す図解図である。 自動車に取り付けられた複数のカメラによって捉えられる視野の一例を示す図解図である。 (A)は前カメラの出力に基づく鳥瞰画像の一例を示す図解図であり、(B)は右カメラの出力に基づく鳥瞰画像の一例を示す図解図であり、(C)は左カメラの出力に基づく鳥瞰画像の一例を示す図解図であり、(D)は後カメラの出力に基づく鳥瞰画像の一例を示す図解図である。 図4(A)〜図4(D)に示す鳥瞰画像に基づく全周鳥瞰画像の一例を示す図解図である。 表示装置によって表示される操縦支援画像の一例を示す図解図である。 自動車に取り付けられたカメラの角度を示す図解図である。 カメラ座標系と撮像面の座標系と世界座標系との関係を示す図解図である。 自動車とその近傍に存在する障害物および模様の一例を示す斜視図である。 全周鳥瞰図画像の他の一例を示す図解図である。 (A)は再現画像の一部を示す図解図であり、(B)は(A)に示す再現画像に対応する差分画像の一部を示す図解図である。 図11(B)に示す差分画像に対応する輝度の分布状態を示すヒストグラムである。 図11(B)に示す差分画像上に定義された連結線軸および連結線垂直軸の一例を示す図解図である。 (A)は角度θ1における連結線軸に対する差分画像の輝度の変化を示すグラフであり、(B)は角度θ1における連結線軸に直交する垂直軸に対する差分画像の輝度の変化を示すグラフである。 (A)は角度θ2における連結線軸に対する差分画像の輝度の変化を示すグラフであり、(B)は角度θ2における連結線軸に直交する垂直軸に対する差分画像の輝度の変化を示すグラフである。 (A)は角度θ3における連結線軸に対する差分画像の輝度の変化を示すグラフであり、(B)は角度θ3における連結線軸に直交する垂直軸に対する差分画像の輝度の変化を示すグラフである。 (A)は角度θ4における連結線軸に対する差分画像の輝度の変化を示すグラフであり、(B)は角度θ4における連結線軸に直交する垂直軸に対する差分画像の輝度の変化を示すグラフである。 (A)は角度θ5における連結線軸に対する差分画像の輝度の変化を示すグラフであり、(B)は角度θ5における連結線軸に直交する垂直軸に対する差分画像の輝度の変化を示すグラフである。 表示装置によって表示される操縦支援画像の他の一例を示す図解図である。 図1実施例に適用されるCPUの動作の一部を示すフロー図である。 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。
符号の説明
10 …操縦支援装置
C_1〜C_4 …カメラ
12 …画像処理回路
12p …CPU
12m …SDRAM
14 …表示装置
16 …フラッシュメモリ
100 …自動車

Claims (6)

  1. 基準面に斜めに交差する方向の被写界を捉える撮像手段から繰り返し出力される被写界像を取り込む取り込み手段、
    前記取り込み手段によって取り込まれた被写界像を鳥瞰画像に変換する変換手段、
    前記変換手段によって変換された鳥瞰画像の画面間における差分を検出する検出手段、
    撮像面の中心に対応する基準点から前記基準面に平行に延びる第1軸に沿う一部の差分を前記検出手段によって検出された差分の中から特定する第1特定手段、
    前記第1軸と交差して前記基準面に平行に延びる第2軸に沿う一部の差分を前記検出手段によって検出された差分の中から特定する第2特定手段、および
    前記第1特定手段によって特定された差分と前記第2特定手段によって特定された差分とが既定条件を満足するとき報知を発生する発生手段を備える、障害物検知装置。
  2. 前記基準面に直交するように前記基準点から延びる基準軸の回転方向における1または2以上の角度の各々に対応して前記第1軸を定義する第1定義手段をさらに備え、
    前記第1特定手段は前記第1定義手段の定義処理に関連して差分特定処理を実行する、請求項1記載の障害物検知装置。
  3. 前記検出手段によって検出された差分の前記回転方向における分布状態を表すヒストグラムを作成する作成手段をさらに備え、
    前記第1定義手段は前記作成手段によって作成されたヒストグラムを参照して定義処理を実行する、請求項2記載の障害物検知装置。
  4. 前記第1特定手段によって特定された差分に対応する1または2以上の位置の各々に前記第2軸を定義する第2定義手段をさらに備え、
    前記第2特定手段は前記第2定義手段の定義処理に関連して差分特定処理を実行する、請求項1ないし3のいずれかに記載の障害物検知装置。
  5. 前記第2特定手段によって特定される差分は前記第2軸に沿って連続的に現れる差分に相当する、請求項1ないし4のいずれかに記載の障害物検知装置。
  6. 前記既定条件は、前記第1特定手段によって特定された差分の大きさが第1閾値を上回り、かつ前記第2特定手段によって特定された差分の大きさが第2閾値を下回るという条件に相当する、請求項1ないし5のいずれかに記載の障害物検知装置。
JP2008318860A 2008-12-15 2008-12-15 障害物検知装置 Withdrawn JP2010141836A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008318860A JP2010141836A (ja) 2008-12-15 2008-12-15 障害物検知装置
US12/638,279 US20100149333A1 (en) 2008-12-15 2009-12-15 Obstacle sensing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008318860A JP2010141836A (ja) 2008-12-15 2008-12-15 障害物検知装置

Publications (1)

Publication Number Publication Date
JP2010141836A true JP2010141836A (ja) 2010-06-24

Family

ID=42240024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008318860A Withdrawn JP2010141836A (ja) 2008-12-15 2008-12-15 障害物検知装置

Country Status (2)

Country Link
US (1) US20100149333A1 (ja)
JP (1) JP2010141836A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011401A1 (ja) * 2010-07-23 2012-01-26 三洋電機株式会社 出力制御装置
JP2014197749A (ja) * 2013-03-29 2014-10-16 株式会社デンソーアイティーラボラトリ 鳥瞰画像表示装置
JP7460393B2 (ja) 2020-02-27 2024-04-02 フォルシアクラリオン・エレクトロニクス株式会社 車両用外界認識装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP5251927B2 (ja) 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
KR101448411B1 (ko) 2010-08-19 2014-10-07 닛산 지도우샤 가부시키가이샤 입체물 검출 장치 및 입체물 검출 방법
DE102012200135A1 (de) * 2012-01-05 2013-07-11 Robert Bosch Gmbh Verfahren zu bildbasierenden Detektionen von Objekten
MY172967A (en) * 2012-02-23 2019-12-16 Nissan Motor Three-dimensional object detection device
JP5867596B2 (ja) * 2012-04-16 2016-02-24 日産自動車株式会社 立体物検出装置及び立体物検出方法
TW201403553A (zh) * 2012-07-03 2014-01-16 Automotive Res & Testing Ct 自動校正鳥瞰影像方法
JP5892254B2 (ja) * 2012-08-31 2016-03-23 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP3009983A1 (en) * 2014-10-13 2016-04-20 Conti Temic microelectronic GmbH Obstacle detection apparatus and method
JPWO2016140016A1 (ja) * 2015-03-03 2018-02-15 日立建機株式会社 車両の周囲監視装置
JP2019053508A (ja) * 2017-09-14 2019-04-04 オムロン株式会社 警報表示システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
KR20090088210A (ko) * 2008-02-14 2009-08-19 주식회사 만도 두 개의 기준점을 이용한 목표주차위치 검출 방법과 장치및 그를 이용한 주차 보조 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011401A1 (ja) * 2010-07-23 2012-01-26 三洋電機株式会社 出力制御装置
JP2014197749A (ja) * 2013-03-29 2014-10-16 株式会社デンソーアイティーラボラトリ 鳥瞰画像表示装置
JP7460393B2 (ja) 2020-02-27 2024-04-02 フォルシアクラリオン・エレクトロニクス株式会社 車両用外界認識装置

Also Published As

Publication number Publication date
US20100149333A1 (en) 2010-06-17

Similar Documents

Publication Publication Date Title
JP2010141836A (ja) 障害物検知装置
JP5108605B2 (ja) 運転支援システム及び車両
JP5266953B2 (ja) 投写型表示装置および表示方法
JP5266954B2 (ja) 投写型表示装置および表示方法
US20120069153A1 (en) Device for monitoring area around vehicle
JP5422902B2 (ja) 画像処理装置、画像処理プログラム、画像処理システム及び画像処理方法
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP5003395B2 (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
JP2010093605A (ja) 操縦支援装置
US20150116494A1 (en) Overhead view image display device
JP2010117800A (ja) 駐車場監視装置及び方法
JP2007295357A (ja) 車載周辺状況提示装置
JP5178454B2 (ja) 車両周囲監視装置及び車両周囲監視方法
JP2008048345A (ja) 画像処理装置並びに視界支援装置及び方法
CN111462503A (zh) 车辆测速方法、装置及计算机可读存储介质
JP2010250640A (ja) 画像処理装置
JP2008085710A (ja) 運転支援システム
JP2010258691A (ja) 操縦支援装置
WO2010035628A1 (ja) 操縦支援装置
WO2010116801A1 (ja) 画像処理装置
JP2007068041A (ja) 広域監視パノラマシステム
JP2019504414A (ja) 車両の周囲の正面の光景を表示する方法及びデバイス並びにそれぞれの車両
JP2010245802A (ja) 操縦支援装置
JP4972036B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120214