JP5503728B2 - 車両の周辺監視装置 - Google Patents

車両の周辺監視装置 Download PDF

Info

Publication number
JP5503728B2
JP5503728B2 JP2012502992A JP2012502992A JP5503728B2 JP 5503728 B2 JP5503728 B2 JP 5503728B2 JP 2012502992 A JP2012502992 A JP 2012502992A JP 2012502992 A JP2012502992 A JP 2012502992A JP 5503728 B2 JP5503728 B2 JP 5503728B2
Authority
JP
Japan
Prior art keywords
image
vehicle
display
display device
display image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012502992A
Other languages
English (en)
Other versions
JPWO2011108217A1 (ja
Inventor
伸治 長岡
英樹 橋本
誠 相村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012502992A priority Critical patent/JP5503728B2/ja
Publication of JPWO2011108217A1 publication Critical patent/JPWO2011108217A1/ja
Application granted granted Critical
Publication of JP5503728B2 publication Critical patent/JP5503728B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • G06T5/94
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺の対象物を検出して表示する装置に関する。
下記の特許文献1には、ヘッドアップディスプレイ(HUD)を設け、赤外線カメラを用いて車両の周辺の対象物を検出し、車両の進行方向に設定される接近判定領域内に存在する対象物については、ヘッドアップディスプレイの表示画面の中央領域に強調表示し、接近判定領域の外側に設定される侵入判定領域内に存在する対象物については、該表示画面の右および左領域にアイコン表示するシステムが提案されている。
特許第4334686号公報
上記の文献に記載のような、いわゆるヘッドアップディスプレイは、運転者の前方に設けられており、運転者が表示画面を視認するのに視線移動の量が比較的小さいという利点がある。しかしながら、このようなヘッドアップディスプレイを搭載していない車両は、依然として多い。それに対し、ダッシュボードに取り付けられた表示装置の普及は進んでいる。特に、ナビゲーション装置の普及が進むにつれて、ナビゲーション機能によって提供される地図情報等の様々な情報を表示するために装置の普及が進んでいる。
このような一般的な表示装置は、運転者の前方ではなく、左または右側に存在しているため、ヘッドアップディスプレイに比べて、運転者が表示画面を視認するのに必要な視線移動の量が多くなる。そのため、表示装置上に表示される映像は、より短時間で運転者に理解されるものであることが要求される。
したがって、上記のような一般的な表示装置を用いた場合を考慮して、運転者が、より短時間で対象物の存在を認識することができるような形態で表示する手法が所望されている。
この発明の一つの側面によると、車両の周辺監視装置は、車両に搭載されたカメラを用いて車両の周辺を撮像する撮像手段と、前記撮像手段による撮像を介して、前記対象物の温度に応じた輝度値を有するグレースケール画像を取得する手段と、前記グレースケール画像から、前記車両の周辺に存在する所定の対象物を検出する対象物検出手段と、前記グレースケール画像に基づいて、前記車両に搭載された表示装置上に表示されるべき表示画像を生成する表示画像生成手段と、前記生成された表示画像を、前記表示装置上に表示する手段と、を備える。表示画像生成手段は、前記グレースケール画像中の、前記検出された対象物以外の領域の輝度を低下させることによって前記表示画像を生成する。
この発明によれば、グレースケール画像中の対象物以外の領域の輝度を低下させることによって表示画像を生成し、これが表示装置上に表示される。したがって、表示装置上には、対象物のみにスポットライトをあてたような、コントラストの高い画像が表示されることとなる。そのため、該表示画像を視認した運転者は、瞬時に、該対象物の存在を認識することができる。
この発明の一実施形態によると、表示装置は、前記車両の運転者が視認可能な位置であって、前記車両のハンドルの回転の中心を通ると共に該車両の前後方向に伸長する線に対して所定距離だけ車幅方向に離れた位置に設けられている。
このような表示装置は、前述したような視線移動量の少ないHUDではなく、たとえばハンドルの左または右側に取り付けられた一般的な表示装置であり、画面を視認するには視線移動量が比較的大きくなる。本発明によれば、上記のような高いコントラストの表示画像により、運転者の対象物認識に要する時間を短くすることができるので、このような一般的な表示装置を用いても、対象物を瞬時に運転者に認識させることができる。
この発明の一実施形態によると、前記対象物検出手段は、前記車両が前記対象物と衝突する可能性が高いか否かを判定し、前記表示画像生成手段は、前記車両が前記対象物と衝突する可能性が高いと判定された場合に、前記検出された対象物以外の領域の輝度を低下させた前記表示画像を生成する。
この発明によれば、対象物と衝突する可能性が高いと判定された場合に、対象物にスポットライトをあてたような高いコントラストの表示画像を生成するので、該衝突の可能性のある対象物の存在を、運転者に瞬時で認識させることができる。
この発明の一実施形態によると、前記表示画像生成手段は、さらに、前記グレースケール画像中の前記対象物が存在する位置に、該対象物を擬似化した画像を重畳し、前記表示手段は、該重畳した前記表示画像を前記表示装置上に表示する。
この発明によれば、車両周辺を撮像したグレースケール画像中の対象物の位置に、擬似画像が重畳して表示されるので、運転者の注意を、該擬似画像が重畳された位置に向けさせることができる。また、擬似画像によって対象物画像が隠されることになるため、前方を注視するよう運転者を促すことができる。
この発明の一実施形態によると、前記表示装置は、ナビゲーション装置の表示装置である。この発明によると、車両周辺に存在する対象物の存在を運転者に通知するのに、ナビゲーション装置の表示装置を有効に利用することができる。
本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。
この発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図。 この発明の一実施例に従う、表示装置およびカメラの取り付け位置を示す図。 この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明の一実施例に従う、実空間の座標系および画像の座標系を示す図。 この発明の一実施例に従う、相対移動ベクトルの算出手法を示す図。 この発明の一実施例に従う、警報判定プロセスを示すフローチャート。 この発明の一実施例に従う、車両前方の撮像範囲と各領域の区分を示す図。 この発明の一実施例に従う、侵入判定処理を説明するための図。 この発明の一実施例に従う、表示画像の生成を説明するための図。 この発明の一実施例に従う、表示画像の一例を示す図。 この発明の他の実施例に従う、警報判定プロセスを示すフローチャート。 この発明の他の実施例に従う、表示画像の生成を説明するための図。
次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、ナビゲーション装置の表示装置を利用した、車両の周辺監視装置の構成を示すブロック図であり、図2は、表示装置とカメラの車両への取り付けを示す図である。
車両には、ナビゲーション装置が搭載されており、該ナビゲーション装置は、ナビゲーションユニット5と、表示装置4とを備えている。表示装置4は、図2の(a)に示すように、車両のハンドル(ステアリング・ホイール)21の中心を通り、かつ車両の前後方向に伸長する線L1(図には、わかりやすいよう図の垂直方向に伸長するよう示されている)に対して所定距離だけ離れた位置に、運転者が視認可能なように取り付けられている。この実施例では、表示装置4は、車両のダッシュボード23にはめこまれている。
ナビゲーションユニット5は、中央処理装置(CPU)およびメモリを備えたコンピュータで実現される。ナビゲーションユニット5は、たとえば人工衛星を利用して車両10の位置を測定するためのGPS信号を、該ナビゲーションユニット5に備えられた通信装置(図示せず)を介して受信し、該GPS信号に基づいて、車両10の現在位置を検出する。ナビゲーションユニット5は、車両の周辺の地図情報(これは、ナビゲーション装置の記憶装置に記憶されることもできるし、該通信装置を介して所定のサーバから受信することもできる)に、該現在位置を示す画像を重畳させて、表示装置4の表示画面25に表示する。また、表示装置4の表示画面25はタッチパネルを構成しており、該タッチパネルを介して、またはキーやボタン等の他の入力装置27を介して、乗員はナビゲーションユニット5に目的地を入力することができる。ナビゲーションユニット5は、該目的地までの車両の最適経路を算出し、該最適経路を示す画像を地図情報に重畳させて、表示装置4の表示画面25に表示することができる。
なお、最近のナビゲーション装置には、交通情報の提供や車両近傍の施設案内等、他にも様々な機能が搭載されており、この実施形態では、任意の適切なナビゲーション装置を利用することができる。
また、車両の周辺監視装置は、車両に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって撮像された画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音または音声で警報を発生するスピーカ3と、を備えている。表示装置4は、カメラ1Rまたは1Lの撮像を介して得られた画像を表示すると共に、運転者に車両周辺の対象物の存在を認識させるための表示を行うのに利用される。さらに、該周辺監視装置は、車両のヨーレートを検出するヨーレートセンサ6と、車両の走行速度(車速)を検出する車速センサ7とを備え、これらのセンサの検出結果は、画像処理ユニット2に送られる。
この実施例では、図2の(b)に示すように、カメラ1Rおよび1Lは、車両10の前方を撮像するよう、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。
画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号および表示装置4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。
このように、この実施例では、ナビゲーション装置の表示装置4を、カメラ1Rおよび1Lによる撮像を介して得られた画像の表示、および該画像から検出された所定の対象物の存在を運転者に通知(警報)するための表示に利用する。前述したように、フロントウィンドウ上の、運転者の前方位置に画面が表示されるように設けられたヘッドアップディスプレイ(HUD)と異なり、表示装置4は、ハンドル21から、車幅方向に所定距離だけ離れた位置に設けられているので、HUDに比べて、運転者が表示装置4の画面を視認するために視線移動量は大きく、よって視認に要する時間も長くなる。したがって、表示装置4を介して対象物の存在を運転者に認識させるためには、HUDに比べて、よりわかりやすい表示、すなわちより短時間で認識することができる形態での表示が望まれる。この発明は、このような形態の表示を可能としたものであり、端的にいえば、画像中の対象物にスポットライトをあてたような形態で表示する。この具体的な手法を、以下に述べる。
図3は、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。なお、ステップS11〜S23の処理は、特開2001−6096号公報にその詳細が示されているので、ここでは簡単に述べる。
ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像である。
ステップS14において、カメラ1Rで撮像された右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。この2値化処理により、たとえば生体のような所定の温度より高い対象物が、白領域として抽出される。輝度閾値ITHは、任意の適切な手法で決定されることができる。
ステップS15において、2値化した画像データを、ランレングスデータに変換する。具体的には、2値化により白となった領域について、各画素行の該白領域(ラインと呼ぶ)の開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで、ランレングスデータを表す。ここで、画像における垂直方向にy軸をとり、水平方向にx軸をとる。たとえば、y座標がy1である画素行における白領域が、(x1,y1)から(x3,y1)までのラインであるとすると、このラインは3画素からなるので、(x1,y1,3)というランレングスデータで表される。
ステップS16およびS17において、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを合わせて1つの対象物とみなし、これにラベルを付与する。こうして、1または複数の対象物が抽出される。
ステップS18において、該抽出された対象物の重心G、面積S、および、該対象物に外接する四角形すなわち外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出される。重心Gの座標は、面積Sをx方向に二等分する線のx座標およびy方向に二等分する線のy座標として算出される。縦横比ASPECTは、外接四角形のy方向の長さDyとx方向の長さDxとの比Dy/Dxとして算出される。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。
ステップS19において、対象物の時刻間追跡(トラッキング)、すなわち、所定のサンプリング周期毎に同一対象物の認識を行う。サンプリング周期は、図3のプロセスが実行される周期と同じでもよい。具体的には、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、時刻kで対象物Aを抽出した場合を考えると、該対象物Aと、次のサンプリング周期である時刻(k+1)で抽出した対象物Bとの間の同一性判定を行う。同一性判定は、所定の条件に従って行うことができる。たとえば、1)対象物AとBの画像上の重心Gの位置のxおよびy座標の差が所定の許容値より小さく、2)対象物Bの画像上の面積の、対象物Aの画像上の面積に対する比が所定の許容値より小さく、3)対象物Bの外接四角形の縦横比の、対象物Aの外接四角形の縦横比に対する比が所定の許容値より小さければ、対象物AおよびBを同一と判定することができる。
こうして、各サンプリング周期において、抽出された対象物に関し、該対象物の位置(この実施例では、重心Gの位置座標)は、付与されたラベルと共に、時系列データとしてメモリに格納される。
なお、以上説明したステップS14〜S19の処理は、2値化した基準画像(この実施例では、右画像)について実行される。
ステップS20において、車速センサ7により検出される車速VCARおよびヨーレートセンサ6により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10が回頭した角度すなわち回頭角θrを算出する。
一方、ステップS31〜S33では、ステップS19およびS20の処理と平行して、車両10から対象物までの距離zを算出する処理を行う。この演算は、ステップS19およびS20よりも長い時間を要するため、ステップS19およびS20より長い周期(たとえば、ステップS11〜S20の実行周期の3倍程度の周期)で実行されるようにしてもよい。
ステップS31では、基準画像(この実施例では、右画像)の2値化画像によって追跡される対象物のうちの1つを選択し、これを、探索画像R1(ここでは、外接四角形で囲まれる画像領域を探索画像とする)とする。ステップS32では、左画像において、該探索画像R1と同じ対象物の画像(以下、対応画像と呼ぶ)を探索する。具体的には、探索画像R1と該左画像の間で相関演算を実行することにより行われることができる。相関演算は、下記式(1)に従って行われる。この相関演算は、2値画像ではなく、グレースケール画像を用いて行う。
ここで、探索画像R1は、M×N個の画素数を持ち、IR(m,n)は、探索画像R1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、左画像内の所定の座標(a,b)を基点とした、探索画像R1と同一形状の局所領域内の座標(m,n)の位置の輝度値である。基点の座標(a,b)を変化させて輝度差分総和値C(a,b)が最小となる位置を求めることにより、対応画像の位置が特定される。
代替的に、左画像において、探索すべき領域を予め設定し、探索画像R1と該領域との間で相関演算を実行してもよい。
ステップS33において、探索画像R1の重心位置と、撮像画像の画像中心線(撮像画像をx方向に二分する線)LCTRとの距離dR(画素数)および対応画像の重心位置と画像中心線LCTRとの距離dL(画素数)を求め、式(2)に適用して、車両10の対象物までの距離zを算出する。
ここで、Bは、基線長、すなわちカメラ1Rの撮像素子の中心位置と、カメラ1Lの撮像素子の中心位置とのx方向(水平方向)の距離(すなわち、両カメラの光軸の間隔)を示し、Fは、カメラ1Rおよび1Lに設けられたレンズの焦点距離を示し、pは、カメラ1Rおよび1Lの撮像素子の画素間隔を示す。Δd(=dR+dL)は、視差の大きさを示す。
ステップS21において、対象物の位置(前述したように、この実施例では重心Gの位置)の画像内の座標(x、y)および式(2)により算出した距離zを、式(3)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図4(a)に示すように、カメラ1Rおよび1Lの取り付け位置の中点の位置(車両に固定された位置)を原点Oとして、図のように、車両10の車幅方向にX軸、車両10の車高方向にY軸、車両10の進行方向にZ軸を定めた座標系で表される。画像上の座標は、図4(b)に示すように、画像の中心を原点として水平方向をx軸および垂直方向をy軸とした座標系で表される。
ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と実空間座標系の原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。また、fは、焦点距離Fと画素間隔pとの比である。
ステップS22において、車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。時刻kから(k+1)までの期間中に、車両10がたとえば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、Δxだけx方向(正の方向)にずれる。したがって、これを補正する。
具体的には、式(4)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物ごとに対応づけて時系列にメモリに格納される。なお、以下の説明では、該補正後の座標を、(X,Y,Z)と示す。
ステップS23において、同一対象物について、ΔTの期間内に得られた、回頭角補正後のN個の実空間位置データ(たとえば、N=10程度)、すなわち時系列データから、対象物の車両10に対する相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、式(5)で表される直線を求める。
ここで、uは、任意の値を取る媒介変数である。Xav、YavおよびZavは、それぞれ、実空間位置データ列のX座標の平均値、Y座標の平均値、およびZ座標の平均値である。媒介変数uを消去することにより、式(5)は、以下の式(5a)のように表される。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
(5a)
図5は、近似直線LMVを説明するための図である。P(0)、P(1)、P(2)、・・・、P(N−2)、P(N−1)が、回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の二乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値は、その値が増加するほど過去のデータであることを示す。たとえば、P(0)は最新の位置座標、P(1)は、1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるX(j)、Y(j)、Z(j)等も同様である。なお、近似直線LMVを演算するより詳細な手法は、特開2001−6096号公報に記載されている。
次に、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)前(すなわち、時間ΔT前)の位置座標P(N−1)=(X(N−1),Y(N−1),Z(N−1))を、近似直線LMV上の位置に補正する。具体的には、式(5a)にZ座標Z(0)およびZ(n−1)を適用することにより得た式(6)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))およびPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
式(6)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルが、相対移動ベクトルとして算出される。
このように、モニタ期間ΔT内の複数(N個)のデータから、対象物の車両10に対する相対移動軌跡を近似する近似直線LMVを算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して、対象物との衝突の可能性をより正確に予測することができる。
ステップS24において、警報判定プロセスを実行する。図6は、該警報判定プロセスを示し、該プロセスを、図7を参照しつつ説明する。図7には、カメラ1R、1Lによって撮像可能な領域である撮像範囲AR0が示されている。撮像範囲AR0に対応する撮像画像に対して、図3のステップS11からS23の処理は実行される。
領域AR1は、車両10の車幅αの両側に余裕β(たとえば、50〜100cm程度とすることができる)を加えた範囲に対応する領域、換言すれば車両10の車幅方向の中心軸の両側に(α/2+β)の幅を有する領域であり、対象物がそのまま存在し続ければ衝突の可能性が高い接近判定領域である。領域AR2およびAR3は、接近判定領域よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域であり、この領域にある対象物は接近判定領域へと侵入するおそれがある侵入判定領域である。これらの領域AR1〜AR3は、Y方向には所定高さHを有し、Z方向には所定距離Z1を有する。
図6に戻り、ステップS41では、各対象物について、車両との衝突の可能性を判定する。具体的には、領域AR1〜AR3に存在する対象物を抽出する。そのため、式(7)により、各対象物について、該対象物の車両に対するZ方向の相対速度Vsを算出する。その後、式(8)および式(9)を満たす対象物が抽出される。
Vs=(Zv(N−1)―Zv(0))/ΔT (7)
Zv(0)/Vs≦T (8)
|Yv(0)|≦H (9)
ここで、Zv(0)は、最新の距離検出値(vは、近似直線LMVによる補正後のデータであることを示すために付しているが、Z座標は補正前と同一の値である)であり、Zv(N−1)は、時間ΔT前の距離検出値である。また、Tは、余裕時間であり、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図している。Tは、例えば2〜5秒程度に設定される。Vs×Tが、前述した領域AR1〜AR3の所定距離Z1に対応する。Hは、Y方向すなわち高さ方向の範囲を規定し、例えば自車両10の車高の2倍程度に設定される。これが、前述した領域AR1〜AR3の所定高さHを示す。こうして、垂直方向では所定高さHに制限され、距離方向では所定距離Z1に制限された領域AR1〜AR3内の対象物が、衝突の可能性があると判断されて抽出される。
次に、ステップS42において、こうして抽出された対象物のそれぞれについて、接近判定領域AR1内にあるか否かを判断する接近判定処理が行われる。具体的には、各対象物の位置Pv(0)のX座標Xv(0)が、領域AR1内に存在するかどうかを判断する。この判断がYesである対象物については、衝突の可能性が高いと判断し、直ちにステップS44の処理が行われる。この判断がNoである対象物については、領域AR2またはAR3に存在することを示し、ステップS43の侵入判定処理が行われる。
侵入判定処理では、対象物の画像上での最新のx座標xc(0)(cは前述したように画像の中心位置を実空間原点Oに一致させる補正を行った座標であることを示すために付している)と、時間ΔT前のx座標xc(N−1)との差が、式(10)を満たすか否かを調べる。式(10)を満たす対象物が存在すれば、該対象物が移動によって接近判定領域AR1に侵入することにより車両10との衝突の可能性が高いと判断し(S43がYes)、ステップS44に進む。式(10)を満たす対象物が存在しなければ、今回衝突の可能性のある対象物は領域AR1〜AR3内に存在しないと判断し(S43がNo)、ステップS48に進む。ステップS48では、ステップS13で取得されたグレースケール画像を、表示画像として表示装置4上に出力する通常表示を行う。
ここで、式(10)の根拠を簡単に説明する。図8を参照すると、対象物20の最新の位置座標と、時間ΔT前の位置座標とを通る直線、すなわち近似直線LMVと、XY平面(X軸とY軸を含む平面、すなわち車両10の先端部に対応する線(X軸)を含み、車両10の進行方向に垂直な面)との交点のX座標をXCLとすると、車幅αを考慮した衝突発生の条件は、式(11)で与えられる。
−α/2≦XCL≦α/2 (11)
他方、近似直線LMVをXZ平面に投影した直線は式(12)で与えられる。
この式にZ=0、X=XCLを代入してXCLを求めると、式(13)のようになる。
また、実空間座標Xと、画像上の座標xcとの間には、式(3)のような関係があるので、以下の式が成立する。
Xv(0)=xc(0)×Zv(0)/f (14)
Xv(N−1)=xc(N−1)×Zv(N−1)/f (15)
これらを式(13)に適用すると、交点X座標XCLは、式(16)で与えられる。これを式(11)に代入して整理すると、上記式(10)が得られる。なお、より詳細な侵入判定処理については、特開2001−6096号公報に記載されている。
図6に戻り、ステップS44では、上記の接近判定処理および侵入判定処理において衝突の可能性が高いと判断された対象物について、運転者に対し、警報を実際に出力するかどうかを判定する警報出力判定処理を行う。
この実施例では、警報出力判定処理は、ブレーキの操作に応じて警報を実際に出力するかどうかを判断する。具体的には、ブレーキセンサ(図示せず)の出力から、車両10の運転者がブレーキ操作を行っているか否かを判別し、ブレーキ操作を行っていなければ、警報を出力すべきと判定し(S44がYes)、ステップS45に進む。
ブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出する。各対象物について閾値GTHを式(17)のように計算し、加速度Gsが閾値GTH以下(Gs≦GTH)を満たす対象物が存在するときには、警報を出力すべきと判定し(S44がYes)、ステップS45に進む。
Gs≦GTHを満たす対象物が存在しないときには、ブレーキ操作により衝突が回避されると判定して(S44がNo)、ステップS48に進み、前述したように、警報を出力することなく、グレースケール画像を表示装置4上に出力する通常表示を行う。ここで、式(17)は、ブレーキ加速度Gsがそのまま維持された場合に、距離Zv(0)以下の走行距離で車両10が停止する条件に対応する値である。
警報出力判定処理を行うことにより、適切なブレーキ操作が行われているときは警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。しかしながら、代替的に、警報出力判定処理を行うことなく、ステップS41〜S43で衝突の可能性が高いと判定された対象物が存在することに応じてステップS45に進んでもよい。
ステップS45において、ステップS13で取得されたグレースケール画像中の、上記のステップS41〜S43の処理で衝突の可能性が高いと判定された対象物に対応する領域以外の領域の輝度値を低くする。
ここで図9を参照すると、(a)には、赤外線カメラ1R,1Lを介してステップS13で取得されたグレースケール画像が模式的に示されている。対象物(この例では、歩行者)101が、上記のように衝突の可能性が高いと判定された対象物であると仮定する。わかりやすくするため、この例では、対象物101の輝度値はI1であり、該対象物以外の領域の輝度値はI2とする。
ステップS45では、(b)に示すように、該対象物を含む所定の領域B1(たとえば、図3のステップS18で設定される、対象物に外接する四角形の領域でもよい)以外のすべての領域B2の輝度を低くした表示画像を生成する。この例では、対象物を含む所定の領域B1に含まれるすべての画素の輝度値をそのまま保持し(したがって、対象物101の画素の輝度値は、I1に保持される)、それ以外の領域B2に含まれるすべての画素の輝度値を、I2から所定値だけ下げたI3にしている。ステップS47では、こうして生成された表示画像を、表示装置4上に表示する。
(b)に示すように、対象物領域B1以外の領域B2の輝度が低くされたため、対象物領域B1中の歩行者101は、スポットライトが当てられたような状況となる。したがって、(a)と比較しても明らかなように、歩行者のみが浮き上がったような、高いコントラストの表示画像を生成することができる。
図10には、一例として、(a)実際に取得されたグレースケール画像と、(b)上記のステップS45の処理によって生成された表示画像と、が示されている。グレースケール画像には、歩行者103が撮像されている。該歩行者103が、上記のように衝突の可能性が高いと判定された対象物であると仮定する。
(b)の画像では、歩行者103を囲む所定領域以外の領域の輝度が低くされている。したがって、(a)に比べて、瞬時に歩行者103の存在を認識することができる。比較のため、(c)に、グレースケール画像中の対象物を枠111で強調表示する従来の警報形態を示すが、(c)では、グレースケール画像中に歩行者103以外の様々なものが撮像されているため、強調表示を行っても、運転者は、どこに注意すべきかを瞬時に理解しかねるおそれがある。
特に、ハンドルから車幅方向に所定距離だけ離れた場所に設置された表示装置4を利用している場合には、(c)のような画像では、対象物の認識に遅れが生じるおそれがある。この発明によれば、(b)に示すように、歩行者103以外のものは暗くされ、歩行者103にのみスポットライトがあてられたような形態で表示されるので、(c)に比べて、歩行者103の認識に要する時間を短くすることができる。
図の例では、対象物を囲む所定領域以外の領域の輝度を低くしたが、該対象物を囲む領域を設定することなく、対象物101以外の領域の輝度を低くしてもよい。また、上記では、対象物(もしくは、対象物を囲む所定領域)以外の領域の輝度を低くするのに、画素の輝度値を所定値だけ低くするようにしたが、代替的に、対象物(もしくは、対象物を囲む所定領域)以外の領域のすべての画素の輝度値を、予め決めた低い値(たとえば、黒値、もしくは黒値に近い輝度値)に変更するようにしてもよい。
なお、図示していないが、ステップS47の表示画像の表示装置4への出力と共に、警報音をスピーカ3を介して出力してもよい。警報音は、任意のものでよく、単なるブザーのような音でもよいし、何らかの音声メッセージでもよい。
また、この実施例では、ステップS41〜S43の処理で衝突可能性が高いと判定された対象物について輝度値が保持されるように表示画像が生成されるが、代替的に、ステップS44の警報出力判定処理でブレーキ操作を行っていると判断された場合には、該衝突可能性が高いと判定され、かつ、ステップS44の警報出力判定処理でGs≦GTHを満たす対象物について輝度値が保持されるように表示画像を生成してもよい。これにより、特に注意すべき対象物のみを運転者に認識させることができる。
図11は、この発明の他の実施形態に従う、図3のステップS24で実行される警報判定プロセスのフローチャートである。図6と異なるのは、ステップS46が追加されている点であり、この点について、図12を参照して説明する。
この実施例では、図12の(a)に示すように、対象物の擬似画像が、画像処理ユニット2の記憶装置に予め記憶されている。擬似画像とは、対象物を擬似化したアイコンの画像である。この例では、対象物が歩行者であると仮定して、歩行者を擬似化したアイコン105が記憶されている。
ステップS46では、該擬似画像を記憶装置から読み出し、ステップS45の処理の結果得られた画像中の対象物(前述したように、輝度の低下が行われなかった対象物)の位置に該擬似画像を重畳して、表示画像を生成する。図12では、ステップS45により得られた(b)の画像(これは、図10の(b)と同じである)の対象物103の位置に、(a)の擬似画像105が重畳された画像が、(c)に示されている。ステップS47では、こうして擬似画像が重畳された画像を、表示装置4上に出力する。
擬似画像は、表示される画像において、対象物を、それ以外の領域から視覚的に強く区別されるために重畳される画像である。したがって、疑似画像は、高い輝度値を持ち、かつ運転者の注意を強く喚起できるような色(たとえば、赤や黄色)で生成されるのが好ましい。ここで、擬似画像の輝度値は、高いコントラストの表示画像となるように、対象物以外の領域の輝度値、すなわちステップS45の処理で低下した輝度値よりも所定値以上高い輝度値に設定されるのが好ましい。
なお、擬似画像の輝度値は、予め決めておいてもよいし、可変としてもよい、後者の場合、たとえば、ステップS45で低下させられた該対象物以外の領域についての輝度値(該領域の画素の輝度値の平均でもよい)を取得し、これに、所定値を加算して擬似画像用の輝度値を算出することができる。該算出された輝度値の擬似画像を重畳して、表示画像を生成する。
擬似画像の重畳に加えて、図12の(d)に示すように、該疑似画像を枠107で囲むことによって強調表示するようにしてもよい。枠107も、擬似画像と同様に、運転者の注意を喚起しやすい色であり、かつ比較的高い輝度値で表示されるのが好ましい。
こうして表示装置4上には、対象物の位置を示す擬似画像にのみスポットライトがあたったような、高いコントラストの形態の画像が表示される。また、擬似画像は、撮像される種々のもの(すなわち、実写物)とは異なり、アニメ的なものである。したがって、運転者に、該擬似画像が出力されたことを瞬時に認識させることができ、よって、注意すべき対象物の存在を瞬時に認識させることができる。また、擬似画像によって、実際の対象物の撮像画像は隠されてしまうため、運転者に、前方を注視するよう促すことができる。
なお、生体には人以外にも動物が存在しており、対象物として、動物が検出されることもありうる。したがって、歩行者を擬似化した画像と動物を擬似化した画像を予め生成して記憶しておいてもよい。この場合、対象物が歩行者か動物かを判定する処理を、たとえばステップ435の前に設ける。これらの判定処理は、任意の適切なものを用いることができる。該判定処理において、対象物が歩行者と判定されたならば、ステップS46では、歩行者に対応する擬似画像を読み出して重畳し、動物と判定されたならば動物に対応する擬似画像を読み出して重畳する。こうして、運転者に、注意すべき対象物が歩行者なのか動物なのかを瞬時に認識させることができる。
なお、上記の実施形態では、衝突可能性の判定に、接近判定領域および侵入判定領域を用いているが、該判定手法は、この形態に限定されるものではなく、他の任意の適切な衝突可能性の判定手法を用いることができる。
また、上で述べた実施形態では、表示装置4は、ナビゲーション装置の表示装置を利用している。本願発明では、運転者が短時間で認識できるような表示形態を採用するので、運転者の左または右側に配置された表示装置を利用することができる。しかしながら、他の表示装置を使用してもよく、従来の如くヘッドアップディスプレイに、本願発明の表示形態を適用してもよい。
さらに、上記の実施形態では、遠赤外線カメラを用いているが、本願発明は、他のカメラ(たとえば、可視カメラ)にも適用可能である。
以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。
1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 表示装置

Claims (5)

  1. 車両に搭載されたカメラを用いて車両の周辺を撮像する撮像手段と、
    前記撮像手段による撮像を介して、前記車両の周辺に存在する対象物の温度に応じた輝度値を有するグレースケール画像を取得する手段と、
    前記グレースケール画像から、所定の前記対象物を検出する対象物検出手段と、
    前記グレースケール画像に基づいて、前記車両に搭載された表示装置上に表示されるべき表示画像を生成する表示画像生成手段と、
    前記生成された表示画像を、前記表示装置上に表示する手段と、を備える車両の周辺監視装置であって、
    前記対象物検出手段は、前記各対象物が前記車両と衝突する可能性が高いか否かを判定し、前記車両と衝突する可能性の高い前記対象物を、前記所定の対象物として検出し、かつ、
    前記対象物検出手段は、運転者によるブレーキ操作を行っているか否かを判断し、ブレーキ操作を行っているときは、前記車両の減速度を算出し、
    前記表示画像生成手段は、前記検出した各対象物について、当該対象物の前記車両に対する相対速度及び前記車両からの距離から定まる閾値をそれぞれ算出し、前記算出した減速度を前記算出した前記各閾値と比較して、前記算出した減速度が、少なくとも一つの前記算出した閾値以下であるときに、前記グレースケール画像中の、前記所定の対象物以外の領域の輝度を低下させることによって前記表示画像を生成する、
    周辺監視装置。
  2. 前記表示装置は、前記車両の運転者が視認可能な位置であって、前記車両のハンドルの回転の中心を通ると共に該車両の前後方向に伸長する線に対して所定距離だけ車幅方向に離れた位置に設けられている、
    請求項1に記載の周辺監視装置。
  3. 記表示画像生成手段は、更に、前記算出した減速度よりも大きい前記閾値に対応する前記検出した対象物以外の前記対象物の領域の輝度を低下させ前記表示画像を生成する、
    請求項1または2に記載の周辺監視装置。
  4. 前記表示画像生成手段は、さらに、前記グレースケール画像中の前記対象物が存在する位置に、該対象物を擬似化した画像を重畳し、前記表示手段は、該重畳した前記表示画像を前記表示装置上に表示する、
    請求項1から3のいずれかに記載の周辺監視装置。
  5. 前記表示装置は、ナビゲーション装置の表示装置である、
    請求項1から4のいずれかに記載の周辺監視装置。
JP2012502992A 2010-03-01 2011-02-21 車両の周辺監視装置 Expired - Fee Related JP5503728B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012502992A JP5503728B2 (ja) 2010-03-01 2011-02-21 車両の周辺監視装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010044465 2010-03-01
JP2010044465 2010-03-01
PCT/JP2011/000948 WO2011108217A1 (ja) 2010-03-01 2011-02-21 車両の周辺監視装置
JP2012502992A JP5503728B2 (ja) 2010-03-01 2011-02-21 車両の周辺監視装置

Publications (2)

Publication Number Publication Date
JPWO2011108217A1 JPWO2011108217A1 (ja) 2013-06-20
JP5503728B2 true JP5503728B2 (ja) 2014-05-28

Family

ID=44541887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012502992A Expired - Fee Related JP5503728B2 (ja) 2010-03-01 2011-02-21 車両の周辺監視装置

Country Status (5)

Country Link
US (1) US8953840B2 (ja)
EP (1) EP2544449B1 (ja)
JP (1) JP5503728B2 (ja)
CN (1) CN102783144B (ja)
WO (1) WO2011108217A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2546819B1 (en) * 2010-04-19 2015-06-03 Honda Motor Co., Ltd. Device for monitoring vicinity of vehicle
JP2013253961A (ja) * 2012-05-07 2013-12-19 Denso Corp 画像表示システム
JP2014116756A (ja) * 2012-12-07 2014-06-26 Toyota Motor Corp 周辺監視システム
WO2014203592A1 (ja) 2013-06-17 2014-12-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR102092625B1 (ko) 2013-10-15 2020-04-14 현대모비스 주식회사 차량 상태 경보 방법 및 이를 위한 장치
CN104079881B (zh) * 2014-07-01 2017-09-12 中磊电子(苏州)有限公司 监控装置与其相关的监控方法
CN104269070B (zh) * 2014-08-20 2017-05-17 东风汽车公司 一种车辆主动安全预警方法和运用该方法的安全预警系统
KR102149276B1 (ko) * 2014-10-23 2020-08-28 한화테크윈 주식회사 영상 정합 방법
KR102225617B1 (ko) * 2014-11-03 2021-03-12 한화테크윈 주식회사 영상 정합 알고리즘을 설정하는 방법
JP6432332B2 (ja) * 2014-12-15 2018-12-05 株式会社リコー 光電変換素子、画像読取装置及び画像形成装置
JP6402684B2 (ja) * 2015-06-10 2018-10-10 トヨタ自動車株式会社 表示装置
EP3396410A4 (en) * 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. IMAGE ACQUISITION DEVICE FOR VEHICLES, CONTROL DEVICE, VEHICLE HAVING IMAGE ACQUISITION DEVICE FOR VEHICLES AND CONTROL DEVICE, AND IMAGE ACQUISITION METHOD FOR VEHICLES
CN108431629B (zh) 2015-12-21 2022-07-08 株式会社小糸制作所 车辆用图像获取装置、控制装置、包括了车辆用图像获取装置或控制装置的车辆和车辆用图像获取方法
WO2017110417A1 (ja) 2015-12-21 2017-06-29 株式会社小糸製作所 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法
JP6766071B2 (ja) 2015-12-21 2020-10-07 株式会社小糸製作所 車両用画像取得装置およびそれを備えた車両
DE102016220479A1 (de) * 2016-10-19 2018-04-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Generieren eines Notrufs für ein Fahrzeug
JP7143728B2 (ja) * 2017-11-07 2022-09-29 株式会社アイシン 重畳画像表示装置及びコンピュータプログラム
CN107820116B (zh) * 2017-11-14 2020-02-18 优酷网络技术(北京)有限公司 视频播放方法及装置
CN109935107B (zh) * 2017-12-18 2023-07-14 姜鹏飞 一种提升交通通视范围的方法及装置
JP6605052B2 (ja) * 2018-01-05 2019-11-13 株式会社 ミックウェア ナビゲーションシステム
KR20200005282A (ko) * 2018-07-06 2020-01-15 현대모비스 주식회사 미러리스 자동차의 측방 영상 처리 장치 및 방법
DE112021001015T5 (de) * 2020-02-14 2022-12-08 Sony Group Corporation Bildgebungsvorrichtung und fahrzeugsteuerungsystem
JPWO2022044394A1 (ja) * 2020-08-28 2022-03-03

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305999A (ja) * 1995-05-11 1996-11-22 Hitachi Ltd 車載用カメラシステム
JP2005318408A (ja) * 2004-04-30 2005-11-10 Nissan Motor Co Ltd 車両周囲監視装置および方法
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP4334686B2 (ja) * 1999-07-07 2009-09-30 本田技研工業株式会社 車両の画像表示装置
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP4128562B2 (ja) 2004-11-30 2008-07-30 本田技研工業株式会社 車両周辺監視装置
US20090066819A1 (en) * 2005-03-15 2009-03-12 Omron Corporation Image processing apparatus and image processing method, program and recording medium
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
JP4456086B2 (ja) * 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
US7671725B2 (en) * 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP4171501B2 (ja) * 2006-04-25 2008-10-22 本田技研工業株式会社 車両の周辺監視装置
JP4173902B2 (ja) * 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
JP4173901B2 (ja) * 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
DE102007011180A1 (de) * 2007-03-06 2008-09-11 Daimler Ag Rangierhilfe und Verfahren für Fahrer von Fahrzeugen bzw. Fahrzeuggespannen, welche aus gegeneinander knickbare Fahrzeugelementen bestehen
US7936923B2 (en) * 2007-08-31 2011-05-03 Seiko Epson Corporation Image background suppression
DE102007044535B4 (de) * 2007-09-18 2022-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrerinformation in einem Kraftfahrzeug
WO2010099416A1 (en) * 2009-02-27 2010-09-02 Magna Electronics Alert system for vehicle
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305999A (ja) * 1995-05-11 1996-11-22 Hitachi Ltd 車載用カメラシステム
JP2005318408A (ja) * 2004-04-30 2005-11-10 Nissan Motor Co Ltd 車両周囲監視装置および方法
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置

Also Published As

Publication number Publication date
CN102783144B (zh) 2016-06-29
US20130004021A1 (en) 2013-01-03
EP2544449A1 (en) 2013-01-09
EP2544449B1 (en) 2016-03-16
WO2011108217A1 (ja) 2011-09-09
US8953840B2 (en) 2015-02-10
CN102783144A (zh) 2012-11-14
EP2544449A4 (en) 2014-01-01
JPWO2011108217A1 (ja) 2013-06-20

Similar Documents

Publication Publication Date Title
JP5503728B2 (ja) 車両の周辺監視装置
JP5706874B2 (ja) 車両の周辺監視装置
JP5577398B2 (ja) 車両の周辺監視装置
JP4410292B1 (ja) 車両の周辺監視装置
JP2003150938A (ja) 画像認識装置
JP4528283B2 (ja) 車両周辺監視装置
JP2008027309A (ja) 衝突判定システム、及び衝突判定方法
JP5292047B2 (ja) 車両の周辺監視装置
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP5192007B2 (ja) 車両の周辺監視装置
JP3919975B2 (ja) 車両の周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
JP4176558B2 (ja) 車両周辺表示装置
JP3949628B2 (ja) 車両の周辺監視装置
JP2003151096A (ja) 進入警報装置
JP5192009B2 (ja) 車両の周辺監視装置
JP4943403B2 (ja) 車両の周辺監視装置
JP4629638B2 (ja) 車両の周辺監視装置
JP2003157498A (ja) 障害物警報装置
JP2007311866A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP4472623B2 (ja) 車両周辺監視装置
JP2007336091A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140314

R150 Certificate of patent or registration of utility model

Ref document number: 5503728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees