JPWO2005107261A1 - 車両周囲表示装置 - Google Patents

車両周囲表示装置 Download PDF

Info

Publication number
JPWO2005107261A1
JPWO2005107261A1 JP2006512752A JP2006512752A JPWO2005107261A1 JP WO2005107261 A1 JPWO2005107261 A1 JP WO2005107261A1 JP 2006512752 A JP2006512752 A JP 2006512752A JP 2006512752 A JP2006512752 A JP 2006512752A JP WO2005107261 A1 JPWO2005107261 A1 JP WO2005107261A1
Authority
JP
Japan
Prior art keywords
vehicle
viewpoint
obstacle
display device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006512752A
Other languages
English (en)
Inventor
智也 中西
智也 中西
石田 明
明 石田
渡辺 豊
豊 渡辺
市川 徹
徹 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2005107261A1 publication Critical patent/JPWO2005107261A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Abstract

ドライバが障害物をより視認し易い画像を表示できる車両周囲表示装置を提供することが課題である。車両周囲表示装置1は、車両Aを基準として周囲の障害物Bとの距離及び方位を測定する測定部11と、測定距離と、所定の閾値とを比較する比較部12と、比較結果で測定距離が大きいことが示されている間、予め定められている第1視点を決定し、比較結果で測定距離が大きいことが示されていない間、測定方位に基づいて第2視点を決定する視点決定部13と、第1視点が設定されると、与えられた第1視点から見た時の前記車両周囲の様子を表す俯瞰画像を生成し、第2視点が設定されると、与えられた第2視点周辺から見た時の車両A及び障害物Bを表す特定箇所画像を生成する画像生成部14と、俯瞰画像又は特定箇所画像を表示する表示部15とを備える。

Description

本発明は、車両周囲表示装置に関し、より特定的には、車両の周囲について、少なくとも2種類の画像を選択的に表示して、ドライバに車両及び障害物の位置関係を知らせる車両周囲表示装置に関する。
従来、上記のような車両周囲表示装置(以下、従来の表示装置と称する)としては、複数の撮像装置と、複数のレーザレンジファインダと、立体仮想部と、画像変換部と、画像表示部とを備えるものがある。
複数の撮像装置は、車両1に設置され、これら撮像装置により周囲の状況が撮像される。複数のレーザレンジファインダは、視野内の物体(撮像装置の被写体)までの距離を測定する。なお、1個の撮像装置と1個のレーダレンジファインダとは近接配置される。
この立体仮想部は、レーザレンジファインダからの距離情報に基づいて当該視野の距離画像(図18の上段左側を参照)を得るようになっており、また、上述した撮像装置からの原画像(図18の上段右側を参照)から視野内の物体認識を実行する。これら原画像と距離画像との2つの画像情報と、物体認識による知識とから、撮像装置では見えない、被写体の隠れた部分を仮定して立体的に視野を再現する。
立体仮想手段で再現された3次元情報は、画像変換部に送られる。画像変換部は、受け取った3次元情報に基づいて、図18の下段に示すように、車両の上方に設定される仮想カメラから撮影されたような鳥瞰図を作成する。鳥瞰図は、車両側の適当な視点から、車両とその周辺環境とを見た時の様子を表し、画像表示部により表示される。
他にも、鳥瞰図用の視点としては、車両の左斜め上方と右斜め上方とに2個設定され、いずれかの基準点を視点とした鳥瞰図が選択的に表示される。この場合、鳥瞰図は、車両のステアリングの操舵角に応じて切り替えられる。
特開平7−17328号公報
しかしながら、従来の表示装置では、車両の上方に設定された仮想カメラから見た鳥瞰図が表示される。従って、車両が障害物に接近した場合、鳥瞰図において、障害物は車両によりできてしまう死角に入ってしまい、ドライバが障害物を視認しづらくなるという問題点があった。
それ故に、本発明の目的は、ドライバが障害物をより視認し易い画像を表示できる車両周囲表示装置を提供することである。
上記目的を達成するために、本発明の第1の局面は、車両の周囲について、少なくとも2種類の画像を選択的に表示する車両周囲表示装置に向けられている。車両周囲表示装置は、車両を基準として周囲の障害物との距離及び方位を測定する測定部と、測定部での測定距離と、所定の閾値とを比較する比較部と、比較部の比較結果で測定距離が大きいことが示されている間、予め定められている第1視点を決定し、比較部の比較結果で測定距離が大きいことが示されていない間、測定部での測定方位に基づいて第2視点を決定する視点決定部と、視点決定部から第1視点が与えられると、与えられた第1視点から見た時の車両周囲の様子を表す第1画像を生成し、視点決定部から第2視点が与えられると、与えられた第2視点周辺から見た時の車両及び障害物を表す第2画像を生成する画像生成部と、画像生成部で生成された第1画像又は第2画像を表示する表示部とを備える。
また、第2の局面は、車両の周囲について、少なくとも2種類の画像を表示装置に選択的に表示させる車両周囲表示方法に向けられている。車両周囲表示方法は、車両を基準として周囲の障害物との距離及び方位を測定する測定ステップと、測定ステップでの測定距離と、所定の閾値とを比較する比較ステップと、比較ステップで測定距離の方が大きいという結果が得られると、予め定められている第1視点を決定する第1視点決定ステップと、第1視点決定ステップで決定された第1視点から見た車両周囲の様子を表す第1画像を生成する第1画像生成ステップと、第1画像生成ステップで生成された第1画像を表示する第1表示ステップと、比較ステップで測定距離の方が大きくないという結果が得られると、測定ステップでの測定方位に基づいて第2視点を決定する第2視点決定ステップと、第2視点決定ステップで決定された第2視点周辺から見た車両及び障害物を表す第2画像を生成する第2画像生成ステップと、第2画像生成ステップで生成された第2画像を表示する第2表示ステップとを備える。
また、第3の局面は、車両の周囲について、少なくとも2種類の画像を表示装置に選択的に表示させるコンピュータプログラムに向けられている。コンピュータプログラムは、車両を基準として周囲の障害物との距離及び方位を測定する測定ステップと、測定ステップでの測定距離と、所定の閾値とを比較する比較ステップと、比較ステップで測定距離の方が大きいという結果が得られると、予め定められている第1視点を決定する第1視点決定ステップと、第1視点決定ステップで決定された第1視点から見た車両周囲の様子を表す第1画像を生成する第1画像生成ステップと、第1画像生成ステップで生成された第1画像を表示装置に表示させる第1表示ステップと、比較ステップで測定距離の方が大きくないという結果が得られると、測定ステップでの測定方位に基づいて第2視点を決定する第2視点決定ステップと、第2視点決定ステップで決定された第2視点周辺から見た車両及び障害物を表す第2画像を生成する第2画像生成ステップと、第2画像生成ステップで生成された第2画像を表示装置に表示させる第2表示ステップとを備える。
上記各局面において、第1視点及び第2視点の双方は3次元座標値で表され、第2視点について水平方向成分の大きさは、第1視点の水平方向成分のそれよりも大きく、第2視点の鉛直方向成分の大きさは、第1視点の鉛直方向成分のそれよりも小さい。
また、上記各局面において、第1視点の3次元座標は車両の真上に相当し、第2視点の3次元座標は、自身を始点とする線分が車両及び障害物の方向に延び、さらに水平面に対し所定の俯角をなす。
また、上記各局面において、第2視点は、車両と障害物とを結ぶ直線と直交する鉛直面に含まれる点に設定される。
また、上記各局面において、鉛直面は、車両と障害物とを結ぶ直線の垂直二等分面に設定される。
また、上記各局面では、障害物に接触せずに走行可能か否かが判定される。ここで、車両が走行可能と判定された場合、第2画像以外の第3画像が表示部又は表示装置に表示される。
例示的には、障害物の高さが測定され、測定された障害物の高さに基づいて、車両が障害物に接触せずに走行可能か否かが判定される。
例示的には、車両の操舵角が検出され、検出された操舵角に基づいて、車両が障害物に接触せずに走行可能な否かが判定される。
上記例示において、車両が障害物に接触することなく走行可能と判定された場合、検出された操舵角も考慮して、第2視点が決定される。この場合において、第2視点は好ましくは、障害物と、車両において障害物が接触する部分との双方をドライバが視認可能な3次元座標値に設定される。
また、複数の障害物について距離及び方位が測定された場合、好ましくは、車両に接触する可能性が最も高いものの距離及び方位が選択される。この場合、選択された距離と、所定の閾値とが比較され、比較結果で測定距離が大きくないことが示されている間、選択された方位に基づいて第2視点が決定される。
また、それぞれが車両の前後及び側面のいずれかに設置される複数のアクティブセンサにより、車両の周囲に存在する障害物が検知される。
以上の各局面によれば、車両を基準として周囲の障害物までの距離及び方位が測定される。測定距離が所定の閾値よりも大きくない場合、つまり、車両と障害物とが接近している場合、測定方位に基づいて決定された第2視点周辺から見た時の車両及び障害物を表す第2画像データが生成され表示される。このような第2視点が設定されるので、第2画像データにおいて、障害物は車両によりできてしまう死角に入りにくくなる。これによって、ドライバが障害物をより視認し易い画像を表示できる車両周囲表示装置を提供することが可能となる。
本発明の上記及びその他の目的、特徴、局面及び利点は、以下に述べる本発明の詳細な説明を添付の図面とともに理解したとき、より明らかになる。
図1は、本発明の一実施形態に係る車両周囲表示装置1のブロック構成を示す模式図である。 図2は、図1に示す測定部11に含まれるアクティブセンサ111の配置例を示す模式図である。 図3は、図1に示すデータ蓄積部16に格納されるデータ内容を示す模式図である。 図4は、図1に示す車両周囲表示装置1の動作を示すフローチャートである。 図5は、図1に示す車両Aの前方、後方又は側方のエリアに存在する障害物Bを示す模式図である。 図6Aは、図2に示すアクティブセンサ111及び障害物Bを、それらの真上から見たときの拡大図である。 図6Bは、図6Aに示すアクティブセンサ111及び障害物Bを、それらの真横から見たときの拡大図である。 図7は、図1に示す車両Aに対して斜め方向のエリアに障害物Bが存在する場合の距離Cの導出方法を説明するための模式図である。 図8Aは、図1に示す視点決定部13で決定される第2視点Pを上方から見たときの模式図である。 図8Bは、図1に示す視点決定部13で決定される第2視点Pを後ろから見たときの模式図である。 図9は、図1に示す車両Aに対して斜め方向のエリアに障害物Bが存在する場合について、図1に示す視点決定部13で決定される第2視点Pを上方から見たときの模式図である。 図10は、図1に示す表示部15に表示される特定箇所画像を示す模式図である。 図11は、図1に示す表示部15に表示される俯瞰画像を示す模式図である。 図12は、本発明の第1の変形例に係る車両周囲表示装置1aのブロック構成を示す模式図である。 図13は、図1に示す車両周囲表示装置1aの動作を示すフローチャートである。 図14は、図12に示す接触判定部21で導出される高さHを示す模式図である。 図15は、本発明の第2の変形例に係る車両周囲表示装置1bのブロック構成を示す模式図である。 図16は、図15に示す車両周囲表示装置1bの動作を示すフローチャートである。 図17Aは、図15に示す視点決定部13で決定される好ましい第2視点Pを示す第1の模式図である。 図17Bは、図15に示す視点決定部13で決定される好ましい第2視点Pを示す第2の模式図である。 図18は、従来の車両周囲表示装置の概略的な処理を示す模式図である。
符号の説明
1,1a,1b 車両周囲表示装置
11 測定部
12 比較部
13 視点決定部
14 画像生成部
15 表示部
16 データ蓄積部
21,32 接触判定部
31 操舵角センサ
(実施形態)
図1は、本発明の一実施形態に係る車両周囲表示装置1のブロック構成の一例を示す模式図である。図1において、車両周囲表示装置1は、車両Aに搭載され、本質的な構成として、測定部11と、比較部12と、視点決定部13と、画像生成部14と、表示部15とを備える。また、好ましい構成として、車両周囲表示装置1は、データ蓄積部16とを備える。
測定部11は、車両Aを基準として、その周囲の障害物Bまでの距離C及び方位Dを少なくとも測定する。このような測定のために、本実施形態では、測定部11は、図2に示すように、複数のアクティブセンサ111(図示は16個)を含む。アクティブセンサ111としては、レーザレーダ、ミリ波レーダ又は準ミリ波レーダが典型的である。各アクティブセンサ111は、単体で、水平方向に±45度、さらに垂直方向に±20度程度の範囲をスキャンすることで、自身の検知範囲に存在する障害物Bを検知できる。このようなアクティブセンサ111は、車両Aの周囲360°に存在する障害物Bを検知できるよう、図2に示すように、車両Aのフロント部分、リア部分及び両サイド部分にそれぞれ4個ずつ取り付けられる。
比較部12は、測定部11での測定距離Cと、予め保持する閾値Eとを比較して、比較結果Fを生成する。ここで、閾値Eは、車両Aが障害物Bに接近しているか否かを判断するために用いられる基準値である。なお、本実施形態では、測定距離Cが閾値Eよりも大きい場合、比較結果Fは「F」であり、そうでない場合、比較結果Fは「F」であるとする。
視点決定部13は、比較部12の比較結果Fが「F」を示している間、車両Aを俯瞰するための第1視点Pを決定する。それに対し、視点決定部13は、受け取った比較結果Fが「F」を示している間、測定部11から得られる方位Dに基づいて、車両Aの特定箇所を視認するための第2視点Pを決定する。
画像生成部14は、視点決定部13から第1視点Pを得ると、得られた第1視点Pから見た場合における車両Aの周囲の様子を表す第1画像データIを生成する。それに対し、画像生成部14は、視点決定部13から第2視点Pを得ると、車両Aにおいて障害物Bと接触しそうな箇所を、得られた第2視点Pから見た場合の様子を表す第2画像データIを生成する。
以上の比較部12、視点決定部13及び画像生成部14は典型的には、CPU、ROM及びRAMの組み合わせから構成され、それぞれの処理は、ROMに格納されるコンピュータプログラムをCPUがRAMを使って実行することで実現される。
表示部15は、画像生成部14から第1画像データIを得ると、それに従って車両Aの俯瞰画像を表示する。それに対し、画像生成部14から第2画像データIが得られると、表示部15は、得られた第2画像データIに従って、車両Aの特定箇所の画像を表示する。このような表示処理によって、車両Aのドライバには、第1画像データIに基づく車両Aの俯瞰画像と、第2画像データIに基づく車両Aの特定箇所画像が提供される。このような表示処理のため、表示部15は、車載ナビゲーションシステム又はテレビジョン受像機に備わるモニタ、若しくは、ヘッドアップディスプレイ又はヘッドマウントディスプレイを適用できる。
データ蓄積部16は、典型的には、HDD(Hard Disc Drive)、DVD(Digital Versatile Disc)、又は半導体メモリから構成される。このようなデータ蓄積部16には、図3に示すように、各種データが格納される。まず、車両Aの高さ(以下、車高情報と称する)H、車両Aの外形形状を表す形状データMが格納される。他にも、データ蓄積部16には、車両Aの幅(以下、車幅情報と称する)Wと、車両Aの全長(以下全長情報と称する)Lとが格納される。
さらに、データ蓄積部16には、各アクティブセンサ111の取り付け位置Pが格納される。取り付け位置Pは、対象となるアクティブセンサ111について、地面からの鉛直方向の距離、及び車両Aのいずれかのコーナーからの距離を含む。さらに、例えば人、壁又は木のように、障害物Bとなりうるものの外形を表す形状データMがデータ蓄積部16には格納される。
以上のようなデータ蓄積部16に格納される各種データは、主として、第1画像データI及び第2画像データIの作成に用いられる。
次に、図4のフローチャートを参照して、図1に示す車両周囲表示装置1の動作について説明する。車両Aの周囲に障害物Bが存在すると、測定部11は、障害物Bを検知する(ステップS11)。具体的には、測定部11は、車両Aを基準として、障害物Bまでの距離C、及び障害物Bの方位Dを導出する。さらに、測定部11は、今回検知した障害物Bが何であるかを推定し、それによって、推定結果Gを得る。
ここで、図5、図6A及び図6Bを参照して、距離Cの導出方法について説明する。まず、図5は、車両Aの前方、後方又は側方のエリア(ハッチングを付した部分を参照)に存在する障害物Bを示す模式図である。図5には、上方から見た時の車両Aが模式的に示され、さらに、車両Aの左方に障害物Bが存在し、車両Aの後方に障害物Bが存在する場合が例示されている。
障害物B及びBのいずれの場合においても、それぞれに対して最も近くに設置されるアクティブセンサ(以下、近接アクティブセンサと称する)111とは、図6A及び図6Bに示すような位置関係を有する。ここで、図6Aは、近接アクティブセンサ111及び障害物B(又はB)を、それらの真上から見たときの拡大図である。図6Bは、図6Aに示すアクティブセンサ111及び障害物B(又はB)を、それらの真横から見たときの拡大図である。
近接アクティブセンサ111は、図6A及び6Bに示すように、自身を基準とする障害物B(又はB)までの距離dと、水平方向の方位角θと、鉛直方向の方位角φとを検出する。測定部11は、近接アクティブセンサ111と、障害物B(又はB)との間の最短距離Cを求めるために、これら距離d、方位角θ及び方位角φをC=d・cosθ・cosφに代入する。また、車両Aに対する方位Dは、例示的には、近接アクティブセンサ111に対する水平方向の方位角θと、鉛直方向の方位角φとの組み合わせをそのまま用いる。
次に、図7は、車両Aの前方、後方又は側方に障害物Bが存在せず、車両Aに対して斜め方向のエリア(ハッチングを付した部分を参照)に障害物Bが存在する場合の距離Cの導出方法を説明するための模式図である。図7には、上方から見た時の車両A及び障害物Bが模式的に示され、さらに、車両Aの右後方に障害物Bが存在する場合が例示されている。
上記の場合、車両Aの後部左側のアクティブセンサ111が近接アクティブセンサ111となる。この場合も、近接アクティブセンサ111は、上述と同様に、自身を基準とする障害物Bまでの距離dと、水平方向の方位角θと、鉛直方向の方位角φとを検出する。従って、最短距離C及び鉛直方向の方位角φに関しては、前述と同様にして、測定部11により求められる。それに対して、この近接アクティブセンサ111は、車両Aに対して斜め後方に向けて取り付けられるため、水平方向の方位角θは、データ蓄積部16に格納される、近接アクティブセンサ111の取り付け位置を使って、車両Aに対する方位Dに変換される。
また、障害物Bの推定は、その存在エリアに拘わらず、例えば、アクティブセンサ111の出射波に対する反射波の強度に基づいて行うことが可能である。
このようにして得られた、距離C、方位D及び推定結果Gは、RAMに格納される。
次に、比較部12は、RAMに格納された距離Cと、自身が保持する閾値Eとを比較して、比較結果FをRAMに格納する(ステップS12)。具体的には、距離Cが大きい場合、比較結果Fとしての「F」がRAMに格納され、そうでない場合には、比較結果Fとしての「F」がRAMに格納される。ここで、前述のように、閾値Eは、車両Aが障害物Bに接近しているか否かを判断するための基準値である。この閾値E1は、例えば1メートルに選ばれるが、この値は、ドライバの指定に応じて、又は車両周囲表示装置1の設計仕様に応じて変更可能であっても構わない。このような閾値Eにより、比較結果Fは、車両Aの近くに障害物Bが存在するか否かを表すことになる。
次に、視点決定部13は、RAM内の比較結果Fが「F」か否かを判断する(ステップS13)。Yesと判断されるということは、車両Aが障害物Bに接近していることになるので、この場合、視点決定部13は、特定箇所用の第2視点Pを決定する(ステップS14)。
ステップS15の処理の具体例を以下説明する。まず、視点決定部13は、現在RAM内に格納されている方位Dを、第2視点Pの決定に用いる。これによって、視点決定部13は、車両Aに対しどの方向の範囲に障害物Bが存在するかを認識することができる。さらに、水平面との俯角Rが所定値(例えば45°)なり、かつ近接アクティブセンサ111の周辺(つまり、車両Aにおいて障害物Bと接触する可能性が高い場所)が特定箇所画像に現れるような3次元座標値を、第2視点Pとして設定する。また、俯角Rは、水平面と、第2視点Pから水平面に向かって延びる線とがなす角になるが、この線は、近接アクティブセンサ111又はその検知範囲の方向に向かって延びることが要求される。なお、俯角Rの値は、ドライバの指定に応じて、又は車両周囲表示装置1の設計仕様に応じて変更可能であっても構わない。
また、視点決定部13は好ましくは、方位Dに加え、現在RAM内に格納されている距離Cを、第2視点Pの決定に用いる。この場合、第2視点Pとしては、図8A及び図8Bに示すように、車両A及び障害物Bの最短距離を表す線Lに対して直交する鉛直面Pに含まれ、かつ水平面との俯角Rが所定値になる3次元座標値が選ばれる。より好ましくは、鉛直面Pは、上記線Lを垂直二等分する面である。なお、図9には、車両Aに対して斜め方向のエリア(ハッチングを付した部分を参照)に障害物Bが存在する場合の第2視点Pが示されている。
上記のように設定された第2視点Pを視点決定部13は画像生成部14に渡す。画像生成部14は、第2視点Pを受け取ると、第2画像データIを作成する(ステップS15)。まず、データ蓄積部16に格納される推定結果Gに対応し、検知された障害物Bを表す形状データMと、車両Aを表す形状データMとを取り出す。次に、画像生成部14は、障害物Bのオブジェクトと、車両Aのオブジェクトとを、RAMに格納された距離C及び方位Dの位置関係で配置し、さらに、受け取った第2視点Pの位置から両者を見た時の様子を表す第2画像データIを作成する。ここで、好ましくは、両者の距離Cを表す数値及び障害物の高さHを表す数値が第2画像データIに合成されることが好ましい。
このようにして作成した第2画像データIを、画像生成部14は表示部15に転送し、表示部15は、図10に示すように、第2画像データIに基づく特定箇所画像を表示し(ステップS16)、その後、処理はステップS11に戻る。
また、ステップS13でNoと判断された場合、視点決定部13は、車両Aと障害物Bとが十分に接近していないとみなして、第1視点Pを決定する(ステップS17)。
本実施形態において、第1視点Pは、車両Aの真上に設定される。今、第1視点Pを、3次元座標値(0,0,z)とおき、また、第2視点Pを、3次元座標値(x,y,z)とおく。車両Aにおいて障害物Bと接触しそうな箇所をドライバにより良く視認させることが第2画像データI(つまり、第2視点P)には要求されるので、原点を基準として、第1視点Pの鉛直方向成分の大きさ(つまり、|z|)は、第2視点Pの鉛直方向成分の大きさ(つまり、|z|)よりも大きく設定される。さらに、上記の要求から、第2視点Pは、第1視点Pよりも水平方向にずらす必要があるため、原点を基準として、第1視点Pの水平方向成分の大きさは、第2視点Pの水平方向成分の大きさ(つまり、√(X +y ))よりも小さく設定される。
上記のように設定された第1視点Pを視点決定部13は画像生成部14に渡す。画像生成部14は、第1視点Pを受け取ると、第1画像データIを作成する(ステップS18)。第1画像データIは、第2画像データIと同様の方法で作成されるが、両者の間では視点の位置が相違する。なお、第2画像データIの場合と同様、車両A及び障害物Bの距離Cを表す数値及び障害物Bの高さHを表す数値が合成されても構わない。
このようにして作成した第1画像データIを、画像生成部14は表示部15に転送し、表示部15は、図11に示すように、第1画像データIに基づく俯瞰画像を表示し(ステップS19)、その後、処理はステップS11に戻る。
以上のような処理により、車両Aに障害物Bが接近したり、障害物Bに車両Aが接近したりしている時、車両Aから障害物Bまでの距離Cが閾値Eよりも大きい場合、第1画像データIに基づく俯瞰画像が表示部15に表示される。俯瞰画像は、車両Aの真上から見た車両Aの周囲の様子を表すので、ドライバは、周囲の状況を大略的に把握することができる。
上記に対し、車両Aから障害物Bまでの距離Cが閾値E未満になった時、第2画像データIに基づく特定箇所画像が表示部15に表示される。特定箇所画像は、障害物Bについて検出された方位Dに基づいて設定された第2視点Pが使われており、車両Aにおいて、障害物Bを検知した近接アクティブセンサ111の周辺を拡大して表すので、障害物Bは車両Aによりできてしまう死角に入り難くなり、その結果、ドライバは、車両Aにおいて障害物Bと接触する可能性が高い箇所を視認し易くなる。
また、第2視点Pが、方位Dだけでなく距離Cを使うことにより、車両A及び障害物Bの位置関係をさらに視認し易い特定箇所画像を表す第2画像データIを作成することが可能となる。
具体的には、好ましい第2視点Pは、図8A、図8B及び図9に示すように、車両A及び障害物Bの最短距離を表す線Lに対して直交する鉛直面Pに含まれ、かつ水平面との俯角Rが所定値になる3次元座標値が選ばれる。より好ましくは、鉛直面Pは、上記線Lを垂直二等分する面である。このような第2視点Pを設定することにより、近接アクティブセンサ111及び障害物Bの双方が特定箇所画像上に現れやすくなる。よって、ドライバに、車両A及び障害物Bの位置関係をより視認し易くできる特定箇所画像を表示できる車両周囲表示装置を提供することが可能となる。また、距離Cを表示部15に表示させることでも、ドライバは、車両Aと障害物Bの位置関係を把握し易くなる。
なお、以上の実施形態においては、第1画像データI及び第2画像データI共に、データ蓄積部16に格納されている形状データMを基礎とし、必要な場合にはさらに形状データMを用いることで生成されるとして説明した。しかし、これに限らず、車両Aのフロント部分、リア部分及び両サイド部分にそれぞれ取り付けられた撮像装置により撮影された画像を用いて、第1画像データI及び第2画像データIと同様のデータが作成されても構わない。
また、測定部11は、複数の障害物Bを検知する場合もあるが、このような場合、車両Aの進行方向に向かって最も近くに存在する障害物Bについて、上述のような処理が適用されることが好ましい。
(第1の変形例)
図12は、上記車両周囲表示装置1の第1の変形例(以下、車両周囲表示装置1aと称する)のブロック構成の一例を示す模式図である。図12において、車両周囲表示装置1aは、図1に示す車両周囲表示装置1と比較すると、接触判定部21をさらに備える点で相違する。それ以外に両車両周囲表示装置1及び1aの間に相違点は無いので、図12において、図1に示す構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
接触判定部21は、障害物Bの底面の高さHを導出し、この高さHと、後述のデータ蓄積部16に格納される車両Aの高さ(以下、車高情報と称する)Hとを比較して、車両Aが障害物Bの下を通過できるか否かを判断し、判断結果Jを生成する。なお、本実施形態では、高さHが車高情報Hよりも大きい場合、接触判定部16は、車両Aが通過可能と判断する。この場合の判断結果Jは「J」とし、そうでない場合の判断結果Jは「J」であるとする。
なお、以上の接触判定部16も典型的には、上述のCPU、ROM及びRAMの組み合わせから構成される。
次に、図13のフローチャートを参照して、図12に示す車両周囲表示装置1aの動作について説明する。なお、図13に示すフローチャートは、図4のそれと比較すると、ステップS21及びS22をさらに備える点で相違する。それ以外に、両フローチャートの間に相違点は無い。それ故、図13において、図4のステップに相当するものには同一のステップ番号を付け、それぞれの説明を省略する。
ステップS11の後、接触判定部21は、図14に示すような障害物Bの底面の高さHを導出する。高さHは、現在RAMに格納されている距離C及び鉛直方向の方位角φと、データ蓄積部16に格納される近接アクティブセンサ111の高さh(取り付け位置情報に含まれる)とを、H=h+D・sinφに代入することで得られる。その後、接触判定部16は、今回導出した高さHと、データ蓄積部16に蓄積された車両Aの高さ情報Hとを比較する。高さHが大きい場合、接触判定部16は、車両Aが障害物Bの下を通過可能とみなして、判断結果Jしての「J」をRAMに格納する。逆に、高さHが大きくない場合、RAMには、判断結果Jしての「J」が格納される(ステップS21)。
ステップS21の次、視点決定部13は、RAM内の判断結果Jが「J」か否かを判断する(ステップS22)。Yesと判断されるということは、障害物Bの下を車両Aが通過できないことになるので、視点決定部13は、特定箇所画像を作成するか否かを判断するために、前述のステップS12以降を行う。それに対し、ステップS22でNoと判断されるということは、障害物Bの下を車両Aが通過できる可能性があることを示すので、視点決定部13は、前述したステップS17以降を行う。
以上のような高さ判定を行うことで、例えば車庫入れのような状況に、車両周囲表示装置1aをドライバは用いることができるようになるため、より使い勝手の良い車両周囲表示装置1aを提供することが可能となる。
なお、本変形例において、特定箇所画像には、障害物Bの底面の高さHが合成されても構わない。
(第2の変形例)
図15は、上記車両周囲表示装置1の第2の変形例(以下、車両周囲表示装置1bと称する)のブロック構成の一例を示す模式図である。図15において、車両周囲表示装置1bは、図1に示す車両周囲表示装置1と比較すると、操舵角センサ31及び接触判定部32をさらに備える点で相違する。それ以外に両車両周囲表示装置1及び1bの間に相違点は無いので、図15において、図1に示す構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
操舵角センサ31は、車両Aの操舵角を検出して、検出結果を接触判定部32に渡す。
接触判定部32は、操舵角センサ31からの検出結果から、車両Aがこれから走行する予測軌跡を導出する。また、接触判定部32は、RAMに格納される障害物Bまでの距離C及び方位Dから、導出した予測軌跡上に障害物Bが存在するか否かを判断し、判断結果Kを生成する。なお、本実施形態では、予測軌跡上に障害物Bが存在する場合、接触判定部32は、「K」という判断結果JをRAMに格納する。また、そうでない場合の判断結果Kは「K」であるとする。
なお、以上の接触判定部32も典型的には、上述のCPU、ROM及びRAMの組み合わせから構成される。
次に、図16のフローチャートを参照して、図15に示す車両周囲表示装置1bの動作について説明する。なお、図16に示すフローチャートは、図4のそれと比較すると、ステップS31及びS32をさらに備える点で相違する。それ以外に、両フローチャートの間に相違点は無い。それ故、図16において、図4のステップに相当するものには同一のステップ番号を付け、それぞれの説明を省略する。
ステップS11の後、接触判定部32は、操舵角センサ31からの検出結果を使って、車両Aの予測軌跡を導出する。さらに、接触判定部32は、導出した予測軌跡上に障害物Bが存在するか否かを判断し、判断結果K(「K」又は「K」)をRAMに格納する(ステップS31)。
ステップS31の次、視点決定部13は、RAM内の判断結果Kが「K」か否かを判断する(ステップS32)。Yesと判断されるということは、障害物Bと車両Aとが接触しない可能性が高いことになるので、視点決定部13は、前述したステップS17以降を行う。それに対し、ステップS32でNoと判断されるということは、障害物Bと車両Aが接触する可能性があるので、視点決定部13は、特定箇所画像を作成するか否かを判断するために、前述のステップS12以降を行う。
以上のような接触判定を行うことで、例えば駐車スペースへ車両Aを入れるような状況に、車両周囲表示装置1bをドライバは用いることができるようになるため、より使い勝手の良い車両周囲表示装置1aを提供することが可能となる。
なお、本変形例において、特定箇所画像又は俯瞰画像には、予測軌跡が合成されても構わない。
また、前述の実施形態の場合、第2視点Pは、図8A、図8B及び図9に示すように2カ所のうちいずれに設定されても同様の効果を得ることができる。しかしながら、本変形例の場合、第2視点Pは、下記のように設定されることがより好ましい。つまり、例えば図17Aに示すように、後退する車両Aの後方に障害物Bがある場合において、車両Aのステアリングが左方向(反時計回り)に切られている場合、第2視点Pは、車両Aの右方向にあるものが選ばれる。
また、図17Bに示すように、前進する車両Aの左側に障害物Bがある場合において、車両Aのステアリングが左方向に切られている場合、第2視点Pは、車両Aの後方側に選ばれる。
このように、障害物Bの方位、車両Aの進行方向及びステアリングの操作方向に応じて、第2視点Pが選ばれる。このように第2視点Pを設定することで、車両Aが障害物Bに近づいていく様子が表示部15に表示されるので、車両A及び障害物Bの位置関係がドライバにとって理解し易くなる。
なお、以上の第1及び第2の変形例を組み合わせて、実施形態に係る車両周囲表示装置1に組み込んでも構わない。
以上、本発明を詳細に説明したが、上記説明はあらゆる意味において例示的なものであり限定的なものではない。本発明の範囲から逸脱することなしに多くの他の改変例及び変形例が可能であることが理解される。
本発明に係る車両周囲表示装置は、ドライバが障害物をより視認し易い画像を表示できることが要求される、ナビゲーション装置又は駐車支援装置等に有用である。
本発明は、車両周囲表示装置に関し、より特定的には、車両の周囲について、少なくとも2種類の画像を選択的に表示して、ドライバに車両及び障害物の位置関係を知らせる車両周囲表示装置に関する。
従来、上記のような車両周囲表示装置(以下、従来の表示装置と称する)としては、複数の撮像装置と、複数のレーザレンジファインダと、立体仮想部と、画像変換部と、画像表示部とを備えるものがある。
複数の撮像装置は、車両1に設置され、これら撮像装置により周囲の状況が撮像される。複数のレーザレンジファインダは、視野内の物体(撮像装置の被写体)までの距離を測定する。なお、1個の撮像装置と1個のレーダレンジファインダとは近接配置される。
この立体仮想部は、レーザレンジファインダからの距離情報に基づいて当該視野の距離画像(図18の上段左側を参照)を得るようになっており、また、上述した撮像装置からの原画像(図18の上段右側を参照)から視野内の物体認識を実行する。これら原画像と距離画像との2つの画像情報と、物体認識による知識とから、撮像装置では見えない、被写体の隠れた部分を仮定して立体的に視野を再現する。
立体仮想手段で再現された3次元情報は、画像変換部に送られる。画像変換部は、受け取った3次元情報に基づいて、図18の下段に示すように、車両の上方に設定される仮想カメラから撮影されたような鳥瞰図を作成する。鳥瞰図は、車両側の適当な視点から、車両とその周辺環境とを見た時の様子を表し、画像表示部により表示される。
他にも、鳥瞰図用の視点としては、車両の左斜め上方と右斜め上方とに2個設定され、いずれかの基準点を視点とした鳥瞰図が選択的に表示される。この場合、鳥瞰図は、車両のステアリングの操舵角に応じて切り替えられる。
特開平7−17328号公報
しかしながら、従来の表示装置では、車両の上方に設定された仮想カメラから見た鳥瞰図が表示される。従って、車両が障害物に接近した場合、鳥瞰図において、障害物は車両によりできてしまう死角に入ってしまい、ドライバが障害物を視認しづらくなるという問題点があった。
それ故に、本発明の目的は、ドライバが障害物をより視認し易い画像を表示できる車両周囲表示装置を提供することである。
上記目的を達成するために、本発明の第1の局面は、車両の周囲について、少なくとも2種類の画像を選択的に表示する車両周囲表示装置に向けられている。車両周囲表示装置は、車両を基準として周囲の障害物との距離及び方位を測定する測定部と、測定部での測定距離と、所定の閾値とを比較する比較部と、比較部の比較結果で測定距離が大きいことが示されている間、予め定められている第1視点を決定し、比較部の比較結果で測定距離が大きいことが示されていない間、測定部での測定方位に基づいて第2視点を決定する視点決定部と、視点決定部から第1視点が与えられると、与えられた第1視点から見た時の車両周囲の様子を表す第1画像を生成し、視点決定部から第2視点が与えられると、与えられた第2視点周辺から見た時の車両及び障害物を表す第2画像を生成する画像生成部と、画像生成部で生成された第1画像又は第2画像を表示する表示部とを備える。
また、第2の局面は、車両の周囲について、少なくとも2種類の画像を表示装置に選択的に表示させる車両周囲表示方法に向けられている。車両周囲表示方法は、車両を基準として周囲の障害物との距離及び方位を測定する測定ステップと、測定ステップでの測定距離と、所定の閾値とを比較する比較ステップと、比較ステップで測定距離の方が大きいという結果が得られると、予め定められている第1視点を決定する第1視点決定ステップと、第1視点決定ステップで決定された第1視点から見た車両周囲の様子を表す第1画像を生成する第1画像生成ステップと、第1画像生成ステップで生成された第1画像を表示する第1表示ステップと、比較ステップで測定距離の方が大きくないという結果が得られると、測定ステップでの測定方位に基づいて第2視点を決定する第2視点決定ステップと、第2視点決定ステップで決定された第2視点周辺から見た車両及び障害物を表す第2画像を生成する第2画像生成ステップと、第2画像生成ステップで生成された第2画像を表示する第2表示ステップとを備える。
また、第3の局面は、車両の周囲について、少なくとも2種類の画像を表示装置に選択的に表示させるコンピュータプログラムに向けられている。コンピュータプログラムは、車両を基準として周囲の障害物との距離及び方位を測定する測定ステップと、測定ステップでの測定距離と、所定の閾値とを比較する比較ステップと、比較ステップで測定距離の方が大きいという結果が得られると、予め定められている第1視点を決定する第1視点決定ステップと、第1視点決定ステップで決定された第1視点から見た車両周囲の様子を表す第1画像を生成する第1画像生成ステップと、第1画像生成ステップで生成された第1画像を表示装置に表示させる第1表示ステップと、比較ステップで測定距離の方が大きくないという結果が得られると、測定ステップでの測定方位に基づいて第2視点を決定する第2視点決定ステップと、第2視点決定ステップで決定された第2視点周辺から見た車両及び障害物を表す第2画像を生成する第2画像生成ステップと、第2画像生成ステップで生成された第2画像を表示装置に表示させる第2表示ステップとを備える。
上記各局面において、第1視点及び第2視点の双方は3次元座標値で表され、第2視点について水平方向成分の大きさは、第1視点の水平方向成分のそれよりも大きく、第2視点の鉛直方向成分の大きさは、第1視点の鉛直方向成分のそれよりも小さい。
また、上記各局面において、第1視点の3次元座標は車両の真上に相当し、第2視点の3次元座標は、自身を始点とする線分が車両及び障害物の方向に延び、さらに水平面に対し所定の俯角をなす。
また、上記各局面において、第2視点は、車両と障害物とを結ぶ直線と直交する鉛直面に含まれる点に設定される。
また、上記各局面において、鉛直面は、車両と障害物とを結ぶ直線の垂直二等分面に設定される。
また、上記各局面では、障害物に接触せずに走行可能か否かが判定される。ここで、車両が走行可能と判定された場合、第2画像以外の第3画像が表示部又は表示装置に表示される。
例示的には、障害物の高さが測定され、測定された障害物の高さに基づいて、車両が障害物に接触せずに走行可能か否かが判定される。
例示的には、車両の操舵角が検出され、検出された操舵角に基づいて、車両が障害物に接触せずに走行可能否かが判定される。
上記例示において、車両が障害物に接触することなく走行可能と判定された場合、検出された操舵角も考慮して、第2視点が決定される。この場合において、第2視点は好ましくは、障害物と、車両において障害物が接触する部分との双方をドライバが視認可能な3次元座標値に設定される。
また、複数の障害物について距離及び方位が測定された場合、好ましくは、車両に接触する可能性が最も高いものの距離及び方位が選択される。この場合、選択された距離と、所定の閾値とが比較され、比較結果で測定距離が大きくないことが示されている間、選択された方位に基づいて第2視点が決定される。
また、それぞれが車両の前後及び側面のいずれかに設置される複数のアクティブセンサにより、車両の周囲に存在する障害物が検知される。
以上の各局面によれば、車両を基準として周囲の障害物までの距離及び方位が測定される。測定距離が所定の閾値よりも大きくない場合、つまり、車両と障害物とが接近している場合、測定方位に基づいて決定された第2視点周辺から見た時の車両及び障害物を表す第2画像データが生成され表示される。このような第2視点が設定されるので、第2画像データにおいて、障害物は車両によりできてしまう死角に入りにくくなる。これによって、ドライバが障害物をより視認し易い画像を表示できる車両周囲表示装置を提供することが可能となる。
本発明の上記及びその他の目的、特徴、局面及び利点は、以下に述べる本発明の詳細な説明を添付の図面とともに理解したとき、より明らかになる。
(実施の形態1)
図1は、本発明の一実施形態に係る車両周囲表示装置1のブロック構成の一例を示す模式図である。図1において、車両周囲表示装置1は、車両Aに搭載され、本質的な構成として、測定部11と、比較部12と、視点決定部13と、画像生成部14と、表示部15とを備える。また、好ましい構成として、車両周囲表示装置1は、データ蓄積部16とを備える。
測定部11は、車両Aを基準として、その周囲の障害物Bまでの距離C及び方位Dを少なくとも測定する。このような測定のために、本実施形態では、測定部11は、図2に示すように、複数のアクティブセンサ111(図示は16個)を含む。アクティブセンサ111としては、レーザレーダ、ミリ波レーダ又は準ミリ波レーダが典型的である。各アクティブセンサ111は、単体で、水平方向に±45度、さらに垂直方向に±20度程度の範囲をスキャンすることで、自身の検知範囲に存在する障害物Bを検知できる。このようなアクティブセンサ111は、車両Aの周囲360°に存在する障害物Bを検知できるよう、図2に示すように、車両Aのフロント部分、リア部分及び両サイド部分にそれぞれ4個ずつ取り付けられる。
比較部12は、測定部11での測定距離Cと、予め保持する閾値Eとを比較して、比較結果Fを生成する。ここで、閾値Eは、車両Aが障害物Bに接近しているか否かを判断するために用いられる基準値である。なお、本実施形態では、測定距離Cが閾値Eよりも大きい場合、比較結果Fは「FT」であり、そうでない場合、比較結果Fは「FF」であるとする。
視点決定部13は、比較部12の比較結果Fが「FT」を示している間、車両Aを俯瞰するための第1視点P1を決定する。それに対し、視点決定部13は、受け取った比較結果Fが「FF」を示している間、測定部11から得られる方位Dに基づいて、車両Aの特定箇所を視認するための第2視点P2を決定する。
画像生成部14は、視点決定部13から第1視点P1を得ると、得られた第1視点P1から見た場合における車両Aの周囲の様子を表す第1画像データIaを生成する。それに対し、画像生成部14は、視点決定部13から第2視点P2を得ると、車両Aにおいて障害物Bと接触しそうな箇所を、得られた第2視点P2から見た場合の様子を表す第2画像データIbを生成する。
以上の比較部12、視点決定部13及び画像生成部14は典型的には、CPU、ROM及びRAMの組み合わせから構成され、それぞれの処理は、ROMに格納されるコンピュータプログラムをCPUがRAMを使って実行することで実現される。
表示部15は、画像生成部14から第1画像データIaを得ると、それに従って車両Aの俯瞰画像を表示する。それに対し、画像生成部14から第2画像データIbが得られると、表示部15は、得られた第2画像データIbに従って、車両Aの特定箇所の画像を表示する。このような表示処理によって、車両Aのドライバには、第1画像データIaに基づく車両Aの俯瞰画像と、第2画像データIbに基づく車両Aの特定箇所画像が提供される。このような表示処理のため、表示部15は、車載ナビゲーションシステム又はテレビジョン受像機に備わるモニタ、若しくは、ヘッドアップディスプレイ又はヘッドマウントディスプレイを適用できる。
データ蓄積部16は、典型的には、HDD(Hard Disc Drive)、DVD(Digital Versatile Disc)、又は半導体メモリから構成される。このようなデータ蓄積部16には、図3に示すように、各種データが格納される。まず、車両Aの高さ(以下、車高情報と称する)HA、車両Aの外形形状を表す形状データMAが格納される。他にも、データ蓄積部16には、車両Aの幅(以下、車幅情報と称する)WAと、車両Aの全長(以下全長情報と称する)LAとが格納される。
さらに、データ蓄積部16には、各アクティブセンサ111の取り付け位置PSが格納される。取り付け位置PSは、対象となるアクティブセンサ111について、地面からの鉛直方向の距離、及び車両Aのいずれかのコーナーからの距離を含む。さらに、例えば人、壁又は木のように、障害物Bとなりうるものの外形を表す形状データMBがデータ蓄積部16には格納される。
以上のようなデータ蓄積部16に格納される各種データは、主として、第1画像データIa及び第2画像データIbの作成に用いられる。
次に、図4のフローチャートを参照して、図1に示す車両周囲表示装置1の動作について説明する。車両Aの周囲に障害物Bが存在すると、測定部11は、障害物Bを検知する(ステップS11)。具体的には、測定部11は、車両Aを基準として、障害物Bまでの距離C、及び障害物Bの方位Dを導出する。さらに、測定部11は、今回検知した障害物Bが何であるかを推定し、それによって、推定結果Gを得る。
ここで、図5、図6A及び図6Bを参照して、距離Cの導出方法について説明する。まず、図5は、車両Aの前方、後方又は側方のエリア(ハッチングを付した部分を参照)に存在する障害物Bを示す模式図である。図5には、上方から見た時の車両Aが模式的に示され、さらに、車両Aの左方に障害物B1が存在し、車両Aの後方に障害物B2が存在する場合が例示されている。
障害物B1及びB2のいずれの場合においても、それぞれに対して最も近くに設置されるアクティブセンサ(以下、近接アクティブセンサと称する)111とは、図6A及び図6Bに示すような位置関係を有する。ここで、図6Aは、近接アクティブセンサ111及び障害物B1(又はB2)を、それらの真上から見たときの拡大図である。図6Bは、図6Aに示すアクティブセンサ111及び障害物B1(又はB2)を、それらの真横から見たときの拡大図である。
近接アクティブセンサ111は、図6A及び6Bに示すように、自身を基準とする障害物B1(又はB2)までの距離dと、水平方向の方位角θと、鉛直方向の方位角φとを検出する。測定部11は、近接アクティブセンサ111と、障害物B1(又はB2)との間の最短距離Cを求めるために、これら距離d、方位角θ及び方位角φをC=d・cosθ・cosφに代入する。また、車両Aに対する方位Dは、例示的には、近接アクティブセンサ111に対する水平方向の方位角θと、鉛直方向の方位角φとの組み合わせをそのまま用いる。
次に、図7は、車両Aの前方、後方又は側方に障害物Bが存在せず、車両Aに対して斜め方向のエリア(ハッチングを付した部分を参照)に障害物Bが存在する場合の距離Cの導出方法を説明するための模式図である。図7には、上方から見た時の車両A及び障害物Bが模式的に示され、さらに、車両Aの右後方に障害物Bが存在する場合が例示されている。
上記の場合、車両Aの後部左側のアクティブセンサ111が近接アクティブセンサ111となる。この場合も、近接アクティブセンサ111は、上述と同様に、自身を基準とする障害物Bまでの距離dと、水平方向の方位角θと、鉛直方向の方位角φとを検出する。従って、最短距離C及び鉛直方向の方位角φに関しては、前述と同様にして、測定部11により求められる。それに対して、この近接アクティブセンサ111は、車両Aに対して斜め後方に向けて取り付けられるため、水平方向の方位角θは、データ蓄積部16に格納される、近接アクティブセンサ111の取り付け位置を使って、車両Aに対する方位Dに変換される。
また、障害物Bの推定は、その存在エリアに拘わらず、例えば、アクティブセンサ111の出射波に対する反射波の強度に基づいて行うことが可能である。
このようにして得られた、距離C、方位D及び推定結果Gは、RAMに格納される。
次に、比較部12は、RAMに格納された距離Cと、自身が保持する閾値Eとを比較して、比較結果FをRAMに格納する(ステップS12)。具体的には、距離Cが大きい場合、比較結果Fとしての「FT」がRAMに格納され、そうでない場合には、比較結果Fとしての「FF」がRAMに格納される。ここで、前述のように、閾値Eは、車両Aが障害物Bに接近しているか否かを判断するための基準値である。この閾値E1は、例えば1メートルに選ばれるが、この値は、ドライバの指定に応じて、又は車両周囲表示装置1の設計仕様に応じて変更可能であっても構わない。このような閾値Eにより、比較結果Fは、車両Aの近くに障害物Bが存在するか否かを表すことになる。
次に、視点決定部13は、RAM内の比較結果Fが「FF」か否かを判断する(ステップS13)。Yesと判断されるということは、車両Aが障害物Bに接近していることになるので、この場合、視点決定部13は、特定箇所用の第2視点P2を決定する(ステップS14)。
ステップS15の処理の具体例を以下説明する。まず、視点決定部13は、現在RAM内に格納されている方位Dを、第2視点P2の決定に用いる。これによって、視点決定部13は、車両Aに対しどの方向の範囲に障害物Bが存在するかを認識することができる。さらに、水平面との俯角Rが所定値(例えば45°)なり、かつ近接アクティブセンサ111の周辺(つまり、車両Aにおいて障害物Bと接触する可能性が高い場所)が特定箇所画像に現れるような3次元座標値を、第2視点P2として設定する。また、俯角Rは、水平面と、第2視点P2から水平面に向かって延びる線とがなす角になるが、この線は、近接アクティブセンサ111又はその検知範囲の方向に向かって延びることが要求される。なお、俯角Rの値は、ドライバの指定に応じて、又は車両周囲表示装置1の設計仕様に応じて変更可能であっても構わない。
また、視点決定部13は好ましくは、方位Dに加え、現在RAM内に格納されている距離Cを、第2視点P2の決定に用いる。この場合、第2視点P2としては、図8A及び図8Bに示すように、車両A及び障害物Bの最短距離を表す線LSに対して直交する鉛直面PVに含まれ、かつ水平面との俯角Rが所定値になる3次元座標値が選ばれる。より好ましくは、鉛直面PVは、上記線LSを垂直二等分する面である。なお、図9には、車両Aに対して斜め方向のエリア(ハッチングを付した部分を参照)に障害物Bが存在する場合の第2視点P2が示されている。
上記のように設定された第2視点P2を視点決定部13は画像生成部14に渡す。画像生成部14は、第2視点P2を受け取ると、第2画像データIbを作成する(ステップS15)。まず、データ蓄積部16に格納される推定結果Gに対応し、検知された障害物Bを表す形状データMBと、車両Aを表す形状データMAとを取り出す。次に、画像生成部14は、障害物Bのオブジェクトと、車両Aのオブジェクトとを、RAMに格納された距離C及び方位Dの位置関係で配置し、さらに、受け取った第2視点P2の位置から両者を見た時の様子を表す第2画像データIbを作成する。ここで、好ましくは、両者の距離Cを表す数値及び障害物の高さHBを表す数値が第2画像データIbに合成されることが好ましい。
このようにして作成した第2画像データIbを、画像生成部14は表示部15に転送し、表示部15は、図10に示すように、第2画像データIbに基づく特定箇所画像を表示し(ステップS16)、その後、処理はステップS11に戻る。
また、ステップS13でNoと判断された場合、視点決定部13は、車両Aと障害物Bとが十分に接近していないとみなして、第1視点P1を決定する(ステップS17)。
本実施形態において、第1視点P1は、車両Aの真上に設定される。今、第1視点P1を、3次元座標値(0,0,z1)とおき、また、第2視点P2を、3次元座標値(x2,y2,z2)とおく。車両Aにおいて障害物Bと接触しそうな箇所をドライバにより良く視認させることが第2画像データIb(つまり、第2視点P2)には要求されるので、原点を基準として、第1視点P1の鉛直方向成分の大きさ(つまり、|z1|)は、第2視点P2の鉛直方向成分の大きさ(つまり、|z2|)よりも大きく設定される。さらに、上記の要求から、第2視点P2は、第1視点P1よりも水平方向にずらす必要があるため、原点を基準として、第1視点P1の水平方向成分の大きさは、第2視点P2の水平方向成分の大きさ(つまり、√(x2 2+y2 2))よりも小さく設定される。
上記のように設定された第1視点P1を視点決定部13は画像生成部14に渡す。画像生成部14は、第1視点P1を受け取ると、第1画像データIaを作成する(ステップS18)。第1画像データIaは、第2画像データIbと同様の方法で作成されるが、両者の間では視点の位置が相違する。なお、第2画像データIbの場合と同様、車両A及び障害物Bの距離Cを表す数値及び障害物Bの高さHBを表す数値が合成されても構わない。
このようにして作成した第1画像データIaを、画像生成部14は表示部15に転送し、表示部15は、図11に示すように、第1画像データIaに基づく俯瞰画像を表示し(ステップS19)、その後、処理はステップS11に戻る。
以上のような処理により、車両Aに障害物Bが接近したり、障害物Bに車両Aが接近したりしている時、車両Aから障害物Bまでの距離Cが閾値Eよりも大きい場合、第1画像データIaに基づく俯瞰画像が表示部15に表示される。俯瞰画像は、車両Aの真上から見た車両Aの周囲の様子を表すので、ドライバは、周囲の状況を大略的に把握することができる。
上記に対し、車両Aから障害物Bまでの距離Cが閾値E未満になった時、第2画像データIbに基づく特定箇所画像が表示部15に表示される。特定箇所画像は、障害物Bについて検出された方位Dに基づいて設定された第2視点P2が使われており、車両Aにおいて、障害物Bを検知した近接アクティブセンサ111の周辺を拡大して表すので、障害物Bは車両Aによりできてしまう死角に入り難くなり、その結果、ドライバは、車両Aにおいて障害物Bと接触する可能性が高い箇所を視認し易くなる。
また、第2視点P2が、方位Dだけでなく距離Cを使うことにより、車両A及び障害物Bの位置関係をさらに視認し易い特定箇所画像を表す第2画像データIbを作成することが可能となる。
具体的には、好ましい第2視点P2は、図8A、図8B及び図9に示すように、車両A及び障害物Bの最短距離を表す線LSに対して直交する鉛直面PVに含まれ、かつ水平面との俯角Rが所定値になる3次元座標値が選ばれる。より好ましくは、鉛直面PVは、上記線LSを垂直二等分する面である。このような第2視点P2を設定することにより、近接アクティブセンサ111及び障害物Bの双方が特定箇所画像上に現れやすくなる。よって、ドライバに、車両A及び障害物Bの位置関係をより視認し易くできる特定箇所画像を表示できる車両周囲表示装置を提供することが可能となる。また、距離Cを表示部15に表示させることでも、ドライバは、車両Aと障害物Bの位置関係を把握し易くなる。
なお、以上の実施形態においては、第1画像データIa及び第2画像データIb共に、データ蓄積部16に格納されている形状データMAを基礎とし、必要な場合にはさらに形状データMBを用いることで生成されるとして説明した。しかし、これに限らず、車両Aのフロント部分、リア部分及び両サイド部分にそれぞれ取り付けられた撮像装置により撮影された画像を用いて、第1画像データIa及び第2画像データIbと同様のデータが作成されても構わない。
また、測定部11は、複数の障害物Bを検知する場合もあるが、このような場合、車両Aの進行方向に向かって最も近くに存在する障害物Bについて、上述のような処理が適用されることが好ましい。
(第1の変形例)
図12は、上記車両周囲表示装置1の第1の変形例(以下、車両周囲表示装置1aと称する)のブロック構成の一例を示す模式図である。図12において、車両周囲表示装置1aは、図1に示す車両周囲表示装置1と比較すると、接触判定部21をさらに備える点で相違する。それ以外に両車両周囲表示装置1及び1aの間に相違点は無いので、図12において、図1に示す構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
接触判定部21は、障害物Bの底面の高さHBを導出し、この高さHBと、後述のデータ蓄積部16に格納される車両Aの高さ(以下、車高情報と称する)HAとを比較して、車両Aが障害物Bの下を通過できるか否かを判断し、判断結果Jを生成する。なお、本実施形態では、高さHBが車高情報HAよりも大きい場合、接触判定部16は、車両Aが通過可能と判断する。この場合の判断結果Jは「JT」とし、そうでない場合の判断結果Jは「JF」であるとする。
なお、以上の接触判定部16も典型的には、上述のCPU、ROM及びRAMの組み合わせから構成される。
次に、図13のフローチャートを参照して、図12に示す車両周囲表示装置1aの動作について説明する。なお、図13に示すフローチャートは、図4のそれと比較すると、ステップS21及びS22をさらに備える点で相違する。それ以外に、両フローチャートの間に相違点は無い。それ故、図13において、図4のステップに相当するものには同一のステップ番号を付け、それぞれの説明を省略する。
ステップS11の後、接触判定部21は、図14に示すような障害物Bの底面の高さHBを導出する。高さHBは、現在RAMに格納されている距離C及び鉛直方向の方位角φと、データ蓄積部16に格納される近接アクティブセンサ111の高さh(取り付け位置情報に含まれる)とを、HB=h+D・sinφに代入することで得られる。その後、接触判定部16は、今回導出した高さHBと、データ蓄積部16に蓄積された車両Aの高さ情報HAとを比較する。高さHBが大きい場合、接触判定部16は、車両Aが障害物Bの下を通過可能とみなして、判断結果Jとしての「JT」をRAMに格納する。逆に、高さHBが大きくない場合、RAMには、判断結果Jとしての「JF」が格納される(ステップS21)。
ステップS21の次、視点決定部13は、RAM内の判断結果Jが「JF」か否かを判断する(ステップS22)。Yesと判断されるということは、障害物Bの下を車両Aが通過できないことになるので、視点決定部13は、特定箇所画像を作成するか否かを判断するために、前述のステップS12以降を行う。それに対し、ステップS22でNoと判断されるということは、障害物Bの下を車両Aが通過できる可能性があることを示すので、視点決定部13は、前述したステップS17以降を行う。
以上のような高さ判定を行うことで、例えば車庫入れのような状況に、車両周囲表示装置1aをドライバは用いることができるようになるため、より使い勝手の良い車両周囲表示装置1aを提供することが可能となる。
なお、本変形例において、特定箇所画像には、障害物Bの底面の高さHBが合成されても構わない。
(第2の変形例)
図15は、上記車両周囲表示装置1の第2の変形例(以下、車両周囲表示装置1bと称する)のブロック構成の一例を示す模式図である。図15において、車両周囲表示装置1bは、図1に示す車両周囲表示装置1と比較すると、操舵角センサ31及び接触判定部32をさらに備える点で相違する。それ以外に両車両周囲表示装置1及び1bの間に相違点は無いので、図15において、図1に示す構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
操舵角センサ31は、車両Aの操舵角を検出して、検出結果を接触判定部32に渡す。
接触判定部32は、操舵角センサ31からの検出結果から、車両Aがこれから走行する予測軌跡を導出する。また、接触判定部32は、RAMに格納される障害物Bまでの距離C及び方位Dから、導出した予測軌跡上に障害物Bが存在するか否かを判断し、判断結果Kを生成する。なお、本実施形態では、予測軌跡上に障害物Bが存在する場合、接触判定部32は、「KT」という判断結果JをRAMに格納する。また、そうでない場合の判断結果Kは「KF」であるとする。
なお、以上の接触判定部32も典型的には、上述のCPU、ROM及びRAMの組み合わせから構成される。
次に、図16のフローチャートを参照して、図15に示す車両周囲表示装置1bの動作について説明する。なお、図16に示すフローチャートは、図4のそれと比較すると、ステップS31及びS32をさらに備える点で相違する。それ以外に、両フローチャートの間に相違点は無い。それ故、図16において、図4のステップに相当するものには同一のステップ番号を付け、それぞれの説明を省略する。
ステップS11の後、接触判定部32は、操舵角センサ31からの検出結果を使って、車両Aの予測軌跡を導出する。さらに、接触判定部32は、導出した予測軌跡上に障害物Bが存在するか否かを判断し、判断結果K(「KT」又は「KF」)をRAMに格納する(ステップS31)。
ステップS31の次、視点決定部13は、RAM内の判断結果Kが「KF」か否かを判断する(ステップS32)。Yesと判断されるということは、障害物Bと車両Aとが接触しない可能性が高いことになるので、視点決定部13は、前述したステップS17以降を行う。それに対し、ステップS32でNoと判断されるということは、障害物Bと車両Aが接触する可能性があるので、視点決定部13は、特定箇所画像を作成するか否かを判断するために、前述のステップS12以降を行う。
以上のような接触判定を行うことで、例えば駐車スペースへ車両Aを入れるような状況に、車両周囲表示装置1bをドライバは用いることができるようになるため、より使い勝手の良い車両周囲表示装置1aを提供することが可能となる。
なお、本変形例において、特定箇所画像又は俯瞰画像には、予測軌跡が合成されても構わない。
また、前述の実施形態の場合、第2視点P2は、図8A、図8B及び図9に示すように2カ所のうちいずれに設定されても同様の効果を得ることができる。しかしながら、本変形例の場合、第2視点P2は、下記のように設定されることがより好ましい。つまり、例えば図17Aに示すように、後退する車両Aの後方に障害物Bがある場合において、車両Aのステアリングが左方向(反時計回り)に切られている場合、第2視点P2は、車両Aの右方向にあるものが選ばれる。
また、図17Bに示すように、前進する車両Aの左側に障害物Bがある場合において、車両Aのステアリングが左方向に切られている場合、第2視点P2は、車両Aの後方側に選ばれる。
このように、障害物Bの方位、車両Aの進行方向及びステアリングの操作方向に応じて、第2視点P2が選ばれる。このように第2視点P2を設定することで、車両Aが障害物Bに近づいていく様子が表示部15に表示されるので、車両A及び障害物Bの位置関係がドライバにとって理解し易くなる。
なお、以上の第1及び第2の変形例を組み合わせて、実施形態に係る車両周囲表示装置1に組み込んでも構わない。
以上、本発明を詳細に説明したが、上記説明はあらゆる意味において例示的なものであり限定的なものではない。本発明の範囲から逸脱することなしに多くの他の改変例及び変形例が可能であることが理解される。
図1は、本発明の一実施形態に係る車両周囲表示装置1のブロック構成を示す模式図 図2は、図1に示す測定部11に含まれるアクティブセンサ111の配置例を示す模式図 図3は、図1に示すデータ蓄積部16に格納されるデータ内容を示す模式図 図4は、図1に示す車両周囲表示装置1の動作を示すフローチャート 図5は、図1に示す車両Aの前方、後方又は側方のエリアに存在する障害物Bを示す模式図 図6Aは、図2に示すアクティブセンサ111及び障害物B2を、それらの真上から見たときの拡大図 図6Bは、図6Aに示すアクティブセンサ111及び障害物B2を、それらの真横から見たときの拡大図 図7は、図1に示す車両Aに対して斜め方向のエリアに障害物Bが存在する場合の距離Cの導出方法を説明するための模式図 図8Aは、図1に示す視点決定部13で決定される第2視点P2を上方から見たときの模式図 図8Bは、図1に示す視点決定部13で決定される第2視点P2を後ろから見たときの模式図 図9は、図1に示す車両Aに対して斜め方向のエリアに障害物Bが存在する場合について、図1に示す視点決定部13で決定される第2視点P2を上方から見たときの模式図 図10は、図1に示す表示部15に表示される特定箇所画像を示す模式図 図11は、図1に示す表示部15に表示される俯瞰画像を示す模式図 図12は、本発明の第1の変形例に係る車両周囲表示装置1aのブロック構成を示す模式図 図13は、図1に示す車両周囲表示装置1aの動作を示すフローチャート 図14は、図12に示す接触判定部21で導出される高さHBを示す模式図 図15は、本発明の第2の変形例に係る車両周囲表示装置1bのブロック構成を示す模式図 図16は、図15に示す車両周囲表示装置1bの動作を示すフローチャート 図17Aは、図15に示す視点決定部13で決定される好ましい第2視点P2を示す第1の模式図 図17Bは、図15に示す視点決定部13で決定される好ましい第2視点P2を示す第2の模式図 図18は、従来の車両周囲表示装置の概略的な処理を示す模式図
符号の説明
1,1a,1b 車両周囲表示装置
11 測定部
12 比較部
13 視点決定部
14 画像生成部
15 表示部
16 データ蓄積部
21,32 接触判定部
31 操舵角センサ

Claims (14)

  1. 車両の周囲について、少なくとも2種類の画像を選択的に表示する車両周囲表示装置であって、前記車両周囲表示装置は、
    前記車両を基準として周囲の障害物との距離及び方位を測定する測定部と、
    前記測定部での測定距離と、所定の閾値とを比較する比較部と、
    前記比較部の比較結果で測定距離が大きいことが示されている間、予め定められている第1視点を決定し、前記比較部の比較結果で測定距離が大きいことが示されていない間、前記測定部での測定方位に基づいて第2視点を決定する視点決定部と、
    前記視点決定部から第1視点が与えられると、与えられた第1視点から見た時の前記車両周囲の様子を表す第1画像を生成し、前記視点決定部から第2視点が与えられると、与えられた第2視点周辺から見た時の前記車両及び前記障害物を表す第2画像を生成する画像生成部と、
    前記画像生成部で生成された第1画像又は第2画像を表示する表示部とを備える、車両周囲表示装置。
  2. 前記第1視点及び前記第2視点の双方は3次元座標値で表され、前記第2視点について水平方向成分の大きさは、前記第1視点の水平方向成分のそれよりも大きく、前記第2視点の鉛直方向成分の大きさは、前記第1視点の鉛直方向成分のそれよりも小さい、請求項1に記載の車両周囲表示装置。
  3. 前記第1視点の3次元座標値は前記車両の真上に相当し、
    前記第2視点の3次元座標値は、自身を始点とする線分が前記車両及び前記障害物の方向に延び、さらに水平面に対し所定の俯角をなす3次元座標値で表される、請求項2に記載の車両周囲表示装置。
  4. 前記第2視点は、前記車両と前記障害物とを結ぶ直線と直交する鉛直面に含まれる点に設定される、請求項3に記載の車両周囲表示装置。
  5. 前記鉛直面は、前記車両と前記障害物とを結ぶ直線の垂直二等分面である、請求項4に記載の車両周囲表示装置。
  6. 前記車両周囲表示装置は、前記障害物に接触せずに走行可能か否かを判定する接触判定部をさらに備え、
    前記車両が走行可能と前記接触判定部により判定された場合、前記表示部は、前記第2画像以外の第3画像を表示する、請求項1に記載の車両周囲表示装置。
  7. 前記測定部はさらに、前記障害物の高さを測定し、
    前記接触判定部は、前記障害物の高さに基づいて、前記車両が前記障害物に接触せずに走行可能か否かを判定する、請求項6に記載の車両周囲表示装置。
  8. 前記車両周囲表示装置は、前記車両の操舵角を検出する操舵角検出部をさらに備え、
    前記接触判定部は、前記操舵角検出部によりにより検出された操舵角に基づいて、前記車両が前記障害物に接触せずに走行可能な否かを判定する、請求項6に記載の車両周囲表示装置。
  9. 前記車両が前記障害物に接触することなく走行可能と、前記接触判定部により判定された場合、前記視点決定部は、前記操舵角検出部により検出された操舵角も考慮して、第2視点を決定する、請求項8に記載の車両周囲表示装置。
  10. 前記第2視点は、前記障害物と、前記車両において前記障害物が接触する部分との双方をドライバが視認可能な3次元座標値に設定される、請求項9に記載の車両周囲表示装置。
  11. 前記車両周囲表示装置は、複数の障害物について距離及び方位を前記測定部が測定した場合、前記車両に接触する可能性が最も高いものの距離及び方位を選択する選択部をさらに備え、
    前記比較部は、前記選択部で選択された距離と、所定の閾値とを比較し、
    前記視点決定部は、前記比較部の比較結果で測定距離が大きくないことが示されている間、前記選択部で選択された方位に基づいて第2視点を決定する、請求項1に記載の車両周囲表示装置。
  12. 前記測定部は、それぞれが前記車両の前後及び側面のいずれかに設置される複数のアクティブセンサを含み、
    各前記アクティブセンサは、前記車両の周囲に存在する障害物を検知する、請求項1に記載の車両周囲表示装置。
  13. 車両の周囲について、少なくとも2種類の画像を表示装置に選択的に表示させる車両周囲表示方法であって、前記車両周囲表示方法は、
    前記車両を基準として周囲の障害物との距離及び方位を測定する測定ステップと、
    前記測定ステップでの測定距離と、所定の閾値とを比較する比較ステップと、
    前記比較ステップで測定距離の方が大きいという結果が得られると、予め定められている第1視点を決定する第1視点決定ステップと、
    前記第1視点決定ステップで決定された第1視点から見た前記車両周囲の様子を表す第1画像を生成する第1画像生成ステップと、
    前記第1画像生成ステップで生成された第1画像を表示する第1表示ステップと、
    前記比較ステップで測定距離の方が大きくないという結果が得られると、前記測定ステップでの測定方位に基づいて第2視点を決定する第2視点決定ステップと、
    前記第2視点決定ステップで決定された第2視点周辺から見た前記車両及び前記障害物を表す第2画像を生成する第2画像生成ステップと、
    前記第2画像生成ステップで生成された第2画像を表示する第2表示ステップとを備える、車両周囲表示装置。
  14. 車両の周囲について、少なくとも2種類の画像を表示装置に選択的に表示させるコンピュータプログラムであって、前記コンピュータプログラムは、
    前記車両を基準として周囲の障害物との距離及び方位を測定する測定ステップと、
    前記測定ステップでの測定距離と、所定の閾値とを比較する比較ステップと、
    前記比較ステップで測定距離の方が大きいという結果が得られると、予め定められている第1視点を決定する第1視点決定ステップと、
    前記第1視点決定ステップで決定された第1視点から見た前記車両周囲の様子を表す第1画像を生成する第1画像生成ステップと、
    前記第1画像生成ステップで生成された第1画像を前記表示装置に表示させる第1表示ステップと、
    前記比較ステップで測定距離の方が大きくないという結果が得られると、前記測定ステップでの測定方位に基づいて第2視点を決定する第2視点決定ステップと、
    前記第2視点決定ステップで決定された第2視点周辺から見た前記車両及び前記障害物を表す第2画像を生成する第2画像生成ステップと、
    前記第2画像生成ステップで生成された第2画像を前記表示装置に表示させる第2表示ステップとを備える、コンピュータプログラム。
JP2006512752A 2004-04-27 2005-04-21 車両周囲表示装置 Pending JPWO2005107261A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004130989 2004-04-27
JP2004130989 2004-04-27
PCT/JP2005/007606 WO2005107261A1 (ja) 2004-04-27 2005-04-21 車両周囲表示装置

Publications (1)

Publication Number Publication Date
JPWO2005107261A1 true JPWO2005107261A1 (ja) 2008-03-21

Family

ID=35242048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006512752A Pending JPWO2005107261A1 (ja) 2004-04-27 2005-04-21 車両周囲表示装置

Country Status (5)

Country Link
US (1) US7369041B2 (ja)
EP (1) EP1748654A4 (ja)
JP (1) JPWO2005107261A1 (ja)
CN (1) CN100456828C (ja)
WO (1) WO2005107261A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7797881B2 (en) * 2005-06-22 2010-09-21 Loitherstein Joel S Garage door control system
WO2007015446A1 (ja) * 2005-08-02 2007-02-08 Nissan Motor Co., Ltd. 車両周囲監視装置及び車両周囲監視方法
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
JP5003946B2 (ja) * 2007-05-30 2012-08-22 アイシン精機株式会社 駐車支援装置
JP4325705B2 (ja) * 2007-06-15 2009-09-02 株式会社デンソー 表示システム及びプログラム
JP4462333B2 (ja) * 2007-11-13 2010-05-12 株式会社デンソー 走行支援装置
TW200925023A (en) * 2007-12-07 2009-06-16 Altek Corp Method of displaying shot image on car reverse video system
JP2009166691A (ja) * 2008-01-16 2009-07-30 Mazda Motor Corp 車両の走行制御装置
JP5094658B2 (ja) * 2008-09-19 2012-12-12 日立オートモティブシステムズ株式会社 走行環境認識装置
US8305444B2 (en) * 2008-11-14 2012-11-06 Toyota Motor Engineering & Manufacturing North America, Inc. Integrated visual display system
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US20110169957A1 (en) * 2010-01-14 2011-07-14 Ford Global Technologies, Llc Vehicle Image Processing Method
JP5505702B2 (ja) * 2010-02-24 2014-05-28 アイシン精機株式会社 車両周辺監視装置
DE102010010912A1 (de) * 2010-03-10 2010-12-02 Daimler Ag Fahrerassistenzvorrichtung mit optischer Darstellung erfasster Objekte
WO2011145141A1 (ja) * 2010-05-19 2011-11-24 三菱電機株式会社 車両後方監視装置
DE102010062254B4 (de) * 2010-12-01 2024-05-02 Robert Bosch Gmbh Verfahren zur Darstellung einer mittels Sensoren erfassten Umgebung und Vorrichtung zur Darstellung einer von fahrzeuggestützten Sensoren erfassten Umgebung
JP5124671B2 (ja) * 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
JP5124672B2 (ja) * 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
JP6029306B2 (ja) * 2012-03-29 2016-11-24 住友建機株式会社 作業機械用周辺監視装置
KR102003562B1 (ko) * 2012-12-24 2019-07-24 두산인프라코어 주식회사 건설기계의 감지 장치 및 방법
JP5997640B2 (ja) * 2013-03-25 2016-09-28 株式会社ジオ技術研究所 3次元画像出力装置および背景画像生成装置
CN103600695B (zh) * 2013-11-22 2016-01-27 奇瑞汽车股份有限公司 一种检测后视盲区内车辆的方法及设备
DE102014205511A1 (de) * 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
US10168425B2 (en) 2014-07-03 2019-01-01 GM Global Technology Operations LLC Centralized vehicle radar methods and systems
KR20170043212A (ko) * 2015-10-13 2017-04-21 엘지전자 주식회사 차량용 어라운드 뷰 제공 장치 및 차량
KR20170055091A (ko) * 2015-11-10 2017-05-19 현대오트론 주식회사 헤드업 디스플레이 제어 장치 및 방법
JP6669569B2 (ja) * 2016-04-04 2020-03-18 アルパイン株式会社 車両用周辺監視装置
US9747804B1 (en) * 2016-06-23 2017-08-29 GM Global Technology Operations LLC Object detection-based directional control of light and sound
KR102233901B1 (ko) * 2016-10-13 2021-03-31 닛산 지도우샤 가부시키가이샤 자기 위치 추정 방법 및 자기 위치 추정 장치
WO2018159019A1 (ja) * 2017-02-28 2018-09-07 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
US10497264B2 (en) 2017-09-26 2019-12-03 Toyota Research Institute, Inc. Methods and systems for providing warnings of obstacle objects
CN108725319B (zh) * 2017-10-31 2021-05-04 无锡职业技术学院 一种影像式倒车指导方法
CN110949286B (zh) * 2019-12-16 2021-06-04 广州小鹏汽车科技有限公司 车辆及其控制方法与装置
CN112158197B (zh) * 2020-08-21 2021-08-27 恒大新能源汽车投资控股集团有限公司 一种车辆盲区障碍物规避方法、装置及系统
US11939748B2 (en) 2021-03-29 2024-03-26 Joy Global Surface Mining Inc Virtual track model for a mining machine
US20220307235A1 (en) * 2021-03-29 2022-09-29 Joy Global Surface Mining Inc Virtual field-based track protection for a mining machine

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06333200A (ja) * 1993-05-21 1994-12-02 Toshiba Corp 車載用監視システム
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance
JP2001224013A (ja) * 2000-02-09 2001-08-17 Sony Corp 運転支援装置及び運転支援方法
JP2002083284A (ja) * 2000-06-30 2002-03-22 Matsushita Electric Ind Co Ltd 描画装置
JP2002316602A (ja) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd 車載カメラの撮像画像表示方法及びその装置
JP2002359839A (ja) * 2001-03-29 2002-12-13 Matsushita Electric Ind Co Ltd リアビューカメラの画像表示方法及びその装置
JP2003267171A (ja) * 2002-03-13 2003-09-25 Nissan Motor Co Ltd 車両後方監視装置
JP2004056778A (ja) * 2002-05-31 2004-02-19 Matsushita Electric Ind Co Ltd 車両周辺監視装置、画像生成方法および画像生成プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0717328A (ja) 1993-06-30 1995-01-20 Mitsubishi Motors Corp 車両用周辺認識補助装置
JP3371605B2 (ja) * 1995-04-19 2003-01-27 日産自動車株式会社 大気効果表示機能付き鳥瞰図表示ナビゲーションシステム
CN2238765Y (zh) * 1995-08-18 1996-10-30 兰天 汽车倒车防撞监视器
EP2309453A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus and image displaying method
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
CN2417651Y (zh) * 1998-12-21 2001-01-31 吴晧华 汽车安全防撞监视装置
JP3966673B2 (ja) * 1999-10-26 2007-08-29 本田技研工業株式会社 物体検知装置および車両の走行安全装置
US6369701B1 (en) * 2000-06-30 2002-04-09 Matsushita Electric Industrial Co., Ltd. Rendering device for generating a drive assistant image for drive assistance
JP3750512B2 (ja) * 2000-10-12 2006-03-01 日産自動車株式会社 車両用周辺障害物検出装置
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP3608527B2 (ja) * 2001-05-15 2005-01-12 株式会社豊田中央研究所 周辺状況表示装置
US6636258B2 (en) * 2001-10-19 2003-10-21 Ford Global Technologies, Llc 360° vision system for a vehicle
US7145519B2 (en) * 2002-04-18 2006-12-05 Nissan Motor Co., Ltd. Image display apparatus, method, and program for automotive vehicle
JP2003348574A (ja) 2002-05-24 2003-12-05 Nissan Motor Co Ltd 車両用映像表示装置
JPWO2004083889A1 (ja) * 2003-03-20 2006-06-22 松下電器産業株式会社 障害物検知装置
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06333200A (ja) * 1993-05-21 1994-12-02 Toshiba Corp 車載用監視システム
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance
JP2001224013A (ja) * 2000-02-09 2001-08-17 Sony Corp 運転支援装置及び運転支援方法
JP2002083284A (ja) * 2000-06-30 2002-03-22 Matsushita Electric Ind Co Ltd 描画装置
JP2002359839A (ja) * 2001-03-29 2002-12-13 Matsushita Electric Ind Co Ltd リアビューカメラの画像表示方法及びその装置
JP2002316602A (ja) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd 車載カメラの撮像画像表示方法及びその装置
JP2003267171A (ja) * 2002-03-13 2003-09-25 Nissan Motor Co Ltd 車両後方監視装置
JP2004056778A (ja) * 2002-05-31 2004-02-19 Matsushita Electric Ind Co Ltd 車両周辺監視装置、画像生成方法および画像生成プログラム

Also Published As

Publication number Publication date
WO2005107261A1 (ja) 2005-11-10
EP1748654A1 (en) 2007-01-31
CN1898961A (zh) 2007-01-17
US7369041B2 (en) 2008-05-06
US20070120656A1 (en) 2007-05-31
CN100456828C (zh) 2009-01-28
EP1748654A4 (en) 2013-01-02

Similar Documents

Publication Publication Date Title
JPWO2005107261A1 (ja) 車両周囲表示装置
JP7010221B2 (ja) 画像生成装置、画像生成方法、及び、プログラム
JP3776094B2 (ja) 監視装置、監視方法および監視用プログラム
JP6790998B2 (ja) 障害物検知装置および制御装置
US9862316B2 (en) Method and device for visualizing the surroundings of a vehicle
JP5620472B2 (ja) 車両の駐車に使用するためのカメラシステム
JP6392693B2 (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2004114977A (ja) 移動体周辺監視装置
JP2009041972A (ja) 画像処理装置及びその方法
JP4893212B2 (ja) 周辺監視装置
JP6425991B2 (ja) 牽引車両周囲画像生成装置および牽引車両周囲画像生成方法
US11257369B2 (en) Off road route selection and presentation in a drive assistance system equipped vehicle
JP2007295043A (ja) 車両周囲監視装置
JP2016120892A (ja) 立体物検出装置、立体物検出方法および立体物検出プログラム
JP2004240480A (ja) 運転支援装置
JP4154980B2 (ja) 移動体周辺監視装置
JP2006268076A (ja) 運転支援システム
JP2013239015A (ja) 駐車支援装置、駐車支援方法およびプログラム
JP2010287029A (ja) 周辺表示装置
JP2004356845A (ja) 移動体周辺監視装置
US11607999B2 (en) Method and apparatus for invisible vehicle underbody view
JP4207519B2 (ja) 移動体周辺監視装置
JP5691339B2 (ja) 運転支援装置
JP6999239B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110223