JP2004354326A - Surrounding display device for vehicle - Google Patents
Surrounding display device for vehicle Download PDFInfo
- Publication number
- JP2004354326A JP2004354326A JP2003154990A JP2003154990A JP2004354326A JP 2004354326 A JP2004354326 A JP 2004354326A JP 2003154990 A JP2003154990 A JP 2003154990A JP 2003154990 A JP2003154990 A JP 2003154990A JP 2004354326 A JP2004354326 A JP 2004354326A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- distance
- display device
- display
- outer edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、車両周囲の状況を表示する車両周囲表示装置に関する。
【0002】
【従来の技術】
従来、車両周囲に向けて超音波を媒体として送信信号を送信して、車両周囲の物体により反射される送信信号の反射信号を受信するとともに、この受信される受信信号に基づき、自車から物体(これは、ガードレール、人等の物体を示す)までの距離を測定して、この測定される距離をユーザに通知する超音波式の物体検出装置が提案されている。
【0003】
この物体検出装置によれば、自車から物体までの距離を測定するだけで、物体の形状や位置を特定することができず、ユーザにとっては、物体の形状が分からない。
【0004】
そこで、レーザ式のレーダを用いて、車両周囲の物体の位置情報を検出して記憶しておき、この検出される位置情報に基づき自車を中心とする物体の上面図を作図して表示する表示装置(以下、第1の表示装置という)が提案されている(例えば、特許文献1参照)。
【0005】
また、カメラを用いて車両周囲の状況をカメラ撮像して、このカメラ撮像される車両周囲の画像を鳥瞰図に変換して、この変換される鳥瞰図を表示する表示装置(以下、第2の表示装置という)も提案されている(例えば、特許文献2参照)。
【0006】
【特許文献1】
特開平8−50699号公報
【0007】
【特許文献2】
特開2002−120675号公報
【0008】
【発明が解決しようとする課題】
ところで、上述の第1の表示装置では、物体の上面図を表示されるものの、この表示される上面図だけでは、乗員にとって、物体が具体的に人なのか或いは車両なのかが分からず、乗員に対して不安感を与える可能性がある。
【0009】
また、上述の第2の表示装置では、このカメラ撮像される車両周囲の画像を鳥瞰図に変換して表示される。したがって、この場合、乗員にとっては、物体が具体的に人なのか或いは車両なのかが分かるものの、鳥瞰図としては、本来地面に立っている車両などの物体が、地面に倒れたように表示されるので、乗員にとっては、物体及び自車の間の距離感が損なわれるといった問題がある。すなわち、乗員にとっては、物体及び自車の間の距離が、認識しづらいといった問題が生じる。
【0010】
本発明は、上記問題に鑑みたもので、乗員に対し、不安感を与えることなく、物体および自車の間の距離を認識し易くするようにした車両周囲表示装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
請求項1に記載の発明では、表示器(93)と、車両周囲の状況をカメラ撮像するためのカメラ手段(94)と、前記カメラ撮像された画像を鳥瞰図に変換するとともに、この変換される鳥瞰図を前記表示器に表示させる制御手段(92)と、自車から車両周囲の物体までの距離を測定するための距離測定センサ(91a〜91h)と、を備え、
前記制御手段が、前記距離測定センサを用いて前記距離を繰り返し測定するとともに、この繰り返し測定される距離に基づき、前記物体の外縁を推定して、この推定される物体の外縁を自車位置とともに前記鳥瞰図に重畳して前記表示器に表示させることを特徴とする。
【0012】
ここで、乗員に対して鳥瞰図を表示することにより、物体が具体的に何なのかを分からせることができる。さらに、物体の外縁及び自車位置を表示することにより、乗員に対して、不安感を与えることなく、物体および自車の間の距離を認識し易くすることができる。
【0013】
また、物体の外縁を推定するにあたっては、請求項2に記載の発明のように、制御手段は、前記距離測定センサを用いて前記距離を測定させる毎に、前記距離測定センサの位置を中心として前記測定される距離を半径とする円弧を求めるとともに、この求められる測定毎の円弧の並びを前記物体の外縁としてもよい。
【0014】
また、請求項2に記載の発明に限らず、請求項3に記載の発明のごとく、前記制御手段は、前記距離測定センサを用いて前記距離を測定させる毎に、前記距離測定センサの位置を中心として前記測定される距離を半径とする円弧を求めるとともに、この求められる測定毎の円弧の交点を求め、この求められる円弧の交点の並びを前記物体の外縁としてもよい。
【0015】
また、請求項4に記載の発明のように、前記制御手段は、前記物体に対して自車位置側の通行可能な安全エリアを前記表示器に表示させることにより、前記物体の外縁を前記表示器に表示させるようにしてもよい。
【0016】
ここで、安全エリアの外縁は、物体の外縁を示しているので、自車と物体の位置関係を乗員に対して明確に表示するには、例えば、請求項5に記載の発明のように、制御手段により、安全エリアのうちその外縁を強調して表示することが好適である。
【0017】
さらに、制御手段としては、請求項6に記載の発明のように、前記距離測定センサを用いて送信信号を送信させ、かつ、前記物体により反射される前記送信信号の反射信号を受信するとともに、この受信される反射信号に応じて、前記距離を測定するものを用いてもよい。
【0018】
なお、上記各手段の括弧内の符号は、後述する各実施形態に記載の具体的手段との対応関係を示すものである。
【0019】
【発明の実施の形態】
(第1実施形態)
本発明の第1実施形態に係る車両周囲表示装置の概略構成を図1に示す。
車両周囲表示装置は、図1に示すように、距離測定センサ91a〜91h、処理ユニット92、表示器93、およびカメラ94から構成されている。距離測定センサ91a〜91hは、図1に示すように、車両周囲の8方向に向けて配置されて、後述するように、8方向の安全エリア80a〜80h(図2参照)を検出するために、車両周囲の物体(障害物)と車両自体(以下、自車という)との間の距離をそれぞれ検出する。
【0020】
なお、図2では、検出するエリアに隙間があるように記しているが、これは作図上に見易くするためのものであり、実際には隙間が生じないように配置することが望ましい。
【0021】
安全エリア80a〜80hとは、車両周囲の物体に対して自車側に形成される自車が物体に衝突することなく通行可能なエリア、つまり、物体及び自車の間のエリアのことである。
【0022】
ここで、距離測定センサ91a〜91hは、送信用超音波振動子および受信用超音波振動子などからそれぞれ構成されており、送信用超音波振動子は、例えば、バンパー等にて車両外部に向けて配置されたもので、処理ユニット92から出力される送信信号を超音波を媒体として送信するものである。
【0023】
そして、受信用超音波振動子は、例えば、バンパー等にて車両外部に向けて配置されたもので、車両周囲の物体により反射される送信信号の反射信号を超音波を媒体として受信する。
【0024】
処理ユニット92は、マイクロコンピュータやメモリから構成されたもので、後述するように、カメラ94により撮像される車両周囲の画像に応じて、車両周囲の物体の鳥瞰図を表示するとともに、この鳥瞰図に安全エリア80a〜80hを自車位置とともに重畳して表示する。
【0025】
表示器93は、車室内のインストルメントパネル等にて車両前側に向けて配置されて、後述するように物体の鳥瞰図、安全エリア等を表示する。なお、表示器93としては、例えば、液晶表示パネル等が用いられている。
【0026】
カメラ94は、例えば、車室内のルームミラーの近傍にて、車両外部に向けて配置されたもので、車両周囲の状況をカメラ撮像する。なお、カメラ94としては、例えば、デジタルカメラ等が用いられる。
【0027】
以下に、本実施形態の具体的な作動の説明に先立って、安全エリア80a〜80hの検出の基本となる“累積法”について、図3〜図5を用いて説明する。図3、図4では、1つの距離測定センサ91aを用いて、安全エリア80aを描く例を示している。
【0028】
累積法では、図3に示すように、距離測定センサ91aを用いて時刻tにて距離r1を検出するとともに、時刻t+1にて距離r2を検出する。ここで、距離r1、r2とは、送信信号を送信してから物体13で反射される送信信号の反射信号を受信するのに要する伝搬時間Δtを求め、この伝搬時間Δtに音速cを掛けて(Δt×c)を算出するとともに、この(Δt×c)を2で割算して得られた算出結果である(距離=Δt×c/2)。
【0029】
このように距離r1、r2が算出されると、距離測定センサ91aの位置を中心とし、かつ、距離r1、r2をそれぞれ半径として、円弧14、円弧15を安全エリアとして描く。ここで、物体13は、安全エリアの外側、つまり、安全エリアに対して自車位置と反対側に位置することになる。
【0030】
また、例えば、図4に示すように、時刻t、t+1…、t+5で距離r1を求めた後、時刻t+6で車両が物体13から離れて距離r6を検出したときでも、時刻t、t+1…、t+5、t+6で得られる各々の円弧の並びを、各々安全エリアとして推定する。
【0031】
ここで、各々の安全エリアの外縁(最外周)が、物体13のエッジを示していることになる。このような安全エリアとしては、後述するように、車両周囲の物体の鳥瞰図に重畳されて表示されて、物体13の実際のエッジ(図5中の符号54)と、物体13の見た目のエッジ(図5中の符号53)とを区別して車両周囲の状況が知らされることになる。
【0032】
次に、本実施形態の具体的な作動の説明について、図6〜図8を用いて説明する。
【0033】
図6は処理ユニット92の車両周囲表示処理を示すフローチャート、図7、図8は表示器93による表示される画像を示す図である。処理ユニット92は、図6に示すフローチャートにしたがって、予めメモリに記憶されるコンピュータプログラムを実行する。コンピュータプログラムは、車両走行中にて実行されるものである。
【0034】
先ず、表示器93に対して、図7に示すように、自車位置を自動車マーク71にて表示させる(S100)。このとき、表示器93の表示エリアのうち、自動車マーク71以外の部分を危険エリア72として表示する。ここで、危険エリア72としては、物体が存在する可能性が高いエリアであることを示すものである。
【0035】
次に、カメラ94により車両周囲の状況をカメラ撮像させて、このカメラ94から車両周囲の状況を示す画像を取得するとともに、この画像を鳥瞰図に変換して表示器93に表示させる(S110)
次に、距離測定センサ91a〜91hのそれぞれで受信される反射信号に応じて、8方向にて物体までの距離を取得するとともに、この取得される8方向の距離に応じて、それぞれの安全エリアを鳥瞰図及び自動車マーク71に重畳して表示させる(S120)。
【0036】
次に、ステアリングの操舵角を操舵角センサ95から検出して、この検出される操舵角に応じて自車の予想進路を推定してこの予想進路を矢印等で表示器93に対して表示させる(S130、S140)。その後、S110〜S140の処理が繰り返される。
【0037】
このような処理が行われるので、図7中の矢印に示すごとく自車が後退したときには、図8に示すように、表示器93にて安全エリア14(円弧表示)が累積して表示されることになる。
【0038】
ここで、図8に示すように、自車の移動に伴い、安全エリア14が累積的に広がっていくことになる。しかし、車両後方、つまり車両進行方向に物体(壁)13が存在するときには、安全エリア14が物体13の手前までしか形成されず、運転者にとっては、物体13が存在することが明確に認識することができる。なお、図8において、物体13が自車の左後方に位置している例を示している。
【0039】
次に、本実施形態の作用効果について説明する。すなわち、本実施形態では、車両周囲の状況をカメラ撮像するカメラ94と、カメラ撮像された画像を鳥瞰図に変換するとともに、この変換される鳥瞰図を表示器93に表示する処理ユニット92と、を備え、処理ユニット92は、自車から車両周囲の物体(物体)までの距離を繰り返し検出するとともに、この繰り返し検出される距離に基づき、安全エリアの外縁を物体の外縁として推定して、この安全エリア及び自車位置を鳥瞰図に重畳して表示する。
【0040】
ここで、乗員に対して鳥瞰図を表示することにより、物体が具体的に何なのか、つまり人なのか或いは車両なのかを分からせることができる。さらに、安全エリア及び自車位置を表示することにより、乗員に対して、不安感を与えることなく、物体および自車の間の距離を認識し易くすることができる。
【0041】
また、本実施形態では、安全エリア14を累積的に表示することにより、車両進行方向の物体(壁)13の存在を通知することになる。このため、車両進行方向に対し無関係な物体の場合は、報知を行わないことになる。したがって、ドライバに無用な注意をさせることを削減できる。
【0042】
次に、安全エリアを累積して表示する具体的な方法について図9、図10を用いて説明する。
【0043】
先ず、表示器93の表示エリア内にて、車両周辺(つまり、自動車マーク71の周辺)で、監視の必要なエリア104を設け、このエリア104内に等間隔の情報点102(黒点)を設ける。ここで、上述した図7に示した初期状態では、情報点102は全て危険点として表示される。
【0044】
しかし、自車が移動して安全エリアが求められれば、安全エリア内の情報点を安全点103(白点)として更新する。図9では、格子点状に点を並べたが、千鳥点状でも、どんな並びでも構わない。
【0045】
次に、図10に安全エリアを累積するための別の方法を示す。車両周辺で監視が必要なエリア104を正方形のピクセル状に分割する。初期状態では各ピクセルは全て危険ピクセル102として表示される。しかし、車両が移動して安全エリアが求められれば、安全エリア内のピクセルを安全ピクセル103として更新する。なお、図10では、各ピクセルを正方形にしたが、どんな形状でも構わない。
【0046】
(第2実施形態)
本第2実施形態では、図11に示すように物体13のエッジ1210を抽出してこのエッジ1210を強調表示する例を示す。この場合の処理ユニット92の車両周囲表示処理を図12、図13に示す。図12は車両周囲表示処理を示すフローチャート、図13は図12の物体のエッジの抽出処理(S150)の詳細を示すフローチャートである。
【0047】
先ず、本実施形態の処理ユニット92は、自車の移動に伴い各時間(t、t+1、t+2、…t+9、t+10、…t13)にて距離測定センサ91a〜91hを用いて安全エリア14を描画する。このとき、距離測定センサ91a〜91hを用いて測定した検知距離が視野長(センサが測定可能な最遠距離)未満である時に(S151:YES)、物体のエッジとして一時保持する。そして、一時保持したエッジが、既存の安全エリアの中に含まれるならば(S153、S154)、その部分は削除し、残ったエッジのみを描画する(S155)。このようにすれば、図11中の符号1210にて示すように物体13のエッジを描画することが出来る。
【0048】
なお、図11では、検知距離が視野長未満になった最初と最後についてはエッジ描画をしないようにしている。このようにすれば、物体のエッジから大きく離れてしまうようなエッジが描画されなくなる。
【0049】
また、図11〜図13のように物体のエッジ抽出をすることで、図14に示すごとく、車両の予測軌道内156に物体のエッジ13aがあるか否かにより判定可能である。したがって、車両が物体と衝突するか否かの判定(干渉判定)をすることが可能となる(図12中のS150)。なお、この場合、図15に示すように、安全エリアの描画を無くし、物体エッジ72aのみを鳥瞰図へ重畳して表示しても良い。
【0050】
ここで、本実施形態の応用例として縦列駐車の可否判定について説明する。図15に示すように、自車171が、車両174、175の間に縦列駐車しようする場合には、予め、2つの車両174、175の脇を通過することにより、物体エッジ176、177を抽出する。さらに、この物体エッジ間の距離178を求め、距離178と自車の全長とから、縦列駐車が可能か否かを判定することが可能となる。
【0051】
なお、本実施形態の応用例として、縦列駐車は、その一例であって、応用例は、例えば、車庫入れ、狭い道や物体、車両間のすり抜けなど、多々存在している。
【0052】
以下、上述した“累積法”を用いない他の方法“交点法”について図17を用いて説明する。
【0053】
先ず、時刻tにて距離測定センサ91aを用いて得られた距離r1、時刻t+1にて距離測定センサ91a(図17では、1つの距離測定センサを用いた例を示す)を用いて得られた距離r2とした場合、距離測定センサ91aの位置を中心とし、かつ、距離r1、r2をそれぞれ半径として円弧を描き、その交点184を求める。図20に交点法を繰り返した場合の物体形状(エッジ位置)の推定の様子を示す。
【0054】
この場合、時刻毎に距離測定センサ91aを用いて物体13までの距離r1を測定し、交点法を用いて交点192を繰り返し求めていく。時刻t+6において物体13から離れる場合でも、距離r6を測定し、交点法で交点193を求めることが出来る。そして、これら円弧の交点の並びを、物体のエッジ(外縁)として推定している。
【0055】
例えば、図19のように、鳥瞰図に上述した交点法により得られた交点の並びを重畳して表示させることで、先述の安全エリアの時と同様に物体のエッジ(外縁)を正しくドライバに伝えることが出来る。
【0056】
なお、前述した予測軌道と検知した物体エッジとの位置関係から、物体間のすり抜けが可能か否かの情報を、表示器93以外の例えば音、光、振動等を用いて乗員に伝えてもよい。
【図面の簡単な説明】
【図1】本発明の第1実施形態における車両周囲表示装置の構成を示す図である。
【図2】図1の距離測定センサの説明図である。
【図3】第1実施形態で用いられる累積法の説明図である。
【図4】第1実施形態で用いられる累積法の説明図である。
【図5】第1実施形態の概略作動の説明図である。
【図6】図1の処理ユニットの処理を示すフローチャートである。
【図7】図1の表示器の表示画像を示す図である。
【図8】図1の表示器の表示画像を示す図である。
【図9】第1実施形態で用いられる表示方法の説明図である。
【図10】第1実施形態で用いられる表示方法の説明図である。
【図11】本発明の第2実施形態における車両周囲表示装置の作動を説明図である。
【図12】第2実施形態における処理ユニットの表示処理の一部を示すフローチャートである。
【図13】第2実施形態における処理ユニットの表示処理の残りを示すフローチャートである。
【図14】第2実施形態における表示器の表示画像を示す図である。
【図15】第2実施形態における表示器の表示画像を示す図である。
【図16】第2実施形態における表示器の表示画像を示す図である。
【図17】第2実施形態における表示器の表示画像を示す図である。
【図18】物体のエッジ検出に用いられる交点法を示す図である。
【図19】物体のエッジ検出に用いられる交点法を示す図である。
【符号の説明】
94…カメラ、93…表示器、92…処理ユニット。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle periphery display device that displays a situation around a vehicle.
[0002]
[Prior art]
Conventionally, a transmission signal is transmitted toward the periphery of a vehicle using an ultrasonic wave as a medium, and a reflection signal of the transmission signal reflected by an object around the vehicle is received. There has been proposed an ultrasonic object detection device that measures a distance to an object such as a guardrail or a person and notifies the user of the measured distance.
[0003]
According to this object detection device, the shape and position of the object cannot be specified merely by measuring the distance from the vehicle to the object, and the user cannot know the shape of the object.
[0004]
Therefore, the position information of the object around the vehicle is detected and stored using a laser radar, and a top view of the object centered on the own vehicle is drawn and displayed based on the detected position information. A display device (hereinafter, referred to as a first display device) has been proposed (for example, see Patent Document 1).
[0005]
A display device (hereinafter, referred to as a second display device) that captures a situation around the vehicle using a camera, converts the image around the vehicle captured by the camera into a bird's-eye view, and displays the converted bird's-eye view. Has been proposed (for example, see Patent Document 2).
[0006]
[Patent Document 1]
JP-A-8-50699
[Patent Document 2]
JP 2002-120675 A
[Problems to be solved by the invention]
By the way, in the first display device described above, although the top view of the object is displayed, the displayed top view alone does not make it clear to the occupant whether the object is a person or a vehicle. May cause anxiety about
[0009]
In the above-described second display device, the image around the vehicle captured by the camera is converted into a bird's-eye view and displayed. Therefore, in this case, although the occupant knows whether the object is a person or a vehicle, the bird's-eye view displays an object such as a vehicle originally standing on the ground as if it fell down on the ground. Therefore, there is a problem that the occupant loses a sense of distance between the object and the vehicle. That is, there is a problem that it is difficult for the occupant to recognize the distance between the object and the vehicle.
[0010]
The present invention has been made in view of the above problems, and has as its object to provide a vehicle surrounding display device that makes it easy for a passenger to recognize the distance between an object and a host vehicle without giving a feeling of anxiety. I do.
[0011]
[Means for Solving the Problems]
According to the first aspect of the present invention, the display (93), the camera means (94) for taking a camera image of the situation around the vehicle, and the camera-captured image are converted into a bird's-eye view, and are converted. Control means (92) for displaying a bird's eye view on the display, and distance measurement sensors (91a to 91h) for measuring the distance from the vehicle to an object around the vehicle;
The control means repeatedly measures the distance using the distance measurement sensor, estimates the outer edge of the object based on the repeatedly measured distance, and estimates the outer edge of the estimated object together with the own vehicle position. The display is superimposed on the bird's eye view and displayed on the display.
[0012]
Here, by displaying the bird's-eye view to the occupant, it is possible to know what the object is specifically. Further, by displaying the outer edge of the object and the position of the own vehicle, the distance between the object and the own vehicle can be easily recognized without giving the occupant a feeling of anxiety.
[0013]
Further, in estimating the outer edge of the object, as in the invention according to
[0014]
Further, not only the invention according to
[0015]
Also, as in the invention according to
[0016]
Here, since the outer edge of the safety area indicates the outer edge of the object, to clearly display the positional relationship between the vehicle and the object to the occupant, for example, as in the invention according to
[0017]
Further, as the control means, as in the invention according to
[0018]
The reference numerals in the parentheses of the above-mentioned units indicate the correspondence with the specific units described in each embodiment described later.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
FIG. 1 shows a schematic configuration of a vehicle periphery display device according to a first embodiment of the present invention.
As shown in FIG. 1, the vehicle periphery display device includes
[0020]
In FIG. 2, there is a gap in the area to be detected, but this is to make it easier to see on the drawing, and it is desirable to arrange the area so that no gap is actually formed.
[0021]
The
[0022]
Here, each of the
[0023]
The receiving ultrasonic transducer is arranged, for example, toward the outside of the vehicle by a bumper or the like, and receives a reflected signal of a transmission signal reflected by an object around the vehicle using ultrasonic waves as a medium.
[0024]
The
[0025]
The
[0026]
The
[0027]
Hereinafter, prior to the description of the specific operation of the present embodiment, the “accumulation method” that is the basis of the detection of the
[0028]
In the accumulation method, as shown in FIG. 3, the distance r1 is detected at time t using the
[0029]
When the distances r1 and r2 are calculated as described above, the
[0030]
Also, for example, as shown in FIG. 4, after calculating the distance r1 at times t, t + 1,..., T + 5, even when the vehicle moves away from the
[0031]
Here, the outer edge (outermost circumference) of each safety area indicates the edge of the
[0032]
Next, the specific operation of the present embodiment will be described with reference to FIGS.
[0033]
FIG. 6 is a flowchart showing the vehicle periphery display processing of the
[0034]
First, as shown in FIG. 7, the
[0035]
Next, the situation around the vehicle is imaged by the
Next, in accordance with the reflected signals received by each of the
[0036]
Next, the steering angle of the steering is detected from the
[0037]
Since such processing is performed, when the own vehicle retreats as shown by the arrow in FIG. 7, the safety area 14 (arc display) is accumulated and displayed on the
[0038]
Here, as shown in FIG. 8, the
[0039]
Next, the operation and effect of the present embodiment will be described. That is, the present embodiment includes a
[0040]
Here, by displaying the bird's-eye view to the occupant, it is possible to know what the object is specifically, that is, whether the object is a person or a vehicle. Further, by displaying the safety area and the position of the own vehicle, it is possible to easily recognize the distance between the object and the own vehicle without giving the occupant a feeling of anxiety.
[0041]
In the present embodiment, the presence of the object (wall) 13 in the vehicle traveling direction is notified by cumulatively displaying the
[0042]
Next, a specific method of accumulating and displaying the safe areas will be described with reference to FIGS.
[0043]
First, in the display area of the
[0044]
However, if the own vehicle moves and a safe area is obtained, the information point in the safe area is updated as the safe point 103 (white point). In FIG. 9, the points are arranged in the form of lattice points, but they may be arranged in a staggered manner or in any arrangement.
[0045]
Next, FIG. 10 shows another method for accumulating the safe area. The
[0046]
(2nd Embodiment)
In the second embodiment, an example is shown in which an edge 1210 of an
[0047]
First, the
[0048]
In FIG. 11, edge drawing is not performed at the beginning and end when the detection distance is shorter than the visual field length. In this way, an edge that is far away from the edge of the object is not drawn.
[0049]
Further, by extracting the edge of the object as shown in FIGS. 11 to 13, it is possible to determine whether or not the
[0050]
Here, as an application example of the present embodiment, determination as to whether parallel parking is possible or not will be described. As shown in FIG. 15, when the own vehicle 171 is to park in parallel between the
[0051]
In addition, as an application example of the present embodiment, parallel parking is one example, and there are many application examples, such as garage entry, narrow roads and objects, and passing between vehicles.
[0052]
Hereinafter, another method “intersection method” that does not use the above-described “accumulation method” will be described with reference to FIG.
[0053]
First, a distance r1 obtained using the
[0054]
In this case, the distance r1 to the
[0055]
For example, as shown in FIG. 19, by superimposing and displaying the line of intersection obtained by the above-mentioned intersection method on the bird's-eye view, the edge (outer edge) of the object is correctly transmitted to the driver as in the case of the above-described safety area. I can do it.
[0056]
It should be noted that, based on the positional relationship between the predicted trajectory and the detected object edge, information indicating whether or not passing between objects is possible may be transmitted to the occupant using, for example, sound, light, vibration, or the like other than the
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a vehicle periphery display device according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of the distance measuring sensor of FIG. 1;
FIG. 3 is an explanatory diagram of an accumulation method used in the first embodiment.
FIG. 4 is an explanatory diagram of an accumulation method used in the first embodiment.
FIG. 5 is an explanatory diagram of a schematic operation of the first embodiment.
FIG. 6 is a flowchart illustrating a process of a processing unit in FIG. 1;
FIG. 7 is a diagram showing a display image of the display device of FIG. 1;
8 is a diagram showing a display image of the display device of FIG.
FIG. 9 is an explanatory diagram of a display method used in the first embodiment.
FIG. 10 is an explanatory diagram of a display method used in the first embodiment.
FIG. 11 is an explanatory diagram showing an operation of the vehicle surrounding display device according to the second embodiment of the present invention.
FIG. 12 is a flowchart illustrating a part of a display process of a processing unit according to the second embodiment.
FIG. 13 is a flowchart illustrating the rest of the display processing of the processing unit according to the second embodiment.
FIG. 14 is a diagram showing a display image on a display device according to the second embodiment.
FIG. 15 is a diagram showing a display image on a display device in the second embodiment.
FIG. 16 is a diagram illustrating a display image of a display device according to the second embodiment.
FIG. 17 is a diagram illustrating a display image on a display device according to the second embodiment.
FIG. 18 is a diagram illustrating an intersection method used for edge detection of an object.
FIG. 19 is a diagram showing an intersection method used for edge detection of an object.
[Explanation of symbols]
94: Camera, 93: Display, 92: Processing unit.
Claims (6)
車両周囲の状況をカメラ撮像するためのカメラ手段(94)と、
前記カメラ撮像された画像を鳥瞰図に変換するとともに、この変換される鳥瞰図を前記表示器に表示させる制御手段(92)と、
自車から車両周囲の物体までの距離を測定するための距離測定センサ(91a〜91h)と、を備え、
前記制御手段が、前記距離測定センサを用いて前記距離を繰り返し測定するとともに、この繰り返し測定される距離に基づき、前記物体の外縁を推定して、この推定される物体の外縁を自車位置とともに前記鳥瞰図に重畳して前記表示器に表示させることを特徴とする車両周囲表示装置。An indicator (93);
Camera means (94) for taking a camera image of a situation around the vehicle;
Control means (92) for converting the image captured by the camera into a bird's-eye view, and displaying the converted bird's-eye view on the display device;
A distance measuring sensor (91a to 91h) for measuring a distance from the own vehicle to an object around the vehicle,
The control means repeatedly measures the distance using the distance measurement sensor, estimates the outer edge of the object based on the repeatedly measured distance, and estimates the outer edge of the estimated object together with the own vehicle position. A vehicle surrounding display device, wherein the display is superimposed on the bird's-eye view and displayed on the display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003154990A JP2004354326A (en) | 2003-05-30 | 2003-05-30 | Surrounding display device for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003154990A JP2004354326A (en) | 2003-05-30 | 2003-05-30 | Surrounding display device for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004354326A true JP2004354326A (en) | 2004-12-16 |
Family
ID=34049494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003154990A Pending JP2004354326A (en) | 2003-05-30 | 2003-05-30 | Surrounding display device for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004354326A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005009992A (en) * | 2003-06-18 | 2005-01-13 | Denso Corp | Periphery monitoring apparatus for vehicle |
JP2007212417A (en) * | 2006-02-13 | 2007-08-23 | Alpine Electronics Inc | On-vehicle radar device |
JP2009523378A (en) * | 2006-01-11 | 2009-06-18 | クゥアルコム・インコーポレイテッド | Method and apparatus for communication that can be used in the absence or presence of beacon signals |
JP2010018167A (en) * | 2008-07-10 | 2010-01-28 | Toyota Motor Corp | Parking support device |
JP2010217193A (en) * | 2005-05-09 | 2010-09-30 | Nippon Soken Inc | Obstacle detection device |
US7843767B2 (en) | 2005-09-02 | 2010-11-30 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus and method |
US7920056B2 (en) | 2006-11-29 | 2011-04-05 | Denso Corporation | Driving support apparatus |
JP4760831B2 (en) * | 2005-08-02 | 2011-08-31 | 日産自動車株式会社 | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method |
JP2012156632A (en) * | 2011-01-24 | 2012-08-16 | Denso Corp | Periphery monitoring device |
JP2013086792A (en) * | 2011-10-14 | 2013-05-13 | Hyundai Motor Co Ltd | Parking area detection method and system using mesh space analysis technique |
US8446471B2 (en) | 2009-12-31 | 2013-05-21 | Industrial Technology Research Institute | Method and system for generating surrounding seamless bird-view image with distance interface |
WO2013168230A1 (en) | 2012-05-08 | 2013-11-14 | トヨタ自動車株式会社 | Overhead view image display device |
JP2015182670A (en) * | 2014-03-25 | 2015-10-22 | ダイハツ工業株式会社 | Drive support device |
JP2016075501A (en) * | 2014-10-03 | 2016-05-12 | 三菱電機株式会社 | Object detection device, parking support device, and object detection method |
JP2017027487A (en) * | 2015-07-27 | 2017-02-02 | 日産自動車株式会社 | Information presentation apparatus and information presentation method |
WO2021024433A1 (en) * | 2019-08-07 | 2021-02-11 | 三菱電機株式会社 | Obstacle detection device |
-
2003
- 2003-05-30 JP JP2003154990A patent/JP2004354326A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005009992A (en) * | 2003-06-18 | 2005-01-13 | Denso Corp | Periphery monitoring apparatus for vehicle |
JP2010217193A (en) * | 2005-05-09 | 2010-09-30 | Nippon Soken Inc | Obstacle detection device |
US8885045B2 (en) | 2005-08-02 | 2014-11-11 | Nissan Motor Co., Ltd. | Device and method for monitoring vehicle surroundings |
JP4760831B2 (en) * | 2005-08-02 | 2011-08-31 | 日産自動車株式会社 | Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method |
US7843767B2 (en) | 2005-09-02 | 2010-11-30 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus and method |
JP2009523378A (en) * | 2006-01-11 | 2009-06-18 | クゥアルコム・インコーポレイテッド | Method and apparatus for communication that can be used in the absence or presence of beacon signals |
JP2007212417A (en) * | 2006-02-13 | 2007-08-23 | Alpine Electronics Inc | On-vehicle radar device |
US7920056B2 (en) | 2006-11-29 | 2011-04-05 | Denso Corporation | Driving support apparatus |
JP2010018167A (en) * | 2008-07-10 | 2010-01-28 | Toyota Motor Corp | Parking support device |
US8446471B2 (en) | 2009-12-31 | 2013-05-21 | Industrial Technology Research Institute | Method and system for generating surrounding seamless bird-view image with distance interface |
JP2012156632A (en) * | 2011-01-24 | 2012-08-16 | Denso Corp | Periphery monitoring device |
JP2013086792A (en) * | 2011-10-14 | 2013-05-13 | Hyundai Motor Co Ltd | Parking area detection method and system using mesh space analysis technique |
WO2013168230A1 (en) | 2012-05-08 | 2013-11-14 | トヨタ自動車株式会社 | Overhead view image display device |
JP2015182670A (en) * | 2014-03-25 | 2015-10-22 | ダイハツ工業株式会社 | Drive support device |
JP2016075501A (en) * | 2014-10-03 | 2016-05-12 | 三菱電機株式会社 | Object detection device, parking support device, and object detection method |
JP2017027487A (en) * | 2015-07-27 | 2017-02-02 | 日産自動車株式会社 | Information presentation apparatus and information presentation method |
WO2021024433A1 (en) * | 2019-08-07 | 2021-02-11 | 三菱電機株式会社 | Obstacle detection device |
JPWO2021024433A1 (en) * | 2019-08-07 | 2021-10-28 | 三菱電機株式会社 | Obstacle detector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8320628B2 (en) | Method and system for assisting driver | |
US9035760B2 (en) | Method and device for assisting a driver of a motor vehicle when he is removing his vehicle from a parking space, and motor vehicle | |
JP2004354326A (en) | Surrounding display device for vehicle | |
JP4019736B2 (en) | Obstacle detection device for vehicle | |
JP3779280B2 (en) | Collision prediction device | |
JP5769163B2 (en) | Alarm device | |
US9047779B2 (en) | Vehicle rear view monitoring device | |
JP5345350B2 (en) | Vehicle driving support device | |
JP4682816B2 (en) | Obstacle position detector | |
JP6089585B2 (en) | Obstacle detection device | |
WO2012147187A1 (en) | Periphery vehicle detection device | |
CN109643495B (en) | Periphery monitoring device and periphery monitoring method | |
US20080122604A1 (en) | Driving support apparatus | |
EP1964719A2 (en) | Apparatus and method for monitoring a vehicle's surroundings | |
JP4039321B2 (en) | Peripheral display device for vehicle | |
JP2004145479A (en) | Device for providing peripheral vehicle information | |
CN103781696A (en) | Driver assistance system for assisting a driver in collision-relevant situations | |
JP2008204281A (en) | Object detection device and inter-vehicle communication system | |
JP3941770B2 (en) | Collision possibility judgment device | |
JP6394440B2 (en) | Dirt determination device | |
JP4948338B2 (en) | Inter-vehicle distance measuring device | |
JP6697281B2 (en) | Object detection device | |
WO2022062000A1 (en) | Driver assistance method based on transparent a-pillar | |
JP3478149B2 (en) | Obstacle display device for vehicles | |
JP2012234373A (en) | Driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070821 |