JP2004354326A - Surrounding display device for vehicle - Google Patents

Surrounding display device for vehicle Download PDF

Info

Publication number
JP2004354326A
JP2004354326A JP2003154990A JP2003154990A JP2004354326A JP 2004354326 A JP2004354326 A JP 2004354326A JP 2003154990 A JP2003154990 A JP 2003154990A JP 2003154990 A JP2003154990 A JP 2003154990A JP 2004354326 A JP2004354326 A JP 2004354326A
Authority
JP
Japan
Prior art keywords
vehicle
distance
display device
display
outer edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003154990A
Other languages
Japanese (ja)
Inventor
Koji Kato
耕治 加藤
Masakazu Takeichi
真和 竹市
Yoshihisa Sato
善久 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003154990A priority Critical patent/JP2004354326A/en
Publication of JP2004354326A publication Critical patent/JP2004354326A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a distance of an article and a self-vehicle to be easily recognized without giving uneasy feeling to a crew. <P>SOLUTION: A surrounding display device for the vehicle includes a camera 94, and a processing unit 92 for converting an image photographed by the camera into a bird's-eye view and displaying the converted bird's-eye view on a display unit 93. The processing unit 92 repeatedly detects the distance from the self-vehicle to the article of the vehicle surrounding, obtains a circular arc having a measured distance as a radius at the position of a distance measuring sensor as a center at each measurement of the distance based on the repeatedly detected distance, and estimates the obtained row of the circular arcs at this each measurement as the outer edge of the article. Here, the outer edge indicates a safety area. This outer edge and the self-vehicle position are superposed on the bird's-eye view and displayed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車両周囲の状況を表示する車両周囲表示装置に関する。
【0002】
【従来の技術】
従来、車両周囲に向けて超音波を媒体として送信信号を送信して、車両周囲の物体により反射される送信信号の反射信号を受信するとともに、この受信される受信信号に基づき、自車から物体(これは、ガードレール、人等の物体を示す)までの距離を測定して、この測定される距離をユーザに通知する超音波式の物体検出装置が提案されている。
【0003】
この物体検出装置によれば、自車から物体までの距離を測定するだけで、物体の形状や位置を特定することができず、ユーザにとっては、物体の形状が分からない。
【0004】
そこで、レーザ式のレーダを用いて、車両周囲の物体の位置情報を検出して記憶しておき、この検出される位置情報に基づき自車を中心とする物体の上面図を作図して表示する表示装置(以下、第1の表示装置という)が提案されている(例えば、特許文献1参照)。
【0005】
また、カメラを用いて車両周囲の状況をカメラ撮像して、このカメラ撮像される車両周囲の画像を鳥瞰図に変換して、この変換される鳥瞰図を表示する表示装置(以下、第2の表示装置という)も提案されている(例えば、特許文献2参照)。
【0006】
【特許文献1】
特開平8−50699号公報
【0007】
【特許文献2】
特開2002−120675号公報
【0008】
【発明が解決しようとする課題】
ところで、上述の第1の表示装置では、物体の上面図を表示されるものの、この表示される上面図だけでは、乗員にとって、物体が具体的に人なのか或いは車両なのかが分からず、乗員に対して不安感を与える可能性がある。
【0009】
また、上述の第2の表示装置では、このカメラ撮像される車両周囲の画像を鳥瞰図に変換して表示される。したがって、この場合、乗員にとっては、物体が具体的に人なのか或いは車両なのかが分かるものの、鳥瞰図としては、本来地面に立っている車両などの物体が、地面に倒れたように表示されるので、乗員にとっては、物体及び自車の間の距離感が損なわれるといった問題がある。すなわち、乗員にとっては、物体及び自車の間の距離が、認識しづらいといった問題が生じる。
【0010】
本発明は、上記問題に鑑みたもので、乗員に対し、不安感を与えることなく、物体および自車の間の距離を認識し易くするようにした車両周囲表示装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
請求項1に記載の発明では、表示器(93)と、車両周囲の状況をカメラ撮像するためのカメラ手段(94)と、前記カメラ撮像された画像を鳥瞰図に変換するとともに、この変換される鳥瞰図を前記表示器に表示させる制御手段(92)と、自車から車両周囲の物体までの距離を測定するための距離測定センサ(91a〜91h)と、を備え、
前記制御手段が、前記距離測定センサを用いて前記距離を繰り返し測定するとともに、この繰り返し測定される距離に基づき、前記物体の外縁を推定して、この推定される物体の外縁を自車位置とともに前記鳥瞰図に重畳して前記表示器に表示させることを特徴とする。
【0012】
ここで、乗員に対して鳥瞰図を表示することにより、物体が具体的に何なのかを分からせることができる。さらに、物体の外縁及び自車位置を表示することにより、乗員に対して、不安感を与えることなく、物体および自車の間の距離を認識し易くすることができる。
【0013】
また、物体の外縁を推定するにあたっては、請求項2に記載の発明のように、制御手段は、前記距離測定センサを用いて前記距離を測定させる毎に、前記距離測定センサの位置を中心として前記測定される距離を半径とする円弧を求めるとともに、この求められる測定毎の円弧の並びを前記物体の外縁としてもよい。
【0014】
また、請求項2に記載の発明に限らず、請求項3に記載の発明のごとく、前記制御手段は、前記距離測定センサを用いて前記距離を測定させる毎に、前記距離測定センサの位置を中心として前記測定される距離を半径とする円弧を求めるとともに、この求められる測定毎の円弧の交点を求め、この求められる円弧の交点の並びを前記物体の外縁としてもよい。
【0015】
また、請求項4に記載の発明のように、前記制御手段は、前記物体に対して自車位置側の通行可能な安全エリアを前記表示器に表示させることにより、前記物体の外縁を前記表示器に表示させるようにしてもよい。
【0016】
ここで、安全エリアの外縁は、物体の外縁を示しているので、自車と物体の位置関係を乗員に対して明確に表示するには、例えば、請求項5に記載の発明のように、制御手段により、安全エリアのうちその外縁を強調して表示することが好適である。
【0017】
さらに、制御手段としては、請求項6に記載の発明のように、前記距離測定センサを用いて送信信号を送信させ、かつ、前記物体により反射される前記送信信号の反射信号を受信するとともに、この受信される反射信号に応じて、前記距離を測定するものを用いてもよい。
【0018】
なお、上記各手段の括弧内の符号は、後述する各実施形態に記載の具体的手段との対応関係を示すものである。
【0019】
【発明の実施の形態】
(第1実施形態)
本発明の第1実施形態に係る車両周囲表示装置の概略構成を図1に示す。
車両周囲表示装置は、図1に示すように、距離測定センサ91a〜91h、処理ユニット92、表示器93、およびカメラ94から構成されている。距離測定センサ91a〜91hは、図1に示すように、車両周囲の8方向に向けて配置されて、後述するように、8方向の安全エリア80a〜80h(図2参照)を検出するために、車両周囲の物体(障害物)と車両自体(以下、自車という)との間の距離をそれぞれ検出する。
【0020】
なお、図2では、検出するエリアに隙間があるように記しているが、これは作図上に見易くするためのものであり、実際には隙間が生じないように配置することが望ましい。
【0021】
安全エリア80a〜80hとは、車両周囲の物体に対して自車側に形成される自車が物体に衝突することなく通行可能なエリア、つまり、物体及び自車の間のエリアのことである。
【0022】
ここで、距離測定センサ91a〜91hは、送信用超音波振動子および受信用超音波振動子などからそれぞれ構成されており、送信用超音波振動子は、例えば、バンパー等にて車両外部に向けて配置されたもので、処理ユニット92から出力される送信信号を超音波を媒体として送信するものである。
【0023】
そして、受信用超音波振動子は、例えば、バンパー等にて車両外部に向けて配置されたもので、車両周囲の物体により反射される送信信号の反射信号を超音波を媒体として受信する。
【0024】
処理ユニット92は、マイクロコンピュータやメモリから構成されたもので、後述するように、カメラ94により撮像される車両周囲の画像に応じて、車両周囲の物体の鳥瞰図を表示するとともに、この鳥瞰図に安全エリア80a〜80hを自車位置とともに重畳して表示する。
【0025】
表示器93は、車室内のインストルメントパネル等にて車両前側に向けて配置されて、後述するように物体の鳥瞰図、安全エリア等を表示する。なお、表示器93としては、例えば、液晶表示パネル等が用いられている。
【0026】
カメラ94は、例えば、車室内のルームミラーの近傍にて、車両外部に向けて配置されたもので、車両周囲の状況をカメラ撮像する。なお、カメラ94としては、例えば、デジタルカメラ等が用いられる。
【0027】
以下に、本実施形態の具体的な作動の説明に先立って、安全エリア80a〜80hの検出の基本となる“累積法”について、図3〜図5を用いて説明する。図3、図4では、1つの距離測定センサ91aを用いて、安全エリア80aを描く例を示している。
【0028】
累積法では、図3に示すように、距離測定センサ91aを用いて時刻tにて距離r1を検出するとともに、時刻t+1にて距離r2を検出する。ここで、距離r1、r2とは、送信信号を送信してから物体13で反射される送信信号の反射信号を受信するのに要する伝搬時間Δtを求め、この伝搬時間Δtに音速cを掛けて(Δt×c)を算出するとともに、この(Δt×c)を2で割算して得られた算出結果である(距離=Δt×c/2)。
【0029】
このように距離r1、r2が算出されると、距離測定センサ91aの位置を中心とし、かつ、距離r1、r2をそれぞれ半径として、円弧14、円弧15を安全エリアとして描く。ここで、物体13は、安全エリアの外側、つまり、安全エリアに対して自車位置と反対側に位置することになる。
【0030】
また、例えば、図4に示すように、時刻t、t+1…、t+5で距離r1を求めた後、時刻t+6で車両が物体13から離れて距離r6を検出したときでも、時刻t、t+1…、t+5、t+6で得られる各々の円弧の並びを、各々安全エリアとして推定する。
【0031】
ここで、各々の安全エリアの外縁(最外周)が、物体13のエッジを示していることになる。このような安全エリアとしては、後述するように、車両周囲の物体の鳥瞰図に重畳されて表示されて、物体13の実際のエッジ(図5中の符号54)と、物体13の見た目のエッジ(図5中の符号53)とを区別して車両周囲の状況が知らされることになる。
【0032】
次に、本実施形態の具体的な作動の説明について、図6〜図8を用いて説明する。
【0033】
図6は処理ユニット92の車両周囲表示処理を示すフローチャート、図7、図8は表示器93による表示される画像を示す図である。処理ユニット92は、図6に示すフローチャートにしたがって、予めメモリに記憶されるコンピュータプログラムを実行する。コンピュータプログラムは、車両走行中にて実行されるものである。
【0034】
先ず、表示器93に対して、図7に示すように、自車位置を自動車マーク71にて表示させる(S100)。このとき、表示器93の表示エリアのうち、自動車マーク71以外の部分を危険エリア72として表示する。ここで、危険エリア72としては、物体が存在する可能性が高いエリアであることを示すものである。
【0035】
次に、カメラ94により車両周囲の状況をカメラ撮像させて、このカメラ94から車両周囲の状況を示す画像を取得するとともに、この画像を鳥瞰図に変換して表示器93に表示させる(S110)
次に、距離測定センサ91a〜91hのそれぞれで受信される反射信号に応じて、8方向にて物体までの距離を取得するとともに、この取得される8方向の距離に応じて、それぞれの安全エリアを鳥瞰図及び自動車マーク71に重畳して表示させる(S120)。
【0036】
次に、ステアリングの操舵角を操舵角センサ95から検出して、この検出される操舵角に応じて自車の予想進路を推定してこの予想進路を矢印等で表示器93に対して表示させる(S130、S140)。その後、S110〜S140の処理が繰り返される。
【0037】
このような処理が行われるので、図7中の矢印に示すごとく自車が後退したときには、図8に示すように、表示器93にて安全エリア14(円弧表示)が累積して表示されることになる。
【0038】
ここで、図8に示すように、自車の移動に伴い、安全エリア14が累積的に広がっていくことになる。しかし、車両後方、つまり車両進行方向に物体(壁)13が存在するときには、安全エリア14が物体13の手前までしか形成されず、運転者にとっては、物体13が存在することが明確に認識することができる。なお、図8において、物体13が自車の左後方に位置している例を示している。
【0039】
次に、本実施形態の作用効果について説明する。すなわち、本実施形態では、車両周囲の状況をカメラ撮像するカメラ94と、カメラ撮像された画像を鳥瞰図に変換するとともに、この変換される鳥瞰図を表示器93に表示する処理ユニット92と、を備え、処理ユニット92は、自車から車両周囲の物体(物体)までの距離を繰り返し検出するとともに、この繰り返し検出される距離に基づき、安全エリアの外縁を物体の外縁として推定して、この安全エリア及び自車位置を鳥瞰図に重畳して表示する。
【0040】
ここで、乗員に対して鳥瞰図を表示することにより、物体が具体的に何なのか、つまり人なのか或いは車両なのかを分からせることができる。さらに、安全エリア及び自車位置を表示することにより、乗員に対して、不安感を与えることなく、物体および自車の間の距離を認識し易くすることができる。
【0041】
また、本実施形態では、安全エリア14を累積的に表示することにより、車両進行方向の物体(壁)13の存在を通知することになる。このため、車両進行方向に対し無関係な物体の場合は、報知を行わないことになる。したがって、ドライバに無用な注意をさせることを削減できる。
【0042】
次に、安全エリアを累積して表示する具体的な方法について図9、図10を用いて説明する。
【0043】
先ず、表示器93の表示エリア内にて、車両周辺(つまり、自動車マーク71の周辺)で、監視の必要なエリア104を設け、このエリア104内に等間隔の情報点102(黒点)を設ける。ここで、上述した図7に示した初期状態では、情報点102は全て危険点として表示される。
【0044】
しかし、自車が移動して安全エリアが求められれば、安全エリア内の情報点を安全点103(白点)として更新する。図9では、格子点状に点を並べたが、千鳥点状でも、どんな並びでも構わない。
【0045】
次に、図10に安全エリアを累積するための別の方法を示す。車両周辺で監視が必要なエリア104を正方形のピクセル状に分割する。初期状態では各ピクセルは全て危険ピクセル102として表示される。しかし、車両が移動して安全エリアが求められれば、安全エリア内のピクセルを安全ピクセル103として更新する。なお、図10では、各ピクセルを正方形にしたが、どんな形状でも構わない。
【0046】
(第2実施形態)
本第2実施形態では、図11に示すように物体13のエッジ1210を抽出してこのエッジ1210を強調表示する例を示す。この場合の処理ユニット92の車両周囲表示処理を図12、図13に示す。図12は車両周囲表示処理を示すフローチャート、図13は図12の物体のエッジの抽出処理(S150)の詳細を示すフローチャートである。
【0047】
先ず、本実施形態の処理ユニット92は、自車の移動に伴い各時間(t、t+1、t+2、…t+9、t+10、…t13)にて距離測定センサ91a〜91hを用いて安全エリア14を描画する。このとき、距離測定センサ91a〜91hを用いて測定した検知距離が視野長(センサが測定可能な最遠距離)未満である時に(S151:YES)、物体のエッジとして一時保持する。そして、一時保持したエッジが、既存の安全エリアの中に含まれるならば(S153、S154)、その部分は削除し、残ったエッジのみを描画する(S155)。このようにすれば、図11中の符号1210にて示すように物体13のエッジを描画することが出来る。
【0048】
なお、図11では、検知距離が視野長未満になった最初と最後についてはエッジ描画をしないようにしている。このようにすれば、物体のエッジから大きく離れてしまうようなエッジが描画されなくなる。
【0049】
また、図11〜図13のように物体のエッジ抽出をすることで、図14に示すごとく、車両の予測軌道内156に物体のエッジ13aがあるか否かにより判定可能である。したがって、車両が物体と衝突するか否かの判定(干渉判定)をすることが可能となる(図12中のS150)。なお、この場合、図15に示すように、安全エリアの描画を無くし、物体エッジ72aのみを鳥瞰図へ重畳して表示しても良い。
【0050】
ここで、本実施形態の応用例として縦列駐車の可否判定について説明する。図15に示すように、自車171が、車両174、175の間に縦列駐車しようする場合には、予め、2つの車両174、175の脇を通過することにより、物体エッジ176、177を抽出する。さらに、この物体エッジ間の距離178を求め、距離178と自車の全長とから、縦列駐車が可能か否かを判定することが可能となる。
【0051】
なお、本実施形態の応用例として、縦列駐車は、その一例であって、応用例は、例えば、車庫入れ、狭い道や物体、車両間のすり抜けなど、多々存在している。
【0052】
以下、上述した“累積法”を用いない他の方法“交点法”について図17を用いて説明する。
【0053】
先ず、時刻tにて距離測定センサ91aを用いて得られた距離r1、時刻t+1にて距離測定センサ91a(図17では、1つの距離測定センサを用いた例を示す)を用いて得られた距離r2とした場合、距離測定センサ91aの位置を中心とし、かつ、距離r1、r2をそれぞれ半径として円弧を描き、その交点184を求める。図20に交点法を繰り返した場合の物体形状(エッジ位置)の推定の様子を示す。
【0054】
この場合、時刻毎に距離測定センサ91aを用いて物体13までの距離r1を測定し、交点法を用いて交点192を繰り返し求めていく。時刻t+6において物体13から離れる場合でも、距離r6を測定し、交点法で交点193を求めることが出来る。そして、これら円弧の交点の並びを、物体のエッジ(外縁)として推定している。
【0055】
例えば、図19のように、鳥瞰図に上述した交点法により得られた交点の並びを重畳して表示させることで、先述の安全エリアの時と同様に物体のエッジ(外縁)を正しくドライバに伝えることが出来る。
【0056】
なお、前述した予測軌道と検知した物体エッジとの位置関係から、物体間のすり抜けが可能か否かの情報を、表示器93以外の例えば音、光、振動等を用いて乗員に伝えてもよい。
【図面の簡単な説明】
【図1】本発明の第1実施形態における車両周囲表示装置の構成を示す図である。
【図2】図1の距離測定センサの説明図である。
【図3】第1実施形態で用いられる累積法の説明図である。
【図4】第1実施形態で用いられる累積法の説明図である。
【図5】第1実施形態の概略作動の説明図である。
【図6】図1の処理ユニットの処理を示すフローチャートである。
【図7】図1の表示器の表示画像を示す図である。
【図8】図1の表示器の表示画像を示す図である。
【図9】第1実施形態で用いられる表示方法の説明図である。
【図10】第1実施形態で用いられる表示方法の説明図である。
【図11】本発明の第2実施形態における車両周囲表示装置の作動を説明図である。
【図12】第2実施形態における処理ユニットの表示処理の一部を示すフローチャートである。
【図13】第2実施形態における処理ユニットの表示処理の残りを示すフローチャートである。
【図14】第2実施形態における表示器の表示画像を示す図である。
【図15】第2実施形態における表示器の表示画像を示す図である。
【図16】第2実施形態における表示器の表示画像を示す図である。
【図17】第2実施形態における表示器の表示画像を示す図である。
【図18】物体のエッジ検出に用いられる交点法を示す図である。
【図19】物体のエッジ検出に用いられる交点法を示す図である。
【符号の説明】
94…カメラ、93…表示器、92…処理ユニット。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle periphery display device that displays a situation around a vehicle.
[0002]
[Prior art]
Conventionally, a transmission signal is transmitted toward the periphery of a vehicle using an ultrasonic wave as a medium, and a reflection signal of the transmission signal reflected by an object around the vehicle is received. There has been proposed an ultrasonic object detection device that measures a distance to an object such as a guardrail or a person and notifies the user of the measured distance.
[0003]
According to this object detection device, the shape and position of the object cannot be specified merely by measuring the distance from the vehicle to the object, and the user cannot know the shape of the object.
[0004]
Therefore, the position information of the object around the vehicle is detected and stored using a laser radar, and a top view of the object centered on the own vehicle is drawn and displayed based on the detected position information. A display device (hereinafter, referred to as a first display device) has been proposed (for example, see Patent Document 1).
[0005]
A display device (hereinafter, referred to as a second display device) that captures a situation around the vehicle using a camera, converts the image around the vehicle captured by the camera into a bird's-eye view, and displays the converted bird's-eye view. Has been proposed (for example, see Patent Document 2).
[0006]
[Patent Document 1]
JP-A-8-50699
[Patent Document 2]
JP 2002-120675 A
[Problems to be solved by the invention]
By the way, in the first display device described above, although the top view of the object is displayed, the displayed top view alone does not make it clear to the occupant whether the object is a person or a vehicle. May cause anxiety about
[0009]
In the above-described second display device, the image around the vehicle captured by the camera is converted into a bird's-eye view and displayed. Therefore, in this case, although the occupant knows whether the object is a person or a vehicle, the bird's-eye view displays an object such as a vehicle originally standing on the ground as if it fell down on the ground. Therefore, there is a problem that the occupant loses a sense of distance between the object and the vehicle. That is, there is a problem that it is difficult for the occupant to recognize the distance between the object and the vehicle.
[0010]
The present invention has been made in view of the above problems, and has as its object to provide a vehicle surrounding display device that makes it easy for a passenger to recognize the distance between an object and a host vehicle without giving a feeling of anxiety. I do.
[0011]
[Means for Solving the Problems]
According to the first aspect of the present invention, the display (93), the camera means (94) for taking a camera image of the situation around the vehicle, and the camera-captured image are converted into a bird's-eye view, and are converted. Control means (92) for displaying a bird's eye view on the display, and distance measurement sensors (91a to 91h) for measuring the distance from the vehicle to an object around the vehicle;
The control means repeatedly measures the distance using the distance measurement sensor, estimates the outer edge of the object based on the repeatedly measured distance, and estimates the outer edge of the estimated object together with the own vehicle position. The display is superimposed on the bird's eye view and displayed on the display.
[0012]
Here, by displaying the bird's-eye view to the occupant, it is possible to know what the object is specifically. Further, by displaying the outer edge of the object and the position of the own vehicle, the distance between the object and the own vehicle can be easily recognized without giving the occupant a feeling of anxiety.
[0013]
Further, in estimating the outer edge of the object, as in the invention according to claim 2, every time the distance is measured by using the distance measurement sensor, the control means sets the position of the distance measurement sensor as a center. An arc having the measured distance as a radius may be obtained, and the arrangement of the arcs for each obtained measurement may be set as the outer edge of the object.
[0014]
Further, not only the invention according to claim 2 but also as in the invention according to claim 3, the control unit changes the position of the distance measurement sensor every time the distance is measured using the distance measurement sensor. An arc having a radius of the measured distance as a center may be obtained, an intersection of the obtained arcs for each measurement may be obtained, and the arrangement of the obtained intersections of the arcs may be set as the outer edge of the object.
[0015]
Also, as in the invention according to claim 4, the control means displays the safe area where the own vehicle can pass on the object on the display, thereby displaying the outer edge of the object. You may make it display on a container.
[0016]
Here, since the outer edge of the safety area indicates the outer edge of the object, to clearly display the positional relationship between the vehicle and the object to the occupant, for example, as in the invention according to claim 5, Preferably, the outer edge of the safety area is highlighted by the control means.
[0017]
Further, as the control means, as in the invention according to claim 6, transmit a transmission signal using the distance measurement sensor, and, while receiving a reflected signal of the transmission signal reflected by the object, A device for measuring the distance according to the received reflected signal may be used.
[0018]
The reference numerals in the parentheses of the above-mentioned units indicate the correspondence with the specific units described in each embodiment described later.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
FIG. 1 shows a schematic configuration of a vehicle periphery display device according to a first embodiment of the present invention.
As shown in FIG. 1, the vehicle periphery display device includes distance measurement sensors 91a to 91h, a processing unit 92, a display 93, and a camera 94. The distance measuring sensors 91a to 91h are arranged in eight directions around the vehicle as shown in FIG. 1, and are used to detect safety directions 80a to 80h (see FIG. 2) in eight directions as described later. The distance between an object (obstacle) around the vehicle and the vehicle itself (hereinafter, referred to as the own vehicle) is detected.
[0020]
In FIG. 2, there is a gap in the area to be detected, but this is to make it easier to see on the drawing, and it is desirable to arrange the area so that no gap is actually formed.
[0021]
The safety areas 80a to 80h are areas formed on the side of the own vehicle with respect to objects around the vehicle and through which the own vehicle can pass without colliding with the object, that is, areas between the object and the own vehicle. .
[0022]
Here, each of the distance measuring sensors 91a to 91h includes a transmitting ultrasonic vibrator and a receiving ultrasonic vibrator, and the transmitting ultrasonic vibrator is directed to the outside of the vehicle by, for example, a bumper. The transmission signal output from the processing unit 92 is transmitted using ultrasonic waves as a medium.
[0023]
The receiving ultrasonic transducer is arranged, for example, toward the outside of the vehicle by a bumper or the like, and receives a reflected signal of a transmission signal reflected by an object around the vehicle using ultrasonic waves as a medium.
[0024]
The processing unit 92 includes a microcomputer and a memory. As described later, the processing unit 92 displays a bird's-eye view of an object around the vehicle in accordance with an image around the vehicle captured by the camera 94, and secures the bird's-eye view of the object around the vehicle. The areas 80a to 80h are superimposed and displayed together with the position of the own vehicle.
[0025]
The display 93 is disposed toward the front side of the vehicle on an instrument panel or the like in the vehicle interior, and displays a bird's-eye view of an object, a safety area, and the like as described later. As the display 93, for example, a liquid crystal display panel or the like is used.
[0026]
The camera 94 is disposed, for example, in the vicinity of a room mirror in the vehicle interior and facing the outside of the vehicle, and captures a situation around the vehicle with a camera. As the camera 94, for example, a digital camera or the like is used.
[0027]
Hereinafter, prior to the description of the specific operation of the present embodiment, the “accumulation method” that is the basis of the detection of the safety areas 80a to 80h will be described with reference to FIGS. FIGS. 3 and 4 show an example in which the safety area 80a is drawn using one distance measuring sensor 91a.
[0028]
In the accumulation method, as shown in FIG. 3, the distance r1 is detected at time t using the distance measurement sensor 91a, and the distance r2 is detected at time t + 1. Here, the distances r1 and r2 are obtained by calculating a propagation time Δt required to receive a reflected signal of the transmission signal reflected by the object 13 after transmitting the transmission signal, and multiplying the propagation time Δt by a sound speed c. This is a calculation result obtained by calculating (Δt × c) and dividing (Δt × c) by 2 (distance = Δt × c / 2).
[0029]
When the distances r1 and r2 are calculated as described above, the arcs 14 and 15 are drawn as the safe area with the position of the distance measuring sensor 91a as the center, the distances r1 and r2 as the radii, respectively. Here, the object 13 is located outside the safe area, that is, on the opposite side of the own vehicle position with respect to the safe area.
[0030]
Also, for example, as shown in FIG. 4, after calculating the distance r1 at times t, t + 1,..., T + 5, even when the vehicle moves away from the object 13 at time t + 6 and detects the distance r6, the time t, t + 1,. The arrangement of each arc obtained at t + 5 and t + 6 is estimated as a safe area.
[0031]
Here, the outer edge (outermost circumference) of each safety area indicates the edge of the object 13. As described later, such a safe area is displayed so as to be superimposed on a bird's-eye view of an object around the vehicle, and an actual edge of the object 13 (reference numeral 54 in FIG. 5) and an apparent edge of the object 13 (reference numeral 54). The situation around the vehicle is notified in distinction from reference numeral 53) in FIG.
[0032]
Next, the specific operation of the present embodiment will be described with reference to FIGS.
[0033]
FIG. 6 is a flowchart showing the vehicle periphery display processing of the processing unit 92, and FIGS. 7 and 8 are diagrams showing images displayed by the display 93. The processing unit 92 executes a computer program stored in the memory in advance according to the flowchart shown in FIG. The computer program is executed while the vehicle is running.
[0034]
First, as shown in FIG. 7, the display 93 displays the vehicle position with the vehicle mark 71 (S100). At this time, of the display area of the display 93, a portion other than the car mark 71 is displayed as the danger area 72. Here, the dangerous area 72 indicates an area in which an object is highly likely to be present.
[0035]
Next, the situation around the vehicle is imaged by the camera 94 to obtain an image indicating the situation around the vehicle from the camera 94, and this image is converted into a bird's-eye view and displayed on the display 93 (S110).
Next, in accordance with the reflected signals received by each of the distance measurement sensors 91a to 91h, the distance to the object in eight directions is obtained, and in accordance with the obtained distances in eight directions, the respective safety areas are obtained. Is superimposed and displayed on the bird's-eye view and the car mark 71 (S120).
[0036]
Next, the steering angle of the steering is detected from the steering angle sensor 95, the estimated course of the own vehicle is estimated according to the detected steering angle, and the estimated course is displayed on the display 93 by an arrow or the like. (S130, S140). Thereafter, the processing of S110 to S140 is repeated.
[0037]
Since such processing is performed, when the own vehicle retreats as shown by the arrow in FIG. 7, the safety area 14 (arc display) is accumulated and displayed on the display 93 as shown in FIG. Will be.
[0038]
Here, as shown in FIG. 8, the safe area 14 is cumulatively expanded with the movement of the own vehicle. However, when the object (wall) 13 exists in the rear of the vehicle, that is, in the vehicle traveling direction, the safety area 14 is formed only up to the front of the object 13, and the driver clearly recognizes that the object 13 exists. be able to. FIG. 8 shows an example in which the object 13 is located on the left rear side of the own vehicle.
[0039]
Next, the operation and effect of the present embodiment will be described. That is, the present embodiment includes a camera 94 that captures the situation around the vehicle with a camera, and a processing unit 92 that converts the captured image into a bird's-eye view and displays the converted bird's-eye view on the display 93. , The processing unit 92 repeatedly detects the distance from the host vehicle to an object (object) around the vehicle, estimates the outer edge of the safety area as the outer edge of the object based on the repeatedly detected distance, and And the position of the vehicle is superimposed and displayed on the bird's-eye view.
[0040]
Here, by displaying the bird's-eye view to the occupant, it is possible to know what the object is specifically, that is, whether the object is a person or a vehicle. Further, by displaying the safety area and the position of the own vehicle, it is possible to easily recognize the distance between the object and the own vehicle without giving the occupant a feeling of anxiety.
[0041]
In the present embodiment, the presence of the object (wall) 13 in the vehicle traveling direction is notified by cumulatively displaying the safety areas 14. Therefore, if the object is irrelevant to the traveling direction of the vehicle, the notification is not performed. Therefore, it is possible to reduce unnecessary attention of the driver.
[0042]
Next, a specific method of accumulating and displaying the safe areas will be described with reference to FIGS.
[0043]
First, in the display area of the display 93, an area 104 that needs to be monitored is provided around the vehicle (that is, around the automobile mark 71), and information points 102 (black points) at equal intervals are provided in this area 104. . Here, in the initial state shown in FIG. 7, the information points 102 are all displayed as danger points.
[0044]
However, if the own vehicle moves and a safe area is obtained, the information point in the safe area is updated as the safe point 103 (white point). In FIG. 9, the points are arranged in the form of lattice points, but they may be arranged in a staggered manner or in any arrangement.
[0045]
Next, FIG. 10 shows another method for accumulating the safe area. The area 104 that needs to be monitored around the vehicle is divided into square pixels. Initially, all pixels are displayed as dangerous pixels 102. However, if the vehicle moves and a safe area is required, the pixels in the safe area are updated as the safe pixels 103. In FIG. 10, each pixel is square, but any shape may be used.
[0046]
(2nd Embodiment)
In the second embodiment, an example is shown in which an edge 1210 of an object 13 is extracted as shown in FIG. 11 and the edge 1210 is highlighted. FIG. 12 and FIG. 13 show the vehicle surrounding display processing of the processing unit 92 in this case. FIG. 12 is a flowchart showing the vehicle periphery display processing, and FIG. 13 is a flowchart showing details of the object edge extraction processing (S150) in FIG.
[0047]
First, the processing unit 92 of the present embodiment draws the safety area 14 at each time (t, t + 1, t + 2,... T + 9, t + 10,... T13) using the distance measurement sensors 91a to 91h as the vehicle moves. I do. At this time, when the detection distance measured by using the distance measurement sensors 91a to 91h is shorter than the visual field length (the longest distance measurable by the sensor) (S151: YES), the object is temporarily held as an edge. Then, if the temporarily held edge is included in the existing safety area (S153, S154), that part is deleted and only the remaining edge is drawn (S155). In this way, the edge of the object 13 can be drawn as indicated by reference numeral 1210 in FIG.
[0048]
In FIG. 11, edge drawing is not performed at the beginning and end when the detection distance is shorter than the visual field length. In this way, an edge that is far away from the edge of the object is not drawn.
[0049]
Further, by extracting the edge of the object as shown in FIGS. 11 to 13, it is possible to determine whether or not the edge 13a of the object exists in the predicted track 156 of the vehicle as shown in FIG. Therefore, it is possible to determine whether the vehicle collides with the object (interference determination) (S150 in FIG. 12). In this case, as shown in FIG. 15, the drawing of the safe area may be omitted, and only the object edge 72a may be superimposed and displayed on the bird's-eye view.
[0050]
Here, as an application example of the present embodiment, determination as to whether parallel parking is possible or not will be described. As shown in FIG. 15, when the own vehicle 171 is to park in parallel between the vehicles 174 and 175, the object edges 176 and 177 are extracted by passing in advance by the two vehicles 174 and 175. I do. Further, the distance 178 between the object edges is obtained, and it is possible to determine whether or not parallel parking is possible from the distance 178 and the total length of the own vehicle.
[0051]
In addition, as an application example of the present embodiment, parallel parking is one example, and there are many application examples, such as garage entry, narrow roads and objects, and passing between vehicles.
[0052]
Hereinafter, another method “intersection method” that does not use the above-described “accumulation method” will be described with reference to FIG.
[0053]
First, a distance r1 obtained using the distance measuring sensor 91a at time t, and a distance r1 obtained at time t + 1 using the distance measuring sensor 91a (FIG. 17 shows an example using one distance measuring sensor). When the distance is r2, an arc is drawn with the position of the distance measuring sensor 91a as the center and the distances r1 and r2 as the respective radii, and the intersection 184 thereof is obtained. FIG. 20 shows how the object shape (edge position) is estimated when the intersection method is repeated.
[0054]
In this case, the distance r1 to the object 13 is measured at each time using the distance measurement sensor 91a, and the intersection 192 is repeatedly obtained using the intersection method. Even when the user leaves the object 13 at time t + 6, the distance r6 can be measured and the intersection 193 can be obtained by the intersection method. Then, the arrangement of the intersections of these arcs is estimated as the edge (outer edge) of the object.
[0055]
For example, as shown in FIG. 19, by superimposing and displaying the line of intersection obtained by the above-mentioned intersection method on the bird's-eye view, the edge (outer edge) of the object is correctly transmitted to the driver as in the case of the above-described safety area. I can do it.
[0056]
It should be noted that, based on the positional relationship between the predicted trajectory and the detected object edge, information indicating whether or not passing between objects is possible may be transmitted to the occupant using, for example, sound, light, vibration, or the like other than the display 93. Good.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a vehicle periphery display device according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of the distance measuring sensor of FIG. 1;
FIG. 3 is an explanatory diagram of an accumulation method used in the first embodiment.
FIG. 4 is an explanatory diagram of an accumulation method used in the first embodiment.
FIG. 5 is an explanatory diagram of a schematic operation of the first embodiment.
FIG. 6 is a flowchart illustrating a process of a processing unit in FIG. 1;
FIG. 7 is a diagram showing a display image of the display device of FIG. 1;
8 is a diagram showing a display image of the display device of FIG.
FIG. 9 is an explanatory diagram of a display method used in the first embodiment.
FIG. 10 is an explanatory diagram of a display method used in the first embodiment.
FIG. 11 is an explanatory diagram showing an operation of the vehicle surrounding display device according to the second embodiment of the present invention.
FIG. 12 is a flowchart illustrating a part of a display process of a processing unit according to the second embodiment.
FIG. 13 is a flowchart illustrating the rest of the display processing of the processing unit according to the second embodiment.
FIG. 14 is a diagram showing a display image on a display device according to the second embodiment.
FIG. 15 is a diagram showing a display image on a display device in the second embodiment.
FIG. 16 is a diagram illustrating a display image of a display device according to the second embodiment.
FIG. 17 is a diagram illustrating a display image on a display device according to the second embodiment.
FIG. 18 is a diagram illustrating an intersection method used for edge detection of an object.
FIG. 19 is a diagram showing an intersection method used for edge detection of an object.
[Explanation of symbols]
94: Camera, 93: Display, 92: Processing unit.

Claims (6)

表示器(93)と、
車両周囲の状況をカメラ撮像するためのカメラ手段(94)と、
前記カメラ撮像された画像を鳥瞰図に変換するとともに、この変換される鳥瞰図を前記表示器に表示させる制御手段(92)と、
自車から車両周囲の物体までの距離を測定するための距離測定センサ(91a〜91h)と、を備え、
前記制御手段が、前記距離測定センサを用いて前記距離を繰り返し測定するとともに、この繰り返し測定される距離に基づき、前記物体の外縁を推定して、この推定される物体の外縁を自車位置とともに前記鳥瞰図に重畳して前記表示器に表示させることを特徴とする車両周囲表示装置。
An indicator (93);
Camera means (94) for taking a camera image of a situation around the vehicle;
Control means (92) for converting the image captured by the camera into a bird's-eye view, and displaying the converted bird's-eye view on the display device;
A distance measuring sensor (91a to 91h) for measuring a distance from the own vehicle to an object around the vehicle,
The control means repeatedly measures the distance using the distance measurement sensor, estimates the outer edge of the object based on the repeatedly measured distance, and estimates the outer edge of the estimated object together with the own vehicle position. A vehicle surrounding display device, wherein the display is superimposed on the bird's-eye view and displayed on the display.
前記制御手段は、前記距離測定センサを用いて前記距離を測定させる毎に、前記距離測定センサの位置を中心として前記測定される距離を半径とする円弧を求めるとともに、この求められる測定毎の円弧の並びを前記物体の外縁とすることを特徴とする請求項1に記載の車両周囲表示装置。Each time the control means causes the distance measurement sensor to measure the distance, the control means obtains an arc having the measured distance as a radius around the position of the distance measurement sensor, and obtains an arc for each of the obtained measurements. 2. The vehicle surrounding display device according to claim 1, wherein the arrangement of is the outer edge of the object. 前記制御手段は、前記距離測定センサを用いて前記距離を測定させる毎に、前記距離測定センサの位置を中心として前記測定される距離を半径とする円弧を求めるとともに、この求められる測定毎の円弧の交点を求め、この求められる円弧の交点の並びを前記物体の外縁とすることを特徴とする請求項1に記載の車両周囲表示装置。Each time the control means causes the distance measurement sensor to measure the distance, the control means obtains an arc having the measured distance as a radius around the position of the distance measurement sensor, and obtains an arc for each of the obtained measurements. 2. The vehicle surrounding display device according to claim 1, wherein the intersection of the obtained arcs is determined, and the arrangement of the determined intersections of the arcs is set as the outer edge of the object. 前記制御手段は、前記物体に対して自車位置側の通行可能な安全エリアを前記表示器に表示させることにより、前記物体の外縁を前記表示器に表示させることを特徴とする請求項1〜3のいずれか1つに記載の車両周囲表示装置。The said control means displays the outer periphery of the said object on the said display by displaying on the said display the safe area which can pass by the own vehicle position with respect to the said object. The said display is characterized by the above-mentioned. 3. The vehicle surrounding display device according to any one of 3. 前記制御手段は、前記安全エリアのうちその外縁を強調して前記表示器に表示させることを特徴とする請求項1〜4のいずれか1つにに記載の車両周囲表示装置。The vehicle surrounding display device according to any one of claims 1 to 4, wherein the control unit highlights an outer edge of the safety area and displays the safety area on the display. 前記制御手段は、前記距離測定センサを用いて送信信号を送信させ、かつ、前記物体により反射される前記送信信号の反射信号を受信するとともに、この受信される反射信号に応じて、前記距離を測定することを特徴とする請求項1〜5のいずれか1つに記載の車両周囲表示装置。The control means transmits a transmission signal using the distance measurement sensor, and receives a reflection signal of the transmission signal reflected by the object, and calculates the distance in accordance with the received reflection signal. The vehicle surrounding display device according to claim 1, wherein the measurement is performed.
JP2003154990A 2003-05-30 2003-05-30 Surrounding display device for vehicle Pending JP2004354326A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003154990A JP2004354326A (en) 2003-05-30 2003-05-30 Surrounding display device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003154990A JP2004354326A (en) 2003-05-30 2003-05-30 Surrounding display device for vehicle

Publications (1)

Publication Number Publication Date
JP2004354326A true JP2004354326A (en) 2004-12-16

Family

ID=34049494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003154990A Pending JP2004354326A (en) 2003-05-30 2003-05-30 Surrounding display device for vehicle

Country Status (1)

Country Link
JP (1) JP2004354326A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005009992A (en) * 2003-06-18 2005-01-13 Denso Corp Periphery monitoring apparatus for vehicle
JP2007212417A (en) * 2006-02-13 2007-08-23 Alpine Electronics Inc On-vehicle radar device
JP2009523378A (en) * 2006-01-11 2009-06-18 クゥアルコム・インコーポレイテッド Method and apparatus for communication that can be used in the absence or presence of beacon signals
JP2010018167A (en) * 2008-07-10 2010-01-28 Toyota Motor Corp Parking support device
JP2010217193A (en) * 2005-05-09 2010-09-30 Nippon Soken Inc Obstacle detection device
US7843767B2 (en) 2005-09-02 2010-11-30 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and method
US7920056B2 (en) 2006-11-29 2011-04-05 Denso Corporation Driving support apparatus
JP4760831B2 (en) * 2005-08-02 2011-08-31 日産自動車株式会社 Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JP2012156632A (en) * 2011-01-24 2012-08-16 Denso Corp Periphery monitoring device
JP2013086792A (en) * 2011-10-14 2013-05-13 Hyundai Motor Co Ltd Parking area detection method and system using mesh space analysis technique
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
WO2013168230A1 (en) 2012-05-08 2013-11-14 トヨタ自動車株式会社 Overhead view image display device
JP2015182670A (en) * 2014-03-25 2015-10-22 ダイハツ工業株式会社 Drive support device
JP2016075501A (en) * 2014-10-03 2016-05-12 三菱電機株式会社 Object detection device, parking support device, and object detection method
JP2017027487A (en) * 2015-07-27 2017-02-02 日産自動車株式会社 Information presentation apparatus and information presentation method
WO2021024433A1 (en) * 2019-08-07 2021-02-11 三菱電機株式会社 Obstacle detection device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005009992A (en) * 2003-06-18 2005-01-13 Denso Corp Periphery monitoring apparatus for vehicle
JP2010217193A (en) * 2005-05-09 2010-09-30 Nippon Soken Inc Obstacle detection device
US8885045B2 (en) 2005-08-02 2014-11-11 Nissan Motor Co., Ltd. Device and method for monitoring vehicle surroundings
JP4760831B2 (en) * 2005-08-02 2011-08-31 日産自動車株式会社 Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
US7843767B2 (en) 2005-09-02 2010-11-30 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and method
JP2009523378A (en) * 2006-01-11 2009-06-18 クゥアルコム・インコーポレイテッド Method and apparatus for communication that can be used in the absence or presence of beacon signals
JP2007212417A (en) * 2006-02-13 2007-08-23 Alpine Electronics Inc On-vehicle radar device
US7920056B2 (en) 2006-11-29 2011-04-05 Denso Corporation Driving support apparatus
JP2010018167A (en) * 2008-07-10 2010-01-28 Toyota Motor Corp Parking support device
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
JP2012156632A (en) * 2011-01-24 2012-08-16 Denso Corp Periphery monitoring device
JP2013086792A (en) * 2011-10-14 2013-05-13 Hyundai Motor Co Ltd Parking area detection method and system using mesh space analysis technique
WO2013168230A1 (en) 2012-05-08 2013-11-14 トヨタ自動車株式会社 Overhead view image display device
JP2015182670A (en) * 2014-03-25 2015-10-22 ダイハツ工業株式会社 Drive support device
JP2016075501A (en) * 2014-10-03 2016-05-12 三菱電機株式会社 Object detection device, parking support device, and object detection method
JP2017027487A (en) * 2015-07-27 2017-02-02 日産自動車株式会社 Information presentation apparatus and information presentation method
WO2021024433A1 (en) * 2019-08-07 2021-02-11 三菱電機株式会社 Obstacle detection device
JPWO2021024433A1 (en) * 2019-08-07 2021-10-28 三菱電機株式会社 Obstacle detector

Similar Documents

Publication Publication Date Title
US8320628B2 (en) Method and system for assisting driver
US9035760B2 (en) Method and device for assisting a driver of a motor vehicle when he is removing his vehicle from a parking space, and motor vehicle
JP2004354326A (en) Surrounding display device for vehicle
JP4019736B2 (en) Obstacle detection device for vehicle
JP3779280B2 (en) Collision prediction device
JP5769163B2 (en) Alarm device
US9047779B2 (en) Vehicle rear view monitoring device
JP5345350B2 (en) Vehicle driving support device
JP4682816B2 (en) Obstacle position detector
JP6089585B2 (en) Obstacle detection device
WO2012147187A1 (en) Periphery vehicle detection device
CN109643495B (en) Periphery monitoring device and periphery monitoring method
US20080122604A1 (en) Driving support apparatus
EP1964719A2 (en) Apparatus and method for monitoring a vehicle&#39;s surroundings
JP4039321B2 (en) Peripheral display device for vehicle
JP2004145479A (en) Device for providing peripheral vehicle information
CN103781696A (en) Driver assistance system for assisting a driver in collision-relevant situations
JP2008204281A (en) Object detection device and inter-vehicle communication system
JP3941770B2 (en) Collision possibility judgment device
JP6394440B2 (en) Dirt determination device
JP4948338B2 (en) Inter-vehicle distance measuring device
JP6697281B2 (en) Object detection device
WO2022062000A1 (en) Driver assistance method based on transparent a-pillar
JP3478149B2 (en) Obstacle display device for vehicles
JP2012234373A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070821