JP4092479B2 - Vehicle driving support device - Google Patents

Vehicle driving support device Download PDF

Info

Publication number
JP4092479B2
JP4092479B2 JP2003001564A JP2003001564A JP4092479B2 JP 4092479 B2 JP4092479 B2 JP 4092479B2 JP 2003001564 A JP2003001564 A JP 2003001564A JP 2003001564 A JP2003001564 A JP 2003001564A JP 4092479 B2 JP4092479 B2 JP 4092479B2
Authority
JP
Japan
Prior art keywords
vehicle
image
obstacle
display
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003001564A
Other languages
Japanese (ja)
Other versions
JP2004213489A (en
Inventor
吉孝 上村
隆資 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003001564A priority Critical patent/JP4092479B2/en
Publication of JP2004213489A publication Critical patent/JP2004213489A/en
Application granted granted Critical
Publication of JP4092479B2 publication Critical patent/JP4092479B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自車両周囲の障害物の視認を補助して車両の走行を支援する車両用運転支援装置であって、特に駐車の際に有効な車両用運転支援装置に関する。
【0002】
【従来の技術】
従来、この主の運転支援装置としては、例えば特許文献1に記載されているようなものがある。この運転支援装置は、自車両に設置された複数台のカメラを用いて車外を撮像し、その複数のカメラからの入力画像を、特定の仮想視点からみた画像に視点変換すると共に合成し、その合成画像をモニタ装置に表示する方式のものであって、上記画像合成の際に、障害物たる立体物付近で合成画像が不連続となるように合成処理を行うことで、運転者に対して、この不連続部分から立体物の位置を推定させ、これによって、運転者による障害物の視認を補助しようとするものである。
【0003】
【特許文献1】
特開2002−166802号公報
【0004】
【発明が解決しようとする課題】
しかし、画像を立体物付近で不連続となるように合成するため、その合成画像を見た運転者は、表示画像中の不連続部分に対し違和感を感じる。
カメラからの入力画像に対し視点変換処理を行うと画像内に表示される障害物が歪んで表示される場合があるが、障害物内の模様が歪んで表示されることによっても、運転者に違和感を与える。
【0005】
また、障害物となる立体物付近で不連続面を作成するために、複数のカメラからの画像を合成する構成を採用せざるを得ず、必ず複数台のカメラを必要とするという問題もある。
本発明は、上記のような点に着目したもので、不要な表示情報を運転者に提示しないことで、運転者に与える違和感を抑えることが可能な車両用運転支援装置を提供することを課題としている。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明は、自車両に設置された撮像装置からの入力画像を、特定の仮想視点からの画像に視点変換処理を行い、その視点変換した画像を画像表示手段に表示して視界の補助を行う車両用運転支援装置であって、
上記視点変換処理後の画像内の上記入力画像に含まれていた障害物像にマスキング処理を施し、上記画像表示手段への障害物の表示を、その外周輪郭位置のみが認識可能な状態にすることを特徴とするものである。そして、上記障害物が車両と判定した場合には、上記入力画像に含まれていた車体表示部分についてマスキング処理を行い、上記入力画像に含まれていた車輪表示部分については、その少なくとも一部をマスキング処理から除外することを特徴とするものである。
【0007】
本発明によれば、入力画像に対して視点変換処理を行って、例えば運転者が認識しやすい画像に変換する際に、画像中の障害物が歪んで表示されることもあるが、その障害物内の情報がマスキングされて運転者には提示されないことで、上記歪による運転者への違和感を軽減することが可能となる。
また、本発明によれば、障害物が車両の場合には、表示されている車輪部分についてマスキング処理の対象から除外するようにすることで、多少歪んで表示されても、運転者に余り違和感を与えない車輪部分のみを表示することができ、停車した際の自車両に最も接近する部分の位置を正確に表示できる。
【0008】
【発明の実施の形態】
次に、本発明の実施形態について図面を参照しつつ説明する。
図1に、本実施形態の車両用運転支援装置の概略構成図を示す。
図中、符号1は、自車両の車体であって、その車体1の後部上側部分に、撮像装置を構成するCCDカメラ2が設置されている。該CCDカメラ2は、車外である車両後側位置における自車両周囲部分を撮像し、撮像した画像情報をアシストコントローラ3に出力する。また、車内には、画像表示手段を構成するモニタ4が設置されている。
【0009】
また、車体1の両側部には、それぞれ測距手段を構成する測距センサ5が設置されている。測距センサ5は、車両周囲である車両側方に位置する障害物までの距離及び当該測距センサ5に対する障害物の方向(角度)を検出する。測距センサ5としては、超音波、マイクロ波、ミリ波、光などを放射し、その反射波を受信するまでの往復時間を測定して距離を測定するものや、三角測量の原理を利用したものなどが例示できる。
【0010】
また、車両には、ステアリングホイールの舵角を検出する操舵センサ6、車輪速を検出する車輪速センサ7、及びシフトレバーのシフト位置を検出するシフト位置検出センサ8が設けられている。
また、運転席近傍には、駐車の際に後方視認の支援を必要とするか否かを指示するための駐車アシストスイッチ9、及び、後方視認の画像に対して視点変換をするか否かの視点変換スイッチ10を備え、各スイッチ9、10からの信号は、アシストコントローラ3に出力される。
【0011】
アシストコントローラ3は、コントローラ本体部3A、自社両位置把握処理部3B、及び障害物地図作成手段を構成する周囲地図作成部3Cを備える。
自社両位置把握処理部3Bは、コントローラ本体部3Aからの指令によって作動を開始し、作動開始時における、自車両の位置を原点とするグローバル座標を設定し、所定サンプリング時間毎に、上記操舵センサ6、車輪速センサ7からの検出信号に基づき自車両の上記グローバル座標における位置及び方向を求めて、メモリに記憶する。
【0012】
また、周囲地図作成部3Cでは、図2に示す処理が行われる。すなわち、先ずステップS200にて、測距センサ5をONとして当該測距センサ5による検出を開始してステップS210に移行する。
ステップS210では、左右の測距センサ5からの信号に基づき、自車両位置から所定距離内において、自車両側方に駐車車両などの障害物があるか否かを判定し、障害物があると判定した場合にはステップS220に移行し、障害物がないと判定した場合にはステップS230に移行する。
【0013】
ステップS220では、測距センサ5からの信号に基づき、自車両と障害物との間の距離や向き関係を求め、自社両位置把握処理部3Bで算出したそのときの自車両の位置及び方向の情報に基づき、その障害物位置がグローバル座標上のどこに存在するかを特定して、メモリに記憶した後に、ステップS230に移行する。
【0014】
ステップS230では、シフト位置センサからの信号に基づき、シフト位置が「R」か否かを、つまり車両が後進走行可能な状態に切り替わったか否かを判定し、シフト位置が「R」の場合には、ステップS240に移行して終了処理を行うが、シフト位置が「R」で無い場合には、上記ステップS210に戻って、上述の障害物の検出を繰り返す。
【0015】
ここで、上記障害物位置の検出処理は、ほぼ所定のサンプリング時間毎に実施されるので、例えば図3のように、自車両の前進走行方向左側に複数の駐車車両が並列して存在する場合には、各駐車車両における自車側面に対向した面部分(図3では駐車車両の前面部分)について、自車両の走行方向に沿って複数点、障害物位置として検出される。図中、符号Pが障害物位置を示す。
【0016】
ステップS240では、図3(b)のように、検出された複数の障害物位置(グローバル座標での座標点)に対し続計処理を行ってグルーピング化を行い、つまり、各塊の各障害物毎に障害物位置をグルーピング化し、そのグルーピング化した各障害物位置群にごとに、それぞれ最小二乗法などによって直線近似して各障害物の対向面位置を特定した後、処理を終了して復帰する。
【0017】
なお、障害物が駐車車両の場合には、図3(b)のように、上記求めた各直線は、駐車車両面の位置(例えば前面位置)を表し、その線分は駐車車両の車幅を表している。また、駐車場への駐車を想定すると、走行する自車両と対向する障害物は、通常、駐車車両や塀・壁などであるので、通常、上記障害物の対向面は直線近似が可能である。もっとも、障害物における自車両と対向する面が、所定曲率以上の曲面となっているために直線近似が不能と判定した場合には、その部分については、例えば検出した障害物位置をプロットすると共に隣り合う障害物位置間を結ぶようにして対向面位置を特定させておけばよい。
【0018】
また、コントローラ本体部3Aは、上記駐車アシストスイッチ9からの作動信号を入力すると起動して、図4に示す処理を行う。
すなわち、まず、ステップS5にて、上記自社両位置把握処理部3Bを起動して、運転支援処理中においては、設定したグローバル座標系における自車両の位置・向きの把握を常時可能な状態となるようにして、ステップS10に移行する。
【0019】
ステップS10では、上記周囲地図作成部3Cを起動して周囲地図データを作成した後に、ステップS20に移行する。
ステップS20では、シフト位置検出手段の信号に基づきシフト位置が「R」か否かを判定し、シフト位置が「R」で無ければステップS120に移行する。一方、シフトレバーの位置が「R」と判定すれば、ステップS30に移行する。
【0020】
ステップS30では、カメラ2が撮像した画像を入力した後にステップS40に移行し、ステップS40にて、視点変換スイッチがオンか否かを判定し、視点変換スイッチがオフの場合には、ステップS50に移行して、上記カメラ2からの入力画像をそのままモニタ4に表示してステップS120に移行する。
一方、ステップS40で視点変換スイッチがオンと判定されるとステップS60に移行して、当該ステップS60にて、カメラ2からの入力画像に視点変換処理を施し、図5に示すように、車両後部側上方位置に設定した仮想視点から垂直下方に眺めた状態の画像に変換し、もって、駐車のためなどに車両を後進走行させる際に、運転者が車両後方の状況を認識しやすい画像(後方の距離感が掴み易い画像)にして、ステップS70に移行する。上記ステップS60は、視点変換処理手段を構成する。
【0021】
ステップS70では、上記視点変換した画像に対し、自車両の位置をイラスト表示してステップS80に移行する。
この処理は、仮想視点から実際に撮像した画像には、自車両の屋根部が映るはずであるが、車両後方に設置したカメラ2では自車両の屋根部を撮像できず、視点変換した後の画像には自車両の屋根部が表示されないことを考慮したものである。自車両後方部位置をイラスト表示することで、モニタ4表示における自車両の位置を特定させるものである。自車両のイラストの大きさに関しては、自車両の幅および長さ共に数センチ余裕を持たせたサイズでイラストしておく。
【0022】
ステップS80では、上記視点変換後の画像内に障害物(主として駐車車両)があるか否かを判定し、障害物表示が無い場合には、ステップS110に移行し、障害物表示がある場合には、ステップS90に移行する。
ステップS90では、上記画像入力時における自車両の位置および向きと、上記作成した周囲地図データに基づき、直線近似した障害物位置を上記画像上に太点線でプロットしてステップS100に移行する。ステップS100とステップS110は、補正手段を構成する。
【0023】
ステップS100では、画像上の障害物に対して公知のマスキング処理を施して、その外周輪郭だけが視認できるように、つまり障害物内の表示情報を消すように、その外周輪郭内を1色でべた塗りしたような表示に変換した後にステップS110に移行する。ステップS100は、マスキング手段を構成する。
この処理で、各障害物における外周輪郭内にある歪んだ模様等が視認不可な表示状態となる。
【0024】
ここで、本実施形態では、障害物の面位置に沿った上記太点線位置に近似する、障害物の外周輪郭の辺部分については、上記太点線位置を優先するように、当該外周輪郭を補正した後に、つまり当該太点線位置を障害物の外周輪郭位置と見なして上記マスキング処理を施す。
ステップS110では、上記各種の処理を施した画像をモニタ4に表示する画像としてモニタ4に出力してステップS120に移行する。これによって、視点変換スイッチがオフであれば、そのままの画像が、視点変換スイッチがオンであれば、上記各種の変換処理が行われた後の画像が、モニタ4上に表示される。
【0025】
ステップS120では、シフト位置が「P」か否かを判定し、「P」と判定した場合、つまり駐車処理が終了したことを検出した場合には、ステップS130に移行して、車両後方の視認を補助する運転支援処理の終了処理をしたのち、アシスト処理を停止する。終了処理としては、例えば上記自社両位置把握処理部3Bに作動停止指令を出力するなどである。
【0026】
一方、シフトレバーの位置が「P」でない場合には、ステップS20に移行して、上記処理を繰り返すことで、所定サイクリングタイム毎にモニタ4に表示される画像が切り替わる。
次に、上記運転支援装置の動作や作用・効果などについて説明する。
以下に説明する例は、複数台の車両が駐車している駐車場に自車両を駐車する場合である。
【0027】
自車両が駐車場に進入して、運転者が、駐車アシストを利用すると考えて駐車アシストスイッチ9をオンにすると、グローバル座標を設定して自車両の位置を把握すると共に、自車両の前進走行中に、周囲地図データ作成のために、車両周囲の存在した障害物(主として駐車車両)における対向する面位置が取得され、シフト位置が「R」に変更された時点で、上記複数の障害物検出データに基づき、所定のグローバル座標に対する周辺地図データが作成される。
【0028】
続いて、車両が駐車のために上記シフトレバーが「R」となっている間、つまり車両が後進走行が可能な状態及び実際に後進走行している状態では、後部のカメラ2で車両後方が撮影され、車内のモニタ4にその画像が表示されて、車両後部の後部視認を補助して運転を支援する。
このとき、運転者が、後方の距離感が把握しにくいと感じて、視点変換スイッチをONにした場合には、上記カメラ2が撮像した画像を、車両後部上方の仮想視点から下方を見た画像に変換する。このとき、駐車車両などの障害物像が大きく歪んでしまう。これは、単一のカメラ2では距離・高さが判断できないためである。
【0029】
これに対し、本実施形態では、上記障害物像については、外周輪郭部分の情報だけにすべく、その外周輪郭部分内を1色でべた塗りしたような表示に変換して、障害物情報をモニタ4に表示させる。
これによって、モニタ4を見る運転者に対して、障害物が歪んで表示されることによる違和感を軽減することができる。また、障害物像内の歪んだ模様を不表示とすることで、つまり、不要な情報をモニタ4に表示することが無いため、自車両と障害物の距離などが分かりやすくなるなど、より運転者が車両後方の障害物の視認が行い易くなる。
【0030】
また、使用するカメラ2も1台だけで済む。勿論複数台使用しても構わない。さらに、上記周辺地図データを参照することで、図7、図8のように、障害物における、後退する車両後部に近い辺の位置が補正されることで、視点変換で画像内の障害物に歪が発生していても、少なくとも補正された部分ついては障害物の位置が適正化される。
【0031】
また、上記仮想視点から撮像した画像には、図6のように、自車両の屋根部が映るはずであるが、車両後方に設置したカメラ2では自車両の屋根部を撮像できず、視点変換した際、自車両の屋根部が映らないが、図7のように、自車両後方部をイラストしてモニタ4に表示することで、障害物と後退する自車両後部との相対位置関係の把握も容易となる。
【0032】
このとき、自車両のイラストの大きさについて、自車両の幅及び長さ共に数センチ余裕を持たせた寸法とすることで、自車両と障害物との衝突をその分避け易くなる。
なお、カメラ2の設置位置などから、自車両のイラストの位置を容易に特定して表示することは可能である。
【0033】
そして、駐車操作が終了してシフトレバーが「P」つまりパーキングとなったら、上記処理を止める。
ここで、上記駐車動作中に、シフトレバーが「R」から「D」などの前進走行に一時的に走行状態が変更された場合には、車両前進走行状態では、上記運転支援は不要であるので、モニタ4への後方の画像表示も一時的に不表示とする。もちろん、一時的な前進走行時にもモニタ4表示をするようにしても良いが、前進走行時には、自車両前方の画像を表示する場合もある。
【0034】
また、障害物が車両の場合には、表示されている車輪部分について上記マスキング処理の対象から除外するようにしても良い。すなわち、画像中の障害物から駐車車両を抽出し、抽出した駐車車両から、表示されている車輪部分を上記マスキング対象から除外してマスキング処理を行う。ここで、車輪については、多少歪んで表示されても、運転者に余り違和感を与えないと思われる。なお、上記マスキング処理からの除外部分は、上記表示されている車輪部分の一部だけ(例えば外周輪郭近傍の部分だけ)であっても良い。
【0035】
このように、車輪部分をマスキングしないことで、停車した際の自車両に最も接近する部分の位置を正確に表示することが可能となる。
なお、上記実施形態では、自車両が駐車するスペースの両側に駐車車両がある場合の例であるが、車庫内などに駐車する場合には、自車両が駐車するスペースの両側の障害物は、壁や塀などになる。
【0036】
また、上記実施形態では、自車両が駐車する場合について説明しているが、本運転支援装置の適用は、これに限定されるわけではない。要は、自車両が後進走行する場合であれば、適用可能である。
また、上記実施形態では、周辺地図データを作成する場合を例示しているが、周辺地図データを作ることなく、単に視点変換した画像中の障害物に対して上記マスキング処理を行うような装置構成としても良い。
また、上記実施形態では、後進走行時の後方視野の補助による運転支援を想定したシステムを例に挙げているが、前進走行時の前方視野の補助による運転支援に適用しても構わない。
【図面の簡単な説明】
【図1】本発明に基づく実施形態に係る装置構成を示す概略図である。
【図2】本発明に基づく実施形態に係る周囲地図作成部の処理を示す図である。
【図3】本発明に基づく実施形態に係る周囲地図作成の処理を説明する図であり、(a)は自車両と障害物との関係を、(b)はグローバル座標系における障害位置を示す図である。
【図4】本発明に基づく実施形態に係るコントローラ本体部の処理を示す図である。
【図5】本発明に基づく実施形態に係る仮想視点を説明する図である。
【図6】仮想視点から撮像したとした場合の図である。
【図7】視点変換した場合の図である。
【図8】マスキング後の画像を示す図である。
【符号の説明】
1 車体
2 CCDカメラ(撮像装置)
3 アシストコントローラ
3A コントローラ本体部
3B 自社両位置把握処理部
3C 周囲地図作成部
4 モニタ
5 測距センサ(測距手段)
6 操舵センサ
7 車輪速センサ
8 シフト位置検出センサ
9 駐車アシストスイッチ
10 視点変換スイッチ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicular driving support apparatus that assists in driving a vehicle by assisting visual recognition of obstacles around the host vehicle, and more particularly to a vehicular driving support apparatus that is effective in parking.
[0002]
[Prior art]
Conventionally, as this main driving assistance device, there is one as described in Patent Document 1, for example. This driving support device captures the outside of the vehicle using a plurality of cameras installed in the host vehicle, converts the input image from the plurality of cameras into an image viewed from a specific virtual viewpoint, combines the images, A method of displaying a composite image on a monitor device, and performing composite processing so that the composite image is discontinuous in the vicinity of a three-dimensional object that is an obstacle at the time of the above image composition, to the driver The position of the three-dimensional object is estimated from this discontinuous portion, thereby assisting the driver to visually recognize the obstacle.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 2002-166802
[Problems to be solved by the invention]
However, since the images are synthesized so as to be discontinuous near the three-dimensional object, the driver who sees the synthesized image feels uncomfortable with the discontinuous portions in the display image.
When the viewpoint conversion process is performed on the input image from the camera, the obstacle displayed in the image may be displayed in a distorted manner. Gives a sense of incongruity.
[0005]
In addition, in order to create a discontinuous surface near a three-dimensional object that becomes an obstacle, there is a problem that a configuration in which images from a plurality of cameras are combined must be employed, and a plurality of cameras are necessarily required. .
The present invention focuses on the above points, and it is an object of the present invention to provide a vehicle driving support device that can suppress a sense of discomfort given to the driver by not presenting unnecessary display information to the driver. It is said.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention performs viewpoint conversion processing on an input image from an imaging device installed in the own vehicle to an image from a specific virtual viewpoint, and uses the image converted from the viewpoint as an image display means. A vehicle driving support device for displaying and assisting visibility,
The obstacle image included in the input image in the image after the viewpoint conversion process is subjected to masking processing so that the obstacle display on the image display means can be recognized only by the outer peripheral contour position. It is characterized by this. When the obstacle is determined to be a vehicle, the vehicle body display portion included in the input image is masked, and at least a portion of the wheel display portion included in the input image is processed. It is characterized by being excluded from the masking process.
[0007]
According to the present invention, when the viewpoint conversion process is performed on the input image to convert the image into an image that can be easily recognized by the driver, for example, the obstacle in the image may be distorted and displayed. Since the information in the object is masked and is not presented to the driver, it is possible to reduce a sense of discomfort to the driver due to the distortion.
Further, according to the present invention, when the obstacle is a vehicle, the displayed wheel portion is excluded from the masking process target, so that the driver feels a little uncomfortable even if the display is slightly distorted. It is possible to display only the wheel portion that does not give the vehicle, and to accurately display the position of the portion that is closest to the host vehicle when the vehicle is stopped.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
In FIG. 1, the schematic block diagram of the driving assistance device for vehicles of this embodiment is shown.
In the figure, reference numeral 1 denotes a vehicle body of the host vehicle, and a CCD camera 2 constituting an imaging device is installed on the rear upper part of the vehicle body 1. The CCD camera 2 captures an image of a portion around the host vehicle at a vehicle rear side position outside the vehicle, and outputs the captured image information to the assist controller 3. A monitor 4 constituting image display means is installed in the vehicle.
[0009]
Further, distance measuring sensors 5 constituting distance measuring means are installed on both sides of the vehicle body 1. The distance measuring sensor 5 detects the distance to the obstacle located on the side of the vehicle around the vehicle and the direction (angle) of the obstacle with respect to the distance measuring sensor 5. The distance measuring sensor 5 radiates ultrasonic waves, microwaves, millimeter waves, light, etc., and measures the distance by measuring the round trip time until the reflected wave is received, or uses the principle of triangulation The thing etc. can be illustrated.
[0010]
The vehicle is also provided with a steering sensor 6 that detects the steering angle of the steering wheel, a wheel speed sensor 7 that detects the wheel speed, and a shift position detection sensor 8 that detects the shift position of the shift lever.
Further, in the vicinity of the driver's seat, a parking assist switch 9 for instructing whether or not assistance for rearward visual recognition is required at the time of parking, and whether or not the viewpoint conversion is performed for the rearward visual recognition image. A viewpoint conversion switch 10 is provided, and signals from the switches 9 and 10 are output to the assist controller 3.
[0011]
The assist controller 3 includes a controller main body 3A, an in-house both-position grasping processing unit 3B, and a surrounding map creating unit 3C constituting obstacle map creating means.
The in-house both position grasping processing unit 3B starts the operation in response to a command from the controller body 3A, sets global coordinates with the position of the host vehicle as the origin at the start of the operation, and performs the steering sensor every predetermined sampling time. 6. Based on the detection signal from the wheel speed sensor 7, the position and direction of the host vehicle in the global coordinates are obtained and stored in the memory.
[0012]
In the surrounding map creation unit 3C, the process shown in FIG. 2 is performed. That is, first in step S200, the distance measuring sensor 5 is turned on and detection by the distance measuring sensor 5 is started, and the process proceeds to step S210.
In step S210, based on the signals from the left and right distance measuring sensors 5, it is determined whether there is an obstacle such as a parked vehicle on the side of the own vehicle within a predetermined distance from the own vehicle position. When it determines, it transfers to step S220, and when it determines with there being no obstruction, it transfers to step S230.
[0013]
In step S220, the distance and orientation relationship between the host vehicle and the obstacle is obtained based on the signal from the distance measuring sensor 5, and the position and direction of the host vehicle at that time calculated by the in-house both position grasping processing unit 3B are calculated. Based on the information, the location of the obstacle position on the global coordinate is specified and stored in the memory, and then the process proceeds to step S230.
[0014]
In step S230, based on the signal from the shift position sensor, it is determined whether or not the shift position is “R”, that is, whether or not the vehicle has been switched to a state in which the vehicle can travel backward, and when the shift position is “R”. Shifts to step S240 to perform end processing. However, if the shift position is not “R”, the process returns to step S210 to repeat the above-described obstacle detection.
[0015]
Here, since the obstacle position detection process is performed at almost predetermined sampling times, for example, as shown in FIG. 3, a plurality of parked vehicles exist in parallel on the left side in the forward traveling direction of the host vehicle. First, a plurality of points along the traveling direction of the own vehicle are detected as obstacle positions with respect to the surface portion (the front portion of the parked vehicle in FIG. 3) facing the side surface of the own vehicle in each parked vehicle. In the figure, the symbol P indicates an obstacle position.
[0016]
In step S240, as shown in FIG. 3B, grouping is performed by performing continuation processing on a plurality of detected obstacle positions (coordinate points in global coordinates), that is, each obstacle in each block. Obstacle positions are grouped every time, and each grouped obstacle position group is linearly approximated by the least squares method, etc., to identify the opposing surface position of each obstacle, and then the process ends and returns. To do.
[0017]
When the obstacle is a parked vehicle, as shown in FIG. 3B, each of the obtained straight lines represents the position of the parked vehicle surface (for example, the front surface position), and the line segment represents the width of the parked vehicle. Represents. Assuming parking in a parking lot, the obstacle facing the traveling vehicle is usually a parked vehicle, a fence, a wall, etc., so the facing surface of the obstacle can usually be linearly approximated. . However, if it is determined that a straight line approximation is impossible because the surface of the obstacle facing the host vehicle is a curved surface with a predetermined curvature or more, for example, the detected obstacle position is plotted for that portion. What is necessary is just to make an opposing surface position identify so that adjacent obstacle positions may be tied.
[0018]
Further, the controller body 3A is activated when an operation signal is input from the parking assist switch 9, and performs the process shown in FIG.
That is, first, in step S5, the in-house both-position grasp processing unit 3B is activated, and during the driving support process, it is possible to always grasp the position and orientation of the host vehicle in the set global coordinate system. In this way, the process proceeds to step S10.
[0019]
In step S10, after the surrounding map creation unit 3C is activated to create surrounding map data, the process proceeds to step S20.
In step S20, it is determined whether or not the shift position is “R” based on the signal from the shift position detection means. If the shift position is not “R”, the process proceeds to step S120. On the other hand, if it is determined that the position of the shift lever is “R”, the process proceeds to step S30.
[0020]
In step S30, after the image captured by the camera 2 is input, the process proceeds to step S40. In step S40, it is determined whether the viewpoint conversion switch is on. If the viewpoint conversion switch is off, the process proceeds to step S50. In step S120, the input image from the camera 2 is displayed on the monitor 4 as it is.
On the other hand, if it is determined in step S40 that the viewpoint conversion switch is on, the process proceeds to step S60, where the viewpoint conversion process is performed on the input image from the camera 2 in step S60, and as shown in FIG. The image is converted to an image viewed vertically downward from the virtual viewpoint set at the upper side position, so that the driver can easily recognize the situation behind the vehicle when moving the vehicle backward for parking, etc. ), And the process proceeds to step S70. Step S60 constitutes viewpoint conversion processing means.
[0021]
In step S70, the position of the host vehicle is displayed as an illustration for the image whose viewpoint has been changed, and the process proceeds to step S80.
In this process, the roof portion of the host vehicle should be reflected in the image actually captured from the virtual viewpoint, but the camera 2 installed behind the vehicle cannot capture the roof portion of the host vehicle, and after the viewpoint is converted. This is because the roof of the vehicle is not displayed in the image. The position of the own vehicle in the monitor 4 display is specified by displaying the position of the rear portion of the own vehicle as an illustration. Regarding the size of the illustration of the own vehicle, the width and length of the own vehicle are illustrated in a size that allows a margin of several centimeters.
[0022]
In step S80, it is determined whether or not there is an obstacle (mainly a parked vehicle) in the image after the viewpoint conversion. If there is no obstacle display, the process proceeds to step S110, and there is an obstacle display. Shifts to Step S90.
In step S90, the obstacle position approximated by a straight line is plotted on the image with a thick dotted line based on the position and orientation of the vehicle at the time of image input and the generated surrounding map data, and the process proceeds to step S100. Steps S100 and S110 constitute correction means.
[0023]
In step S100, a known masking process is performed on the obstacle on the image so that only the outer contour can be visually recognized, that is, the outer contour of the outer contour is erased with one color so as to erase the display information in the obstacle. After the display is converted to a solid display, the process proceeds to step S110. Step S100 constitutes masking means.
With this process, a distorted pattern or the like in the outer contour of each obstacle is in a display state that cannot be visually recognized.
[0024]
Here, in the present embodiment, for the side portion of the outer periphery contour of the obstacle that approximates the thick dotted line position along the surface position of the obstacle, the outer periphery contour is corrected so that the thick dotted line position is given priority. After that, the masking process is performed by regarding the position of the thick dotted line as the outer peripheral contour position of the obstacle.
In step S110, the image subjected to the above-described various processes is output to the monitor 4 as an image to be displayed on the monitor 4, and the process proceeds to step S120. As a result, if the viewpoint conversion switch is off, the image as it is is displayed on the monitor 4, and if the viewpoint conversion switch is on, the image after the above-described various conversion processes is displayed on the monitor 4.
[0025]
In step S120, it is determined whether or not the shift position is “P”. If it is determined that the shift position is “P”, that is, if it is detected that the parking process has been completed, the process proceeds to step S130 and the vehicle rear view is visually confirmed. After finishing the driving support process for assisting the vehicle, the assist process is stopped. As the termination process, for example, an operation stop command is output to the above-described both company position grasp processing unit 3B.
[0026]
On the other hand, when the position of the shift lever is not “P”, the process proceeds to step S20, and the above process is repeated to switch the image displayed on the monitor 4 at every predetermined cycling time.
Next, operation | movement, an effect | action, an effect, etc. of the said driving assistance apparatus are demonstrated.
The example described below is a case where the host vehicle is parked in a parking lot where a plurality of vehicles are parked.
[0027]
When the vehicle enters the parking lot and the driver turns on the parking assist switch 9 on the assumption that parking assistance is used, the global coordinates are set to grasp the position of the vehicle, and the vehicle travels forward. In order to create surrounding map data, when the facing surface position of an obstacle (mainly a parked vehicle) around the vehicle is acquired and the shift position is changed to “R”, the plurality of obstacles Based on the detection data, peripheral map data for a predetermined global coordinate is created.
[0028]
Subsequently, while the shift lever is “R” because the vehicle is parked, that is, in a state where the vehicle can travel backward and is actually traveling backward, the rear camera 2 The photograph is taken and the image is displayed on the monitor 4 in the vehicle, assisting the rear view of the rear of the vehicle and assisting driving.
At this time, when the driver feels that it is difficult to grasp the sense of distance behind and turns on the viewpoint conversion switch, the driver viewed the image taken by the camera 2 from the virtual viewpoint above the rear of the vehicle. Convert to image. At this time, an obstacle image of a parked vehicle or the like is greatly distorted. This is because the distance / height cannot be determined by the single camera 2.
[0029]
On the other hand, in the present embodiment, the obstacle image is converted into a display in which the outer periphery contour portion is filled with one color so that only the information of the outer periphery contour portion is displayed, and the obstacle information is It is displayed on the monitor 4.
Thereby, it is possible to reduce a sense of incongruity caused by the obstacle being displayed in a distorted manner for the driver watching the monitor 4. In addition, since the distorted pattern in the obstacle image is not displayed, that is, unnecessary information is not displayed on the monitor 4, the distance between the host vehicle and the obstacle becomes easy to understand, and more driving. It becomes easier for a person to visually recognize an obstacle behind the vehicle.
[0030]
Further, only one camera 2 is used. Of course, multiple units may be used. Furthermore, by referring to the surrounding map data, as shown in FIGS. 7 and 8, the position of the side of the obstacle near the rear of the moving vehicle is corrected, so that the obstacle in the image is converted by the viewpoint conversion. Even if distortion occurs, the position of the obstacle is optimized at least for the corrected portion.
[0031]
In addition, the image captured from the virtual viewpoint as shown in FIG. 6 should show the roof of the own vehicle, but the camera 2 installed behind the vehicle cannot capture the roof of the own vehicle and changes the viewpoint. When you do this, the roof of the host vehicle is not shown, but as shown in FIG. 7, the rear part of the host vehicle is illustrated and displayed on the monitor 4, so that the relative positional relationship between the obstacle and the rear part of the host vehicle that moves backward can be grasped. Is also easier.
[0032]
At this time, the size of the illustration of the host vehicle is set such that both the width and the length of the host vehicle have a margin of several centimeters, thereby making it easier to avoid a collision between the host vehicle and the obstacle.
It is possible to easily specify and display the position of the illustration of the host vehicle from the installation position of the camera 2 or the like.
[0033]
Then, when the parking operation is finished and the shift lever is “P”, that is, parking, the above process is stopped.
Here, when the driving state is temporarily changed from “R” to “D” or the like during the parking operation, the driving assistance is not required in the vehicle forward driving state. Therefore, the rear image display on the monitor 4 is also temporarily hidden. Of course, the monitor 4 may be displayed during temporary forward travel, but an image ahead of the host vehicle may be displayed during forward travel.
[0034]
When the obstacle is a vehicle, the displayed wheel portion may be excluded from the masking process target. That is, a parked vehicle is extracted from the obstacle in the image, and the displayed wheel portion is excluded from the masking target from the extracted parked vehicle, and masking processing is performed. Here, even if the wheels are displayed with some distortion, it seems that the driver does not feel uncomfortable. The part excluded from the masking process may be only a part of the displayed wheel part (for example, only a part near the outer contour).
[0035]
Thus, by not masking the wheel portion, it becomes possible to accurately display the position of the portion closest to the host vehicle when the vehicle is stopped.
In addition, in the said embodiment, although it is an example in case there are parked vehicles on both sides of the space where the host vehicle is parked, obstacles on both sides of the space where the host vehicle is parked when parking in the garage etc. It becomes a wall or a wall.
[0036]
Moreover, although the said embodiment demonstrated the case where the own vehicle parks, application of this driving assistance device is not necessarily limited to this. In short, the present invention is applicable if the host vehicle travels backward.
Moreover, although the case where the surrounding map data is created is illustrated in the above-described embodiment, an apparatus configuration in which the masking process is performed on an obstacle in an image obtained by simply converting the viewpoint without creating the surrounding map data. It is also good.
Moreover, in the said embodiment, although the system which assumed the driving assistance by the assistance of the back visual field at the time of reverse running was mentioned as an example, you may apply to the driving assistance by the assistance of the forward visual field at the time of forward running.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an apparatus configuration according to an embodiment of the present invention.
FIG. 2 is a diagram showing processing of a surrounding map creation unit according to an embodiment based on the present invention.
FIGS. 3A and 3B are diagrams illustrating processing for creating a surrounding map according to the embodiment of the present invention, where FIG. 3A shows the relationship between the host vehicle and the obstacle, and FIG. 3B shows the obstacle position in the global coordinate system. FIG.
FIG. 4 is a diagram showing processing of the controller main body according to the embodiment of the present invention.
FIG. 5 is a diagram for explaining a virtual viewpoint according to an embodiment of the present invention.
FIG. 6 is a diagram when imaging is performed from a virtual viewpoint.
FIG. 7 is a diagram when the viewpoint is changed.
FIG. 8 is a diagram showing an image after masking.
[Explanation of symbols]
1 Car body 2 CCD camera (imaging device)
3 Assist Controller 3A Controller Main Body 3B In-House Both Position Grasping Processing Unit 3C Surrounding Map Creation Unit 4 Monitor 5 Distance Sensor (Ranging Means)
6 Steering sensor 7 Wheel speed sensor 8 Shift position detection sensor 9 Parking assist switch 10 View point conversion switch

Claims (5)

自車両に設置された撮像装置からの入力画像を、特定の仮想視点からの画像に視点変換処理を行い、その視点変換した画像を画像表示手段に表示して視界の補助を行う車両用運転支援装置であって、
上記視点変換処理後の画像内の上記入力画像に含まれていた障害物像にマスキング処理を施し、上記画像表示手段への障害物の表示を、その外周輪郭位置のみが認識可能な状態にし、
上記障害物が車両と判定した場合には、上記入力画像に含まれていた車体表示部分についてマスキング処理を行い、上記入力画像に含まれていた車輪表示部分については、その少なくとも一部をマスキング処理から除外することを特徴とする車両用運転支援装置。
Driving support for a vehicle that performs viewpoint conversion processing on an input image from an imaging device installed in the own vehicle to an image from a specific virtual viewpoint, and displays the viewpoint-converted image on an image display means to assist the driving of the vehicle A device,
Masking the obstacle image included in the input image in the image after the viewpoint conversion processing, and making the display of the obstacle on the image display means into a state where only the outer peripheral contour position can be recognized,
When it is determined that the obstacle is a vehicle, a masking process is performed on the vehicle body display part included in the input image, and at least a part of the wheel display part included in the input image is masked. A driving support apparatus for a vehicle, characterized by being excluded from the above.
自車両に設置されて車外を撮像可能な撮像装置と、撮像装置からの入力画像を特定の仮想視点からの画像に視点変換処理を行う視点変換処理手段と、視点変換処理手段による視点変換後の画像に対し当該画像内の上記入力画像に含まれていた障害物の表示を、その外周輪郭位置のみが認識可能な状態に変換するマスキング手段と、マスキング手段による処理後の画像を表示可能な画像表示手段とを備え、An imaging device that is installed in the host vehicle and can capture the outside of the vehicle, a viewpoint conversion processing unit that performs a viewpoint conversion process on an input image from the imaging device to an image from a specific virtual viewpoint, and a viewpoint converted by the viewpoint conversion processing unit Masking means for converting the display of the obstacle included in the input image in the image into a state where only the outer peripheral contour position can be recognized for the image, and an image capable of displaying the image processed by the masking means Display means,
上記マスキング手段は、障害物が車両と判定した場合には、上記入力画像に含まれていた車体表示部分について処理対象とし、上記入力画像に含まれていた車輪表示部分についてはその少なくとも一部を処理対象から除外することを特徴とする車両用運転支援装置。  When the obstacle is determined to be a vehicle, the masking means sets the vehicle body display portion included in the input image as a processing target, and at least part of the wheel display portion included in the input image. A driving support apparatus for a vehicle, which is excluded from a processing target.
自車両に搭載されて車両周囲の障害物と自車両との相対位置関係を検出する測距手段と、測距手段の検出情報に基づき、障害物位置を同一座標上で表して、障害物の存在状況を表す障害物地図データを作成する障害物地図作成手段とを備え、Ranging means mounted on the host vehicle that detects the relative positional relationship between obstacles around the vehicle and the host vehicle, and based on detection information of the ranging means, the obstacle position is represented on the same coordinates, An obstacle map creating means for creating obstacle map data representing the presence status,
障害物地図作成手段が作成する障害物地図データに基づき、上記視点変換後の画像中の上記入力画像に含まれていた障害物像の外周輪郭を補正する補正手段を備えることを特徴とする請求項2に記載した車両用運転支援装置。  A correction means for correcting an outer contour of an obstacle image included in the input image in the image after the viewpoint conversion based on the obstacle map data created by the obstacle map creation means. Item 3. The vehicle driving support device according to Item 2.
上記障害物地図作成手段は、自車両が前進走行可能状態のときに、障害物地図データを作成するための情報を測距手段から取得することを特徴とする請求項3に記載した車両用運転支援装置。4. The vehicle driving according to claim 3, wherein the obstacle map creating means acquires information for creating obstacle map data from the distance measuring means when the host vehicle is in a forward travelable state. Support device. 上記撮像装置は、車体後部に設置されて自車両後方を撮影可能となっており、少なくとも車両が後進走行可能な状態の場合に、上記画像表示手段への画像表示を行うことを特徴とする請求項2〜請求項4のいずれかに記載した車両用運転支援装置。The image pickup apparatus is installed at a rear part of a vehicle body and can take an image of the rear of the host vehicle, and displays an image on the image display means at least when the vehicle is capable of traveling backward. The vehicle driving support device according to any one of claims 2 to 4.
JP2003001564A 2003-01-07 2003-01-07 Vehicle driving support device Expired - Lifetime JP4092479B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003001564A JP4092479B2 (en) 2003-01-07 2003-01-07 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003001564A JP4092479B2 (en) 2003-01-07 2003-01-07 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2004213489A JP2004213489A (en) 2004-07-29
JP4092479B2 true JP4092479B2 (en) 2008-05-28

Family

ID=32819551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003001564A Expired - Lifetime JP4092479B2 (en) 2003-01-07 2003-01-07 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP4092479B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600760B2 (en) * 2005-06-27 2010-12-15 アイシン精機株式会社 Obstacle detection device
JP4207941B2 (en) * 2005-09-02 2009-01-14 パナソニック株式会社 Image display device and image generation device
JP2007088577A (en) * 2005-09-20 2007-04-05 Denso Corp Vehicle surrounding image processing system
JP4557302B2 (en) * 2006-01-26 2010-10-06 アルパイン株式会社 Vehicle driving support device
JP4969269B2 (en) * 2007-02-21 2012-07-04 アルパイン株式会社 Image processing device
JP5053043B2 (en) 2007-11-09 2012-10-17 アルパイン株式会社 Vehicle peripheral image generation device and vehicle peripheral image distortion correction method
JP5436086B2 (en) 2009-08-03 2014-03-05 アルパイン株式会社 Vehicle periphery image display device and vehicle periphery image display method
JP6561824B2 (en) * 2015-12-18 2019-08-21 株式会社デンソー Display control device
DE102017218090A1 (en) * 2017-10-11 2019-04-11 Robert Bosch Gmbh Method for displaying images of a camera system of a vehicle
JP7121361B2 (en) * 2018-06-29 2022-08-18 国立大学法人金沢大学 Autonomous mobile
JP7110966B2 (en) 2018-12-13 2022-08-02 トヨタ自動車株式会社 Display control device and display control program
JP2022150903A (en) * 2021-03-26 2022-10-07 トヨタ自動車株式会社 Driving support method, driving support device, driving support system, and computer program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381351B2 (en) * 1993-12-24 2003-02-24 日産自動車株式会社 Ambient situation display device for vehicles
JP3395393B2 (en) * 1994-08-05 2003-04-14 日産自動車株式会社 Vehicle periphery display device
JP3445197B2 (en) * 1998-10-08 2003-09-08 松下電器産業株式会社 Driving operation assist device
JP4312883B2 (en) * 1999-06-29 2009-08-12 富士通テン株式会社 Vehicle parking assist device
JP2001341600A (en) * 2000-06-02 2001-12-11 Nissan Motor Co Ltd Parking support device
JP4156181B2 (en) * 2000-07-12 2008-09-24 日産自動車株式会社 Parking assistance device
JP2002240661A (en) * 2001-02-19 2002-08-28 Nissan Motor Co Ltd Parking support device
JP4861574B2 (en) * 2001-03-28 2012-01-25 パナソニック株式会社 Driving assistance device
JP2002316602A (en) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd Pickup image displaying method of onboard camera, and device therefor
JP3606853B2 (en) * 2001-09-07 2005-01-05 松下電器産業株式会社 Vehicle ambient condition display device
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device

Also Published As

Publication number Publication date
JP2004213489A (en) 2004-07-29

Similar Documents

Publication Publication Date Title
JP5003946B2 (en) Parking assistance device
JP4639753B2 (en) Driving assistance device
JP3947375B2 (en) Parking assistance device
EP1355285B1 (en) Image display apparatus and method for automotive vehicle
JP5212748B2 (en) Parking assistance device
EP2017138B1 (en) Parking assistance device and parking assistance method
CN110450717B (en) Parking assist apparatus
JP4914458B2 (en) Vehicle periphery display device
US7363130B2 (en) Parking assist systems, methods, and programs
JP2010183170A (en) Display apparatus for vehicle
JP5251804B2 (en) Driving assistance device
JP5708669B2 (en) Vehicle display device
JP5446139B2 (en) Parking assistance device and parking assistance method
JP5516988B2 (en) Parking assistance device
JP2006273122A (en) Parking brake assistance device
JP4092479B2 (en) Vehicle driving support device
JP5067169B2 (en) Vehicle parking assistance apparatus and image display method
JP5400316B2 (en) Parking assistance device
JP5617396B2 (en) Driving assistance device
US20220309803A1 (en) Image display system
JP5195692B2 (en) Driving assistance device
JP4156181B2 (en) Parking assistance device
JP4677820B2 (en) Predicted course display device and predicted course display method
JP2012061989A (en) Device and method for image processing
JP6961882B2 (en) Parking support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4092479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

EXPY Cancellation because of completion of term