JP2004213489A - Driving support device for vehicle - Google Patents
Driving support device for vehicle Download PDFInfo
- Publication number
- JP2004213489A JP2004213489A JP2003001564A JP2003001564A JP2004213489A JP 2004213489 A JP2004213489 A JP 2004213489A JP 2003001564 A JP2003001564 A JP 2003001564A JP 2003001564 A JP2003001564 A JP 2003001564A JP 2004213489 A JP2004213489 A JP 2004213489A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- obstacle
- viewpoint
- viewpoint conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、自車両周囲の障害物の視認を補助して車両の走行を支援する車両用運転支援装置であって、特に駐車の際に有効な車両用運転支援装置に関する。
【0002】
【従来の技術】
従来、この主の運転支援装置としては、例えば特許文献1に記載されているようなものがある。この運転支援装置は、自車両に設置された複数台のカメラを用いて車外を撮像し、その複数のカメラからの入力画像を、特定の仮想視点からみた画像に視点変換すると共に合成し、その合成画像をモニタ装置に表示する方式のものであって、上記画像合成の際に、障害物たる立体物付近で合成画像が不連続となるように合成処理を行うことで、運転者に対して、この不連続部分から立体物の位置を推定させ、これによって、運転者による障害物の視認を補助しようとするものである。
【0003】
【特許文献1】
特開2002−166802号公報
【0004】
【発明が解決しようとする課題】
しかし、画像を立体物付近で不連続となるように合成するため、その合成画像を見た運転者は、表示画像中の不連続部分に対し違和感を感じる。
カメラからの入力画像に対し視点変換処理を行うと画像内に表示される障害物が歪んで表示される場合があるが、障害物内の模様が歪んで表示されることによっても、運転者に違和感を与える。
【0005】
また、障害物となる立体物付近で不連続面を作成するために、複数のカメラからの画像を合成する構成を採用せざるを得ず、必ず複数台のカメラを必要とするという問題もある。
本発明は、上記のような点に着目したもので、不要な表示情報を運転者に提示しないことで、運転者に与える違和感を抑えることが可能な車両用運転支援装置を提供することを課題としている。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明は、自車両に設置された撮像装置からの入力画像を、特定の仮想視点からの画像に視点変換処理を行い、その視点変換した画像を画像表示手段に表示して視界の補助を行う車両用運転支援装置であって、
上記視点変換処理後の画像内の障害物像にマスキング処理を施し、上記画像表示手段への障害物の表示を、その外周輪郭位置のみが認識可能な状態にすることを特徴とするものである。
【0007】
【発明の効果】
本発明によれば、入力画像に対して視点変換処理を行って、例えば運転者が認識しやすい画像に変換する際に、画像中の障害物が歪んで表示されることもあるが、その障害物内の情報がマスキングされて運転者には提示されないことで、上記歪による運転者への違和感を軽減することが可能となる。
【0008】
【発明の実施の形態】
次に、本発明の実施形態について図面を参照しつつ説明する。
図1に、本実施形態の車両用運転支援装置の概略構成図を示す。
図中、符号1は、自車両の車体であって、その車体1の後部上側部分に、撮像装置を構成するCCDカメラ2が設置されている。該CCDカメラ2は、車外である車両後側位置における自車両周囲部分を撮像し、撮像した画像情報をアシストコントローラ3に出力する。また、車内には、画像表示手段を構成するモニタ4が設置されている。
【0009】
また、車体1の両側部には、それぞれ測距手段を構成する測距センサ5が設置されている。測距センサ5は、車両周囲である車両側方に位置する障害物までの距離及び当該測距センサ5に対する障害物の方向(角度)を検出する。測距センサ5としては、超音波、マイクロ波、ミリ波、光などを放射し、その反射波を受信するまでの往復時間を測定して距離を測定するものや、三角測量の原理を利用したものなどが例示できる。
【0010】
また、車両には、ステアリングホイールの舵角を検出する操舵センサ6、車輪速を検出する車輪速センサ7、及びシフトレバーのシフト位置を検出するシフト位置検出センサ8が設けられている。
また、運転席近傍には、駐車の際に後方視認の支援を必要とするか否かを指示するための駐車アシストスイッチ9、及び、後方視認の画像に対して視点変換をするか否かの視点変換スイッチ10を備え、各スイッチ9、10からの信号は、アシストコントローラ3に出力される。
【0011】
アシストコントローラ3は、コントローラ本体部3A、自社両位置把握処理部3B、及び障害物地図作成手段を構成する周囲地図作成部3Cを備える。
自社両位置把握処理部3Bは、コントローラ本体部3Aからの指令によって作動を開始し、作動開始時における、自車両の位置を原点とするグローバル座標を設定し、所定サンプリング時間毎に、上記操舵センサ6、車輪速センサ7からの検出信号に基づき自車両の上記グローバル座標における位置及び方向を求めて、メモリに記憶する。
【0012】
また、周囲地図作成部3Cでは、図2に示す処理が行われる。すなわち、先ずステップS200にて、測距センサ5をONとして当該測距センサ5による検出を開始してステップS210に移行する。
ステップS210では、左右の測距センサ5からの信号に基づき、自車両位置から所定距離内において、自車両側方に駐車車両などの障害物があるか否かを判定し、障害物があると判定した場合にはステップS220に移行し、障害物がないと判定した場合にはステップS230に移行する。
【0013】
ステップS220では、測距センサ5からの信号に基づき、自車両と障害物との間の距離や向き関係を求め、自社両位置把握処理部3Bで算出したそのときの自車両の位置及び方向の情報に基づき、その障害物位置がグローバル座標上のどこに存在するかを特定して、メモリに記憶した後に、ステップS230に移行する。
【0014】
ステップS230では、シフト位置センサからの信号に基づき、シフト位置が「R」か否かを、つまり車両が後進走行可能な状態に切り替わったか否かを判定し、シフト位置が「R」の場合には、ステップS240に移行して終了処理を行うが、シフト位置が「R」で無い場合には、上記ステップS210に戻って、上述の障害物の検出を繰り返す。
【0015】
ここで、上記障害物位置の検出処理は、ほぼ所定のサンプリング時間毎に実施されるので、例えば図3のように、自車両の前進走行方向左側に複数の駐車車両が並列して存在する場合には、各駐車車両における自車側面に対向した面部分(図3では駐車車両の前面部分)について、自車両の走行方向に沿って複数点、障害物位置として検出される。図中、符号Pが障害物位置を示す。
【0016】
ステップS240では、図3(b)のように、検出された複数の障害物位置(グローバル座標での座標点)に対し続計処理を行ってグルーピング化を行い、つまり、各塊の各障害物毎に障害物位置をグルーピング化し、そのグルーピング化した各障害物位置群にごとに、それぞれ最小二乗法などによって直線近似して各障害物の対向面位置を特定した後、処理を終了して復帰する。
【0017】
なお、障害物が駐車車両の場合には、図3(b)のように、上記求めた各直線は、駐車車両面の位置(例えば前面位置)を表し、その線分は駐車車両の車幅を表している。また、駐車場への駐車を想定すると、走行する自車両と対向する障害物は、通常、駐車車両や塀・壁などであるので、通常、上記障害物の対向面は直線近似が可能である。もっとも、障害物における自車両と対向する面が、所定曲率以上の曲面となっているために直線近似が不能と判定した場合には、その部分については、例えば検出した障害物位置をプロットすると共に隣り合う障害物位置間を結ぶようにして対向面位置を特定させておけばよい。
【0018】
また、コントローラ本体部3Aは、上記駐車アシストスイッチ9からの作動信号を入力すると起動して、図4に示す処理を行う。
すなわち、まず、ステップS5にて、上記自社両位置把握処理部3Bを起動して、運転支援処理中においては、設定したグローバル座標系における自車両の位置・向きの把握を常時可能な状態となるようにして、ステップS10に移行する。
【0019】
ステップS10では、上記周囲地図作成部3Cを起動して周囲地図データを作成した後に、ステップS20に移行する。
ステップS20では、シフト位置検出手段の信号に基づきシフト位置が「R」か否かを判定し、シフト位置が「R」で無ければステップS120に移行する。一方、シフトレバーの位置が「R」と判定すれば、ステップS30に移行する。
【0020】
ステップS30では、カメラ2が撮像した画像を入力した後にステップS40に移行し、ステップS40にて、視点変換スイッチがオンか否かを判定し、視点変換スイッチがオフの場合には、ステップS50に移行して、上記カメラ2からの入力画像をそのままモニタ4に表示してステップS120に移行する。
一方、ステップS40で視点変換スイッチがオンと判定されるとステップS60に移行して、当該ステップS60にて、カメラ2からの入力画像に視点変換処理を施し、図5に示すように、車両後部側上方位置に設定した仮想視点から垂直下方に眺めた状態の画像に変換し、もって、駐車のためなどに車両を後進走行させる際に、運転者が車両後方の状況を認識しやすい画像(後方の距離感が掴み易い画像)にして、ステップS70に移行する。上記ステップS60は、視点変換処理手段を構成する。
【0021】
ステップS70では、上記視点変換した画像に対し、自車両の位置をイラスト表示してステップS80に移行する。
この処理は、仮想視点から実際に撮像した画像には、自車両の屋根部が映るはずであるが、車両後方に設置したカメラ2では自車両の屋根部を撮像できず、視点変換した後の画像には自車両の屋根部が表示されないことを考慮したものである。自車両後方部位置をイラスト表示することで、モニタ4表示における自車両の位置を特定させるものである。自車両のイラストの大きさに関しては、自車両の幅および長さ共に数センチ余裕を持たせたサイズでイラストしておく。
【0022】
ステップS80では、上記視点変換後の画像内に障害物(主として駐車車両)があるか否かを判定し、障害物表示が無い場合には、ステップS110に移行し、障害物表示がある場合には、ステップS90に移行する。
ステップS90では、上記画像入力時における自車両の位置および向きと、上記作成した周囲地図データに基づき、直線近似した障害物位置を上記画像上に太点線でプロットしてステップS100に移行する。ステップS100とステップS110は、補正手段を構成する。
【0023】
ステップS100では、画像上の障害物に対して公知のマスキング処理を施して、その外周輪郭だけが視認できるように、つまり障害物内の表示情報を消すように、その外周輪郭内を1色でべた塗りしたような表示に変換した後にステップS110に移行する。ステップS100は、マスキング手段を構成する。
この処理で、各障害物における外周輪郭内にある歪んだ模様等が視認不可な表示状態となる。
【0024】
ここで、本実施形態では、障害物の面位置に沿った上記太点線位置に近似する、障害物の外周輪郭の辺部分については、上記太点線位置を優先するように、当該外周輪郭を補正した後に、つまり当該太点線位置を障害物の外周輪郭位置と見なして上記マスキング処理を施す。
ステップS110では、上記各種の処理を施した画像をモニタ4に表示する画像としてモニタ4に出力してステップS120に移行する。これによって、視点変換スイッチがオフであれば、そのままの画像が、視点変換スイッチがオンであれば、上記各種の変換処理が行われた後の画像が、モニタ4上に表示される。
【0025】
ステップS120では、シフト位置が「P」か否かを判定し、「P」と判定した場合、つまり駐車処理が終了したことを検出した場合には、ステップS130に移行して、車両後方の視認を補助する運転支援処理の終了処理をしたのち、アシスト処理を停止する。終了処理としては、例えば上記自社両位置把握処理部3Bに作動停止指令を出力するなどである。
【0026】
一方、シフトレバーの位置が「P」でない場合には、ステップS20に移行して、上記処理を繰り返すことで、所定サイクリングタイム毎にモニタ4に表示される画像が切り替わる。
次に、上記運転支援装置の動作や作用・効果などについて説明する。
以下に説明する例は、複数台の車両が駐車している駐車場に自車両を駐車する場合である。
【0027】
自車両が駐車場に進入して、運転者が、駐車アシストを利用すると考えて駐車アシストスイッチ9をオンにすると、グローバル座標を設定して自車両の位置を把握すると共に、自車両の前進走行中に、周囲地図データ作成のために、車両周囲の存在した障害物(主として駐車車両)における対向する面位置が取得され、シフト位置が「R」に変更された時点で、上記複数の障害物検出データに基づき、所定のグローバル座標に対する周辺地図データが作成される。
【0028】
続いて、車両が駐車のために上記シフトレバーが「R」となっている間、つまり車両が後進走行が可能な状態及び実際に後進走行している状態では、後部のカメラ2で車両後方が撮影され、車内のモニタ4にその画像が表示されて、車両後部の後部視認を補助して運転を支援する。
このとき、運転者が、後方の距離感が把握しにくいと感じて、視点変換スイッチをONにした場合には、上記カメラ2が撮像した画像を、車両後部上方の仮想視点から下方を見た画像に変換する。このとき、駐車車両などの障害物像が大きく歪んでしまう。これは、単一のカメラ2では距離・高さが判断できないためである。
【0029】
これに対し、本実施形態では、上記障害物像については、外周輪郭部分の情報だけにすべく、その外周輪郭部分内を1色でべた塗りしたような表示に変換して、障害物情報をモニタ4に表示させる。
これによって、モニタ4を見る運転者に対して、障害物が歪んで表示されることによる違和感を軽減することができる。また、障害物像内の歪んだ模様を不表示とすることで、つまり、不要な情報をモニタ4に表示することが無いため、自車両と障害物の距離などが分かりやすくなるなど、より運転者が車両後方の障害物の視認が行い易くなる。
【0030】
また、使用するカメラ2も1台だけで済む。勿論複数台使用しても構わない。
さらに、上記周辺地図データを参照することで、図7、図8のように、障害物における、後退する車両後部に近い辺の位置が補正されることで、視点変換で画像内の障害物に歪が発生していても、少なくとも補正された部分ついては障害物の位置が適正化される。
【0031】
また、上記仮想視点から撮像した画像には、図6のように、自車両の屋根部が映るはずであるが、車両後方に設置したカメラ2では自車両の屋根部を撮像できず、視点変換した際、自車両の屋根部が映らないが、図7のように、自車両後方部をイラストしてモニタ4に表示することで、障害物と後退する自車両後部との相対位置関係の把握も容易となる。
【0032】
このとき、自車両のイラストの大きさについて、自車両の幅及び長さ共に数センチ余裕を持たせた寸法とすることで、自車両と障害物との衝突をその分避け易くなる。
なお、カメラ2の設置位置などから、自車両のイラストの位置を容易に特定して表示することは可能である。
【0033】
そして、駐車操作が終了してシフトレバーが「P」つまりパーキングとなったら、上記処理を止める。
ここで、上記駐車動作中に、シフトレバーが「R」から「D」などの前進走行に一時的に走行状態が変更された場合には、車両前進走行状態では、上記運転支援は不要であるので、モニタ4への後方の画像表示も一時的に不表示とする。もちろん、一時的な前進走行時にもモニタ4表示をするようにしても良いが、前進走行時には、自車両前方の画像を表示する場合もある。
【0034】
また、障害物が車両の場合には、表示されている車輪部分について上記マスキング処理の対象から除外するようにしても良い。すなわち、画像中の障害物から駐車車両を抽出し、抽出した駐車車両から、表示されている車輪部分を上記マスキング対象から除外してマスキング処理を行う。ここで、車輪については、多少歪んで表示されても、運転者に余り違和感を与えないと思われる。なお、上記マスキング処理からの除外部分は、上記表示されている車輪部分の一部だけ(例えば外周輪郭近傍の部分だけ)であっても良い。
【0035】
このように、車輪部分をマスキングしないことで、停車した際の自車両に最も接近する部分の位置を正確に表示することが可能となる。
なお、上記実施形態では、自車両が駐車するスペースの両側に駐車車両がある場合の例であるが、車庫内などに駐車する場合には、自車両が駐車するスペースの両側の障害物は、壁や塀などになる。
【0036】
また、上記実施形態では、自車両が駐車する場合について説明しているが、本運転支援装置の適用は、これに限定されるわけではない。要は、自車両が後進走行する場合であれば、適用可能である。
また、上記実施形態では、周辺地図データを作成する場合を例示しているが、周辺地図データを作ることなく、単に視点変換した画像中の障害物に対して上記マスキング処理を行うような装置構成としても良い。
また、上記実施形態では、後進走行時の後方視野の補助による運転支援を想定したシステムを例に挙げているが、前進走行時の前方視野の補助による運転支援に適用しても構わない。
【図面の簡単な説明】
【図1】本発明に基づく実施形態に係る装置構成を示す概略図である。
【図2】本発明に基づく実施形態に係る周囲地図作成部の処理を示す図である。
【図3】本発明に基づく実施形態に係る周囲地図作成の処理を説明する図であり、(a)は自車両と障害物との関係を、(b)はグローバル座標系における障害位置を示す図である。
【図4】本発明に基づく実施形態に係るコントローラ本体部の処理を示す図である。
【図5】本発明に基づく実施形態に係る仮想視点を説明する図である。
【図6】仮想視点から撮像したとした場合の図である。
【図7】視点変換した場合の図である。
【図8】マスキング後の画像を示す図である。
【符号の説明】
1 車体
2 CCDカメラ(撮像装置)
3 アシストコントローラ
3A コントローラ本体部
3B 自社両位置把握処理部
3C 周囲地図作成部
4 モニタ
5 測距センサ(測距手段)
6 操舵センサ
7 車輪速センサ
8 シフト位置検出センサ
9 駐車アシストスイッチ
10 視点変換スイッチ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle driving assistance device that assists the traveling of a vehicle by assisting visual recognition of obstacles around the host vehicle, and particularly to a vehicle driving assistance device that is effective when parking.
[0002]
[Prior art]
Conventionally, as this main driving support device, there is a device as described in Patent Document 1, for example. This driving support device captures an image of the outside of the vehicle using a plurality of cameras installed in the vehicle, converts input images from the plurality of cameras into an image viewed from a specific virtual viewpoint, synthesizes the images, and combines the images. This is a method of displaying a synthesized image on a monitor device. At the time of the image synthesis, by performing synthesis processing so that the synthesized image becomes discontinuous near a three-dimensional object as an obstacle, a driver is The position of the three-dimensional object is estimated from the discontinuous portion, thereby trying to assist the driver in visually recognizing the obstacle.
[0003]
[Patent Document 1]
JP-A-2002-166802 [0004]
[Problems to be solved by the invention]
However, since the images are combined so as to be discontinuous in the vicinity of the three-dimensional object, the driver who sees the combined image feels a sense of discomfort with the discontinuous portion in the display image.
When the viewpoint conversion process is performed on the input image from the camera, an obstacle displayed in the image may be distorted and displayed, but the pattern in the obstacle may be distorted and displayed to the driver. Gives a sense of incongruity.
[0005]
In addition, in order to create a discontinuous surface near a three-dimensional object serving as an obstacle, it is necessary to adopt a configuration in which images from a plurality of cameras are combined, and there is also a problem that a plurality of cameras are necessarily required. .
The present invention focuses on the above points, and an object of the present invention is to provide a vehicle driving support device that can suppress a sense of discomfort given to a driver by not presenting unnecessary display information to the driver. And
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention performs an input image from an imaging device installed in the host vehicle, performs a viewpoint conversion process on an image from a specific virtual viewpoint, and displays the converted image on an image display unit. A driving assistance device for a vehicle that displays and assists in the field of view,
A masking process is performed on the obstacle image in the image after the viewpoint conversion process, so that the display of the obstacle on the image display means is in a state where only the outer contour position can be recognized. .
[0007]
【The invention's effect】
According to the present invention, when performing a viewpoint conversion process on an input image, for example, when converting to an image that is easy for a driver to recognize, an obstacle in the image may be distorted and displayed. Since the information in the object is masked and not presented to the driver, it is possible to reduce a sense of discomfort to the driver due to the distortion.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a schematic configuration diagram of a vehicle driving assistance device of the present embodiment.
In the figure, reference numeral 1 denotes a vehicle body of the host vehicle, and a
[0009]
Further, on both sides of the vehicle body 1,
[0010]
Further, the vehicle is provided with a steering sensor 6 for detecting a steering angle of a steering wheel, a wheel speed sensor 7 for detecting a wheel speed, and a shift position detection sensor 8 for detecting a shift position of a shift lever.
Further, in the vicinity of the driver's seat, a parking assist switch 9 for instructing whether or not assistance for rear view is required at the time of parking is provided. A
[0011]
The
The in-house position
[0012]
In the surrounding
In step S210, based on signals from the left and right
[0013]
In step S220, based on the signal from the
[0014]
In step S230, based on the signal from the shift position sensor, it is determined whether or not the shift position is "R", that is, whether or not the vehicle has been switched to a state in which the vehicle can travel in the reverse direction. Moves to step S240 and performs an end process. If the shift position is not “R”, the process returns to step S210 to repeat the above-described obstacle detection.
[0015]
Here, since the obstacle position detection processing is performed substantially at every predetermined sampling time, for example, as shown in FIG. 3, when a plurality of parked vehicles are present in parallel on the left side in the forward traveling direction of the own vehicle. , A plurality of points along the traveling direction of the own vehicle are detected as obstacle positions for a surface portion (the front portion of the parked vehicle in FIG. 3) of each parked vehicle that faces the side of the own vehicle. In the figure, reference symbol P indicates an obstacle position.
[0016]
In step S240, as shown in FIG. 3B, a plurality of detected obstacle positions (coordinate points in global coordinates) are subjected to a summation process to perform grouping. Obstacle positions are grouped for each, and for each of the grouped obstacle position groups, the position of the opposing surface of each obstacle is specified by linear approximation using the least squares method, etc. I do.
[0017]
When the obstacle is a parked vehicle, as shown in FIG. 3B, each of the obtained straight lines represents the position of the parked vehicle surface (for example, the front position), and the line segment is the vehicle width of the parked vehicle. Is represented. Further, assuming parking in a parking lot, the obstacle facing the running own vehicle is usually a parked vehicle, a fence, a wall, or the like, so that the facing surface of the obstacle can be approximated by a straight line. . However, if it is determined that straight-line approximation is not possible because the surface of the obstacle facing the host vehicle is a curved surface having a predetermined curvature or more, for that part, the detected obstacle position is plotted, for example. What is necessary is just to specify the facing surface position so as to connect the adjacent obstacle positions.
[0018]
Further, the controller main unit 3A is activated when an operation signal is input from the parking assist switch 9, and performs the processing shown in FIG.
That is, first, in step S5, the in-house both position
[0019]
In step S10, after the surrounding
In step S20, it is determined whether or not the shift position is "R" based on a signal from the shift position detecting means. If the shift position is not "R", the process proceeds to step S120. On the other hand, if it is determined that the position of the shift lever is "R", the process proceeds to step S30.
[0020]
In step S30, after inputting the image captured by the
On the other hand, if it is determined in step S40 that the viewpoint conversion switch is on, the process proceeds to step S60, in which the input image from the
[0021]
In step S70, the position of the own vehicle is displayed as an illustration with respect to the image subjected to the viewpoint conversion, and the process proceeds to step S80.
In this processing, the roof of the host vehicle should be reflected in the image actually captured from the virtual viewpoint, but the
[0022]
In step S80, it is determined whether there is an obstacle (mainly a parked vehicle) in the image after the viewpoint conversion, and if there is no obstacle display, the process proceeds to step S110. Shifts to step S90.
In step S90, based on the position and orientation of the own vehicle at the time of inputting the image and the created surrounding map data, the obstacle position approximated by a straight line is plotted on the image by a thick dotted line, and the process proceeds to step S100. Step S100 and step S110 constitute a correction unit.
[0023]
In step S100, a known masking process is performed on the obstacle on the image, and the inside of the outer contour is displayed in one color so that only the outer contour can be visually recognized, that is, the display information inside the obstacle is erased. After the display is converted to a solid display, the process proceeds to step S110. Step S100 constitutes a masking means.
By this processing, a distorted pattern or the like in the outer contour of each obstacle is brought into a display state in which the obstacle is invisible.
[0024]
Here, in the present embodiment, for the side portion of the outer peripheral contour of the obstacle that approximates the thick dotted line position along the surface position of the obstacle, the outer peripheral contour is corrected so that the thick dotted line position is prioritized. After that, that is, the thick dotted line position is regarded as the outer peripheral contour position of the obstacle, and the masking process is performed.
In step S110, the image subjected to the various processes is output to the monitor 4 as an image to be displayed on the monitor 4, and the process proceeds to step S120. Thus, if the viewpoint conversion switch is off, the image as it is is displayed on the monitor 4 if the viewpoint conversion switch is on, and the image after the various conversion processes are performed is displayed.
[0025]
In step S120, it is determined whether or not the shift position is “P”. If the shift position is determined to be “P”, that is, if it is detected that the parking process has been completed, the process proceeds to step S130 to visually check the rear of the vehicle. After the end processing of the driving support processing for assisting, the assist processing is stopped. As the end processing, for example, an operation stop command is output to the in-house position
[0026]
On the other hand, when the position of the shift lever is not “P”, the process shifts to step S20, and the image displayed on the monitor 4 is switched every predetermined cycling time by repeating the above processing.
Next, an operation, an operation, an effect, and the like of the driving support device will be described.
The example described below is a case where the host vehicle is parked in a parking lot where a plurality of vehicles are parked.
[0027]
When the own vehicle enters the parking lot and the driver turns on the parking assist switch 9 in consideration of using the parking assist, the global coordinates are set, the position of the own vehicle is grasped, and the own vehicle moves forward. During creation of the surrounding map data, the position of the facing surface of an obstacle (mainly a parked vehicle) around the vehicle is acquired, and when the shift position is changed to “R”, the plurality of obstacles Peripheral map data for predetermined global coordinates is created based on the detection data.
[0028]
Subsequently, while the shift lever is in the “R” position for parking the vehicle, that is, in a state where the vehicle can travel backward and in a state where the vehicle is actually traveling backward, the rear of the vehicle with the
At this time, when the driver feels that it is difficult to grasp the sense of distance behind and turns on the viewpoint conversion switch, the driver views the image captured by the
[0029]
On the other hand, in the present embodiment, the obstacle image is converted into a display in which the inside of the outer peripheral portion is solid-colored with one color so that only the information on the outer peripheral outline portion is displayed, and the obstacle information is converted. It is displayed on the monitor 4.
As a result, the driver looking at the monitor 4 can be less likely to feel discomfort due to the distorted display of the obstacle. In addition, since the distorted pattern in the obstacle image is not displayed, that is, unnecessary information is not displayed on the monitor 4, the distance between the host vehicle and the obstacle can be easily understood, and the driving can be performed more easily. This makes it easier for the user to visually recognize the obstacle behind the vehicle.
[0030]
Also, only one
Further, by referring to the surrounding map data, as shown in FIGS. 7 and 8, the position of the side of the obstacle near the rear part of the retreating vehicle is corrected. Even if distortion occurs, the position of the obstacle is optimized at least for the corrected portion.
[0031]
In addition, the image captured from the virtual viewpoint should show the roof of the own vehicle as shown in FIG. 6, but the
[0032]
At this time, by setting the size of the illustration of the own vehicle to have a margin of several centimeters in both the width and the length of the own vehicle, it is easier to avoid a collision between the own vehicle and an obstacle.
In addition, it is possible to easily specify and display the position of the illustration of the own vehicle from the installation position of the
[0033]
Then, when the parking operation is completed and the shift lever is set to "P", that is, the parking state, the above processing is stopped.
Here, when the traveling state is temporarily changed from the “R” to the forward traveling such as “D” during the parking operation, the driving assistance is unnecessary in the forward traveling state of the vehicle. Therefore, the display of the rear image on the monitor 4 is also temporarily hidden. Of course, the monitor 4 may be displayed even during temporary forward running, but an image in front of the host vehicle may be displayed during forward running.
[0034]
When the obstacle is a vehicle, the displayed wheel portion may be excluded from the masking processing. That is, a parked vehicle is extracted from the obstacles in the image, and a masking process is performed by excluding the displayed wheel portion from the masking target from the extracted parked vehicle. Here, it is considered that even if the wheels are displayed in a slightly distorted state, the driver does not feel uncomfortable. The part excluded from the masking processing may be only a part of the displayed wheel part (for example, only a part near the outer contour).
[0035]
Thus, by not masking the wheel portion, it is possible to accurately display the position of the portion closest to the host vehicle when the vehicle stops.
Note that, in the above embodiment, there is an example in which there are parked vehicles on both sides of the space where the vehicle is parked, but when parking in a garage or the like, obstacles on both sides of the space where the vehicle is parked are: It becomes a wall or a fence.
[0036]
Further, in the above embodiment, the case where the host vehicle is parked is described, but the application of the driving support device is not limited to this. In short, the present invention is applicable as long as the own vehicle travels backward.
Further, in the above-described embodiment, the case where the peripheral map data is created is exemplified. However, an apparatus configuration in which the above-described masking process is simply performed on an obstacle in an image whose viewpoint has been converted without creating the peripheral map data. It is good.
Further, in the above-described embodiment, a system assuming driving assistance by assisting the rear view during backward traveling is taken as an example. However, the present invention may be applied to driving assistance by assisting the front vision during forward traveling.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a device configuration according to an embodiment based on the present invention.
FIG. 2 is a diagram showing a process of a surrounding map creation unit according to the embodiment based on the present invention.
FIGS. 3A and 3B are diagrams illustrating a process of creating a surrounding map according to an embodiment of the present invention, wherein FIG. 3A illustrates a relationship between a host vehicle and an obstacle, and FIG. 3B illustrates an obstacle position in a global coordinate system. FIG.
FIG. 4 is a diagram showing processing of a controller main body according to the embodiment based on the present invention.
FIG. 5 is a diagram illustrating a virtual viewpoint according to the embodiment based on the present invention.
FIG. 6 is a diagram illustrating a case where an image is captured from a virtual viewpoint.
FIG. 7 is a diagram when a viewpoint is changed.
FIG. 8 is a diagram showing an image after masking.
[Explanation of symbols]
1
3 Assist controller 3A Controller
6 steering sensor 7 wheel speed sensor 8 shift position detection sensor 9 parking assist
Claims (7)
上記視点変換処理後の画像内の障害物像にマスキング処理を施し、上記画像表示手段への障害物の表示を、その外周輪郭位置のみが認識可能な状態にすることを特徴とする車両用運転支援装置。Vehicle driving assistance that performs viewpoint conversion processing on an input image from an imaging device installed in the own vehicle to an image from a specific virtual viewpoint, and displays the viewpoint-converted image on image display means to assist the field of view. A device,
A vehicle driving operation, wherein a masking process is performed on an obstacle image in the image after the viewpoint conversion process, so that the display of the obstacle on the image display means is in a state where only the outer contour position can be recognized. Support device.
障害物地図作成手段が作成する障害物地図データに基づき、上記視点変換後の画像中の障害物像の外周輪郭を補正する補正手段を備えることを特徴とする請求項3又は請求項4に記載した車両用運転支援装置。A distance measuring device mounted on the own vehicle to detect a relative positional relationship between the obstacle around the vehicle and the own vehicle; and, based on information detected by the distance measuring device, the position of the obstacle is represented on the same coordinates. Obstacle map creating means for creating obstacle map data representing the presence status,
5. The apparatus according to claim 3, further comprising a correction unit configured to correct an outer peripheral contour of the obstacle image in the image after the viewpoint conversion based on the obstacle map data created by the obstacle map creation unit. 6. Driving assist device for vehicles.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003001564A JP4092479B2 (en) | 2003-01-07 | 2003-01-07 | Vehicle driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003001564A JP4092479B2 (en) | 2003-01-07 | 2003-01-07 | Vehicle driving support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004213489A true JP2004213489A (en) | 2004-07-29 |
JP4092479B2 JP4092479B2 (en) | 2008-05-28 |
Family
ID=32819551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003001564A Expired - Lifetime JP4092479B2 (en) | 2003-01-07 | 2003-01-07 | Vehicle driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4092479B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007026839A1 (en) * | 2005-09-02 | 2007-03-08 | Matsushita Electric Industrial Co., Ltd. | Image display device and image generation device |
JP2007088577A (en) * | 2005-09-20 | 2007-04-05 | Denso Corp | Vehicle surrounding image processing system |
JP2007201748A (en) * | 2006-01-26 | 2007-08-09 | Alpine Electronics Inc | Vehicle driving assistance device |
JP2008205914A (en) * | 2007-02-21 | 2008-09-04 | Alpine Electronics Inc | Image processor |
US7894631B2 (en) * | 2005-06-27 | 2011-02-22 | Aisin Seiki Kabushiki Kaisha | Obstacle detection apparatus |
US8077203B2 (en) | 2007-11-09 | 2011-12-13 | Alpine Electronics, Inc. | Vehicle-periphery image generating apparatus and method of correcting distortion of a vehicle-periphery image |
US8294563B2 (en) | 2009-08-03 | 2012-10-23 | Alpine Electronics, Inc. | Vehicle-surrounding image display apparatus and vehicle-surrounding image display method |
WO2017104768A1 (en) * | 2015-12-18 | 2017-06-22 | 株式会社デンソー | Display control device and display control method |
JP2020004144A (en) * | 2018-06-29 | 2020-01-09 | 国立大学法人金沢大学 | Obstacle map generation device and autonomous mobile body |
JP2020537422A (en) * | 2017-10-11 | 2020-12-17 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | How to depict an image of a vehicle's camera system |
US11151966B2 (en) | 2018-12-13 | 2021-10-19 | Toyota Jidosha Kabushiki Kaisha | Display control apparatus, display control method and storage medium for determining whether or not information of an image needs to be reduced based on vehicle information |
CN115131989A (en) * | 2021-03-26 | 2022-09-30 | 丰田自动车株式会社 | Driving support method, driving support device, driving support system, and recording medium |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07186833A (en) * | 1993-12-24 | 1995-07-25 | Nissan Motor Co Ltd | Surrounding state displaying device for vehicle |
JPH0850699A (en) * | 1994-08-05 | 1996-02-20 | Nissan Motor Co Ltd | Vehicle periphery display device |
JP2000229547A (en) * | 1998-10-08 | 2000-08-22 | Matsushita Electric Ind Co Ltd | Drive operation assisting device and recording medium |
JP2001010427A (en) * | 1999-06-29 | 2001-01-16 | Fujitsu Ten Ltd | Vehicle parking assist device |
JP2001341600A (en) * | 2000-06-02 | 2001-12-11 | Nissan Motor Co Ltd | Parking support device |
JP2002029350A (en) * | 2000-07-12 | 2002-01-29 | Nissan Motor Co Ltd | Device for supporting parking |
JP2002240661A (en) * | 2001-02-19 | 2002-08-28 | Nissan Motor Co Ltd | Parking support device |
JP2002316602A (en) * | 2001-04-24 | 2002-10-29 | Matsushita Electric Ind Co Ltd | Pickup image displaying method of onboard camera, and device therefor |
JP2002359838A (en) * | 2001-03-28 | 2002-12-13 | Matsushita Electric Ind Co Ltd | Device for supporting driving |
JP2003132349A (en) * | 2001-10-24 | 2003-05-09 | Matsushita Electric Ind Co Ltd | Drawing device |
JP2003189293A (en) * | 2001-09-07 | 2003-07-04 | Matsushita Electric Ind Co Ltd | Device for displaying state of surroundings of vehicle and image-providing system |
-
2003
- 2003-01-07 JP JP2003001564A patent/JP4092479B2/en not_active Expired - Lifetime
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07186833A (en) * | 1993-12-24 | 1995-07-25 | Nissan Motor Co Ltd | Surrounding state displaying device for vehicle |
JPH0850699A (en) * | 1994-08-05 | 1996-02-20 | Nissan Motor Co Ltd | Vehicle periphery display device |
JP2000229547A (en) * | 1998-10-08 | 2000-08-22 | Matsushita Electric Ind Co Ltd | Drive operation assisting device and recording medium |
JP2001010427A (en) * | 1999-06-29 | 2001-01-16 | Fujitsu Ten Ltd | Vehicle parking assist device |
JP2001341600A (en) * | 2000-06-02 | 2001-12-11 | Nissan Motor Co Ltd | Parking support device |
JP2002029350A (en) * | 2000-07-12 | 2002-01-29 | Nissan Motor Co Ltd | Device for supporting parking |
JP2002240661A (en) * | 2001-02-19 | 2002-08-28 | Nissan Motor Co Ltd | Parking support device |
JP2002359838A (en) * | 2001-03-28 | 2002-12-13 | Matsushita Electric Ind Co Ltd | Device for supporting driving |
JP2002316602A (en) * | 2001-04-24 | 2002-10-29 | Matsushita Electric Ind Co Ltd | Pickup image displaying method of onboard camera, and device therefor |
JP2003189293A (en) * | 2001-09-07 | 2003-07-04 | Matsushita Electric Ind Co Ltd | Device for displaying state of surroundings of vehicle and image-providing system |
JP2003132349A (en) * | 2001-10-24 | 2003-05-09 | Matsushita Electric Ind Co Ltd | Drawing device |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7894631B2 (en) * | 2005-06-27 | 2011-02-22 | Aisin Seiki Kabushiki Kaisha | Obstacle detection apparatus |
WO2007026839A1 (en) * | 2005-09-02 | 2007-03-08 | Matsushita Electric Industrial Co., Ltd. | Image display device and image generation device |
JP2007088577A (en) * | 2005-09-20 | 2007-04-05 | Denso Corp | Vehicle surrounding image processing system |
JP2007201748A (en) * | 2006-01-26 | 2007-08-09 | Alpine Electronics Inc | Vehicle driving assistance device |
JP4557302B2 (en) * | 2006-01-26 | 2010-10-06 | アルパイン株式会社 | Vehicle driving support device |
US8330816B2 (en) | 2007-02-21 | 2012-12-11 | Alpine Electronics, Inc. | Image processing device |
JP2008205914A (en) * | 2007-02-21 | 2008-09-04 | Alpine Electronics Inc | Image processor |
US8077203B2 (en) | 2007-11-09 | 2011-12-13 | Alpine Electronics, Inc. | Vehicle-periphery image generating apparatus and method of correcting distortion of a vehicle-periphery image |
US8294563B2 (en) | 2009-08-03 | 2012-10-23 | Alpine Electronics, Inc. | Vehicle-surrounding image display apparatus and vehicle-surrounding image display method |
WO2017104768A1 (en) * | 2015-12-18 | 2017-06-22 | 株式会社デンソー | Display control device and display control method |
JP2017112574A (en) * | 2015-12-18 | 2017-06-22 | 株式会社デンソー | Display control device |
JP2020537422A (en) * | 2017-10-11 | 2020-12-17 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | How to depict an image of a vehicle's camera system |
JP7105879B2 (en) | 2017-10-11 | 2022-07-25 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | How to render an image of a vehicle camera system |
JP2020004144A (en) * | 2018-06-29 | 2020-01-09 | 国立大学法人金沢大学 | Obstacle map generation device and autonomous mobile body |
JP7121361B2 (en) | 2018-06-29 | 2022-08-18 | 国立大学法人金沢大学 | Autonomous mobile |
US11151966B2 (en) | 2018-12-13 | 2021-10-19 | Toyota Jidosha Kabushiki Kaisha | Display control apparatus, display control method and storage medium for determining whether or not information of an image needs to be reduced based on vehicle information |
CN115131989A (en) * | 2021-03-26 | 2022-09-30 | 丰田自动车株式会社 | Driving support method, driving support device, driving support system, and recording medium |
CN115131989B (en) * | 2021-03-26 | 2024-04-09 | 丰田自动车株式会社 | Driving support method, driving support device, driving support system, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4092479B2 (en) | 2008-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4412380B2 (en) | Driving support device, driving support method, and computer program | |
JP5003946B2 (en) | Parking assistance device | |
CN107097721B (en) | Driving support device | |
JP5212748B2 (en) | Parking assistance device | |
JP3945467B2 (en) | Vehicle retraction support apparatus and method | |
JP4530060B2 (en) | Parking support apparatus and method | |
JP3494434B2 (en) | Parking assistance device | |
JP5093602B2 (en) | Peripheral recognition support device | |
US20190344828A1 (en) | Parking assist apparatus | |
JP2010183170A (en) | Display apparatus for vehicle | |
JP2008013015A (en) | Vehicle surroundings image producing device and image switching method | |
JP5446139B2 (en) | Parking assistance device and parking assistance method | |
JP2008143430A (en) | Parking support device | |
JP5471141B2 (en) | Parking assistance device and parking assistance method | |
JP5182137B2 (en) | Vehicle periphery display device | |
JP2012076483A (en) | Parking support device | |
CN111867893B (en) | Parking assist apparatus | |
JP2006273122A (en) | Parking brake assistance device | |
JP5516988B2 (en) | Parking assistance device | |
JP2008296639A (en) | Parking support device | |
JP2004213489A (en) | Driving support device for vehicle | |
JP2007126028A (en) | Parking support system | |
WO2010134240A1 (en) | Parking assistance device, parking assistance method, and parking assistance program | |
JP2012176656A (en) | Parking support device | |
JP2009171129A (en) | Parking support device for vehicle and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080218 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4092479 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120314 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |
|
EXPY | Cancellation because of completion of term |