JP2004213489A - Driving support device for vehicle - Google Patents

Driving support device for vehicle Download PDF

Info

Publication number
JP2004213489A
JP2004213489A JP2003001564A JP2003001564A JP2004213489A JP 2004213489 A JP2004213489 A JP 2004213489A JP 2003001564 A JP2003001564 A JP 2003001564A JP 2003001564 A JP2003001564 A JP 2003001564A JP 2004213489 A JP2004213489 A JP 2004213489A
Authority
JP
Japan
Prior art keywords
vehicle
image
obstacle
viewpoint
viewpoint conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003001564A
Other languages
Japanese (ja)
Other versions
JP4092479B2 (en
Inventor
Yoshitaka Kamimura
吉孝 上村
Takashi Sugano
隆資 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003001564A priority Critical patent/JP4092479B2/en
Publication of JP2004213489A publication Critical patent/JP2004213489A/en
Application granted granted Critical
Publication of JP4092479B2 publication Critical patent/JP4092479B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support device for a vehicle capable of suppressing the uncomfortable feeling of a driver by preventing the presentation of unnecessary display information to the driver. <P>SOLUTION: In this driving support device for a vehicle, an input image from an imaging device set in a vehicle is subjected to a visual point conversion process to an image from a specified virtual visual point, and the visual point-converted image is displayed on an image display means to assist the visual field. An obstacle image in the visual point-converted image is subjected to masking process, so that the display of the obstacle on the image display means is set to a state where only its circumferential profile position is recognizable. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、自車両周囲の障害物の視認を補助して車両の走行を支援する車両用運転支援装置であって、特に駐車の際に有効な車両用運転支援装置に関する。
【0002】
【従来の技術】
従来、この主の運転支援装置としては、例えば特許文献1に記載されているようなものがある。この運転支援装置は、自車両に設置された複数台のカメラを用いて車外を撮像し、その複数のカメラからの入力画像を、特定の仮想視点からみた画像に視点変換すると共に合成し、その合成画像をモニタ装置に表示する方式のものであって、上記画像合成の際に、障害物たる立体物付近で合成画像が不連続となるように合成処理を行うことで、運転者に対して、この不連続部分から立体物の位置を推定させ、これによって、運転者による障害物の視認を補助しようとするものである。
【0003】
【特許文献1】
特開2002−166802号公報
【0004】
【発明が解決しようとする課題】
しかし、画像を立体物付近で不連続となるように合成するため、その合成画像を見た運転者は、表示画像中の不連続部分に対し違和感を感じる。
カメラからの入力画像に対し視点変換処理を行うと画像内に表示される障害物が歪んで表示される場合があるが、障害物内の模様が歪んで表示されることによっても、運転者に違和感を与える。
【0005】
また、障害物となる立体物付近で不連続面を作成するために、複数のカメラからの画像を合成する構成を採用せざるを得ず、必ず複数台のカメラを必要とするという問題もある。
本発明は、上記のような点に着目したもので、不要な表示情報を運転者に提示しないことで、運転者に与える違和感を抑えることが可能な車両用運転支援装置を提供することを課題としている。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明は、自車両に設置された撮像装置からの入力画像を、特定の仮想視点からの画像に視点変換処理を行い、その視点変換した画像を画像表示手段に表示して視界の補助を行う車両用運転支援装置であって、
上記視点変換処理後の画像内の障害物像にマスキング処理を施し、上記画像表示手段への障害物の表示を、その外周輪郭位置のみが認識可能な状態にすることを特徴とするものである。
【0007】
【発明の効果】
本発明によれば、入力画像に対して視点変換処理を行って、例えば運転者が認識しやすい画像に変換する際に、画像中の障害物が歪んで表示されることもあるが、その障害物内の情報がマスキングされて運転者には提示されないことで、上記歪による運転者への違和感を軽減することが可能となる。
【0008】
【発明の実施の形態】
次に、本発明の実施形態について図面を参照しつつ説明する。
図1に、本実施形態の車両用運転支援装置の概略構成図を示す。
図中、符号1は、自車両の車体であって、その車体1の後部上側部分に、撮像装置を構成するCCDカメラ2が設置されている。該CCDカメラ2は、車外である車両後側位置における自車両周囲部分を撮像し、撮像した画像情報をアシストコントローラ3に出力する。また、車内には、画像表示手段を構成するモニタ4が設置されている。
【0009】
また、車体1の両側部には、それぞれ測距手段を構成する測距センサ5が設置されている。測距センサ5は、車両周囲である車両側方に位置する障害物までの距離及び当該測距センサ5に対する障害物の方向(角度)を検出する。測距センサ5としては、超音波、マイクロ波、ミリ波、光などを放射し、その反射波を受信するまでの往復時間を測定して距離を測定するものや、三角測量の原理を利用したものなどが例示できる。
【0010】
また、車両には、ステアリングホイールの舵角を検出する操舵センサ6、車輪速を検出する車輪速センサ7、及びシフトレバーのシフト位置を検出するシフト位置検出センサ8が設けられている。
また、運転席近傍には、駐車の際に後方視認の支援を必要とするか否かを指示するための駐車アシストスイッチ9、及び、後方視認の画像に対して視点変換をするか否かの視点変換スイッチ10を備え、各スイッチ9、10からの信号は、アシストコントローラ3に出力される。
【0011】
アシストコントローラ3は、コントローラ本体部3A、自社両位置把握処理部3B、及び障害物地図作成手段を構成する周囲地図作成部3Cを備える。
自社両位置把握処理部3Bは、コントローラ本体部3Aからの指令によって作動を開始し、作動開始時における、自車両の位置を原点とするグローバル座標を設定し、所定サンプリング時間毎に、上記操舵センサ6、車輪速センサ7からの検出信号に基づき自車両の上記グローバル座標における位置及び方向を求めて、メモリに記憶する。
【0012】
また、周囲地図作成部3Cでは、図2に示す処理が行われる。すなわち、先ずステップS200にて、測距センサ5をONとして当該測距センサ5による検出を開始してステップS210に移行する。
ステップS210では、左右の測距センサ5からの信号に基づき、自車両位置から所定距離内において、自車両側方に駐車車両などの障害物があるか否かを判定し、障害物があると判定した場合にはステップS220に移行し、障害物がないと判定した場合にはステップS230に移行する。
【0013】
ステップS220では、測距センサ5からの信号に基づき、自車両と障害物との間の距離や向き関係を求め、自社両位置把握処理部3Bで算出したそのときの自車両の位置及び方向の情報に基づき、その障害物位置がグローバル座標上のどこに存在するかを特定して、メモリに記憶した後に、ステップS230に移行する。
【0014】
ステップS230では、シフト位置センサからの信号に基づき、シフト位置が「R」か否かを、つまり車両が後進走行可能な状態に切り替わったか否かを判定し、シフト位置が「R」の場合には、ステップS240に移行して終了処理を行うが、シフト位置が「R」で無い場合には、上記ステップS210に戻って、上述の障害物の検出を繰り返す。
【0015】
ここで、上記障害物位置の検出処理は、ほぼ所定のサンプリング時間毎に実施されるので、例えば図3のように、自車両の前進走行方向左側に複数の駐車車両が並列して存在する場合には、各駐車車両における自車側面に対向した面部分(図3では駐車車両の前面部分)について、自車両の走行方向に沿って複数点、障害物位置として検出される。図中、符号Pが障害物位置を示す。
【0016】
ステップS240では、図3(b)のように、検出された複数の障害物位置(グローバル座標での座標点)に対し続計処理を行ってグルーピング化を行い、つまり、各塊の各障害物毎に障害物位置をグルーピング化し、そのグルーピング化した各障害物位置群にごとに、それぞれ最小二乗法などによって直線近似して各障害物の対向面位置を特定した後、処理を終了して復帰する。
【0017】
なお、障害物が駐車車両の場合には、図3(b)のように、上記求めた各直線は、駐車車両面の位置(例えば前面位置)を表し、その線分は駐車車両の車幅を表している。また、駐車場への駐車を想定すると、走行する自車両と対向する障害物は、通常、駐車車両や塀・壁などであるので、通常、上記障害物の対向面は直線近似が可能である。もっとも、障害物における自車両と対向する面が、所定曲率以上の曲面となっているために直線近似が不能と判定した場合には、その部分については、例えば検出した障害物位置をプロットすると共に隣り合う障害物位置間を結ぶようにして対向面位置を特定させておけばよい。
【0018】
また、コントローラ本体部3Aは、上記駐車アシストスイッチ9からの作動信号を入力すると起動して、図4に示す処理を行う。
すなわち、まず、ステップS5にて、上記自社両位置把握処理部3Bを起動して、運転支援処理中においては、設定したグローバル座標系における自車両の位置・向きの把握を常時可能な状態となるようにして、ステップS10に移行する。
【0019】
ステップS10では、上記周囲地図作成部3Cを起動して周囲地図データを作成した後に、ステップS20に移行する。
ステップS20では、シフト位置検出手段の信号に基づきシフト位置が「R」か否かを判定し、シフト位置が「R」で無ければステップS120に移行する。一方、シフトレバーの位置が「R」と判定すれば、ステップS30に移行する。
【0020】
ステップS30では、カメラ2が撮像した画像を入力した後にステップS40に移行し、ステップS40にて、視点変換スイッチがオンか否かを判定し、視点変換スイッチがオフの場合には、ステップS50に移行して、上記カメラ2からの入力画像をそのままモニタ4に表示してステップS120に移行する。
一方、ステップS40で視点変換スイッチがオンと判定されるとステップS60に移行して、当該ステップS60にて、カメラ2からの入力画像に視点変換処理を施し、図5に示すように、車両後部側上方位置に設定した仮想視点から垂直下方に眺めた状態の画像に変換し、もって、駐車のためなどに車両を後進走行させる際に、運転者が車両後方の状況を認識しやすい画像(後方の距離感が掴み易い画像)にして、ステップS70に移行する。上記ステップS60は、視点変換処理手段を構成する。
【0021】
ステップS70では、上記視点変換した画像に対し、自車両の位置をイラスト表示してステップS80に移行する。
この処理は、仮想視点から実際に撮像した画像には、自車両の屋根部が映るはずであるが、車両後方に設置したカメラ2では自車両の屋根部を撮像できず、視点変換した後の画像には自車両の屋根部が表示されないことを考慮したものである。自車両後方部位置をイラスト表示することで、モニタ4表示における自車両の位置を特定させるものである。自車両のイラストの大きさに関しては、自車両の幅および長さ共に数センチ余裕を持たせたサイズでイラストしておく。
【0022】
ステップS80では、上記視点変換後の画像内に障害物(主として駐車車両)があるか否かを判定し、障害物表示が無い場合には、ステップS110に移行し、障害物表示がある場合には、ステップS90に移行する。
ステップS90では、上記画像入力時における自車両の位置および向きと、上記作成した周囲地図データに基づき、直線近似した障害物位置を上記画像上に太点線でプロットしてステップS100に移行する。ステップS100とステップS110は、補正手段を構成する。
【0023】
ステップS100では、画像上の障害物に対して公知のマスキング処理を施して、その外周輪郭だけが視認できるように、つまり障害物内の表示情報を消すように、その外周輪郭内を1色でべた塗りしたような表示に変換した後にステップS110に移行する。ステップS100は、マスキング手段を構成する。
この処理で、各障害物における外周輪郭内にある歪んだ模様等が視認不可な表示状態となる。
【0024】
ここで、本実施形態では、障害物の面位置に沿った上記太点線位置に近似する、障害物の外周輪郭の辺部分については、上記太点線位置を優先するように、当該外周輪郭を補正した後に、つまり当該太点線位置を障害物の外周輪郭位置と見なして上記マスキング処理を施す。
ステップS110では、上記各種の処理を施した画像をモニタ4に表示する画像としてモニタ4に出力してステップS120に移行する。これによって、視点変換スイッチがオフであれば、そのままの画像が、視点変換スイッチがオンであれば、上記各種の変換処理が行われた後の画像が、モニタ4上に表示される。
【0025】
ステップS120では、シフト位置が「P」か否かを判定し、「P」と判定した場合、つまり駐車処理が終了したことを検出した場合には、ステップS130に移行して、車両後方の視認を補助する運転支援処理の終了処理をしたのち、アシスト処理を停止する。終了処理としては、例えば上記自社両位置把握処理部3Bに作動停止指令を出力するなどである。
【0026】
一方、シフトレバーの位置が「P」でない場合には、ステップS20に移行して、上記処理を繰り返すことで、所定サイクリングタイム毎にモニタ4に表示される画像が切り替わる。
次に、上記運転支援装置の動作や作用・効果などについて説明する。
以下に説明する例は、複数台の車両が駐車している駐車場に自車両を駐車する場合である。
【0027】
自車両が駐車場に進入して、運転者が、駐車アシストを利用すると考えて駐車アシストスイッチ9をオンにすると、グローバル座標を設定して自車両の位置を把握すると共に、自車両の前進走行中に、周囲地図データ作成のために、車両周囲の存在した障害物(主として駐車車両)における対向する面位置が取得され、シフト位置が「R」に変更された時点で、上記複数の障害物検出データに基づき、所定のグローバル座標に対する周辺地図データが作成される。
【0028】
続いて、車両が駐車のために上記シフトレバーが「R」となっている間、つまり車両が後進走行が可能な状態及び実際に後進走行している状態では、後部のカメラ2で車両後方が撮影され、車内のモニタ4にその画像が表示されて、車両後部の後部視認を補助して運転を支援する。
このとき、運転者が、後方の距離感が把握しにくいと感じて、視点変換スイッチをONにした場合には、上記カメラ2が撮像した画像を、車両後部上方の仮想視点から下方を見た画像に変換する。このとき、駐車車両などの障害物像が大きく歪んでしまう。これは、単一のカメラ2では距離・高さが判断できないためである。
【0029】
これに対し、本実施形態では、上記障害物像については、外周輪郭部分の情報だけにすべく、その外周輪郭部分内を1色でべた塗りしたような表示に変換して、障害物情報をモニタ4に表示させる。
これによって、モニタ4を見る運転者に対して、障害物が歪んで表示されることによる違和感を軽減することができる。また、障害物像内の歪んだ模様を不表示とすることで、つまり、不要な情報をモニタ4に表示することが無いため、自車両と障害物の距離などが分かりやすくなるなど、より運転者が車両後方の障害物の視認が行い易くなる。
【0030】
また、使用するカメラ2も1台だけで済む。勿論複数台使用しても構わない。
さらに、上記周辺地図データを参照することで、図7、図8のように、障害物における、後退する車両後部に近い辺の位置が補正されることで、視点変換で画像内の障害物に歪が発生していても、少なくとも補正された部分ついては障害物の位置が適正化される。
【0031】
また、上記仮想視点から撮像した画像には、図6のように、自車両の屋根部が映るはずであるが、車両後方に設置したカメラ2では自車両の屋根部を撮像できず、視点変換した際、自車両の屋根部が映らないが、図7のように、自車両後方部をイラストしてモニタ4に表示することで、障害物と後退する自車両後部との相対位置関係の把握も容易となる。
【0032】
このとき、自車両のイラストの大きさについて、自車両の幅及び長さ共に数センチ余裕を持たせた寸法とすることで、自車両と障害物との衝突をその分避け易くなる。
なお、カメラ2の設置位置などから、自車両のイラストの位置を容易に特定して表示することは可能である。
【0033】
そして、駐車操作が終了してシフトレバーが「P」つまりパーキングとなったら、上記処理を止める。
ここで、上記駐車動作中に、シフトレバーが「R」から「D」などの前進走行に一時的に走行状態が変更された場合には、車両前進走行状態では、上記運転支援は不要であるので、モニタ4への後方の画像表示も一時的に不表示とする。もちろん、一時的な前進走行時にもモニタ4表示をするようにしても良いが、前進走行時には、自車両前方の画像を表示する場合もある。
【0034】
また、障害物が車両の場合には、表示されている車輪部分について上記マスキング処理の対象から除外するようにしても良い。すなわち、画像中の障害物から駐車車両を抽出し、抽出した駐車車両から、表示されている車輪部分を上記マスキング対象から除外してマスキング処理を行う。ここで、車輪については、多少歪んで表示されても、運転者に余り違和感を与えないと思われる。なお、上記マスキング処理からの除外部分は、上記表示されている車輪部分の一部だけ(例えば外周輪郭近傍の部分だけ)であっても良い。
【0035】
このように、車輪部分をマスキングしないことで、停車した際の自車両に最も接近する部分の位置を正確に表示することが可能となる。
なお、上記実施形態では、自車両が駐車するスペースの両側に駐車車両がある場合の例であるが、車庫内などに駐車する場合には、自車両が駐車するスペースの両側の障害物は、壁や塀などになる。
【0036】
また、上記実施形態では、自車両が駐車する場合について説明しているが、本運転支援装置の適用は、これに限定されるわけではない。要は、自車両が後進走行する場合であれば、適用可能である。
また、上記実施形態では、周辺地図データを作成する場合を例示しているが、周辺地図データを作ることなく、単に視点変換した画像中の障害物に対して上記マスキング処理を行うような装置構成としても良い。
また、上記実施形態では、後進走行時の後方視野の補助による運転支援を想定したシステムを例に挙げているが、前進走行時の前方視野の補助による運転支援に適用しても構わない。
【図面の簡単な説明】
【図1】本発明に基づく実施形態に係る装置構成を示す概略図である。
【図2】本発明に基づく実施形態に係る周囲地図作成部の処理を示す図である。
【図3】本発明に基づく実施形態に係る周囲地図作成の処理を説明する図であり、(a)は自車両と障害物との関係を、(b)はグローバル座標系における障害位置を示す図である。
【図4】本発明に基づく実施形態に係るコントローラ本体部の処理を示す図である。
【図5】本発明に基づく実施形態に係る仮想視点を説明する図である。
【図6】仮想視点から撮像したとした場合の図である。
【図7】視点変換した場合の図である。
【図8】マスキング後の画像を示す図である。
【符号の説明】
1 車体
2 CCDカメラ(撮像装置)
3 アシストコントローラ
3A コントローラ本体部
3B 自社両位置把握処理部
3C 周囲地図作成部
4 モニタ
5 測距センサ(測距手段)
6 操舵センサ
7 車輪速センサ
8 シフト位置検出センサ
9 駐車アシストスイッチ
10 視点変換スイッチ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle driving assistance device that assists the traveling of a vehicle by assisting visual recognition of obstacles around the host vehicle, and particularly to a vehicle driving assistance device that is effective when parking.
[0002]
[Prior art]
Conventionally, as this main driving support device, there is a device as described in Patent Document 1, for example. This driving support device captures an image of the outside of the vehicle using a plurality of cameras installed in the vehicle, converts input images from the plurality of cameras into an image viewed from a specific virtual viewpoint, synthesizes the images, and combines the images. This is a method of displaying a synthesized image on a monitor device. At the time of the image synthesis, by performing synthesis processing so that the synthesized image becomes discontinuous near a three-dimensional object as an obstacle, a driver is The position of the three-dimensional object is estimated from the discontinuous portion, thereby trying to assist the driver in visually recognizing the obstacle.
[0003]
[Patent Document 1]
JP-A-2002-166802 [0004]
[Problems to be solved by the invention]
However, since the images are combined so as to be discontinuous in the vicinity of the three-dimensional object, the driver who sees the combined image feels a sense of discomfort with the discontinuous portion in the display image.
When the viewpoint conversion process is performed on the input image from the camera, an obstacle displayed in the image may be distorted and displayed, but the pattern in the obstacle may be distorted and displayed to the driver. Gives a sense of incongruity.
[0005]
In addition, in order to create a discontinuous surface near a three-dimensional object serving as an obstacle, it is necessary to adopt a configuration in which images from a plurality of cameras are combined, and there is also a problem that a plurality of cameras are necessarily required. .
The present invention focuses on the above points, and an object of the present invention is to provide a vehicle driving support device that can suppress a sense of discomfort given to a driver by not presenting unnecessary display information to the driver. And
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention performs an input image from an imaging device installed in the host vehicle, performs a viewpoint conversion process on an image from a specific virtual viewpoint, and displays the converted image on an image display unit. A driving assistance device for a vehicle that displays and assists in the field of view,
A masking process is performed on the obstacle image in the image after the viewpoint conversion process, so that the display of the obstacle on the image display means is in a state where only the outer contour position can be recognized. .
[0007]
【The invention's effect】
According to the present invention, when performing a viewpoint conversion process on an input image, for example, when converting to an image that is easy for a driver to recognize, an obstacle in the image may be distorted and displayed. Since the information in the object is masked and not presented to the driver, it is possible to reduce a sense of discomfort to the driver due to the distortion.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a schematic configuration diagram of a vehicle driving assistance device of the present embodiment.
In the figure, reference numeral 1 denotes a vehicle body of the host vehicle, and a CCD camera 2 constituting an imaging device is installed in an upper rear part of the vehicle body 1. The CCD camera 2 captures an image of the surrounding area of the vehicle at a position on the rear side of the vehicle outside the vehicle, and outputs information of the captured image to the assist controller 3. Further, a monitor 4 constituting image display means is installed in the vehicle.
[0009]
Further, on both sides of the vehicle body 1, distance measuring sensors 5 constituting distance measuring means are respectively installed. The distance measurement sensor 5 detects the distance to an obstacle located on the side of the vehicle around the vehicle and the direction (angle) of the obstacle with respect to the distance measurement sensor 5. The distance measuring sensor 5 emits an ultrasonic wave, a microwave, a millimeter wave, light, or the like, and measures a round-trip time until a reflected wave is received to measure a distance, or uses a principle of triangulation. And the like.
[0010]
Further, the vehicle is provided with a steering sensor 6 for detecting a steering angle of a steering wheel, a wheel speed sensor 7 for detecting a wheel speed, and a shift position detection sensor 8 for detecting a shift position of a shift lever.
Further, in the vicinity of the driver's seat, a parking assist switch 9 for instructing whether or not assistance for rear view is required at the time of parking is provided. A viewpoint conversion switch 10 is provided, and signals from the switches 9 and 10 are output to the assist controller 3.
[0011]
The assist controller 3 includes a controller main body 3A, an in-house position grasp processing unit 3B, and a surrounding map creating unit 3C that constitutes an obstacle map creating unit.
The in-house position grasp processing unit 3B starts operation in response to a command from the controller main unit 3A, sets global coordinates with the position of the own vehicle as the origin at the start of operation, and sets the steering sensor at predetermined sampling times. 6. Based on the detection signal from the wheel speed sensor 7, the position and direction of the own vehicle in the global coordinates are obtained and stored in the memory.
[0012]
In the surrounding map creating unit 3C, the processing shown in FIG. 2 is performed. That is, first, in step S200, the distance measuring sensor 5 is turned ON, and detection by the distance measuring sensor 5 is started, and the process proceeds to step S210.
In step S210, based on signals from the left and right distance measurement sensors 5, it is determined whether there is an obstacle such as a parked vehicle on the side of the own vehicle within a predetermined distance from the own vehicle position. If it is determined, the process proceeds to step S220. If it is determined that there is no obstacle, the process proceeds to step S230.
[0013]
In step S220, based on the signal from the distance measuring sensor 5, the distance and the orientation relationship between the own vehicle and the obstacle are obtained, and the position and direction of the own vehicle at that time calculated by the own company both position grasp processing unit 3B are obtained. Based on the information, where the obstacle position is located on the global coordinates is specified and stored in the memory, and the process proceeds to step S230.
[0014]
In step S230, based on the signal from the shift position sensor, it is determined whether or not the shift position is "R", that is, whether or not the vehicle has been switched to a state in which the vehicle can travel in the reverse direction. Moves to step S240 and performs an end process. If the shift position is not “R”, the process returns to step S210 to repeat the above-described obstacle detection.
[0015]
Here, since the obstacle position detection processing is performed substantially at every predetermined sampling time, for example, as shown in FIG. 3, when a plurality of parked vehicles are present in parallel on the left side in the forward traveling direction of the own vehicle. , A plurality of points along the traveling direction of the own vehicle are detected as obstacle positions for a surface portion (the front portion of the parked vehicle in FIG. 3) of each parked vehicle that faces the side of the own vehicle. In the figure, reference symbol P indicates an obstacle position.
[0016]
In step S240, as shown in FIG. 3B, a plurality of detected obstacle positions (coordinate points in global coordinates) are subjected to a summation process to perform grouping. Obstacle positions are grouped for each, and for each of the grouped obstacle position groups, the position of the opposing surface of each obstacle is specified by linear approximation using the least squares method, etc. I do.
[0017]
When the obstacle is a parked vehicle, as shown in FIG. 3B, each of the obtained straight lines represents the position of the parked vehicle surface (for example, the front position), and the line segment is the vehicle width of the parked vehicle. Is represented. Further, assuming parking in a parking lot, the obstacle facing the running own vehicle is usually a parked vehicle, a fence, a wall, or the like, so that the facing surface of the obstacle can be approximated by a straight line. . However, if it is determined that straight-line approximation is not possible because the surface of the obstacle facing the host vehicle is a curved surface having a predetermined curvature or more, for that part, the detected obstacle position is plotted, for example. What is necessary is just to specify the facing surface position so as to connect the adjacent obstacle positions.
[0018]
Further, the controller main unit 3A is activated when an operation signal is input from the parking assist switch 9, and performs the processing shown in FIG.
That is, first, in step S5, the in-house both position grasp processing section 3B is started, and during the driving support processing, the position and orientation of the own vehicle in the set global coordinate system can be always grasped. Thus, the process proceeds to step S10.
[0019]
In step S10, after the surrounding map creating unit 3C is activated to create surrounding map data, the process proceeds to step S20.
In step S20, it is determined whether or not the shift position is "R" based on a signal from the shift position detecting means. If the shift position is not "R", the process proceeds to step S120. On the other hand, if it is determined that the position of the shift lever is "R", the process proceeds to step S30.
[0020]
In step S30, after inputting the image captured by the camera 2, the process proceeds to step S40. In step S40, it is determined whether the viewpoint conversion switch is on. If the viewpoint conversion switch is off, the process proceeds to step S50. Then, the input image from the camera 2 is displayed on the monitor 4 as it is, and the process proceeds to step S120.
On the other hand, if it is determined in step S40 that the viewpoint conversion switch is on, the process proceeds to step S60, in which the input image from the camera 2 is subjected to viewpoint conversion processing, and as shown in FIG. The image is converted into an image viewed vertically downward from the virtual viewpoint set at the upper side position, so that the driver can easily recognize the situation behind the vehicle when driving the vehicle backward for parking or the like (rear image). (An image in which the sense of distance is easily grasped), and the process proceeds to step S70. The step S60 constitutes a viewpoint conversion processing means.
[0021]
In step S70, the position of the own vehicle is displayed as an illustration with respect to the image subjected to the viewpoint conversion, and the process proceeds to step S80.
In this processing, the roof of the host vehicle should be reflected in the image actually captured from the virtual viewpoint, but the camera 2 installed behind the vehicle cannot capture the roof of the host vehicle, and after the viewpoint is changed. This takes into account that the roof of the vehicle is not displayed in the image. By displaying the position of the rear part of the host vehicle as an illustration, the position of the host vehicle on the monitor 4 is specified. Regarding the size of the illustration of the own vehicle, the illustration is made in such a size that the width and the length of the own vehicle have a margin of several centimeters.
[0022]
In step S80, it is determined whether there is an obstacle (mainly a parked vehicle) in the image after the viewpoint conversion, and if there is no obstacle display, the process proceeds to step S110. Shifts to step S90.
In step S90, based on the position and orientation of the own vehicle at the time of inputting the image and the created surrounding map data, the obstacle position approximated by a straight line is plotted on the image by a thick dotted line, and the process proceeds to step S100. Step S100 and step S110 constitute a correction unit.
[0023]
In step S100, a known masking process is performed on the obstacle on the image, and the inside of the outer contour is displayed in one color so that only the outer contour can be visually recognized, that is, the display information inside the obstacle is erased. After the display is converted to a solid display, the process proceeds to step S110. Step S100 constitutes a masking means.
By this processing, a distorted pattern or the like in the outer contour of each obstacle is brought into a display state in which the obstacle is invisible.
[0024]
Here, in the present embodiment, for the side portion of the outer peripheral contour of the obstacle that approximates the thick dotted line position along the surface position of the obstacle, the outer peripheral contour is corrected so that the thick dotted line position is prioritized. After that, that is, the thick dotted line position is regarded as the outer peripheral contour position of the obstacle, and the masking process is performed.
In step S110, the image subjected to the various processes is output to the monitor 4 as an image to be displayed on the monitor 4, and the process proceeds to step S120. Thus, if the viewpoint conversion switch is off, the image as it is is displayed on the monitor 4 if the viewpoint conversion switch is on, and the image after the various conversion processes are performed is displayed.
[0025]
In step S120, it is determined whether or not the shift position is “P”. If the shift position is determined to be “P”, that is, if it is detected that the parking process has been completed, the process proceeds to step S130 to visually check the rear of the vehicle. After the end processing of the driving support processing for assisting, the assist processing is stopped. As the end processing, for example, an operation stop command is output to the in-house position grasp processing unit 3B.
[0026]
On the other hand, when the position of the shift lever is not “P”, the process shifts to step S20, and the image displayed on the monitor 4 is switched every predetermined cycling time by repeating the above processing.
Next, an operation, an operation, an effect, and the like of the driving support device will be described.
The example described below is a case where the host vehicle is parked in a parking lot where a plurality of vehicles are parked.
[0027]
When the own vehicle enters the parking lot and the driver turns on the parking assist switch 9 in consideration of using the parking assist, the global coordinates are set, the position of the own vehicle is grasped, and the own vehicle moves forward. During creation of the surrounding map data, the position of the facing surface of an obstacle (mainly a parked vehicle) around the vehicle is acquired, and when the shift position is changed to “R”, the plurality of obstacles Peripheral map data for predetermined global coordinates is created based on the detection data.
[0028]
Subsequently, while the shift lever is in the “R” position for parking the vehicle, that is, in a state where the vehicle can travel backward and in a state where the vehicle is actually traveling backward, the rear of the vehicle with the rear camera 2 is used. The image is taken and the image is displayed on the monitor 4 in the vehicle to assist the driver in assisting the driver to visually recognize the rear part of the rear part of the vehicle.
At this time, when the driver feels that it is difficult to grasp the sense of distance behind and turns on the viewpoint conversion switch, the driver views the image captured by the camera 2 from a virtual viewpoint above the rear of the vehicle. Convert to image. At this time, an obstacle image such as a parked vehicle is greatly distorted. This is because the distance and height cannot be determined with a single camera 2.
[0029]
On the other hand, in the present embodiment, the obstacle image is converted into a display in which the inside of the outer peripheral portion is solid-colored with one color so that only the information on the outer peripheral outline portion is displayed, and the obstacle information is converted. It is displayed on the monitor 4.
As a result, the driver looking at the monitor 4 can be less likely to feel discomfort due to the distorted display of the obstacle. In addition, since the distorted pattern in the obstacle image is not displayed, that is, unnecessary information is not displayed on the monitor 4, the distance between the host vehicle and the obstacle can be easily understood, and the driving can be performed more easily. This makes it easier for the user to visually recognize the obstacle behind the vehicle.
[0030]
Also, only one camera 2 needs to be used. Of course, multiple units may be used.
Further, by referring to the surrounding map data, as shown in FIGS. 7 and 8, the position of the side of the obstacle near the rear part of the retreating vehicle is corrected. Even if distortion occurs, the position of the obstacle is optimized at least for the corrected portion.
[0031]
In addition, the image captured from the virtual viewpoint should show the roof of the own vehicle as shown in FIG. 6, but the camera 2 installed behind the vehicle cannot capture the roof of the own vehicle, and the viewpoint conversion is performed. In this case, the roof of the host vehicle is not shown, but the rear part of the host vehicle is illustrated and displayed on the monitor 4 as shown in FIG. 7, so that the relative positional relationship between the obstacle and the rear part of the host vehicle retreating can be grasped. Also becomes easier.
[0032]
At this time, by setting the size of the illustration of the own vehicle to have a margin of several centimeters in both the width and the length of the own vehicle, it is easier to avoid a collision between the own vehicle and an obstacle.
In addition, it is possible to easily specify and display the position of the illustration of the own vehicle from the installation position of the camera 2 and the like.
[0033]
Then, when the parking operation is completed and the shift lever is set to "P", that is, the parking state, the above processing is stopped.
Here, when the traveling state is temporarily changed from the “R” to the forward traveling such as “D” during the parking operation, the driving assistance is unnecessary in the forward traveling state of the vehicle. Therefore, the display of the rear image on the monitor 4 is also temporarily hidden. Of course, the monitor 4 may be displayed even during temporary forward running, but an image in front of the host vehicle may be displayed during forward running.
[0034]
When the obstacle is a vehicle, the displayed wheel portion may be excluded from the masking processing. That is, a parked vehicle is extracted from the obstacles in the image, and a masking process is performed by excluding the displayed wheel portion from the masking target from the extracted parked vehicle. Here, it is considered that even if the wheels are displayed in a slightly distorted state, the driver does not feel uncomfortable. The part excluded from the masking processing may be only a part of the displayed wheel part (for example, only a part near the outer contour).
[0035]
Thus, by not masking the wheel portion, it is possible to accurately display the position of the portion closest to the host vehicle when the vehicle stops.
Note that, in the above embodiment, there is an example in which there are parked vehicles on both sides of the space where the vehicle is parked, but when parking in a garage or the like, obstacles on both sides of the space where the vehicle is parked are: It becomes a wall or a fence.
[0036]
Further, in the above embodiment, the case where the host vehicle is parked is described, but the application of the driving support device is not limited to this. In short, the present invention is applicable as long as the own vehicle travels backward.
Further, in the above-described embodiment, the case where the peripheral map data is created is exemplified. However, an apparatus configuration in which the above-described masking process is simply performed on an obstacle in an image whose viewpoint has been converted without creating the peripheral map data. It is good.
Further, in the above-described embodiment, a system assuming driving assistance by assisting the rear view during backward traveling is taken as an example. However, the present invention may be applied to driving assistance by assisting the front vision during forward traveling.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a device configuration according to an embodiment based on the present invention.
FIG. 2 is a diagram showing a process of a surrounding map creation unit according to the embodiment based on the present invention.
FIGS. 3A and 3B are diagrams illustrating a process of creating a surrounding map according to an embodiment of the present invention, wherein FIG. 3A illustrates a relationship between a host vehicle and an obstacle, and FIG. 3B illustrates an obstacle position in a global coordinate system. FIG.
FIG. 4 is a diagram showing processing of a controller main body according to the embodiment based on the present invention.
FIG. 5 is a diagram illustrating a virtual viewpoint according to the embodiment based on the present invention.
FIG. 6 is a diagram illustrating a case where an image is captured from a virtual viewpoint.
FIG. 7 is a diagram when a viewpoint is changed.
FIG. 8 is a diagram showing an image after masking.
[Explanation of symbols]
1 body 2 CCD camera (imaging device)
3 Assist controller 3A Controller main body 3B In-house both position grasping processor 3C Surrounding map generator 4 Monitor 5 Distance measuring sensor (ranging means)
6 steering sensor 7 wheel speed sensor 8 shift position detection sensor 9 parking assist switch 10 viewpoint conversion switch

Claims (7)

自車両に設置された撮像装置からの入力画像を、特定の仮想視点からの画像に視点変換処理を行い、その視点変換した画像を画像表示手段に表示して視界の補助を行う車両用運転支援装置であって、
上記視点変換処理後の画像内の障害物像にマスキング処理を施し、上記画像表示手段への障害物の表示を、その外周輪郭位置のみが認識可能な状態にすることを特徴とする車両用運転支援装置。
Vehicle driving assistance that performs viewpoint conversion processing on an input image from an imaging device installed in the own vehicle to an image from a specific virtual viewpoint, and displays the viewpoint-converted image on image display means to assist the field of view. A device,
A vehicle driving operation, wherein a masking process is performed on an obstacle image in the image after the viewpoint conversion process, so that the display of the obstacle on the image display means is in a state where only the outer contour position can be recognized. Support device.
上記障害物が車両と判定した場合には、車体表示部分についてマスキング処理を行い、車輪表示部分については、その少なくとも一部をマスキング処理から除外することを特徴とする請求項1に記載した車両用運転支援装置。The vehicle according to claim 1, wherein when the obstacle is determined to be a vehicle, a masking process is performed on a vehicle body display portion, and at least a part of the wheel display portion is excluded from the masking process. Driving support device. 自車両に設置されて車外を撮像可能な撮像装置と、撮像装置からの入力画像を特定の仮想視点からの画像に視点変換処理を行う視点変換処理手段と、視点変換処理手段による視点変換後の画像に対し当該画像内の障害物の表示を、その外周輪郭位置のみが認識可能な状態に変換するマスキング手段と、マスキング手段による処理後の画像を表示可能な画像表示手段とを備えることを特徴とする車両用運転支援装置。An imaging device installed in the own vehicle and capable of imaging the outside of the vehicle, a viewpoint conversion processing unit for performing a viewpoint conversion process on an input image from the imaging device to an image from a specific virtual viewpoint, and a viewpoint after the viewpoint conversion by the viewpoint conversion processing unit. Masking means for converting the display of an obstacle in the image to an image in which only the outer contour position can be recognized, and image display means for displaying an image processed by the masking means. Driving support device for vehicles. 上記マスキング手段は、障害物が車両と判定した場合には、車体表示部分について処理対象とし車輪表示部分についてはその少なくとも一部を処理対象から除外することを特徴とする請求項3に記載した車両用運転支援装置。4. The vehicle according to claim 3, wherein when the obstacle is determined to be a vehicle, the masking unit excludes at least a part of the wheel display part from the processing target with respect to the vehicle body display part. For driving assistance. 自車両に搭載されて車両周囲の障害物と自車両との相対位置関係を検出する測距手段と、測距手段の検出情報に基づき、障害物位置を同一座標上で表して、障害物の存在状況を表す障害物地図データを作成する障害物地図作成手段とを備え、
障害物地図作成手段が作成する障害物地図データに基づき、上記視点変換後の画像中の障害物像の外周輪郭を補正する補正手段を備えることを特徴とする請求項3又は請求項4に記載した車両用運転支援装置。
A distance measuring device mounted on the own vehicle to detect a relative positional relationship between the obstacle around the vehicle and the own vehicle; and, based on information detected by the distance measuring device, the position of the obstacle is represented on the same coordinates. Obstacle map creating means for creating obstacle map data representing the presence status,
5. The apparatus according to claim 3, further comprising a correction unit configured to correct an outer peripheral contour of the obstacle image in the image after the viewpoint conversion based on the obstacle map data created by the obstacle map creation unit. 6. Driving assist device for vehicles.
上記障害物地図作成手段は、自車両が前進走行可能状態のときに、障害物地図データを作成するための情報を測距手段から取得することを特徴とする請求項5に記載した車両用運転支援装置。6. The vehicle driving method according to claim 5, wherein the obstacle map creating means acquires information for creating obstacle map data from the distance measuring means when the own vehicle is in a forward running state. Support device. 上記撮像装置は、車体後部に設置されて自車両後方を撮影可能となっており、少なくとも車両が後進走行可能な状態の場合に、上記画像表示手段への画像表示を行うことを特徴とする請求項3〜請求項6のいずれかに記載した車両用運転支援装置。The image pickup device is installed at the rear of the vehicle body so as to be able to photograph the rear of the host vehicle, and displays an image on the image display means at least when the vehicle is in a state where the vehicle can travel backward. The vehicle driving support device according to any one of claims 3 to 6.
JP2003001564A 2003-01-07 2003-01-07 Vehicle driving support device Expired - Lifetime JP4092479B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003001564A JP4092479B2 (en) 2003-01-07 2003-01-07 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003001564A JP4092479B2 (en) 2003-01-07 2003-01-07 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2004213489A true JP2004213489A (en) 2004-07-29
JP4092479B2 JP4092479B2 (en) 2008-05-28

Family

ID=32819551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003001564A Expired - Lifetime JP4092479B2 (en) 2003-01-07 2003-01-07 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP4092479B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007026839A1 (en) * 2005-09-02 2007-03-08 Matsushita Electric Industrial Co., Ltd. Image display device and image generation device
JP2007088577A (en) * 2005-09-20 2007-04-05 Denso Corp Vehicle surrounding image processing system
JP2007201748A (en) * 2006-01-26 2007-08-09 Alpine Electronics Inc Vehicle driving assistance device
JP2008205914A (en) * 2007-02-21 2008-09-04 Alpine Electronics Inc Image processor
US7894631B2 (en) * 2005-06-27 2011-02-22 Aisin Seiki Kabushiki Kaisha Obstacle detection apparatus
US8077203B2 (en) 2007-11-09 2011-12-13 Alpine Electronics, Inc. Vehicle-periphery image generating apparatus and method of correcting distortion of a vehicle-periphery image
US8294563B2 (en) 2009-08-03 2012-10-23 Alpine Electronics, Inc. Vehicle-surrounding image display apparatus and vehicle-surrounding image display method
WO2017104768A1 (en) * 2015-12-18 2017-06-22 株式会社デンソー Display control device and display control method
JP2020004144A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Obstacle map generation device and autonomous mobile body
JP2020537422A (en) * 2017-10-11 2020-12-17 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh How to depict an image of a vehicle's camera system
US11151966B2 (en) 2018-12-13 2021-10-19 Toyota Jidosha Kabushiki Kaisha Display control apparatus, display control method and storage medium for determining whether or not information of an image needs to be reduced based on vehicle information
CN115131989A (en) * 2021-03-26 2022-09-30 丰田自动车株式会社 Driving support method, driving support device, driving support system, and recording medium

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186833A (en) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd Surrounding state displaying device for vehicle
JPH0850699A (en) * 1994-08-05 1996-02-20 Nissan Motor Co Ltd Vehicle periphery display device
JP2000229547A (en) * 1998-10-08 2000-08-22 Matsushita Electric Ind Co Ltd Drive operation assisting device and recording medium
JP2001010427A (en) * 1999-06-29 2001-01-16 Fujitsu Ten Ltd Vehicle parking assist device
JP2001341600A (en) * 2000-06-02 2001-12-11 Nissan Motor Co Ltd Parking support device
JP2002029350A (en) * 2000-07-12 2002-01-29 Nissan Motor Co Ltd Device for supporting parking
JP2002240661A (en) * 2001-02-19 2002-08-28 Nissan Motor Co Ltd Parking support device
JP2002316602A (en) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd Pickup image displaying method of onboard camera, and device therefor
JP2002359838A (en) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd Device for supporting driving
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device
JP2003189293A (en) * 2001-09-07 2003-07-04 Matsushita Electric Ind Co Ltd Device for displaying state of surroundings of vehicle and image-providing system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186833A (en) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd Surrounding state displaying device for vehicle
JPH0850699A (en) * 1994-08-05 1996-02-20 Nissan Motor Co Ltd Vehicle periphery display device
JP2000229547A (en) * 1998-10-08 2000-08-22 Matsushita Electric Ind Co Ltd Drive operation assisting device and recording medium
JP2001010427A (en) * 1999-06-29 2001-01-16 Fujitsu Ten Ltd Vehicle parking assist device
JP2001341600A (en) * 2000-06-02 2001-12-11 Nissan Motor Co Ltd Parking support device
JP2002029350A (en) * 2000-07-12 2002-01-29 Nissan Motor Co Ltd Device for supporting parking
JP2002240661A (en) * 2001-02-19 2002-08-28 Nissan Motor Co Ltd Parking support device
JP2002359838A (en) * 2001-03-28 2002-12-13 Matsushita Electric Ind Co Ltd Device for supporting driving
JP2002316602A (en) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd Pickup image displaying method of onboard camera, and device therefor
JP2003189293A (en) * 2001-09-07 2003-07-04 Matsushita Electric Ind Co Ltd Device for displaying state of surroundings of vehicle and image-providing system
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894631B2 (en) * 2005-06-27 2011-02-22 Aisin Seiki Kabushiki Kaisha Obstacle detection apparatus
WO2007026839A1 (en) * 2005-09-02 2007-03-08 Matsushita Electric Industrial Co., Ltd. Image display device and image generation device
JP2007088577A (en) * 2005-09-20 2007-04-05 Denso Corp Vehicle surrounding image processing system
JP2007201748A (en) * 2006-01-26 2007-08-09 Alpine Electronics Inc Vehicle driving assistance device
JP4557302B2 (en) * 2006-01-26 2010-10-06 アルパイン株式会社 Vehicle driving support device
US8330816B2 (en) 2007-02-21 2012-12-11 Alpine Electronics, Inc. Image processing device
JP2008205914A (en) * 2007-02-21 2008-09-04 Alpine Electronics Inc Image processor
US8077203B2 (en) 2007-11-09 2011-12-13 Alpine Electronics, Inc. Vehicle-periphery image generating apparatus and method of correcting distortion of a vehicle-periphery image
US8294563B2 (en) 2009-08-03 2012-10-23 Alpine Electronics, Inc. Vehicle-surrounding image display apparatus and vehicle-surrounding image display method
WO2017104768A1 (en) * 2015-12-18 2017-06-22 株式会社デンソー Display control device and display control method
JP2017112574A (en) * 2015-12-18 2017-06-22 株式会社デンソー Display control device
JP2020537422A (en) * 2017-10-11 2020-12-17 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh How to depict an image of a vehicle's camera system
JP7105879B2 (en) 2017-10-11 2022-07-25 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング How to render an image of a vehicle camera system
JP2020004144A (en) * 2018-06-29 2020-01-09 国立大学法人金沢大学 Obstacle map generation device and autonomous mobile body
JP7121361B2 (en) 2018-06-29 2022-08-18 国立大学法人金沢大学 Autonomous mobile
US11151966B2 (en) 2018-12-13 2021-10-19 Toyota Jidosha Kabushiki Kaisha Display control apparatus, display control method and storage medium for determining whether or not information of an image needs to be reduced based on vehicle information
CN115131989A (en) * 2021-03-26 2022-09-30 丰田自动车株式会社 Driving support method, driving support device, driving support system, and recording medium
CN115131989B (en) * 2021-03-26 2024-04-09 丰田自动车株式会社 Driving support method, driving support device, driving support system, and recording medium

Also Published As

Publication number Publication date
JP4092479B2 (en) 2008-05-28

Similar Documents

Publication Publication Date Title
JP4412380B2 (en) Driving support device, driving support method, and computer program
JP5003946B2 (en) Parking assistance device
CN107097721B (en) Driving support device
JP5212748B2 (en) Parking assistance device
JP3945467B2 (en) Vehicle retraction support apparatus and method
JP4530060B2 (en) Parking support apparatus and method
JP3494434B2 (en) Parking assistance device
JP5093602B2 (en) Peripheral recognition support device
US20190344828A1 (en) Parking assist apparatus
JP2010183170A (en) Display apparatus for vehicle
JP2008013015A (en) Vehicle surroundings image producing device and image switching method
JP5446139B2 (en) Parking assistance device and parking assistance method
JP2008143430A (en) Parking support device
JP5471141B2 (en) Parking assistance device and parking assistance method
JP5182137B2 (en) Vehicle periphery display device
JP2012076483A (en) Parking support device
CN111867893B (en) Parking assist apparatus
JP2006273122A (en) Parking brake assistance device
JP5516988B2 (en) Parking assistance device
JP2008296639A (en) Parking support device
JP2004213489A (en) Driving support device for vehicle
JP2007126028A (en) Parking support system
WO2010134240A1 (en) Parking assistance device, parking assistance method, and parking assistance program
JP2012176656A (en) Parking support device
JP2009171129A (en) Parking support device for vehicle and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4092479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

EXPY Cancellation because of completion of term