JP5273068B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP5273068B2 JP5273068B2 JP2010042230A JP2010042230A JP5273068B2 JP 5273068 B2 JP5273068 B2 JP 5273068B2 JP 2010042230 A JP2010042230 A JP 2010042230A JP 2010042230 A JP2010042230 A JP 2010042230A JP 5273068 B2 JP5273068 B2 JP 5273068B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- viewpoint
- periphery monitoring
- detection means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両に設けられた複数のカメラによって得た撮像画像に基づいて生成した車両の周辺の画像を、車両の状況に応じてより適切な視点から見た画像として表示する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that displays an image around a vehicle generated based on captured images obtained by a plurality of cameras provided in the vehicle, as an image viewed from a more appropriate viewpoint according to the situation of the vehicle. About.
従来、自動車に複数のカメラを設け、各カメラにより撮像した撮像画像を合成することで、自動車の周囲全周の俯瞰画像を生成し運転席の表示装置に表示することで、駐車場などにおける運転操作を容易かつ安全に行えるようにした車両周辺監視装置がある(特許文献1参照)。
例えば、複数のカメラとして、車両の前方を撮像する前方カメラと、車両の後方を撮像する後方カメラと、車両の左側方および右側方を撮像する左方カメラおよび右方カメラが設けられている場合を考える。
この場合、表示装置には、4つのカメラで撮像した前方、後方、左方、右方の4つの撮像画像を車両の前方、後方、左右の側方に配置した俯瞰画像が表示される。
Conventionally, driving in a parking lot or the like by providing a plurality of cameras in a car and combining the captured images taken by each camera to generate a bird's-eye view of the entire circumference of the car and displaying it on the display device of the driver's seat There is a vehicle periphery monitoring device that can be operated easily and safely (see Patent Document 1).
For example, when a plurality of cameras are provided, a front camera that captures the front of the vehicle, a rear camera that captures the rear of the vehicle, and a left camera and a right camera that capture the left and right sides of the vehicle think of.
In this case, a bird's-eye view image in which four captured images of front, rear, left, and right captured by four cameras are arranged on the front, rear, and left and right sides of the vehicle is displayed on the display device.
ところで、上記従来装置の場合、前方、後方、左方、右方の4つの撮像画像を地面(路面)の高さに位置する水平面に投影した俯瞰画像として合成することから、4つの撮像画像のつなぎ目の部分に死角が生じる場合がある。
そのため、運転者が俯瞰画像に違和感を感じたり、あるいは、死角に障害物が入ることにより、表示装置に表示されている俯瞰画像から障害物が一時的にあるいは部分的に消失するといった不都合が生じてしまう。
また、表示装置に表示される俯瞰画像は、車両上方に位置する仮想的な視点から車両およびその周辺を俯瞰した画像に相当するものである。そのため、例えば、駐車場の指定の場所が境界線で仕切られている場合、俯瞰画像で表示される境界線を目標として運転操作を行うことで車両を指定の場所に移動させることができる。
しかしながら、このような俯瞰画像は、通常、人が見ることができない視点から見た画像であることから、俯瞰画像だけを見て車両の移動方向を直感的に予測することはそれほど簡単ではない。
そのため、俯瞰画像だけ見ながら駐車する場合に、ステアリングの切り返し操作が多くなってしまうなど、俯瞰画像を見ながらの運転操作には、ある程度の訓練や慣れが要求されるものとなっている。
本発明は、このような事情に鑑みてなされたものであり、車両周辺の画像を適切に表示することで車両の運転操作を簡単かつ円滑に行う上で有利な車両周辺監視装置を提供することを目的とする。
By the way, in the case of the above-described conventional apparatus, the four captured images of the front, rear, left, and right are synthesized as an overhead image projected on a horizontal plane located at the height of the ground (road surface). There may be a blind spot at the joint.
As a result, the driver feels uncomfortable in the overhead view image, or an obstacle enters the blind spot, resulting in inconvenience that the obstacle disappears temporarily or partially from the overhead view image displayed on the display device. End up.
Further, the bird's-eye view image displayed on the display device corresponds to an image obtained by bird's-eye view of the vehicle and its surroundings from a virtual viewpoint located above the vehicle. Therefore, for example, when the designated place of the parking lot is partitioned by the boundary line, the vehicle can be moved to the designated place by performing the driving operation with the boundary line displayed in the overhead image as a target.
However, since such a bird's-eye view image is usually an image viewed from a viewpoint that cannot be seen by humans, it is not so easy to intuitively predict the moving direction of the vehicle by looking only at the bird's-eye view image.
Therefore, a certain amount of training and familiarity is required for the driving operation while looking at the bird's-eye view image. For example, when the vehicle is parked while looking only at the bird's-eye view image, the steering turning operation increases.
The present invention has been made in view of such circumstances, and provides a vehicle periphery monitoring device that is advantageous for easily and smoothly driving a vehicle by appropriately displaying an image around the vehicle. With the goal.
上述の目的を達成するため、本発明の車両周辺監視装置は、車両の周囲を互いに異なる前記車両の箇所から撮像して撮像画像を生成する複数のカメラと、前記各カメラから得られた前記撮像画像を前記車両の周囲にわたって延在する仮想的な3次元の立体面からなる画像投影面に投影する画像投影手段と、前記画像投影面に投影された投影画像を視点変換処理することによって、指定された箇所に位置する仮想的な視点から指定された方向で前記投影画像を見ることによって得られる視点変換画像を生成する視点変換画像生成手段と、前記視点変換画像を表示画面に表示する表示装置と、前記車両の運転状況を検出する運転状況検出手段と、前記車両に物体が接近したことを検出する接近物体検出手段と、前記運転状況検出手段の検出結果と前記接近物体検出手段の検出結果とに基づいて、前記仮想的な視点の位置および方向を決定する視点位置方向決定手段とを備え、前記複数のカメラは前記車両の前部から前方を撮像する前方カメラを含み、前記車両が駐車場内に位置しているか、駐車場外に位置しているかを判定する位置検出手段と、前記位置検出手段により前記車両が前記駐車場外に位置していると判定されたときに前記前カメラで撮像された撮像画像を前記表示装置に表示させ、前記位置検出手段により前記車両が前記駐車場内に位置していると判定されたときに前記視点変換画像を表示画面に表示させる表示制御手段とをさらに備え、前記運転状況検出手段によって検出される前記車両の運転状況は前記車両の進行方向を含み、前記検出された前記進行方向に前記接近物体検出手段によって物体が位置していることが検出された場合に、前記視点位置方向決定手段は、前記仮想的な視点の位置を、前記車両の進行方向の前方でかつ上方の箇所に決定すると共に、前記方向を、前記仮想的な視点から前記画像投影面に投影された投影画像のうち前記車両および前記物体を含む部分を見下ろす方向に決定する、ことを特徴とする。 In order to achieve the above-described object, the vehicle periphery monitoring device of the present invention includes a plurality of cameras that capture images of the periphery of the vehicle from different locations of the vehicle and generate captured images, and the imaging obtained from the cameras. An image projecting means for projecting an image onto an image projection surface composed of a virtual three-dimensional solid surface extending over the periphery of the vehicle, and designation by performing a viewpoint conversion process on the projection image projected on the image projection surface Viewpoint conversion image generation means for generating a viewpoint conversion image obtained by viewing the projection image in a specified direction from a virtual viewpoint located at a specified location, and a display device for displaying the viewpoint conversion image on a display screen Driving status detection means for detecting the driving status of the vehicle, approaching object detection means for detecting that an object has approached the vehicle, and detection results of the driving status detection means, And a viewpoint position / direction determining unit that determines the position and direction of the virtual viewpoint based on the detection result of the approaching object detecting unit, and the plurality of cameras capture a front from the front of the vehicle. A position detecting means for determining whether the vehicle is located inside the parking lot or outside the parking lot, and the position detecting means determines that the vehicle is located outside the parking lot. Sometimes, the captured image captured by the front camera is displayed on the display device, and the viewpoint conversion image is displayed on the display screen when the position detecting means determines that the vehicle is located in the parking lot. further comprising a display control means for the operating conditions of the vehicle detected by said driving condition detecting means includes a traveling direction of the vehicle, the closer to the said detected traveling direction When it is detected by the body detection means that the object is located, the viewpoint position direction determination means determines the position of the virtual viewpoint at a position in front of and above the traveling direction of the vehicle. In addition, the direction is determined to be a direction in which a portion including the vehicle and the object is looked down in the projection image projected onto the image projection plane from the virtual viewpoint .
本発明によれば、運転状況および車両に接近する物体の有無に応じて車両の運転操作を行う上で適切な視点と方向から見た画像を表示させることができるので、車両の運転操作を簡単かつ円滑に行う上で有利となる。 According to the present invention, it is possible to display an image viewed from an appropriate viewpoint and direction in performing a driving operation of the vehicle according to the driving situation and the presence or absence of an object approaching the vehicle. In addition, it is advantageous for smooth execution.
(第1の実施の形態)
次に本発明の実施の形態について説明する。
図1は本発明の実施の形態である車両周辺監視装置10の構成を示すブロック図、図2は車両周辺監視装置10を構成する各カメラの配置とそれらカメラの撮像範囲を示す説明図である。
(First embodiment)
Next, an embodiment of the present invention will be described.
FIG. 1 is a block diagram showing a configuration of a vehicle
車両周辺監視装置10は、図1に示すように、前方カメラ12、後方カメラ14、左方カメラ16、右方カメラ18、ECU(電子制御ユニット)20、表示装置22、シフト位置センサ24、車速センサ26、操舵角センサ28などを含んで構成されている。
As shown in FIG. 1, the vehicle
本実施の形態では、ECU20は、車両2(図2)に搭載されたナビゲーション装置30との間でデータの授受が可能に構成されている。
ナビゲーション装置30は、測位部3002と、データベース3004とを含んで構成されている。
測位部3002は、GPS衛星から送られてくるGPS信号を受信し、自車両の現在位置を検出するものであり、GPS(Global Positioning System)に基づいて動作するものである。
データベース3004は、道路、地形、施設形状などの地図情報の他、駐車場を含むさまざまな施設情報が格納されている。
ナビゲーション装置30は、測位部3002で測位された自車両の現在地に対応する地図情報や施設情報をデータベース3004から読み出してECU20に供給する。
なお、車両周辺監視装置10は、単独の装置として構成してもよく、あるいは、前記のナビゲーション装置30に組み込むなど任意である。
In the present embodiment, ECU 20 is configured to be able to exchange data with
The
The
The
The
Note that the vehicle
前方カメラ12は、図2に示すように、例えば車両2前部のフロントグリル中央に取り付けられて車両2の前方を撮像するカメラである。
後方カメラ14は、例えばリアウィンドウが設けられた車両2後部に取り付けられて車両2の後方を撮像するカメラである。
左方カメラ16は、例えば左側ドアミラーを支持するドアミラー支持部突端に取り付けられて車両2の左側方を撮像するカメラである。
右方カメラ18は、例えば右側ドアミラーを支持するドアミラー支持部突端に取り付けられて車両2の右側方を撮像するカメラである。
すなわち、これら4つのカメラ12、14、16、18は、車両2の周囲を互いに異なる車両2の箇所から撮像して撮像画像を生成するものである。
図2において、符号A1乃至A4は、それぞれ前方カメラ12、後方カメラ14、左方カメラ16、右方カメラ18で撮像される撮像範囲を示す。
なお、前方カメラ12はノーズビューカメラ、後方カメラ14はリアビューカメラ、左方カメラ16および右方カメラ18はサイドビューカメラともいう。
As shown in FIG. 2, the
The
The
The
That is, these four
In FIG. 2, reference signs A <b> 1 to A <b> 4 indicate imaging ranges captured by the
The
表示装置22は、運転者が視認可能かつ操作可能な車室内の箇所、例えば、車室内の運転席と助手席との中間箇所に臨むインストルメントパネルの部分に組み込まれている。
表示装置22は、モニタ32と、タッチパネル34とを備えている。
モニタ32は、ECU20から供給される種々の情報に基づいてさまざまな画像や文字などを表示画面3202(図4)に表示するものであり、モニタ32としては液晶表示装置など従来公知のさまざまなディスプレイ装置が採用可能である。
本実施の形態では、表示画面3202は左右に横長の矩形状を呈している。
タッチパネル34は、モニタ32の表示画面3202に設けられ、タッチパネル34に指でタッチすることにより、タッチパネル34で生成された操作信号がECU20に供給されるように構成されている。
The
The
The
In this embodiment mode, the
The
シフト位置センサ24は、車両2のシフトレバーの位置を検出し、検出したシフト位置をECU20に供給するものである。
車速センサ26は、車両2の速度を検出し、検出した速度をECU20に供給するものである。
操舵角センサ28は、車両2のステアリングの操舵角を検出し、検出した操舵角をECU20に供給するものである。
The
The
The
ECU20は各部を制御するマイクロコンピュータにより構成されている。
すなわち、ECU20は、例えば、CPU、制御プログラムなどを格納するROM、ワーキングエリアを提供するRAM、周辺回路とのインタフェースをとるインタフェース部などがバスによって接続されたマイクロコンピュータによって構成されたものである。
ECU20は、画像投影手段36と、視点変換画像生成手段38と、運転状況検出手段40と、接近物体検出手段42と、視点位置方向決定手段44とを含んで構成されている。これら各手段36、38、40、42、44は前記CPUが前記制御プログラムを実行することにより実現されるものである。
なお、以下に説明する画像手投影手段32、視点変換画像生成手段38、視点変換画像生成手段36を実現する画像処理技術として、例えば特開2009−206702号公報(画像処理装置、画像処理方法)などに記載されている従来公知のさまざまな画像処理技術が採用可能である。
ECU20 is comprised by the microcomputer which controls each part.
That is, the
The
As an image processing technique for realizing the image
画像手投影手段32は、図3に示すように、各カメラ12、14、16、18から得られた撮像画像を車両2の周囲にわたって延在する仮想的な3次元の立体面からなる画像投影面50に投影するものである。
本実施の形態では、画像投影面50は、第1の画像投影面50Aと第2の画像投影面50Bとを含んで構成されている。
第1の画像投影面50Aは、車両2を中心として車両2の周囲を囲むように地面(路面)に沿って延在する円形あるいは楕円形を呈している。
第2の画像投影面50Bは、第1の画像投影面50Aの外周全周に沿って上方に起立し、かつ、上方に至るほど径方向の寸法が拡大する裁頭円錐面上を延在している。
画像投影面50の大きさは、画像投影面50に投影された投影画像によって、車両2の周囲の状況が十分に把握できるに足るものであればよい。
言い換えると、第1の画像投影面50Aの面積、第2の画像投影面50Bの面積および高さは、それら第1の画像投影面50A、第2の画像投影面50Bに投影された投影画像によって、車両2の周囲の状況が十分に把握できるに足るものであればよい。
なお、画像投影面50は、車両2の周囲にわたって延在する仮想的な3次元の立体面であればよく、例えば、円筒面や球面などを含む曲面、あるいは、平面などの従来公知のさまざまな形状が採用可能である。
As shown in FIG. 3, the image
In the present embodiment, the
The first
The second image projection surface 50B stands upward along the entire outer periphery of the first
The size of the
In other words, the area of the first
The
視点変換画像生成手段38は、画像手投影手段32によって画像投影面50に投影された投影画像を視点変換処理することによって、図3に示すように、指定された箇所に位置する仮想的な視点Pから指定された方向Dで投影画像を見ることによって得られる視点変換画像を生成するものである。
この視点変換画像生成手段38から表示装置22に供給された視点変換画像は、モニタ32の表示画面に表示される。
なお、各カメラ12、14、16、18は、通常、車体2の周囲を撮像するように設けられているため、各カメラ12、14、16、18で撮像された撮像画像には車体2の画像は含まれない。
したがって、視点変換画像生成手段38によって生成される視点変換画像においても、実際にカメラで撮像された車両2の撮像画像は含まれない。
そこで、視点変換画像生成手段38は、視点変換画像のうち車両2の画像に相当する部分に、予め車両2を模って形成された車両モデル画像を合成するようにしてもよい。
このようにすると、視点変換画像に含まれる車両2の位置や方向をわかりやすく表示する上で有利となる。
あるいは、視点変換画像のうち車両2の画像に相当する部分に車両モデル画像を合成することに代えて、車両2の画像に相当する部分を予め定められた色によって一様に塗りつぶした画像を合成してもよいし、車両2の輪郭を示す画像を合成してもよい。
The viewpoint conversion
The viewpoint conversion image supplied from the viewpoint conversion image generation means 38 to the
The
Therefore, even the viewpoint conversion image generated by the viewpoint conversion image generation means 38 does not include the captured image of the
Therefore, the viewpoint conversion
This is advantageous for easily displaying the position and direction of the
Alternatively, instead of synthesizing the vehicle model image with a portion corresponding to the image of the
運転状況検出手段40は、車両2の運転状況を検出するものである。
本実施の形態では、運転状況検出手段40は、シフト位置センサ24から供給されるシフト位置と、車速センサ26から供給される車速と、操舵角センサ28から供給される操舵角とに基づいて車両2の運転状況を検出する。
The driving situation detection means 40 detects the driving situation of the
In the present embodiment, the driving condition detection means 40 is based on the shift position supplied from the
接近物体検出手段42は、車両2に物体が接近したことを検出するものである。
なお、本明細書において物体とは、車両2の周囲に位置するものであり、他の車両2、建築物、構造物、植栽、あるいは、通行者などを含むものである。
本実施の形態では、接近物体検出手段42は、画像投影面50に投影された投影画像から求めたオプティカルフローに基づいて車両2に物体が接近したことを検出する。
なお、オプティカルフローに基づいた移動体の検出方法は、例えば、特許第4228246号公報、特許第4259368号公報などに記載されている従来公知のさまざまな検出方法を用いることができる。
また、接近物体検出手段42は物体の接近を検出できればよいのであり、接近物体検出手段42として、超音波センサなど従来公知のさまざまな物体検出センサを用いることができる。
The approaching object detection means 42 detects that an object has approached the
In addition, in this specification, an object is located around the
In the present embodiment, the approaching
As a method for detecting a moving body based on an optical flow, various conventionally known detection methods described in, for example, Japanese Patent No. 4228246 and Japanese Patent No. 4259368 can be used.
Further, the approaching object detection means 42 only needs to be able to detect the approach of the object, and various conventionally known object detection sensors such as an ultrasonic sensor can be used as the approaching object detection means 42.
視点位置方向決定手段44は、運転状況検出手段40の検出結果と、接近物体検出手段42の検出結果とに基づいて、仮想的な視点Pの位置および方向Dを決定するものである。
視点位置方向決定手段44の具体的な動作については後述する。
The viewpoint position /
The specific operation of the viewpoint position / direction determining means 44 will be described later.
次に、視点変換画像生成手段38によって生成される視点変換画像について具体的に説明する。
本実施の形態では、図3に示すように、画像投影面50に投影された投影画像を見る仮想的な視点Pおよび方向Dの組み合わせを以下に示す3種類とし、これら3種類の視点Pおよび方向Dの組み合わせを選択して視点変換画像を生成するものとして説明する。しかしながら、視点Pおよび方向Dの組み合わせは限定されるものではなく任意である。
1)上方視点画像および上方視点モード:
視点Pは車両2を通る鉛直線上で(本実施の形態では車両2の中心を通る鉛直線上で)、車両2の上方の箇所に位置し、方向Dは視点Pから画像投影面50に投影された投影画像の全体を俯瞰する方向である場合に生成される視点変換画像を上方視点画像という。
上方視点画像を表示する表示動作を上方視点モードという。
2)後方視点画像および後方視点モード:
視点Pは車両2の後方かつ上方の箇所に位置し、方向Dは視点Pから画像投影面に投影された投影画像のうち車両およびその周囲を見下ろす方向である場合に生成される視点変換画像を後方視点画像という。
後方視点画像を表示する表示動作を後方視点モードという。
3)前方視点画像および前方視点モード:
視点Pは車両2の前方かつ上方の箇所に位置し、方向Dは視点Pから画像投影面に投影された投影画像のうち車両およびその周囲を見下ろす方向である場合に生成される視点変換画像を前方視点画像という。
前方視点画像を表示する表示動作を前方視点モードという。
なお、本実施の形態では、上記3つのモードの何れの場合においても、視点Pは、車両2の中心を通り前後方向に延在する仮想線を含む鉛直面上に位置している。
Next, the viewpoint conversion image generated by the viewpoint conversion
In the present embodiment, as shown in FIG. 3, the combination of the virtual viewpoint P and the direction D for viewing the projection image projected on the
1) Upper viewpoint image and upper viewpoint mode:
The viewpoint P is located on a vertical line passing through the vehicle 2 (in the present embodiment, on a vertical line passing through the center of the vehicle 2) and is located above the
A display operation for displaying the upper viewpoint image is referred to as an upper viewpoint mode.
2) Rear viewpoint image and rear viewpoint mode:
A viewpoint conversion image generated when the viewpoint P is located at a position behind and above the
A display operation for displaying a rear viewpoint image is referred to as a rear viewpoint mode.
3) Front viewpoint image and front viewpoint mode:
A viewpoint conversion image generated when the viewpoint P is located at a location in front of and above the
A display operation for displaying the front viewpoint image is referred to as a front viewpoint mode.
In the present embodiment, the viewpoint P is located on a vertical plane including an imaginary line that passes through the center of the
次に、図4、図5、図6を参照して、各カメラ12、14、16、18の撮像範囲A1、A2、A3、A4(図2)と、モニタ32の表示画面3202に表示される視点変換画像との対応関係について説明する。
なお、図4乃至図15においては、図面の簡単化を図るために、視点変換画像のうち車両2の画像に相当する部分に合成する車両モデル画像Mをハッチングで示している。また、図中、矢印は車両2の前方を示す。
図4は上方視点モード、図5は後方視点モード、図6は前方視点モードをそれぞれ示している。
図4、図5、図6において、横長の矩形状を呈する表示画面3202が前方領域B1、後方領域B2、左方領域B3、右方領域B4に区画されている。
前方領域B1は前方カメラ12の撮像範囲A1で撮像された撮像画像が表示される領域である。
後方領域B2は後方カメラ14の撮像範囲A2で撮像された撮像画像が表示される領域である。
左方領域B3は左方カメラ16の撮像範囲A3で撮像された撮像画像が表示される領域である。
右方領域B4は右方カメラ18の撮像範囲A4で撮像された撮像画像が表示される領域である。
図4、図5、図6からわかるように、何れのモードにおいても表示画面3202に表示される視点変換画像が見やすくなるように、各モードにおける各領域B1乃至B4の配置位置および面積が異なるものとなっている。
Next, referring to FIGS. 4, 5, and 6, the images are displayed on the imaging ranges A <b> 1, A <b> 2, A <b> 3, A <b> 4 (FIG. 2) of each
4 to 15, the vehicle model image M to be combined with the portion corresponding to the image of the
4 shows the upper viewpoint mode, FIG. 5 shows the rear viewpoint mode, and FIG. 6 shows the front viewpoint mode.
4, 5, and 6, a
The front area B1 is an area in which a captured image captured in the imaging range A1 of the
The rear region B2 is a region where a captured image captured in the imaging range A2 of the
The left region B3 is a region in which a captured image captured in the imaging range A3 of the
The right area B4 is an area in which a captured image captured in the imaging range A4 of the
As can be seen from FIGS. 4, 5, and 6, the arrangement positions and areas of the regions B <b> 1 to B <b> 4 in each mode are different so that the viewpoint conversion image displayed on the
次に、運転者が車両2を駐車場の所定の駐車位置に駐車させる場合における上方視点モード、後方視点モード、前方視点モードについて説明する。
Next, the upper viewpoint mode, the rear viewpoint mode, and the front viewpoint mode when the driver parks the
図2に示すように、駐車場の路面に、駐車位置を表す2本のガイド線L1、L2が車両2の幅以上の間隔をおいて平行して描かれている。また、ガイド線L1、L2の間の路面の箇所に、直方体状を呈する車止め用のブロックBLが設置されている。
As shown in FIG. 2, two guide lines L <b> 1 and L <b> 2 representing a parking position are drawn in parallel on the road surface of the parking lot with an interval equal to or larger than the width of the
1)上方視点モード
車両2が後退しつつ(バックしつつ)2本のガイド線L1、L2の間に駐車する場合について説明する。
図7は車両2がその後部をブロックBLに向けた状態で2本のガイド線L1、L2の手前に位置している状態を示している。
図7に示すように、表示画面3202には、ガイド線L1、L2、ブロックBL、駐車場周辺に位置する複数の建築物a乃至n、駐車場に駐車している別の車両4などを含んだ視点変換画像である上方視点画像が表示されている。
図7に示した状態からさらに車両2が後退すると、図8に示すように、車両2の移動に追従して視点変換画像が変化する。
やがて、図9に示すように、所望の位置まで車両2が後退して車両2が停車すると、視点変換画像の変化も停止する。
1) Upper viewpoint mode A case where the
FIG. 7 shows a state in which the
As shown in FIG. 7, the
When the
Eventually, as shown in FIG. 9, when the
2)後方視点モード
車両2が後退しつつ(バックしつつ)2本のガイド線L1、L2の間に駐車する場合について説明する。
図10は車両2がその後部をブロックBLに向けた状態で2本のガイド線L1、L2の手前に位置している状態を示している。
図10に示すように、表示画面3202には、ガイド線L1、L2、ブロックBL、駐車場周辺に位置する複数の建築物a、b、c、d、e、k、l、m、n、駐車場に駐車している別の車両4などを含んだ視点変換画像である後方視点画像が表示されている。
図10に示した状態からさらに車両2が後退すると、図11に示すように、車両2の移動に追従して視点変換画像が変化する。
やがて、図12に示すように、所望の位置まで車両2が後退して車両2が停車すると、視点変換画像の変化も停止する。
2) Back viewpoint mode The case where the
FIG. 10 shows a state in which the
As shown in FIG. 10, the
When the
Eventually, as shown in FIG. 12, when the
3)前方視点モード
車両2が前進しつつ2本のガイド線L1、L2の間に駐車する場合について説明する。
図13は車両2がその前部をブロックBLに向けた状態で2本のガイド線L1、L2の手前に位置している状態を示している。
図13に示すように、表示画面3202には、ガイド線L1、L2、ブロックBL、駐車場周辺に位置する複数の建築物e、f、g、h、i、j、駐車場に駐車している別の車両4などを含んだ視点変換画像である前方視点画像が表示されている。
図13に示した状態からさらに車両2が前進すると、図14に示すように、車両2の移動に追従して視点変換画像が変化する。
やがて、図15に示すように、所望の位置まで車両2が前進して車両2が停車すると、視点変換画像の変化も停止する。
3) Front viewpoint mode The case where the
FIG. 13 shows a state in which the
As shown in FIG. 13, the
When the
Eventually, as shown in FIG. 15, when the
以上説明したように、本実施の形態では、車両周辺監視装置10は、視点Pおよび方向Dを3通りに異ならせることにより、視点変換画像を上方視点画像、後方視点画像、前方視点画像の3通りに変更することができる。言い換えると、表示動作を上方視点モード、後方視点モード、前方視点モードの3通りに切り替えることができる。
そこで、本実施の形態では、車両周辺監視装置10は、以下に説明するように車両2の走行状況の検出結果と接近物体の検出結果とに応じて、車両2の運転を適切に支援する上で最適な表示動作を選択する。
As described above, in the present embodiment, the vehicle
Therefore, in the present embodiment, the vehicle
次に図16のフローチャートを参照して車両2が駐車場で駐車する場合における車両周辺監視装置10の動作について具体的に説明する。
まず、運転状況検出手段40は、車速センサ26の検出結果に基づいて車両2の速度が予め定められた所定の速度以下であるか否かを判定する(ステップS10)。ステップS10が否定ならばステップS10を繰り返して実行する。前記の所定速度は駐車時における車速に基づいて設定すればよい。
ステップS10が肯定ならば、視点位置方向決定手段44は、視点変換画像生成手段38によって生成される視点変換画像が上方視点画像となるように視点Pの位置と方向Dとを決定する。これにより、図7に示すような上方視点画像がモニタ32の表示画面3202に表示される上方視点モードが実行される(ステップS12)。
したがって、車両2の速度が所定の車速以下である場合には、上方視点画像によって車両2の全周にわたる広い範囲が表示されるため、車両2の周囲に位置する物体の有無を漏れなく的確に視認する上で有利となる。
本実施の形態においては、物体は、ブロックBL、あるいは、隣接する他の車両4である。
Next, the operation of the vehicle
First, the driving state detection means 40 determines whether or not the speed of the
If step S10 is affirmative, the viewpoint position /
Accordingly, when the speed of the
In the present embodiment, the object is the block BL or another
次に、運転状況検出手段40は、シフト位置センサ24によって検出された車両2の走行状態(前進および後退の何れの走行状態であるか)と、操舵角センサ28によって検出された操舵角とに基づいて車両2の進行方向を検出する(ステップS14)。
次いで、視点位置方向決定手段44は、接近物体検出手段42によって物体が検出されたか否かを判定する(ステップS16)。ステップS16が否定であれば、ステップS10に戻る。
ステップS16が肯定であれば、視点位置方向決定手段44は、検出された物体が車両2の進行方向に位置しているか否かを判定する(ステップS18)。ステップS18が否定であれば、ステップS10に戻る。
ステップS18が肯定であれば、視点位置方向決定手段44は、シフト位置センサ24によって検出された車両2の走行状態に基づいて車両2が前進しているか後退しているかを判定する(ステップS20)。
Next, the driving state detection means 40 determines the traveling state of the
Next, the viewpoint position
If step S16 is affirmative, the viewpoint position
If step S18 is positive, the viewpoint position
ステップS20で車両2が前進状態と判定されたならば、視点位置方向決定手段44は、視点変換画像生成手段38によって生成される視点変換画像が前方視点画像となるように視点Pの位置と方向Dとを決定する。
言い換えると、視点位置方向決定手段44は、視点Pの位置を、車両2の進行方向の前方でかつ上方の箇所に決定すると共に、方向Dを、視点Pから画像投影面に投影された投影画像のうち車両2および物体を含む部分を見下ろす方向に決定することになる。
これにより、図13、図14、図15に示すような前方視点画像がモニタ32の表示画面3202に表示される前方視点モードが実行される(ステップS22)。
したがって、車両2が前進しかつ車両2の進行方向に物体が位置している場合には、前方視点モードが実行されることによって車両2の進行方向に位置する物体を含む画像が確実に表示される。そのため、注意を払うべき物体を的確に視認しつつ運転操作を行う上で有利となる。言い換えると、注意を払うべき物体との距離感を得る上で有利な位置の視点Pから見た前方視点画像を視認できるため、運転操作を行う上で有利となる。
If it is determined in step S20 that the
In other words, the viewpoint position /
Thereby, the forward viewpoint mode in which the forward viewpoint images as shown in FIGS. 13, 14, and 15 are displayed on the
Therefore, when the
また、ステップS20で車両2が後退状態と判定されたならば、視点位置方向決定手段44は、視点変換画像生成手段38によって生成される視点変換画像が後方視点画像となるように、視点Pの位置と方向Dとを決定する。
言い換えると、視点位置方向決定手段44は、視点Pの位置を、車両2の進行方向の前方でかつ上方の箇所に決定すると共に、方向Dを、視点Pから画像投影面に投影された投影画像のうち車両2および物体を含む部分を見下ろす方向に決定することになる。
これにより、図10、図11、図12に示すような後方視点画像がモニタ32の表示画面3202に表示される後方視点モードが実行される(ステップS24)。
したがって、車両2が後退しかつ車両2の進行方向に物体が位置している場合には、後方視点モードが実行されることによって車両2の進行方向に位置する物体を含む画像が確実に表示される。そのため、注意を払うべき物体を的確に視認しつつ運転操作を行う上で有利となる。言い換えると、注意を払うべき物体との距離感を得る上で有利な位置の視点Pから見た後方視点画像を視認できるため、運転操作を行う上で有利となる。
If it is determined in step S20 that the
In other words, the viewpoint position /
Thus, the rear viewpoint mode in which the rear viewpoint images as shown in FIGS. 10, 11, and 12 are displayed on the
Therefore, when the
また、本実施の形態では、ステップS16において物体が検出されない場合、あるいは、ステップS16で物体が検出されてもステップS18において車両2の進行方向に物体が位置していない場合には、ステップS10、S12に移行して上方視点モードに戻る。
このように、注意を払うべき物体が無い場合には、上方視点画像によって車両2の全周にわたる広い範囲が表示されるため、車両2の周囲に位置する物体の有無を漏れなく的確に視認する上で有利となる。
In the present embodiment, if no object is detected in step S16, or if an object is detected in step S16 and no object is located in the traveling direction of the
As described above, when there is no object to which attention should be paid, the upper viewpoint image displays a wide range over the entire circumference of the
本実施の形態によれば、車両2の周囲にわたって延在する仮想的な3次元の立体面からなる画像投影面に投影された投影画像を見る仮想的な視点Pと方向Dとを、運転状況の検出結果と、車両2に接近する物体の検出結果とに基づいて決定するようにした。
したがって、運転状況および車両2に接近する物体の有無に応じて車両2の運転操作を行う上で適切な視点Pと方向Dから見た画像を表示させることができるので、車両2の運転操作を簡単かつ円滑に行う上で有利となる。
また、本実施の形態では、車両2の周囲にわたって延在する仮想的な3次元の立体面からなる画像投影面に投影された投影画像を仮想的な視点Pと方向Dから見た画像が表示される。そのため、従来装置で表示される俯瞰画像のような死角が発生しにくく、また、従来装置で表示される俯瞰画像を見たときのような違和感が軽減される。
したがって、表示された画像に基づいて車両2の周辺の状況を直感的に認識する上で有利となることから、訓練や慣れを必要とすることなく車両2の運転操作を簡単かつ円滑に行う上で有利となる。
According to the present embodiment, a virtual viewpoint P and a direction D for viewing a projection image projected on an image projection plane composed of a virtual three-dimensional solid surface extending around the periphery of the
Therefore, an image viewed from an appropriate viewpoint P and direction D in performing the driving operation of the
Further, in the present embodiment, an image obtained by projecting a projection image projected on an image projection plane composed of a virtual three-dimensional solid surface extending around the
Therefore, since it is advantageous for intuitively recognizing the situation around the
(第2の実施の形態)
次に、第2の実施の形態について説明する。
上述した第1の実施の形態では、車両2の速度が所定速度以下である場合に無条件で上方視点画像が表示されることになる。そのため、交差点で車両2が信号待ちしている場合、あるいは、見通しの悪い交差点で車両2がゆっくりと前方に移動するいわゆる頭出しを行う場合であっても上方視点画像が表示されることになる。
しかしながら、信号待ちや頭出しを行うような状況においては、上方視点画像よりも、前方カメラ12で車両2の前方を撮像した撮像画像を表示させることが運転操作を支援する上でより適切といえる。
そこで、第2の実施の形態では、信号待ちや頭出しを行うような状況と、駐車場内で駐車をするような状況とを的確に判定し、その判定結果に対応して最適な画像を表示させるようにしたものである。
(Second Embodiment)
Next, a second embodiment will be described.
In the first embodiment described above, the upper viewpoint image is unconditionally displayed when the speed of the
However, in a situation where waiting for a signal or cueing is performed, it can be said that displaying a captured image obtained by capturing the front of the
Therefore, in the second embodiment, a situation in which a signal is waited for or cued and a situation in which parking is performed in a parking lot are accurately determined, and an optimal image is displayed according to the determination result. It is made to let you.
図17は第2の実施の形態における車両周辺監視装置10の構成を示すブロック図、図18は、第2の実施の形態における車両周辺監視装置10の動作フローチャート、図19は前カメラ画像モード時に表示される画像の説明図である。なお、以下の実施の形態において第1の実施の形態と同様あるいは同一の部分には同一の符号を付してその説明を省略する。
図17に示すように、第2の実施の形態においては、車両周辺監視装置10は、位置検出手段としてのナビゲーション装置30と、表示制御手段45とをさらに備えている。
ナビゲーション装置30は、前述したように測位部3002と、データベース3004とを含んで構成されている。
本実施の形態では、ナビゲーション装置30は、測位部3002で測位された車両2の現在地に対応する地図情報や施設情報に基づいて、車両2が駐車場内に位置しているか、駐車場外に位置しているかを判定し、その判定結果をECU20に供給する。
表示制御手段45は、ナビゲーション装置30により車両2が駐車場外に位置していると判定されたときに前方カメラで撮像された撮像画像をモニタ32の表示画面3202に表示させる。また、ナビゲーション装置30によりにより車両2が駐車場内に位置していると判定されたときに視点変換画像を表示画面3202に表示させる。
なお、ECU20は表示制御手段45を含んで構成され、表示制御手段45は、第1の実施の形態と同様に、前記CPUが前記制御プログラムを実行することにより実現される。
FIG. 17 is a block diagram showing the configuration of the vehicle
As shown in FIG. 17, in the second embodiment, the vehicle
As described above, the
In the present embodiment, the
Display control means 45 displays the image captured by the front camera when it is determined that the
Note that the
次に、図18のフローチャートを参照して動作について説明する。
まず、運転状況検出手段40は、車速センサ26の検出結果に基づいて車両2の速度が予め定められた所定の速度以下であるか否かを判定する(ステップS50)。ステップS50が否定ならばステップS50を繰り返して実行する。
ステップS50が肯定ならば、表示制御手段45は、ナビゲーション装置30からの判定結果を受け付ける(ステップS52)。
ナビゲーション装置30により車両2が駐車場内に位置していないと判定されると、表示制御手段45は、前方カメラ12で撮像された撮像画像をモニタ32の表示画面3202に表示させる前方カメラ画像モードを実行する(ステップS54)。
この結果、図19に示すように、前方カメラ12の撮像範囲A1(図2)に相当する画像が表示画面3202に表示される。なお、図19では、車両2の前方に位置する他の車両6、路面に描かれた停止線およびSTOPの文字が表示画面3202に表示された様子を示している。
したがって、交差点で車両2が信号待ちしている場合、あるいは、見通しの悪い交差点で車両2がゆっくりと前方に移動するいわゆる頭出しを行う場合には、前方カメラ12で車両2の前方を撮像した撮像画像が表示される。この画像は、車両2の信号待ちあるいは頭出しの場合に、上方視点画像に比較して運転操作を支援する上でより適切なものである。
Next, the operation will be described with reference to the flowchart of FIG.
First, the driving state detection means 40 determines whether or not the speed of the
If step S50 is affirmative, the display control means 45 receives the determination result from the navigation apparatus 30 (step S52).
When it is determined by the
As a result, as shown in FIG. 19, an image corresponding to the imaging range A1 (FIG. 2) of the
Therefore, when the
一方、ステップS52でナビゲーション装置30により車両2が駐車場内に位置していると判定されると、ステップS56乃至S66が実行される。すなわち、第1の実施の形態における図16のステップS12乃至S24の動作が実行され、視点変換画像が表示画面3202に表示される。言い換えると、表示制御手段45は、視点変換画像を表示画面3202に表示させる動作を実行する。
なお、ステップS56乃至S66のそれぞれは図16のステップS12乃至S24のそれぞれと同一であるため説明を省略する。
On the other hand, if it is determined in step S52 that the
Note that steps S56 to S66 are the same as steps S12 to S24 in FIG.
第2の実施の形態によれば、第1の実施の形態と同様の効果が奏される。また、信号待ちや頭出しを行うような状況と、駐車場内で駐車をするような状況とを的確に判定し、その判定結果に対応して最適な画像を表示させることができるため、車両2の環境に応じた運転支援をより適切に行う上で一層有利となる。
According to the second embodiment, the same effects as those of the first embodiment can be obtained. In addition, since it is possible to accurately determine the situation of waiting for a signal or finding a head and the situation of parking in a parking lot and displaying an optimal image corresponding to the judgment result, the
さらに、第2の実施の形態の変形例として以下に説明するようなものが考えられる。
すなわち、車両2が駐車した際にシフト位置センサ24によって検出されたシフト位置をECU20によりメモリ(不図示)に格納しておく。
次に車両2を発進させる際に、前記のメモリのシフト位置に応じて次のような画像を視点変換画像に優先して表示画面3202に表示させるようにしてもよい。
1)前記メモリに格納されているシフト位置がD(ドライブ:前進)であり次に車両2が発進する際のシフト位置がR(リバース:後退)であった場合:
この場合は、車両2がその前部から駐車スペースに入り込んだ状態で駐車しているため、車両2が駐車スペースから発進する際は、車両2が後退することになる。
したがって、表示制御手段45により後方カメラ14で撮像された撮像画像をモニタ32の表示画面3202に表示させる後方カメラ画像モードを実行する。
この結果、後方カメラ14の撮像範囲A2(図2)に相当する画像が表示画面3202に表示される。そのため、運転者は、注意を払うべき車両2の後方の画像を視認することができ、車両2を発車させる際の運転支援を適切に行う上で有利となる。
2)前記メモリに格納されているシフト位置がRであり次に車両2が発進する際のシフト位置がDであった場合:
この場合は、車両2がその後部から駐車スペースに入り込んだ状態で駐車しているため、車両2が駐車スペースから発進する際は、車両2が前進することになる。
したがって、表示制御手段45により前方カメラ12で撮像された撮像画像をモニタ32の表示画面3202に表示させる前方方カメラ画像モードを実行する。
この結果、前方カメラ12の撮像範囲A1(図2)に相当する画像が表示画面3202に表示される。そのため、運転者は、注意を払うべき車両2の前方の画像を視認することができ、車両2を発車させる際の運転支援を適切に行う上で有利となる。
この変形例によれば、駐車場で駐車した状態から車両2を発車させる際の運転支援をより適切に行う上で一層有利となる。
Furthermore, what is described below can be considered as a modification of the second embodiment.
That is, the shift position detected by the
Next, when the
1) When the shift position stored in the memory is D (drive: forward) and the next shift position when the
In this case, since the
Therefore, the rear camera image mode in which the captured image captured by the
As a result, an image corresponding to the imaging range A2 (FIG. 2) of the
2) When the shift position stored in the memory is R and the shift position when the
In this case, since the
Therefore, the front camera image mode in which the captured image captured by the
As a result, an image corresponding to the imaging range A1 (FIG. 2) of the
According to this modified example, it is more advantageous to perform driving support more appropriately when starting the
2……車両、10……車両周辺監視装置、12……前方カメラ、14……後方カメラ、16……左方カメラ、18……右方カメラ、20……ECU、24……シフト位置センサ、26……車両センサ、28……操舵角センサ、30……ナビゲーション装置(位置検出手段)、32……表示装置2202……表示画面、36……画像投影手段、38……視点変換画像生成手段、40……運転状況検出手段、42……接近物体検出手段、44……視点位置方向決定手段、45……表示制御手段、50……画像投影面、P……仮想的な視点、D……方向、M……車両モデル画像。
2 ... Vehicle, 10 ... Vehicle periphery monitoring device, 12 ... Front camera, 14 ... Rear camera, 16 ... Left camera, 18 ... Right camera, 20 ... ECU, 24 ... Shift position sensor , 26 …… Vehicle sensor, 28 …… Steering angle sensor, 30 …… Navigation device (position detection means), 32 …… Display device 2202 …… Display screen, 36 …… Image projection means, 38 …… Viewpoint conversion image generation Means 40, driving state detecting means 42, approaching
Claims (6)
前記各カメラから得られた前記撮像画像を前記車両の周囲にわたって延在する仮想的な3次元の立体面からなる画像投影面に投影する画像投影手段と、
前記画像投影面に投影された投影画像を視点変換処理することによって、指定された箇所に位置する仮想的な視点から指定された方向で前記投影画像を見ることによって得られる視点変換画像を生成する視点変換画像生成手段と、
前記視点変換画像を表示画面に表示する表示装置と、
前記車両の運転状況を検出する運転状況検出手段と、
前記車両に物体が接近したことを検出する接近物体検出手段と、
前記運転状況検出手段の検出結果と前記接近物体検出手段の検出結果とに基づいて、前記仮想的な視点の位置および方向を決定する視点位置方向決定手段とを備え、
前記複数のカメラは前記車両の前部から前方を撮像する前方カメラを含み、
前記車両が駐車場内に位置しているか、駐車場外に位置しているかを判定する位置検出手段と、
前記位置検出手段により前記車両が前記駐車場外に位置していると判定されたときに前記前カメラで撮像された撮像画像を前記表示装置に表示させ、前記位置検出手段により前記車両が前記駐車場内に位置していると判定されたときに前記視点変換画像を表示画面に表示させる表示制御手段とをさらに備え、
前記運転状況検出手段によって検出される前記車両の運転状況は前記車両の進行方向を含み、
前記検出された前記進行方向に前記接近物体検出手段によって物体が位置していることが検出された場合に、前記視点位置方向決定手段は、前記仮想的な視点の位置を、前記車両の進行方向の前方でかつ上方の箇所に決定すると共に、前記方向を、前記仮想的な視点から前記画像投影面に投影された投影画像のうち前記車両および前記物体を含む部分を見下ろす方向に決定する、
ことを特徴とする車両周辺監視装置。 A plurality of cameras that capture images from different locations of the vehicle and generate captured images around the vehicle;
Image projecting means for projecting the captured image obtained from each camera onto an image projecting surface formed of a virtual three-dimensional solid surface extending around the vehicle;
By performing a viewpoint conversion process on the projection image projected on the image projection plane, a viewpoint conversion image obtained by viewing the projection image in a specified direction from a virtual viewpoint positioned at a specified location is generated. Viewpoint-converted image generation means;
A display device for displaying the viewpoint-converted image on a display screen;
Driving status detection means for detecting the driving status of the vehicle;
Approaching object detection means for detecting that an object has approached the vehicle;
Viewpoint position direction determining means for determining the position and direction of the virtual viewpoint based on the detection result of the driving situation detection means and the detection result of the approaching object detection means,
The plurality of cameras includes a front camera that images the front from the front of the vehicle,
Position detecting means for determining whether the vehicle is located inside the parking lot or outside the parking lot;
When the position detection means determines that the vehicle is located outside the parking lot, the image picked up by the front camera is displayed on the display device, and the position detection means causes the vehicle to move inside the parking lot. further comprising a display control means for displaying on the display screen viewpoint conversion image when it is determined to be located in,
The driving situation of the vehicle detected by the driving situation detection means includes the traveling direction of the vehicle,
When the approaching object detection unit detects that the object is located in the detected traveling direction, the viewpoint position direction determination unit determines the virtual viewpoint position as the traveling direction of the vehicle. And a direction in which the vehicle and the object are included in the projected image projected onto the image projection plane from the virtual viewpoint.
The vehicle periphery monitoring apparatus characterized by the above-mentioned.
ことを特徴とする請求項1記載の車両周辺監視装置。 Detection of the approach of the approaching object by the approaching object detection means is made based on a projection image projected on the image projection plane.
The vehicle periphery monitoring device according to claim 1.
前記検出された前記車両の速度が予め定められた速度以下となった場合に、前記視点位置方向決定手段は、前記仮想的な視点の位置を、前記車両を通る鉛直線上で前記車両の上方の箇所に決定する共に、前記方向を、前記仮想的な視点から前記画像投影面に投影された投影画像の全体を俯瞰する方向に決定する、
ことを特徴とする請求項1または2記載の車両周辺監視装置。 The driving situation of the vehicle detected by the driving situation detection means includes the speed of the vehicle,
When the detected speed of the vehicle is equal to or lower than a predetermined speed, the viewpoint position direction determining means determines the position of the virtual viewpoint on the vertical line passing through the vehicle above the vehicle. And determining the direction as a direction for overlooking the entire projected image projected on the image projection plane from the virtual viewpoint,
The vehicle periphery monitoring device according to claim 1 or 2.
ことを特徴とする請求項1乃至3に何れか1項記載の車両周辺監視装置。 The driving situation of the vehicle includes at least one of a vehicle speed, a steering angle of a steering wheel, and a shift position of a shift lever.
The vehicle periphery monitoring apparatus according to any one of claims 1 to 3 , wherein
ことを特徴とする請求項1乃至4に何れか1項記載の車両周辺監視装置。 The viewpoint-converted image generating means synthesizes a vehicle model image drawn to resemble the vehicle on a portion corresponding to the vehicle in the viewpoint-converted image.
The vehicle periphery monitoring device according to any one of claims 1 to 4 , wherein the vehicle periphery monitoring device is characterized in that:
前記車両の後部に設けられ前記車両の後方を撮像する後方カメラと、
前記車両の左側部に設けられ前記車両の左側方を撮像する左方カメラと、
前記車両の右側部に設けられ前記車両の右側方を撮像する右方カメラとをさらに備える、
ことを特徴とする請求項1乃至5に何れか1項記載の車両周辺監視装置。 The plurality of cameras are:
A rear camera provided at the rear of the vehicle for imaging the rear of the vehicle;
A left camera that is provided on the left side of the vehicle and images the left side of the vehicle;
A right camera provided on the right side of the vehicle for imaging the right side of the vehicle;
The vehicle periphery monitoring device according to any one of claims 1 to 5 , wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010042230A JP5273068B2 (en) | 2010-02-26 | 2010-02-26 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010042230A JP5273068B2 (en) | 2010-02-26 | 2010-02-26 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011182059A JP2011182059A (en) | 2011-09-15 |
JP5273068B2 true JP5273068B2 (en) | 2013-08-28 |
Family
ID=44693140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010042230A Expired - Fee Related JP5273068B2 (en) | 2010-02-26 | 2010-02-26 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5273068B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10789763B2 (en) | 2018-01-17 | 2020-09-29 | Aisin Seiki Kabushiki Kaisha | Periphery monitoring device |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6406175B2 (en) * | 2015-08-27 | 2018-10-17 | 株式会社デンソー | In-vehicle display control device, in-vehicle display control method |
JP6575445B2 (en) * | 2015-09-30 | 2019-09-18 | アイシン精機株式会社 | Image processing apparatus for vehicle |
JP6769187B2 (en) * | 2016-09-05 | 2020-10-14 | 日産自動車株式会社 | Display method of display device and display device |
JP6543313B2 (en) | 2017-10-02 | 2019-07-10 | 株式会社エイチアイ | Image generation record display device and program for mobile object |
JP7504015B2 (en) | 2020-12-18 | 2024-06-21 | 株式会社クボタ | Vehicle |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198211A (en) * | 2002-12-18 | 2004-07-15 | Aisin Seiki Co Ltd | Apparatus for monitoring vicinity of mobile object |
JP2008227646A (en) * | 2007-03-09 | 2008-09-25 | Clarion Co Ltd | Obstacle detector |
JP2008279875A (en) * | 2007-05-10 | 2008-11-20 | Alpine Electronics Inc | Parking support device |
JP5104397B2 (en) * | 2008-02-27 | 2012-12-19 | 富士通株式会社 | Image processing apparatus and image processing method |
JP5412979B2 (en) * | 2009-06-19 | 2014-02-12 | コニカミノルタ株式会社 | Peripheral display device |
-
2010
- 2010-02-26 JP JP2010042230A patent/JP5273068B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10789763B2 (en) | 2018-01-17 | 2020-09-29 | Aisin Seiki Kabushiki Kaisha | Periphery monitoring device |
Also Published As
Publication number | Publication date |
---|---|
JP2011182059A (en) | 2011-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4412380B2 (en) | Driving support device, driving support method, and computer program | |
JP4956915B2 (en) | Video display device and video display method | |
JP6801787B2 (en) | Parking support method and parking support device | |
US8035575B2 (en) | Driving support method and driving support apparatus | |
JP5922866B2 (en) | System and method for providing guidance information to a vehicle driver | |
JP4900232B2 (en) | Vehicle parking assist device and video display method | |
JP5471141B2 (en) | Parking assistance device and parking assistance method | |
JP5273068B2 (en) | Vehicle periphery monitoring device | |
JP5741321B2 (en) | Driving assistance device | |
CN104210424A (en) | Enhanced front curb viewing system | |
JP5724446B2 (en) | Vehicle driving support device | |
JP2003300443A (en) | Parking assist system | |
JP2010184607A (en) | Vehicle periphery displaying device | |
JP2012076483A (en) | Parking support device | |
JP7156937B2 (en) | Image processing device and image processing method | |
JP5654284B2 (en) | Vehicle display device | |
JP2008279875A (en) | Parking support device | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP2007168560A (en) | Parking support apparatus | |
JP4797849B2 (en) | Driving support image display system and in-vehicle device | |
JP2008151507A (en) | Apparatus and method for merge guidance | |
JP2009171129A (en) | Parking support device for vehicle and image display method | |
JP2008148114A (en) | Drive assisting device | |
JP5605764B2 (en) | Vehicle display device | |
JP2010012838A (en) | Parking assisting device and parking assisting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121030 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130429 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5273068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |