JP2006054662A - Drive support device - Google Patents
Drive support device Download PDFInfo
- Publication number
- JP2006054662A JP2006054662A JP2004234640A JP2004234640A JP2006054662A JP 2006054662 A JP2006054662 A JP 2006054662A JP 2004234640 A JP2004234640 A JP 2004234640A JP 2004234640 A JP2004234640 A JP 2004234640A JP 2006054662 A JP2006054662 A JP 2006054662A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- vehicle
- parallax
- spatial map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 230000010354 integration Effects 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 35
- 238000000034 method Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 1
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、車両の運転を支援するための情報をユーザに提供する運転支援装置に関し、特に車両の周囲の状況を表示によって運転者に伝える技術に関する。 The present invention relates to a driving support apparatus that provides a user with information for supporting driving of a vehicle, and more particularly, to a technique for transmitting a situation around a vehicle to a driver by display.
従来、車両の運転を支援する運転支援装置の1つとして、車両に搭載されて運転を支援するための情報をユーザに提供するカーナビゲーション装置が知られている。このカーナビゲーション装置では、予め記憶された地図情報に基づいてディスプレイに地図が表示される。運転者は、このディスプレイに表示された地図を見ることにより自車両の位置を確認しながら運転を行うことができるので、道に迷うことなく、目的地に確実且つ短時間で到着できる。 2. Description of the Related Art Conventionally, as one of driving support devices that support driving of a vehicle, a car navigation device that is mounted on a vehicle and provides information for supporting driving to a user is known. In this car navigation apparatus, a map is displayed on a display based on map information stored in advance. The driver can drive while confirming the position of the host vehicle by looking at the map displayed on the display, so that the driver can arrive at the destination reliably and in a short time without getting lost.
近年は、このような運転支援装置として、カメラによって撮像した車外画像を車内のモニタに表示する車載カメラ装置が開発されている(例えば、特許文献1参照)。この車載カメラ装置は、魚眼カメラで撮影することにより得られた画像の歪みを補正し、かつ、補正した画像の一部を車両の走行状態に応じて切り出して拡大表示する。具体的には、魚眼カメラが画像コントローラに接続される。画像コントローラは座標変換回路、画像切出し回路および画像伸長回路を備えている。魚眼カメラからの歪画像信号は座標変換回路によって正画像信号に変換される。画像切出し回路は車両の走行状態を検出するための状態検出部を接続しており、歪み補正した画像中の任意の領域を状態検出部からの入力信号に応じて切り出す。画像伸長回路は切り出した画像を伸長し、モニタの表示画面の全面に表示する。 In recent years, as such a driving support device, an in-vehicle camera device that displays an external image captured by a camera on a monitor inside the vehicle has been developed (see, for example, Patent Document 1). This in-vehicle camera apparatus corrects distortion of an image obtained by photographing with a fisheye camera, and cuts out a part of the corrected image according to the traveling state of the vehicle and displays the enlarged image. Specifically, a fisheye camera is connected to the image controller. The image controller includes a coordinate conversion circuit, an image extraction circuit, and an image expansion circuit. The distortion image signal from the fisheye camera is converted into a positive image signal by a coordinate conversion circuit. The image cut-out circuit is connected to a state detection unit for detecting the running state of the vehicle, and cuts out an arbitrary region in the distortion-corrected image according to an input signal from the state detection unit. The image decompression circuit decompresses the clipped image and displays it on the entire display screen of the monitor.
また、他の運転支援装置として、カメラの死角による映像欠落範囲を補完した駐車場映像を表示する駐車支援装置が知られている(例えば、特許文献2参照)。この駐車支援装置は、車載の駐車場撮像手段により目標駐車場を撮像するとともに、車載の車両周囲撮像手段により車両の周囲を撮像し、車両周囲の映像の中で車体の死角になって映像が欠落している範囲の映像を目標駐車場の映像から切り出し、車両周囲の映像を補完して表示する。これにより、カメラの死角による映像欠落部分の少ない車両周囲の映像を表示することができ、駐車範囲を区分する白線や停車目標となる車止めなどがはっきりと映し出されて駐車場と自車との位置関係が把握しやすくなる。 As another driving support device, there is known a parking support device that displays a parking lot video that complements a video missing range due to a blind spot of a camera (see, for example, Patent Document 2). This parking assist device images the target parking lot by the on-board parking lot imaging means, images the surroundings of the vehicle by the on-vehicle vehicle surrounding imaging means, and the image becomes the blind spot of the vehicle body in the video around the vehicle. The image of the missing range is cut out from the image of the target parking lot, and the image around the vehicle is complemented and displayed. As a result, it is possible to display images around the vehicle with few missing parts due to blind spots of the camera, clearly displaying the white line that divides the parking range and the vehicle stop that is the stopping target, and the position of the parking lot and the vehicle The relationship becomes easier to grasp.
さらに他の運転支援装置として、自車両の進行路上に存在する障害物を検出して衝突判断を行う車両の衝突防止装置が知られている(例えば、特許文献3参照)。この衝突防止装置は、ステレオ光学系で撮像した1対の画像を画像処理部で処理して画像全体に渡る3次元の距離分布を算出し、その距離分布情報から道路形状や立体物の3次元位置を高速で検出すると、衝突判断部でこの画像処理部で検出された道路形状、車速センサ、ヨーレートセンサ、舵角センサからの入力データに基づいて自車両の走行領域を設定し、この走行領域内あるいはこの走行領域に係る全ての車両や障害物を画像処理部で検出された複数の車両や障害物の中から抽出し、抽出した全ての車両や障害物について、自車両の衝突可能性の評価値として衝突危険度を算出し、この衝突危険度の高いものが1つでもある場合はディスプレイに表示して運転者に警告を発する。 As another driving support device, there is known a vehicle collision preventing device that detects an obstacle on the traveling path of the host vehicle and makes a collision determination (see, for example, Patent Document 3). In this collision prevention apparatus, a pair of images captured by a stereo optical system is processed by an image processing unit to calculate a three-dimensional distance distribution over the entire image, and a road shape or a three-dimensional three-dimensional object is calculated from the distance distribution information. When the position is detected at high speed, the collision determination unit sets the traveling region of the host vehicle based on the input data from the road shape, the vehicle speed sensor, the yaw rate sensor, and the rudder angle sensor detected by the image processing unit. All of the vehicles and obstacles in or within this travel area are extracted from the plurality of vehicles and obstacles detected by the image processing unit, and the possibility of collision of the own vehicle is extracted for all of the extracted vehicles and obstacles. A collision risk is calculated as an evaluation value, and if there is any one having a high collision risk, it is displayed on the display and a warning is given to the driver.
ところが、上述した従来の運転支援装置では、駐車場にカメラを設置しなければならず、また、基本的には自車両を中心とした周囲の画像を映し出すだけである。従って、ユーザは自車の状態を直感的に把握できないという課題がある。 However, in the above-described conventional driving support apparatus, a camera must be installed in the parking lot, and basically, only the surrounding image centered on the own vehicle is displayed. Therefore, there is a problem that the user cannot intuitively grasp the state of the vehicle.
この発明は、上述した課題を解消するためになされたものであり、自車両周辺の状態をユーザにわかりやすく提示できる運転支援装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a driving support device that can easily present a state around the host vehicle to a user.
この発明に係る運転支援装置は、車両の周囲の全方位を分担して、複数のカメラで得られた複数の広角画像を歪みのない複数の平面画像に変換するパノラマ変換部と、パノラマ変換部で変換することにより得られた複数の平面画像の視差に基づき被写体までの距離を反映した視差画像を生成する視差計測部と、視差計測部で生成された視差画像に基づき車両およびその周囲を上空から見た空間地図を生成する空間地図生成部とを備え、表示部は空間地図生成部で生成された空間地図を表示する。 A driving support apparatus according to the present invention includes a panorama conversion unit that shares all directions around a vehicle and converts a plurality of wide-angle images obtained by a plurality of cameras into a plurality of flat images without distortion, and a panorama conversion unit A parallax measurement unit that generates a parallax image reflecting the distance to the subject based on the parallax of a plurality of planar images obtained by the conversion in the above, and the vehicle and its surroundings based on the parallax image generated by the parallax measurement unit A spatial map generation unit that generates a spatial map viewed from the above, and the display unit displays the spatial map generated by the spatial map generation unit.
この発明に係る運転支援装置によれば、車両の周囲の全方位を分担して広角撮影した複数のカメラからの画像に基づいて、車両およびその周囲を上空から見た空間地図を生成して表示部に表示するようにしたので、表示部に表示された空間地図は、停車や車線変更の障害となる障害物や駐車車両、走行車両を区分する目標となり、自車との位置関係が把握しやすくなる。その結果、自車両周辺の状態をユーザにわかりやすく提示できるので、ユーザの駐車や車線変更を支援することができる。 According to the driving support apparatus according to the present invention, a spatial map in which the vehicle and its surroundings are viewed from the sky is generated and displayed based on images from a plurality of cameras that have taken wide-angle images while sharing all directions around the vehicle. The spatial map displayed on the display unit becomes a target for distinguishing obstacles, parked vehicles, and traveling vehicles that are obstacles to stopping or changing lanes, and the positional relationship with the host vehicle is known. It becomes easy. As a result, the state around the host vehicle can be presented to the user in an easy-to-understand manner, and the user's parking and lane change can be supported.
以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る運転支援装置の構成を示すブロック図である。この運転支援装置は、魚眼カメラ101〜104、パノラマ変換部11、視差計測部12、空間地図生成部13、画像統合部14、ポジション検出部15、ターン検出部16、ブレーキ検出部17、車速検出部18、ハンドル角検出部19、画像切出部20およびナビゲーション装置21から構成されている。ポジション検出部15、ターン検出部16、ブレーキ検出部17、車速検出部18およびハンドル角検出部19は、この発明の車両運転情報取得部に対応する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of the driving support apparatus according to Embodiment 1 of the present invention. This driving support device includes fisheye cameras 10 1 to 10 4 , a
魚眼カメラ101〜104は、この発明の複数のカメラに対応する。魚眼カメラ101〜104の各々は、魚眼レンズとCCD素子(いずれも図示せず)とを備えており、魚眼レンズを介して入射された光がCCD素子の表面に結像することによって歪みを含む魚眼画像が形成される。このCCD素子の表面に形成された魚眼画像は、パノラマ変換部11に送られる。
The fisheye cameras 10 1 to 10 4 correspond to a plurality of cameras of the present invention. Each of the fish-eye cameras 10 1 to 10 4 includes a fish-eye lens and a CCD element (both not shown), and distortion is caused by the light incident through the fish-eye lens being imaged on the surface of the CCD element. A fisheye image is formed. The fisheye image formed on the surface of the CCD element is sent to the
4台の魚眼カメラ101〜104は、例えば図2に示すように、車両1の四隅に搭載されており、撮像方向が車両1の対角方向になるように設置されている。魚眼カメラ101〜104の各々は、略180度の画角を有する。従って、魚眼カメラ101では、図3(a)に示すような被写体aおよびbを含む魚眼画像が得られる。同様に、魚眼カメラ102では、図3(b)に示すような被写体bおよびcを含む魚眼画像が得られ、魚眼カメラ103では、図3(c)に示すような被写体cおよびdを含む魚眼画像が得られ、魚眼カメラ104では、図3(d)に示すような被写体dおよびaを含む魚眼画像が得られる。なお、この実施の形態1に係る運転支援装置では、4台の魚眼カメラを使用しているが、車両の周囲を全方位にわたって撮影できる構成であれば、魚眼カメラの台数は任意であり、また、魚眼カメラの代わりに広角カメラを使用することもできる。 For example, as shown in FIG. 2, the four fisheye cameras 10 1 to 10 4 are mounted at the four corners of the vehicle 1, and are installed so that the imaging direction is a diagonal direction of the vehicle 1. Each of the fisheye cameras 10 1 to 10 4 has an angle of view of approximately 180 degrees. Therefore, the fish-eye camera 10 1, the fisheye image including the subject a and b as shown in FIG. 3 (a) is obtained. Similarly, the fisheye camera 10 2 obtains a fisheye image including subjects b and c as shown in FIG. 3B, and the fisheye camera 10 3 obtains a subject c as shown in FIG. 3C. and fish-eye image is obtained containing d, the fisheye camera 10 4, the fish-eye image including the subject d and a, as shown in FIG. 3 (d) is obtained. In addition, in the driving assistance device according to the first embodiment, four fisheye cameras are used, but the number of fisheye cameras is arbitrary as long as it is a configuration capable of photographing the periphery of the vehicle in all directions. Also, a wide-angle camera can be used instead of the fisheye camera.
パノラマ変換部11は、魚眼カメラ101〜104から送られてくる4枚の魚眼画像の各々に所定の演算処理を施すことにより、4枚の歪みのない平面画像に変換する。このパノラマ変換部11で得られた4枚の平面画像は、視差計測部12および画像統合部14に送られる。
視差計測部12は、パノラマ変換部11から送られてくる4枚の平面画像にステレオ法を用いて視差を計測し、この計測した視差に基づき、被写体までの距離を反映した視差画像(距離分布画像)を生成する。この視差画像は、後述するパノラマ画像と同様に、360度の水平画角を有する。視差計測部12で得られた視差画像は、空間地図生成部13に送られる。
The
空間地図生成部13は、視差計測部12から送られてくる視差画像に基づいて、空間地図を生成する。ここで、空間地図とは、車両1およびその周辺を上空から撮影することによって得られるような地図をいう。空間地図生成部13は、視差画像から例えば障害物までの距離を取得し、その障害物を描画する。これにより、例えば図4に示すような、自車両1の周囲に存在する障害物2が含まれた空間地図が得られる。この空間地図生成部13で生成された空間地図は、ナビゲーション装置21に送られる。
The spatial
画像統合部14は、パノラマ変換部11から送られてくる4枚の平面画像を統合し、図5に示すような、360度の水平画角を有するパノラマ画像を生成する。この画像統合部14で生成されたパノラマ画像は、画像切出部20に送られる。
The
ポジション検出部15は、車両1の図示しないシフトレバーのセット位置を検出する。このポジション検出部15で検出されたシフトレバーのセット位置は、ポジション信号として画像切出部20に送られる。ターン検出部16は、図示しない方向指示器のセット状態を検出する。このターン検出部16で検出された方向指示器のセット状態は、ターン信号として画像切出部20に送られる。
The position detector 15 detects a set position of a shift lever (not shown) of the vehicle 1. The set position of the shift lever detected by the position detection unit 15 is sent to the
ブレーキ検出部17は、図示しないブレーキの踏み込み状態を検出する。このブレーキ検出部17で検出されたブレーキの踏み込み状態は、ブレーキ信号として画像切出部20に送られる。車速検出部18は、車両1の移動速度を検出する。この車速検出部18で検出された車両の移動速度は、速度信号として画像切出部20に送られる。ハンドル角検出部19は、図示しないハンドルが回転した角度を検出する。このハンドル角検出部19で検出されたハンドルの回転角度は、ハンドル角信号として画像切出部20に送られる。
The brake detection unit 17 detects a depression state of a brake (not shown). The brake depression state detected by the brake detection unit 17 is sent to the
画像切出部20は、画像統合部14から送られてきたパノラマ画像を、ポジション検出部15からのポジション信号、ターン検出部16からのターン信号、ブレーキ検出部17からのブレーキ信号、車速検出部18からの速度信号およびハンドル角検出部19からのハンドル角信号(これらの各信号を「車両運転情報」という)に基づいて決定される視点に対応する位置で切り出す。この画像切出部20によって切り出された画像は、ナビゲーション装置21に送られる。
The
ナビゲーション装置21は、ディスプレイ22およびタッチパネル23を備えている。この発明の表示部は、ディスプレイ22によって構成され、視点指示部は、タッチパネル23によって構成されている。このナビゲーション装置21は、通常のナビゲーション機能である自車両1の周辺の地図をディスプレイ22に表示する機能の他に、空間地図生成部13から送られてくる空間地図および画像切出部20から送られてくる画像を、ディスプレイ22に表示する機能を有する。
The
次に、上記のように構成される、この発明の実施の形態1に係る運転支援装置の動作を、図6〜図8に示すフローチャートを参照しながら説明する。 Next, the operation of the driving assistance apparatus configured as described above according to Embodiment 1 of the present invention will be described with reference to the flowcharts shown in FIGS.
まず、ナビゲーション装置21は、図9(a)に示すように、地図30および空間地図ボタン31をディスプレイ22に表示させる(ステップST10)。次いで、ナビゲーション装置21は、空間地図ボタン31が押下されたかどうかを調べる(ステップST11)。ここで、空間地図ボタン31が押下されていないことが判断されると、シーケンスはステップST10に戻り、上述した処理が繰り返される。これにより、ディスプレイ22に表示される地図30が順次更新され、所謂ナビゲーションが行われる。
First, as shown in FIG. 9A, the
上記ステップST11において、空間地図ボタン31が押下されたことが判断されると、次いで、空間地図生成処理が行われる(ステップST12)。図7は、この空間地図生成処理の詳細を示すフローチャートである。空間地図生成処理では、まず、魚眼カメラ101〜104から魚眼画像が入力される(ステップST20)。次いで、魚眼カメラ101〜104から入力された4枚の魚眼画像が、パノラマ変換部11によって、歪みのない4枚の平面画像に変換される(ステップST21)。次いで、パノラマ変換部11によって得られた4枚の平面画像から、視差計測部12によって、360度の水平画角を有する視差画像が生成される(ステップST22)。次いで、空間地図生成部13によって、視差計測部12で生成された視差画像から空間地図が生成される(ステップST23)。次いで、ステップST23で生成された空間地図がナビゲーション装置21に送られる(ステップST24)。その後、シーケンスは、図6のフローチャートで示す処理に戻る。
If it is determined in step ST11 that the
空間地図生成処理が完了すると、次いで、パノラマ画像の切出処理が行われる(ステップST13)。図8は、このパノラマ画像の切出処理の詳細を示すフローチャートである。パノラマ画像の切出処理では、まず、魚眼カメラ101〜104から魚眼画像が入力される(ステップST30)。次いで、魚眼カメラ101〜104から入力された4枚の魚眼画像が、パノラマ変換部11によって、歪みのない4枚の平面画像に変換される(ステップST31)。次いで、パノラマ変換部11によって得られた4枚の平面画像が、画像統合部14によって統合され、360度の水平画角を有するパノラマ画像が生成される(ステップST32)。次いで、画像切出部20によって、ポジション検出部15、ターン検出部16、ブレーキ検出部17、車速検出部18およびハンドル角検出部19からの車両運転情報に従って、最適視点が決定される(ステップST33)。次いで、ステップST33で決定された最適視点に対応する位置からパノラマ画像の一部が切り出される(ステップST34)。そして、このステップST34で切り出された画像が、切出画像としてナビゲーション装置21に送られる(ステップST35)。その後、シーケンスは、図6のフローチャートで示す処理に戻る。
When the spatial map generation process is completed, a panoramic image cutting process is then performed (step ST13). FIG. 8 is a flowchart showing details of the panoramic image cut-out process. In cutting process of a panoramic image, first, the fish-eye image is inputted from the fisheye camera 10 1 to 10 4 (step ST30). Next, the four fisheye images input from the fisheye cameras 10 1 to 10 4 are converted into four flat images without distortion by the panorama conversion unit 11 (step ST31). Next, the four planar images obtained by the
パノラマ画像の切出処理が完了すると、次いで、図9(b)に示すように、地図30、空間地図32、切出画像33およびカメラボタン34がディスプレイ22に表示される(ステップST14)。次いで、カメラボタン34が押下されたかどうかが調べられる(ステップST15)。ここで、カメラボタン34が押下されていないことが判断されると、シーケンスはステップST12に戻り、上述した処理が繰り返される。これにより、ディスプレイ22に表示される地図30、空間地図32および切出画像33が順次更新されるとともに、所謂ナビゲーションが行われる。
When the panoramic image cut-out process is completed, a
上記ステップST15において、カメラボタン34が押下されたことが判断されると、図9(c)に示すように、空間地図32、切出画像33およびパノラマ画像35がディスプレイ22に表示される(ステップST16)。パノラマ画像35は、画像統合部14からナビゲーション装置21に直接に入力される。この表示の際、パノラマ画像35のうちの切出画像33に対応する部分は、枠36で表示される。ユーザは、枠36にタッチした状態で左右(図示矢印方向)に動かすことにより、視点、つまりパノラマ画像35から切り出す位置を任意に変更できる。
If it is determined in step ST15 that the
次いで、視点の変更がなされたかどうかが調べられる(ステップST17)。ここで、視点の変更がなされていないことが判断されると、シーケンスはステップST16に戻り、上述した処理が繰り返される。一方、視点の変更がなされたことが判断されると、切出画像の更新が行われる(ステップST18)。即ち、枠36が移動された位置の画像が切出画像33として表示される。次いで、終了であるかどうかが調べられる(ステップST19)。これは、例えばナビゲーション装置21の所定のボタンが押されたかどうかを調べることにより行われる。ここで、終了でないことが判断されると、シーケンスはステップST16に戻り、上述した処理が繰り返される。一方、終了であることが判断されると、この運転支援装置の動作は終了する。
Next, it is checked whether or not the viewpoint has been changed (step ST17). If it is determined that the viewpoint has not been changed, the sequence returns to step ST16 and the above-described processing is repeated. On the other hand, if it is determined that the viewpoint has been changed, the clipped image is updated (step ST18). That is, the image at the position where the
上記のように構成される、この発明の実施の形態1に係る運転支援装置によれば、以下のような利用が可能である。 According to the driving support apparatus according to Embodiment 1 of the present invention configured as described above, the following usage is possible.
今、この運転支援装置の1つの利用例として、車両1の走行中に右車線に変更する場合を考える。この場合、ナビゲーション装置21のディスプレイ22には、図10(a)に示すような画面が表示されているものとする。この状態において空間地図ボタン31が押下されると、図10(b)に示すように、ナビゲーション装置21のディスプレイ22には、地図30、空間地図32、切出画像33およびカメラボタン34が表示される。この場合、ターン検出部16からのターン信号により方向指示器が右にセットされており、ポジション検出部15からのポジション信号が前進を示しており、車速検出部18からの車速信号が前方に移動中であることを示していることを条件に、切出画像33として右斜め後方の画像が自動的に表示される。これにより、運転者は、右車線への変更の可否を容易に判断することができる。
Now, as one example of use of this driving support device, consider the case of changing to the right lane while the vehicle 1 is traveling. In this case, it is assumed that a screen as shown in FIG. 10A is displayed on the
また、この運転支援装置の他の利用例として、車両1を駐車する場合を考える。この場合、ナビゲーション装置21のディスプレイ22には、図11(a)に示すような画面が表示されているものとする。この状態において空間地図ボタン31が押下されると、図11(b)に示すように、ナビゲーション装置21のディスプレイ22には、地図30、空間地図32、切出画像33およびカメラボタン34が表示される。この場合、ターン検出部16からのターン信号により方向指示器が左右点灯にセットされており、ポジション検出部15からのポジション信号が後進を示しており、車速検出部18からの車速信号が後方に移動中であることを示していることを条件に、切出画像33としては右斜め後方の画像が最適であると自動的に判断されて、ディスプレイ22に表示される。この状態で、さらにカメラボタン34が押されると、パノラマ画像35が枠36とともに表示される。
Moreover, the case where the vehicle 1 is parked is considered as another usage example of this driving support device. In this case, it is assumed that a screen as shown in FIG. 11A is displayed on the
以上説明したように、この発明の実施の形態1に係る運転支援装置によれば、車両1の周囲の全方位を分担して広角撮影した魚眼カメラ101〜104からの画像に基づいて、車両1およびその周囲を上空から見た空間地図を生成してナビゲーション装置21のディスプレイ22に表示するようにしたので、ディスプレイ22に表示された空間地図は、停車や車線変更の障害となる障害物や駐車車両、走行車両を区分する目標となり、自車との位置関係が把握しやすくなる。その結果、自車両周辺の状態をユーザにわかりやすく提示できるので、ユーザの駐車や車線変更を支援することができる。
As described above, according to the driving support apparatus according to Embodiment 1 of the present invention, based on the images from the fish-eye cameras 10 1 to 10 4 that have taken the wide angle while sharing all the directions around the vehicle 1. Since the spatial map of the vehicle 1 and its surroundings viewed from above is generated and displayed on the
また、魚眼カメラ101〜104からの画像に基づいてパノラマ画像が生成され、このパノラマ画像の視点切換えは、車両運転情報に基づいて自動的に行われる。従って、ユーザが車両1を運転中に注意を要する画像が自動的に表示されることになるので、ユーザは、自車両1の状態を直感的に把握することができる。 A panoramic image is generated based on the images from the fisheye cameras 10 1 to 10 4, and the viewpoint switching of the panoramic image is automatically performed based on the vehicle driving information. Therefore, an image that requires attention while the user is driving the vehicle 1 is automatically displayed, so that the user can intuitively grasp the state of the host vehicle 1.
また、ユーザは、確認したい視点がある場合は、マニュアル操作によってパノラマ画像の枠36を移動させることにより切り出し位置を変更することができるので、ユーザの死角となる部分や感覚的に認識し易い情報をユーザに提供できるため、駐車や車線変更等を支援することができる。
In addition, when there is a viewpoint to be confirmed, the user can change the clipping position by moving the
101〜104 魚眼カメラ、11 パノラマ変換部、12 視差計測部、13 空間地図生成部、14 画像統合部、15 ポジション検出部、16 ターン検出部、17 ブレーキ検出部、18 車速検出部、19 ハンドル角検出部、20 画像切出部、21 ナビゲーション装置、22 ディスプレイ、23 タッチパネル。 10 1 to 10 4 fisheye camera, 11 panorama conversion unit, 12 parallax measurement unit, 13 spatial map generation unit, 14 image integration unit, 15 position detection unit, 16 turn detection unit, 17 brake detection unit, 18 vehicle speed detection unit, 19 Handle angle detection unit, 20 Image cutout unit, 21 Navigation device, 22 Display, 23 Touch panel.
Claims (4)
前記複数のカメラで広角撮影することにより得られた複数の広角画像を歪みのない複数の平面画像に変換するパノラマ変換部と、
前記パノラマ変換部で変換することにより得られた複数の平面画像の視差に基づき被写体までの距離を反映した視差画像を生成する視差計測部と、
前記視差計測部で生成された視差画像に基づき前記車両およびその周囲を上空から見た空間地図を生成する空間地図生成部と、
前記空間地図生成部で生成された空間地図を表示する表示部
とを備えた運転支援装置。 A plurality of cameras arranged to divide all directions around the vehicle and shoot wide angle;
A panorama converter that converts a plurality of wide-angle images obtained by wide-angle imaging with the plurality of cameras into a plurality of flat images without distortion;
A parallax measuring unit that generates a parallax image reflecting a distance to a subject based on parallax of a plurality of planar images obtained by conversion by the panorama converting unit;
A spatial map generation unit that generates a spatial map of the vehicle and its surroundings viewed from above based on the parallax image generated by the parallax measurement unit;
And a display unit that displays the spatial map generated by the spatial map generation unit.
車両の運転状態を表す車両運転情報を取得する車両運転情報取得部と、
前記画像統合部で生成されたパノラマ画像の一部を、前記車両運転情報取得部で取得された車両運転情報に基づいて決定される視点に対応する位置で切り出す画像切出部とを備え、
表示部は、前記画像切出部で切り出された画像を表示することを特徴とする請求項1記載の運転支援装置。 An image integration unit that generates a panoramic image in all directions around the vehicle by integrating a plurality of planar images obtained by conversion in the panorama conversion unit;
A vehicle driving information acquisition unit for acquiring vehicle driving information representing the driving state of the vehicle;
An image cutout unit that cuts out a part of the panoramic image generated by the image integration unit at a position corresponding to a viewpoint determined based on the vehicle driving information acquired by the vehicle driving information acquisition unit;
The driving support device according to claim 1, wherein the display unit displays the image cut out by the image cutout unit.
ことを特徴とする請求項2記載の運転支援装置。 The driving support device according to claim 2, wherein the display unit displays the panoramic image generated by the image integration unit.
画像切出部は、画像統合部で生成されたパノラマ画像の一部を、前記視点指示部によって指示された視点で切り出すことを特徴とする請求項3記載の運転支援装置。 Provided with a viewpoint instruction unit that instructs the viewpoint to cut out the panoramic image,
The driving support device according to claim 3, wherein the image cutout unit cuts out a part of the panoramic image generated by the image integration unit at the viewpoint instructed by the viewpoint instruction unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004234640A JP2006054662A (en) | 2004-08-11 | 2004-08-11 | Drive support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004234640A JP2006054662A (en) | 2004-08-11 | 2004-08-11 | Drive support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006054662A true JP2006054662A (en) | 2006-02-23 |
Family
ID=36031845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004234640A Pending JP2006054662A (en) | 2004-08-11 | 2004-08-11 | Drive support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006054662A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201081A (en) * | 2005-01-21 | 2006-08-03 | Matsushita Electric Ind Co Ltd | Device for controlling display |
KR100773870B1 (en) * | 2006-07-07 | 2007-11-06 | 주식회사 피엘케이 테크놀로지 | Method for recognizing traffic lines by using two cameras |
JP2009081496A (en) * | 2007-09-25 | 2009-04-16 | Hitachi Ltd | In-vehicle camera |
JP2009184523A (en) * | 2008-02-06 | 2009-08-20 | Denso Corp | Parking assisting device |
JP2011159278A (en) * | 2009-11-19 | 2011-08-18 | Robert Bosch Gmbh | Rear-view multi-functional camera system |
US8098280B2 (en) | 2006-08-28 | 2012-01-17 | Fujitsu Limited | Moving object locating device, moving object locating method, and computer product |
CN102915669A (en) * | 2012-10-17 | 2013-02-06 | 中兴通讯股份有限公司 | Method and device for manufacturing live-action map |
CN103310673A (en) * | 2012-03-08 | 2013-09-18 | 财团法人工业技术研究院 | All-around aerial view image generation method and training device thereof |
WO2014109016A1 (en) * | 2013-01-09 | 2014-07-17 | 三菱電機株式会社 | Vehicle periphery display device |
US9030524B2 (en) | 2010-03-30 | 2015-05-12 | Fujitsu Limited | Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium |
CN105196925A (en) * | 2014-06-25 | 2015-12-30 | 比亚迪股份有限公司 | Traveling assisting device and vehicle provided with same |
JP2016054508A (en) * | 2015-11-06 | 2016-04-14 | カシオ計算機株式会社 | Display control device, display control method and program |
WO2018207303A1 (en) * | 2017-05-11 | 2018-11-15 | 三菱電機株式会社 | On-board monitoring camera device |
JP2019158741A (en) * | 2018-03-15 | 2019-09-19 | 株式会社日立製作所 | Three-dimensional image processing device, and three-dimensional image processing method |
US10595004B2 (en) | 2015-08-07 | 2020-03-17 | Samsung Electronics Co., Ltd. | Electronic device for generating 360-degree three-dimensional image and method therefor |
CN112721805A (en) * | 2021-02-01 | 2021-04-30 | 深圳市海沃德科技有限公司 | System and method for implementing panoramic looking around |
CN114222061A (en) * | 2021-12-10 | 2022-03-22 | 中国人民解放军96901部队25分队 | Photoelectric circumferential scanning real-time image splicing and interaction method |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266828A (en) * | 1993-03-12 | 1994-09-22 | Fuji Heavy Ind Ltd | Outside monitoring device for vehicle |
WO2000007373A1 (en) * | 1998-07-31 | 2000-02-10 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for displaying image |
JP2000118298A (en) * | 1998-10-14 | 2000-04-25 | Daihatsu Motor Co Ltd | Monitor device for vehicle |
JP2001055100A (en) * | 1999-08-18 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Multi-function on-board camera system and image display method of multi-function on-board camera system |
JP2001334869A (en) * | 2000-05-25 | 2001-12-04 | Matsushita Electric Ind Co Ltd | Driving support system |
JP2001339715A (en) * | 2000-05-25 | 2001-12-07 | Matsushita Electric Ind Co Ltd | Operation supporting apparatus |
JP2002104117A (en) * | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
JP2002112184A (en) * | 2000-09-27 | 2002-04-12 | Sony Miyuujitsuku Entertainment:Kk | Recording method and reproducing method for image information |
JP2002109697A (en) * | 2000-10-02 | 2002-04-12 | Matsushita Electric Ind Co Ltd | Drive support device |
JP2002218451A (en) * | 2000-10-11 | 2002-08-02 | Sharp Corp | Device for monitoring moving object surrounding |
JP2002242896A (en) * | 2001-02-19 | 2002-08-28 | Japan Servo Co Ltd | Axial fan |
JP2002259966A (en) * | 2001-03-05 | 2002-09-13 | Toyota Motor Corp | Periphery recognition device |
JP2002335524A (en) * | 1999-09-20 | 2002-11-22 | Matsushita Electric Ind Co Ltd | Driving support device |
JP2002344962A (en) * | 2001-03-15 | 2002-11-29 | Sharp Corp | Image communication equipment and portable telephone |
JP2002369186A (en) * | 2001-06-07 | 2002-12-20 | Sony Corp | Vehicle rear and surrounding image display equipment and method |
-
2004
- 2004-08-11 JP JP2004234640A patent/JP2006054662A/en active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266828A (en) * | 1993-03-12 | 1994-09-22 | Fuji Heavy Ind Ltd | Outside monitoring device for vehicle |
WO2000007373A1 (en) * | 1998-07-31 | 2000-02-10 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for displaying image |
JP2000118298A (en) * | 1998-10-14 | 2000-04-25 | Daihatsu Motor Co Ltd | Monitor device for vehicle |
JP2001055100A (en) * | 1999-08-18 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Multi-function on-board camera system and image display method of multi-function on-board camera system |
JP2002335524A (en) * | 1999-09-20 | 2002-11-22 | Matsushita Electric Ind Co Ltd | Driving support device |
JP2001334869A (en) * | 2000-05-25 | 2001-12-04 | Matsushita Electric Ind Co Ltd | Driving support system |
JP2001339715A (en) * | 2000-05-25 | 2001-12-07 | Matsushita Electric Ind Co Ltd | Operation supporting apparatus |
JP2002112184A (en) * | 2000-09-27 | 2002-04-12 | Sony Miyuujitsuku Entertainment:Kk | Recording method and reproducing method for image information |
JP2002109697A (en) * | 2000-10-02 | 2002-04-12 | Matsushita Electric Ind Co Ltd | Drive support device |
JP2002104117A (en) * | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
JP2002218451A (en) * | 2000-10-11 | 2002-08-02 | Sharp Corp | Device for monitoring moving object surrounding |
JP2002242896A (en) * | 2001-02-19 | 2002-08-28 | Japan Servo Co Ltd | Axial fan |
JP2002259966A (en) * | 2001-03-05 | 2002-09-13 | Toyota Motor Corp | Periphery recognition device |
JP2002344962A (en) * | 2001-03-15 | 2002-11-29 | Sharp Corp | Image communication equipment and portable telephone |
JP2002369186A (en) * | 2001-06-07 | 2002-12-20 | Sony Corp | Vehicle rear and surrounding image display equipment and method |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201081A (en) * | 2005-01-21 | 2006-08-03 | Matsushita Electric Ind Co Ltd | Device for controlling display |
KR100773870B1 (en) * | 2006-07-07 | 2007-11-06 | 주식회사 피엘케이 테크놀로지 | Method for recognizing traffic lines by using two cameras |
US8098280B2 (en) | 2006-08-28 | 2012-01-17 | Fujitsu Limited | Moving object locating device, moving object locating method, and computer product |
JP2009081496A (en) * | 2007-09-25 | 2009-04-16 | Hitachi Ltd | In-vehicle camera |
JP2009184523A (en) * | 2008-02-06 | 2009-08-20 | Denso Corp | Parking assisting device |
JP2011159278A (en) * | 2009-11-19 | 2011-08-18 | Robert Bosch Gmbh | Rear-view multi-functional camera system |
US9061635B2 (en) | 2009-11-19 | 2015-06-23 | Robert Bosch Gmbh | Rear-view multi-functional camera system with panoramic image display features |
US8953014B2 (en) | 2009-11-19 | 2015-02-10 | Robert Bosch Gmbh | Rear-view multi-functional camera system with three-dimensional data analysis features |
US8988493B2 (en) | 2009-11-19 | 2015-03-24 | Robert Bosch Gmbh | Rear-view multi-functional camera system with driving corridor monitoring features |
US9030524B2 (en) | 2010-03-30 | 2015-05-12 | Fujitsu Limited | Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium |
CN103310673A (en) * | 2012-03-08 | 2013-09-18 | 财团法人工业技术研究院 | All-around aerial view image generation method and training device thereof |
CN103310673B (en) * | 2012-03-08 | 2015-07-15 | 财团法人工业技术研究院 | All-around aerial view image generation method and training device thereof |
US9082315B2 (en) | 2012-03-08 | 2015-07-14 | Industrial Technology Research Institute | Surrounding bird view monitoring image generation method and training method, automobile-side device, and training device thereof |
CN102915669A (en) * | 2012-10-17 | 2013-02-06 | 中兴通讯股份有限公司 | Method and device for manufacturing live-action map |
WO2013170797A1 (en) * | 2012-10-17 | 2013-11-21 | 中兴通讯股份有限公司 | Method and device for producing real-view map |
CN104903946B (en) * | 2013-01-09 | 2016-09-28 | 三菱电机株式会社 | Vehicle surrounding display device |
CN104903946A (en) * | 2013-01-09 | 2015-09-09 | 三菱电机株式会社 | Vehicle periphery display device |
WO2014109016A1 (en) * | 2013-01-09 | 2014-07-17 | 三菱電機株式会社 | Vehicle periphery display device |
US9499168B2 (en) | 2013-01-09 | 2016-11-22 | Mitsubishi Electric Corporation | Vehicle periphery display device |
CN105196925A (en) * | 2014-06-25 | 2015-12-30 | 比亚迪股份有限公司 | Traveling assisting device and vehicle provided with same |
US10595004B2 (en) | 2015-08-07 | 2020-03-17 | Samsung Electronics Co., Ltd. | Electronic device for generating 360-degree three-dimensional image and method therefor |
JP2016054508A (en) * | 2015-11-06 | 2016-04-14 | カシオ計算機株式会社 | Display control device, display control method and program |
WO2018207303A1 (en) * | 2017-05-11 | 2018-11-15 | 三菱電機株式会社 | On-board monitoring camera device |
JP2019158741A (en) * | 2018-03-15 | 2019-09-19 | 株式会社日立製作所 | Three-dimensional image processing device, and three-dimensional image processing method |
CN112721805A (en) * | 2021-02-01 | 2021-04-30 | 深圳市海沃德科技有限公司 | System and method for implementing panoramic looking around |
CN114222061A (en) * | 2021-12-10 | 2022-03-22 | 中国人民解放军96901部队25分队 | Photoelectric circumferential scanning real-time image splicing and interaction method |
CN114222061B (en) * | 2021-12-10 | 2024-03-22 | 中国人民解放军96901部队25分队 | Photoelectric circumferential scanning real-time image splicing and interaction method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4863791B2 (en) | Vehicle peripheral image generation apparatus and image switching method | |
US9219887B2 (en) | Drive assist device | |
JP4969269B2 (en) | Image processing device | |
EP2763407B1 (en) | Vehicle surroundings monitoring device | |
US8576285B2 (en) | In-vehicle image processing method and image processing apparatus | |
JP5182042B2 (en) | Image processing apparatus, image processing method, and computer program | |
EP2623376B1 (en) | Parking assistance device | |
JP2006054662A (en) | Drive support device | |
US20120127312A1 (en) | Vehicle periphery image generation apparatus | |
JP2012071635A5 (en) | ||
JP2006121587A (en) | Operation supporting device and bird's-eye view creation method | |
JP5618138B2 (en) | Parking assistance device | |
WO2019193819A1 (en) | Display control device for vehicle, display system for vehicle, display control method for vehicle, and program | |
JP2012086684A (en) | Parking assist device | |
JP2007028363A (en) | Top view image generating apparatus and top view image display method | |
JPH09202180A (en) | On-board camera device | |
JP2005236540A (en) | On-vehicle camera device | |
JP2010154304A (en) | Mobile camera system and driving method | |
JP2012065225A (en) | In-vehicle image processing apparatus, periphery monitoring apparatus, and vehicle | |
JP4857159B2 (en) | Vehicle driving support device | |
JP3988551B2 (en) | Vehicle perimeter monitoring device | |
JP2007257304A (en) | Obstacle recognition device | |
JP2007088577A (en) | Vehicle surrounding image processing system | |
JP5691339B2 (en) | Driving assistance device | |
JP4081548B2 (en) | Driving support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061208 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071012 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100427 |