JP2006054662A - Drive support device - Google Patents

Drive support device Download PDF

Info

Publication number
JP2006054662A
JP2006054662A JP2004234640A JP2004234640A JP2006054662A JP 2006054662 A JP2006054662 A JP 2006054662A JP 2004234640 A JP2004234640 A JP 2004234640A JP 2004234640 A JP2004234640 A JP 2004234640A JP 2006054662 A JP2006054662 A JP 2006054662A
Authority
JP
Japan
Prior art keywords
image
unit
vehicle
parallax
spatial map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004234640A
Other languages
Japanese (ja)
Inventor
Daiki Ebina
大樹 蝦名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004234640A priority Critical patent/JP2006054662A/en
Publication of JP2006054662A publication Critical patent/JP2006054662A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drive support device for presenting a user with the peripheral status of a vehicle driven by the user in a easily understandable fashion. <P>SOLUTION: The drive support device is provided with: a plurality of cameras 10<SB>1</SB>to 10<SB>4</SB>arranged to perform wide-angle photography by bearing their share of the full azimuth of the periphery of a vehicle; a panorama converting part 11 for converting a plurality of wide angle images obtained by performing wide angle photography with the plurality of cameras into a plurality of plane images without any distortion; a parallax measuring part 12 for generating a parallax image to which a distance to a subject is reflected, based on the parallax of a plurality of plane images obtained by converting the plurality of wide angle images by the panorama converting part; a spatial map generating part 13 for generating a spatial map where a vehicle and its periphery is viewed from sky based on the parallax image generated by the parallax measuring part; and display parts 21 and 22 for displaying the spatial map generated by the spatial map generating part. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、車両の運転を支援するための情報をユーザに提供する運転支援装置に関し、特に車両の周囲の状況を表示によって運転者に伝える技術に関する。   The present invention relates to a driving support apparatus that provides a user with information for supporting driving of a vehicle, and more particularly, to a technique for transmitting a situation around a vehicle to a driver by display.

従来、車両の運転を支援する運転支援装置の1つとして、車両に搭載されて運転を支援するための情報をユーザに提供するカーナビゲーション装置が知られている。このカーナビゲーション装置では、予め記憶された地図情報に基づいてディスプレイに地図が表示される。運転者は、このディスプレイに表示された地図を見ることにより自車両の位置を確認しながら運転を行うことができるので、道に迷うことなく、目的地に確実且つ短時間で到着できる。   2. Description of the Related Art Conventionally, as one of driving support devices that support driving of a vehicle, a car navigation device that is mounted on a vehicle and provides information for supporting driving to a user is known. In this car navigation apparatus, a map is displayed on a display based on map information stored in advance. The driver can drive while confirming the position of the host vehicle by looking at the map displayed on the display, so that the driver can arrive at the destination reliably and in a short time without getting lost.

近年は、このような運転支援装置として、カメラによって撮像した車外画像を車内のモニタに表示する車載カメラ装置が開発されている(例えば、特許文献1参照)。この車載カメラ装置は、魚眼カメラで撮影することにより得られた画像の歪みを補正し、かつ、補正した画像の一部を車両の走行状態に応じて切り出して拡大表示する。具体的には、魚眼カメラが画像コントローラに接続される。画像コントローラは座標変換回路、画像切出し回路および画像伸長回路を備えている。魚眼カメラからの歪画像信号は座標変換回路によって正画像信号に変換される。画像切出し回路は車両の走行状態を検出するための状態検出部を接続しており、歪み補正した画像中の任意の領域を状態検出部からの入力信号に応じて切り出す。画像伸長回路は切り出した画像を伸長し、モニタの表示画面の全面に表示する。   In recent years, as such a driving support device, an in-vehicle camera device that displays an external image captured by a camera on a monitor inside the vehicle has been developed (see, for example, Patent Document 1). This in-vehicle camera apparatus corrects distortion of an image obtained by photographing with a fisheye camera, and cuts out a part of the corrected image according to the traveling state of the vehicle and displays the enlarged image. Specifically, a fisheye camera is connected to the image controller. The image controller includes a coordinate conversion circuit, an image extraction circuit, and an image expansion circuit. The distortion image signal from the fisheye camera is converted into a positive image signal by a coordinate conversion circuit. The image cut-out circuit is connected to a state detection unit for detecting the running state of the vehicle, and cuts out an arbitrary region in the distortion-corrected image according to an input signal from the state detection unit. The image decompression circuit decompresses the clipped image and displays it on the entire display screen of the monitor.

また、他の運転支援装置として、カメラの死角による映像欠落範囲を補完した駐車場映像を表示する駐車支援装置が知られている(例えば、特許文献2参照)。この駐車支援装置は、車載の駐車場撮像手段により目標駐車場を撮像するとともに、車載の車両周囲撮像手段により車両の周囲を撮像し、車両周囲の映像の中で車体の死角になって映像が欠落している範囲の映像を目標駐車場の映像から切り出し、車両周囲の映像を補完して表示する。これにより、カメラの死角による映像欠落部分の少ない車両周囲の映像を表示することができ、駐車範囲を区分する白線や停車目標となる車止めなどがはっきりと映し出されて駐車場と自車との位置関係が把握しやすくなる。   As another driving support device, there is known a parking support device that displays a parking lot video that complements a video missing range due to a blind spot of a camera (see, for example, Patent Document 2). This parking assist device images the target parking lot by the on-board parking lot imaging means, images the surroundings of the vehicle by the on-vehicle vehicle surrounding imaging means, and the image becomes the blind spot of the vehicle body in the video around the vehicle. The image of the missing range is cut out from the image of the target parking lot, and the image around the vehicle is complemented and displayed. As a result, it is possible to display images around the vehicle with few missing parts due to blind spots of the camera, clearly displaying the white line that divides the parking range and the vehicle stop that is the stopping target, and the position of the parking lot and the vehicle The relationship becomes easier to grasp.

さらに他の運転支援装置として、自車両の進行路上に存在する障害物を検出して衝突判断を行う車両の衝突防止装置が知られている(例えば、特許文献3参照)。この衝突防止装置は、ステレオ光学系で撮像した1対の画像を画像処理部で処理して画像全体に渡る3次元の距離分布を算出し、その距離分布情報から道路形状や立体物の3次元位置を高速で検出すると、衝突判断部でこの画像処理部で検出された道路形状、車速センサ、ヨーレートセンサ、舵角センサからの入力データに基づいて自車両の走行領域を設定し、この走行領域内あるいはこの走行領域に係る全ての車両や障害物を画像処理部で検出された複数の車両や障害物の中から抽出し、抽出した全ての車両や障害物について、自車両の衝突可能性の評価値として衝突危険度を算出し、この衝突危険度の高いものが1つでもある場合はディスプレイに表示して運転者に警告を発する。   As another driving support device, there is known a vehicle collision preventing device that detects an obstacle on the traveling path of the host vehicle and makes a collision determination (see, for example, Patent Document 3). In this collision prevention apparatus, a pair of images captured by a stereo optical system is processed by an image processing unit to calculate a three-dimensional distance distribution over the entire image, and a road shape or a three-dimensional three-dimensional object is calculated from the distance distribution information. When the position is detected at high speed, the collision determination unit sets the traveling region of the host vehicle based on the input data from the road shape, the vehicle speed sensor, the yaw rate sensor, and the rudder angle sensor detected by the image processing unit. All of the vehicles and obstacles in or within this travel area are extracted from the plurality of vehicles and obstacles detected by the image processing unit, and the possibility of collision of the own vehicle is extracted for all of the extracted vehicles and obstacles. A collision risk is calculated as an evaluation value, and if there is any one having a high collision risk, it is displayed on the display and a warning is given to the driver.

特開平9−202180号公報JP-A-9-202180 特開2002−29314号公報JP 2002-29314 A 特開平10−283593号公報Japanese Patent Laid-Open No. 10-283593

ところが、上述した従来の運転支援装置では、駐車場にカメラを設置しなければならず、また、基本的には自車両を中心とした周囲の画像を映し出すだけである。従って、ユーザは自車の状態を直感的に把握できないという課題がある。   However, in the above-described conventional driving support apparatus, a camera must be installed in the parking lot, and basically, only the surrounding image centered on the own vehicle is displayed. Therefore, there is a problem that the user cannot intuitively grasp the state of the vehicle.

この発明は、上述した課題を解消するためになされたものであり、自車両周辺の状態をユーザにわかりやすく提示できる運転支援装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a driving support device that can easily present a state around the host vehicle to a user.

この発明に係る運転支援装置は、車両の周囲の全方位を分担して、複数のカメラで得られた複数の広角画像を歪みのない複数の平面画像に変換するパノラマ変換部と、パノラマ変換部で変換することにより得られた複数の平面画像の視差に基づき被写体までの距離を反映した視差画像を生成する視差計測部と、視差計測部で生成された視差画像に基づき車両およびその周囲を上空から見た空間地図を生成する空間地図生成部とを備え、表示部は空間地図生成部で生成された空間地図を表示する。   A driving support apparatus according to the present invention includes a panorama conversion unit that shares all directions around a vehicle and converts a plurality of wide-angle images obtained by a plurality of cameras into a plurality of flat images without distortion, and a panorama conversion unit A parallax measurement unit that generates a parallax image reflecting the distance to the subject based on the parallax of a plurality of planar images obtained by the conversion in the above, and the vehicle and its surroundings based on the parallax image generated by the parallax measurement unit A spatial map generation unit that generates a spatial map viewed from the above, and the display unit displays the spatial map generated by the spatial map generation unit.

この発明に係る運転支援装置によれば、車両の周囲の全方位を分担して広角撮影した複数のカメラからの画像に基づいて、車両およびその周囲を上空から見た空間地図を生成して表示部に表示するようにしたので、表示部に表示された空間地図は、停車や車線変更の障害となる障害物や駐車車両、走行車両を区分する目標となり、自車との位置関係が把握しやすくなる。その結果、自車両周辺の状態をユーザにわかりやすく提示できるので、ユーザの駐車や車線変更を支援することができる。   According to the driving support apparatus according to the present invention, a spatial map in which the vehicle and its surroundings are viewed from the sky is generated and displayed based on images from a plurality of cameras that have taken wide-angle images while sharing all directions around the vehicle. The spatial map displayed on the display unit becomes a target for distinguishing obstacles, parked vehicles, and traveling vehicles that are obstacles to stopping or changing lanes, and the positional relationship with the host vehicle is known. It becomes easy. As a result, the state around the host vehicle can be presented to the user in an easy-to-understand manner, and the user's parking and lane change can be supported.

以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る運転支援装置の構成を示すブロック図である。この運転支援装置は、魚眼カメラ101〜104、パノラマ変換部11、視差計測部12、空間地図生成部13、画像統合部14、ポジション検出部15、ターン検出部16、ブレーキ検出部17、車速検出部18、ハンドル角検出部19、画像切出部20およびナビゲーション装置21から構成されている。ポジション検出部15、ターン検出部16、ブレーキ検出部17、車速検出部18およびハンドル角検出部19は、この発明の車両運転情報取得部に対応する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of the driving support apparatus according to Embodiment 1 of the present invention. This driving support device includes fisheye cameras 10 1 to 10 4 , a panorama conversion unit 11, a parallax measurement unit 12, a spatial map generation unit 13, an image integration unit 14, a position detection unit 15, a turn detection unit 16, and a brake detection unit 17. The vehicle speed detection unit 18, the handle angle detection unit 19, the image cutout unit 20, and the navigation device 21 are included. The position detection unit 15, the turn detection unit 16, the brake detection unit 17, the vehicle speed detection unit 18, and the steering wheel angle detection unit 19 correspond to the vehicle driving information acquisition unit of the present invention.

魚眼カメラ101〜104は、この発明の複数のカメラに対応する。魚眼カメラ101〜104の各々は、魚眼レンズとCCD素子(いずれも図示せず)とを備えており、魚眼レンズを介して入射された光がCCD素子の表面に結像することによって歪みを含む魚眼画像が形成される。このCCD素子の表面に形成された魚眼画像は、パノラマ変換部11に送られる。 The fisheye cameras 10 1 to 10 4 correspond to a plurality of cameras of the present invention. Each of the fish-eye cameras 10 1 to 10 4 includes a fish-eye lens and a CCD element (both not shown), and distortion is caused by the light incident through the fish-eye lens being imaged on the surface of the CCD element. A fisheye image is formed. The fisheye image formed on the surface of the CCD element is sent to the panorama conversion unit 11.

4台の魚眼カメラ101〜104は、例えば図2に示すように、車両1の四隅に搭載されており、撮像方向が車両1の対角方向になるように設置されている。魚眼カメラ101〜104の各々は、略180度の画角を有する。従って、魚眼カメラ101では、図3(a)に示すような被写体aおよびbを含む魚眼画像が得られる。同様に、魚眼カメラ102では、図3(b)に示すような被写体bおよびcを含む魚眼画像が得られ、魚眼カメラ103では、図3(c)に示すような被写体cおよびdを含む魚眼画像が得られ、魚眼カメラ104では、図3(d)に示すような被写体dおよびaを含む魚眼画像が得られる。なお、この実施の形態1に係る運転支援装置では、4台の魚眼カメラを使用しているが、車両の周囲を全方位にわたって撮影できる構成であれば、魚眼カメラの台数は任意であり、また、魚眼カメラの代わりに広角カメラを使用することもできる。 For example, as shown in FIG. 2, the four fisheye cameras 10 1 to 10 4 are mounted at the four corners of the vehicle 1, and are installed so that the imaging direction is a diagonal direction of the vehicle 1. Each of the fisheye cameras 10 1 to 10 4 has an angle of view of approximately 180 degrees. Therefore, the fish-eye camera 10 1, the fisheye image including the subject a and b as shown in FIG. 3 (a) is obtained. Similarly, the fisheye camera 10 2 obtains a fisheye image including subjects b and c as shown in FIG. 3B, and the fisheye camera 10 3 obtains a subject c as shown in FIG. 3C. and fish-eye image is obtained containing d, the fisheye camera 10 4, the fish-eye image including the subject d and a, as shown in FIG. 3 (d) is obtained. In addition, in the driving assistance device according to the first embodiment, four fisheye cameras are used, but the number of fisheye cameras is arbitrary as long as it is a configuration capable of photographing the periphery of the vehicle in all directions. Also, a wide-angle camera can be used instead of the fisheye camera.

パノラマ変換部11は、魚眼カメラ101〜104から送られてくる4枚の魚眼画像の各々に所定の演算処理を施すことにより、4枚の歪みのない平面画像に変換する。このパノラマ変換部11で得られた4枚の平面画像は、視差計測部12および画像統合部14に送られる。 Panorama converter 11, by which each of the four fisheye image transmitted from the fish-eye camera 10 1 to 10 4 performs predetermined arithmetic processing, and converts the four undistorted planar image. The four planar images obtained by the panorama conversion unit 11 are sent to the parallax measurement unit 12 and the image integration unit 14.

視差計測部12は、パノラマ変換部11から送られてくる4枚の平面画像にステレオ法を用いて視差を計測し、この計測した視差に基づき、被写体までの距離を反映した視差画像(距離分布画像)を生成する。この視差画像は、後述するパノラマ画像と同様に、360度の水平画角を有する。視差計測部12で得られた視差画像は、空間地図生成部13に送られる。   The parallax measurement unit 12 measures the parallax on the four planar images sent from the panorama conversion unit 11 using the stereo method, and based on the measured parallax, the parallax image (distance distribution reflecting the distance to the subject) Image). This parallax image has a horizontal angle of view of 360 degrees, like a panoramic image described later. The parallax image obtained by the parallax measurement unit 12 is sent to the spatial map generation unit 13.

空間地図生成部13は、視差計測部12から送られてくる視差画像に基づいて、空間地図を生成する。ここで、空間地図とは、車両1およびその周辺を上空から撮影することによって得られるような地図をいう。空間地図生成部13は、視差画像から例えば障害物までの距離を取得し、その障害物を描画する。これにより、例えば図4に示すような、自車両1の周囲に存在する障害物2が含まれた空間地図が得られる。この空間地図生成部13で生成された空間地図は、ナビゲーション装置21に送られる。   The spatial map generation unit 13 generates a spatial map based on the parallax image sent from the parallax measurement unit 12. Here, the spatial map refers to a map obtained by photographing the vehicle 1 and its surroundings from the sky. The spatial map generation unit 13 acquires a distance from the parallax image to, for example, an obstacle, and draws the obstacle. Thereby, for example, a spatial map including the obstacle 2 existing around the host vehicle 1 as shown in FIG. 4 is obtained. The spatial map generated by the spatial map generation unit 13 is sent to the navigation device 21.

画像統合部14は、パノラマ変換部11から送られてくる4枚の平面画像を統合し、図5に示すような、360度の水平画角を有するパノラマ画像を生成する。この画像統合部14で生成されたパノラマ画像は、画像切出部20に送られる。   The image integration unit 14 integrates the four planar images sent from the panorama conversion unit 11 and generates a panoramic image having a horizontal angle of view of 360 degrees as shown in FIG. The panoramic image generated by the image integration unit 14 is sent to the image cutout unit 20.

ポジション検出部15は、車両1の図示しないシフトレバーのセット位置を検出する。このポジション検出部15で検出されたシフトレバーのセット位置は、ポジション信号として画像切出部20に送られる。ターン検出部16は、図示しない方向指示器のセット状態を検出する。このターン検出部16で検出された方向指示器のセット状態は、ターン信号として画像切出部20に送られる。   The position detector 15 detects a set position of a shift lever (not shown) of the vehicle 1. The set position of the shift lever detected by the position detection unit 15 is sent to the image cutout unit 20 as a position signal. The turn detector 16 detects the set state of a turn indicator (not shown). The set state of the direction indicator detected by the turn detection unit 16 is sent to the image cutout unit 20 as a turn signal.

ブレーキ検出部17は、図示しないブレーキの踏み込み状態を検出する。このブレーキ検出部17で検出されたブレーキの踏み込み状態は、ブレーキ信号として画像切出部20に送られる。車速検出部18は、車両1の移動速度を検出する。この車速検出部18で検出された車両の移動速度は、速度信号として画像切出部20に送られる。ハンドル角検出部19は、図示しないハンドルが回転した角度を検出する。このハンドル角検出部19で検出されたハンドルの回転角度は、ハンドル角信号として画像切出部20に送られる。   The brake detection unit 17 detects a depression state of a brake (not shown). The brake depression state detected by the brake detection unit 17 is sent to the image cutout unit 20 as a brake signal. The vehicle speed detector 18 detects the moving speed of the vehicle 1. The moving speed of the vehicle detected by the vehicle speed detection unit 18 is sent to the image cutout unit 20 as a speed signal. The handle angle detector 19 detects an angle at which a handle (not shown) is rotated. The rotation angle of the handle detected by the handle angle detection unit 19 is sent to the image cutout unit 20 as a handle angle signal.

画像切出部20は、画像統合部14から送られてきたパノラマ画像を、ポジション検出部15からのポジション信号、ターン検出部16からのターン信号、ブレーキ検出部17からのブレーキ信号、車速検出部18からの速度信号およびハンドル角検出部19からのハンドル角信号(これらの各信号を「車両運転情報」という)に基づいて決定される視点に対応する位置で切り出す。この画像切出部20によって切り出された画像は、ナビゲーション装置21に送られる。   The image cutout unit 20 converts the panoramic image sent from the image integration unit 14 into a position signal from the position detection unit 15, a turn signal from the turn detection unit 16, a brake signal from the brake detection unit 17, and a vehicle speed detection unit. 18 is cut out at a position corresponding to the viewpoint determined based on the speed signal from 18 and the steering wheel angle signal from the steering wheel angle detector 19 (these signals are referred to as “vehicle driving information”). The image cut out by the image cutout unit 20 is sent to the navigation device 21.

ナビゲーション装置21は、ディスプレイ22およびタッチパネル23を備えている。この発明の表示部は、ディスプレイ22によって構成され、視点指示部は、タッチパネル23によって構成されている。このナビゲーション装置21は、通常のナビゲーション機能である自車両1の周辺の地図をディスプレイ22に表示する機能の他に、空間地図生成部13から送られてくる空間地図および画像切出部20から送られてくる画像を、ディスプレイ22に表示する機能を有する。   The navigation device 21 includes a display 22 and a touch panel 23. The display unit of the present invention is configured by the display 22, and the viewpoint instruction unit is configured by the touch panel 23. The navigation device 21 has a function of displaying a map around the host vehicle 1 as a normal navigation function on the display 22, and a spatial map sent from the spatial map generator 13 and an image cutout unit 20. It has a function of displaying the displayed image on the display 22.

次に、上記のように構成される、この発明の実施の形態1に係る運転支援装置の動作を、図6〜図8に示すフローチャートを参照しながら説明する。   Next, the operation of the driving assistance apparatus configured as described above according to Embodiment 1 of the present invention will be described with reference to the flowcharts shown in FIGS.

まず、ナビゲーション装置21は、図9(a)に示すように、地図30および空間地図ボタン31をディスプレイ22に表示させる(ステップST10)。次いで、ナビゲーション装置21は、空間地図ボタン31が押下されたかどうかを調べる(ステップST11)。ここで、空間地図ボタン31が押下されていないことが判断されると、シーケンスはステップST10に戻り、上述した処理が繰り返される。これにより、ディスプレイ22に表示される地図30が順次更新され、所謂ナビゲーションが行われる。   First, as shown in FIG. 9A, the navigation device 21 displays a map 30 and a spatial map button 31 on the display 22 (step ST10). Next, the navigation device 21 checks whether or not the space map button 31 has been pressed (step ST11). Here, if it is determined that the space map button 31 is not pressed, the sequence returns to step ST10, and the above-described processing is repeated. Thereby, the map 30 displayed on the display 22 is sequentially updated, and so-called navigation is performed.

上記ステップST11において、空間地図ボタン31が押下されたことが判断されると、次いで、空間地図生成処理が行われる(ステップST12)。図7は、この空間地図生成処理の詳細を示すフローチャートである。空間地図生成処理では、まず、魚眼カメラ101〜104から魚眼画像が入力される(ステップST20)。次いで、魚眼カメラ101〜104から入力された4枚の魚眼画像が、パノラマ変換部11によって、歪みのない4枚の平面画像に変換される(ステップST21)。次いで、パノラマ変換部11によって得られた4枚の平面画像から、視差計測部12によって、360度の水平画角を有する視差画像が生成される(ステップST22)。次いで、空間地図生成部13によって、視差計測部12で生成された視差画像から空間地図が生成される(ステップST23)。次いで、ステップST23で生成された空間地図がナビゲーション装置21に送られる(ステップST24)。その後、シーケンスは、図6のフローチャートで示す処理に戻る。 If it is determined in step ST11 that the spatial map button 31 has been pressed, then a spatial map generation process is performed (step ST12). FIG. 7 is a flowchart showing details of the spatial map generation process. In spatial map generation processing, firstly, the fish-eye image is inputted from the fisheye camera 10 1 to 10 4 (step ST20). Next, the four fisheye images input from the fisheye cameras 10 1 to 10 4 are converted into four flat images without distortion by the panorama conversion unit 11 (step ST21). Next, a parallax image having a horizontal angle of view of 360 degrees is generated by the parallax measuring unit 12 from the four planar images obtained by the panorama converting unit 11 (step ST22). Next, the spatial map generation unit 13 generates a spatial map from the parallax images generated by the parallax measurement unit 12 (step ST23). Next, the spatial map generated in step ST23 is sent to the navigation device 21 (step ST24). Thereafter, the sequence returns to the processing shown in the flowchart of FIG.

空間地図生成処理が完了すると、次いで、パノラマ画像の切出処理が行われる(ステップST13)。図8は、このパノラマ画像の切出処理の詳細を示すフローチャートである。パノラマ画像の切出処理では、まず、魚眼カメラ101〜104から魚眼画像が入力される(ステップST30)。次いで、魚眼カメラ101〜104から入力された4枚の魚眼画像が、パノラマ変換部11によって、歪みのない4枚の平面画像に変換される(ステップST31)。次いで、パノラマ変換部11によって得られた4枚の平面画像が、画像統合部14によって統合され、360度の水平画角を有するパノラマ画像が生成される(ステップST32)。次いで、画像切出部20によって、ポジション検出部15、ターン検出部16、ブレーキ検出部17、車速検出部18およびハンドル角検出部19からの車両運転情報に従って、最適視点が決定される(ステップST33)。次いで、ステップST33で決定された最適視点に対応する位置からパノラマ画像の一部が切り出される(ステップST34)。そして、このステップST34で切り出された画像が、切出画像としてナビゲーション装置21に送られる(ステップST35)。その後、シーケンスは、図6のフローチャートで示す処理に戻る。 When the spatial map generation process is completed, a panoramic image cutting process is then performed (step ST13). FIG. 8 is a flowchart showing details of the panoramic image cut-out process. In cutting process of a panoramic image, first, the fish-eye image is inputted from the fisheye camera 10 1 to 10 4 (step ST30). Next, the four fisheye images input from the fisheye cameras 10 1 to 10 4 are converted into four flat images without distortion by the panorama conversion unit 11 (step ST31). Next, the four planar images obtained by the panorama conversion unit 11 are integrated by the image integration unit 14 to generate a panoramic image having a horizontal angle of view of 360 degrees (step ST32). Next, an optimal viewpoint is determined by the image cutout unit 20 according to the vehicle driving information from the position detection unit 15, the turn detection unit 16, the brake detection unit 17, the vehicle speed detection unit 18, and the steering wheel angle detection unit 19 (step ST33). ). Next, a part of the panoramic image is cut out from the position corresponding to the optimum viewpoint determined in step ST33 (step ST34). Then, the image cut out in step ST34 is sent to the navigation device 21 as a cut out image (step ST35). Thereafter, the sequence returns to the processing shown in the flowchart of FIG.

パノラマ画像の切出処理が完了すると、次いで、図9(b)に示すように、地図30、空間地図32、切出画像33およびカメラボタン34がディスプレイ22に表示される(ステップST14)。次いで、カメラボタン34が押下されたかどうかが調べられる(ステップST15)。ここで、カメラボタン34が押下されていないことが判断されると、シーケンスはステップST12に戻り、上述した処理が繰り返される。これにより、ディスプレイ22に表示される地図30、空間地図32および切出画像33が順次更新されるとともに、所謂ナビゲーションが行われる。   When the panoramic image cut-out process is completed, a map 30, a spatial map 32, a cut-out image 33, and a camera button 34 are then displayed on the display 22 as shown in FIG. 9B (step ST14). Next, it is checked whether or not the camera button 34 has been pressed (step ST15). If it is determined that the camera button 34 has not been pressed, the sequence returns to step ST12 and the above-described processing is repeated. Thereby, the map 30, the spatial map 32, and the cutout image 33 displayed on the display 22 are sequentially updated, and so-called navigation is performed.

上記ステップST15において、カメラボタン34が押下されたことが判断されると、図9(c)に示すように、空間地図32、切出画像33およびパノラマ画像35がディスプレイ22に表示される(ステップST16)。パノラマ画像35は、画像統合部14からナビゲーション装置21に直接に入力される。この表示の際、パノラマ画像35のうちの切出画像33に対応する部分は、枠36で表示される。ユーザは、枠36にタッチした状態で左右(図示矢印方向)に動かすことにより、視点、つまりパノラマ画像35から切り出す位置を任意に変更できる。   If it is determined in step ST15 that the camera button 34 has been pressed, the spatial map 32, the cutout image 33, and the panoramic image 35 are displayed on the display 22 as shown in FIG. ST16). The panoramic image 35 is directly input from the image integration unit 14 to the navigation device 21. During this display, a portion of the panoramic image 35 corresponding to the cut-out image 33 is displayed with a frame 36. The user can arbitrarily change the viewpoint, that is, the position to be cut out from the panoramic image 35 by moving left and right (in the direction of the arrow in the drawing) while touching the frame 36.

次いで、視点の変更がなされたかどうかが調べられる(ステップST17)。ここで、視点の変更がなされていないことが判断されると、シーケンスはステップST16に戻り、上述した処理が繰り返される。一方、視点の変更がなされたことが判断されると、切出画像の更新が行われる(ステップST18)。即ち、枠36が移動された位置の画像が切出画像33として表示される。次いで、終了であるかどうかが調べられる(ステップST19)。これは、例えばナビゲーション装置21の所定のボタンが押されたかどうかを調べることにより行われる。ここで、終了でないことが判断されると、シーケンスはステップST16に戻り、上述した処理が繰り返される。一方、終了であることが判断されると、この運転支援装置の動作は終了する。   Next, it is checked whether or not the viewpoint has been changed (step ST17). If it is determined that the viewpoint has not been changed, the sequence returns to step ST16 and the above-described processing is repeated. On the other hand, if it is determined that the viewpoint has been changed, the clipped image is updated (step ST18). That is, the image at the position where the frame 36 has been moved is displayed as the cutout image 33. Next, it is checked whether or not it is finished (step ST19). This is performed, for example, by checking whether a predetermined button of the navigation device 21 has been pressed. If it is determined that the process is not finished, the sequence returns to step ST16 and the above-described processing is repeated. On the other hand, when it is determined that the operation is finished, the operation of the driving support device is finished.

上記のように構成される、この発明の実施の形態1に係る運転支援装置によれば、以下のような利用が可能である。   According to the driving support apparatus according to Embodiment 1 of the present invention configured as described above, the following usage is possible.

今、この運転支援装置の1つの利用例として、車両1の走行中に右車線に変更する場合を考える。この場合、ナビゲーション装置21のディスプレイ22には、図10(a)に示すような画面が表示されているものとする。この状態において空間地図ボタン31が押下されると、図10(b)に示すように、ナビゲーション装置21のディスプレイ22には、地図30、空間地図32、切出画像33およびカメラボタン34が表示される。この場合、ターン検出部16からのターン信号により方向指示器が右にセットされており、ポジション検出部15からのポジション信号が前進を示しており、車速検出部18からの車速信号が前方に移動中であることを示していることを条件に、切出画像33として右斜め後方の画像が自動的に表示される。これにより、運転者は、右車線への変更の可否を容易に判断することができる。   Now, as one example of use of this driving support device, consider the case of changing to the right lane while the vehicle 1 is traveling. In this case, it is assumed that a screen as shown in FIG. 10A is displayed on the display 22 of the navigation device 21. When the space map button 31 is pressed in this state, a map 30, a space map 32, a cutout image 33, and a camera button 34 are displayed on the display 22 of the navigation device 21, as shown in FIG. The In this case, the turn signal from the turn detection unit 16 is set to the right, the position signal from the position detection unit 15 indicates forward movement, and the vehicle speed signal from the vehicle speed detection unit 18 moves forward. On the condition that it is in the middle, an image on the right rear side is automatically displayed as the cut-out image 33. Accordingly, the driver can easily determine whether or not the right lane can be changed.

また、この運転支援装置の他の利用例として、車両1を駐車する場合を考える。この場合、ナビゲーション装置21のディスプレイ22には、図11(a)に示すような画面が表示されているものとする。この状態において空間地図ボタン31が押下されると、図11(b)に示すように、ナビゲーション装置21のディスプレイ22には、地図30、空間地図32、切出画像33およびカメラボタン34が表示される。この場合、ターン検出部16からのターン信号により方向指示器が左右点灯にセットされており、ポジション検出部15からのポジション信号が後進を示しており、車速検出部18からの車速信号が後方に移動中であることを示していることを条件に、切出画像33としては右斜め後方の画像が最適であると自動的に判断されて、ディスプレイ22に表示される。この状態で、さらにカメラボタン34が押されると、パノラマ画像35が枠36とともに表示される。   Moreover, the case where the vehicle 1 is parked is considered as another usage example of this driving support device. In this case, it is assumed that a screen as shown in FIG. 11A is displayed on the display 22 of the navigation device 21. When the space map button 31 is pressed in this state, a map 30, a space map 32, a cut image 33, and a camera button 34 are displayed on the display 22 of the navigation device 21, as shown in FIG. The In this case, the turn signal from the turn detector 16 is set to turn right and left, the position signal from the position detector 15 indicates reverse, and the vehicle speed signal from the vehicle speed detector 18 is backward. On the condition that it indicates that the image is moving, it is automatically determined that the right diagonally rear image is optimal as the cut image 33 and is displayed on the display 22. In this state, when the camera button 34 is further pressed, a panoramic image 35 is displayed together with a frame 36.

以上説明したように、この発明の実施の形態1に係る運転支援装置によれば、車両1の周囲の全方位を分担して広角撮影した魚眼カメラ101〜104からの画像に基づいて、車両1およびその周囲を上空から見た空間地図を生成してナビゲーション装置21のディスプレイ22に表示するようにしたので、ディスプレイ22に表示された空間地図は、停車や車線変更の障害となる障害物や駐車車両、走行車両を区分する目標となり、自車との位置関係が把握しやすくなる。その結果、自車両周辺の状態をユーザにわかりやすく提示できるので、ユーザの駐車や車線変更を支援することができる。 As described above, according to the driving support apparatus according to Embodiment 1 of the present invention, based on the images from the fish-eye cameras 10 1 to 10 4 that have taken the wide angle while sharing all the directions around the vehicle 1. Since the spatial map of the vehicle 1 and its surroundings viewed from above is generated and displayed on the display 22 of the navigation device 21, the spatial map displayed on the display 22 is an obstacle that is an obstacle to stopping or changing lanes. It becomes a target to classify objects, parked vehicles, and traveling vehicles, and it becomes easier to grasp the positional relationship with the own vehicle. As a result, the state around the host vehicle can be presented to the user in an easy-to-understand manner, and the user's parking and lane change can be supported.

また、魚眼カメラ101〜104からの画像に基づいてパノラマ画像が生成され、このパノラマ画像の視点切換えは、車両運転情報に基づいて自動的に行われる。従って、ユーザが車両1を運転中に注意を要する画像が自動的に表示されることになるので、ユーザは、自車両1の状態を直感的に把握することができる。 A panoramic image is generated based on the images from the fisheye cameras 10 1 to 10 4, and the viewpoint switching of the panoramic image is automatically performed based on the vehicle driving information. Therefore, an image that requires attention while the user is driving the vehicle 1 is automatically displayed, so that the user can intuitively grasp the state of the host vehicle 1.

また、ユーザは、確認したい視点がある場合は、マニュアル操作によってパノラマ画像の枠36を移動させることにより切り出し位置を変更することができるので、ユーザの死角となる部分や感覚的に認識し易い情報をユーザに提供できるため、駐車や車線変更等を支援することができる。   In addition, when there is a viewpoint to be confirmed, the user can change the clipping position by moving the panoramic image frame 36 by manual operation. Can be provided to the user, and parking, lane changes, and the like can be supported.

この発明の実施の形態1に係る運転支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置に搭載される魚眼カメラの配置を説明するための図である。It is a figure for demonstrating arrangement | positioning of the fisheye camera mounted in the driving assistance apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置に搭載される魚眼カメラの各々で撮影可能な魚眼画像を説明するための図である。It is a figure for demonstrating the fisheye image which can be image | photographed with each of the fisheye camera mounted in the driving assistance apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置で得られる空間地図を説明するための図である。It is a figure for demonstrating the space map obtained with the driving assistance device which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置で得られるパノラマ画像を説明するための図である。It is a figure for demonstrating the panoramic image obtained with the driving assistance device which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the driving assistance device which concerns on Embodiment 1 of this invention. 図6に示す空間地図生成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the space map production | generation process shown in FIG. 図6に示すパノラマ画像の切出処理の詳細を示すフローチャートである。7 is a flowchart showing details of a panoramic image cutout process shown in FIG. 6. この発明の実施の形態1に係る運転支援装置における表示画面の変遷を説明するための図である。It is a figure for demonstrating the transition of the display screen in the driving assistance device which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置の1つの利用例を説明するための図である。It is a figure for demonstrating one usage example of the driving assistance device which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る運転支援装置の他の利用例を説明するための図である。It is a figure for demonstrating the other usage example of the driving assistance device which concerns on Embodiment 1 of this invention.

符号の説明Explanation of symbols

101〜104 魚眼カメラ、11 パノラマ変換部、12 視差計測部、13 空間地図生成部、14 画像統合部、15 ポジション検出部、16 ターン検出部、17 ブレーキ検出部、18 車速検出部、19 ハンドル角検出部、20 画像切出部、21 ナビゲーション装置、22 ディスプレイ、23 タッチパネル。 10 1 to 10 4 fisheye camera, 11 panorama conversion unit, 12 parallax measurement unit, 13 spatial map generation unit, 14 image integration unit, 15 position detection unit, 16 turn detection unit, 17 brake detection unit, 18 vehicle speed detection unit, 19 Handle angle detection unit, 20 Image cutout unit, 21 Navigation device, 22 Display, 23 Touch panel.

Claims (4)

車両の周囲の全方位を分担して広角撮影するように配置される複数のカメラと、
前記複数のカメラで広角撮影することにより得られた複数の広角画像を歪みのない複数の平面画像に変換するパノラマ変換部と、
前記パノラマ変換部で変換することにより得られた複数の平面画像の視差に基づき被写体までの距離を反映した視差画像を生成する視差計測部と、
前記視差計測部で生成された視差画像に基づき前記車両およびその周囲を上空から見た空間地図を生成する空間地図生成部と、
前記空間地図生成部で生成された空間地図を表示する表示部
とを備えた運転支援装置。
A plurality of cameras arranged to divide all directions around the vehicle and shoot wide angle;
A panorama converter that converts a plurality of wide-angle images obtained by wide-angle imaging with the plurality of cameras into a plurality of flat images without distortion;
A parallax measuring unit that generates a parallax image reflecting a distance to a subject based on parallax of a plurality of planar images obtained by conversion by the panorama converting unit;
A spatial map generation unit that generates a spatial map of the vehicle and its surroundings viewed from above based on the parallax image generated by the parallax measurement unit;
And a display unit that displays the spatial map generated by the spatial map generation unit.
パノラマ変換部で変換することにより得られた複数の平面画像を統合して車両の周囲の全方位のパノラマ画像を生成する画像統合部と、
車両の運転状態を表す車両運転情報を取得する車両運転情報取得部と、
前記画像統合部で生成されたパノラマ画像の一部を、前記車両運転情報取得部で取得された車両運転情報に基づいて決定される視点に対応する位置で切り出す画像切出部とを備え、
表示部は、前記画像切出部で切り出された画像を表示することを特徴とする請求項1記載の運転支援装置。
An image integration unit that generates a panoramic image in all directions around the vehicle by integrating a plurality of planar images obtained by conversion in the panorama conversion unit;
A vehicle driving information acquisition unit for acquiring vehicle driving information representing the driving state of the vehicle;
An image cutout unit that cuts out a part of the panoramic image generated by the image integration unit at a position corresponding to a viewpoint determined based on the vehicle driving information acquired by the vehicle driving information acquisition unit;
The driving support device according to claim 1, wherein the display unit displays the image cut out by the image cutout unit.
表示部は、画像統合部で生成されたパノラマ画像を表示する
ことを特徴とする請求項2記載の運転支援装置。
The driving support device according to claim 2, wherein the display unit displays the panoramic image generated by the image integration unit.
パノラマ画像を切り出す視点を指示する視点指示部を備え、
画像切出部は、画像統合部で生成されたパノラマ画像の一部を、前記視点指示部によって指示された視点で切り出すことを特徴とする請求項3記載の運転支援装置。
Provided with a viewpoint instruction unit that instructs the viewpoint to cut out the panoramic image,
The driving support device according to claim 3, wherein the image cutout unit cuts out a part of the panoramic image generated by the image integration unit at the viewpoint instructed by the viewpoint instruction unit.
JP2004234640A 2004-08-11 2004-08-11 Drive support device Pending JP2006054662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004234640A JP2006054662A (en) 2004-08-11 2004-08-11 Drive support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004234640A JP2006054662A (en) 2004-08-11 2004-08-11 Drive support device

Publications (1)

Publication Number Publication Date
JP2006054662A true JP2006054662A (en) 2006-02-23

Family

ID=36031845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004234640A Pending JP2006054662A (en) 2004-08-11 2004-08-11 Drive support device

Country Status (1)

Country Link
JP (1) JP2006054662A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201081A (en) * 2005-01-21 2006-08-03 Matsushita Electric Ind Co Ltd Device for controlling display
KR100773870B1 (en) * 2006-07-07 2007-11-06 주식회사 피엘케이 테크놀로지 Method for recognizing traffic lines by using two cameras
JP2009081496A (en) * 2007-09-25 2009-04-16 Hitachi Ltd In-vehicle camera
JP2009184523A (en) * 2008-02-06 2009-08-20 Denso Corp Parking assisting device
JP2011159278A (en) * 2009-11-19 2011-08-18 Robert Bosch Gmbh Rear-view multi-functional camera system
US8098280B2 (en) 2006-08-28 2012-01-17 Fujitsu Limited Moving object locating device, moving object locating method, and computer product
CN102915669A (en) * 2012-10-17 2013-02-06 中兴通讯股份有限公司 Method and device for manufacturing live-action map
CN103310673A (en) * 2012-03-08 2013-09-18 财团法人工业技术研究院 All-around aerial view image generation method and training device thereof
WO2014109016A1 (en) * 2013-01-09 2014-07-17 三菱電機株式会社 Vehicle periphery display device
US9030524B2 (en) 2010-03-30 2015-05-12 Fujitsu Limited Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium
CN105196925A (en) * 2014-06-25 2015-12-30 比亚迪股份有限公司 Traveling assisting device and vehicle provided with same
JP2016054508A (en) * 2015-11-06 2016-04-14 カシオ計算機株式会社 Display control device, display control method and program
WO2018207303A1 (en) * 2017-05-11 2018-11-15 三菱電機株式会社 On-board monitoring camera device
JP2019158741A (en) * 2018-03-15 2019-09-19 株式会社日立製作所 Three-dimensional image processing device, and three-dimensional image processing method
US10595004B2 (en) 2015-08-07 2020-03-17 Samsung Electronics Co., Ltd. Electronic device for generating 360-degree three-dimensional image and method therefor
CN112721805A (en) * 2021-02-01 2021-04-30 深圳市海沃德科技有限公司 System and method for implementing panoramic looking around
CN114222061A (en) * 2021-12-10 2022-03-22 中国人民解放军96901部队25分队 Photoelectric circumferential scanning real-time image splicing and interaction method

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266828A (en) * 1993-03-12 1994-09-22 Fuji Heavy Ind Ltd Outside monitoring device for vehicle
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2000118298A (en) * 1998-10-14 2000-04-25 Daihatsu Motor Co Ltd Monitor device for vehicle
JP2001055100A (en) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd Multi-function on-board camera system and image display method of multi-function on-board camera system
JP2001334869A (en) * 2000-05-25 2001-12-04 Matsushita Electric Ind Co Ltd Driving support system
JP2001339715A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Operation supporting apparatus
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP2002112184A (en) * 2000-09-27 2002-04-12 Sony Miyuujitsuku Entertainment:Kk Recording method and reproducing method for image information
JP2002109697A (en) * 2000-10-02 2002-04-12 Matsushita Electric Ind Co Ltd Drive support device
JP2002218451A (en) * 2000-10-11 2002-08-02 Sharp Corp Device for monitoring moving object surrounding
JP2002242896A (en) * 2001-02-19 2002-08-28 Japan Servo Co Ltd Axial fan
JP2002259966A (en) * 2001-03-05 2002-09-13 Toyota Motor Corp Periphery recognition device
JP2002335524A (en) * 1999-09-20 2002-11-22 Matsushita Electric Ind Co Ltd Driving support device
JP2002344962A (en) * 2001-03-15 2002-11-29 Sharp Corp Image communication equipment and portable telephone
JP2002369186A (en) * 2001-06-07 2002-12-20 Sony Corp Vehicle rear and surrounding image display equipment and method

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266828A (en) * 1993-03-12 1994-09-22 Fuji Heavy Ind Ltd Outside monitoring device for vehicle
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2000118298A (en) * 1998-10-14 2000-04-25 Daihatsu Motor Co Ltd Monitor device for vehicle
JP2001055100A (en) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd Multi-function on-board camera system and image display method of multi-function on-board camera system
JP2002335524A (en) * 1999-09-20 2002-11-22 Matsushita Electric Ind Co Ltd Driving support device
JP2001334869A (en) * 2000-05-25 2001-12-04 Matsushita Electric Ind Co Ltd Driving support system
JP2001339715A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Operation supporting apparatus
JP2002112184A (en) * 2000-09-27 2002-04-12 Sony Miyuujitsuku Entertainment:Kk Recording method and reproducing method for image information
JP2002109697A (en) * 2000-10-02 2002-04-12 Matsushita Electric Ind Co Ltd Drive support device
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP2002218451A (en) * 2000-10-11 2002-08-02 Sharp Corp Device for monitoring moving object surrounding
JP2002242896A (en) * 2001-02-19 2002-08-28 Japan Servo Co Ltd Axial fan
JP2002259966A (en) * 2001-03-05 2002-09-13 Toyota Motor Corp Periphery recognition device
JP2002344962A (en) * 2001-03-15 2002-11-29 Sharp Corp Image communication equipment and portable telephone
JP2002369186A (en) * 2001-06-07 2002-12-20 Sony Corp Vehicle rear and surrounding image display equipment and method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201081A (en) * 2005-01-21 2006-08-03 Matsushita Electric Ind Co Ltd Device for controlling display
KR100773870B1 (en) * 2006-07-07 2007-11-06 주식회사 피엘케이 테크놀로지 Method for recognizing traffic lines by using two cameras
US8098280B2 (en) 2006-08-28 2012-01-17 Fujitsu Limited Moving object locating device, moving object locating method, and computer product
JP2009081496A (en) * 2007-09-25 2009-04-16 Hitachi Ltd In-vehicle camera
JP2009184523A (en) * 2008-02-06 2009-08-20 Denso Corp Parking assisting device
JP2011159278A (en) * 2009-11-19 2011-08-18 Robert Bosch Gmbh Rear-view multi-functional camera system
US9061635B2 (en) 2009-11-19 2015-06-23 Robert Bosch Gmbh Rear-view multi-functional camera system with panoramic image display features
US8953014B2 (en) 2009-11-19 2015-02-10 Robert Bosch Gmbh Rear-view multi-functional camera system with three-dimensional data analysis features
US8988493B2 (en) 2009-11-19 2015-03-24 Robert Bosch Gmbh Rear-view multi-functional camera system with driving corridor monitoring features
US9030524B2 (en) 2010-03-30 2015-05-12 Fujitsu Limited Image generating apparatus, synthesis table generating apparatus, and computer readable storage medium
CN103310673A (en) * 2012-03-08 2013-09-18 财团法人工业技术研究院 All-around aerial view image generation method and training device thereof
CN103310673B (en) * 2012-03-08 2015-07-15 财团法人工业技术研究院 All-around aerial view image generation method and training device thereof
US9082315B2 (en) 2012-03-08 2015-07-14 Industrial Technology Research Institute Surrounding bird view monitoring image generation method and training method, automobile-side device, and training device thereof
CN102915669A (en) * 2012-10-17 2013-02-06 中兴通讯股份有限公司 Method and device for manufacturing live-action map
WO2013170797A1 (en) * 2012-10-17 2013-11-21 中兴通讯股份有限公司 Method and device for producing real-view map
CN104903946B (en) * 2013-01-09 2016-09-28 三菱电机株式会社 Vehicle surrounding display device
CN104903946A (en) * 2013-01-09 2015-09-09 三菱电机株式会社 Vehicle periphery display device
WO2014109016A1 (en) * 2013-01-09 2014-07-17 三菱電機株式会社 Vehicle periphery display device
US9499168B2 (en) 2013-01-09 2016-11-22 Mitsubishi Electric Corporation Vehicle periphery display device
CN105196925A (en) * 2014-06-25 2015-12-30 比亚迪股份有限公司 Traveling assisting device and vehicle provided with same
US10595004B2 (en) 2015-08-07 2020-03-17 Samsung Electronics Co., Ltd. Electronic device for generating 360-degree three-dimensional image and method therefor
JP2016054508A (en) * 2015-11-06 2016-04-14 カシオ計算機株式会社 Display control device, display control method and program
WO2018207303A1 (en) * 2017-05-11 2018-11-15 三菱電機株式会社 On-board monitoring camera device
JP2019158741A (en) * 2018-03-15 2019-09-19 株式会社日立製作所 Three-dimensional image processing device, and three-dimensional image processing method
CN112721805A (en) * 2021-02-01 2021-04-30 深圳市海沃德科技有限公司 System and method for implementing panoramic looking around
CN114222061A (en) * 2021-12-10 2022-03-22 中国人民解放军96901部队25分队 Photoelectric circumferential scanning real-time image splicing and interaction method
CN114222061B (en) * 2021-12-10 2024-03-22 中国人民解放军96901部队25分队 Photoelectric circumferential scanning real-time image splicing and interaction method

Similar Documents

Publication Publication Date Title
JP4863791B2 (en) Vehicle peripheral image generation apparatus and image switching method
US9219887B2 (en) Drive assist device
JP4969269B2 (en) Image processing device
EP2763407B1 (en) Vehicle surroundings monitoring device
US8576285B2 (en) In-vehicle image processing method and image processing apparatus
JP5182042B2 (en) Image processing apparatus, image processing method, and computer program
EP2623376B1 (en) Parking assistance device
JP2006054662A (en) Drive support device
US20120127312A1 (en) Vehicle periphery image generation apparatus
JP2012071635A5 (en)
JP2006121587A (en) Operation supporting device and bird&#39;s-eye view creation method
JP5618138B2 (en) Parking assistance device
WO2019193819A1 (en) Display control device for vehicle, display system for vehicle, display control method for vehicle, and program
JP2012086684A (en) Parking assist device
JP2007028363A (en) Top view image generating apparatus and top view image display method
JPH09202180A (en) On-board camera device
JP2005236540A (en) On-vehicle camera device
JP2010154304A (en) Mobile camera system and driving method
JP2012065225A (en) In-vehicle image processing apparatus, periphery monitoring apparatus, and vehicle
JP4857159B2 (en) Vehicle driving support device
JP3988551B2 (en) Vehicle perimeter monitoring device
JP2007257304A (en) Obstacle recognition device
JP2007088577A (en) Vehicle surrounding image processing system
JP5691339B2 (en) Driving assistance device
JP4081548B2 (en) Driving support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071012

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100427