JP2007028443A - Image display system - Google Patents

Image display system Download PDF

Info

Publication number
JP2007028443A
JP2007028443A JP2005210485A JP2005210485A JP2007028443A JP 2007028443 A JP2007028443 A JP 2007028443A JP 2005210485 A JP2005210485 A JP 2005210485A JP 2005210485 A JP2005210485 A JP 2005210485A JP 2007028443 A JP2007028443 A JP 2007028443A
Authority
JP
Japan
Prior art keywords
image
region
vehicle
image processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005210485A
Other languages
Japanese (ja)
Inventor
Shuhei Takimoto
周平 滝本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Wiring Systems Ltd
AutoNetworks Technologies Ltd
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Wiring Systems Ltd
AutoNetworks Technologies Ltd
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Wiring Systems Ltd, AutoNetworks Technologies Ltd, Sumitomo Electric Industries Ltd filed Critical Sumitomo Wiring Systems Ltd
Priority to JP2005210485A priority Critical patent/JP2007028443A/en
Publication of JP2007028443A publication Critical patent/JP2007028443A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display system capable of providing an image enabling a user to visually recognize the rear and rear side of a vehicle. <P>SOLUTION: The image display system 10 is provided with a camera 12 attached on a vehicle and having a wide angle view field in the rear of the vehicle; a first image processor 32 for executing distortion correction for an image to be output from the camera; a second image processing means 36 for dividing the distortion-corrected image into an image of a first region R4 extending in a longitudinal direction with a predetermined width through the center of the image, an image of a second region R5 of one side for the first region in a lateral direction, and an image of a third region R6 of the other side, projecting the image of the second region onto a projection surface IP2 crossing an edge of one side of a projection surface IP4 corresponding to the image of the first region and slanted to an optical center O side, and projecting the image of the third region onto a projection surface IP6 crossing an edge of the other side of the projection surface corresponding to the image of the first region and slanted to the optical center side; and a display device 16 for displaying a display target image based on an image to be output from the second image processing means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車載用の画像表示システムであって、車両の後方及び後側方の画像を表示する画像表示システムに関するものである。   The present invention relates to an in-vehicle image display system, which relates to an image display system for displaying rear and rear side images of a vehicle.

車両の後方の画像を表示するための画像表示システムには種々のものがある。例えば、特開2003−212041号公報には、バックカメラを有する画像表示システムが開示されている。
特開2003−212041号公報
There are various image display systems for displaying an image behind the vehicle. For example, JP 2003-212041 A discloses an image display system having a back camera.
JP 2003-212041 A

上述の画像表示システムは、後向き駐車をするドライバの支援を目的とするものであり、走行中などにおいて車両の後方及び後側方の情報を得るためにも利用できる。しかしながら、通常、バックカメラで取られる画像では、後方及び後側方の画像は同じ投影面に投影されている。そのため、当該画像は、車両の更に後方及び後側方の情報が見難いものになっている。なお、後側方とは、車両の後方に対して側方の領域を意味する。   The above-described image display system is intended to assist a driver who parks backwards, and can be used to obtain information on the rear and rear sides of the vehicle while traveling. However, normally, in the image taken by the back camera, the rear and rear side images are projected on the same projection plane. Therefore, it is difficult for the image to see information on the rear and rear sides of the vehicle. The rear side means a side region with respect to the rear of the vehicle.

そこで、本発明は、車両の後方及び後側方が視認し易い画像を提供可能な画像表示システムを提供することを目的としている。   Therefore, an object of the present invention is to provide an image display system capable of providing an image that can be easily viewed from the rear and rear sides of a vehicle.

本発明の画像表示システムは、カメラ、第1の画像処理手段、第2の画像処理手段及び表示装置を備えている。カメラは、車両に取り付けられている。このカメラは、車両の後方に広角の視野を有している。第1の画像処理手段は、カメラから出力される画像に対する歪曲補正を実行する。第2の画像処理手段は、第1の画像処理手段によって歪曲補正が施された画像を、その画像の中央を所定の幅で縦方向に延びる第1の領域の画像と、横方向に第1の領域に対して一方側の第2の領域の画像と、他方側の第3の領域の画像とに分割し、第1の領域の画像に対応する投影面の一方側の縁に交差し且つ光学中心側へ傾倒する投影面上に第2の領域の画像を投影し、第1の領域の画像に対応する投影面の他方側の縁に交差し且つ光学中心側へ傾倒する投影面に第3の領域の画像を投影する。表示装置は、第2の画像処理手段から出力される画像に基づく表示対象画像を表示する。   The image display system of the present invention includes a camera, a first image processing unit, a second image processing unit, and a display device. The camera is attached to the vehicle. This camera has a wide-angle field of view behind the vehicle. The first image processing means performs distortion correction on the image output from the camera. The second image processing means converts the image subjected to the distortion correction by the first image processing means, the first area image extending in the vertical direction with a predetermined width in the center of the image, and the first image in the horizontal direction. Is divided into an image of the second region on one side and an image of the third region on the other side with respect to the region of, crossing the edge on one side of the projection plane corresponding to the image of the first region, and An image of the second area is projected onto a projection plane that tilts toward the optical center, and the second plane is projected onto the projection plane that intersects the other edge of the projection plane corresponding to the image of the first area and tilts toward the optical center. The image of area 3 is projected. The display device displays a display target image based on the image output from the second image processing means.

この画像表示システムによれば、広角の視野を有するカメラによって撮影された画像の歪みが補正され、その歪みが補正された画像が、光学中心からの距離がより均等な投影面に投影される。このとき、歪みが補正された画像のうち車両の後方に対応する第1の領域の画像と、車両の後側方に対応する第2の領域の画像及び第3の領域の画像とが異なる投影面に投影される。その結果、車両の後方及び後側方を視認し易いより視認容易であり且つ自然な画像が表示装置に表示される。   According to this image display system, distortion of an image captured by a camera having a wide-angle field of view is corrected, and the image whose distortion is corrected is projected onto a projection surface with a more uniform distance from the optical center. At this time, the image of the first area corresponding to the rear of the vehicle in the image whose distortion has been corrected differs from the image of the second area and the third area corresponding to the rear side of the vehicle. Projected onto a surface. As a result, it is easier to visually recognize the rear and rear side of the vehicle, and a natural image is displayed on the display device.

本発明の画像表示システムは、車速検出手段によって検出された車両の速度が所定の速度以上であるか否かを判定する判定手段と、判定手段によって車両の速度が所定の速度以上であると判断された場合に、表示装置に上記の表示対象画像を表示させる表示選択手段と、を更に備えることが好ましい。   The image display system of the present invention determines whether the vehicle speed detected by the vehicle speed detection means is equal to or higher than a predetermined speed, and determines whether the vehicle speed is higher than a predetermined speed by the determination means. In this case, it is preferable to further include display selection means for displaying the display target image on the display device.

この構成によれば、車両の速度が所定の速度以上である場合、即ち、特に後側方の情報が必要な場合にのみ、表示装置に上記の表示対象画像が表示される。   According to this configuration, the display target image is displayed on the display device only when the speed of the vehicle is equal to or higher than a predetermined speed, that is, particularly when information on the rear side is required.

本発明によれば、車両の後方及び後側方を視認し易い画像を提供可能な画像表示システムが提供される。   ADVANTAGE OF THE INVENTION According to this invention, the image display system which can provide the image which is easy to visually recognize the back and back side of a vehicle is provided.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。図1は、本発明の一実施形態に係る画像表示システムの構成を示す図である。図1に示す画像表示システム10は、カメラ12、画像処理ECU(Electric Control Unit)14、ディスプレイ(表示装置)16を備えている。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals. FIG. 1 is a diagram showing a configuration of an image display system according to an embodiment of the present invention. An image display system 10 illustrated in FIG. 1 includes a camera 12, an image processing ECU (Electric Control Unit) 14, and a display (display device) 16.

カメラ12は、自動車といった車両に取り付けられるものである。図2は、カメラ12が取り付けられた車両を示す斜視図である。図2に示すように、カメラ12は、車両100の後部に取り付けられる。   The camera 12 is attached to a vehicle such as an automobile. FIG. 2 is a perspective view showing the vehicle to which the camera 12 is attached. As shown in FIG. 2, the camera 12 is attached to the rear portion of the vehicle 100.

カメラ12は、例えば130度(図中の参照符号θ)以上の広角の視野を有している。また、カメラ12は、その光軸Zが水平且つ後方に延びる軸Zに対して下方に傾斜するように、車両100に取り付けられている。 The camera 12 has a wide-angle visual field of, for example, 130 degrees (reference symbol θ in the figure) or more. The camera 12 is to be inclined downwardly with respect to the axis Z of the optical axis Z A extends horizontally and rearward is attached to the vehicle 100.

図3は、広角のカメラ12によって撮影された画像の一例を示す図である。カメラ12は、例えば魚眼レンズといった広角のレンズ系を有している。したがって、図3に示すように、カメラ12から出力される画像(原画像)は、所謂樽型歪といった歪を含んでいる。また、光軸Zが下方に傾斜しているので、カメラ12から出力される原画像には、主として車両100後方の路面が現れている。 FIG. 3 is a diagram illustrating an example of an image captured by the wide-angle camera 12. The camera 12 has a wide-angle lens system such as a fisheye lens. Therefore, as shown in FIG. 3, the image (original image) output from the camera 12 includes distortion such as so-called barrel distortion. Further, since the optical axis Z A is inclined downwardly, in the original image output from the camera 12, it is mainly manifested vehicle 100 behind the road surface.

図1に戻り、カメラ12から出力される画像は、画像処理ECU14によって処理された後、表示対象画像としてディスプレイ16に表示される。この画像処理ECU14には、CAN(Control Area Network)102を介して、車速センサ104、ウィンカ106、及びナビゲーションユニット108が接続されている。   Returning to FIG. 1, the image output from the camera 12 is processed by the image processing ECU 14 and then displayed on the display 16 as a display target image. A vehicle speed sensor 104, a blinker 106, and a navigation unit 108 are connected to the image processing ECU 14 via a CAN (Control Area Network) 102.

車速センサ104は、車両100の速度を検出し、当該速度を特定するための車速信号をCAN102上に伝送する。車速センサ104としては、車輪に取り付けられた車輪速センサが例示される。また、CAN102上には、ウィンカ106によって方向指示がなされている場合に出力される方向指示信号が伝送されている。   The vehicle speed sensor 104 detects the speed of the vehicle 100 and transmits a vehicle speed signal for specifying the speed to the CAN 102. An example of the vehicle speed sensor 104 is a wheel speed sensor attached to a wheel. In addition, a direction indication signal output when a direction indication is given by the blinker 106 is transmitted on the CAN 102.

ナビゲーションユニット108は、車両100の現在位置を特定するための現在位置情報を取得し、当該現在位置を地図上に付した地図画像を、画像処理ECU14を介してディスプレイ16に表示する。CAN102上には、車両100の現在位置が、所定の速度以上で走行する道路上(例えば、高速道路上や自動車専用道路上等)である場合にナビゲーションユニット108から出力される位置特定信号が伝送されている。   The navigation unit 108 acquires current position information for specifying the current position of the vehicle 100, and displays a map image with the current position on the map on the display 16 via the image processing ECU 14. A position specifying signal output from the navigation unit 108 is transmitted on the CAN 102 when the current position of the vehicle 100 is on a road traveling at a predetermined speed or higher (for example, on an expressway or an automobile-only road). Has been.

以下、画像処理ECU14について詳細に説明する。画像処理ECU14は、画像処理ASIC(Application Specific Integrated Circuit)20、カメラインターフェイス(I/F)22、ディスプレイインターフェス(I/F)24、CPU26、不揮発性メモリ28、及びSDRAM等のフレームメモリ30を有している。   Hereinafter, the image processing ECU 14 will be described in detail. The image processing ECU 14 includes an image processing ASIC (Application Specific Integrated Circuit) 20, a camera interface (I / F) 22, a display interface (I / F) 24, a CPU 26, a nonvolatile memory 28, and a frame memory 30 such as an SDRAM. Have.

ASIC20は、カメラI/F22を介してカメラ12に接続されている。また、ASIC20は、ディスプレイI/F24を介してディスプレイ16に接続されている。カメラI/F22を介してカメラ12から入力された画像は、ASIC20経由でフレームメモリ30に蓄えられる。このフレームメモリ30には、ASIC20によって処理された表示対象画像が蓄積され、当該表示対象画像はディスプレイI/F24を介してディスプレイ16に表示される。   The ASIC 20 is connected to the camera 12 via the camera I / F 22. The ASIC 20 is connected to the display 16 via the display I / F 24. An image input from the camera 12 via the camera I / F 22 is stored in the frame memory 30 via the ASIC 20. In the frame memory 30, display target images processed by the ASIC 20 are stored, and the display target images are displayed on the display 16 via the display I / F 24.

ASIC20は、第1の画像処理部(第1の画像処理手段)32、第2の画像処理部34及び第3の画像処理部(第2の画像処理手段)36を有している。具体的に、第1の画像処理部32、第2の画像処理部34及び第3の画像処理部36はそれぞれ、専用ロジックとしてASIC20内に構成されている。なお、第1の画像処理部32、第2の画像処理部34及び第3の画像処理部36は、専用プログラムによって動作するASIC20の機能として構成されていてもよい。   The ASIC 20 includes a first image processing unit (first image processing unit) 32, a second image processing unit 34, and a third image processing unit (second image processing unit) 36. Specifically, the first image processing unit 32, the second image processing unit 34, and the third image processing unit 36 are each configured in the ASIC 20 as dedicated logic. The first image processing unit 32, the second image processing unit 34, and the third image processing unit 36 may be configured as a function of the ASIC 20 that operates by a dedicated program.

第1の画像処理部32は、カメラ12によって撮影された画像に対する歪曲補正を実行することによって、第1の画像を生成する。この歪曲補正は、例えば、不揮発性メモリ28に記憶されているテーブルを参照することによって実行される。   The first image processing unit 32 generates a first image by executing distortion correction on the image captured by the camera 12. This distortion correction is executed by referring to a table stored in the nonvolatile memory 28, for example.

不揮発性メモリ28に記憶されているテーブルには、歪曲補正前の画素位置と歪曲補正後の画素位置との対応関係が登録されている。第1の画像処理部32は、このテーブルを参照することによって、第1の画像における各画素の画素値を、補正前の画像(原画像)における対応位置の近傍の画素の画素値から補間することによって求める。図4は、図3に示す画像の歪曲補正後の画像(第1の画像)を示す図である。図4に示すように、第1の画像処理部32によれば、カメラ12によって撮影された画像の歪が補正される。   In the table stored in the nonvolatile memory 28, the correspondence between the pixel position before distortion correction and the pixel position after distortion correction is registered. By referring to this table, the first image processing unit 32 interpolates the pixel value of each pixel in the first image from the pixel value of the pixel in the vicinity of the corresponding position in the image (original image) before correction. Ask by. FIG. 4 is a diagram illustrating an image (first image) after distortion correction of the image illustrated in FIG. 3. As shown in FIG. 4, according to the first image processing unit 32, distortion of an image photographed by the camera 12 is corrected.

第2の画像処理部34は、第1の画像に対する光軸変換を実行することによって第2の画像を生成する。図5は、光軸変換の概念を説明するための図である。図5において、Oは光学中心である。軸Y及び軸Zはそれぞれ光軸変換前のカメラ座標系の軸であり、軸Zはカメラ12の光軸であり、軸Yは投影面IP1即ちカメラ12の像面の縦方向の軸である。軸Y及び軸Zはそれぞれ光軸変換後のカメラ座標系の軸であり、軸Zは車両後方に水平に延びる上述の軸であり、軸Yは当該Z軸に直交する投影面IP2(像面IP2)の縦方向の軸である。角度βは、軸Zと光軸Zとのなす角度であり、角度Ψは、点Pと光学中心Oがなす角度である。点Pは撮影対象の点であり、そのY座標がY、Z座標がZである。点P1は、光軸変換前の点Pの像であり、そのY座標はy1である。点P2は光軸変換後の点Pの像であり、そのY座標はy2である。 The second image processing unit 34 generates a second image by performing optical axis conversion on the first image. FIG. 5 is a diagram for explaining the concept of optical axis conversion. In FIG. 5, O is the optical center. Axis Y A and axis Z A is an axis of the camera coordinate system before the transformation optical axis, respectively, the axis Z A is the optical axis of the camera 12, the axis Y A vertical direction of the image plane of the projection surface IP1 That camera 12 Axis. An axis Y and an axis Z are axes of the camera coordinate system after optical axis conversion, the axis Z is the above-described axis extending horizontally rearward of the vehicle, and the axis Y is a projection plane IP2 (image plane orthogonal to the Z axis) IP2) is the vertical axis. The angle beta, and the angle between the axis Z and the optical axis Z A, the angle [psi, is the angle which the point P and the optical center O is formed. The point P is a point to be imaged, and the Y coordinate is Y P and the Z coordinate is Z P. Point P1 is an image of point P before optical axis conversion, and its Y coordinate is y1. Point P2 is an image of point P after optical axis conversion, and its Y coordinate is y2.

図5に示すように、第2の画像処理部34による光軸変換は、光軸Zを光軸Zに変換する処理である。即ち、この光軸変換によれば、光軸Zに直交する像面IP1に投影されてなる原画像が、軸Zに直交する像面IP2に投影される。具体的に、第1の画像処理部32による光軸変換は、次式(1)に基づく演算によって実現されている。

Figure 2007028443
As shown in FIG. 5, the optical axis converter according to the second image processing section 34 is a process for converting the optical axis Z A to the optical axis Z. That is, according to the optical axis conversion, original image formed by the projection on an image plane IP1 perpendicular to the optical axis Z A is projected on the image plane IP2 perpendicular to the axis Z. Specifically, the optical axis conversion by the first image processing unit 32 is realized by a calculation based on the following equation (1).
Figure 2007028443

第2の画像処理部34は、光軸変換後の第2の画像における各画素のY座標y2に対応する変換前のY座標y1の座標を求めることによって、第2の画像の各画素の第1の画像における対応位置を求める。そして、第2の画像処理部34は、当該対応位置近傍の第1の画像の画素値から画素値を補間することによって、第2の画像における画素の画素値を決定する。本実施の形態では、このようにして生成される第2の画像が、表示対象画像として、ディスプレイ16に表示される。   The second image processing unit 34 obtains the coordinates of the Y coordinate y1 before conversion corresponding to the Y coordinate y2 of each pixel in the second image after the optical axis conversion, thereby obtaining the first of the pixels of the second image. The corresponding position in one image is obtained. Then, the second image processing unit 34 determines the pixel value of the pixel in the second image by interpolating the pixel value from the pixel value of the first image near the corresponding position. In the present embodiment, the second image generated in this way is displayed on the display 16 as a display target image.

図6は、図4に示す画像の光軸変換後の第2の画像を示す図である。図6に示すように、この光軸変換によれば、路面より上方の風景が第2の画像上に占める割合が大きくなっている。また、図6に示すように、鉛直方向に延びている被写体(例えば、画像上部側方に現れている柵におけるフレーム等)が、第2の画像においても縦方向に延びている。すなわち、第2の画像は車両100の後方及び後側方が視認し易い自然な画像になっている。   FIG. 6 is a diagram illustrating a second image after the optical axis conversion of the image illustrated in FIG. 4. As shown in FIG. 6, according to this optical axis conversion, the ratio of the landscape above the road surface to the second image is large. In addition, as shown in FIG. 6, a subject extending in the vertical direction (for example, a frame on a fence appearing on the upper side of the image) extends in the vertical direction also in the second image. That is, the second image is a natural image that is easily visible from the rear and rear sides of the vehicle 100.

第3の画像処理部(第2の画像処理手段)36は、第2の画像を、車両の後方に対応する領域及び車両の後側方に対応する領域に分割し、それらを異なる投影面に投影して第3の画像を生成する。図7は、投影面変換の概念を説明するための図である。図7において(a)には、第2の画像に対応の投影面(図5に示す投影面IP2)と投影面変換に用いられる投影面との関係が示されている。また、図7における(b)には、投影変換処理後の各投影面に対応の画像の領域が示されている。   The third image processing unit (second image processing means) 36 divides the second image into a region corresponding to the rear of the vehicle and a region corresponding to the rear side of the vehicle, and sets them on different projection planes. Projecting to generate a third image. FIG. 7 is a diagram for explaining the concept of projection plane conversion. 7A shows the relationship between the projection plane corresponding to the second image (projection plane IP2 shown in FIG. 5) and the projection plane used for projection plane conversion. FIG. 7B shows an image area corresponding to each projection plane after the projection conversion process.

図7の(a)では、軸X及び軸Zがそれぞれ投影面変換前のカメラ座標系の軸であり、軸Zが車両100の後方に水平に延びる軸であり、軸Xは車両102の幅方向の軸である。この投影面変換に用いられる投影面は、投影面IP4、IP5及びIP6からなる。投影面IP4は、投影面IP2の中央を縦方向に幅2Lで延びる投影面である。投影面IP2のうち投影面IP4に投影される画像は、投影変換後においても変化しない。投影面IP5は、横方向において投影面IP4の一方側の縁に交差しており且つ光学中心O側に傾倒している投影面である。また、投影面IP6は、横方向において投影面IP4の他方側の縁に交差しており且つ光学中心O側に傾倒している投影面である。投影面IP5及びIP6は共に、投影面IP4と角度αで交差している。   In FIG. 7A, the axes X and Z are axes of the camera coordinate system before the projection plane conversion, the axis Z is an axis extending horizontally behind the vehicle 100, and the axis X is the width of the vehicle 102. The axis of direction. Projection planes used for this projection plane conversion include projection planes IP4, IP5, and IP6. The projection plane IP4 is a projection plane extending in the vertical direction with a width 2L in the center of the projection plane IP2. The image projected on the projection plane IP4 in the projection plane IP2 does not change even after the projection conversion. The projection plane IP5 is a projection plane that intersects one edge of the projection plane IP4 in the horizontal direction and is tilted toward the optical center O side. The projection plane IP6 is a projection plane that intersects with the other edge of the projection plane IP4 in the horizontal direction and is tilted toward the optical center O side. Both projection planes IP5 and IP6 intersect with projection plane IP4 at an angle α.

また、点P1は第2の画像上の点であり、そのX座標はx1である。点P1と光学中心Oとを結ぶ線はZ軸に角度γで交差している。点P2は点P1の投影面IP6での対応点であり、そのX座標はx2である。   Point P1 is a point on the second image, and its X coordinate is x1. A line connecting the point P1 and the optical center O intersects the Z axis at an angle γ. The point P2 is a corresponding point on the projection plane IP6 of the point P1, and its X coordinate is x2.

第3の画像処理部36は、光軸上の点Cを中心に一方側へ長さL、他方側へ長さLの幅で縦方向に伸びる第1の領域R1と、第1の領域の一方側の第2の領域R2と、第1の領域の他方側の第3の領域R3とに、第2の画像を分割する。なお、第1の領域R1の幅(所定の幅)である2Lは、例えば、車両の幅に対応させる。これにより、第1の領域R1の画像が車両の後方の画像により確実に対応することになる。   The third image processing unit 36 has a first region R1 extending in the longitudinal direction with a length L on one side and a length L on the other side around a point C on the optical axis, and a first region R1 The second image is divided into a second region R2 on one side and a third region R3 on the other side of the first region. In addition, 2L which is the width | variety (predetermined width | variety) of 1st area | region R1 is made to respond | correspond to the width | variety of a vehicle, for example. As a result, the image of the first region R1 more reliably corresponds to the image behind the vehicle.

そして、第3の画像処理部36は、次式(2)及び(3)の演算によって、第3の画像における各画素のX座標x2に対応する第2の画像におけるX座標x1を求める。

Figure 2007028443

Figure 2007028443

この演算によって、第3の画像の各画素の第2の画像における対応位置が求められる。第3の画像処理部36は、当該対応位置近傍の第2の画像の画素値を用いた補間によって、第3の画像の画素の画素値を算出する。なお、この補間には、例えば、線形補間、バイキュービック補間といった補間を用いることができる。 Then, the third image processing unit 36 obtains the X coordinate x1 in the second image corresponding to the X coordinate x2 of each pixel in the third image by the calculation of the following expressions (2) and (3).
Figure 2007028443

Figure 2007028443

By this calculation, the corresponding position in the second image of each pixel of the third image is obtained. The third image processing unit 36 calculates the pixel value of the pixel of the third image by interpolation using the pixel value of the second image near the corresponding position. For this interpolation, for example, interpolation such as linear interpolation or bicubic interpolation can be used.

かかる投影面変換によって生成される第3の画像では、第1の領域R1の画像が、画像中央を縦方向に延びる領域R4にそのまま複写される。第2の領域R2の画像は、領域R4に対して一方側の領域R5において縮小される。また、第3の領域R3の画像は、領域R1に対して他方側の領域R6において縮小される。   In the third image generated by such projection plane conversion, the image of the first region R1 is copied as it is into the region R4 extending in the vertical direction at the center of the image. The image of the second region R2 is reduced in the region R5 on one side with respect to the region R4. Further, the image of the third region R3 is reduced in the region R6 on the other side with respect to the region R1.

図8は、図6に示す第2の画像の投影面変換後の第3の画像である。第3の画像処理部36による投影面変換によれば、光学中心Oからの距離がより均等な投影面に第2の画像が投影される。また、第3の画像処理部36による投影面変換によれば、車両の後方に対応する第1の領域R1と、車両の後側方に対応する第2の領域R2及び第3の領域R3とが異なる投影面にそれぞれ投影されることから、各領域の画像を区別し易い。したがって、図8に示すように、第3の画像(表示対象画像)は、車両100の後方及び後側方を観察するドライバにとって、より自然かつ見易い画像となっている。   FIG. 8 is a third image after the projection plane conversion of the second image shown in FIG. According to the projection plane conversion by the third image processing unit 36, the second image is projected onto a projection plane having a more uniform distance from the optical center O. Further, according to the projection plane conversion by the third image processing unit 36, the first region R1 corresponding to the rear of the vehicle, the second region R2 and the third region R3 corresponding to the rear side of the vehicle, Are projected on different projection planes, so that it is easy to distinguish the images of the respective areas. Therefore, as shown in FIG. 8, the third image (display target image) is an image that is more natural and easy to see for the driver who observes the rear and rear sides of the vehicle 100.

再び図1に戻り、CPU26は、判定部38、及び選択部40として動作する。判定部38及び選択部40は、専用のプログラムモジュールの命令によって動作するCPU26によって構成されるものである。   Returning to FIG. 1 again, the CPU 26 operates as the determination unit 38 and the selection unit 40. The determination part 38 and the selection part 40 are comprised by CPU26 which operate | moves by the command of a dedicated program module.

判定部38は、車速センサ104からの車速信号を取得し、当該車速信号から車両100の前進速度が所定の速度以上であるか否かを判定する。この所定の速度としては、例えば、40km/hといった速度を採用することができる。   The determination unit 38 acquires a vehicle speed signal from the vehicle speed sensor 104 and determines whether or not the forward speed of the vehicle 100 is equal to or higher than a predetermined speed from the vehicle speed signal. As this predetermined speed, for example, a speed of 40 km / h can be employed.

選択部40は、判定部38によって車両100の前進速度が所定の速度以上であると判断された場合に、ASIC20によって生成された表示対象画像を表示させる。例えば、ナビゲーションユニット108からの地図画像といった他の画像を表示しているディスプレイ16に、ASIC20によって生成された表示対象画像を表示させる。なお、判定部38は、(1)車両100の速度が所定の速度以上であること、(2)車両100のウィンカ106から方向指示信号が出力されていること、及び、(3)ナビゲーションユニット108から位置特定信号が出力されていることのうち、少なくとも一つ以上を組み合わせた条件を用いて判定を行ってもよい。   When the determination unit 38 determines that the forward speed of the vehicle 100 is equal to or higher than a predetermined speed, the selection unit 40 displays the display target image generated by the ASIC 20. For example, the display target image generated by the ASIC 20 is displayed on the display 16 that displays another image such as a map image from the navigation unit 108. The determination unit 38 includes (1) that the speed of the vehicle 100 is equal to or higher than a predetermined speed, (2) that a direction instruction signal is output from the winker 106 of the vehicle 100, and (3) the navigation unit 108. The determination may be made using a combination of at least one of the fact that the position specifying signal is output from.

以下、ASIC20による処理の流れを説明する。図7は、ASIC20での処理の流れを示すフローチャートである。ASIC20では、まず、カメラ12によって撮影された画像(原画像)に、第1の画像処理部32が歪曲補正を適用する(ステップS01)。これによって、第1の画像が生成される。   Hereinafter, the flow of processing by the ASIC 20 will be described. FIG. 7 is a flowchart showing the flow of processing in the ASIC 20. In the ASIC 20, first, the first image processing unit 32 applies distortion correction to an image (original image) taken by the camera 12 (step S01). As a result, a first image is generated.

次に、ASIC20では、第2の画像処理部34が上述の光軸変換を第1の画像に適用する(ステップS02)。これによって、第2の画像が生成される。この第2の画像は、表示対象画像として、ディスプレイ16に表示される。引き続き、第3の画像処理部36によって第2の画像に投影面変換が適用される(ステップS03)。これによって、第3の画像が生成される。本実施の形態では、第3の画像処理部36によって生成され出力される第3の画像は、ディスプレイ16に表示対象画像として表示される。   Next, in the ASIC 20, the second image processing unit 34 applies the above-described optical axis conversion to the first image (step S02). As a result, a second image is generated. This second image is displayed on the display 16 as a display target image. Subsequently, projection plane conversion is applied to the second image by the third image processing unit 36 (step S03). As a result, a third image is generated. In the present embodiment, the third image generated and output by the third image processing unit 36 is displayed on the display 16 as a display target image.

かかる表示対象画像は、前述したように、後方及び後側方の画像を区別し易いので、例えば、高速前進中に車線変更を行うために自車線や隣接車線の後続車両を確認するドライバの支援に有効である。   As described above, the display target image can be easily distinguished from the rear and rear side images. For example, in order to change the lane during high-speed forward, the driver assists in confirming the own lane or the succeeding vehicle in the adjacent lane. It is effective for.

なお、図10に示すように、車両内を模擬したマスクMを付した第3の画像をディプレイ16に表示することも好適である。このようにマスク処理が施されることによってディスプレイ16に表示された画像において後方及び後側方の区別を更に直感的に認識しやすくなる。このマスクMの情報は、例えば、不揮発性メモリ28に格納されていれいる。また、マスク処理は、第2の画像処理部34が光軸変換した画像に対して実行してもよいし、第3の画像処理部36が投影面変換する前の第2の画像に対して実行してもよい。   In addition, as shown in FIG. 10, it is also suitable to display on the display 16 the 3rd image which attached | subjected the mask M which simulated the inside of a vehicle. By performing the mask processing in this way, it becomes easier to intuitively recognize the distinction between the rear side and the rear side in the image displayed on the display 16. The information of the mask M is stored in the nonvolatile memory 28, for example. Further, the mask processing may be performed on the image whose optical axis has been converted by the second image processing unit 34, or the second image before the projection plane conversion by the third image processing unit 36. May be executed.

なお、投影面IP5及び投影面IP6が投影面IP4となす角度α、及び投影面IP4の幅2Lを変化させることによって、目的に応じた所望の画像を生成するこが可能である。また、領域R5及びR6の画像をディスプレイ12の表示サイズにフィットするように拡大してもよい。   It is possible to generate a desired image according to the purpose by changing the angle α formed by the projection plane IP5 and the projection plane IP6 with the projection plane IP4 and the width 2L of the projection plane IP4. Further, the images of the regions R5 and R6 may be enlarged so as to fit the display size of the display 12.

更に、カメラ12は、その光軸が水平になるように車両に取り付けてられていてもよく、また、その設置位置は車両の後部に限定されず、視野が後方に向いていればよい。そして、光軸が予め水平になるようにカメラ12が車両に取り付けられている場合には、第2の画像処理部34は必ずしも備えなくても良い。この場合、第3の画像処理部(第2の画像処理手段)36は、第1の画像処理部32で歪曲補正された第1の画像に対して拡大・縮小処理を実施すればよい。   Furthermore, the camera 12 may be attached to the vehicle so that the optical axis thereof is horizontal, and the installation position is not limited to the rear part of the vehicle, and the field of view only needs to be directed backward. And when the camera 12 is attached to a vehicle so that an optical axis may become horizontal previously, the 2nd image process part 34 does not necessarily need to be provided. In this case, the third image processing unit (second image processing unit) 36 may perform the enlargement / reduction process on the first image whose distortion has been corrected by the first image processing unit 32.

図1は、本発明の一実施形態の画像表示システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of an image display system according to an embodiment of the present invention. 図2は、カメラが取り付けられた車両を示す斜視図である。FIG. 2 is a perspective view showing a vehicle to which a camera is attached. 図3は、広角カメラによって撮影された画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image captured by a wide-angle camera. 図4は、図3に示す画像の歪曲補正後の第1の画像を示す図である。FIG. 4 is a diagram illustrating a first image after distortion correction of the image illustrated in FIG. 3. 図5は、光軸変換の概念を説明するための図である。FIG. 5 is a diagram for explaining the concept of optical axis conversion. 図6は、図4に示す画像の光軸変換後の第2の画像を示す図である。FIG. 6 is a diagram illustrating a second image after the optical axis conversion of the image illustrated in FIG. 4. 図7は、投影面変換の概念を説明するための図である。FIG. 7 is a diagram for explaining the concept of projection plane conversion. 図8は、図6に示す画像の投影面変換後の第4の画像である。FIG. 8 is a fourth image after the projection plane conversion of the image shown in FIG. 図9は、図1に示したASICでの処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing the flow of processing in the ASIC shown in FIG. 図10は、マスクが付された後の第3の画像である。FIG. 10 is a third image after the mask has been applied.

符号の説明Explanation of symbols

10…画像表示システム、12…カメラ、14…画像処理ECU、16…ディスプレイ(表示装置)、20…画像処理ASIC、26…CPU、28…不揮発性メモリ、30…フレームメモリ、32…第1の画像処理部、34…第2の画像処理部、36…第3の画像処理部(第2の画像処理手段)、38…判定部、40…選択部。   DESCRIPTION OF SYMBOLS 10 ... Image display system, 12 ... Camera, 14 ... Image processing ECU, 16 ... Display (display apparatus), 20 ... Image processing ASIC, 26 ... CPU, 28 ... Nonvolatile memory, 30 ... Frame memory, 32 ... 1st Image processing unit, 34 ... second image processing unit, 36 ... third image processing unit (second image processing means), 38 ... determination unit, 40 ... selection unit.

Claims (2)

車両に取り付けられており、当該車両の後方に広角の視野を有するカメラと、
前記カメラから出力される画像に対する歪曲補正を実行する第1の画像処理手段と、
前記第1の画像処理手段によって前記歪曲補正が施された画像を、該画像の中央を所定の幅で縦方向に延びる第1の領域の画像と、横方向に該第1の領域に対して一方側の第2の領域の画像と、他方側の第3の領域の画像とに分割し、前記第1の領域の画像に対応する投影面の前記一方側の縁に交差し且つ光学中心側へ傾倒する投影面上に前記第2の領域の画像を投影し、前記第1の領域の画像に対応する投影面の前記他方側の縁に交差し且つ前記光学中心側へ傾倒する投影面に前記第3の領域の画像を投影する第2の画像処理手段と、
前記第2の画像処理手段から出力される画像に基づく表示対象画像を表示する表示装置と、
を備える、画像表示システム。
A camera attached to the vehicle and having a wide-angle field of view behind the vehicle;
First image processing means for performing distortion correction on an image output from the camera;
The image subjected to the distortion correction by the first image processing means is divided into an image of a first area extending in the vertical direction with a predetermined width at the center of the image, and the first area in the horizontal direction. The image is divided into an image of the second region on one side and an image of the third region on the other side, intersects the edge on the one side of the projection surface corresponding to the image of the first region and is on the optical center side Projecting the image of the second region onto the projection surface tilting toward the projection surface, intersecting the other edge of the projection surface corresponding to the image of the first region and tilting toward the optical center side Second image processing means for projecting an image of the third region;
A display device for displaying a display target image based on the image output from the second image processing means;
An image display system comprising:
車速検出手段によって検出された前記車両の速度が所定の速度以上であるか否かを判定する判定手段と、
前記判定手段によって前記車両の速度が前記所定の速度以上であると判断された場合に、前記表示装置に前記表示対象画像を表示させる選択手段と、
を更に備える、請求項1記載の画像表示システム。
Determining means for determining whether the speed of the vehicle detected by the vehicle speed detecting means is equal to or higher than a predetermined speed;
Selection means for displaying the display target image on the display device when the determination means determines that the speed of the vehicle is equal to or higher than the predetermined speed;
The image display system according to claim 1, further comprising:
JP2005210485A 2005-07-20 2005-07-20 Image display system Pending JP2007028443A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005210485A JP2007028443A (en) 2005-07-20 2005-07-20 Image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005210485A JP2007028443A (en) 2005-07-20 2005-07-20 Image display system

Publications (1)

Publication Number Publication Date
JP2007028443A true JP2007028443A (en) 2007-02-01

Family

ID=37788571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005210485A Pending JP2007028443A (en) 2005-07-20 2005-07-20 Image display system

Country Status (1)

Country Link
JP (1) JP2007028443A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081664A (en) * 2007-09-26 2009-04-16 Nissan Motor Co Ltd Vehicle periphery monitoring apparatus and image display method
JP2012170127A (en) * 2012-04-23 2012-09-06 Nissan Motor Co Ltd Vehicle periphery monitoring apparatus and image display method
US8994825B2 (en) 2011-07-28 2015-03-31 Robert Bosch Gmbh Vehicle rear view camera system and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081664A (en) * 2007-09-26 2009-04-16 Nissan Motor Co Ltd Vehicle periphery monitoring apparatus and image display method
US8994825B2 (en) 2011-07-28 2015-03-31 Robert Bosch Gmbh Vehicle rear view camera system and method
JP2012170127A (en) * 2012-04-23 2012-09-06 Nissan Motor Co Ltd Vehicle periphery monitoring apparatus and image display method

Similar Documents

Publication Publication Date Title
JP4902368B2 (en) Image processing apparatus and image processing method
EP2763407B1 (en) Vehicle surroundings monitoring device
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP5962927B2 (en) Overhead image generation apparatus, overhead image generation method, and overhead image generation program
JP2005311868A (en) Vehicle periphery visually recognizing apparatus
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
JP2008077628A (en) Image processor and vehicle surrounding visual field support device and method
JP2005112004A (en) Vehicle reversing motion assisting device and vehicle reversing motion assisting method
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP2008269139A (en) Drive support system and vehicle
JP2011035816A (en) Vehicle periphery image display control apparatus
JP2013001366A (en) Parking support device and parking support method
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2011114467A (en) Vehicle display device and display method
JP2017069852A (en) Information display device and information display method
WO2013103115A1 (en) Image display device
JP2016149613A (en) Camera parameter adjustment device
JP2010183234A (en) Drawing apparatus
KR20100005971A (en) A vehicle around view monitorring system
JP6407596B2 (en) Image processing apparatus and driving support system
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2007028443A (en) Image display system
JP2007028442A (en) Image display system
JP4945315B2 (en) Driving support system and vehicle
JP2007028444A (en) Image display system