JP7081265B2 - Image processing equipment - Google Patents

Image processing equipment Download PDF

Info

Publication number
JP7081265B2
JP7081265B2 JP2018064902A JP2018064902A JP7081265B2 JP 7081265 B2 JP7081265 B2 JP 7081265B2 JP 2018064902 A JP2018064902 A JP 2018064902A JP 2018064902 A JP2018064902 A JP 2018064902A JP 7081265 B2 JP7081265 B2 JP 7081265B2
Authority
JP
Japan
Prior art keywords
image
output
input
conversion unit
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018064902A
Other languages
Japanese (ja)
Other versions
JP2019176402A (en
Inventor
恭佑 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu General Ltd
Original Assignee
Fujitsu General Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu General Ltd filed Critical Fujitsu General Ltd
Priority to JP2018064902A priority Critical patent/JP7081265B2/en
Publication of JP2019176402A publication Critical patent/JP2019176402A/en
Application granted granted Critical
Publication of JP7081265B2 publication Critical patent/JP7081265B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.

例えば、魚眼レンズを用いた車載用カメラで撮像された被写体の画像から湾曲収差を補正するように画像変換して出力する画像処理装置がある(例えば特許文献1)。 For example, there is an image processing device that converts and outputs an image of a subject captured by an in-vehicle camera using a fisheye lens so as to correct distortion (for example, Patent Document 1).

このような画像処理装置では、魚眼レンズの光軸に向かう直線状の被写体と、縦方向に直線の被写体とを出力画像内でほぼ直線状となるように入力画像全体を画像変換する。また、画像処理装置では、横方向に直線の被写体を、出力画像の中央部分、及び同中央部分と左右に連なる左側部分と右側部分とでほぼ直線状に、また、出力画像の中央部分と、左側部分及び右側部分との境目付近で屈曲するように入力画像全体を画像変換する。その結果、画像処理装置は利用者に違和感を与えない広角画像が見易い出力画像を提供している。 In such an image processing device, the entire input image is converted so that the linear subject toward the optical axis of the fisheye lens and the linear subject in the vertical direction are substantially linear in the output image. Further, in the image processing device, a subject that is linear in the horizontal direction is placed in a substantially linear shape at the center portion of the output image and the left and right portions that are connected to the center portion to the left and right, and the center portion of the output image. The entire input image is image-converted so as to bend near the boundary between the left side portion and the right side portion. As a result, the image processing device provides an output image in which a wide-angle image that does not give a sense of discomfort to the user is easy to see.

また、上記のような画像処理装置から出力された出力画像を入力とした表示装置において車両が進行する方向に進路線を重畳して表示する技術が知られている(例えば特許文献2)。 Further, there is known a technique of superimposing a traveling route in a direction in which a vehicle travels in a display device using an output image output from an image processing device as an input (for example, Patent Document 2).

特開2008-311890号公報Japanese Unexamined Patent Publication No. 2008-31890 特開平11-334470号公報Japanese Unexamined Patent Publication No. 11-334470

このような表示装置では一般的に進路線のデータに対し、魚眼レンズの湾曲収差や他の画像変換処理によって変形した画像に合致するように、進路線のデータに対して画像変換を行い、画像処理装置が出力した画像内に実際に車両が進む進路を重畳して表示させる。そのため上述した進路線のデータに対する画像変換処理は、画像処理装置内で行う車載カメラで撮像された画像に対する画像変換処理と同様な画像変換処理となる。 In such a display device, generally, the image of the route is converted into an image so as to match the image deformed by the curvature aberration of the fisheye lens or other image conversion processing. The course on which the vehicle actually travels is superimposed and displayed on the image output by the device. Therefore, the image conversion process for the above-mentioned route data is the same image conversion process as the image conversion process for the image captured by the in-vehicle camera performed in the image processing device.

より具体的には表示装置側において、例えば表示装置の出力画像の出力座標(X,Y)毎に、予め記憶された進路線のデータを入力とした入力座標(x,y)を対応づけるテーブルを使用し、出力座標(X,Y)の画素の輝度と色の情報を、入力座標(x,y)の画素の輝度と色の情報を参照(転写)し生成する画像変換処理を行うことが考えられる。このような処理においては一般的に出力座標に対し、その座標に対応する入力座標をデーブル化した変換データを予め記憶させておき、そのデーブルに従って変換処理を行う。 More specifically, on the display device side, for example, for each output coordinate (X, Y) of the output image of the display device, a table that associates the input coordinates (x, y) with the input of the advance route data stored in advance. Is used to perform image conversion processing to refer to (transfer) the brightness and color information of the pixels of the output coordinates (X, Y) and the brightness and color information of the pixels of the input coordinates (x, y). Can be considered. In such processing, in general, conversion data in which the input coordinates corresponding to the coordinates are tableized is stored in advance for the output coordinates, and the conversion processing is performed according to the table.

しかし、このようなデーブル化した変換データは出力画像の画素数分の入力座標(x,y)が必要となり、近年の表示装置の高画素化の流れに合わせその容量が大きくなりメモリのコストアップを招くという問題があった。 However, such tableized conversion data requires input coordinates (x, y) for the number of pixels of the output image, and the capacity increases in line with the recent trend toward higher pixel counts in display devices, resulting in an increase in memory cost. There was a problem of inviting.

本発明ではこのような問題に鑑み、表示装置のメモリの増大を抑えつつ進路線を重畳することができる画像処理装置等を提供することを目的とする。 In view of such a problem, it is an object of the present invention to provide an image processing device or the like capable of superimposing a route while suppressing an increase in the memory of a display device.

一つの態様の画像処理装置は、入力画像を画像変換し出力画像を出力する画像処理装置であって、第1の変換部と、第2の変換部と、第3の変換部と、合成部とを有する。第1の変換部は、前記入力画像の第1の画像領域内の画素毎に第1の歪補正を施した画像を出力する。第2の変換部は、前記入力画像の第2の画像領域内の画素毎に第2の歪補正を施した画像を出力する。第3の変換部は、前記入力画像の第3の画像領域内の画素毎に第3の歪補正を施した画像を出力する。合成部は、前記第1の変換部からの画像出力と、前記第2の変換部からの画像出力と、前記第3の変換部からの画像出力とから前記出力画像を生成し出力する。前記出力画像は、前記第1の変換部から出力された画像と前記第2の変換部から出力された画像との間に前記第3の変換部から出力された画像が配置され、前記第1の変換部からの出力された画像は歪曲収差のみを持つ、又は、歪みを持たない画像である。 The image processing device of one embodiment is an image processing device that converts an input image into an image and outputs an output image, and is a first conversion unit, a second conversion unit, a third conversion unit, and a composition unit. And have. The first conversion unit outputs an image to which the first distortion correction is applied for each pixel in the first image region of the input image. The second conversion unit outputs an image to which the second distortion correction is applied for each pixel in the second image region of the input image. The third conversion unit outputs an image to which the third distortion correction is applied for each pixel in the third image region of the input image. The compositing unit generates and outputs the output image from the image output from the first conversion unit, the image output from the second conversion unit, and the image output from the third conversion unit. In the output image, the image output from the third conversion unit is arranged between the image output from the first conversion unit and the image output from the second conversion unit, and the first conversion unit is used. The image output from the conversion unit of is an image having only distortion or no distortion.

本発明によれば、利用者に違和感を与えない見易い出力画像を維持しつつテーブルの容量を減じることができる。 According to the present invention, it is possible to reduce the capacity of the table while maintaining an easy-to-see output image that does not give a sense of discomfort to the user.

図1は、実施例1の画像表示システムのハードウェア構成の一例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of the hardware configuration of the image display system of the first embodiment. 図2は、実施例1の撮像装置の機能構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the image pickup apparatus of the first embodiment. 図3は、撮像装置で撮像した入力画像の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of an input image captured by the image pickup apparatus. 図4は、第1の変換テーブルのテーブル構成の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of the table configuration of the first conversion table. 図5は、第1の変換部の第1の歪補正前後の画像の一例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of an image before and after the first distortion correction of the first conversion unit. 図6Aは、画像変換モデルの一例を示す説明図である。FIG. 6A is an explanatory diagram showing an example of an image transformation model. 図6Bは、第2の変換テーブルのテーブル構成の一例を示す説明図である。FIG. 6B is an explanatory diagram showing an example of the table configuration of the second conversion table. 図7は、第2の変換部の第2の歪補正前後の画像の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of an image before and after the second distortion correction of the second conversion unit. 図8Aは、出力画像の一例を示す説明図である。FIG. 8A is an explanatory diagram showing an example of an output image. 図8Bは、出力画像内の第1の画像領域と、第1の画像領域以外の画像領域とを輝度で表現した説明図である。FIG. 8B is an explanatory diagram showing the first image region in the output image and the image region other than the first image region in terms of luminance. 図8Cは、出力画像内の第1の画像領域と、第2の画像領域と、第3の画像領域と輝度で表現した説明図である。FIG. 8C is an explanatory diagram represented by a first image region, a second image region, a third image region, and brightness in the output image. 図9は、割合テーブルのテーブル構成の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of the table configuration of the ratio table. 図10は、第3の歪を補正する第3の入力座標を算出する際の算出方法の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of a calculation method when calculating the third input coordinates for correcting the third distortion. 図11は、第3の変換テーブルのテーブル構成の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of the table configuration of the third conversion table. 図12は、出力画像の一例を示す説明図である。FIG. 12 is an explanatory diagram showing an example of an output image. 図13は、実像高と理想像高との関係の一例を示す説明図である。FIG. 13 is an explanatory diagram showing an example of the relationship between the real image height and the ideal image height.

以下、図面に基づいて、本願の開示する画像処理装置の実施例を詳細に説明する。尚、各実施例により、開示技術が限定されるものではない。また、以下に示す各実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。 Hereinafter, examples of the image processing apparatus disclosed in the present application will be described in detail with reference to the drawings. The disclosed technique is not limited by each embodiment. In addition, the examples shown below may be appropriately combined as long as they do not cause a contradiction.

図1は、実施例1の画像表示システム1のハードウェア構成の一例を示す説明図である。図1に示す画像表示システム1は、撮像装置2と、ナビゲーション装置3と、表示装置4とを有する。撮像装置2は、レンズ11と、撮像素子12と、画像処理プロセッサ13と、ROM(Read Only Memory)14と、RAM(Radom Access Memory)15とを有する。撮像装置2は、例えば、車両後部のナンバープレート付近に配置されたカメラ装置である。レンズ11は、例えば、魚眼レンズである。撮像素子12は、レンズ11を通じて車両後方の特定範囲の画像を撮像するCMOSセンサである。画像処理プロセッサ13は、撮像装置2内部の画像処理を実行する画像処理装置である。ROM14は、各種プログラム等の情報を格納する。RAM15は、各種情報を記憶する。 FIG. 1 is an explanatory diagram showing an example of the hardware configuration of the image display system 1 of the first embodiment. The image display system 1 shown in FIG. 1 includes an image pickup device 2, a navigation device 3, and a display device 4. The image pickup apparatus 2 includes a lens 11, an image pickup element 12, an image processing processor 13, a ROM (Read Only Memory) 14, and a RAM (Radom Access Memory) 15. The image pickup device 2 is, for example, a camera device arranged near the license plate at the rear of the vehicle. The lens 11 is, for example, a fisheye lens. The image sensor 12 is a CMOS sensor that captures an image of a specific range behind the vehicle through the lens 11. The image processing processor 13 is an image processing device that executes image processing inside the image pickup device 2. The ROM 14 stores information such as various programs. The RAM 15 stores various information.

ナビゲーション装置3は、地図情報等の案内情報を表示装置に出力すると共に、撮像装置2からの出力画像に進路線50を描画し、進路線50を描画した出力画像を表示装置4に出力する。表示装置4は、例えば、運転席の正面パネルに配置され、例えば、ナビゲーション装置3からの出力画像や地図情報を表示出力するモニタ装置である。尚、ナビゲーション装置3は、画像の歪み補正後の出力画像に合致するように画像変換された進路線50を描画する設定としている。 The navigation device 3 outputs guidance information such as map information to the display device, draws the advance route 50 on the output image from the image pickup device 2, and outputs the output image on which the advance route 50 is drawn to the display device 4. The display device 4 is, for example, a monitor device arranged on the front panel of the driver's seat and displaying and outputting an output image and map information from the navigation device 3, for example. The navigation device 3 is set to draw a route 50 that has been image-converted so as to match the output image after distortion correction of the image.

図2は、実施例1の撮像装置2の構成の一例を示す説明図である。図2に示す撮像装置2は、制御部20及び記憶部30を備える。制御部20は図1での画像処理プロセッサ13に対応し、記憶部30は図1でのROM14に対応する。制御部20は、第1の変換部21と、第2の変換部22と、算出部23と、第3の変換部24と、合成部25と有する。記憶部30は、第1の変換テーブル31と、第2の変換テーブル32と、割合テーブル33と、第3の変換テーブル34とを有する。 FIG. 2 is an explanatory diagram showing an example of the configuration of the image pickup apparatus 2 of the first embodiment. The image pickup apparatus 2 shown in FIG. 2 includes a control unit 20 and a storage unit 30. The control unit 20 corresponds to the image processor 13 in FIG. 1, and the storage unit 30 corresponds to the ROM 14 in FIG. The control unit 20 includes a first conversion unit 21, a second conversion unit 22, a calculation unit 23, a third conversion unit 24, and a synthesis unit 25. The storage unit 30 has a first conversion table 31, a second conversion table 32, a ratio table 33, and a third conversion table 34.

図3は、撮像装置2で撮像した画像を表示装置4に表示させた一例を示す説明図である。図3に示す入力画像40は、第1の画像領域41と、第2の画像領域42と、第3の画像領域43とを有する。画像処理プロセッサ13は、入力画像内の第1の画像領域41、第2の画像領域42及び第3の画像領域43を識別する。すなわち、画像処理プロセッサ13は、入力画像内の各画素値を入力座標で識別し、第1の画像領域41内の各画素値を第1の入力座標、第2の画像領域42内の各画素値を第2の入力座標、第3の画像領域43内の各画素値の第3の入力座標で識別する。 FIG. 3 is an explanatory diagram showing an example in which an image captured by the image pickup device 2 is displayed on the display device 4. The input image 40 shown in FIG. 3 has a first image area 41, a second image area 42, and a third image area 43. The image processor 13 identifies the first image area 41, the second image area 42, and the third image area 43 in the input image. That is, the image processing processor 13 identifies each pixel value in the input image by the input coordinates, and each pixel value in the first image area 41 is the first input coordinate, and each pixel in the second image area 42. The values are identified by the second input coordinates, the third input coordinates of each pixel value in the third image area 43.

破線L1で囲まれた第1の画像領域41は、例えば、入力画像内の中央部分の画像領域に相当し、例えば、歪曲収差のみを持つ、又は、歪を持たないように、歪を補正(第1の歪み補正)する対象領域であって、舵角に応じて変化する進路線を描画するための画像領域である。一点鎖線L2と点線L3とに囲まれた第2の画像領域42は、例えば、前述の特許文献1に示すような直線の物体を直線で表示し利用者に違和感を与えない歪補正(第2の歪み補正)する画像領域である。この部分は歪曲収差を持たない。破線L1と一点鎖線L2とに囲まれた第3の画像領域43は、第1の歪補正と第2の歪補正とを加重平均する第3の歪補正を行う画像領域である。加重平均については後述する。 The first image region 41 surrounded by the broken line L1 corresponds to, for example, the image region of the central portion in the input image, and the distortion is corrected so as to have only distortion or no distortion (for example). It is a target area to be subjected to (first distortion correction), and is an image area for drawing a traveling line that changes according to a steering angle. The second image region 42 surrounded by the alternate long and short dash line L2 is, for example, a distortion correction (second) that displays a straight line object as shown in the above-mentioned patent document 1 as a straight line and does not give a sense of discomfort to the user. This is the image area to be corrected for distortion. This part has no distortion. The third image region 43 surrounded by the broken line L1 and the alternate long and short dash line L2 is an image region for performing a third strain correction by weighted averaging the first strain correction and the second strain correction. The weighted average will be described later.

第1の変換部21は、入力画像40の第1の画像領域41内の画素毎に第1の歪補正を施し出力する変換部である。尚、第1の画像領域41内の画素は、例えば、第1の入力座標の画素値とも言える。第1の変換部21は、例えば、第1の変換テーブル31を参照し、入力画像40内の第1の画像領域41内の歪を補正した第1の入力座標の画素値を出力画像内の出力座標の画素値として出力する。第1の変換テーブル31は、出力画像の出力座標毎に、入力画像内の歪を補正した画素値の第1の入力座標を対応付けて管理するテーブルである。第1の変換部21は、出力画像の第1の画像領域41内の出力座標毎の画素値を合成部25に出力する。 The first conversion unit 21 is a conversion unit that performs the first distortion correction for each pixel in the first image region 41 of the input image 40 and outputs it. The pixels in the first image area 41 can be said to be, for example, the pixel values of the first input coordinates. The first conversion unit 21 refers to, for example, the first conversion table 31 and outputs the pixel values of the first input coordinates in the output image after correcting the distortion in the first image area 41 in the input image 40. It is output as the pixel value of the output coordinates. The first conversion table 31 is a table that manages the first input coordinates of the pixel values corrected for distortion in the input image in association with each output coordinate of the output image. The first conversion unit 21 outputs the pixel values for each output coordinate in the first image area 41 of the output image to the synthesis unit 25.

ここでナビゲーション装置3が進路線50を画像の歪み補正後の出力画像に合致するように画像変換する動作について説明する。例えば第1の画像領域41の画像は歪曲収差を有するとした場合、ナビゲーション装置3は進路線データに対し同じ前述の歪曲収差と同じ収差を持つように画像変換を行う。歪曲収差があると実像高と理想像高が異なる。図13は、実像高と理想像高との関係の一例を示す説明図である。ナビゲーション装置3は、理想像高の極座標(R,φ)の画素値を実像高の極座標(r、φ)に画像変換する。この変換は図13の線L上の任意の画素を同じ線L上の別な箇所に移動させる変換であり、この変換テーブルは出力画像の出力座標(X,Y)毎に、入力画像の入力座標(x,y)を対応づけた変換テーブルと比較しデータのサイズが小さい。尚、第1の画像領域41の画像は歪みのないものであってもよい。このとき画像内の極座標(R,φ)の画素値から極座標(r、φ)の画素値への変換においては前述のような画素の移動は発生しないため変換テーブルは不要となる。 Here, the operation of the navigation device 3 to convert the route 50 so as to match the output image after distortion correction of the image will be described. For example, assuming that the image in the first image region 41 has distortion, the navigation device 3 performs image conversion on the route data so as to have the same aberration as the above-mentioned distortion. When there is distortion, the real image height and the ideal image height are different. FIG. 13 is an explanatory diagram showing an example of the relationship between the real image height and the ideal image height. The navigation device 3 converts the pixel value of the polar coordinates (R, φ) of the ideal image height into the polar coordinates (r, φ) of the real image height. This conversion is a conversion that moves an arbitrary pixel on the line L of FIG. 13 to another place on the same line L, and this conversion table inputs an input image for each output coordinate (X, Y) of the output image. The size of the data is smaller than that of the conversion table associated with the coordinates (x, y). The image in the first image area 41 may be distortion-free. At this time, in the conversion from the pixel value of the polar coordinates (R, φ) in the image to the pixel value of the polar coordinates (r, φ), the above-mentioned pixel movement does not occur, so that the conversion table becomes unnecessary.

第2の変換部22は、入力画像40の第2の画像領域42内の画素毎に第2の歪補正を施し出力する変換部である。尚、第2の画像領域42内の画素は、例えば、第2の入力座標の画素値と言える。第2の変換部22は、例えば、第2の変換テーブル32を参照し、入力画像40内の第2の画像領域42内の歪を補正した第2の入力座標の画素値を出力画像内の第2の出力座標の画素値として出力する。第2の変換テーブルは、第2の画像領域42内の第2の入力座標毎に、第2の歪を補正した画素値の第2の入力座標を対応付けて管理するテーブルである。第2の変換部22は、出力画像の第2の画像領域42内の出力座標毎の画素値を合成部25に出力する。 The second conversion unit 22 is a conversion unit that performs and outputs a second distortion correction for each pixel in the second image region 42 of the input image 40. The pixels in the second image area 42 can be said to be, for example, the pixel values of the second input coordinates. The second conversion unit 22 refers to, for example, the second conversion table 32, and obtains the pixel values of the second input coordinates in the output image after correcting the distortion in the second image area 42 in the input image 40. It is output as the pixel value of the second output coordinate. The second conversion table is a table that manages the second input coordinates of the pixel value corrected for the second distortion in association with each other for each second input coordinate in the second image area 42. The second conversion unit 22 outputs the pixel value for each output coordinate in the second image area 42 of the output image to the synthesis unit 25.

算出部23は、入力画像41内の第3の画像領域43内の歪を補正した画素値の出力座標毎に、第3の画像領域43内の出力座標から直近の第1の画像領域41内の出力座標までの第1の距離と、第3の画像領域43内の出力座標から直近の第2の画像領域42内の出力座標までの第2の距離との比率を算出する。更に、算出部23は、その比率を割合として、出力座標毎に割合テーブル33内に記憶する。算出部23は、入力画像41の画素毎に第1の歪補正を施して得られた出力と第2の歪補正を施して得られた出力とを加重平均して出力する。算出部23は、例えば、割合テーブル33を参照し、出力座標毎の割合(第1の距離:第2の距離)に応じて第1の入力座標及び第2の入力座標を補正する。算出部23は、割合補正後の第1の入力座標及び割合補正後の第2の入力座標同士を加算することで出力画像の第3の入力座標を算出する。 The calculation unit 23 is in the first image area 41 closest to the output coordinates in the third image area 43 for each output coordinate of the pixel value corrected for the distortion in the third image area 43 in the input image 41. The ratio of the first distance to the output coordinates of the above and the second distance from the output coordinates in the third image area 43 to the output coordinates in the nearest second image area 42 is calculated. Further, the calculation unit 23 stores the ratio as a ratio in the ratio table 33 for each output coordinate. The calculation unit 23 weights and averages the output obtained by performing the first strain correction for each pixel of the input image 41 and the output obtained by performing the second strain correction. For example, the calculation unit 23 refers to the ratio table 33 and corrects the first input coordinate and the second input coordinate according to the ratio for each output coordinate (first distance: second distance). The calculation unit 23 calculates the third input coordinate of the output image by adding the first input coordinate after the ratio correction and the second input coordinate after the ratio correction.

算出部23は、出力座標毎に、第3の入力座標を第3の変換テーブル34に記憶する。第3の変換部24は、入力画像の第3の画像領域43内の画素毎に第3の歪補正を施し出力する変換部である。尚、第3の画像領域43内の画素は、例えば、第3の入力座標の画素値と言える。第3の変換部24は、例えば、第3の変換テーブル34を参照し、入力画像40内の第3の画像領域43内の歪を補正した第3の入力座標の画素値を第3の画像領域43内の出力座標の画素値として出力する。第3の変換部24は、第3の画像領域43内の出力座標毎の画素値を合成部25に出力する。 The calculation unit 23 stores the third input coordinates in the third conversion table 34 for each output coordinate. The third conversion unit 24 is a conversion unit that applies and outputs a third distortion correction for each pixel in the third image region 43 of the input image. The pixels in the third image region 43 can be said to be, for example, the pixel values of the third input coordinates. The third conversion unit 24 refers to, for example, the third conversion table 34, and uses the pixel value of the third input coordinate corrected for the distortion in the third image region 43 in the input image 40 as the third image. It is output as a pixel value of the output coordinates in the area 43. The third conversion unit 24 outputs the pixel value for each output coordinate in the third image area 43 to the composition unit 25.

図5は、第1の変換部21の第1の歪補正前後の画像の一例を示す説明図である。第1の変換部21は、第1の変換テーブル31を参照し、出力座標毎に、歪を補正した第1の入力座標の画素値を出力座標の画素値として出力する。第1の変換部21は、第1の画像領域41内の出力座標の画素値を合成部25に出力する。その結果、第1の変換部21は、図5に示すように第1の歪補正前の画像を第1の歪補正後の画像として出力できる。第1の変換部21は、例えば、入力画像内の入力座標β1の画素値を出力画像内の出力座標α1の画素値として、入力画像内の入力座標β3の画素値を出力画像内の出力座標α3の画素値として出力する。尚、説明の便宜上、図5の例では、入力画像内の全ての第1の入力座標の画素値を出力座標の画素値として出力する場合を例示した。しかしながら、実際には、第1の変換部21は、入力画像内の第1の画像領域41内の歪を補正した第1の入力座標の画素値を第1の画像領域41内の出力座標の画素値として合成部25に出力するものである。 FIG. 5 is an explanatory diagram showing an example of an image before and after the first distortion correction of the first conversion unit 21. The first conversion unit 21 refers to the first conversion table 31, and outputs the pixel value of the first input coordinate corrected for distortion as the pixel value of the output coordinate for each output coordinate. The first conversion unit 21 outputs the pixel values of the output coordinates in the first image area 41 to the composition unit 25. As a result, the first conversion unit 21 can output the image before the first distortion correction as the image after the first distortion correction as shown in FIG. The first conversion unit 21 uses, for example, the pixel value of the input coordinate β1 in the input image as the pixel value of the output coordinate α1 in the output image, and the pixel value of the input coordinate β3 in the input image as the output coordinate in the output image. It is output as a pixel value of α3. For convenience of explanation, in the example of FIG. 5, the case where the pixel values of all the first input coordinates in the input image are output as the pixel values of the output coordinates is illustrated. However, in reality, the first conversion unit 21 uses the pixel value of the first input coordinate corrected for the distortion in the first image area 41 in the input image as the output coordinate in the first image area 41. It is output to the compositing unit 25 as a pixel value.

図6Aは、画像変換モデルの一例を示す説明図である。図6Aに示す画像変換モデルは、円形の平面からなる入力画像51と、レンズ11と対応して被写体が映し出される半球状の仮想物体面52と、湾曲収差を補正する補正面53と、画像変換される表示面54とを順に並べて構成する。レンズ11の光軸と対応する仮想光軸zは、入力画像51の中央に位置する光軸原点0からこれらの面の中央を直角に挿通する。補正面53は、中央に配置された中央面53Aと、同中央面53Aの左右にそれぞれ配置された左側面53B及び右側面53Cとで構成され、同左側面53Bと右側面53Cとは光軸原点に向かって屈曲して構成する。仮想光軸z方向の補正面53に投射された仮想物体面52上の画像は、表示面54へ正射影方式で投射され、投射された表示面54の画像を出力画像とする。 FIG. 6A is an explanatory diagram showing an example of an image transformation model. The image conversion model shown in FIG. 6A includes an input image 51 formed of a circular plane, a hemispherical virtual object surface 52 corresponding to the lens 11 on which a subject is projected, a correction surface 53 for correcting distortion, and an image conversion. The display surface 54 to be displayed is arranged side by side in order. The virtual optical axis z corresponding to the optical axis of the lens 11 passes through the center of these surfaces at a right angle from the optical axis origin 0 located at the center of the input image 51. The correction surface 53 is composed of a central surface 53A arranged in the center, a left side surface 53B and a right side surface 53C arranged on the left and right sides of the central surface 53A, respectively, and the left side surface 53B and the right side surface 53C are optical axis origins. It is configured to bend toward. The image on the virtual object surface 52 projected on the correction surface 53 in the virtual optical axis z direction is projected onto the display surface 54 by an orthogonal projection method, and the projected image of the display surface 54 is used as an output image.

画像変換モデルでは、表示面54の画素位置を補正面53の画素位置に変換し、補正面53の画素位置を仮想物体面52の半球面の極座標に変換し、最終的に入力画像51の画素位置へ変換する。画像変換モデルでは、表示面54の画素位置毎に入力画像51の画素位置を変換し、これら表示面54の画素位置毎に入力画像51の画素位置を格納する。すなわち、第2の変換テーブル32は、出力座標毎に歪を補正した画素値の第2の入力座標を管理する。 In the image conversion model, the pixel position of the display surface 54 is converted into the pixel position of the correction surface 53, the pixel position of the correction surface 53 is converted into the polar coordinates of the hemisphere of the virtual object surface 52, and finally the pixels of the input image 51. Convert to position. In the image conversion model, the pixel position of the input image 51 is converted for each pixel position of the display surface 54, and the pixel position of the input image 51 is stored for each pixel position of the display surface 54. That is, the second conversion table 32 manages the second input coordinates of the pixel values corrected for distortion for each output coordinate.

図6Bは、第2の変換テーブル32のテーブル構成の一例を示す説明図である。図6Bに示す第2の変換テーブル32は、出力座標と、第2の入力座標とを対応付けて管理している。出力座標は、出力画像の画素値を出力する座標である。第2の入力座標は、出力座標毎に歪を補正した画素値を入力する座標である。尚、第2の変換テーブル32内の出力座標毎に第2の歪を補正した画素値の入力座標を算出する上での原理は、本出願人が特許文献1(特開2008-334470号公報)で提案している。尚、ここでは特許文献1で示す技術を適用したが、これに限定されず、広角レンズに起因する歪みを補正する公知の技術が用いられてもよい。 FIG. 6B is an explanatory diagram showing an example of the table configuration of the second conversion table 32. The second conversion table 32 shown in FIG. 6B manages the output coordinates and the second input coordinates in association with each other. The output coordinates are the coordinates for outputting the pixel value of the output image. The second input coordinate is a coordinate for inputting a pixel value corrected for distortion for each output coordinate. It should be noted that the principle for calculating the input coordinates of the pixel value corrected for the second distortion for each output coordinate in the second conversion table 32 is that the applicant applies to Patent Document 1 (Japanese Unexamined Patent Publication No. 2008-334470). ) Proposes. Although the technique shown in Patent Document 1 is applied here, the technique is not limited to this, and a known technique for correcting distortion caused by a wide-angle lens may be used.

図7は、第2の変換部22の第2の歪補正前後の画像の一例を示す説明図である。第2の変換部22は、第2の変換テーブル32を参照し、出力座標毎に、第2の歪を補正した第2の入力座標の画素値を出力座標の画素値として出力する。第2の変換部22は、例えば、図7に示すように、入力画像内の入力座標β5の画素値を出力画像内の出力座標α5の画素値として、入力画像内の入力座標β6の画素値を出力画像内の出力座標α6の画素値として出力する。第2の変換部22は、第2の画像領域42内の各出力座標の画素値を合成部25に出力する。その結果、第2の変換部22は、第2の歪補正前の画像を第2の歪補正後の画像として出力する。尚、説明の便宜上、図7の例では、入力画像内の全ての第2の入力座標の画素値を出力座標の画素値として出力する場合を例示した。しかしながら、第2の変換部22は、実際には、入力画像内の第2の画像領域42内の第2の歪を補正した第2の入力座標の画素値を第2の画像領域42内の出力座標の画素値として合成部25に出力するものである。 FIG. 7 is an explanatory diagram showing an example of images before and after the second distortion correction of the second conversion unit 22. The second conversion unit 22 refers to the second conversion table 32, and outputs the pixel value of the second input coordinate corrected for the second distortion as the pixel value of the output coordinate for each output coordinate. For example, as shown in FIG. 7, the second conversion unit 22 uses the pixel value of the input coordinate β5 in the input image as the pixel value of the output coordinate α5 in the output image, and sets the pixel value of the input coordinate β6 in the input image as the pixel value. Is output as the pixel value of the output coordinate α6 in the output image. The second conversion unit 22 outputs the pixel values of the output coordinates in the second image area 42 to the composition unit 25. As a result, the second conversion unit 22 outputs the image before the second distortion correction as the image after the second distortion correction. For convenience of explanation, in the example of FIG. 7, a case where the pixel values of all the second input coordinates in the input image are output as the pixel values of the output coordinates is illustrated. However, the second conversion unit 22 actually sets the pixel value of the second input coordinate in the second image area 42 after correcting the second distortion in the second image area 42 in the input image. It is output to the synthesis unit 25 as a pixel value of the output coordinates.

図8Aは、出力画像の一例を示す説明図である。図8Aに示す出力画像の中央部分には、第1の画像領域41がある。図8Bは、出力画像内の第1の画像領域41と、第1の画像領域41以外の画像領域とを明暗で表現した説明図である。出力画像内の第1の画像領域41は、図8Bに示すように白地で表現できる。出力画像内の第1の画像領域41以外の画像領域は、第2の画像領域42及び第3の画像領域43であって、図8Bに示すように黒地で表現できる。図8Cは、出力画像内の第1の画像領域41と、第2の画像領域42と、第3の画像領域43と明暗で表現した説明図である。図8Cに示す出力画像は、第1の画像領域41は白地、第2の画像領域42は黒地、第1の画像領域41と第2の画像領域42との境界である第3の画像領域43はグラデーションで表現できる。白地は、輝度が100%であるため、第1の画像領域41であることを示し、黒字は、輝度が0%であるため、第2の画像領域42であることを示し、明暗が白である100%未満、かつ、黒である0%を超えている部分は、第3の画像領域43であることを示している。この明暗は第1の歪補正により出力される出力座標と画像と第2の歪補正により出力される出力座標とを加重平均し新たな出力座標とする第3の歪補正における加重平均の割合を示している。 FIG. 8A is an explanatory diagram showing an example of an output image. In the central portion of the output image shown in FIG. 8A, there is a first image region 41. FIG. 8B is an explanatory diagram showing the first image area 41 in the output image and the image areas other than the first image area 41 in light and dark. The first image area 41 in the output image can be represented by a white background as shown in FIG. 8B. The image areas other than the first image area 41 in the output image are the second image area 42 and the third image area 43, and can be represented by a black background as shown in FIG. 8B. FIG. 8C is an explanatory diagram showing the first image region 41, the second image region 42, and the third image region 43 in the output image in light and dark. In the output image shown in FIG. 8C, the first image area 41 is a white background, the second image area 42 is a black background, and the third image area 43 is the boundary between the first image area 41 and the second image area 42. Can be expressed by gradation. A white background indicates that it is the first image area 41 because the brightness is 100%, and a black character indicates that it is the second image area 42 because the brightness is 0%, and the light and dark are white. A portion of less than 100% and more than 0%, which is black, indicates a third image region 43. This lightness and darkness is the ratio of the weighted average in the third strain correction, which is a new output coordinate by weighted averaging the output coordinates output by the first distortion correction, the image, and the output coordinates output by the second distortion correction. Shows.

ここで前述の加重平均について詳述する。第3の画像領域43内の出力座標毎の割合は、第3の画像領域43内の出力座標から直近の第1の画像領域41内の出力座標までの第1の距離と、当該第3の画像領域43内の出力座標から直近の第2の画像領域42内の第2の出力座標までの第2の距離との比率に応じた割合である。算出部23は、例えば、出力座標に対する第1の距離と第2の距離との割合が5:5の場合、出力座標の割合として50%を算出する。また、算出部23は、例えば、出力座標に対する第1の距離と第2の距離との割合が7:3の場合、出力座標の割合として70%を算出する。また、算出部23は、例えば、出力座標に対する第1の距離と第2の距離との比率が3:7の場合、出力座標の割合として30%を算出する。尚、第3の画像領域43内の出力座標の割合Xは、0%<X<100%である。 Here, the above-mentioned weighted average will be described in detail. The ratio of each output coordinate in the third image area 43 is the first distance from the output coordinate in the third image area 43 to the output coordinate in the nearest first image area 41 and the third image area 43. It is a ratio according to the ratio from the output coordinate in the image area 43 to the second output coordinate in the nearest second image area 42. For example, when the ratio of the first distance to the second distance to the output coordinates is 5: 5, the calculation unit 23 calculates 50% as the ratio of the output coordinates. Further, for example, when the ratio of the first distance to the second distance to the output coordinates is 7: 3, the calculation unit 23 calculates 70% as the ratio of the output coordinates. Further, for example, when the ratio of the first distance to the second distance to the output coordinates is 3: 7, the calculation unit 23 calculates 30% as the ratio of the output coordinates. The ratio X of the output coordinates in the third image area 43 is 0% <X <100%.

また、算出部23は、第1の画像領域41内の出力座標の場合、出力座標に対する第1の距離と第2の距離との比率が10:0となるため、出力座標の割合として100%を算出する。尚、第1の画像領域41内の出力座標の割合は、100%となる。また、算出部23は、第2の画像領域42内の出力座標の場合、出力座標に対する第1の距離と第2の距離との比率が0:10となるため、出力座標の割合として0%を算出する。尚、第2の画像領域42内の出力座標の割合は、0%となる。そして、算出部23は、出力座標毎の割合を算出した場合、出力座標毎に割合を割合テーブル33内に記憶する。 Further, in the case of the output coordinates in the first image area 41, the calculation unit 23 has a ratio of the first distance to the second distance to the output coordinates of 10: 0, so that the ratio of the output coordinates is 100%. Is calculated. The ratio of the output coordinates in the first image area 41 is 100%. Further, in the case of the output coordinates in the second image area 42, the calculation unit 23 has a ratio of the first distance to the second distance to the output coordinates of 0:10, so that the ratio of the output coordinates is 0%. Is calculated. The ratio of the output coordinates in the second image area 42 is 0%. Then, when the calculation unit 23 calculates the ratio for each output coordinate, the calculation unit 23 stores the ratio for each output coordinate in the ratio table 33.

図9は、割合テーブル33のテーブル構成の一例を示す説明図である。図9に示す割合テーブル33は、出力画像内の出力座標毎に割合を対応付けて管理している。割合は、第3の歪を補正した画素値の第3の入力座標を算出する際に使用する、出力座標毎の第1の入力座標及び第2の入力座標の加重平均の割合である。 FIG. 9 is an explanatory diagram showing an example of the table configuration of the ratio table 33. The ratio table 33 shown in FIG. 9 manages the ratio in association with each output coordinate in the output image. The ratio is the ratio of the weighted average of the first input coordinate and the second input coordinate for each output coordinate used when calculating the third input coordinate of the pixel value corrected with the third distortion.

算出部23は、例えば、第1の歪を補正した画素値の第1の入力座標をf(x,y)で算出する。算出部23は、例えば、第2の歪を補正した画素値の第2の入力座標をg(x,y)で算出する。図10は、第3の歪を補正する第3の入力座標を算出する際の算出方法の一例を示す説明図である。図11は、第3の変換テーブル34のテーブル構成の一例を示す説明図である。算出部23は加重平均処理を行う。より詳細には図10に示すように、出力座標の割合をn%とした場合、第1の入力座標f(x,y)×n%で第1の入力座標を割合補正する。更に、算出部23は、第2の入力座標g(x,y)×(100%-n%)で第2の入力座標を割合補正する。更に、算出部23は、割合補正後の第1の入力座標と割合補正後の第2の入力座標とを加算して第3の入力座標を出力座標毎に算出する。つまり、算出部23は、f(x,y)×n%+g(x,y)×(100%-n%)の(数式1)で第3の入力座標を出力座標毎に算出する。算出部23は、割合テーブル33内の出力座標に対応する割合を参照し、例えば、出力座標の割合が50%の場合、出力座標に対応する第1の入力座標の50%と、出力座標に対応する第2の入力座標の50%とを加算する。そして、算出部23は、その加算値を第3の入力座標として算出し、図11に示すように、出力座標に対応する第3の入力座標を第3の変換テーブル34内に記憶する。 The calculation unit 23 calculates, for example, the first input coordinates of the pixel value corrected for the first distortion by f (x, y). The calculation unit 23 calculates, for example, the second input coordinates of the pixel value corrected for the second distortion by g (x, y). FIG. 10 is an explanatory diagram showing an example of a calculation method when calculating the third input coordinates for correcting the third distortion. FIG. 11 is an explanatory diagram showing an example of the table configuration of the third conversion table 34. The calculation unit 23 performs weighted average processing. More specifically, as shown in FIG. 10, when the ratio of the output coordinates is n%, the ratio of the first input coordinate is corrected by the first input coordinate f (x, y) × n%. Further, the calculation unit 23 proportionally corrects the second input coordinate with the second input coordinate g (x, y) × (100% −n%). Further, the calculation unit 23 adds the first input coordinate after the ratio correction and the second input coordinate after the ratio correction to calculate the third input coordinate for each output coordinate. That is, the calculation unit 23 calculates the third input coordinate for each output coordinate by (formula 1) of f (x, y) × n% + g (x, y) × (100% −n%). The calculation unit 23 refers to the ratio corresponding to the output coordinates in the ratio table 33, and for example, when the ratio of the output coordinates is 50%, 50% of the first input coordinates corresponding to the output coordinates and the output coordinates are used. Add 50% of the corresponding second input coordinates. Then, the calculation unit 23 calculates the added value as the third input coordinate, and stores the third input coordinate corresponding to the output coordinate in the third conversion table 34 as shown in FIG.

算出部23は、例えば、出力座標の割合が70%の場合、出力座標に対応する第1の入力座標の70%と、出力座標に対応する第2の入力座標の30%とを加算する。そして、算出部23は、その加算値を出力座標の第3の入力座標として算出し、図11に示すように出力座標に対応する第3の入力座標を第3の変換テーブル34内に記憶する。 For example, when the ratio of the output coordinates is 70%, the calculation unit 23 adds 70% of the first input coordinates corresponding to the output coordinates and 30% of the second input coordinates corresponding to the output coordinates. Then, the calculation unit 23 calculates the added value as the third input coordinate of the output coordinate, and stores the third input coordinate corresponding to the output coordinate in the third conversion table 34 as shown in FIG. ..

算出部23は、例えば、出力座標の割合が30%の場合、出力座標に対応する第1の入力座標の30%と、出力座標に対応する第2の入力座標の70%とを加算する。そして、算出部23は、その加算値を出力座標の第3の入力座標として算出し、図11に示すように出力座標に対応する第3の入力座標を第3の変換テーブル34内に記憶する。 For example, when the ratio of the output coordinates is 30%, the calculation unit 23 adds 30% of the first input coordinates corresponding to the output coordinates and 70% of the second input coordinates corresponding to the output coordinates. Then, the calculation unit 23 calculates the added value as the third input coordinate of the output coordinate, and stores the third input coordinate corresponding to the output coordinate in the third conversion table 34 as shown in FIG. ..

第3の変換部24は、第3の変換テーブル34を参照し、第3の画像領域43内の第3の歪を補正した第3の入力座標の画素値を第3の画像領域43内の出力座標の画素値として合成部25に出力する。 The third conversion unit 24 refers to the third conversion table 34, and sets the pixel value of the third input coordinate in the third image area 43 after correcting the third distortion in the third image area 43. It is output to the compositing unit 25 as a pixel value of the output coordinates.

つまり、第1の変換部21は、入力画像内の第1の画像領域41内の歪を補正した第1の入力座標の画素値を第1の画像領域41内の出力座標の画素値として合成部25に出力する。第2の変換部22は、入力画像内の第2の画像領域42内の歪を補正した第2の入力座標の画素値を第2の画像領域42内の出力座標の画素値として合成部25に出力する。第3の変換部24は、入力画像内の第3の画像領域43内の歪を補正した第3の入力座標の画素値を第3の画像領域43内の出力座標の画素値として合成部25に出力する。 That is, the first conversion unit 21 synthesizes the pixel value of the first input coordinate corrected for the distortion in the first image area 41 in the input image as the pixel value of the output coordinate in the first image area 41. Output to unit 25. The second conversion unit 22 uses the pixel value of the second input coordinate corrected for the distortion in the second image area 42 in the input image as the pixel value of the output coordinate in the second image area 42 as the composition unit 25. Output to. The third conversion unit 24 uses the pixel value of the third input coordinate corrected for the distortion in the third image area 43 in the input image as the pixel value of the output coordinate in the third image area 43 as the composition unit 25. Output to.

合成部25は、第1の変換部21からの第1の画像領域41内の出力座標の画素値と、第2の変換部22からの第2の画像領域42内の出力座標の画素値と、第3の変換部24からの第3の画像領域43内の出力座標の画素値とを合成した出力画像をナビゲーション装置3に出力する。図12は、出力画像の一例を示す説明図である。尚、出力画像は、図12に示すように第1の歪を補正した第1の画像領域41と、第2の歪を補正した第2の画像領域42と、第3の歪を補正した第3の画像領域43とを含む画像である。出力画像は、例えば、第1の画像領域41と第2の画像領域42との間に第3の画像領域43が配置されることになる。 The compositing unit 25 includes the pixel values of the output coordinates in the first image area 41 from the first conversion unit 21 and the pixel values of the output coordinates in the second image area 42 from the second conversion unit 22. , The output image obtained by synthesizing the pixel values of the output coordinates in the third image area 43 from the third conversion unit 24 is output to the navigation device 3. FIG. 12 is an explanatory diagram showing an example of an output image. As shown in FIG. 12, the output image has a first image area 41 corrected for the first distortion, a second image area 42 corrected for the second distortion, and a third image area corrected for the third distortion. It is an image including the image area 43 of 3. In the output image, for example, a third image area 43 is arranged between the first image area 41 and the second image area 42.

そして、ナビゲーション装置3は、合成部25からの出力画像内の第1の画像領域41上のエリアに進路線50を描画し、図12に示すように、描画後の出力画像を表示装置4に出力する。尚、進路線50は、例えば、横幅が車幅程度の範囲、かつ、奥行きを2メートルの範囲とする。 Then, the navigation device 3 draws the route 50 in the area on the first image area 41 in the output image from the compositing unit 25, and as shown in FIG. 12, displays the drawn output image on the display device 4. Output. The traveling line 50 has, for example, a width of about the width of a vehicle and a depth of 2 meters.

次に本実施例の画像表示システム1の動作について説明する。尚、説明の便宜上、第1の変換テーブル31、第2の変換テーブル32、第3の変換テーブル34及び割合テーブル33の内容は事前に記憶されているものとする。 Next, the operation of the image display system 1 of this embodiment will be described. For convenience of explanation, it is assumed that the contents of the first conversion table 31, the second conversion table 32, the third conversion table 34, and the ratio table 33 are stored in advance.

第1の変換部21は、第1の変換テーブル31を参照し、撮像素子12にて撮像された入力画像内の第1の画像領域41内の出力座標毎に、第1の歪を補正した第1の入力座標の画素値を第1の画像領域41内の出力座標の画素値として合成部25に出力する。第2の変換部22は、第2の変換テーブル32を参照し、撮像素子12にて撮像された入力画像内の第2の画像領域42内の出力座標毎に、第2の歪を補正した第2の入力座標の画素値を第2の画像領域42内の出力座標の画素値として合成部25に出力する。第3の変換部24は、第3の変換テーブル34を参照し、撮像素子12にて撮像された入力画像内の第3の画像領域43内の出力座標毎に、第3の歪を補正した第3の入力座標の画素値を第3の画像領域43内の出力座標の画素値として合成部25に出力する。 The first conversion unit 21 referred to the first conversion table 31 and corrected the first distortion for each output coordinate in the first image region 41 in the input image captured by the image pickup element 12. The pixel value of the first input coordinate is output to the compositing unit 25 as the pixel value of the output coordinate in the first image area 41. The second conversion unit 22 referred to the second conversion table 32, and corrected the second distortion for each output coordinate in the second image region 42 in the input image captured by the image sensor 12. The pixel value of the second input coordinate is output to the compositing unit 25 as the pixel value of the output coordinate in the second image area 42. The third conversion unit 24 referred to the third conversion table 34, and corrected the third distortion for each output coordinate in the third image region 43 in the input image captured by the image sensor 12. The pixel value of the third input coordinate is output to the compositing unit 25 as the pixel value of the output coordinate in the third image area 43.

合成部25は、第1の変換部21からの第1の画像領域41内の出力座標の画素値と、第2の変換部22からの第2の画像領域42内の出力座標の画素値と、第3の変換部24からの第3の画像領域43内の出力座標の画素値とを合成して出力画像を生成する。合成部25は、生成した出力画像をナビゲーション装置3に出力する。ナビゲーション装置3は、合成部25からの出力画像内の第1の画像領域41のエリアに進路線50を描画し、進路線50を描画した出力画像を表示装置4に出力する。進路線50の生成にあたっては第1の画像領域41に適用されている第1の歪み補正と同じ補正処理を進路線50の元データに対し行う。その結果、利用者は、進路線50は出力画像上を車両がどのように進むかを出力画像上に重畳表示することができる。 The compositing unit 25 includes the pixel values of the output coordinates in the first image area 41 from the first conversion unit 21 and the pixel values of the output coordinates in the second image area 42 from the second conversion unit 22. , The pixel value of the output coordinate in the third image area 43 from the third conversion unit 24 is combined to generate an output image. The compositing unit 25 outputs the generated output image to the navigation device 3. The navigation device 3 draws the advance line 50 in the area of the first image area 41 in the output image from the compositing unit 25, and outputs the output image on which the advance line 50 is drawn to the display device 4. In generating the traveling line 50, the same correction processing as the first distortion correction applied to the first image area 41 is performed on the original data of the traveling line 50. As a result, the user can superimpose and display on the output image how the vehicle travels on the output image of the route 50.

ナビゲーション装置3は、前述の通り歪曲収差のみを持つ、又は、歪を持たないような第1の歪み補正の画像部分において、進路線のデータに対し同様な画像変換を行なった進路線を重畳する。前述の通り、この画像変換を行うための変換テーブルは容量の小さいメモリに格納が可能なため、メモリ容量を小さくすることができる。メモリ容量増大に伴うコストアップは抑制される。 As described above, the navigation device 3 superimposes the forward route obtained by performing the same image conversion on the forward route data in the image portion of the first distortion correction having only the distortion aberration or no distortion as described above. .. As described above, since the conversion table for performing this image conversion can be stored in a memory having a small capacity, the memory capacity can be reduced. The cost increase due to the increase in memory capacity is suppressed.

撮像装置2では、撮像装置2内のRAM15に第1の変換テーブル31、第2の変換テーブル32、割合テーブル33及び第3の変換テーブル34を格納した。しかしながら、RAM15に限定されるものではなく、例えば、撮像装置2と外部接続可能な図示せぬ記憶装置に格納しても良く、適宜変更可能である。 In the image pickup apparatus 2, the first conversion table 31, the second conversion table 32, the ratio table 33, and the third conversion table 34 are stored in the RAM 15 in the image pickup apparatus 2. However, the present invention is not limited to the RAM 15, and may be stored in, for example, a storage device (not shown) that can be externally connected to the image pickup device 2, and can be appropriately changed.

撮像装置2は、第1の変換テーブル31、第2の変換テーブル32及び割合テーブル33を内蔵したが、事前に第3の変換テーブル34のテーブル内容が格納されている場合には、第3の変換テーブル34のみの内蔵でも良く、適宜変更可能である。 The image pickup apparatus 2 has a built-in first conversion table 31, a second conversion table 32, and a ratio table 33, but if the table contents of the third conversion table 34 are stored in advance, the third conversion table 3 Only the conversion table 34 may be built-in and can be changed as appropriate.

撮像装置2では、第1の変換テーブル31、第2の変換テーブル32、第3の変換テーブル34及び割合テーブル33を使用した。しかしながら、出力座標毎に、第1の歪を補正した画素値の第1の入力座標を算出するための関数f、第2の歪を補正した画素値の第2の入力座標を算出するための関数g、第3の歪を補正した画素値の入力座標を算出する(数式1)を記憶しても良い。 In the image pickup apparatus 2, the first conversion table 31, the second conversion table 32, the third conversion table 34, and the ratio table 33 were used. However, for each output coordinate, a function f for calculating the first input coordinate of the pixel value corrected for the first distortion, and a function f for calculating the second input coordinate of the pixel value corrected for the second distortion. The function g and the input coordinates of the pixel value corrected for the third distortion may be stored (formula 1).

この場合、撮像装置2では、第1の変換テーブル31、第2の変換テーブル32、第3の変換テーブル34及び割合テーブル33を準備しなくても、関数f、関数g及び数式1で、第1の歪補正、第2の歪補正及び第3の歪補正を施した画素値の入力座標を算出する。そして、撮像装置2Aは、第1の歪を補正した第1の画像領域41内の出力座標の画素値と、第2の歪を補正した第2の画像領域42内の出力座標の画素値と、第3の歪を補正した第3の画像領域43内の出力座標の画素値とを含む出力画像をナビゲーション装置3に出力する。 In this case, in the image pickup apparatus 2, the function f, the function g, and the formula 1 can be used without preparing the first conversion table 31, the second conversion table 32, the third conversion table 34, and the ratio table 33. The input coordinates of the pixel value subjected to the distortion correction of 1, the second distortion correction, and the third distortion correction are calculated. Then, the image pickup apparatus 2A has a pixel value of the output coordinates in the first image region 41 corrected for the first distortion and a pixel value of the output coordinates in the second image region 42 corrected for the second distortion. , The output image including the pixel value of the output coordinates in the third image area 43 corrected for the third distortion is output to the navigation device 3.

尚、上記実施例では、撮像装置2内のRAM14等に入力画像を記憶したが、撮像装置2と接続する外部の記憶装置に入力画像を記憶しても良く、適宜変更可能である。 In the above embodiment, the input image is stored in the RAM 14 or the like in the image pickup device 2, but the input image may be stored in an external storage device connected to the image pickup device 2, and can be changed as appropriate.

上記実施例では、例えば、第2の歪補正を特許文献1により歪み補正とし説明したが、これらの歪に限定されるものではなく、利用者が見易い他の補正方法を採用してもよい。 In the above embodiment, for example, the second strain correction has been described as strain correction according to Patent Document 1, but the strain is not limited to these strains, and other correction methods that are easy for the user to see may be adopted.

上記実施例では、第1の画像領域41内の第1の歪補正、第2の画像領域42内の第2の歪補正、第3の画像領域43内の第3の歪補正を実行する歪補正処理(画像処理)を撮像装置2内の画像処理プロセッサ13で実行した。しかしながら、撮像装置2と接続する外部装置、例えば、ナビゲーション装置3に歪補正処理を実行しても良く、適宜変更可能である。 In the above embodiment, the distortion that executes the first distortion correction in the first image area 41, the second distortion correction in the second image area 42, and the third distortion correction in the third image area 43. The correction process (image process) was executed by the image processor 13 in the image pickup apparatus 2. However, the distortion correction process may be executed on an external device connected to the image pickup device 2, for example, the navigation device 3, and can be changed as appropriate.

上記実施例では、第1の変換部21で第1の歪補正、第2の変換部22で第2の歪補正、第3の変換部24で第3の歪補正を実行した。しかしながら、これら第1の歪補正、第2の歪補正及び第3の歪補正を順不同で順次実行、若しくは並列に実行しても良く、適宜変更可能である。 In the above embodiment, the first conversion unit 21 performs the first strain correction, the second conversion unit 22 performs the second strain correction, and the third conversion unit 24 performs the third strain correction. However, the first strain correction, the second strain correction, and the third strain correction may be executed sequentially in no particular order or in parallel, and can be changed as appropriate.

上記実施例のナビゲーション装置3は、撮像装置2内の湾曲収差テーブル31Aを使用して第1の画像領域41のエリアに進路線50を描画したが、ナビゲーション装置3内に第1の変換テーブル31を別途設けても良く、適宜変更可能である。 In the navigation device 3 of the above embodiment, the advance line 50 is drawn in the area of the first image region 41 using the distortion table 31A in the image pickup device 2, but the first conversion table 31 is drawn in the navigation device 3. May be provided separately and can be changed as appropriate.

上記実施例では、第1の歪を補正した第1の画像領域41を含む出力画像に進路線50を描画したが、進路線50に限定されるものではなく、例えば、固定の進路線等の線を描画しても良く、適宜変更可能である。 In the above embodiment, the advance line 50 is drawn on the output image including the first image area 41 in which the first distortion is corrected, but the route 50 is not limited to the advance line 50, and for example, a fixed advance line or the like is used. A line may be drawn and can be changed as appropriate.

2 撮像装置
13 画像処理プロセッサ
21 第1の変換部
21A 第1の変換部
22 第2の変換部
22A 第2の変換部
23 算出部
23A 算出部
24 第3の変換部
24A 第3の変換部
25 合成部
25A 合成部
2 Image processing device 13 Image processing processor 21 First conversion unit 21A First conversion unit 22 Second conversion unit 22A Second conversion unit 23 Calculation unit 23A Calculation unit 24 Third conversion unit 24A Third conversion unit 25 Synthetic part 25A Synthetic part

Claims (4)

入力画像を画像変換し出力画像を出力する画像処理装置であって、
前記入力画像の第1の画像領域内の画素毎に第1の歪補正を施し画像として出力する第1の変換部と、
前記入力画像の第2の画像領域内の画素毎に第2の歪補正を施し画像として出力する第2の変換部と、
前記入力画像の第3の画像領域内の画素毎に第3の歪補正を施し画像として出力する第3の変換部と、
前記第1の変換部からの画像出力と、前記第2の変換部からの画像出力と、前記第3の変換部からの画像出力とから前記出力画像を生成し出力する合成部と、
を有し、
前記出力画像は、前記第1の変換部からの出力された画像と前記第2の変換部から出力された画像との間に前記第3の変換部から出力された画像が配置され、前記第1の変換部からの出力された画像は歪曲収差のみを持つ、又は、歪みを持たない画像であることを特徴とする画像処理装置。
An image processing device that converts an input image into an image and outputs an output image.
A first conversion unit that performs a first distortion correction for each pixel in the first image area of the input image and outputs the image as an image.
A second conversion unit that performs a second distortion correction for each pixel in the second image area of the input image and outputs the image as an image.
A third conversion unit that performs a third distortion correction for each pixel in the third image area of the input image and outputs the image as an image.
An image output from the first conversion unit, an image output from the second conversion unit, and a composition unit that generates and outputs the output image from the image output from the third conversion unit.
Have,
In the output image, the image output from the third conversion unit is arranged between the image output from the first conversion unit and the image output from the second conversion unit, and the second conversion unit is used. An image processing device characterized in that the image output from the conversion unit 1 is an image having only distortion aberration or no distortion.
前記入力画像は、被写体と、被写体からの光を集光するレンズと、前記集光された光が結像する撮像素子とから生成され、
前記第2の変換部は、
前記レンズの光軸に向かう直線状の前記被写体と、縦方向に直線の前記被写体とを前記出力画像内でほぼ直線状となり、かつ、横方向に直線の前記被写体を、前記出力画像の中央部分、及び同中央部分と左右に連なる左側部分と右側部分とでほぼ直線状に、また、前記出力画像の中央部分と、左側部分及び右側部分との境目付近で屈曲するように歪補正すること特徴とする請求項1に記載の画像処理装置。
The input image is generated from a subject, a lens that collects light from the subject, and an image pickup element that forms an image of the collected light.
The second conversion unit is
The subject having a straight line toward the optical axis of the lens and the subject having a straight line in the vertical direction are substantially linear in the output image, and the subject having a straight line in the horizontal direction is the central portion of the output image. , And the left side part and the right side part that are connected to the left and right sides of the center part are almost linear, and the distortion is corrected so as to bend near the boundary between the center part of the output image and the left side part and the right side part. The image processing apparatus according to claim 1.
前記第3の変換部は、
前記入力画像の画素毎に前記第1の歪補正を施し得られた出力と前記第2の歪補正を施し得られた出力とを加重平均し出力することを特徴とする請求項1に記載の画像処理装置。
The third conversion unit is
The first aspect of claim 1, wherein the output obtained by applying the first strain correction and the output obtained by applying the second strain correction are weighted averaged and output for each pixel of the input image. Image processing device.
前記第1の画像領域内に進路線を描画することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein a route is drawn in the first image area.
JP2018064902A 2018-03-29 2018-03-29 Image processing equipment Active JP7081265B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018064902A JP7081265B2 (en) 2018-03-29 2018-03-29 Image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018064902A JP7081265B2 (en) 2018-03-29 2018-03-29 Image processing equipment

Publications (2)

Publication Number Publication Date
JP2019176402A JP2019176402A (en) 2019-10-10
JP7081265B2 true JP7081265B2 (en) 2022-06-07

Family

ID=68167390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018064902A Active JP7081265B2 (en) 2018-03-29 2018-03-29 Image processing equipment

Country Status (1)

Country Link
JP (1) JP7081265B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9759079B2 (en) 2015-05-28 2017-09-12 Rolls-Royce Corporation Split line flow path seals
JP7423973B2 (en) 2019-10-18 2024-01-30 株式会社富士通ゼネラル Image processing device
JP7456153B2 (en) 2019-12-24 2024-03-27 株式会社富士通ゼネラル Image processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010171914A (en) 2008-12-24 2010-08-05 Fujitsu General Ltd Image data converter
JP2011500407A (en) 2007-10-16 2011-01-06 ダイムラー・アクチェンゲゼルシャフト Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit
JP2014119883A (en) 2012-12-14 2014-06-30 Fujitsu General Ltd Image data conversion device, navigation system, camera device and vehicle
US20150254818A1 (en) 2014-03-10 2015-09-10 Omnivision Technologies, Inc. Image Transformation And Multi-View Output Systems And Methods

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5555101B2 (en) * 2010-08-31 2014-07-23 株式会社日立情報通信エンジニアリング Image correction apparatus, corrected image generation method, and corrected image generation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011500407A (en) 2007-10-16 2011-01-06 ダイムラー・アクチェンゲゼルシャフト Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit
JP2010171914A (en) 2008-12-24 2010-08-05 Fujitsu General Ltd Image data converter
JP2014119883A (en) 2012-12-14 2014-06-30 Fujitsu General Ltd Image data conversion device, navigation system, camera device and vehicle
US20150254818A1 (en) 2014-03-10 2015-09-10 Omnivision Technologies, Inc. Image Transformation And Multi-View Output Systems And Methods

Also Published As

Publication number Publication date
JP2019176402A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US10007853B2 (en) Image generation device for monitoring surroundings of vehicle
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
JP4975592B2 (en) Imaging device
JP4257356B2 (en) Image generating apparatus and image generating method
US20160292821A1 (en) System and method for displaying panoramic image using single look-up table
JP7081265B2 (en) Image processing equipment
JP5046132B2 (en) Image data converter
JP2009017020A (en) Image processor and method for generating display image
TW201535318A (en) Image transformation and multi-view output systems and methods
JP6255928B2 (en) Overhead image generation device
WO2014033886A1 (en) Image processing apparatus, image processing method, and program
CN110651295B (en) Image processing apparatus, image processing method, and program
JP2016225865A (en) Overhead image generation apparatus
JP5555101B2 (en) Image correction apparatus, corrected image generation method, and corrected image generation program
JP5959311B2 (en) Data deriving apparatus and data deriving method
JP5020792B2 (en) Composite image generation apparatus and composite image generation method
KR20120012272A (en) Image processing apparatus having function of correcting distortion of image
CN116894773A (en) Image processing method, device, electronic equipment and storage medium
JP2010003014A (en) Vehicle surroundings display apparatus and display method thereof
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
JP7456153B2 (en) Image processing device
JP7423973B2 (en) Image processing device
JP2020102755A (en) Semiconductor device, image processing method and program
JP2010178018A (en) Device for displaying periphery of vehicle by image
KR101775967B1 (en) Apparatus and method for converting image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R151 Written notification of patent or utility model registration

Ref document number: 7081265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151