JP2015065579A - Picture data conversion device and operation support device, navigation device, and camera device - Google Patents

Picture data conversion device and operation support device, navigation device, and camera device Download PDF

Info

Publication number
JP2015065579A
JP2015065579A JP2013198575A JP2013198575A JP2015065579A JP 2015065579 A JP2015065579 A JP 2015065579A JP 2013198575 A JP2013198575 A JP 2013198575A JP 2013198575 A JP2013198575 A JP 2013198575A JP 2015065579 A JP2015065579 A JP 2015065579A
Authority
JP
Japan
Prior art keywords
image
overhead
pixels
image data
data conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013198575A
Other languages
Japanese (ja)
Other versions
JP6213727B2 (en
Inventor
恭佑 河野
Kyosuke Kono
恭佑 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu General Ltd
Original Assignee
Fujitsu General Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu General Ltd filed Critical Fujitsu General Ltd
Priority to JP2013198575A priority Critical patent/JP6213727B2/en
Publication of JP2015065579A publication Critical patent/JP2015065579A/en
Application granted granted Critical
Publication of JP6213727B2 publication Critical patent/JP6213727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a picture data conversion device capable of avoiding deterioration in picture quality in creating an overhead picture.SOLUTION: A coordinate conversion unit 35 extracts a pixel in a range corresponding to an overhead picture of the ground, by performing calculation processing on imaging data for identifying pixel information for each pixel with respect to an imaged picture of a subject projected from a fisheye lens 21. A buffer storage unit 29 is connected to the coordinate conversion unit 35. The buffer storage unit 29 has capacity smaller than an information amount of information on all pixels of the imaged picture, and stores pixel information on the extracted pixel. The coordinate conversion unit 35 extracts a pixel in a range corresponding to an overhead picture of the ground of all pixels of the imaged picture. An information amount on pixel information stored in the buffer storage unit 29 is reduced.

Description

本発明は、魚眼レンズから投影される被写体の撮像画像に関して画素情報を記憶し、画像変換を行ったのちモニタに出力を行う画像データ変換装置に関する。   The present invention relates to an image data conversion apparatus that stores pixel information relating to a captured image of a subject projected from a fisheye lens, performs image conversion, and outputs the result to a monitor.

車体後方の俯瞰画像を映し出す運転支援装置は一般に知られる。運転支援装置では例えば魚眼レンズから被写体は撮像素子に投影される。したがって、魚眼レンズから遠方であればあるほど、画像は縮小される。こうした撮像画像から俯瞰画像は生成される。遠方の画像は拡大される。遠方であればあるほど、画像の部分的な拡大率は増大する。顕著な画質の劣化が観察される。   A driving support device that displays an overhead image behind the vehicle body is generally known. In the driving support device, for example, a subject is projected onto an image sensor from a fisheye lens. Therefore, the further away from the fisheye lens, the smaller the image. An overhead image is generated from such a captured image. The distant image is magnified. The farther away, the greater the magnification of the image. Significant image quality degradation is observed.

特開2001−145012号公報JP 2001-145012 A

いまのところ、運転支援装置の表示ディスプレイにはWVGA程度の解像度のものが利用される。撮像素子には同程度の解像度のものが利用される。したがって、俯瞰画像の生成にあたって撮像画像が2倍や3倍に拡大されると、表示ディスプレイの画素数に比べて2分の1や3分の1の画素数でしか画素情報は取得されることができない。画質は劣化してしまう。特に、1表示画面内で部分的に顕著に画質が劣化することから、画質の劣化は目立ってしまう。   At present, a display having a resolution of about WVGA is used for the display of the driving assistance device. An image sensor having the same resolution is used. Therefore, when the captured image is enlarged twice or three times when generating the overhead view image, the pixel information can be acquired only by the number of pixels of 1/2 or 1/3 of the number of pixels of the display display. I can't. The image quality will deteriorate. In particular, the image quality deteriorates noticeably because the image quality deteriorates partly within one display screen.

本発明のいくつかの態様によれば、俯瞰画像の生成にあたって、画質の劣化を回避することができる画像データ変換装置は提供されることができる。   According to some aspects of the present invention, it is possible to provide an image data conversion apparatus that can avoid deterioration in image quality when generating an overhead image.

本発明の一形態は、魚眼レンズから投影される被写体の撮像画像に関して個々の画素ごとに画素情報を特定する撮像データから俯瞰画像に相当する範囲で前記画素ごとの画素情報を抽出する座標変換部と、前記撮像画像の全画素に関する情報の情報量よりも小さい容量を有し、抽出された前記画素に関する画素情報を記憶するバッファ記憶部とを備える画像データ変換装置に関する。   One aspect of the present invention is a coordinate conversion unit that extracts pixel information for each pixel in a range corresponding to an overhead image from imaging data that specifies pixel information for each pixel with respect to a captured image of a subject projected from a fisheye lens. The present invention relates to an image data conversion device including a buffer storage unit that has a capacity smaller than the information amount of information about all pixels of the captured image and stores pixel information about the extracted pixels.

撮像画像の撮像データはバッファ記憶部への格納に先立って座標変換部で処理される。座標変換部では、撮像画像の全画素のうち、地面の俯瞰画像に相当する範囲で画素が抽出される。こうして画素情報の情報量は縮小される。バッファ記憶部は、撮像画像の全画素に関する情報の情報量よりも小さい容量しか有しないものの、確実に俯瞰画像は生成されることができる。撮像画像の解像度が高められても、バッファ記憶部の容量の増大は回避されることができる。撮像画像の解像度が高められれば、俯瞰画像の生成にあたってたとえ部分的に撮像画像が拡大されても、画質の劣化は概ね回避されることができる。   Imaging data of the captured image is processed by the coordinate conversion unit prior to storage in the buffer storage unit. In the coordinate conversion unit, pixels are extracted in a range corresponding to the bird's-eye view image of the ground among all the pixels of the captured image. Thus, the information amount of the pixel information is reduced. Although the buffer storage unit has a capacity smaller than the information amount of information regarding all the pixels of the captured image, the overhead image can be generated reliably. Even if the resolution of the captured image is increased, an increase in the capacity of the buffer storage unit can be avoided. If the resolution of the picked-up image is increased, even if the picked-up image is partially enlarged when generating the overhead view image, deterioration of the image quality can be largely avoided.

画像データ変換装置では記憶部を備え、前記座標変換部は前記記憶部に格納された数式に基づき俯瞰画像に相当する範囲で前記画素ごとの画素情報の抽出を実施すればよい。   The image data conversion apparatus includes a storage unit, and the coordinate conversion unit may extract pixel information for each pixel in a range corresponding to the overhead image based on a mathematical formula stored in the storage unit.

前記記憶部には、仮想三次元空間内で水平軸回りに前記撮像画像を回転し角度変換後画像を生成するための第1式と、前記撮像画像を含む二次元平面に前記角度変換後画像を投影し投影画像を生成するための第2式と、前記投影画像から前記俯瞰画像に相当する範囲を切り取り、切り取った前記投影画像を表示画面の画素数に合わせて変形しバッファ画像を生成するための第3式とを格納することができる。   The storage unit includes a first equation for rotating the captured image around a horizontal axis in a virtual three-dimensional space to generate an angle-converted image, and the angle-converted image on a two-dimensional plane including the captured image. And a second expression for generating a projected image, and a range corresponding to the overhead image is cut out from the projected image, and the cut-out projected image is transformed according to the number of pixels of the display screen to generate a buffer image The third equation can be stored.

画像データ変換装置は、前記投影画像から切り取られた範囲に前記バッファ画像から第1復元画像を生成し、前記仮想三次元空間内で前記水平軸回りに前記第1復元画像を逆回転し第2復元画像を生成し、前記仮想三次元空間内で前記撮像画像を含む前記二次元平面に前記第2復元画像を投影し第3復元画像を生成し、前記第3復元画像にレンズに起因する画像の歪みを補正する歪み補正処理を施し俯瞰前原画像を生成し、前記第1式および前記第2式に基づき前記俯瞰画像を生成する俯瞰画像処理部を備えることができる。   The image data conversion device generates a first restored image from the buffer image in a range cut from the projected image, and reversely rotates the first restored image around the horizontal axis in the virtual three-dimensional space. A restored image is generated, the second restored image is projected onto the two-dimensional plane including the captured image in the virtual three-dimensional space to generate a third restored image, and an image caused by the lens in the third restored image It is possible to provide an overhead image processing unit that performs a distortion correction process for correcting the distortion, generates an original image before the overhead view, and generates the overhead image based on the first expression and the second expression.

一般に、魚眼レンズから投影される被写体の撮像画像では魚眼レンズの光軸から離れるにつれて被写体は歪む。撮像画像に線形的な座標変換が施されるだけでは俯瞰画像に被写体の歪みが残存する。歪み補正は被写体の歪みを補正する。その結果、俯瞰画像の見栄えは向上する。   In general, in a captured image of a subject projected from a fisheye lens, the subject is distorted as the distance from the optical axis of the fisheye lens increases. By simply performing linear coordinate transformation on the captured image, distortion of the subject remains in the overhead image. The distortion correction corrects the distortion of the subject. As a result, the appearance of the overhead view image is improved.

前記俯瞰画像処理部は、前記撮像画像の画素数よりも小さい画素数で前記俯瞰画像を生成することができる。表示ディスプレイには撮像素子よりも低い解像度のものが利用されることができる。こうした場合には、俯瞰画像の生成にあたって撮像画像が拡大されても、こうして画像の拡大時に画素情報の不足は補われることができる。その結果、表示ディスプレイ上での画質の劣化は回避されることができる。   The overhead image processing unit can generate the overhead image with a smaller number of pixels than the number of pixels of the captured image. A display having a resolution lower than that of the image sensor can be used. In such a case, even if the captured image is enlarged when generating the overhead view image, the lack of pixel information can be compensated for when the image is enlarged. As a result, deterioration of image quality on the display can be avoided.

以上のような画像データ変換装置は運転支援装置に組み込まれることができる。このとき、運転支援装置は画像データ変換装置を備える。こうした運転支援装置は例えば車両に搭載されて利用されることができる。   The image data conversion device as described above can be incorporated in the driving support device. At this time, the driving support device includes an image data conversion device. Such a driving support device can be used by being mounted on a vehicle, for example.

その他、以上のような画像データ変換装置はナビゲーション装置に組み込まれることができる。このとき、ナビゲーション装置は画像データ変換装置を備える。こうしたナビゲーション装置は例えば車両に搭載されて利用されることができる。   In addition, the image data conversion device as described above can be incorporated in a navigation device. At this time, the navigation device includes an image data conversion device. Such a navigation device can be used by being mounted on a vehicle, for example.

その他、以上のような画像データ変換装置はカメラ装置に組み込まれることができる。このとき、カメラ装置はデータ変換装置を備える。こうしたカメラ装置は車両に搭載されて利用されることができる。   In addition, the image data conversion apparatus as described above can be incorporated in the camera apparatus. At this time, the camera device includes a data conversion device. Such a camera device can be used by being mounted on a vehicle.

以上のように本発明の形態によれば、俯瞰画像の生成にあたって画質の劣化を回避することができる。   As described above, according to the embodiment of the present invention, it is possible to avoid deterioration in image quality when generating an overhead image.

一実施形態に係る車両すなわち自動車の全体像を概略的に示す斜視図である。1 is a perspective view schematically showing an overall image of a vehicle, that is, an automobile according to an embodiment. 運転支援装置の構成を概略的に示すブロック図である。It is a block diagram which shows the structure of a driving assistance device roughly. 第1画像データ、第2画像データおよび第3画像データの概念を概略的に示す図である。It is a figure which shows roughly the concept of 1st image data, 2nd image data, and 3rd image data. 第4画像データの概念を概略的に示す図である。It is a figure which shows the concept of 4th image data roughly. 魚眼レンズから投影される被写体の撮像画像の一具体例を示す写真である。It is a photograph which shows one specific example of the captured image of the subject projected from the fisheye lens. 三次元角度変換部の画像変換の概念を示す図である。It is a figure which shows the concept of the image conversion of a three-dimensional angle conversion part. 俯瞰画像の一具体例を示す写真である。It is a photograph which shows a specific example of a bird's-eye view image. 第1比較例に係る俯瞰画像の倍率を概略的に示す原画像の写真である。It is a photograph of the original image which shows roughly the magnification of the bird's-eye view image concerning the 1st comparative example. 第2比較例に係る俯瞰画像の倍率を概略的に示す原画像の写真である。It is a photograph of the original image which shows roughly the magnification of the bird's-eye view image concerning the 2nd comparative example. 他の具体例に係る俯瞰画像を示す写真である。It is a photograph which shows the bird's-eye view image which concerns on another specific example.

以下、添付図面を参照しつつ本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

図1は一実施形態に係る車両すなわち自動車11を概略的に示す。自動車11の車体12には運転支援装置13が搭載される。運転支援装置13はナビゲーション装置14を備える。ナビゲーション装置14はディスプレイパネル15を有する。ディスプレイパネル15は例えば640x480の解像度を有する。ディスプレイパネル15は例えばダッシュボードに組み込まれることができる。ディスプレイパネル15の表示画面には地図その他の情報が表示されることができる。   FIG. 1 schematically shows a vehicle, that is, an automobile 11 according to an embodiment. A driving support device 13 is mounted on the vehicle body 12 of the automobile 11. The driving support device 13 includes a navigation device 14. The navigation device 14 has a display panel 15. The display panel 15 has a resolution of 640 × 480, for example. The display panel 15 can be incorporated into a dashboard, for example. A map and other information can be displayed on the display screen of the display panel 15.

運転支援装置13はカメラ装置16を備える。カメラ装置16は例えば車体12の後部に設置される。カメラ装置16は例えばリアバンパーの上方に取り付けられる。カメラ装置16の光軸17は例えば水平面に対して所定の角度に設定される。光軸17は、車体12から後方に離れるにつれて自動車11が置かれている地面に近づくように傾斜する。カメラ装置16は車体12後方の様子を撮像する。ここでは、光軸17に対して水平方向および垂直方向にいずれも少なくとも±90°の画角範囲で被写体の撮像画像は取得される。   The driving support device 13 includes a camera device 16. The camera device 16 is installed at the rear portion of the vehicle body 12, for example. The camera device 16 is attached above the rear bumper, for example. The optical axis 17 of the camera device 16 is set at a predetermined angle with respect to the horizontal plane, for example. The optical axis 17 is inclined so as to approach the ground on which the automobile 11 is placed as it moves backward from the vehicle body 12. The camera device 16 images the state behind the vehicle body 12. Here, a captured image of the subject is acquired in an angle of view range of at least ± 90 ° in both the horizontal and vertical directions with respect to the optical axis 17.

カメラ装置16は撮像画像に基き表示画像の画像信号(以下「表示用画像信号」という)を生成する。表示用画像信号は車体後方に関してカメラ視点の画像や地面の俯瞰画像を特定する。画像や俯瞰画像は任意に切り替えられればよい。カメラ装置16はナビゲーション装置14に接続される。ナビゲーション装置14にはカメラ装置16から表示用画像信号が供給される。ディスプレイパネル15の表示画面には表示用画像信号に基き車体12後方の映像が表示されることができる。この運転支援装置13では、例えば駐車場で駐車スペースに後進で進入する際に運転手は車体12の後方の様子を確認することができる。こうして運転支援装置13は運転手の後方確認を支援することができる。   The camera device 16 generates an image signal of the display image (hereinafter referred to as “display image signal”) based on the captured image. The display image signal specifies an image of the camera viewpoint and an overhead view image of the ground with respect to the rear of the vehicle body. The image or the overhead image may be switched arbitrarily. The camera device 16 is connected to the navigation device 14. A display image signal is supplied from the camera device 16 to the navigation device 14. On the display screen of the display panel 15, an image behind the vehicle body 12 can be displayed based on the display image signal. In the driving support device 13, for example, the driver can check the state behind the vehicle body 12 when entering the parking space backward in a parking lot. In this way, the driving support device 13 can support the driver's backward confirmation.

図2に示されるように、カメラ装置16は魚眼レンズ21を備える。魚眼レンズ21は、例えば光軸17に直交する赤道面を有する半球面で被写体の入射面を規定する。その結果、被写体から反射する光は、光軸17に対して水平方向および垂直方向にいずれも少なくとも±90°の画角範囲で入射する。入射した光は赤道面上に被写体の画像を形成する。被写体の画像は円形の輪郭で仕切られる。画像では円の中心から外側に遠ざかるにつれて被写体は縮小する。   As shown in FIG. 2, the camera device 16 includes a fisheye lens 21. The fish-eye lens 21 defines, for example, an incident surface of a subject with a hemispherical surface having an equator plane orthogonal to the optical axis 17. As a result, the light reflected from the subject is incident on the optical axis 17 in the horizontal and vertical directions in an angle of view range of at least ± 90 °. The incident light forms an image of the subject on the equator plane. The subject image is partitioned by a circular outline. In the image, the subject shrinks away from the center of the circle.

カメラ装置16は撮像素子22を備える。撮像素子22は、魚眼レンズ21から投影される被写体の画像を電気信号に変換する。撮像素子22はマトリクス状に配置された画素を備える。ここでは、撮像素子22は1280x960の解像度を有する。したがって、ディスプレイパネル15の解像度は撮像素子22の解像度よりも低い。撮像素子22の撮像面に設定される二次元座標系に従って個々の画素の位置は特定される。例えばベイヤー配列ではRGGB(赤緑緑青)の電気信号で被写体の色が表現される。   The camera device 16 includes an image sensor 22. The image sensor 22 converts an image of a subject projected from the fisheye lens 21 into an electric signal. The image sensor 22 includes pixels arranged in a matrix. Here, the image sensor 22 has a resolution of 1280 × 960. Therefore, the resolution of the display panel 15 is lower than the resolution of the image sensor 22. The position of each pixel is specified according to a two-dimensional coordinate system set on the imaging surface of the image sensor 22. For example, in the Bayer array, the color of the subject is expressed by an electrical signal of RGGB (red green green blue).

カメラ装置16は画像処理部23を備える。画像処理部23は撮像素子22に電気的に接続される。画像処理部23は画素の位置すなわちアドレスを順次指定しながら画素の電気信号を読み出す。画像処理部23はデジタルの撮像信号すなわち撮像データを出力する。撮像データは画素ごとに画像情報を特定する。   The camera device 16 includes an image processing unit 23. The image processing unit 23 is electrically connected to the image sensor 22. The image processing unit 23 reads out the electrical signals of the pixels while sequentially specifying the pixel positions, that is, addresses. The image processing unit 23 outputs a digital imaging signal, that is, imaging data. The imaging data specifies image information for each pixel.

カメラ装置16には画像データ変換装置24が組み込まれる。画像データ変換装置24は画像処理部23から撮像データを受信する。画像データ変換装置24は画像生成部25および俯瞰画像生成部26を備える。画像生成部25は撮像データに基づきカメラ視点の通常画像を生成する。俯瞰画像生成部26は撮像データに基づき俯瞰画像を生成する。画像データ変換装置24では画像変換により俯瞰画像や歪み補正画像を生成する処理が実施される。   An image data conversion device 24 is incorporated in the camera device 16. The image data conversion device 24 receives imaging data from the image processing unit 23. The image data conversion device 24 includes an image generation unit 25 and an overhead image generation unit 26. The image generation unit 25 generates a normal image at the camera viewpoint based on the imaging data. The overhead image generation unit 26 generates an overhead image based on the imaging data. In the image data converter 24, processing for generating an overhead image and a distortion-corrected image is performed by image conversion.

ナビゲーション装置14は演算処理部27を備える。演算処理部27は画像データ変換装置24に電気的に接続される。演算処理部27は例えばMPU(マイクロプロセッサユニット)およびメモリを有することができる。例えばメモリに格納されるソフトウェアに従ってMPUは動作することができる。演算処理部27はソフトウェアで実行される処理に従ってカメラ装置16から座標変換後の画像情報を取得することができる。演算処理部27はナビゲーション装置14のナビゲーション動作と運転支援動作とを切り替えることができる。例えば自動車11のギアがバックに入れられると、演算処理部27はナビゲーション動作から運転支援動作にナビゲーション装置14を切り替えることができる。演算処理部27は、例えばナビゲーション装置14の操作に応じて、通常画像および俯瞰画像のいずれか一方または両者の供給を選択することができる。   The navigation device 14 includes an arithmetic processing unit 27. The arithmetic processing unit 27 is electrically connected to the image data conversion device 24. The arithmetic processing unit 27 can have, for example, an MPU (microprocessor unit) and a memory. For example, the MPU can operate according to software stored in the memory. The arithmetic processing unit 27 can acquire image information after coordinate conversion from the camera device 16 in accordance with processing executed by software. The arithmetic processing unit 27 can switch between the navigation operation and the driving support operation of the navigation device 14. For example, when the gear of the automobile 11 is put in the back, the arithmetic processing unit 27 can switch the navigation device 14 from the navigation operation to the driving support operation. For example, according to the operation of the navigation device 14, the arithmetic processing unit 27 can select supply of one or both of the normal image and the overhead image.

ディスプレイパネル15は演算処理部27に電気的に接続される。ディスプレイパネル15には演算処理部27から画像情報が供給される。供給される画像情報に応じてディスプレイパネル15の表示画面には地図や車体12後方の映像が映し出されることができる。   The display panel 15 is electrically connected to the arithmetic processing unit 27. Image information is supplied from the arithmetic processing unit 27 to the display panel 15. Depending on the supplied image information, a map or an image behind the vehicle body 12 can be displayed on the display screen of the display panel 15.

俯瞰画像生成部26は記憶部28と接続される。記憶部28はバッファ記憶部29を含む。バッファ記憶部29には第1バッファ領域31と第2バッファ領域32とが形成される。バッファ記憶部29の第1バッファ領域31と第2バッファ領域32には入力画像データが格納される。ただし、バッファ記憶部29の第1バッファ領域31および第2バッファ領域32のそれぞれには入力画像の全画素を格納する必要はなく、俯瞰画像の生成に必要な画像部分だけを格納すればよい。第1バッファ領域31および第2バッファ領域32はフレームごとに切り替えられ各々画像情報を記憶する。第1バッファ領域31は、ディスプレイパネル15の全画素に関する画素情報の情報量に相当する容量を有する。第2バッファ領域32は第1バッファ領域31と等しい容量を有する。決められた入力順で画素情報は画素ごとに第1バッファ領域31に記憶される。ディスプレイパネル15の全画素に関して第1バッファ領域31に画素情報が記憶されると、第1バッファ領域31から画素情報は出力され始める。画素情報の受信は第2バッファ領域32に切り替わる。決められた入力順で画素情報は画素ごとに第2バッファ領域32に記憶される。ディスプレイパネル15の全画素に関して第2バッファ領域32に画素情報が記憶されると、第2バッファ領域32から画素情報は出力され始める。画素情報の受信は再び第1バッファ領域31に切り替わる。   The overhead image generation unit 26 is connected to the storage unit 28. The storage unit 28 includes a buffer storage unit 29. A first buffer area 31 and a second buffer area 32 are formed in the buffer storage unit 29. Input image data is stored in the first buffer area 31 and the second buffer area 32 of the buffer storage unit 29. However, it is not necessary to store all the pixels of the input image in each of the first buffer area 31 and the second buffer area 32 of the buffer storage unit 29, and only the image portion necessary for generating the overhead image may be stored. The first buffer area 31 and the second buffer area 32 are switched for each frame and store image information. The first buffer area 31 has a capacity corresponding to the information amount of pixel information regarding all the pixels of the display panel 15. The second buffer area 32 has the same capacity as the first buffer area 31. The pixel information is stored in the first buffer area 31 for each pixel in the determined input order. When the pixel information is stored in the first buffer area 31 for all the pixels of the display panel 15, the pixel information starts to be output from the first buffer area 31. The reception of the pixel information is switched to the second buffer area 32. The pixel information is stored in the second buffer area 32 for each pixel in the determined input order. When the pixel information is stored in the second buffer area 32 for all the pixels of the display panel 15, the pixel information starts to be output from the second buffer area 32. The reception of the pixel information is switched to the first buffer area 31 again.

記憶部28はさらに数式記憶部33およびルックアップテーブル記憶部34を含む。数式記憶部33には第1式〜第8式が記憶される。第1式〜第8式には後述されるように三次元座標に従ってそれぞれ次式が設定される。ここで、座標値(x、y、z)は仮想三次元空間の三次元座標系に従って特定される。
ルックアップテーブル記憶部34にはルックアップテーブル37が記憶される。ルックアップテーブル37は三次元座標系に従って座標変換を特定する。画素ごとに仮想三次元空間内で座標位置は変換される。
The storage unit 28 further includes a mathematical expression storage unit 33 and a lookup table storage unit 34. The formula storage unit 33 stores the first to eighth formulas. In the first to eighth formulas, the following formulas are set according to the three-dimensional coordinates as will be described later. Here, the coordinate values (x, y, z) are specified according to the three-dimensional coordinate system of the virtual three-dimensional space.
A lookup table 37 is stored in the lookup table storage unit 34. The look-up table 37 specifies coordinate transformation according to a three-dimensional coordinate system. The coordinate position is converted for each pixel in the virtual three-dimensional space.

俯瞰画像生成部26は座標変換部35および俯瞰画像処理部36をさらに有する。座標変換部35は画像処理部23に接続される。座標変換部35は撮像データから俯瞰画像に相当する範囲の画素を抽出する。座標変換部35にはバッファ記憶部29が接続される。抽出された画素に関する画素情報はバッファ記憶部29に順次記憶される。バッファ記憶部29に俯瞰画像処理部36が接続される。俯瞰画像処理部36はバッファ記憶部29から画素情報を引き出す。俯瞰画像処理部36は画素情報にレンズに起因する画像の歪みを補正する歪み補正処理、および画像を真上から見下ろした画像に変換する俯瞰画像変換処理を施し俯瞰画像を生成する。   The overhead image generation unit 26 further includes a coordinate conversion unit 35 and an overhead image processing unit 36. The coordinate conversion unit 35 is connected to the image processing unit 23. The coordinate conversion unit 35 extracts pixels in a range corresponding to the overhead image from the imaging data. A buffer storage unit 29 is connected to the coordinate conversion unit 35. Pixel information regarding the extracted pixels is sequentially stored in the buffer storage unit 29. An overhead image processing unit 36 is connected to the buffer storage unit 29. The overhead image processing unit 36 extracts pixel information from the buffer storage unit 29. The overhead image processing unit 36 performs a distortion correction process for correcting the distortion of the image caused by the lens on the pixel information and an overhead image conversion process for converting the image into an image looking down from directly above to generate an overhead image.

座標変換部35は三次元角度変換部41、切り取り処理部42および縮小処理部43を有する。三次元角度変換部41は画像処理部23に接続される。三次元角度変換部41は第1式および第2式に基づき撮像データに演算処理を施す。第1式および第2式は数式記憶部33から取得される。三次元角度変換部41で第1画像データは生成される。切り取り処理部42は三次元角度変換部41に接続される。切り取り処理部42は第3式に基づき第1画像データに演算処理を施す。第3式は数式記憶部33から取得される。切り取り処理部42で第2画像データは生成される。縮小処理部43は切り取り処理部42に接続される。縮小処理部43は第4式に基づき第2画像データに演算処理を施す。第4式は数式記憶部33から取得される。縮小処理部43で第3画像データは生成される。第3画像データはバッファ記憶部29に記憶される。第1、第2および第3画像データの概念は後述される。   The coordinate conversion unit 35 includes a three-dimensional angle conversion unit 41, a cut processing unit 42, and a reduction processing unit 43. The three-dimensional angle conversion unit 41 is connected to the image processing unit 23. The three-dimensional angle conversion unit 41 performs arithmetic processing on the imaging data based on the first and second expressions. The first formula and the second formula are acquired from the formula storage unit 33. The three-dimensional angle conversion unit 41 generates the first image data. The cut processing unit 42 is connected to the three-dimensional angle conversion unit 41. The cut processing unit 42 performs arithmetic processing on the first image data based on the third equation. The third formula is acquired from the formula storage unit 33. The second image data is generated by the cut processing unit 42. The reduction processing unit 43 is connected to the cut processing unit 42. The reduction processing unit 43 performs arithmetic processing on the second image data based on the fourth equation. The fourth equation is acquired from the equation storage unit 33. The reduction processing unit 43 generates the third image data. The third image data is stored in the buffer storage unit 29. The concept of the first, second and third image data will be described later.

俯瞰画像処理部36は逆三次元角度変換部45、歪み補正部46および三次元角度変換部47を有する。逆三次元角度変換部45はバッファ記憶部29に接続される。逆三次元角度変換部45は第3画像データに第5式、第6式、第7式および第8式に基づき演算処理を施す。第5式、第6式、第7式および第8式は数式記憶部33から取得される。逆三次元角度変換部45で第4画像データは生成される。歪み補正部46は逆三次元角度変換部45に接続される。歪み補正部46はルックアップテーブル37に基づき第4画像データに座標変換を施す。歪み補正部46はルックアップテーブル37と接続される。歪み補正部46は座標変換にあたってルックアップテーブル記憶部34を参照する。歪み補正部46で第5画像データは生成される。三次元角度変換部47は歪み補正部46に接続される。三次元角度変換部47は第1式および第2式に基づき第5画像データに演算処理を施す。第1式および第2式は数式記憶部33から取得される。三次元角度変換部47で第6画像データは生成される。第6画像データは俯瞰画像を特定する。   The overhead image processing unit 36 includes an inverse three-dimensional angle conversion unit 45, a distortion correction unit 46, and a three-dimensional angle conversion unit 47. The inverse three-dimensional angle conversion unit 45 is connected to the buffer storage unit 29. The inverse three-dimensional angle conversion unit 45 performs arithmetic processing on the third image data based on the fifth formula, the sixth formula, the seventh formula, and the eighth formula. The fifth formula, the sixth formula, the seventh formula, and the eighth formula are acquired from the formula storage unit 33. The fourth image data is generated by the inverse three-dimensional angle conversion unit 45. The distortion correction unit 46 is connected to the inverse three-dimensional angle conversion unit 45. The distortion correction unit 46 performs coordinate conversion on the fourth image data based on the lookup table 37. The distortion correction unit 46 is connected to the lookup table 37. The distortion correction unit 46 refers to the lookup table storage unit 34 for coordinate conversion. The fifth image data is generated by the distortion correction unit 46. The three-dimensional angle conversion unit 47 is connected to the distortion correction unit 46. The three-dimensional angle conversion unit 47 performs arithmetic processing on the fifth image data based on the first and second expressions. The first formula and the second formula are acquired from the formula storage unit 33. Sixth image data is generated by the three-dimensional angle converter 47. The sixth image data specifies an overhead image.

ここで、第1〜第6画像データの概念を説明する。図3(a)に示されるように、撮像面51の二次元面に仮想三次元空間が設定される。撮像面51の二次元面に仮想三次元空間のxy平面が重ねられる。撮像面51ではx座標で行方向(水平方向)に画素の位置が特定されy座標で列方向(垂直方向)に画素の位置が特定される。xy平面から距離zの位置に回転中心52が設定される。   Here, the concept of the first to sixth image data will be described. As shown in FIG. 3A, a virtual three-dimensional space is set on the two-dimensional surface of the imaging surface 51. The xy plane of the virtual three-dimensional space is superimposed on the two-dimensional surface of the imaging surface 51. On the imaging surface 51, the pixel position is specified in the row direction (horizontal direction) by the x coordinate, and the pixel position is specified in the column direction (vertical direction) by the y coordinate. A rotation center 52 is set at a distance z from the xy plane.

図3(b)に示されるように、座標変換部35で第1式に基づき演算処理が実施されると、仮想三次元空間内で水平軸回りに撮像画像は回転する。こうして角度変換後画像53が生成される。水平軸は回転中心52を通ってxy平面に平行に延びる。図3(c)に示されるように、座標変換部35で第2式に基づき演算処理が実施されると、撮像面51を含む二次元平面に角度変換後画像53は投影される。こうして投影画像54は生成される。投影画像54に俯瞰的に被写体が現れるように水平軸回りの回転角度tは設定されればよい。第1画像データは投影画像54を特定する。   As shown in FIG. 3B, when the arithmetic processing is performed based on the first expression in the coordinate conversion unit 35, the captured image rotates around the horizontal axis in the virtual three-dimensional space. Thus, the angle-converted image 53 is generated. The horizontal axis extends through the center of rotation 52 and parallel to the xy plane. As illustrated in FIG. 3C, when the coordinate conversion unit 35 performs the calculation process based on the second expression, the angle-converted image 53 is projected onto the two-dimensional plane including the imaging surface 51. Thus, the projection image 54 is generated. The rotation angle t around the horizontal axis may be set so that the subject appears in a bird's eye view on the projected image 54. The first image data specifies the projection image 54.

座標変換部35で第3式に基づき第1画像データに演算処理が実施されると、図3(d)に示されるように、投影画像54から俯瞰画像に相当する範囲55が切り出される。こうして切り取り画像56は生成される。切り取り画像56は表示画面57に対して位置合わせされる。ここで、定数aはx軸方向に範囲55の中心と表示画面57の中心との距離を示し、定数bはy軸方向に範囲55の中心と表示画面57の中心との距離を示す。第2画像データは切り取り画像56を特定する。   When calculation processing is performed on the first image data based on the third expression in the coordinate conversion unit 35, a range 55 corresponding to the overhead image is cut out from the projection image 54 as shown in FIG. In this way, the cut image 56 is generated. The cut image 56 is aligned with the display screen 57. Here, the constant a indicates the distance between the center of the range 55 and the center of the display screen 57 in the x-axis direction, and the constant b indicates the distance between the center of the range 55 and the center of the display screen 57 in the y-axis direction. The second image data specifies the cut image 56.

座標変換部35で第4式に基づき第2画像データに演算処理が実施されると、図3(e)に示されるように、切り取り画像56は表示画面57の画素数に併せて変形する。ここでは、y軸方向に画像は縮小されx軸方向に画像は拡大する。こうしてバッファ画像58は生成される。ここで、定数cはx軸方向に表示画面57に対して切り取り画像56の拡大率を示し、定数dはy軸方向に表示画面57に対して切り取り画像56の拡大率を示す。第3画像データはバッファ画像58を特定する。   When the coordinate conversion unit 35 performs the calculation process on the second image data based on the fourth expression, the cut image 56 is deformed in accordance with the number of pixels of the display screen 57 as shown in FIG. Here, the image is reduced in the y-axis direction and the image is enlarged in the x-axis direction. Thus, the buffer image 58 is generated. Here, the constant c indicates the enlargement ratio of the cut image 56 with respect to the display screen 57 in the x-axis direction, and the constant d indicates the enlargement ratio of the cut image 56 with respect to the display screen 57 in the y-axis direction. The third image data specifies the buffer image 58.

俯瞰画像処理部36で第5式に基づき第3画像データに演算処理が実施されると、図4(a)および(b)に示されるように、バッファ画像58は切り取り画像56に復元される。俯瞰画像処理部36で第6式に基づき切り取り画像56に演算処理が実施されると、図4(c)に示されるように、切り取り画像59は仮想三次元空間内で位置合わせされる。こうして範囲55内に第1復元画像61は生成される。第1復元画像61は前述の投影画像54に相当する。俯瞰画像処理部36で第7式に基づき第1復元画像61に演算処理が実施されると、図4(d)に示されるように、位置合わせされた第1復元画像61は仮想三次元空間内で水平軸回りに逆回転する。こうして第2復元画像62は生成される。俯瞰画像処理部36で第8式に基づき第2復元画像62に演算処理が実施されると、図4(e)に示されるように、第2復元画像62は仮想三次元空間内で撮像面51を含む二次元平面63に投影される。こうして第3復元画像64は生成される。第3復元画像64は、撮像画像上で俯瞰画像として切り取られる範囲の被写体に相当する。第4画像データは第3復元画像64を特定する。   When the overhead image processing unit 36 performs arithmetic processing on the third image data based on the fifth equation, the buffer image 58 is restored to the cut-out image 56 as shown in FIGS. . When the overhead image processing unit 36 performs a calculation process on the clipped image 56 based on the sixth equation, the clipped image 59 is aligned in the virtual three-dimensional space as shown in FIG. Thus, the first restored image 61 is generated within the range 55. The first restored image 61 corresponds to the projection image 54 described above. When the overhead image processing unit 36 performs arithmetic processing on the first restored image 61 based on the seventh equation, the aligned first restored image 61 is displayed in the virtual three-dimensional space as shown in FIG. In reverse around the horizontal axis. In this way, the second restored image 62 is generated. When the overhead image processing unit 36 performs a calculation process on the second restored image 62 based on the eighth equation, as shown in FIG. 4E, the second restored image 62 is captured on the imaging surface in the virtual three-dimensional space. 51 is projected onto a two-dimensional plane 63 including 51. In this way, the third restored image 64 is generated. The third restored image 64 corresponds to a subject in a range cut out as an overhead image on the captured image. The fourth image data specifies the third restored image 64.

第4画像データに歪み補正が実施される。ルックアップテーブル37に従って第3復元画像64に座標変換が施される。その結果、第4復元画像に歪み補正処理が施される。こうして俯瞰前原画像は生成される。俯瞰前原画像では被写体の歪みは補正される。第5画像データは俯瞰前原画像を特定する。   Distortion correction is performed on the fourth image data. According to the lookup table 37, the third restored image 64 is subjected to coordinate transformation. As a result, distortion correction processing is performed on the fourth restored image. In this way, the original image before the overhead view is generated. In the original image before the overhead view, the distortion of the subject is corrected. The fifth image data specifies the original image before the overhead view.

第5データに三次元角度変換が実施される。座標変換部35で第1式および第2式に基づき俯瞰前原画像に演算処理が施される。こうして俯瞰画像は生成される。第6画像データは俯瞰画像を特定する。   Three-dimensional angle conversion is performed on the fifth data. The coordinate conversion unit 35 performs arithmetic processing on the original image before the bird's-eye view based on the first and second expressions. An overhead image is thus generated. The sixth image data specifies an overhead image.

画像データ変換装置24は撮像画像から俯瞰画像を生成する。図5に示されるように、撮像画像66では光軸17から画面の縁に向かって遠ざかるにつれて被写体は縮小する。その結果、実空間の被写体の直線形状は損なわれ直線形状は湾曲する。参照範囲67は俯瞰画像の原画像に相当する。切り取り処理部42で参照範囲67に対応して切り取り範囲68が切り出される。切り取り範囲68は参照範囲67を完全に含む。ここでは、切り取り範囲68は台形に区画される。台形の下底は撮像画像66の下辺に一致する。台形の上底および脚は参照範囲67の外側で参照範囲67の輪郭に平行に設定される。   The image data converter 24 generates an overhead image from the captured image. As shown in FIG. 5, in the captured image 66, the subject is reduced as the distance from the optical axis 17 toward the edge of the screen increases. As a result, the straight line shape of the subject in real space is lost and the straight line shape is curved. The reference range 67 corresponds to the original image of the overhead image. A cut range 68 is cut out corresponding to the reference range 67 by the cut processing unit 42. Cutout area 68 completely includes reference area 67. Here, the cut-out range 68 is partitioned into a trapezoid. The lower base of the trapezoid coincides with the lower side of the captured image 66. The upper base and legs of the trapezoid are set outside the reference range 67 and parallel to the contour of the reference range 67.

図6は三次元角度変換部41の画像変換の概念を示す。座標変換部35で第1式および第2式の演算処理に基づき水平軸回りで撮像画像は回転する。回転するにつれて投影画像69では台形の切り取り範囲は長方形または正方形に重なる。重なるように回転角度tは三次元角度変換部41で設定される。   FIG. 6 shows the concept of image conversion of the three-dimensional angle conversion unit 41. The captured image rotates around the horizontal axis based on the arithmetic processing of the first and second formulas in the coordinate conversion unit 35. As the image is rotated, the trapezoidal cutout area of the projection image 69 overlaps a rectangle or a square. The rotation angle t is set by the three-dimensional angle conversion unit 41 so as to overlap.

図7に示されるように、俯瞰画像71の下辺71aでは俯瞰画像71の画素と撮像画像66の画素とは1対1で対応する。解像度は維持される。俯瞰画像71の上辺71bでは1.5倍程度の倍率で撮像画像66は拡大する。言い換えると、俯瞰画像71の画素数に対して撮像画像66では1.5分の1の画素数の画素が抽出される。解像度の劣化は抑制される。俯瞰画像71の側辺71c、71dでは1.2倍程度の倍率で撮像画像66は拡大する。俯瞰画像71の画素数に対して撮像画像66では1.2分の1の画素数の画素が抽出される。解像度の劣化は抑制される。水平方向に中央位置の垂直線71vや垂直方向に中央位置の水平線71hでは俯瞰画像71の画素と撮像画像66の画素とはほぼ1対1で対応する。解像度は維持される。   As shown in FIG. 7, in the lower side 71 a of the overhead image 71, the pixels of the overhead image 71 and the pixels of the captured image 66 correspond one-to-one. The resolution is maintained. In the upper side 71b of the overhead image 71, the captured image 66 is enlarged at a magnification of about 1.5 times. In other words, the number of pixels of 1 / 1.5 in the captured image 66 is extracted with respect to the number of pixels of the overhead image 71. Degradation of resolution is suppressed. On the side edges 71c and 71d of the overhead image 71, the captured image 66 is enlarged at a magnification of about 1.2 times. With respect to the number of pixels of the bird's-eye view image 71, a pixel having a number of pixels of 1/2 in the captured image 66 is extracted. Degradation of resolution is suppressed. In the vertical line 71v at the center position in the horizontal direction and the horizontal line 71h at the center position in the vertical direction, the pixels of the overhead image 71 and the pixels of the captured image 66 correspond approximately one to one. The resolution is maintained.

図8は第1比較例に係る俯瞰画像の倍率を示す。俯瞰画像の形成にあたって撮像素子は640x480の解像度を有する。全ての撮像画像72の画素が利用される。撮像画像72に歪み補正および三次元角度変換が実施される。俯瞰画像の下辺72aでは俯瞰画像の画素と撮像画像72の画素とは1対1で対応する。俯瞰画像の上辺72bでは3.0倍程度の倍率で撮像画像72は拡大する。言い換えると、俯瞰画像の画素数に対して撮像画像では3分の1の画素数の画素が抽出される。解像度は劣化する。俯瞰画像の側辺72c、72dでは2.2倍程度の倍率で撮像画像72は拡大する。俯瞰画像の画素数に対して撮像画像72では2.2分の1の画素数の画素が抽出される。解像度は劣化する。水平方向に中央位置の垂直線72vでは1.9倍程度の倍率で撮像画像72は拡大する。すなわち、俯瞰画像の画素数に対して撮像画像では1.9分の1の画素数の画素が抽出される。解像度は劣化する。この場合には、1表示画面内で部分的に顕著に画質が劣化することから、画質の劣化が目立ってしまう。   FIG. 8 shows the magnification of the overhead image according to the first comparative example. The image pickup element has a resolution of 640 × 480 in forming the overhead view image. All the pixels of the captured image 72 are used. Distortion correction and three-dimensional angle conversion are performed on the captured image 72. In the lower side 72a of the overhead image, the pixels of the overhead image correspond to the pixels of the captured image 72 on a one-to-one basis. In the upper side 72b of the overhead image, the captured image 72 is enlarged at a magnification of about 3.0 times. In other words, one-third pixels are extracted from the captured image with respect to the number of pixels in the overhead image. The resolution is degraded. On the side sides 72c and 72d of the overhead image, the captured image 72 is enlarged at a magnification of about 2.2 times. In the captured image 72, the number of pixels of 1 / 2.2 is extracted with respect to the number of pixels of the overhead image. The resolution is degraded. On the vertical line 72v at the center position in the horizontal direction, the captured image 72 is enlarged at a magnification of about 1.9 times. That is, a pixel having a number of pixels of 1.9 is extracted from the captured image with respect to the number of pixels of the overhead image. The resolution is degraded. In this case, the image quality deteriorates remarkably partially in one display screen, so that the image quality deterioration becomes conspicuous.

図9は第2比較例に係る俯瞰画像を示す。俯瞰画像の形成にあたって撮像素子22は1280x960の解像度を有する。全ての撮像画像66の画素が利用される。撮像画像66に歪み補正および三次元角度変換が実施される。俯瞰画像の下辺73aでは0.5倍程度の倍率で撮像画像66は拡大する。言い換えると、俯瞰画像の画素数に対して撮像画像66では2倍の画素数の画素が抽出される。1つの画素に対して2つの画素の画素情報が利用されるものの、画素情報は劣化しないことから、解像度は維持されることができる。俯瞰画像の上辺73bでは1.5倍程度の倍率で撮像画像66は拡大する。すなわち、俯瞰画像の画素数に対して撮像画像66では1.5分の1の画素数の画素が抽出される。解像度の劣化は抑制される。俯瞰画像の側辺73c、73dでは1.1倍程度の倍率で撮像画像66は拡大する。俯瞰画像の画素数に対して撮像画像66では1.1分の1の画素数の画素が抽出される。解像度の劣化は抑制される。水平方向に中央位置の垂直線73vでは0.9倍程度の倍率で撮像画像66は拡大する。言い換えると、俯瞰画像の画素数に対して撮像画像66では1.1倍程度の画素数の画素が抽出される。解像度は維持される。この場合には、撮像画像66の全ての画素の画素情報が一時的にバッファ記憶部に格納される。したがって、撮像画像66の画素数が増加することで、バッファ記憶部に容量の増加が要求される。いまのところ、メモリの容量とメモリの大きさとには相関関係が成立することから、容量の増加はバッファメモリのサイズの増大を誘引する。こうしてバッファメモリのサイズが増大すると、カメラ装置16内にバッファメモリの組み込みは難しい。   FIG. 9 shows an overhead image according to the second comparative example. In forming the bird's-eye view image, the image sensor 22 has a resolution of 1280 × 960. All pixels of the captured image 66 are used. Distortion correction and three-dimensional angle conversion are performed on the captured image 66. In the lower side 73a of the overhead image, the captured image 66 is enlarged at a magnification of about 0.5 times. In other words, twice as many pixels are extracted in the captured image 66 as the number of pixels in the overhead image. Although pixel information of two pixels is used for one pixel, the pixel information is not deteriorated, so that the resolution can be maintained. In the upper side 73b of the overhead image, the captured image 66 is enlarged at a magnification of about 1.5 times. That is, in the captured image 66, the number of pixels that is 1 / 1.5 of the number of pixels of the overhead image is extracted. Degradation of resolution is suppressed. The captured image 66 is enlarged at a magnification of about 1.1 times on the sides 73c and 73d of the overhead image. In the captured image 66, the number of pixels of 1 / 1.times. Is extracted from the number of pixels of the overhead image. Degradation of resolution is suppressed. In the horizontal line 73v in the horizontal direction, the captured image 66 is enlarged at a magnification of about 0.9 times. In other words, about 1.1 times as many pixels are extracted in the captured image 66 as the number of pixels in the overhead image. The resolution is maintained. In this case, pixel information of all the pixels of the captured image 66 is temporarily stored in the buffer storage unit. Therefore, the increase in the number of pixels of the captured image 66 requires an increase in capacity in the buffer storage unit. At present, there is a correlation between the capacity of the memory and the size of the memory, so that the increase in capacity induces an increase in the size of the buffer memory. When the size of the buffer memory increases in this way, it is difficult to incorporate the buffer memory in the camera device 16.

画像データ変換装置24では撮像画像66の撮像データはバッファ記憶部29への格納に先立って座標変換部35で処理される。座標変換部35では、撮像画像66の全画素のうち、地面の俯瞰画像71に相当する範囲で画素が抽出される。こうして画素情報の情報量は縮小される。バッファ記憶部29は、撮像画像66の全画素に関する情報の情報量よりも小さい容量しか有しないものの、確実に俯瞰画像71は生成されることができる。撮像画像66の解像度が高められても、バッファ記憶部29の容量の増大は回避されることができる。撮像画像66の解像度が高められれば、俯瞰画像71の生成にあたってたとえ部分的に撮像画像66が拡大されても、画質の劣化は概ね回避されることができる。   In the image data conversion device 24, the image data of the captured image 66 is processed by the coordinate conversion unit 35 before being stored in the buffer storage unit 29. The coordinate conversion unit 35 extracts pixels in a range corresponding to the overhead view image 71 of the ground among all the pixels of the captured image 66. Thus, the information amount of the pixel information is reduced. Although the buffer storage unit 29 has a capacity smaller than the information amount of information regarding all the pixels of the captured image 66, the overhead image 71 can be reliably generated. Even if the resolution of the captured image 66 is increased, an increase in the capacity of the buffer storage unit 29 can be avoided. If the resolution of the picked-up image 66 is increased, even when the picked-up image 66 is partially enlarged when the overhead image 71 is generated, deterioration of the image quality can be largely avoided.

前述のように、座標変換部35は数式に従って演算処理を実施する。このときバッファ記憶部29の容量は小さい容量に留められることができる。特に、数式の利用にあたって前述のように単純な数式が用いられる。その結果、演算処理の負荷はできるだけ軽減されることができる。   As described above, the coordinate conversion unit 35 performs arithmetic processing according to the mathematical formula. At this time, the capacity of the buffer storage unit 29 can be kept small. In particular, simple mathematical formulas are used as described above when using mathematical formulas. As a result, the processing load can be reduced as much as possible.

一般に、魚眼レンズ21から投影される被写体の撮像画像66では魚眼レンズ21の光軸17から離れるにつれて被写体は歪む。撮像画像66に線形的な座標変換が施されるだけでは俯瞰画像に被写体の歪みが残存する。歪み補正は被写体の歪みを補正する。その結果、俯瞰画像71の見栄えは向上する。   In general, in the captured image 66 of the subject projected from the fisheye lens 21, the subject is distorted as the distance from the optical axis 17 of the fisheye lens 21 increases. If the captured image 66 is simply subjected to linear coordinate transformation, distortion of the subject remains in the overhead image. The distortion correction corrects the distortion of the subject. As a result, the appearance of the overhead view image 71 is improved.

ディスプレイパネル15には撮像素子22よりも低い解像度のものが利用される。こうした場合には、俯瞰画像71の生成にあたって撮像画像66が拡大されても、こうした画像の拡大時に画素情報の不足は補われることができる。その結果、画質の劣化は回避されることができる。   A display panel 15 having a resolution lower than that of the image sensor 22 is used. In such a case, even if the captured image 66 is enlarged when the overhead image 71 is generated, the lack of pixel information can be compensated for when the image is enlarged. As a result, degradation of image quality can be avoided.

その他、図10に示されるように、第1バッファ領域31および第2バッファ領域32の容量は前述の640x480から768x576に増やされてもよい。こうすることで、切り取り範囲55の大きさが同じであっても俯瞰画像74に利用される撮像画像66の画素数は増大することができる。その結果、俯瞰画像74の下辺74a、水平方向中央の垂直線74vおよび垂直方向中央の水平線74hで俯瞰画像74の画素と撮像画像66の画素とは1対1で対応する。解像度は維持される。俯瞰画像74の上辺74bでは1.5倍程度の倍率で撮像画像66は拡大する。俯瞰画像74の側辺74c、74dでは1.1倍程度の倍率で撮像画像66は拡大する。こうして解像度の劣化はさらに効果的に抑制されることができる。   In addition, as shown in FIG. 10, the capacities of the first buffer area 31 and the second buffer area 32 may be increased from the above-mentioned 640 × 480 to 768 × 576. By doing so, the number of pixels of the captured image 66 used for the overhead image 74 can be increased even if the size of the cutout range 55 is the same. As a result, the pixels of the bird's-eye view image 74 and the pixels of the captured image 66 have a one-to-one correspondence on the lower side 74a of the overhead image 74, the vertical line 74v in the horizontal center, and the horizontal line 74h in the vertical center. The resolution is maintained. In the upper side 74b of the overhead image 74, the captured image 66 is enlarged at a magnification of about 1.5 times. In the side edges 74c and 74d of the overhead image 74, the captured image 66 is enlarged at a magnification of about 1.1 times. In this way, degradation of resolution can be further effectively suppressed.

11 車両(自動車)、13 運転支援装置、14 ナビゲーション装置、16 カメラ装置、21 魚眼レンズ、24 画像データ変換装置、29 バッファ記憶部、35 座標変換部、36 俯瞰画像処理部、53 角度変換後画像、54 投影画像、55 範囲、57 表示画面、58 バッファ画像、61 第1復元画像、62 第2復元画像、64 第3復元画像、66 撮像画像、71 俯瞰画像。   DESCRIPTION OF SYMBOLS 11 Vehicle (automobile), 13 Driving assistance apparatus, 14 Navigation apparatus, 16 Camera apparatus, 21 Fisheye lens, 24 Image data conversion apparatus, 29 Buffer memory | storage part, 35 Coordinate conversion part, 36 Overhead image processing part, 53 Image after angle conversion, 54 projected image, 55 range, 57 display screen, 58 buffer image, 61 first restored image, 62 second restored image, 64 third restored image, 66 captured image, 71 overhead view image.

Claims (8)

魚眼レンズから投影される被写体の撮像画像に関して個々の画素ごとに画素情報を特定する撮像データから俯瞰画像に相当する範囲で前記画素ごとの画素情報を抽出する座標変換部と、
前記撮像画像の全画素に関する情報の情報量よりも小さい容量を有し、抽出された前記画素に関する画素情報を記憶するバッファ記憶部と
を備えることを特徴とする画像データ変換装置。
A coordinate conversion unit that extracts pixel information for each pixel in a range corresponding to an overhead image from imaging data that specifies pixel information for each pixel with respect to a captured image of a subject projected from a fisheye lens;
An image data conversion apparatus comprising: a buffer storage unit that has a capacity smaller than an information amount of information about all pixels of the captured image and stores pixel information about the extracted pixels.
請求項1に記載の画像データ変換装置において、前記画像データ変換装置は記憶部を備え、前記座標変換部は前記記憶部に格納された数式に基づき俯瞰画像に相当する範囲で前記画素ごとの画素情報を抽出することを特徴とする画像データ変換装置。   The image data conversion device according to claim 1, wherein the image data conversion device includes a storage unit, and the coordinate conversion unit is a pixel for each pixel within a range corresponding to an overhead image based on a mathematical formula stored in the storage unit. An image data converter characterized by extracting information. 請求項2に記載の画像データ変換装置において、前記記憶部には、仮想三次元空間内で水平軸回りに前記撮像画像を回転し角度変換後画像を生成するための第1式と、前記撮像画像を含む二次元平面に前記角度変換後画像を投影し投影画像を生成するための第2式と、前記投影画像から前記俯瞰画像に相当する範囲を切り取り、切り取った前記投影画像を表示画面の画素数に合わせて変形しバッファ画像を生成するための第3式とを格納することを特徴とする画像データ変換装置。   3. The image data conversion device according to claim 2, wherein the storage unit includes a first equation for rotating the captured image around a horizontal axis in a virtual three-dimensional space to generate an angle-converted image, and the imaging A second expression for projecting the angle-converted image onto a two-dimensional plane including the image to generate a projection image, and a range corresponding to the overhead image is cut out from the projection image, and the cut projection image is displayed on the display screen. An image data conversion device characterized by storing the third equation for generating a buffer image by deforming according to the number of pixels. 請求項3に記載の画像データ変換装置において、前記投影画像から切り取られた範囲に前記バッファ画像から第1復元画像を生成し、前記仮想三次元空間内で前記水平軸回りに前記第1復元画像を逆回転し第2復元画像を生成し、前記仮想三次元空間内で前記撮像画像を含む前記二次元平面に前記第2復元画像を投影し第3復元画像を生成し、前記第3復元画像に歪み補正処理を施し俯瞰前原画像を生成し、前記第1式および前記第2式に基づき前記俯瞰画像を生成する俯瞰画像処理部を備えることを特徴とする画像データ変換装置。   4. The image data conversion device according to claim 3, wherein a first restored image is generated from the buffer image in a range cut from the projection image, and the first restored image around the horizontal axis in the virtual three-dimensional space. The second restored image is generated by projecting the second restored image onto the two-dimensional plane including the captured image in the virtual three-dimensional space by generating the third restored image An image data conversion apparatus comprising: a bird's-eye view image processing unit that performs distortion correction processing to generate an original image before bird's-eye view and generates the bird's-eye view image based on the first expression and the second expression. 請求項4に記載の画像データ変換装置において、前記俯瞰画像処理部は、前記撮像画像の画素数よりも小さい画素数で前記俯瞰画像を生成することを特徴とする画像データ変換装置。   5. The image data conversion apparatus according to claim 4, wherein the overhead image processing unit generates the overhead image with a smaller number of pixels than the number of pixels of the captured image. 請求項1〜5のいずれか1項に記載の画像データ変換装置を備えることを特徴とする運転支援装置。   A driving support apparatus comprising the image data conversion apparatus according to claim 1. 請求項1〜5のいずれか1項に記載の画像データ変換装置を備えることを特徴とするナビゲーション装置。   A navigation apparatus comprising the image data conversion apparatus according to claim 1. 請求項1〜5のいずれか1項に記載の画像データ変換装置を備えることを特徴とするカメラ装置。   A camera apparatus comprising the image data conversion apparatus according to claim 1.
JP2013198575A 2013-09-25 2013-09-25 Image data conversion device, driving support device, navigation device, and camera device Active JP6213727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013198575A JP6213727B2 (en) 2013-09-25 2013-09-25 Image data conversion device, driving support device, navigation device, and camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013198575A JP6213727B2 (en) 2013-09-25 2013-09-25 Image data conversion device, driving support device, navigation device, and camera device

Publications (2)

Publication Number Publication Date
JP2015065579A true JP2015065579A (en) 2015-04-09
JP6213727B2 JP6213727B2 (en) 2017-10-18

Family

ID=52833105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013198575A Active JP6213727B2 (en) 2013-09-25 2013-09-25 Image data conversion device, driving support device, navigation device, and camera device

Country Status (1)

Country Link
JP (1) JP6213727B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138869A (en) * 1995-11-15 1997-05-27 Meidensha Corp Picture shaping method
JP2007226300A (en) * 2006-02-21 2007-09-06 Aisin Aw Co Ltd Driving support method and driving support device
JP2008213744A (en) * 2007-03-06 2008-09-18 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring device
JP2008306546A (en) * 2007-06-08 2008-12-18 Alpine Electronics Inc Vehicle-periphery monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138869A (en) * 1995-11-15 1997-05-27 Meidensha Corp Picture shaping method
JP2007226300A (en) * 2006-02-21 2007-09-06 Aisin Aw Co Ltd Driving support method and driving support device
JP2008213744A (en) * 2007-03-06 2008-09-18 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring device
JP2008306546A (en) * 2007-06-08 2008-12-18 Alpine Electronics Inc Vehicle-periphery monitoring system

Also Published As

Publication number Publication date
JP6213727B2 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
JP4257356B2 (en) Image generating apparatus and image generating method
JP4596978B2 (en) Driving support system
CN101978694B (en) Image processing device and method, driving support system, and vehicle
TWI524306B (en) Image transformation and multi-view output systems and methods
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
JP4642723B2 (en) Image generating apparatus and image generating method
KR101617956B1 (en) Image processing apparatus, method, and recording medium
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP5523730B2 (en) In-vehicle peripheral image display device
JP2008077628A (en) Image processor and vehicle surrounding visual field support device and method
JP4606322B2 (en) Vehicle driving support device
JP2007109166A (en) Driving assistance system
JP2009017020A (en) Image processor and method for generating display image
TW201739647A (en) Method and apparatus for processing surrounding images of vehicle
CN113490879A (en) Using real-time ray tracing for lens remapping
JP2008048317A (en) Image processing unit, and sight support device and method
CN110651295A (en) Image processing apparatus, image processing method, and program
JP2009120135A (en) Imaging device
JP7081265B2 (en) Image processing equipment
KR101436445B1 (en) Method for displaying image around the vehicle
US9067538B2 (en) Drive assist display apparatus
JP3446277B2 (en) Ambient situation display device for vehicles
JP6213727B2 (en) Image data conversion device, driving support device, navigation device, and camera device
KR101293263B1 (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same
JP2012065228A (en) Image processing apparatus, image display system, and image display method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170905

R151 Written notification of patent or utility model registration

Ref document number: 6213727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151