JP2011101265A - Method and device for calculation of calibration information, and wide angle image processing apparatus - Google Patents

Method and device for calculation of calibration information, and wide angle image processing apparatus Download PDF

Info

Publication number
JP2011101265A
JP2011101265A JP2009255561A JP2009255561A JP2011101265A JP 2011101265 A JP2011101265 A JP 2011101265A JP 2009255561 A JP2009255561 A JP 2009255561A JP 2009255561 A JP2009255561 A JP 2009255561A JP 2011101265 A JP2011101265 A JP 2011101265A
Authority
JP
Japan
Prior art keywords
wide
image
angle
calibration
calibration information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009255561A
Other languages
Japanese (ja)
Inventor
Takeshi Kasahara
毅 笠原
Akira Takahashi
章 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Institute of National Colleges of Technologies Japan
Original Assignee
Nippon Seiki Co Ltd
Institute of National Colleges of Technologies Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd, Institute of National Colleges of Technologies Japan filed Critical Nippon Seiki Co Ltd
Priority to JP2009255561A priority Critical patent/JP2011101265A/en
Publication of JP2011101265A publication Critical patent/JP2011101265A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for calculation of calibration information, along with a wide angle image processing apparatus, capable of correcting distortion of a wide angle image with high accuracy. <P>SOLUTION: The wide angle image processing apparatus 1 captures a calibration image with a plurality of calibration patterns displayed by a calibration image display unit 120 by a wide angle imaging unit 110. Then, a plurality of lattice points shown by the calibration patterns on the picked up wide angle image are detected, and positions on a three-dimensional space are calculated using the principle of a space encoding method for the plurality of detected lattice points. Then, calibration information for correcting the distortion of the wide angle image is calculated from geometric relation between the positions of the plurality of lattice points on the wide angle image and the calculated positions of the plurality of lattice points on the three-dimensional space. In addition, distortion correction of the wide angle image picked up by the wide angle imaging unit 110 is performed on the basis of the calculated calibration information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、広角撮像装置により撮像された広角画像の歪みを較正するための較正情報を算出する較正情報算出方法、較正情報算出装置、及びその方法により算出された較正情報に基づいて広角画像を補正する広角画像処理装置に関する。   The present invention provides a calibration information calculation method for calculating calibration information for calibrating distortion of a wide-angle image captured by a wide-angle imaging device, a calibration information calculation device, and a wide-angle image based on the calibration information calculated by the method. The present invention relates to a wide-angle image processing apparatus to be corrected.

従来の広角画像表示装置として、広角画像を取得する広角撮像装置と、取得された広角画像の広角歪みを補正する画像処理装置と、補正された広角画像を表示する表示装置と、から構成されるものがある。この画像処理装置による広角歪みの補正方法として、広角撮像装置の仰角において等角度間隔となるように配置された複数のマーカーから構成されるパターンを撮像し、撮像された画像中のマーカーの位置に基づいて補正条件を取得し、その補正条件に基づいて、環状の広角画像をパノラマ画像へ展開するものがある(例えば、特許文献1参照)。   A conventional wide-angle image display device includes a wide-angle imaging device that acquires a wide-angle image, an image processing device that corrects wide-angle distortion of the acquired wide-angle image, and a display device that displays the corrected wide-angle image. There is something. As a method for correcting wide-angle distortion by this image processing apparatus, a pattern composed of a plurality of markers arranged at equal angular intervals at the elevation angle of the wide-angle imaging apparatus is imaged, and the pattern is positioned at the marker position in the captured image. A correction condition is acquired based on this, and an annular wide-angle image is developed into a panoramic image based on the correction condition (see, for example, Patent Document 1).

特開2003−308526号公報JP 2003-308526 A

しかし、特許文献1に記載されているような広角撮像装置に用いられる広角レンズの実際の製品では、広角レンズに入射する光線が、従来の補正方法で仮定されているようにレンズ光軸と1点で交わらず、レンズ光軸との交点がレンズへの入射角に対して変化する。そのため、従来の広角画像表示装置では、広角撮像装置で取得された広角画像の広角歪みが正しく補正されないといった問題がある。   However, in the actual product of the wide-angle lens used in the wide-angle imaging device as described in Patent Document 1, the light beam incident on the wide-angle lens is 1 with the lens optical axis as assumed in the conventional correction method. Regardless of the point, the point of intersection with the lens optical axis changes with respect to the incident angle to the lens. Therefore, the conventional wide-angle image display device has a problem that the wide-angle distortion of the wide-angle image acquired by the wide-angle imaging device is not correctly corrected.

本発明はかかる問題点に鑑みてなされたものであって、広角画像の歪みを高精度に補正することが可能な較正情報算出方法、較正情報算出装置、及びその方法により算出された較正情報に基づいて広角画像を補正する広角画像処理装置を提供することを目的とする。   The present invention has been made in view of such problems, and includes a calibration information calculation method, a calibration information calculation device, and calibration information calculated by the method capable of correcting distortion of a wide-angle image with high accuracy. An object of the present invention is to provide a wide-angle image processing apparatus that corrects a wide-angle image based on the image.

上記目的を達成するため、本発明の第1の観点に係る較正情報算出方法は、
広角撮像部が撮像した広角画像の歪みを補正するための較正情報を算出する較正情報算出方法であって、
互いに所定の間隔で配列する複数の格子点を算出するための較正画像を前記広角撮像部を取り囲む表示部に表示させるとともに、前記広角撮像部によって前記較正画像を撮像させた広角画像を取得し、取得した前記広角画像と前記表示部に表示させた前記較正画像とに基づいて、前記複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて記憶手段に記憶する格子点検出ステップと、
前記格子点検出ステップにより検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角撮像部の光軸を検出する光軸検出ステップと、
前記光軸検出ステップにより検出された前記光軸と、前記記憶手段に記憶された前記複数の格子点の、三次元空間上での位置と、前記広角画像上での位置とに基づいて、前記較正情報を算出する較正情報算出ステップと、
を備えることを特徴とする。
In order to achieve the above object, a calibration information calculation method according to the first aspect of the present invention includes:
A calibration information calculation method for calculating calibration information for correcting distortion of a wide-angle image captured by a wide-angle imaging unit,
A calibration image for calculating a plurality of grid points arranged at predetermined intervals is displayed on a display unit surrounding the wide-angle imaging unit, and a wide-angle image obtained by capturing the calibration image by the wide-angle imaging unit is acquired. Based on the acquired wide-angle image and the calibration image displayed on the display unit, the storage unit associates the positions of the plurality of lattice points on the three-dimensional space and the positions on the wide-angle image. A grid point detection step stored in
An optical axis detection step of extracting a plurality of straight lines based on a plurality of lattice points detected by the lattice point detection step, and detecting an optical axis of the wide-angle imaging unit based on an intersection of the plurality of straight lines;
Based on the optical axis detected by the optical axis detection step, the position on the three-dimensional space of the plurality of lattice points stored in the storage means, and the position on the wide-angle image, A calibration information calculation step for calculating calibration information;
It is characterized by providing.

上記目的を達成するため、本発明の第2の観点に係る較正情報算出装置は、
互いに所定の間隔で配列する複数の格子点を算出するための較正画像を広角撮像部を取り囲む表示部に表示させるとともに、前記広角撮像部によって前記較正画像を撮像させた広角画像を取得し、取得した前記広角画像と前記表示部に表示させた前記較正画像とに基づいて、前記複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて記憶手段に記憶する格子点検出手段と、
前記格子点検出手段により検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角撮像部の光軸を検出する光軸検出手段と、
前記光軸検出手段により検出された前記光軸と、前記記憶手段に記憶された前記複数の格子点の、三次元空間上での位置と、前記広角画像上での位置とに基づいて、前記広角画像の歪みを補正するための較正情報を算出する較正情報算出手段と、
を備えることを特徴とする。
In order to achieve the above object, a calibration information calculating apparatus according to the second aspect of the present invention provides:
A calibration image for calculating a plurality of grid points arranged at predetermined intervals is displayed on a display unit surrounding the wide-angle imaging unit, and a wide-angle image obtained by capturing the calibration image by the wide-angle imaging unit is acquired and acquired. Based on the wide-angle image and the calibration image displayed on the display unit, the position of the plurality of grid points in the three-dimensional space and the position on the wide-angle image are associated with each other in the storage unit. Grid point detection means for storing;
An optical axis detection means for extracting a plurality of straight lines based on a plurality of lattice points detected by the lattice point detection means, and detecting an optical axis of the wide-angle imaging unit based on intersections of the plurality of straight lines;
Based on the optical axis detected by the optical axis detection means, the position on the three-dimensional space of the plurality of lattice points stored in the storage means, and the position on the wide-angle image, Calibration information calculating means for calculating calibration information for correcting distortion of the wide-angle image;
It is characterized by providing.

上記目的を達成するため、本発明の第3の観点に係る広角画像処理装置は、
互いに所定の間隔で配列する複数の格子点を算出するための較正画像を広角撮像部を取り囲む表示部に表示させるとともに、前記広角撮像部によって前記較正画像を撮像させた広角画像を取得し、取得した前記広角画像と前記表示部に表示させた前記較正画像とに基づいて、前記複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて記憶手段に記憶する格子点検出手段と、
前記格子点検出手段により検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角撮像部の光軸を検出する光軸検出手段と、
前記光軸検出手段により検出された前記光軸と、前記記憶手段に記憶された前記複数の格子点の、三次元空間上での位置と、前記広角画像上での位置とに基づいて、前記広角画像の歪みを補正するための較正情報を算出する較正情報算出手段と、
前記広角撮像部に撮像させた広角画像を、前記較正情報算出手段により算出された較正情報に基づいて補正する広角画像補正手段と、
を備えることを特徴とする。
In order to achieve the above object, a wide-angle image processing device according to the third aspect of the present invention provides:
A calibration image for calculating a plurality of grid points arranged at predetermined intervals is displayed on a display unit surrounding the wide-angle imaging unit, and a wide-angle image obtained by capturing the calibration image by the wide-angle imaging unit is acquired and acquired. Based on the wide-angle image and the calibration image displayed on the display unit, the position of the plurality of grid points in the three-dimensional space and the position on the wide-angle image are associated with each other in the storage unit. Grid point detection means for storing;
An optical axis detection means for extracting a plurality of straight lines based on a plurality of lattice points detected by the lattice point detection means, and detecting an optical axis of the wide-angle imaging unit based on intersections of the plurality of straight lines;
Based on the optical axis detected by the optical axis detection means, the position on the three-dimensional space of the plurality of lattice points stored in the storage means, and the position on the wide-angle image, Calibration information calculating means for calculating calibration information for correcting distortion of the wide-angle image;
Wide-angle image correction means for correcting a wide-angle image captured by the wide-angle imaging unit based on calibration information calculated by the calibration information calculation means;
It is characterized by providing.

本発明によれば、広角画像の歪みを高精度に補正することが可能な較正情報算出方法、較正情報算出装置、及びその方法により算出された較正情報に基づいて広角画像を補正する広角画像処理装置を提供できる。   According to the present invention, a calibration information calculation method and a calibration information calculation device capable of correcting distortion of a wide-angle image with high accuracy, and a wide-angle image process for correcting a wide-angle image based on the calibration information calculated by the method. Equipment can be provided.

本発明の実施形態に係る広角画像表示装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a wide-angle image display device according to an embodiment of the present invention. 広角撮像部の一例を示す図である。It is a figure which shows an example of a wide angle imaging part. (a)は補正前、(b)は補正後の広角画像の一例を示す図である。(A) is a figure before correction | amendment, (b) is a figure which shows an example of the wide-angle image after correction | amendment. 較正画像表示部の一例を示す図である。It is a figure which shows an example of a calibration image display part. 制御部の機能を示すブロック図である。It is a block diagram which shows the function of a control part. (a)〜(c)は、較正画像の水平縞状パターンの例、(d)〜(f)は較正画像の垂直縞状パターンの例を示す図である。(A)-(c) is a figure which shows the example of the horizontal stripe pattern of a calibration image, (d)-(f) is a figure which shows the example of the vertical stripe pattern of a calibration image. 座標変換を説明するための図である。It is a figure for demonstrating coordinate transformation. rとr’の関係式を導出するための図である。It is a figure for deriving the relational expression of r and r '. 本実施形態に係る広角画像処理装置が、広角画像を較正する動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement which the wide angle image processing apparatus which concerns on this embodiment calibrates a wide angle image. 本実施形態に係る広角画像処理装置が、較正情報を取得する動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement which the wide angle image processing apparatus which concerns on this embodiment acquires calibration information. (a)は水平縞状パターンを撮像した場合の入力画像の一例を示す図、(b)は垂直縞状パターンを撮像した場合の入力画像の一例を示す図、(c)は(a)及び(b)から抽出される格子点を示す図、(d)は三次元表示された格子点を示す図である。(A) is a figure which shows an example of the input image at the time of imaging a horizontal stripe pattern, (b) is a figure which shows an example of the input image at the time of imaging a vertical stripe pattern, (c) is (a) and The figure which shows the lattice point extracted from (b), (d) is a figure which shows the lattice point displayed three-dimensionally. (a)及び(b)は画像中心点の検出方法を説明するための図である。(A) And (b) is a figure for demonstrating the detection method of an image center point. 光軸の検出方法を説明するための図である。It is a figure for demonstrating the detection method of an optical axis. (a)及び(b)は仰角と頂点の位置の算出方法を説明するための図である。(A) And (b) is a figure for demonstrating the calculation method of an elevation angle and the position of a vertex. 較正情報DBの一例を示す図である。It is a figure which shows an example of calibration information DB. 本実施形態に係る広角画像処理装置が、広角画像を補正する動作を説明するためのフローチャートである。5 is a flowchart for explaining an operation in which the wide-angle image processing apparatus according to the present embodiment corrects a wide-angle image. (a)及び(b)は較正画像表示部の変形例を示す図である。(A) And (b) is a figure which shows the modification of a calibration image display part.

以下に本発明の実施形態を図を参照して説明する。図1は、本実施形態に係る広角画像処理装置1の概略構成を示すブロック図である。本実施形態に係る広角画像処理装置1は、図1に示すように、広角撮像部110と、較正画像表示部120と、広角画像表示部130と、操作部140と、制御部150と、から構成される。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a wide-angle image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, the wide-angle image processing apparatus 1 according to the present embodiment includes a wide-angle imaging unit 110, a calibration image display unit 120, a wide-angle image display unit 130, an operation unit 140, and a control unit 150. Composed.

広角撮像部110は、広角な視野の画像である広角画像を撮像するものである。広角撮像部110は、例えば図2に示すように、反射面113(曲面ミラー)を有する広角レンズ111と、CCD(Charged Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の周知の撮像素子112とを含む。広角撮像部110は、広角レンズ111に入射する入射光を、曲面ミラー113による反射と入射面及び出射面における屈折とによって、撮像素子112の撮像面に投影する。撮像素子112は、撮像面に投影された画像を制御部150に出力する。また、後述する較正情報取得処理において、広角撮像部110は、例えば図4に示すように配置された較正画像表示部120の内側に配置され、較正画像表示部120に表示された較正画像を撮像する。   The wide-angle imaging unit 110 captures a wide-angle image that is an image with a wide-angle visual field. For example, as shown in FIG. 2, the wide-angle imaging unit 110 includes a wide-angle lens 111 having a reflecting surface 113 (curved mirror), a known imaging device 112 such as a CCD (Charged Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor). including. The wide-angle imaging unit 110 projects incident light incident on the wide-angle lens 111 onto the imaging surface of the imaging device 112 by reflection by the curved mirror 113 and refraction at the entrance surface and the exit surface. The image sensor 112 outputs an image projected on the imaging surface to the control unit 150. Further, in the calibration information acquisition process described later, the wide-angle imaging unit 110 is arranged inside the calibration image display unit 120 arranged as shown in FIG. 4, for example, and captures the calibration image displayed on the calibration image display unit 120. To do.

図3(a)に、広角撮像部110により撮像された広角画像の一例を示す。一般に、円錐形状等の曲面ミラーを有する広角レンズを利用して撮像された広角画像は、図3(a)に示す広角画像A1のような環状である。また、像a1は、正方形の面を広角撮像装置110により撮像した像であり、正方形の各辺が広角レンズによる歪みにより曲線に変形している。また、図3(b)に示す広角画像A2は、後述する広角画像補正処理により補正された広角画像である。広角画像A2中の像a2では、図3(a)に示す像a1の歪んだ正方形の各辺が、直線に補正されて表示される。以下、広角撮像部110により撮像された補正前の広角画像を「入力画像」、補正後の広角画像を「出力画像」と呼ぶ。   FIG. 3A shows an example of a wide angle image captured by the wide angle imaging unit 110. In general, a wide-angle image captured using a wide-angle lens having a curved mirror having a conical shape or the like has a ring shape like a wide-angle image A1 shown in FIG. The image a1 is an image obtained by capturing a square surface with the wide-angle imaging device 110, and each side of the square is deformed into a curve due to distortion by the wide-angle lens. A wide-angle image A2 shown in FIG. 3B is a wide-angle image corrected by a wide-angle image correction process described later. In the image a2 in the wide-angle image A2, each side of the distorted square of the image a1 shown in FIG. 3A is corrected to a straight line and displayed. Hereinafter, the uncorrected wide-angle image captured by the wide-angle imaging unit 110 is referred to as an “input image”, and the corrected wide-angle image is referred to as an “output image”.

較正画像表示部120は、制御部150が出力する較正画像を表示するものである。較正画像表示部120は、図4に示すように、例えばLCD(Liquid Crystal Display)から構成される3つの平面ディスプレイ121(121a、121b、121c)が広角撮像部110を取り囲むように三角柱状に組み合わされて構成され、制御部150からの指示により、それぞれ個別に較正画像を表示する。較正画像については後述する。   The calibration image display unit 120 displays a calibration image output from the control unit 150. As shown in FIG. 4, the calibration image display unit 120 is combined in a triangular prism shape so that, for example, three flat displays 121 (121 a, 121 b, 121 c) composed of an LCD (Liquid Crystal Display) surround the wide-angle imaging unit 110. In accordance with an instruction from the control unit 150, the calibration images are individually displayed. The calibration image will be described later.

広角画像表示部130は、制御部150が出力する出力画像を表示するものである。広角画像表示部130は、例えばLCD(Liquid Crystal Display)から構成され、制御部150からの指示により、出力画像を表示する。   The wide-angle image display unit 130 displays an output image output from the control unit 150. The wide-angle image display unit 130 is composed of, for example, an LCD (Liquid Crystal Display), and displays an output image according to an instruction from the control unit 150.

操作部140は、ユーザの操作により、動作モード信号を制御部150に出力する。ここで、動作モード信号は、後述する広角画像較正処理において較正情報算出処理を実行するか、または広角画像補正処理を実行するかを判別するための信号であって、広角画像補正処理を実行する広角画像補正モード信号と、較正情報取得処理を実行する較正情報取得モード信号とを含む。   The operation unit 140 outputs an operation mode signal to the control unit 150 by a user operation. Here, the operation mode signal is a signal for determining whether the calibration information calculation process or the wide-angle image correction process is executed in the later-described wide-angle image calibration process, and the wide-angle image correction process is executed. A wide-angle image correction mode signal and a calibration information acquisition mode signal for executing a calibration information acquisition process are included.

制御部150は、広角撮像部110が出力する入力画像に基づいて、広角歪みを補正するための較正情報を取得し、また取得された較正情報に基づいて入力画像を補正するものである。制御部150は、いわゆるマイクロコンピュータから構成され、図1に示すように、CPU(Central Processing Unit)151と、ROM(Read-Only Memory)152と、汎用メモリ153と、ビデオメモリ154と、外部デバイスインターフェイス(I/F)155と、較正情報DB(データベース)156とを備える。CPU151は、ROM152内に予め記憶された後述する広角画像較正処理のための所定プログラムを読み出し、実行する。そしてCPU151は、広角撮像部110から取得した入力画像、広角画像較正処理後の出力画像、及び演算結果等を汎用メモリ153に一時的に記憶する。また、CPU151は、汎用メモリ153に記憶された出力画像をビデオメモリ154に転送し、広角画像表示部130に出力する。また、広角撮像部110、較正画像表示部120、広角画像表示部130、及び操作部140は、外部デバイスI/F155を介して、制御部150の各部と接続されている。   The control unit 150 acquires calibration information for correcting wide-angle distortion based on the input image output from the wide-angle imaging unit 110, and corrects the input image based on the acquired calibration information. The control unit 150 includes a so-called microcomputer, and as shown in FIG. 1, a CPU (Central Processing Unit) 151, a ROM (Read-Only Memory) 152, a general-purpose memory 153, a video memory 154, and an external device An interface (I / F) 155 and a calibration information DB (database) 156 are provided. The CPU 151 reads and executes a predetermined program for a wide-angle image calibration process, which will be described later, stored in advance in the ROM 152. The CPU 151 temporarily stores the input image acquired from the wide-angle imaging unit 110, the output image after the wide-angle image calibration process, the calculation result, and the like in the general-purpose memory 153. In addition, the CPU 151 transfers the output image stored in the general-purpose memory 153 to the video memory 154 and outputs it to the wide-angle image display unit 130. Further, the wide-angle imaging unit 110, the calibration image display unit 120, the wide-angle image display unit 130, and the operation unit 140 are connected to each unit of the control unit 150 via the external device I / F 155.

較正情報DB156は、ハードディスク等の書き換え可能な記憶装置から構成され、広角撮像部110が撮像した広角画像の歪みを補正するための較正情報を記憶する。較正情報については、後述する。   The calibration information DB 156 includes a rewritable storage device such as a hard disk, and stores calibration information for correcting distortion of the wide-angle image captured by the wide-angle imaging unit 110. The calibration information will be described later.

次に本実施形態の広角画像処理装置1の制御部150が機能する処理について説明する。制御部150は、図5に示すように、格子点検出部150aと、画像中心検出部150bと、光軸検出部150cと、較正情報算出部150dと、広角画像補正部150eと、として機能する。   Next, a process in which the control unit 150 of the wide-angle image processing apparatus 1 according to the present embodiment functions will be described. As shown in FIG. 5, the control unit 150 functions as a lattice point detection unit 150a, an image center detection unit 150b, an optical axis detection unit 150c, a calibration information calculation unit 150d, and a wide-angle image correction unit 150e. .

格子点検出部150aは、較正画像表示部120の平面ディスプレイ121に表示させた較正画像を広角撮像部110によって撮像させた広角画像(入力画像)を取得し、入力画像と平面ディスプレイ121に表示させた較正画像とに基づいて、較正画像から算出される複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて、例えば汎用メモリ153といった記憶手段に記憶するものとして機能する。ここで、較正画像は、互いに所定の間隔で配列する複数の格子点を算出するための画像である。本実施形態では、格子点検出部150aは、周知の三次元計測技術である空間コード化法の原理を用いて上記の処理を行う(参考文献1;井口正志,佐藤宏介,“3次元画像計測”,昭晃堂,(1990))。   The lattice point detection unit 150a acquires a wide-angle image (input image) obtained by capturing the calibration image displayed on the flat display 121 of the calibration image display unit 120 by the wide-angle imaging unit 110, and displays the input image and the flat display 121 on the input image. Based on the obtained calibration image, the position in the three-dimensional space and the position in the wide-angle image of the plurality of lattice points calculated from the calibration image are associated with each other and stored in a storage unit such as the general-purpose memory 153, for example. It functions as something to do. Here, the calibration image is an image for calculating a plurality of grid points arranged at predetermined intervals. In the present embodiment, the lattice point detection unit 150a performs the above processing using the principle of the spatial coding method which is a well-known three-dimensional measurement technique (reference document 1; Masashi Iguchi, Kosuke Sato, “3D image measurement”). "Akiyodo, (1990)).

具体的には、格子点検出部150aは、複数のパターンを有する較正画像の各パターンについて広角撮像部110によって撮像させた広角画像を取得し、取得した複数のパターンの広角画像に基づいて複数の格子点を算出する。そして、算出された複数の格子点に対応する、平面ディスプレイ121に表示された較正画像の複数のパターンから算出される複数の格子点の3次元空間上における位置を算出する。図6(a)〜(f)に較正画像の例を示す。図6に示すように、本実施形態における較正画像は、所定の明度よりも高い(例えば白い)明領域と所定の明度よりも低い(例えば黒い)暗領域とが垂直方向に交互に並べられる図6(a)〜(c)に示すような水平縞状パターンと、明領域と暗領域とが水平方向に交互に並べられる図6(d)〜(f)に示すような垂直縞状パターンとから構成される。そして、図6(a)〜(c)の水平縞状パターンと、図6(d)〜(f)の垂直縞状パターンにおいて、その明領域と暗領域は、そのピッチが倍々に変化するように配置される。格子点検出部150aは、較正画像を平面ディスプレイ121に表示させる。そして、格子点検出部150aは、周知の画像処理技術であるエッジ検出により、入力画像上の水平縞状パターンと垂直縞状パターンにおける明領域と暗領域の境界交点を格子点として検出する。そして、入力画像上での格子点の位置と、空間コード化法の原理を用いて求められた三次元空間上での格子点の位置とを対応付けて記憶する。   Specifically, the lattice point detection unit 150a acquires a wide-angle image captured by the wide-angle imaging unit 110 for each pattern of the calibration image having a plurality of patterns, and a plurality of the plurality of patterns based on the acquired wide-angle images. Calculate grid points. And the position in the three-dimensional space of the some grid point calculated from the some pattern of the calibration image displayed on the flat display 121 corresponding to the calculated some grid point is calculated. FIGS. 6A to 6F show examples of calibration images. As shown in FIG. 6, the calibration image in the present embodiment is a diagram in which bright areas higher than a predetermined brightness (for example, white) and dark areas lower than a predetermined brightness (for example, black) are alternately arranged in the vertical direction. 6 (a) to 6 (c), and a vertical stripe pattern as shown in FIGS. 6 (d) to 6 (f) in which bright areas and dark areas are alternately arranged in the horizontal direction. Consists of In the horizontal stripe pattern of FIGS. 6A to 6C and the vertical stripe pattern of FIGS. 6D to 6F, the pitches of the bright area and the dark area change twice. Placed in. The lattice point detection unit 150a displays the calibration image on the flat display 121. The lattice point detection unit 150a detects a boundary intersection between a bright region and a dark region in the horizontal stripe pattern and the vertical stripe pattern on the input image as a lattice point by edge detection which is a well-known image processing technique. Then, the position of the lattice point on the input image and the position of the lattice point on the three-dimensional space obtained by using the principle of the spatial coding method are stored in association with each other.

図5に戻って、画像中心検出部150bは、格子点検出部150aにより検出された複数の格子点に基づいて複数の直線を抽出し、抽出された複数の直線の交点に基づいて、入力画像の画像中心点を検出するものとして機能する。本実施形態では、画像中心検出部150bは、周知のデジタル画像処理技術であるHough変換により、3次元空間上において垂直方向に一直線上に並ぶ格子点の複数の集合から、各集合に対応する複数の直線を入力画像上から抽出する(参考文献2;“ディジタル画像処理”,CG−ARTS協会,(2006))。そして、周知の交点検出方法である最小2乗法により、それらの直線の交点を入力画像の環状領域の中心点として検出する。   Returning to FIG. 5, the image center detection unit 150 b extracts a plurality of straight lines based on the plurality of grid points detected by the grid point detection unit 150 a, and inputs the input image based on the intersections of the extracted plurality of straight lines. Functions to detect the image center point. In the present embodiment, the image center detection unit 150b uses a Hough transform, which is a well-known digital image processing technique, to select a plurality of grid points corresponding to each set from a plurality of sets of grid points aligned in a straight line in a three-dimensional space. Is extracted from the input image (Reference Document 2: “Digital Image Processing”, CG-ARTS Association, (2006)). Then, the intersection of these straight lines is detected as the center point of the annular region of the input image by the least square method which is a well-known intersection detection method.

光軸検出部150cは、画像中心検出部150bにより抽出された複数の直線の交点に基づいて、広角撮像部110の光軸を検出するものとして機能する。具体的には、画像中心検出部150bにより抽出された複数の直線に対応するそれぞれの格子点の集合は、実際の3次元空間上において、平面ディスプレイ121に表示される較正画像と交差する平面上にある。これらの平面から、周知の最小二乗法により、1つの交線を光軸として算出する。このような手法を用いることにより、撮像素子面と光軸とが垂直に交わらない場合においても光軸を算出することができる。なお、撮像素子面と光軸とが垂直に交わることを前提とする場合には、画像中心検出部150bにおいて検出された画像中心点を通り、撮像素子面と垂直な直線を光軸として算出してもよい。   The optical axis detection unit 150c functions as a unit that detects the optical axis of the wide-angle imaging unit 110 based on the intersection of a plurality of straight lines extracted by the image center detection unit 150b. Specifically, each set of lattice points corresponding to a plurality of straight lines extracted by the image center detection unit 150b is on a plane that intersects the calibration image displayed on the flat display 121 in the actual three-dimensional space. It is in. From these planes, one intersection line is calculated as an optical axis by a known least square method. By using such a method, the optical axis can be calculated even when the imaging element surface and the optical axis do not intersect perpendicularly. When it is assumed that the image sensor surface and the optical axis intersect perpendicularly, a straight line that passes through the image center point detected by the image center detection unit 150b and is perpendicular to the image sensor surface is calculated as the optical axis. May be.

較正情報算出部150dは、光軸検出部150cにより検出された光軸と、格子点検出部150aにより記憶された複数の格子点の、三次元空間上での位置と、入力画像上での位置と、に基づいて、較正情報を算出するものとして機能する。本実施形態では、較正情報算出部150dは、光軸検出部151cで検出された光軸と、入力画像上の画像中心点から所定の半径の円周上にある格子点の3次元空間上での座標とに基づいて、1つの円錐を抽出し、その円錐から較正情報として該所定の半径に対応する光線の入射角と円錐の頂点の位置を算出する。また、較正情報算出部150dは、算出された較正情報を該所定の半径と対応付けて較正情報DB156に記憶する。   The calibration information calculation unit 150d includes the optical axis detected by the optical axis detection unit 150c, the position of the plurality of grid points stored by the grid point detection unit 150a in the three-dimensional space, and the position on the input image. And function as calculating calibration information. In this embodiment, the calibration information calculation unit 150d is on a three-dimensional space of the optical axis detected by the optical axis detection unit 151c and lattice points on the circumference of a predetermined radius from the image center point on the input image. Is extracted from the cone, and the incident angle of the light beam corresponding to the predetermined radius and the position of the apex of the cone are calculated from the cone as calibration information. The calibration information calculation unit 150d stores the calculated calibration information in the calibration information DB 156 in association with the predetermined radius.

広角画像補正部150eは、較正情報DB156に記憶された較正情報に基づいて、広角撮像部110から取得した入力画像を補正し、補正後の入力画像である出力画像を広角画像表示部130に出力するものとして機能する。   The wide-angle image correction unit 150e corrects the input image acquired from the wide-angle imaging unit 110 based on the calibration information stored in the calibration information DB 156, and outputs an output image that is the corrected input image to the wide-angle image display unit 130. It functions as something to do.

次に、制御部150のCPU151が実行する広角画像較正処理について説明する。   Next, the wide-angle image calibration process executed by the CPU 151 of the control unit 150 will be described.

まず、本実施形態における制御部150のCPU151が実行する広角画像較正処理の概要について説明する。CPU151が補正を行う対象は、広角撮像部110から取得した入力画像であり、この入力画像は、図7に示すようなM行N列の輝度値デジタルデータの配列である。なお、補正後の出力画像も、同様の形式であるとする。広角画像補正処理では、図7に示すように規定されたx−y座標系における補正前の輝度値データI(x、y)を、後述する座標変換により算出された座標(x’、y’)に下記式で示すように置き換えて、補正後の輝度値データI’(x、y)を算出する。ここで、輝度値I及びI’は、0、1、…、Imaxの値を取るものとする。

Figure 2011101265

この置き換えを入力画像の全画素について実行する、すなわちx=0,1,2,…,N−1、y=0,1,2,…,M−1について反復実行することで出力画像を取得することができる。 First, an outline of the wide-angle image calibration process executed by the CPU 151 of the control unit 150 in the present embodiment will be described. An object to be corrected by the CPU 151 is an input image acquired from the wide-angle imaging unit 110, and this input image is an array of luminance value digital data of M rows and N columns as shown in FIG. It is assumed that the corrected output image has the same format. In the wide-angle image correction process, the luminance value data I (x, y) before correction in the xy coordinate system defined as shown in FIG. 7 is converted into coordinates (x ′, y ′) calculated by coordinate transformation described later. ) To obtain the corrected luminance value data I ′ (x, y). Here, the luminance values I and I 'is 0, 1, ..., shall take the value of I max.
Figure 2011101265

This replacement is executed for all the pixels of the input image, that is, the output image is obtained by repeatedly executing x = 0, 1, 2,..., N−1, y = 0, 1, 2,. can do.

次に、具体的な座標変換方法について図7及び図8を用いて説明する。例えば、図7に示すように、入力画像上の画素b1の輝度値が、座標変換後に画素b2の輝度値に置き換えられる場合を考える。ここで、画素b1及びb2の座標をそれぞれ(x、y)及び(x’、y’)とすると、それらの関係は下記式で与えられる。

Figure 2011101265

ここで、r、r’、θは、それぞれ後述する広角画像較正処理において算出される画像中心c(x、y)から画素b1までの距離、画像中心c(x、y)から画素b2までの距離、画像中心c(x、y)から画素b1又はb2へ引いた線分とx軸との成す角度(反時計回りを正方向とする)である。また、変換関数fは、rとr’の関係を表す関数であり、以下に具体的な算出方法を説明する。
図8に示すように、広角撮像部110が、基準面dからzの高さに設置されたとする。基準面d上の点Bの像が広角画像上で画素b1に対応し、点Bと広角撮像部110の光軸との距離がRである場合、rとr’の関係は下記式で表される。
Figure 2011101265

ここで、α(r)とz(r)は、それぞれ、広角撮像部110に対して入射する光線の角度と、広角撮像部110の基準点からの高さのオフセット値であり、後述する較正情報取得処理によってrと一対一に対応する値が算出され、較正情報DB156に記憶される。また、kは、長さの単位変換を行う定数である。従って、広角画像較正処理において、較正情報取得処理では、較正情報DB156の仰角α(r)と高さのオフセット値z(r)とを算出し、広角画像補正処理では、較正情報取得処理で算出されたα(r)とz(r)に基づいて上記の式からI’(x、y)を算出し、歪補正を実行する。 Next, a specific coordinate conversion method will be described with reference to FIGS. For example, as shown in FIG. 7, consider a case where the luminance value of the pixel b1 on the input image is replaced with the luminance value of the pixel b2 after coordinate conversion. Here, assuming that the coordinates of the pixels b1 and b2 are (x, y) and (x ′, y ′), respectively, their relationship is given by the following equation.
Figure 2011101265

Here, r, r ′, and θ are respectively the distance from the image center c (x 0 , y 0 ) to the pixel b 1 calculated in the later-described wide-angle image calibration process, and the image center c (x 0 , y 0 ). The distance to the pixel b2 is the angle formed by the line drawn from the image center c (x 0 , y 0 ) to the pixel b1 or b2 and the x axis (counterclockwise is the positive direction). The conversion function f is a function representing the relationship between r and r ′, and a specific calculation method will be described below.
As shown in FIG. 8, the wide-angle imaging unit 110, and installed in the height z h from the reference plane d. When the image of the point B on the reference plane d corresponds to the pixel b1 on the wide-angle image and the distance between the point B and the optical axis of the wide-angle imaging unit 110 is R, the relationship between r and r ′ is expressed by the following equation. Is done.
Figure 2011101265

Here, α (r) and z 0 (r) are the angle of light incident on the wide-angle imaging unit 110 and the offset value of the height from the reference point of the wide-angle imaging unit 110, which will be described later. A value corresponding to r on a one-to-one basis is calculated by the calibration information acquisition process and stored in the calibration information DB 156. K is a constant for performing unit conversion of length. Therefore, in the wide-angle image calibration process, the calibration information acquisition process calculates the elevation angle α (r) and the height offset value z 0 (r) of the calibration information DB 156, and the wide-angle image correction process uses the calibration information acquisition process. Based on the calculated α (r) and z 0 (r), I ′ (x, y) is calculated from the above formula, and distortion correction is executed.

次に、本実施形態における制御部151の広角画像較正処理のフローチャートの一例を図9を用いて説明する。広角画像較正処理は、例えばユーザが広角画像処理装置1の電源をオンする等の操作により、制御部150のCPU151に電源供給されることにより開始する。   Next, an example of a flowchart of the wide-angle image calibration process of the control unit 151 in the present embodiment will be described with reference to FIG. The wide-angle image calibration process is started when power is supplied to the CPU 151 of the control unit 150, for example, by a user turning on the power of the wide-angle image processing apparatus 1 or the like.

制御部150は、操作部140から動作モード信号を受信したか否かを判別する(ステップS11)。制御部150は、動作モード信号を受信していないと判別した場合(ステップS11;No)、動作モード信号を受信するまで、待ち状態となる。   The controller 150 determines whether an operation mode signal has been received from the operation unit 140 (step S11). When it is determined that the operation mode signal has not been received (step S11; No), the control unit 150 is in a waiting state until the operation mode signal is received.

制御部150は、動作モード信号を受信したと判別した場合(ステップS11;Yes)、受信した動作モード信号が、較正情報取得モード信号か否かを判別する(ステップS12)。   When determining that the operation mode signal has been received (step S11; Yes), the controller 150 determines whether the received operation mode signal is a calibration information acquisition mode signal (step S12).

制御部150は、受信した動作モード信号が較正情報取得モード信号であると判別した場合(ステップS12;Yes)、較正情報取得処理を実行する(ステップS13)。また、制御部150は、受信した動作モード信号が較正情報取得モードを示す信号ではない、すなわち広角画像補正モード信号であると判別した場合(ステップS12;No)、広角画像補正処理を実行する(ステップS14)。   When it is determined that the received operation mode signal is a calibration information acquisition mode signal (step S12; Yes), the control unit 150 executes a calibration information acquisition process (step S13). In addition, when it is determined that the received operation mode signal is not a signal indicating the calibration information acquisition mode, that is, the wide-angle image correction mode signal (step S12; No), the control unit 150 executes a wide-angle image correction process ( Step S14).

次に、制御部150のCPU151が実行する較正情報取得処理について図10を用いて説明する。   Next, calibration information acquisition processing executed by the CPU 151 of the control unit 150 will be described with reference to FIG.

格子点検出部150aは、較正画像表示部120の平面ディスプレイ121に、較正画像である複数の水平縞状パターンを表示させ、各パターンについて広角撮像部110により撮像する(ステップS21)。具体的には、例えば、格子点検出部150aは、図6(a)〜(c)に示すような水平縞状パターンを順に各平面ディスプレイ121に表示する。そして、各パターンについて広角撮像部110により撮像し、汎用メモリ153に記憶する。図11(a)に、広角撮像部110により撮像された水平縞状パターンの入力画像の一例を示す。図11(a)に示す入力画像e1は、図6(b)のように1枚の平面ディスプレイ121に表示された水平縞状パターンを撮像した場合の入力画像である。図に示すように、入力画像e1において、水平縞状パターンの明領域と暗領域は同心円上に交互に並んで位置する。   The lattice point detection unit 150a causes the flat display 121 of the calibration image display unit 120 to display a plurality of horizontal stripe patterns that are calibration images, and the wide-angle imaging unit 110 captures each pattern (step S21). Specifically, for example, the lattice point detection unit 150a sequentially displays horizontal stripe patterns as shown in FIGS. Each pattern is imaged by the wide-angle imaging unit 110 and stored in the general-purpose memory 153. FIG. 11A shows an example of an input image of a horizontal stripe pattern imaged by the wide-angle imaging unit 110. An input image e1 illustrated in FIG. 11A is an input image when a horizontal stripe pattern displayed on one flat display 121 is captured as illustrated in FIG. 6B. As shown in the figure, in the input image e1, the bright areas and the dark areas of the horizontal stripe pattern are alternately arranged on a concentric circle.

格子点検出部150aは、較正画像表示部120の平面ディスプレイ121に、較正画像である複数の垂直縞状パターンを表示させ、各パターンについて広角撮像部110により撮像する(ステップS22)。具体的には、例えば、格子点検出部150aは、図6(d)〜(f)に示すような垂直縞状パターンを順に各平面ディスプレイ121に表示する。そして、各パターンについて広角撮像部110により撮像し、汎用メモリ153に記憶する。図11(b)に、広角撮像部110により撮像された垂直縞状パターンの入力画像の一例を示す。図11(b)に示す入力画像e2は、図6(e)のように1枚の平面ディスプレイ121に表示された垂直縞状パターンを撮像した場合の入力画像である。図に示すように、入力画像e2において、垂直縞状パターンの明領域と暗領域は円周方向に交互に並んで位置する。   The lattice point detection unit 150a causes the flat display 121 of the calibration image display unit 120 to display a plurality of vertical stripe patterns that are calibration images, and the wide-angle imaging unit 110 captures each pattern (step S22). Specifically, for example, the lattice point detection unit 150a displays vertical stripe patterns as illustrated in FIGS. 6D to 6F on each flat display 121 in order. Each pattern is imaged by the wide-angle imaging unit 110 and stored in the general-purpose memory 153. FIG. 11B shows an example of an input image of a vertical stripe pattern imaged by the wide-angle imaging unit 110. An input image e2 illustrated in FIG. 11B is an input image when a vertical stripe pattern displayed on one flat display 121 is captured as illustrated in FIG. As shown in the figure, in the input image e2, the bright areas and the dark areas of the vertical stripe pattern are positioned alternately in the circumferential direction.

次に格子点検出部150aは、周知の画像技術処理であるエッジ検出により、撮像された複数の入力画像の水平縞状パターン像と垂直縞状パターン像における明領域と暗領域の境界交点を格子点として、入力画像上の格子点の座標を算出する(ステップS23)。例えば、図11(a)に示す水平縞状パターンの入力画像e1と、図11(b)に示す垂直縞状パターンの入力画像e2を取得した場合、図11(c)に示す複数の格子点gの座標を算出する。   Next, the grid point detection unit 150a grids the boundary intersections of the bright region and the dark region in the horizontal striped pattern image and the vertical striped pattern image of the plurality of input images captured by edge detection which is a well-known image technology process. As points, the coordinates of lattice points on the input image are calculated (step S23). For example, when the input image e1 of the horizontal stripe pattern shown in FIG. 11A and the input image e2 of the vertical stripe pattern shown in FIG. 11B are acquired, a plurality of grid points shown in FIG. Calculate the coordinates of g.

そして格子点検出部150aは、周知の三次元計測技術である空間コード化法の原理を用いて、ステップS23で算出された入力画像上の格子点の3次元空間上での座標を算出し、各格子点について入力画像上の座標と3次元空間上の座標とを対応付けて記憶する(ステップS24)。図11(d)に、実験例として、格子点をステップS24で算出された三次元空間上での座標に基づいて三次元表示した図を示す。図11(d)における十字は、抽出された格子点を示す。   The lattice point detection unit 150a calculates the coordinates of the lattice point on the input image calculated in step S23 in the three-dimensional space using the principle of the spatial coding method that is a well-known three-dimensional measurement technique. For each grid point, the coordinates on the input image and the coordinates on the three-dimensional space are stored in association with each other (step S24). FIG. 11D shows, as an experimental example, a three-dimensional display of lattice points based on the coordinates in the three-dimensional space calculated in step S24. A cross in FIG. 11D indicates the extracted lattice points.

次に画像中心検出部150bは、ステップS23で算出された入力画像上の格子点に基づいて、入力画像中心点cの座標を算出する(ステップS25)。例えば、図12(a)に示すような格子点が算出された場合、Hough変換により、3次元空間において垂直方向に一直線上に並ぶ格子点の複数の集合から、入力画像上において一直線上に位置する2つの集合h1、h2を抽出する。そして、集合h1、h2の格子点を通る直線hを抽出する。同様にして、2つの集合l1、l2と、集合l1、l2の格子点を通る直線lを抽出する。そして、直線hと直線lから、例えば最小二乗法により直線hと直線lの交点を入力画像の中心点cとしてその座標(x、y)を求める。画像中心検出部150bは、算出された画像中心点cの座標を較正情報DB156に記憶する。なお、図12(b)に入力画像から画像中心点を検出する実験例を表す図を示す。図12(b)における十字は、入力画像上において抽出された格子点を示す。図12(b)では、3本の直線が抽出され、それらの交点から画像中心点が検出されることがわかる。 Next, the image center detection unit 150b calculates the coordinates of the input image center point c based on the lattice points on the input image calculated in step S23 (step S25). For example, when lattice points as shown in FIG. 12 (a) are calculated, the positions on the input image are determined from a plurality of lattice points arranged in a straight line in the vertical direction in the three-dimensional space by the Hough transform. Two sets h1 and h2 are extracted. Then, a straight line h passing through the lattice points of the sets h1 and h2 is extracted. Similarly, two sets l1 and l2 and a straight line l passing through the lattice points of the sets l1 and l2 are extracted. Then, the coordinates (x 0 , y 0 ) are obtained from the straight line h and the straight line 1 by using, for example, the intersection of the straight line h and the straight line 1 as the center point c of the input image by the method of least squares. The image center detection unit 150b stores the calculated coordinates of the image center point c in the calibration information DB 156. FIG. 12B shows an example of an experiment for detecting the image center point from the input image. Crosses in FIG. 12B indicate lattice points extracted on the input image. In FIG. 12B, it can be seen that three straight lines are extracted, and the image center point is detected from their intersection.

次に、光軸検出部150cは、ステップS25で抽出された直線上にある格子点の集合から、光軸Oを算出する(ステップS26)。具体的には、図12(a)及び図13に示すように、ステップS25で抽出された直線h、lに対応する格子点の集合は、実際の3次元空間上において、較正画像と交差する平面H及びL上にある。これらの平面から最小二乗法により1つの交線を光軸Oとして算出する。   Next, the optical axis detection unit 150c calculates the optical axis O from the set of lattice points on the straight line extracted in step S25 (step S26). Specifically, as shown in FIGS. 12A and 13, the set of lattice points corresponding to the straight lines h and l extracted in step S25 intersects the calibration image in the actual three-dimensional space. On planes H and L. From these planes, one intersection line is calculated as the optical axis O by the method of least squares.

次に、較正情報算出部150dは、較正情報を算出する。具体的には、例えば図14(a)に示すような入力画像、及びその格子点の座標を算出した場合について説明する。較正情報算出部150dは、r=rmin、…、rmaxにおいて、以下の処理を繰り返す。なお、rは画像中心点cから所定の画素までの距離を表し、rmin及びrmaxは、それぞれ入力画像の環状領域において、歪補正の対象となる最小半径と最大半径である。 Next, the calibration information calculation unit 150d calculates calibration information. Specifically, for example, an input image as shown in FIG. 14A and a case where the coordinates of the lattice points are calculated will be described. The calibration information calculation unit 150d repeats the following processing at r = r min ,..., R max . Note that r represents the distance from the image center point c to a predetermined pixel, and r min and r max are a minimum radius and a maximum radius that are distortion correction targets in the annular region of the input image, respectively.

まず、較正情報算出部150dは、入力画像上の半径r(rmin≦r≦rmax)の円周上に位置する格子点を抽出する(ステップS27)。具体的には、図14(a)に示すように、入力画像上の半径rの円pについて、円pの円周上に位置する格子点を抽出する。 First, the calibration information calculation unit 150d extracts grid points located on the circumference of the radius r (r min ≦ r ≦ r max ) on the input image (step S27). Specifically, as shown in FIG. 14A, for a circle p having a radius r on the input image, lattice points located on the circumference of the circle p are extracted.

そして、較正情報算出部150dは、ステップS27において抽出された格子点に対応する3次元空間上での格子点を周面上に含む円錐を抽出する(ステップS28)。具体的には、入力画像上の半径rの円pの円周は、3次元空間において図14(b)に示す3つの放物線P1〜P3に対応する。そして、入力画像上の半径rの円pの円周上にある格子点は、3次元空間における放物線P1〜P3上にある格子点に対応する。従って、放物線P1〜P3が較正画像との交線に対応する1つの仮想的な円錐Qが抽出される。   Then, the calibration information calculation unit 150d extracts a cone that includes lattice points on the circumferential surface in the three-dimensional space corresponding to the lattice points extracted in step S27 (step S28). Specifically, the circumference of a circle p having a radius r on the input image corresponds to three parabolas P1 to P3 shown in FIG. 14B in a three-dimensional space. The lattice points on the circumference of the circle p with the radius r on the input image correspond to the lattice points on the parabolas P1 to P3 in the three-dimensional space. Therefore, one virtual cone Q in which the parabolas P1 to P3 correspond to the intersection line with the calibration image is extracted.

そして、較正情報算出部150dは、ステップS23で算出された入力画像上の半径rの円周上にある格子点の座標に基づいて、周知の幾何学解析により、ステップS28で抽出された円錐Qの頂角、すなわち、図14(b)に示す頂点Qから見た仰角α(r)と頂点の位置z(r)を算出する(ステップS29)。較正情報算出部150dは、算出したα(r)とz(r)を半径rと対応付けて較正情報DB156に記憶する。図15に較正情報DBの一例を示す。そして、この処理をr=rmin、…、rmaxにおいて繰り返して、較正情報取得処理を終了し、図9のステップS11に進む。 Then, the calibration information calculation unit 150d uses the well-known geometric analysis based on the coordinates of the lattice points on the circumference of the radius r on the input image calculated in step S23 to extract the cone Q extracted in step S28. , That is, the elevation angle α (r) viewed from the vertex Q 0 shown in FIG. 14B and the vertex position z 0 (r) are calculated (step S29). The calibration information calculation unit 150d stores the calculated α (r) and z 0 (r) in the calibration information DB 156 in association with the radius r. FIG. 15 shows an example of the calibration information DB. Then, this process is repeated at r = r min ,..., R max to complete the calibration information acquisition process, and the process proceeds to step S11 in FIG.

次に制御部150のCPU151が実行する広角画像補正処理について図16を用いて説明する。   Next, wide-angle image correction processing executed by the CPU 151 of the control unit 150 will be described with reference to FIG.

広角画像補正部150eは、広角撮像部110により広角画像を撮像する(ステップS31)。   The wide-angle image correction unit 150e captures a wide-angle image with the wide-angle imaging unit 110 (step S31).

次に、広角画像補正部150eは、受信した広角画像(入力画像)の全ての画素について以下の処理を行う。一例として、入力画像は、図7に示すように、M行N列の輝度値デジタルデータの行列である場合について説明する。   Next, the wide-angle image correction unit 150e performs the following processing for all pixels of the received wide-angle image (input image). As an example, a case will be described in which the input image is a matrix of luminance value digital data of M rows and N columns, as shown in FIG.

広角画像補正部150eは、入力画像上の座標(x、y)=(i、j)に位置する画素について、式(5)と較正情報DB156に記憶された入力画像の中心点座標(x、y)を用いて(r、θ)を算出することにより、座標変換を行う(ステップS32)。ここで、0≦i≦N−1、0≦j≦M−1である。 The wide-angle image correction unit 150e calculates the center point coordinate (x 0 ) of the input image stored in the equation (5) and the calibration information DB 156 for the pixel located at the coordinate (x, y) = (i, j) on the input image. , Y 0 ) to calculate (r, θ) to perform coordinate conversion (step S32). Here, 0 ≦ i ≦ N−1 and 0 ≦ j ≦ M−1.

次に、広角画像補正部150eは、ステップS32で算出されたrに対応するα(r)とz(r)を較正情報DB156から取得し、rと入力画像の中心点座標(x、y)と、取得されたα(r)とz(r)を式(6)に代入することにより、r’を算出する(ステップS33)。 Next, the wide-angle image correcting unit 150e acquires α (r) and z 0 (r) corresponding to r calculated in step S32 from the calibration information DB 156, and r and the center point coordinates (x 0 , By substituting y 0 ), the acquired α (r) and z 0 (r) into equation (6), r ′ is calculated (step S33).

そして、広角画像補正部150eは、ステップS33で算出されたr’から式(2)及び式(3)を用いて(x’、y’)を算出する(ステップS34)。   Then, the wide-angle image correcting unit 150e calculates (x ′, y ′) from r ′ calculated in Step S33 using Expressions (2) and (3) (Step S34).

そして制御部150は、(x’、y’)の輝度値Iに(x、y)の輝度値を置き換えて記憶する(ステップS35)。   Then, the control unit 150 replaces the luminance value I of (x ′, y ′) with the luminance value of (x, y) and stores it (Step S <b> 35).

以上の処理をi=0,1,2,…,N−1、j=0,1,2,…,M−1について反復実行することで、入力画像中の全ての画素について行う。そして、求められた出力画像をビデオメモリ154に出力し、ビデオメモリ154から広角画像表示部130に出力する。なおステップS33〜S35において、rmin≦r≦rmaxの範囲にない半径rのように、較正情報DB156に較正情報が記憶されていない半径rについては、広角撮像部110からの入力画像の画像情報が無いものとしてステップS33〜S35の処理を無視してもよい。具体的には、ステップS33〜S35において、rmin≦r≦rmaxの範囲にある半径rについてのみ処理を行い、処理が行われなかった画素については画素値を0として出力画像を求めてもよい。 The above processing is repeated for i = 0, 1, 2,..., N−1, j = 0, 1, 2,. Then, the obtained output image is output to the video memory 154 and is output from the video memory 154 to the wide-angle image display unit 130. Note that in steps S33 to S35, for a radius r for which calibration information is not stored in the calibration information DB 156, such as a radius r not in the range of r min ≦ r ≦ r max, an image of an input image from the wide-angle imaging unit 110 is used. The processing in steps S33 to S35 may be ignored on the assumption that there is no information. Specifically, in steps S33 to S35, the processing is performed only for the radius r in the range of r min ≦ r ≦ r max , and the output value is obtained by setting the pixel value to 0 for pixels that have not been processed. Good.

制御部150のCPU151は、以上の広角画像較正処理を例えばユーザの操作により広角画像処理装置1の電源がオフになるまで繰り返す。   The CPU 151 of the control unit 150 repeats the above wide-angle image calibration process until the power of the wide-angle image processing apparatus 1 is turned off by a user operation, for example.

以上のように、本実施形態に係る広角画像処理装置1は、較正画像表示部120の平面ディスプレイ121に表示された較正画像を撮像した広角画像に基づいて、較正情報を取得する。このように、立体的に構成された複数の平面ディスプレイ121で、多くの較正画像を表示可能なので、高精度に、かつ、短時間で格子点の計測行うことができる。従って、高精度に、かつ、短時間で較正情報を取得することができる。   As described above, the wide-angle image processing device 1 according to the present embodiment acquires calibration information based on a wide-angle image obtained by capturing a calibration image displayed on the flat display 121 of the calibration image display unit 120. As described above, since a large number of calibration images can be displayed on the plurality of three-dimensionally configured flat displays 121, lattice points can be measured with high accuracy and in a short time. Therefore, calibration information can be acquired with high accuracy and in a short time.

また、広角撮像部110の広角レンズに入射する光線がレンズ光軸と1点で交わらなくても、高精度に較正情報を取得することができる。   Further, the calibration information can be acquired with high accuracy even if the light beam incident on the wide-angle lens of the wide-angle imaging unit 110 does not intersect the lens optical axis at one point.

なお、本発明は、上記の実施形態に限定されず、種々の変形及び応用が可能である。例えば、上記の実施形態において、広角撮像部110の一例として、ミラー反射型の広角撮像装置を用いたが、魚眼レンズを利用した広角撮像装置でもよい。   In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible. For example, in the above embodiment, a mirror reflection type wide-angle imaging device is used as an example of the wide-angle imaging unit 110, but a wide-angle imaging device using a fisheye lens may be used.

また、上記の実施形態では3枚の平面ディスプレイ121a〜121cを三角柱状に構成したが、さらに多くの平面ディスプレイを用いてもよい。例えば、平面ディスプレイの配置として、図17(a)に示すように多角柱状に構成してもよい。また、図17(b)に示すように多面体を構成するようにしてもよい。このように、多くの平面ディスプレイを用いることで、較正画像の格子点と広角撮像素子の間の距離におけるばらつきが小さくなり、さらにカメラの視野のより広い範囲に格子点を配置できるため、より高精度に較正を行うことができる。   In the above embodiment, the three flat displays 121a to 121c are configured in a triangular prism shape, but more flat displays may be used. For example, the flat display may be arranged in a polygonal column shape as shown in FIG. Moreover, you may make it comprise a polyhedron as shown in FIG.17 (b). In this way, the use of many flat displays reduces variations in the distance between the grid points of the calibration image and the wide-angle image sensor, and allows the grid points to be arranged in a wider range of the camera's field of view. Calibration can be performed with accuracy.

また、本実施形態では、広角画像処理装置1は広角画像較正処理として、較正情報取得処理及び広角画像補正処理の両方を実行するが、各処理は異なる装置において行われてもよい。例えば、広角画像処理装置が較正情報取得処理を行い、広角撮像装置が広角画像補正処理を行ってもよい。この場合、広角画像処理装置は、その広角撮像装置について広角画像較正処理を行い、その結果取得された較正情報を、広角撮像装置が備える記憶部に記憶する。そして、広角撮像装置は、記憶部に記憶された較正情報に基づいて、広角画像補正処理により撮像した広角画像を補正する。以上のように構成することで、コンパクトな構成で高精度の画像補正が可能な広角撮像装置を提供することができる。   In the present embodiment, the wide-angle image processing apparatus 1 executes both the calibration information acquisition process and the wide-angle image correction process as the wide-angle image calibration process, but each process may be performed in different apparatuses. For example, the wide-angle image processing device may perform calibration information acquisition processing, and the wide-angle imaging device may perform wide-angle image correction processing. In this case, the wide-angle image processing device performs wide-angle image calibration processing on the wide-angle imaging device, and stores the calibration information acquired as a result in the storage unit included in the wide-angle imaging device. Then, the wide-angle imaging device corrects the wide-angle image captured by the wide-angle image correction process based on the calibration information stored in the storage unit. By configuring as described above, it is possible to provide a wide-angle imaging device capable of highly accurate image correction with a compact configuration.

1 広角画像処理装置
110 広角撮像部
120 較正画像表示部
121(121a〜121c) 平面ディスプレイ
130 広角画像表示部
140 操作部
150 制御部
150a 格子点検出部
150b 画像中心検出部
150c 光軸検出部
150d 較正情報算出部
150e 広角画像補正部
151 CPU
152 ROM
153 汎用メモリ
154 ビデオメモリ
155 外部デバイスI/F
156 較正情報DB
DESCRIPTION OF SYMBOLS 1 Wide-angle image processing apparatus 110 Wide-angle imaging part 120 Calibration image display part 121 (121a-121c) Planar display 130 Wide-angle image display part 140 Operation part 150 Control part 150a Grid point detection part 150b Image center detection part 150c Optical axis detection part 150d Calibration Information calculation unit 150e Wide-angle image correction unit 151 CPU
152 ROM
153 General-purpose memory 154 Video memory 155 External device I / F
156 Calibration information DB

Claims (5)

広角撮像部が撮像した広角画像の歪みを補正するための較正情報を算出する較正情報算出方法であって、
互いに所定の間隔で配列する複数の格子点を算出するための較正画像を前記広角撮像部を取り囲む表示部に表示させるとともに、前記広角撮像部によって前記較正画像を撮像させた広角画像を取得し、取得した前記広角画像と前記表示部に表示させた前記較正画像とに基づいて、前記複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて記憶手段に記憶する格子点検出ステップと、
前記格子点検出ステップにより検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角撮像部の光軸を検出する光軸検出ステップと、
前記光軸検出ステップにより検出された前記光軸と、前記記憶手段に記憶された前記複数の格子点の、三次元空間上での位置と、前記広角画像上での位置とに基づいて、前記較正情報を算出する較正情報算出ステップと、
を備えることを特徴とする較正情報算出方法。
A calibration information calculation method for calculating calibration information for correcting distortion of a wide-angle image captured by a wide-angle imaging unit,
A calibration image for calculating a plurality of grid points arranged at predetermined intervals is displayed on a display unit surrounding the wide-angle imaging unit, and a wide-angle image obtained by capturing the calibration image by the wide-angle imaging unit is acquired. Based on the acquired wide-angle image and the calibration image displayed on the display unit, the storage unit associates the positions of the plurality of lattice points on the three-dimensional space and the positions on the wide-angle image. A grid point detection step stored in
An optical axis detection step of extracting a plurality of straight lines based on a plurality of lattice points detected by the lattice point detection step, and detecting an optical axis of the wide-angle imaging unit based on an intersection of the plurality of straight lines;
Based on the optical axis detected by the optical axis detection step, the position on the three-dimensional space of the plurality of lattice points stored in the storage means, and the position on the wide-angle image, A calibration information calculation step for calculating calibration information;
A calibration information calculation method comprising:
前記光軸検出ステップは、
前記格子点検出ステップにより検出された複数の格子点に基づいて複数の直線を抽出し、抽出された前記複数の直線と三次元空間において対応する複数の平面の交線に基づいて、前記広角撮像部の光軸を検出する、
ことを特徴とする請求項1に記載の較正情報算出方法。
The optical axis detection step includes
A plurality of straight lines are extracted based on the plurality of lattice points detected by the lattice point detection step, and the wide-angle imaging is performed based on intersections of the extracted plurality of straight lines and a plurality of planes corresponding in a three-dimensional space. Detect the optical axis of the part,
The calibration information calculation method according to claim 1, wherein:
前記光軸検出ステップは、前記格子点検出ステップにより検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角画像の画像中心点を検出する画像中心検出ステップをさらに備え、
前記較正情報は、補正後の前記広角画像上での前記複数の格子点と前記画像中心検出ステップにより検出された画像中心点との距離を算出するための所定の情報を含む、
ことを特徴とする請求項1または2に記載の較正情報算出方法。
The optical axis detecting step extracts a plurality of straight lines based on the plurality of lattice points detected by the lattice point detecting step, and detects an image center point of the wide-angle image based on the intersection of the plurality of straight lines. A center detection step;
The calibration information includes predetermined information for calculating distances between the plurality of lattice points on the corrected wide-angle image and the image center point detected by the image center detection step.
3. The calibration information calculation method according to claim 1, wherein the calibration information is calculated.
互いに所定の間隔で配列する複数の格子点を算出するための較正画像を広角撮像部を取り囲む表示部に表示させるとともに、前記広角撮像部によって前記較正画像を撮像させた広角画像を取得し、取得した前記広角画像と前記表示部に表示させた前記較正画像とに基づいて、前記複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて記憶手段に記憶する格子点検出手段と、
前記格子点検出手段により検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角撮像部の光軸を検出する光軸検出手段と、
前記光軸検出手段により検出された前記光軸と、前記記憶手段に記憶された前記複数の格子点の、三次元空間上での位置と、前記広角画像上での位置とに基づいて、前記広角画像の歪みを補正するための較正情報を算出する較正情報算出手段と、
を備えることを特徴とする較正情報算出装置。
A calibration image for calculating a plurality of grid points arranged at predetermined intervals is displayed on a display unit surrounding the wide-angle imaging unit, and a wide-angle image obtained by capturing the calibration image by the wide-angle imaging unit is acquired and acquired. Based on the wide-angle image and the calibration image displayed on the display unit, the position of the plurality of grid points in the three-dimensional space and the position on the wide-angle image are associated with each other in the storage unit. Grid point detection means for storing;
An optical axis detection means for extracting a plurality of straight lines based on a plurality of lattice points detected by the lattice point detection means, and detecting an optical axis of the wide-angle imaging unit based on intersections of the plurality of straight lines;
Based on the optical axis detected by the optical axis detection means, the position on the three-dimensional space of the plurality of lattice points stored in the storage means, and the position on the wide-angle image, Calibration information calculating means for calculating calibration information for correcting distortion of the wide-angle image;
A calibration information calculation device comprising:
互いに所定の間隔で配列する複数の格子点を算出するための較正画像を広角撮像部を取り囲む表示部に表示させるとともに、前記広角撮像部によって前記較正画像を撮像させた広角画像を取得し、取得した前記広角画像と前記表示部に表示させた前記較正画像とに基づいて、前記複数の格子点の、三次元空間上での位置と前記広角画像上での位置とを対応付けて記憶手段に記憶する格子点検出手段と、
前記格子点検出手段により検出された複数の格子点に基づいて複数の直線を抽出し、該複数の直線の交点に基づいて前記広角撮像部の光軸を検出する光軸検出手段と、
前記光軸検出手段により検出された前記光軸と、前記記憶手段に記憶された前記複数の格子点の、三次元空間上での位置と、前記広角画像上での位置とに基づいて、前記広角画像の歪みを補正するための較正情報を算出する較正情報算出手段と、
前記広角撮像部に撮像させた広角画像を、前記較正情報算出手段により算出された較正情報に基づいて補正する広角画像補正手段と、
を備えることを特徴とする広角画像処理装置。
A calibration image for calculating a plurality of grid points arranged at predetermined intervals is displayed on a display unit surrounding the wide-angle imaging unit, and a wide-angle image obtained by capturing the calibration image by the wide-angle imaging unit is acquired and acquired. Based on the wide-angle image and the calibration image displayed on the display unit, the position of the plurality of grid points in the three-dimensional space and the position on the wide-angle image are associated with each other in the storage unit. Grid point detection means for storing;
An optical axis detection means for extracting a plurality of straight lines based on a plurality of lattice points detected by the lattice point detection means, and detecting an optical axis of the wide-angle imaging unit based on intersections of the plurality of straight lines;
Based on the optical axis detected by the optical axis detection means, the position on the three-dimensional space of the plurality of lattice points stored in the storage means, and the position on the wide-angle image, Calibration information calculating means for calculating calibration information for correcting distortion of the wide-angle image;
Wide-angle image correction means for correcting a wide-angle image captured by the wide-angle imaging unit based on calibration information calculated by the calibration information calculation means;
A wide-angle image processing apparatus comprising:
JP2009255561A 2009-11-06 2009-11-06 Method and device for calculation of calibration information, and wide angle image processing apparatus Pending JP2011101265A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009255561A JP2011101265A (en) 2009-11-06 2009-11-06 Method and device for calculation of calibration information, and wide angle image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009255561A JP2011101265A (en) 2009-11-06 2009-11-06 Method and device for calculation of calibration information, and wide angle image processing apparatus

Publications (1)

Publication Number Publication Date
JP2011101265A true JP2011101265A (en) 2011-05-19

Family

ID=44192069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009255561A Pending JP2011101265A (en) 2009-11-06 2009-11-06 Method and device for calculation of calibration information, and wide angle image processing apparatus

Country Status (1)

Country Link
JP (1) JP2011101265A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012161431A2 (en) * 2011-05-23 2012-11-29 아진산업(주) Method for generating an image of the view around a vehicle
KR101305316B1 (en) 2011-12-08 2013-09-06 아진산업(주) Image generating method for around view of vehicl using improved polygon matching
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
US10699440B2 (en) 2016-05-13 2020-06-30 Olympus Corporation Calibration device, calibration method, optical device, photographing device, projecting device, measurement system, and measurement method
US11037327B2 (en) 2017-09-22 2021-06-15 Fujitsu Limited Camera control method, camera control device, and non-transitory computer-readable storage medium
KR20210083884A (en) * 2019-12-27 2021-07-07 한국광기술원 Apparatus and Method for Photographing and Correcting Wide Angle Images
WO2021149402A1 (en) * 2020-01-20 2021-07-29 日立Astemo株式会社 Image correction device and image correction method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012161431A2 (en) * 2011-05-23 2012-11-29 아진산업(주) Method for generating an image of the view around a vehicle
WO2012161431A3 (en) * 2011-05-23 2013-01-17 아진산업(주) Method for generating an image of the view around a vehicle
KR101249791B1 (en) * 2011-05-23 2013-04-03 아진산업(주) Image generating method for around view of vehicle
KR101305316B1 (en) 2011-12-08 2013-09-06 아진산업(주) Image generating method for around view of vehicl using improved polygon matching
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
US10699440B2 (en) 2016-05-13 2020-06-30 Olympus Corporation Calibration device, calibration method, optical device, photographing device, projecting device, measurement system, and measurement method
US11037327B2 (en) 2017-09-22 2021-06-15 Fujitsu Limited Camera control method, camera control device, and non-transitory computer-readable storage medium
KR20210083884A (en) * 2019-12-27 2021-07-07 한국광기술원 Apparatus and Method for Photographing and Correcting Wide Angle Images
KR102364044B1 (en) * 2019-12-27 2022-02-17 한국광기술원 Apparatus and Method for Photographing and Correcting Wide Angle Images
WO2021149402A1 (en) * 2020-01-20 2021-07-29 日立Astemo株式会社 Image correction device and image correction method
JP7321947B2 (en) 2020-01-20 2023-08-07 日立Astemo株式会社 Image correction device and image correction method

Similar Documents

Publication Publication Date Title
CN110197466B (en) Wide-angle fisheye image correction method
JP2011101265A (en) Method and device for calculation of calibration information, and wide angle image processing apparatus
CN101136192B (en) System and method for automated calibration and correction of display geometry and color
JP5493340B2 (en) Projection display apparatus and arrangement relation detection method
CN103782232B (en) Projector and control method thereof
US9292925B2 (en) Imaging system and control method thereof
CN109211207B (en) Screw identification and positioning device based on machine vision
JP5256899B2 (en) Image correction apparatus, image correction method, projector and projection system
JP2000227309A (en) Three-dimensional position posture sensing device
KR20120036317A (en) Calibration target detection apparatus, calibration target detecting method for detecting calibration target, and program for calibration target detection apparatus
CN108989794B (en) Virtual image information measuring method and system based on head-up display system
CN110006634B (en) Viewing field angle measuring method, viewing field angle measuring device, display method and display equipment
Wang et al. Out-of-focus color camera calibration with one normal-sized color-coded pattern
JP2007322162A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2018524700A (en) Method and system for detecting known measurable object features
JP2011033570A (en) Evaluation method of distortion aberration of optical lens
JP2018533722A (en) Method and apparatus for measuring features on or near a subject
JP2011155412A (en) Projection system and distortion correction method in the same
JP2019045299A (en) Three-dimensional information acquisition device
JP5222430B1 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP2010217984A (en) Image detector and image detection method
JP4548228B2 (en) Image data creation method
CN112292577A (en) Three-dimensional measuring device and method
JP2005174151A (en) Three-dimensional image display device and method
JP2011112379A (en) Image processing device and image processing program