JP2008061172A - Image processing apparatus, image processing method and program therefor and recording medium with the program stored - Google Patents

Image processing apparatus, image processing method and program therefor and recording medium with the program stored Download PDF

Info

Publication number
JP2008061172A
JP2008061172A JP2006238779A JP2006238779A JP2008061172A JP 2008061172 A JP2008061172 A JP 2008061172A JP 2006238779 A JP2006238779 A JP 2006238779A JP 2006238779 A JP2006238779 A JP 2006238779A JP 2008061172 A JP2008061172 A JP 2008061172A
Authority
JP
Japan
Prior art keywords
image
data
image processing
processing apparatus
wide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006238779A
Other languages
Japanese (ja)
Inventor
Satoru Kamiya
了 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006238779A priority Critical patent/JP2008061172A/en
Publication of JP2008061172A publication Critical patent/JP2008061172A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, image processing method, program therefor and recording medium with the program recorded thereon where the computational complexity in distortion correction can be reduced. <P>SOLUTION: When performing distortion correction upon an image in a selected region selected in an image as a whole over a wide field of view, coordinates (x, y) of a point (p) coordinate-calculated by the distortion correction processing are frequently real numbers that include decimal points. When pixel data of four points (luminance data (Y data) of the four points and color difference data (CrCb data)) are read out, the luminance data of the point (p) are subjected to linear interpolation, and the color difference data are used, as they are. As a result, computational complexity in distortion correction can be reduced. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、広角レンズを用いて撮像された画像の歪を補正処理する画像処理装置、画像処理方法、そのプログラム及び記録媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, a program thereof, and a recording medium for correcting distortion of an image captured using a wide-angle lens.

従来から、カメラにより撮像された画像の幾何学的な歪(ディストーション)を補正する技術として次のような技術がある。例えば演算により歪のある画像データをYUVデータに変換し近似多項式演算した後、輝度信号と色差信号とでそれぞれ異なる補間演算する、といった技術である。具体的には、YUVデータのうち、Yデータについては、9点の画素データからラグランジュの補間公式を応用して2次の多項式で補間計算が行われている。一方、YUVデータのうち、UVデータについては4点の画素データから線形補間公式を用いて多項式の補間計算が行われている。このようにするのは、輝度情報については、人間の視覚感度が高いため計算量が多くても画質の劣化が少ない補間法を選ばなければならないが、色情報は視覚感度が低いため計算量の少ない補間法を選択しても視覚上での大きな画質劣化が起こらないからである(例えば、特許文献1参照。)。   Conventionally, there are the following techniques for correcting geometric distortion (distortion) of an image captured by a camera. For example, there is a technique in which image data with distortion is converted into YUV data by calculation, approximate polynomial calculation is performed, and different interpolation calculations are performed for the luminance signal and the color difference signal. Specifically, among YUV data, for Y data, interpolation calculation is performed with a second-order polynomial by applying Lagrange's interpolation formula from 9-point pixel data. On the other hand, among the YUV data, for the UV data, a polynomial interpolation calculation is performed from four points of pixel data using a linear interpolation formula. This is because for luminance information, human visual sensitivity is high, so even if the amount of calculation is large, an interpolation method with little deterioration in image quality must be selected. This is because even if a small number of interpolation methods are selected, there is no significant deterioration in visual image quality (see, for example, Patent Document 1).

特開平11−250239号公報(段落[0017]、図7)Japanese Patent Laid-Open No. 11-250239 (paragraph [0017], FIG. 7)

しかしながら、最近では、撮像素子の画素数が増えているため、歪補正の計算量も増えており、処理に時間がかかる。特に、撮像される画像が動画の場合、歪補正の計算量が膨大になり、あるいは、歪補正のリアルタイム性を要求される場合には、高速な演算処理が要求される。   However, recently, since the number of pixels of the image sensor has increased, the amount of calculation for distortion correction has also increased, and processing takes time. In particular, when the captured image is a moving image, the amount of calculation for distortion correction becomes enormous, or when high-speed distortion processing is required, high-speed arithmetic processing is required.

以上のような事情に鑑み、本発明の目的は、歪補正における計算量を低減することができる画像処理装置、画像処理方法、そのブログラム及びそのプログラムを記録した記録媒体を提供することにある。   In view of the circumstances as described above, an object of the present invention is to provide an image processing apparatus, an image processing method, a program thereof, and a recording medium on which the program is recorded, which can reduce the amount of calculation in distortion correction. .

上記目的を達成するため、本発明に係る画像処理装置は、広角レンズを用いて撮像された該広角レンズによる歪を含む広視野画像のうち選択された選択領域の画像の前記歪を補正するために、前記選択領域画像の補正座標を計算する座標計算手段と、前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する補間手段とを具備する。   In order to achieve the above object, an image processing apparatus according to the present invention corrects the distortion of an image of a selected region selected from a wide-field image including distortion caused by the wide-angle lens imaged using a wide-angle lens. Furthermore, coordinate calculating means for calculating the correction coordinates of the selection area image and interpolation means for interpolating each predetermined pixel data of the selection area image corresponding to the calculated correction coordinates are provided.

本発明では、例えば広角視野画像のうち選択された選択領域画像の歪補正が実行される際、画素データの補間処理が行われる。特に、例えば広角視野画像のうち選択された選択領域画像の歪補正が実行されるので、広視野画像全体が補正される場合より計算量を低減できる。   In the present invention, for example, when distortion correction is performed on a selected region image selected from a wide-angle visual field image, pixel data interpolation processing is performed. In particular, for example, since distortion correction is performed on a selected region image selected from the wide-angle field image, the amount of calculation can be reduced as compared with the case where the entire wide-field image is corrected.

「画素データ」とは、RGBデータであってもよいし、後述するように、RGBデータから変換された輝度/色差データであってもよい。「輝度/色差データ」とは、輝度データ及び色差データを含む、YUVデータまたはYCrCbデータである。   The “pixel data” may be RGB data, or may be luminance / color difference data converted from RGB data, as will be described later. “Luminance / color difference data” is YUV data or YCrCb data including luminance data and color difference data.

「対応する所定の各画素データ」とは、例えば補間手段による補間処理の対象となる、ある点の周辺の画素データである。   “Corresponding predetermined pixel data” is pixel data around a certain point that is an object of interpolation processing by an interpolation means, for example.

「画像」には、主に動画を意味するが、もちろん静止画も含まれる。   “Image” mainly means moving images, but of course includes still images.

本発明の一の形態によれば、当該画像処理装置は、前記広視野画像のRGBデータを、輝度データ及び色差データを含む輝度/色差データに変換する変換手段をさらに具備し、前記座標計算手段は、前記輝度/色差データのうち、前記選択領域画像に対応する選択領域輝度/色差データの前記補正座標を算出する。   According to an aspect of the present invention, the image processing apparatus further includes conversion means for converting the RGB data of the wide-field image into luminance / color difference data including luminance data and color difference data, and the coordinate calculation means. Calculates the correction coordinates of the selected area luminance / color difference data corresponding to the selected area image among the luminance / color difference data.

本発明の一の形態によれば、前記補間手段は、前記広視野画像のRGBデータのうち、前記選択領域画像に対応する選択領域RGBデータを、当該選択領域画像の各画素について補間するRGB補間手段と、前記補間された選択領域RGBデータと前記選択領域輝度/色差データとに基づき、補間値を算出する算出手段とを有する。本発明では、補間値を算出するために、RGB補間手段により補間された選択領域RGBデータが用いられるので、画質の劣化を抑えながら計算量を減らすことができる。   According to one aspect of the present invention, the interpolation means interpolates selection area RGB data corresponding to the selection area image among the RGB data of the wide field image for each pixel of the selection area image. Means, and calculating means for calculating an interpolation value based on the interpolated selection area RGB data and the selection area luminance / color difference data. In the present invention, since the selected area RGB data interpolated by the RGB interpolation means is used to calculate the interpolation value, it is possible to reduce the amount of calculation while suppressing deterioration in image quality.

本発明の一の形態によれば、前記座標計算手段は、小数点を含む実数を前記補正座標として算出し、前記補間手段は、前記実数の小数点を切り上げまたは切り下げることにより得られる4つの画素の輝度データについて直線補間する輝度データ補間手段を有する。歪補正のために算出された補正座標は、歪を含む広視野画像(あるいは歪を含む選択領域画像)を構成する各画素に1:1で対応しない場合が多い。そこで、本発明では、小数点を切り上げまたは切り下げることにより得られる4つの画素の輝度データについて補間される。   According to an embodiment of the present invention, the coordinate calculation unit calculates a real number including a decimal point as the correction coordinate, and the interpolation unit calculates the luminance of four pixels obtained by rounding up or down the decimal point of the real number. Luminance data interpolation means for linearly interpolating data is provided. In many cases, the correction coordinates calculated for distortion correction do not correspond 1: 1 to each pixel constituting a wide-field image including distortion (or a selected area image including distortion). Therefore, in the present invention, the luminance data of four pixels obtained by rounding up or down the decimal point is interpolated.

本発明の一の形態によれば、前記補間手段は、前記4つの画素のうち2つの画素を直線補間する色差データ補間手段を有する。あるいは、前記補間手段は、前記4つの画素のうちの所定の画素の色差データを選択する色差データ補間手段を有する。本発明では、色差データは所定の画素を選択するのみなので、さらに計算量が低減される。   According to one aspect of the present invention, the interpolation means includes color difference data interpolation means for linearly interpolating two of the four pixels. Alternatively, the interpolation means includes color difference data interpolation means for selecting color difference data of a predetermined pixel among the four pixels. In the present invention, since the color difference data only selects a predetermined pixel, the calculation amount is further reduced.

本発明の一の形態によれば、当該画像処理装置は、前記選択領域を示す情報に応じて前記選択領域を更新する更新手段をさらに具備する。本発明では、選択領域画像が更新されるたびに、補間処理が実行され、歪補正が行われる。このような場合であっても、本発明では計算量を極力低減しているので、スムーズな処理を実行することができる。   According to an aspect of the present invention, the image processing apparatus further includes update means for updating the selection area according to information indicating the selection area. In the present invention, every time the selected area image is updated, an interpolation process is executed and distortion correction is performed. Even in such a case, since the calculation amount is reduced as much as possible in the present invention, smooth processing can be executed.

本発明の一の形態によれば、当該画像処理装置は、前記広視野画像内に前記選択領域が強調された強調領域を含む画像を、全体画像として出力する第1の出力手段と、前記選択領域画像の前記歪が補正された歪補正画像を出力する第2の出力手段と、全体画像と選択領域画像とが一画面の画像データとして合成された合成画像を出力する合成画像出力手段とをさらに具備する。本発明では、強調領域を含む全体画像と、歪が補正された歪補正画像とが一画面で出力可能であることにより、例えば全体画像の中のどの部分が選択されているかをユーザが認識することができ、便利である。また、本発明においても、上記したように計算量を極力低減しているので、スムーズな合成画像の出力処理を実行することができる。   According to an aspect of the present invention, the image processing apparatus includes: a first output unit that outputs an image including an enhanced region in which the selected region is enhanced in the wide-field image as an entire image; and the selection A second output unit that outputs a distortion-corrected image in which the distortion of the region image is corrected; and a composite image output unit that outputs a composite image in which the entire image and the selected region image are combined as one-screen image data. In addition. In the present invention, the entire image including the enhancement region and the distortion-corrected image in which the distortion is corrected can be output on one screen, so that the user recognizes which part of the entire image is selected, for example. Can be convenient. Also in the present invention, as described above, the amount of calculation is reduced as much as possible, so that a smooth composite image output process can be executed.

「全体画像」とは、広視野画像のうち強調領域を含む画像であればよく、広視野画像自体とは限らない。   The “entire image” is not limited to the wide-field image itself, as long as it is an image including an enhancement region in the wide-field image.

以上のように、本発明によれば、歪補正における計算量を低減することができる。   As described above, according to the present invention, the amount of calculation in distortion correction can be reduced.

以下、本発明の実施の形態を図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施の形態に係る画像処理システムの構成を示すブロック図である。画像処理システム100は、広角レンズ1、画像処理装置10、表示部12を備え、そのほか外部機器13や入力機器14等を備える。画像処理装置10は、イメージセンサ2、カラー処理回路3、歪補正処理回路4、コントローラ5、メモリ6、画像圧縮回路7、表示インターフェース8、USB(Universal Serial Bus)インターフェース9、入力機器インターフェース11を備える。   FIG. 1 is a block diagram showing a configuration of an image processing system according to an embodiment of the present invention. The image processing system 100 includes a wide-angle lens 1, an image processing device 10, and a display unit 12, and further includes an external device 13, an input device 14, and the like. The image processing apparatus 10 includes an image sensor 2, a color processing circuit 3, a distortion correction processing circuit 4, a controller 5, a memory 6, an image compression circuit 7, a display interface 8, a USB (Universal Serial Bus) interface 9, and an input device interface 11. Prepare.

イメージセンサ2は、広角レンズ1を介して取り込まれた光を電気信号に変換するセンサである。例えばCMOS(Complementary Metal-Oxide Semiconductor)センサや、CCD(Charge Coupled Device)等が用いられる。広角レンズ1としては、広視野角あるいは広画角のレンズが用いられ、例えば画角がおよそ45度以上のものが用いられるが、これに限られるわけではない。例えば魚眼レンズ、あるいは環状の画像が得られるPAL(Panoramic Annular Lens)(環状のレンズ)等が挙げられる。あるいは、画角が180°程度の魚眼レンズが2つ用いられることにより、全方位(球空間(360°))の視野で撮像することもできる。   The image sensor 2 is a sensor that converts light taken in through the wide-angle lens 1 into an electrical signal. For example, a complementary metal-oxide semiconductor (CMOS) sensor, a charge coupled device (CCD), or the like is used. As the wide-angle lens 1, a lens having a wide viewing angle or a wide field angle is used. For example, a fish-eye lens or a PAL (Panoramic Annular Lens) (annular lens) from which an annular image can be obtained may be mentioned. Alternatively, by using two fisheye lenses having an angle of view of about 180 °, it is possible to capture an image in a field of view in all directions (spherical space (360 °)).

カラー処理回路3は、図2に示すように、例えばイメージセンサ2のBayerデータのRGBデータを補間するRGB補間回路17を有する。また、カラー処理回路3は、補間されたRGBデータをYCrCbデータに変換するYCrCb変換回路18を有する。カラー処理回路3は、そのほか、図示しないが、光量を制御するAE(Automatic Exposure)演算回路、ホワイトバランスを制御するAWB(Automatic White Balance)演算回路、RGrGbB画素フィルタごとに非線形テーブルによりゲイン調整するゲイン調整回路を有する。さらに、カラー処理回路は、図4(C)で説明するように、データが間引きされた広視野の全体画像25を、表示部12に表示される画像の一部に付加する画面付加処理回路、その他、必要な、または付加的な回路を備えている。   As shown in FIG. 2, the color processing circuit 3 includes an RGB interpolation circuit 17 that interpolates RGB data of Bayer data of the image sensor 2, for example. The color processing circuit 3 includes a YCrCb conversion circuit 18 that converts the interpolated RGB data into YCrCb data. In addition, although not shown, the color processing circuit 3 includes an AE (Automatic Exposure) arithmetic circuit that controls the amount of light, an AWB (Automatic White Balance) arithmetic circuit that controls the white balance, and a gain that performs gain adjustment using a non-linear table for each RGrGbB pixel filter. An adjustment circuit is included. Further, the color processing circuit, as will be described with reference to FIG. 4C, is a screen addition processing circuit that adds the wide-field entire image 25 with thinned data to a part of the image displayed on the display unit 12, In addition, necessary or additional circuits are provided.

歪補正処理回路4は、カラー処理回路3で処理された歪を含む画像に対し、主に歪補正処理を行う。また、歪補正処理回路4は、歪補正処理の際、輝度データ及び色差データを含む画素データ(上記YCrCbデータ)の補間処理を行う。メモリ6は、歪補正処理回路4の処理時におけるバッファとして機能し、あるいは、画像出力用のフレームメモリとしての機能を有する。特に、メモリ6は、後述する選択領域画像の画素データ(RGBデータまたはYCrCbデータ)を記憶する機能を有する。メモリ6には、図示しないDMA(Direct Memory Access)回路が接続されていてもよい。その場合、コントローラ5の制御によらないでメモリ6に対してデータが入出力される。   The distortion correction processing circuit 4 mainly performs distortion correction processing on an image including distortion processed by the color processing circuit 3. Further, the distortion correction processing circuit 4 performs interpolation processing of pixel data (the YCrCb data) including luminance data and color difference data during the distortion correction processing. The memory 6 functions as a buffer at the time of processing of the distortion correction processing circuit 4 or has a function as a frame memory for image output. In particular, the memory 6 has a function of storing pixel data (RGB data or YCrCb data) of a selection area image described later. The memory 6 may be connected to a DMA (Direct Memory Access) circuit (not shown). In this case, data is input / output to / from the memory 6 without being controlled by the controller 5.

コントローラ5は、画像処理装置10全体を統括的に制御し、例えばCPU(Central Processing Unit)により構成される。   The controller 5 controls the entire image processing apparatus 10 in an integrated manner, and is configured by, for example, a CPU (Central Processing Unit).

画像圧縮回路7は、歪補正処理回路4で処理された画像を所定の形式で圧縮する。圧縮の形式としては、例えばJPEG(Joint Photographic Expert Group)が用いられる。しかし、適宜その他の公知の形式が用いられてもよい。   The image compression circuit 7 compresses the image processed by the distortion correction processing circuit 4 in a predetermined format. For example, JPEG (Joint Photographic Expert Group) is used as the compression format. However, other known formats may be used as appropriate.

表示インターフェース8は、歪補正処理回路4で処理された画像を表示部12に出力するインターフェースである。表示インターフェース8は、例えばNTSC(National Television System Committee)方式、またはPAL(Phase Alternating Line)方式等の出力データを生成する。   The display interface 8 is an interface that outputs the image processed by the distortion correction processing circuit 4 to the display unit 12. The display interface 8 generates output data such as an NTSC (National Television System Committee) system or a PAL (Phase Alternating Line) system.

USBインターフェース9は、外部コンピュータ等の外部機器13に対して、画像圧縮回路7で処理された画像の入出力を制御する。なお、上記表示インターフェース8も、画像圧縮回路7で圧縮された画像を出力するようにしてもよい。   The USB interface 9 controls input / output of an image processed by the image compression circuit 7 with respect to an external device 13 such as an external computer. Note that the display interface 8 may also output an image compressed by the image compression circuit 7.

入力機器インターフェース11は、例えばユーザによる操作入力の信号を受信したりする。入力機器14としては、例えばマウス、キーボード、スイッチ機器、タッチセンサ、ゲーム機器のコントローラ、ユーザが把持可能なスティック状の操作機器等が挙げられる。   For example, the input device interface 11 receives a signal of an operation input by a user. Examples of the input device 14 include a mouse, a keyboard, a switch device, a touch sensor, a game device controller, and a stick-like operation device that can be held by a user.

なお、本実施の形態でいう「画像」とは、静止画も含まれるが、現実には、動画として処理されることが多い。   Note that the “image” in the present embodiment includes a still image, but in reality, it is often processed as a moving image.

カラー処理回路3、歪補正処理回路4、コントローラ5等は、例えばFPGA(Field Programmable Gate Array)及びDSP(Digital Signal Processor)のうちの少なくとも一方により、処理を実現させることができる。   The color processing circuit 3, the distortion correction processing circuit 4, the controller 5, and the like can realize processing by at least one of, for example, an FPGA (Field Programmable Gate Array) and a DSP (Digital Signal Processor).

図3は、上記歪補正処理回路4の構成を示すブロック図である。歪補正処理回路4は、更新処理回路24、画素データ補間回路19、出力画素合成回路20、フィルタ回路21を含む。   FIG. 3 is a block diagram showing a configuration of the distortion correction processing circuit 4. The distortion correction processing circuit 4 includes an update processing circuit 24, a pixel data interpolation circuit 19, an output pixel synthesis circuit 20, and a filter circuit 21.

更新処理回路24は、座標計算部22、表示方向指定レジスタ23を有する。表示方向指定レジスタ23は、入力機器インターフェース11からの入力情報に応じてコントローラ5により解析された選択領域を示す情報を記憶する。座標計算部22は、選択領域を示す情報に応じて、広角レンズ1を介してイメージセンサ2で撮像された広視野画像25(図4(A)参照)内の選択領域を計算する。後でも説明するが、歪補正処理回路4では、主にこの選択領域の画像の歪を補正し、その歪補正された歪補正画像を各種のインターフェース12、13または14から出力する。「選択領域を示す情報」とは、例えば広視野画像25内で、ユーザにより選択された領域の位置情報である。すなわち、更新処理回路24は、選択領域の位置情報(の変化)に応じて、選択領域の歪補正画像を更新する。   The update processing circuit 24 includes a coordinate calculation unit 22 and a display direction designation register 23. The display direction designation register 23 stores information indicating the selected area analyzed by the controller 5 in accordance with input information from the input device interface 11. The coordinate calculation unit 22 calculates a selection region in the wide-field image 25 (see FIG. 4A) captured by the image sensor 2 via the wide-angle lens 1 according to information indicating the selection region. As will be described later, the distortion correction processing circuit 4 mainly corrects the distortion of the image in the selected region, and outputs the distortion-corrected image subjected to the distortion correction from the various interfaces 12, 13, or 14. “Information indicating a selected area” is position information of an area selected by the user in the wide-field image 25, for example. In other words, the update processing circuit 24 updates the distortion-corrected image in the selected area according to the position information (changes) in the selected area.

画素データ補間回路は、画素データ、つまり画素ごとの輝度データ及び色差データについて、メモリに蓄えられた歪を含む画像の座標計算により直線補間等の処理を行う。   The pixel data interpolation circuit performs processing such as linear interpolation on pixel data, that is, luminance data and color difference data for each pixel by calculating coordinates of an image including distortion stored in the memory.

出力画素合成回路20は、形式的に例えば一旦YCrCb4:4:4形式とされた画素データを、平均化処理することにより4:2:2形式、または4:2:0形式に変換する。フィルタ回路21は、出力画像に対して平均化や先鋭化のフィルタをかける処理を行う。出力画素合成回路20やフィルタ回路21は、本実施の形態では特に重要な要素ではない。   The output pixel synthesizing circuit 20 converts the pixel data once converted into the YCrCb 4: 4: 4 format into the 4: 2: 2 format or the 4: 2: 0 format by averaging. The filter circuit 21 performs processing for applying an averaging or sharpening filter to the output image. The output pixel synthesis circuit 20 and the filter circuit 21 are not particularly important elements in the present embodiment.

図4は、この画像処理装置10により画像処理されて表示部12で表示される各種画像の例を示す。図4(A)は、広視野画像25内に、選択領域が強調された強調領域16を含む全体画像を示す。強調領域16は、例えば枠状のカーソルである。しかし、強調領域16は、このようなカーソル16に限られず、全体画像25中で強調領域16以外の部分とは色を変えて表示されるような形態であってもよい。すなわち、強調領域16は、ユーザが広視野画像25を見てその強調された領域が他の領域と識別できるような形態であればよい。ユーザは、入力機器を用いて、カーソル16により全体画像25中の所望の領域(カーソル16で囲まれる範囲)を選択し、コントローラ5は、その範囲を選択領域として種々の処理を行う。   FIG. 4 shows examples of various images that are image-processed by the image processing apparatus 10 and displayed on the display unit 12. FIG. 4A shows an entire image including the enhanced region 16 in which the selected region is enhanced in the wide-field image 25. The highlight area 16 is, for example, a frame-shaped cursor. However, the highlight area 16 is not limited to the cursor 16 as described above, and may be displayed in a different color from the area other than the highlight area 16 in the entire image 25. That is, the emphasis region 16 may be in any form that allows the user to distinguish the emphasized region from other regions by viewing the wide-field image 25. The user uses the input device to select a desired region (range surrounded by the cursor 16) in the entire image 25 with the cursor 16, and the controller 5 performs various processes using the range as the selection region.

以降、図4(A)の画像であって強調領域16を含まない画像を「広視野画像」という。また、図4(A)に示すように広視野画像に強調領域16を含む画像を「全体画像25」として、「広視野画像」と「全体画像25」とを区別する。また、以下、強調領域16で囲われる範囲の画像を「選択領域画像」という。   Hereinafter, the image of FIG. 4A that does not include the enhancement region 16 is referred to as a “wide-field image”. Further, as shown in FIG. 4A, an image including the enhancement region 16 in the wide-field image is defined as “entire image 25”, and “wide-field image” and “entire image 25” are distinguished. Hereinafter, an image in a range surrounded by the emphasis area 16 is referred to as a “selected area image”.

全体画像25内の選択領域は、ユーザが選択する形態に限られない。例えば、全体画像25内の予め設定された領域が選択される形態も考えられる。その場合の当該領域を示す情報(位置情報等)は、予め図示しないROMや、外部の記憶装置等に格納されていればよい。このように予め選択領域が設定されている場合に限らず、全体画像25内のある特定の領域が自動認識される場合に、その自動認識された「特定の領域」が「選択領域」として処理される形態も考えられる。あるいは、図示しない様々なセンサによって、全体画像25内で検出された部分の画像領域が「選択領域」として処理される形態もある。その場合、センサとは、例えば光センサ、温度センサ、圧力センサ、音センサ、湿度センサ、振動センサ、ガスセンサ、その他様々なセンサが挙げられる。   The selection area in the whole image 25 is not limited to the form selected by the user. For example, a mode in which a preset area in the entire image 25 is selected is also conceivable. Information (position information or the like) indicating the area in that case may be stored in advance in a ROM (not shown), an external storage device, or the like. Thus, not only when the selection area is set in advance, but when a specific area in the entire image 25 is automatically recognized, the automatically recognized “specific area” is processed as the “selection area”. The form to be considered is also conceivable. Alternatively, there is also a form in which a part of the image area detected in the entire image 25 is processed as a “selected area” by various sensors (not shown). In this case, examples of the sensor include an optical sensor, a temperature sensor, a pressure sensor, a sound sensor, a humidity sensor, a vibration sensor, a gas sensor, and various other sensors.

図4(B)は、選択領域の歪が補正された歪補正画像を示す図である。図4(C)は、上記全体画像25が間引きされた全体画像間引き画面45と、歪が補正された歪補正画像35とが一画面の画像データとして合成された合成画像36を示す。歪補正処理回路4は、このような合成画像をも生成し、表示部12等に出力する。合成画像36の生成には、例えばOSD(On Screen Display)等の技術が用いられればよい。コントローラ5は、例えば入力機器インターフェース11による入力情報に応じて、これら図4(A)、(B)及び(C)に示す全体画像25、歪補正画像35及び合成画像36の出力を切り替えることができる。つまり、コントローラ5は、主に3つの表示モードを持ち、これらを適宜切り替える。なお、図4(A)の全体画像25が表示されるモードは、強調領域16が表示されない広視野画像が表示されるモードであってもよい。図14は、表示モードが順に切り替えられるときの表示部に表示される表示画像を示す。図14(A)は、広視野画像(全体画像25でもよい。)のみの画像である。図14(B)は、選択領域の歪が補正された歪補正画像35のみの画像である。図14(C)は、当該両者を含む合成画像36である。   FIG. 4B is a diagram illustrating a distortion corrected image in which the distortion of the selected region is corrected. FIG. 4C shows a composite image 36 in which the whole image thinning screen 45 in which the whole image 25 is thinned out and the distortion corrected image 35 in which distortion is corrected are combined as image data of one screen. The distortion correction processing circuit 4 also generates such a composite image and outputs it to the display unit 12 or the like. For example, a technique such as OSD (On Screen Display) may be used to generate the composite image 36. The controller 5 can switch the output of the whole image 25, the distortion corrected image 35, and the composite image 36 shown in FIGS. 4A, 4 </ b> B, and 4 </ b> C in accordance with, for example, input information from the input device interface 11. it can. That is, the controller 5 mainly has three display modes, and switches between them appropriately. Note that the mode in which the entire image 25 in FIG. 4A is displayed may be a mode in which a wide-field image in which the highlight region 16 is not displayed is displayed. FIG. 14 shows a display image displayed on the display unit when the display modes are sequentially switched. FIG. 14A shows only a wide-field image (the whole image 25 may be used). FIG. 14B is an image of only the distortion corrected image 35 in which the distortion of the selected region is corrected. FIG. 14C shows a composite image 36 including the both.

次に、広角レンズ1を搭載したカメラの設置状態の態様について説明する。   Next, the aspect of the installation state of the camera equipped with the wide-angle lens 1 will be described.

図5を参照して、球31の中心Oに視点がある場合、その視点Oが捉えることが可能な視野は球31で表される3次元空間になる。広角レンズ1として例えば視野180°程度の魚眼レンズが用いられる場合、その魚眼レンズで捉えられる視野は、球31のうち半球部分である。例えば図6(A)は、球31のうち上半分(現実の3次元空間で上方向)の視野(以下、上半球視野という。)を示す。図6(B)は、球31のうち下半分(現実の3次元空間で下方向)の視野(以下、下半球視野という。)を示す。図6(C)は、球31のうち横半分の視野(以下、横半球視野という。)を示す。特に、図6(A)の例では、地面、床上、机上から上方向を見る場合が想定される。図6(B)の例では、天井や上空から下方向を見る場合が想定される。図6(C)の例では、地面に垂直な壁等から水平方向あるいは横方向を見る場合が想定される。   Referring to FIG. 5, when the viewpoint is at the center O of the sphere 31, the visual field that can be captured by the viewpoint O is a three-dimensional space represented by the sphere 31. For example, when a fisheye lens having a visual field of about 180 ° is used as the wide-angle lens 1, the visual field captured by the fisheye lens is a hemispherical portion of the sphere 31. For example, FIG. 6A shows a field of view of the upper half (upward in an actual three-dimensional space) of the sphere 31 (hereinafter referred to as the upper hemisphere field of view). FIG. 6B shows a field (hereinafter referred to as a lower hemisphere field) of the lower half (downward in the actual three-dimensional space) of the sphere 31. FIG. 6C shows a horizontal half field of view of the sphere 31 (hereinafter referred to as a horizontal hemisphere field). In particular, in the example of FIG. 6A, it is assumed that the user is looking upward from the ground, the floor, or the desk. In the example of FIG. 6B, it is assumed that the user looks down from the ceiling or the sky. In the example of FIG. 6C, it is assumed that the horizontal direction or the horizontal direction is viewed from a wall or the like perpendicular to the ground.

これらのほか、斜め上半分や斜め下半分の視野も考えられる。これらのように、魚眼レンズが設置されるときの魚眼レンズの向き、あるいは傾きが種々設定されることにより、様々な半球の視野が得られる。   In addition to these, a field of view of the upper half and the lower half can be considered. As described above, various hemispherical fields of view can be obtained by setting various orientations or inclinations of the fisheye lens when the fisheye lens is installed.

なお、図6では、魚眼レンズが用いられる場合について説明した。これに限られず、様々な広角レンズ1が用いられる場合も、もちろんレンズの向きや傾きによって視野が変わる。   In addition, FIG. 6 demonstrated the case where a fisheye lens was used. The present invention is not limited to this, and when various wide-angle lenses 1 are used, of course, the field of view changes depending on the direction and inclination of the lens.

次に、以上のように構成された画像処理装置10の動作について説明する。図7は、その動作を示すフローチャートである。   Next, the operation of the image processing apparatus 10 configured as described above will be described. FIG. 7 is a flowchart showing the operation.

コントローラ5は、広角レンズ1を介して取り込まれた光をイメージセンサ2で電気信号に変換させる(ステップ701)。コントローラ5は、カラー処理回路3によりカラー処理する(ステップ702)。カラー処理では、特に、上述したようにRGBデータが補間され(ステップ702−1)、補間されたRGBデータがYCrCbデータに変換される(ステップ702−2)。この変換処理では、4:4:4方式で行われればよい。あるいは、4:2:2方式、4:1:1方式、または4:2:0方式で間引きされてもよい。   The controller 5 causes the image sensor 2 to convert the light taken in through the wide angle lens 1 into an electrical signal (step 701). The controller 5 performs color processing by the color processing circuit 3 (step 702). In color processing, in particular, as described above, RGB data is interpolated (step 702-1), and the interpolated RGB data is converted into YCrCb data (step 702-2). This conversion process may be performed by the 4: 4: 4 method. Alternatively, thinning may be performed by a 4: 2: 2 method, a 4: 1: 1 method, or a 4: 2: 0 method.

なお、RGBからYCrCbの変換式は、下式(1)〜(3)で表せる。しかし、この式において各項の数値が多少異なる場合もあり得る。
Y=0.299R+0.587G+0.114B・・・(1)
Cr=0.500R-0.419G-0.081B・・・(2)
Cb= -0.169R-0.331G+0.500B・・・(3)
The conversion formula from RGB to YCrCb can be expressed by the following formulas (1) to (3). However, the numerical value of each term in this formula may be slightly different.
Y = 0.299R + 0.587G + 0.114B (1)
Cr = 0.500R-0.419G-0.081B (2)
Cb = -0.169R-0.331G + 0.500B (3)

図8は、イメージセンサ2のBayer配列を示す図である。赤の各画素をr mnとし、緑の各画素をg mnとし、青の各画素をb mnとしている。上記ステップ702−1のRGBデータの補間は、次のように行われる。例えばg11(=p11)、r12(=p12)、b21(=p21)、g22(=p22)の4つの画素のRGB値を周辺画素のRGB値を用いてラフに合成する。そうすると、4つの画素p11、p12、p21、p22のRGB値は、以下のようになる。
p11=(r11=(r10+r12)/2 , g11 , b11=(b01+b21)/2) ・・・(4)
p12=(r12 , g12=(g02+g11+g13+g22)/4, b12=(b01+b03+b21+b23)/4) ・・・(5)
p21=(r21=(r10+r12+r30+r32)/4 , g21=(g11+g20+g22+g31)/4 , b21) ・・・(6)
p22=(r22=(r12+r32)/2 , g22 , b22=(b21+b23)/2) ・・・(7)
コントローラ5は、以上のようなRGB補間処理を、全体画像25のRGBデータすべてについて行うのではなく、選択領域画像におけるRGBデータ(選択領域RGBデータ)について行うようにしてもよい。
FIG. 8 is a diagram illustrating a Bayer array of the image sensor 2. Each red pixel is denoted by r mn, each green pixel is denoted by g mn, and each blue pixel is denoted by b mn. The interpolation of RGB data in step 702-1 is performed as follows. For example, the RGB values of four pixels g11 (= p11), r12 (= p12), b21 (= p21), and g22 (= p22) are roughly combined using the RGB values of the surrounding pixels. Then, the RGB values of the four pixels p11, p12, p21, and p22 are as follows.
p11 = (r11 = (r10 + r12) / 2, g11, b11 = (b01 + b21) / 2) (4)
p12 = (r12, g12 = (g02 + g11 + g13 + g22) / 4, b12 = (b01 + b03 + b21 + b23) / 4) (5)
p21 = (r21 = (r10 + r12 + r30 + r32) / 4, g21 = (g11 + g20 + g22 + g31) / 4, b21) (6)
p22 = (r22 = (r12 + r32) / 2, g22, b22 = (b21 + b23) / 2) (7)
The controller 5 may perform the above-described RGB interpolation processing not on all the RGB data of the entire image 25 but on the RGB data (selected region RGB data) in the selected region image.

ここで、コントローラ5は、補間されたRGB値に対し、下記数1に示したマトリクスAを乗ずることで色ずれを抑えるように調整し、最終的なRGB値を求める。   Here, the controller 5 adjusts the interpolated RGB values so as to suppress color misregistration by multiplying the interpolated RGB values by the matrix A shown in Equation 1 below, and obtains final RGB values.

Figure 2008061172
Figure 2008061172

その場合、色ずれ調整後の画素値P11、P12、P21、P22は、
P11=(R11,G11,B11)=Ap11・・・(8)
P12=(R12,G12,B12)=Ap12・・・(9)
P21=(R21,G21,B21)=Ap21・・・(10)
P22=(R22,G22,B22)=Ap22・・・(11)
と表せる。なお、本実施の形態においては、この色ずれの調整処理は、必ずしも行われる必要はない。この色ずれ調整処理も、上記選択領域RGBデータについて行われるようにしてもよい。
In that case, the pixel values P11, P12, P21, P22 after color misregistration adjustment are
P11 = (R11, G11, B11) = Ap11 (8)
P12 = (R12, G12, B12) = Ap12 (9)
P21 = (R21, G21, B21) = Ap21 (10)
P22 = (R22, G22, B22) = Ap22 (11)
It can be expressed. In the present embodiment, this color misregistration adjustment process is not necessarily performed. This color misregistration adjustment process may also be performed on the selected region RGB data.

コントローラ5は、式(4)〜(7)(または、(8)〜(11))により求められたRGB値を最終的なRGB値とし、上記したように、このRGBデータをYCrCbデータに変換する。YCrCbデータはメモリ6に保存される(ステップ703)。   The controller 5 sets the RGB value obtained by the equations (4) to (7) (or (8) to (11)) as the final RGB value, and converts the RGB data into YCrCb data as described above. To do. The YCrCb data is stored in the memory 6 (step 703).

図7の説明に戻る。コントローラ5は、歪補正処理回路4により、入力機器インターフェース11からの入力情報に応じて全体画像25内の選択領域画像を歪補正処理し、歪補正画像を生成する(ステップ704)。歪補正処理回路4は、後に詳述するが、座標計算部22の処理によって、表示部12により表示される表示平面の画素の座標に相当するメモリ6のアドレスを計算により求める。すなわち座標変換処理が行われる。当該メモリ6のアドレスは、選択領域画像の補正座標に相当する。計算により求められた補正座標、すなわちメモリアドレスは、小数点を含む場合が多い。したがって、画素データ補間回路19は、座標補間により画素データを生成し、歪補正画像を生成する(ステップ704)。   Returning to the description of FIG. The controller 5 uses the distortion correction processing circuit 4 to perform distortion correction processing on the selected area image in the entire image 25 in accordance with the input information from the input device interface 11, and generates a distortion corrected image (step 704). As will be described in detail later, the distortion correction processing circuit 4 obtains the address of the memory 6 corresponding to the coordinates of the pixel on the display plane displayed by the display unit 12 by the calculation of the coordinate calculation unit 22 by calculation. That is, a coordinate conversion process is performed. The address of the memory 6 corresponds to the correction coordinates of the selected area image. The correction coordinates obtained by calculation, that is, the memory address often includes a decimal point. Therefore, the pixel data interpolation circuit 19 generates pixel data by coordinate interpolation, and generates a distortion corrected image (step 704).

コントローラ5は、生成された歪補正画像を、表示部12や外部機器13等に対応した画素フォーマットに変換する。コントローラ5は、出力用メモリに保存した後、各種のインターフェース8、9、11を介して、歪補正画像を出力する(ステップ705)。   The controller 5 converts the generated distortion corrected image into a pixel format corresponding to the display unit 12, the external device 13, and the like. After saving in the output memory, the controller 5 outputs the distortion corrected image via the various interfaces 8, 9, and 11 (step 705).

次に、上記した更新処理回路24の動作について説明する。図9は、その動作を示すフローチャートである。画像処理装置10の待機状態から、入力機器14からの情報に変化があった場合(ステップ901のYES)、コントローラ5は入力機器インターフェース11を介してその入力情報を取得する(ステップ902)。コントローラ5は、全体画像25内における強調領域16の位置情報の算出、歪補正処理のための演算処理、上記表示モードを切り替えるための演算処理、あるいは、後述する2つの表示方向のモード(直行モード及び周回モード)を切り替えるための演算処理等を行う(ステップ903)。特に、上記位置情報や表示方向のモードの切り替え情報は、表示方向指定レジスタ23に記憶される。   Next, the operation of the update processing circuit 24 will be described. FIG. 9 is a flowchart showing the operation. If there is a change in information from the input device 14 from the standby state of the image processing apparatus 10 (YES in step 901), the controller 5 acquires the input information via the input device interface 11 (step 902). The controller 5 calculates position information of the emphasis region 16 in the entire image 25, a calculation process for distortion correction processing, a calculation process for switching the display mode, or two display direction modes (direct mode) described later. Further, a calculation process for switching the rotation mode) is performed (step 903). In particular, the position information and display direction mode switching information are stored in the display direction designation register 23.

次に、歪補正処理回路4の動作についてさらに詳しく説明する。   Next, the operation of the distortion correction processing circuit 4 will be described in more detail.

図10(A)では、視点o(0,0,0)を中心とした、上述した上半球視野の上半球を横から見ている。図中、点P(u,v,w)は周囲の被写点、点Qは魚眼画像である全体画像25の結像点、角度θは点Pから視点への入射角、距離hは像高を示す。点Pと点Qとは像高特性によって対応付けられる。図10(B)は、当該像高特性を示したグラフである。横軸が角度(入射角)θ、縦軸が像高hを示している。当該データは、変換テーブルとして予めメモリ6や図示しない他のメモリに記憶されていればよい。   In FIG. 10A, the above-mentioned upper hemisphere with the viewpoint o (0, 0, 0) as the center is viewed from the side. In the figure, a point P (u, v, w) is a surrounding subject point, a point Q is an imaging point of the whole image 25 that is a fisheye image, an angle θ is an incident angle from the point P to the viewpoint, and a distance h is Indicates the image height. The point P and the point Q are associated with each other by the image height characteristic. FIG. 10B is a graph showing the image height characteristics. The horizontal axis indicates the angle (incident angle) θ, and the vertical axis indicates the image height h. The data may be stored in advance in the memory 6 or another memory (not shown) as a conversion table.

ここで、図11(A)は、表示部12に表示される範囲の平面である表示平面を示す。図11(B)は、図11(A)に示す上半球を3次元で示した図である。図11(B)に示す球面33をx−y平面上に投影した画像が、図11(C)で示す全体画像25となる。この全体画像25がイメージセンサ2により得られる歪補正前の画像である。上記表示平面32の中心Oが、上半球視野により形成される球面33に接しており、表示平面32は、上記全体画像25内の選択領域を表示した画面となる。   Here, FIG. 11A shows a display plane which is a plane of a range displayed on the display unit 12. FIG. 11B is a three-dimensional view of the upper hemisphere shown in FIG. An image obtained by projecting the spherical surface 33 shown in FIG. 11B on the xy plane is an entire image 25 shown in FIG. This whole image 25 is an image before distortion correction obtained by the image sensor 2. The center O of the display plane 32 is in contact with the spherical surface 33 formed by the upper hemisphere field of view, and the display plane 32 is a screen on which the selected area in the entire image 25 is displayed.

座標変換処理を説明するにあたり、説明を分かりやすくするため、まずズーム処理、パン処理(垂直パン処理、水平パン処理)について説明する。ズーム処理とは、入力機器インターフェース11からの入力情報に応じて、コントローラ5が選択領域の大きさを変化させることにより、歪補正画像の大きさを変化させる処理である。なお、この選択領域の大きさの変化も上記位置情報の変化の概念に含まれる。パン処理とは、入力機器インターフェース11からの入力情報に応じて、コントローラ5が選択領域の位置を変化させる処理である。   In describing the coordinate conversion processing, zoom processing and pan processing (vertical pan processing and horizontal pan processing) will be described first for easy understanding. The zoom process is a process of changing the size of the distortion-corrected image by the controller 5 changing the size of the selected region in accordance with input information from the input device interface 11. The change in the size of the selection area is also included in the concept of the change in the position information. The pan process is a process in which the controller 5 changes the position of the selected area in accordance with input information from the input device interface 11.

図12を参照して、まず表示平面32(選択領域)の中心Oを半径R(=像高100%)の球面33のパンの初期位置P0(x0,y0,z0)=P0(R,0,0)で接触させる。ズーム処理において、ある点P(X,Y)からズーム処理によりP0(x0,y0,z0)に変換される場合、変換式は下記のようになる。なお、このズーム処理では、説明をわかりやすくするため、上記表示平面32の中心Oが点Pと一致しているとする。
0=R・・・・・・・・(12)
0=X×Zoom・・・(13)
0=Y×Zoom・・・(14)
「Zoom」はズーム倍率である。ズーム処理では、図4(A)及び図4(C)において、入力された選択領域の位置情報に応じて、コントローラ5がカーソル16の大きさを変形させる。ズーム処理では、表示平面32の拡大または縮小だけであるので、x0=Rの位置は変わらない。
Referring to FIG. 12, first, the initial position P 0 (x 0 , y 0 , z 0 ) = P of the spherical surface 33 with radius R (= 100% image height) is set at the center O of the display plane 32 (selected area). Contact with 0 (R, 0, 0). In zoom processing, when a certain point P (X, Y) is converted into P 0 (x 0 , y 0 , z 0 ) by zoom processing, the conversion formula is as follows. In this zoom process, it is assumed that the center O of the display plane 32 coincides with the point P for easy understanding.
x 0 = R (12)
y 0 = X × Zoom (13)
z 0 = Y × Zoom (14)
“Zoom” is a zoom magnification. In the zoom process, the controller 5 changes the size of the cursor 16 in accordance with the input position information of the selected area in FIGS. 4 (A) and 4 (C). In the zoom process, since only the enlargement or reduction of the display plane 32 is performed, the position of x 0 = R does not change.

垂直パン処理を説明する。中心Oを球面33に接触させたまま、初期位置P0からy軸を中心に垂直パン角Vだけ表示平面32を移動させた位置がP1(x1,y1,z1)である。P0からP1への移動は、図4(A)で説明すると、カーソル16が垂直方向(図中縦方向)へ移動に相当する。この場合、表示部12で表示される歪補正画像は、地平線に垂直方向に移動するように表示される。ただし、図4(A)では横半球視野であり、図12では上半球視野であることころが違う点に注意を要し、説明の便宜上、今図4(A)の視野が上半球視野であると仮定して説明している。垂直パン角の座標変換式は、下記のようになる。
1=x0cosV+z0sinV・・・・(15)
1=y0・・・・・・・・・・・・・・(16)
1=−x0sinV+z0cosV・・・(17)
つまり、これらの式は、y軸を中心とした回転行列の変換式である。
The vertical pan process will be described. P 1 (x 1 , y 1 , z 1 ) is a position where the display plane 32 is moved from the initial position P 0 by the vertical pan angle V around the y axis while keeping the center O in contact with the spherical surface 33. The movement from P 0 to P 1 corresponds to the movement of the cursor 16 in the vertical direction (vertical direction in the figure), as described with reference to FIG. In this case, the distortion correction image displayed on the display unit 12 is displayed so as to move in the direction perpendicular to the horizon. However, it should be noted that FIG. 4A is a horizontal hemisphere field of view, and FIG. 12 is an upper hemisphere field of view. For convenience of explanation, the field of FIG. 4A is now an upper hemisphere field of view. It is assumed and explained. The coordinate conversion formula for the vertical pan angle is as follows.
x 1 = x 0 cosV + z 0 sinV (15)
y 1 = y 0 (16)
z 1 = −x 0 sinV + z 0 cosV (17)
That is, these formulas are rotation matrix conversion formulas around the y-axis.

水平パン処理を説明する。中心Oを球面33に接触させたまま、Pからz軸を中心に水平パン角Hだけ移動させた位置がP2(x2,y2,z2)である。P1からP2への移動は、図4(A)で説明すると、カーソル16が全体画像25の中心を中心として回転角Hで移動したことに相当する。この場合、表示部で表示される歪補正画像は、地平線に平行に水平方向に移動するように表示される。水平パン角の座標変換式は、下記のようになる。
2=x1cosH−y1sinH・・・・(18)
2=x1sinH+y1cosH・・・・(19)
2=z1・・・・・・・・・・・・・・(20)
つまり、これらの式は、z軸を中心とした回転行列の変換式である。
The horizontal panning process will be described. P 2 (x 2 , y 2 , z 2 ) is a position moved from the P 1 by the horizontal pan angle H around the z axis while keeping the center O in contact with the spherical surface 33. The movement from P 1 to P 2 corresponds to the movement of the cursor 16 at the rotation angle H about the center of the entire image 25 as described with reference to FIG. In this case, the distortion correction image displayed on the display unit is displayed so as to move in the horizontal direction parallel to the horizon. The coordinate conversion formula for the horizontal pan angle is as follows.
x 2 = x 1 cosH-y 1 sinH ···· (18)
y 2 = x 1 sinH + y 1 cosH (19)
z 2 = z 1 (20)
That is, these equations are rotation matrix conversion equations centered on the z-axis.

図16に、以上説明した各回転行列を示す。図16に示すように、[X]はx軸を中心とする回転行列、[Y]はy軸を中心とする回転行列、[Z]はz軸を中心とする回転行列、[M]はズーム倍率を示す。そうすると、[P2]は、直行モードで下式(21)、周回モードで(22)で表せる。
[P2]=[Z][Y][X][M][P0] ・・・(21)
[P2]=[Z][Y][M][P0] ・・・・(22)
「直行モード」、「周回モード」とは、上記式(12)〜(20)を用いて、全体画像25上での選択領域の位置情報を定義するためのモードである。
FIG. 16 shows each rotation matrix described above. As shown in FIG. 16, [X] is a rotation matrix centered on the x axis, [Y] is a rotation matrix centered on the y axis, [Z] is a rotation matrix centered on the z axis, and [M] is Indicates the zoom magnification. Then, [P 2 ] can be expressed by the following equation (21) in the direct mode and (22) in the circulation mode.
[P 2 ] = [Z] [Y] [X] [M] [P 0 ] (21)
[P 2 ] = [Z] [Y] [M] [P 0 ] (22)
The “direct mode” and “circulation mode” are modes for defining position information of a selected region on the entire image 25 using the above formulas (12) to (20).

「直行モード」は、上記P0を初期位置とし、上式(21)により3軸すべての周りに点Pを移動させることが可能であって、その結果、最終的に位置した点P(つまりP2)の位置を定義するモードである。これは、図6(C)で示したように、横半球視野が得られるようにカメラが設置された場合に主に用いられるモードである。横半球視野では、図11〜図13で示したz軸方向が、水平線の方向と一致する。 In the “direct mode”, it is possible to move the point P around all three axes by the above equation (21) with the above P 0 as an initial position. In this mode, the position of P 2 ) is defined. As shown in FIG. 6C, this is a mode mainly used when a camera is installed so that a horizontal hemisphere field of view can be obtained. In the horizontal hemisphere field of view, the z-axis direction shown in FIGS. 11 to 13 coincides with the direction of the horizontal line.

「周回モード」は、上記P0を初期位置とし、上式(22)によりz軸及びy軸の2軸の周りに点Pを移動させることが可能であって、その結果、最終的に位置した点Pの位置を定義するモードである。これは、図6(A)及び図6(B)で示したように、上及び下半球視野が得られるようにカメラが設置された場合に主に用いられるモードである。 In the “circulation mode”, the above-described P 0 is set as an initial position, and the point P can be moved around two axes of the z-axis and the y-axis by the above equation (22). In this mode, the position of the point P is defined. This is a mode mainly used when the camera is installed so that the upper and lower hemispherical fields of view can be obtained as shown in FIGS. 6 (A) and 6 (B).

次に、歪補正のための座標変換処理について説明する。図13を参照して、まずP2(x2,y2,z2)の入射角(仰角)θを求める。図13において、座標中心をo(0,0,0)とすると、
OP2=(x2 2+y2 2+z2 21/2・・・・(23)
であるので、θは以下の式で表せる。
θ=arccos(z2/OP2)・・・(24)
なお、図12、図13に示したP2(x2,y2,z2)は、図10、図11で示した点P(u,v,w)に相当する座標と考えてよい。
Next, coordinate conversion processing for distortion correction will be described. Referring to FIG. 13, first, an incident angle (elevation angle) θ of P 2 (x 2 , y 2 , z 2 ) is obtained. In FIG. 13, if the coordinate center is o (0, 0, 0),
OP 2 = (x 2 2 + y 2 2 + z 2 2 ) 1/2 (23)
Therefore, θ can be expressed by the following equation.
θ = arccos (z 2 / OP 2 ) (24)
Note that P 2 (x 2 , y 2 , z 2 ) shown in FIGS. 12 and 13 may be considered as coordinates corresponding to the point P (u, v, w) shown in FIGS. 10 and 11.

式(24)で求められたθから像高h(図10(A)参照)が求められる。像高hは、上記したように、図10(B)の像高特性から求められる。   An image height h (see FIG. 10A) is obtained from θ obtained by the equation (24). As described above, the image height h is obtained from the image height characteristics shown in FIG.

図12を参照して、像高hが求められると、点P2から垂直に下りた点P2’(x2,y2,0)を像高hの位置である点Q(x,y)(図10(A)参照)に拡大または縮小させる。具体的には、下記の式から点Qの座標が求められる。
OP2’=OP2sinθ・・・(25)
x=x2h/OP2’・・・・・(26)
y=y2h/OP2’・・・・・(27)
以上のように、点Qの座標(補正座標)が計算されると、図11(C)に示した点Qの座標を、図11(D)に示す点P(u,v,w)の座標と対応させる。すなわち、点Qの座標が計算されれば、その点Qに対応するメモリアドレス上の画素データ(上記ステップ703で保存された画素データのうちの点Qに対応する座標の画素データ)が、当該メモリから読み出される。このような点Qの座標計算が、表示平面32上の全ての点について行われることにより、表示平面32に対応する選択領域の歪補正画像35(図11(D)参照)が生成される。
Referring to FIG. 12, when the image height h is obtained, P 2 that from the point P 2 downlink vertically '(x 2, y 2, 0) point is the position of the image height h to Q (x, y ) (See FIG. 10A). Specifically, the coordinates of the point Q are obtained from the following equation.
OP 2 '= OP 2 sin θ (25)
x = x 2 h / OP 2 '(26)
y = y 2 h / OP 2 '(27)
As described above, when the coordinates of the point Q (corrected coordinates) are calculated, the coordinates of the point Q shown in FIG. 11C are changed to the points P (u, v, w) shown in FIG. Match with coordinates. That is, when the coordinates of the point Q are calculated, the pixel data on the memory address corresponding to the point Q (the pixel data of the coordinates corresponding to the point Q among the pixel data stored in step 703) is Read from memory. Such coordinate calculation of the point Q is performed for all the points on the display plane 32, whereby a distortion correction image 35 (see FIG. 11D) of the selected region corresponding to the display plane 32 is generated.

ここで、歪補正のために演算により求められた点Qの座標(演算により求められたメモリアドレス)は、上述したように、表示平面32の歪補正画像35を構成する各画素に1:1で対応しない場合が多い。したがって、画素データ補間回路19は、その演算により求められた座標を用いて、次に説明するように画素データについての補間処理を行う。   Here, the coordinates of the point Q obtained by calculation for distortion correction (memory address obtained by calculation) are 1: 1 for each pixel constituting the distortion correction image 35 of the display plane 32 as described above. In many cases, it does not correspond. Therefore, the pixel data interpolation circuit 19 performs an interpolation process on the pixel data as described below using the coordinates obtained by the calculation.

図14は、当該補間処理の動作を説明するための図である。例えば、画素データ補間回路19は、図8を参照して、計算により求められたある点p(上記説明における点Qに相当する)の座標の画素データを補間により求めるとする。図14に示すように、今、例えば、点pの座標(x,y)が、小数点を含む実数である(256.7,678.9)であったとする。この点pを含む周辺4つの画素データがメモリ6から読み出される。すなわち、小数点を切り上げまたは切り下げることにより得られる4つの画素の画素データが読み出される。その4つの画素の座標は、下記のようになる。
左上(256,678)
右上(256,679)
左下(257,678)
右下(257,679)
これら4点は、図8におけるg11、r12、b21、g22に相当する。これらの4点の画素データ(4点それぞれの輝度データ(Yデータ)及び色差データ(CrCbデータ))が読み出されると、そのうち、点pの輝度データについては、直線補間し、色差データについてはその色差データそのものを使用する。これは、人間が、色差に対する感度が輝度に対する感度の半分程度でしかないことによる。あるいは、色差データについても直線補間を行ってもよい。
FIG. 14 is a diagram for explaining the operation of the interpolation processing. For example, it is assumed that the pixel data interpolation circuit 19 obtains pixel data of coordinates of a certain point p (corresponding to the point Q in the above description) obtained by calculation with reference to FIG. As shown in FIG. 14, for example, it is assumed that the coordinates (x, y) of the point p are real numbers (256.7, 678.9) including a decimal point. Four pieces of peripheral pixel data including this point p are read from the memory 6. That is, pixel data of four pixels obtained by rounding up or down the decimal point is read out. The coordinates of the four pixels are as follows.
Upper left (256,678)
Upper right (256,679)
Lower left (257, 678)
Lower right (257,679)
These four points correspond to g11, r12, b21, and g22 in FIG. When these four points of pixel data (the luminance data (Y data) and the color difference data (CrCb data) of each of the four points) are read out, the luminance data at the point p is linearly interpolated, and the color difference data is The color difference data itself is used. This is due to the fact that human beings have only half the sensitivity to luminance and the sensitivity to luminance. Alternatively, linear interpolation may be performed on the color difference data.

直線補間は、各種の方法がある。例えば4点の画素データから平均値を算出したり、中央値を算出したりすることにより点pの画素データが求められる。あるいは、次のように補間処理されてもよい。   There are various methods for linear interpolation. For example, the pixel data of the point p is obtained by calculating the average value from the pixel data of four points or calculating the median value. Alternatively, interpolation processing may be performed as follows.

上記式(8)〜(11)(また、式(4)〜(7)でもよい。)で示した4つの点のRGB値から、下記のように点pについて補間されたRGB値であるP(1.m,1.n)が求められる。
P(1.m,1.n)=(1-m)(1-n)P11+(1-m)nP12+m(1-n)P21+mnP22・・・(28)
より厳密には、
P(1+(0.m),1+(0.n))=(1-(0.m))(1-(0.n))P11+(1-(0.m))(0.n)P12
+(0.m)(1-(0.n))P21+(0.m)(0.n)P22・・・(29)
m、nは整数であり、図8において画素g11(=p11)、r12(=p12)、b21(=p21)、g22(=p22)の中心点をCとする。また、点Cから垂直方向に1画素分離れた点の座標をm=1、点Cから水平方向に1画素分離れた点の座標をn=1とする。m、nについて、点Cから上下方向で正負が定められ、また、左右方向で正負が定められる。
P, which is an RGB value interpolated with respect to the point p as follows from the RGB values of the four points shown in the above formulas (8) to (11) (also may be the formulas (4) to (7)) (1.m, 1.n) is required.
P (1.m, 1.n) = (1-m) (1-n) P11 + (1-m) nP12 + m (1-n) P21 + mnP22 (28)
More precisely,
P (1+ (0.m), 1 + (0.n)) = (1- (0.m)) (1- (0.n)) P11 + (1- (0.m)) (0. n) P12
+ (0.m) (1- (0.n)) P21 + (0.m) (0.n) P22 (29)
m and n are integers, and the center point of pixels g11 (= p11), r12 (= p12), b21 (= p21), and g22 (= p22) in FIG. Further, the coordinates of a point separated by 1 pixel in the vertical direction from the point C are m = 1, and the coordinates of the point separated by 1 pixel in the horizontal direction from the point C are n = 1. For m and n, positive / negative is determined in the vertical direction from the point C, and positive / negative is determined in the horizontal direction.

上記したように、人間が、色差に対する感度が輝度に対する感度の半分程度でしかないことから、点pの補間処理の方法として下式(30)の近似式が成立する。この式(30)の例では、上記ステップ702−2において4:2:0方式で変換されたYCrCbデータを扱っている。
YCrCbP(1+(0.m),1+(0.n))
=YCrCb{(1-(0.m))(1-(0.n))P11+(1-(0.m))(0.n)P12 +(0.m)(1-(0.n))P21+(0.m)(0.n)P22}
=(1-(0.m))(1-(0.n))YCrCbP11+(1-(0.m))(0.n)YCrCbP12+(0.m)(1-(0.n))YCrCbP21
+(0.m)(0.n)YCrCbP22
≒((1-(0.m))(1-(0.n))YP11+(1-(0.m))(0.n)YP12+(0.m)(1-n)YP21+(0.m)(0.n)YP22,
CrP12, CbP21)・・・(30)
この式(30)では、輝度のみを計算すればよいので、計算量が1/3程度になる。また、補間値を算出するために、RGB補間回路により補間された選択領域RGBデータと、YCrCbデータが乗算されるので、画質の劣化を抑えながら計算量を減らすことができる。この式(30)は、上記のように4:2:0方式で変換されたYCrCbデータを扱っている。しかし、もちろん、他の方式で変換されたYCrCbデータに対し、補間された選択領域RGBが用いられてもよい。
As described above, since the human sensitivity to the color difference is only about half of the sensitivity to the luminance, the approximate expression of the following expression (30) is established as a method of the interpolation process for the point p. In the example of Expression (30), YCrCb data converted by the 4: 2: 0 method in Step 702-2 is handled.
YCrCbP (1+ (0.m), 1 + (0.n))
= YCrCb {(1- (0.m)) (1- (0.n)) P11 + (1- (0.m)) (0.n) P12 + (0.m) (1- (0.n )) P21 + (0.m) (0.n) P22}
= (1- (0.m)) (1- (0.n)) YCrCbP11 + (1- (0.m)) (0.n) YCrCbP12 + (0.m) (1- (0.n)) YCrCbP21
+ (0.m) (0.n) YCrCbP22
≒ ((1- (0.m)) (1- (0.n)) YP11 + (1- (0.m)) (0.n) YP12 + (0.m) (1-n) YP21 + (0. m) (0.n) YP22,
CrP12, CbP21) (30)
In this equation (30), only the luminance needs to be calculated, so the calculation amount is about 1/3. In addition, since the selection area RGB data interpolated by the RGB interpolation circuit and the YCrCb data are multiplied in order to calculate the interpolation value, the amount of calculation can be reduced while suppressing the deterioration of the image quality. This equation (30) handles YCrCb data converted by the 4: 2: 0 method as described above. However, of course, the selection area RGB interpolated for YCrCb data converted by another method may be used.

図14に示すように、出力画素合成回路は、4:2:0方式で求められた画素データを一旦4:4:4方式にする。そして、出力形式に合わせて適宜4:2:2等の方式に変換される。もちろん、4:2:2方式のほか、4:2:0方式、またはその他の方式であってもよい。出力画素合成回路20での処理が終了すると、コントローラ5は、画素データを出力用のフレームメモリに書き込む。   As shown in FIG. 14, the output pixel composition circuit temporarily changes the pixel data obtained by the 4: 2: 0 method to the 4: 4: 4 method. Then, it is converted into 4: 2: 2 or the like as appropriate according to the output format. Of course, in addition to the 4: 2: 2 scheme, the 4: 2: 0 scheme or other schemes may be used. When the processing in the output pixel synthesis circuit 20 is completed, the controller 5 writes the pixel data in the output frame memory.

以上のように、本実施の形態では、全体画像25のうち選択された選択領域画像の歪補正が実行される際、画素データの補間処理が行われる。特に、例えば全体画像25のうち選択された選択領域画像の歪補正が実行されるので、全体画像25の全体が補正される場合より計算量を低減できる。   As described above, in the present embodiment, pixel data interpolation processing is performed when distortion correction is performed on a selected region image selected from the entire image 25. In particular, for example, since distortion correction is performed on a selected region image selected from the entire image 25, the amount of calculation can be reduced as compared with the case where the entire entire image 25 is corrected.

本実施の形態では、上記したように、更新処理回路24において選択領域画像が更新されるたびに、画素データ補間回路19により補間処理が実行される。このような場合であっても、上記のように計算量が低減されているので、スムーズな処理を実行することができる。   In the present embodiment, as described above, every time the selected area image is updated in the update processing circuit 24, the pixel data interpolation circuit 19 performs an interpolation process. Even in such a case, since the calculation amount is reduced as described above, smooth processing can be executed.

本実施の形態では、カーソル16を含む全体画像25と、歪が補正された歪補正画像35とが一画面で出力可能であることにより、例えば全体画像25の中のどの部分が選択されているかをユーザが認識することができ、便利である。また、この場合においても、上記したように計算量を極力低減しているので、スムーズな合成画像の出力処理を実行することができる。   In the present embodiment, the entire image 25 including the cursor 16 and the distortion-corrected image 35 in which the distortion is corrected can be output on one screen. For example, which part of the entire image 25 is selected. Can be recognized by the user, which is convenient. Also in this case, since the amount of calculation is reduced as much as described above, it is possible to execute a smooth composite image output process.

本発明に係る実施の形態は、以上説明した実施の形態に限定されず、他の種々の実施形態が考えられる。   Embodiments according to the present invention are not limited to the embodiments described above, and other various embodiments are conceivable.

本発明の一実施の形態に係る画像処理システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing system according to an embodiment of the present invention. 図1に示すカラー処理回路の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a color processing circuit illustrated in FIG. 1. 図1に示す歪補正処理回路の構成を示すブロック図である。It is a block diagram which shows the structure of the distortion correction processing circuit shown in FIG. 画像処理装置により画像処理されて表示部で表示される各種画像の例を示す。The example of the various images which are image-processed by an image processing apparatus and are displayed on a display part is shown. 球体で表される視野を示す図である。It is a figure which shows the visual field represented by a spherical body. 広角レンズを用いたカメラにより撮像されるときの視野(撮像範囲)をそれぞれ示す図である。It is a figure which each shows a visual field (imaging range) when imaged with the camera using a wide angle lens. 画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image processing apparatus. イメージセンサのBayer配列を示す図である。It is a figure which shows the Bayer arrangement | sequence of an image sensor. 更新処理回路の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an update process circuit. 座標変換の原理の一例を説明するための図である。It is a figure for demonstrating an example of the principle of coordinate transformation. 座標変換の原理の一例を説明するための図である。It is a figure for demonstrating an example of the principle of coordinate transformation. パン処理の座標変換を説明するための図である。It is a figure for demonstrating the coordinate conversion of a pan process. 座標変換の原理の一例を説明するための図である。It is a figure for demonstrating an example of the principle of coordinate transformation. 補間処理の動作を説明するための図である。It is a figure for demonstrating the operation | movement of an interpolation process. 表示モードが順に切り替えられるときの表示部に表示される表示画像を示す図である。It is a figure which shows the display image displayed on a display part when a display mode is switched in order. 各回転行列及びP2の位置を説明するための図である。It is a diagram for explaining the position of each rotation matrix and P 2.

符号の説明Explanation of symbols

4…歪補正処理回路
5…コントローラ
6…メモリ
10…画像処理装置
16…強調領域(カーソル)
17…RGB補間回路
18…YCrCb変換回路
19…画素データ補間回路
22…座標計算部
23…表示方向指定レジスタ
24…更新処理回路
25…広視野画像、全体画像
35…歪補正画像
36…合成画像
4 ... distortion correction processing circuit 5 ... controller 6 ... memory 10 ... image processing device 16 ... emphasis region (cursor)
DESCRIPTION OF SYMBOLS 17 ... RGB interpolation circuit 18 ... YCrCb conversion circuit 19 ... Pixel data interpolation circuit 22 ... Coordinate calculation part 23 ... Display direction designation register 24 ... Update processing circuit 25 ... Wide field image, whole image 35 ... Distortion correction image 36 ... Composite image

Claims (10)

広角レンズを用いて撮像された該広角レンズによる歪を含む広視野画像のうち選択された選択領域の画像の前記歪を補正するために、前記選択領域画像の補正座標を計算する座標計算手段と、
前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する補間手段と
を具備することを特徴とする画像処理装置。
Coordinate calculation means for calculating correction coordinates of the selected area image in order to correct the distortion of the image of the selected area selected from the wide-field image including distortion caused by the wide-angle lens imaged using the wide-angle lens; ,
Interpolating means for interpolating each predetermined pixel data of the selected area image corresponding to the calculated correction coordinates. An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記広視野画像のRGBデータを、輝度データ及び色差データを含む輝度/色差データに変換する変換手段をさらに具備し、
前記座標計算手段は、前記輝度/色差データのうち、前記選択領域画像に対応する選択領域輝度/色差データの前記補正座標を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
Further comprising conversion means for converting the RGB data of the wide-field image into luminance / color difference data including luminance data and color difference data;
The coordinate calculation means calculates the correction coordinates of selected area luminance / color difference data corresponding to the selected area image out of the luminance / color difference data.
請求項2に記載の画像処理装置であって、
前記補間手段は、
前記広視野画像のRGBデータのうち、前記選択領域画像に対応する選択領域RGBデータを、当該選択領域画像の各画素について補間するRGB補間手段と、
前記補間された選択領域RGBデータと前記選択領域輝度/色差データとに基づき、補間値を算出する算出手段と
を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The interpolation means includes
RGB interpolation means for interpolating selection region RGB data corresponding to the selection region image among the RGB data of the wide field image for each pixel of the selection region image;
An image processing apparatus comprising: calculation means for calculating an interpolation value based on the interpolated selection area RGB data and the selection area luminance / color difference data.
請求項2に記載の画像処理装置であって、
前記座標計算手段は、小数点を含む実数を前記補正座標として算出し、
前記補間手段は、前記実数の小数点を切り上げまたは切り下げることにより得られる4つの画素の輝度データについて直線補間する輝度データ補間手段を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The coordinate calculation means calculates a real number including a decimal point as the correction coordinates,
The image processing apparatus according to claim 1, wherein the interpolation means includes luminance data interpolation means for linearly interpolating luminance data of four pixels obtained by rounding up or down the decimal point of the real number.
請求項3に記載の画像処理装置であって、
前記補間手段は、前記4つの画素のうち2つの画素を直線補間する色差データ補間手段を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The image processing apparatus, wherein the interpolation means includes color difference data interpolation means for linearly interpolating two of the four pixels.
請求項3に記載の画像処理装置であって、
前記補間手段は、前記4つの画素のうちの所定の画素の色差データを選択する色差データ補間手段を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The image processing apparatus, wherein the interpolation means includes color difference data interpolation means for selecting color difference data of a predetermined pixel among the four pixels.
請求項1に記載の画像処理装置であって、
前記選択領域を示す情報に応じて前記選択領域を更新する更新手段をさらに具備することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
An image processing apparatus, further comprising updating means for updating the selection area according to information indicating the selection area.
請求項1に記載の画像処理装置であって、
前記広視野画像内に前記選択領域が強調された強調領域を含む画像を、全体画像として出力する第1の出力手段と、
前記選択領域画像の前記歪が補正された歪補正画像を出力する第2の出力手段と、
全体画像と選択領域画像とが一画面の画像データとして合成された合成画像を出力する合成画像出力手段と
をさらに具備することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
A first output means for outputting an image including an enhanced region in which the selected region is enhanced in the wide-field image as a whole image;
Second output means for outputting a distortion corrected image in which the distortion of the selected area image is corrected;
An image processing apparatus, further comprising: a synthesized image output unit that outputs a synthesized image obtained by synthesizing the entire image and the selected region image as image data of one screen.
広角レンズを用いて撮像された該広角レンズによる歪を含む広視野画像のうち選択された選択領域の画像の前記歪を補正するために、前記選択領域画像の補正座標を算出し、
前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する
ことを特徴とする画像処理方法。
In order to correct the distortion of the image of the selected area selected from the wide-field image including distortion caused by the wide-angle lens imaged using the wide-angle lens, the correction coordinates of the selected area image are calculated,
An image processing method comprising: interpolating predetermined pixel data of the selected area image corresponding to the calculated correction coordinates.
広角レンズを用いて撮像された該広角レンズによる歪を含む広視野画像のうち選択された選択領域の画像の前記歪を補正するために、前記選択領域画像の補正座標を算出し、
前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する
ことをコンピュータに実行させるプログラム。
In order to correct the distortion of the image of the selected area selected from the wide-field image including distortion caused by the wide-angle lens imaged using the wide-angle lens, the correction coordinates of the selected area image are calculated,
A program that causes a computer to execute interpolation of each predetermined pixel data of the selected area image corresponding to the calculated correction coordinates.
JP2006238779A 2006-09-04 2006-09-04 Image processing apparatus, image processing method and program therefor and recording medium with the program stored Pending JP2008061172A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006238779A JP2008061172A (en) 2006-09-04 2006-09-04 Image processing apparatus, image processing method and program therefor and recording medium with the program stored

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006238779A JP2008061172A (en) 2006-09-04 2006-09-04 Image processing apparatus, image processing method and program therefor and recording medium with the program stored

Publications (1)

Publication Number Publication Date
JP2008061172A true JP2008061172A (en) 2008-03-13

Family

ID=39243369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006238779A Pending JP2008061172A (en) 2006-09-04 2006-09-04 Image processing apparatus, image processing method and program therefor and recording medium with the program stored

Country Status (1)

Country Link
JP (1) JP2008061172A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010245901A (en) * 2009-04-07 2010-10-28 Dainippon Printing Co Ltd Image processing apparatus, image processing method and the like
JP2012105246A (en) * 2010-11-09 2012-05-31 Avisonic Technology Corp Image correction method and related image correction system
WO2012108132A1 (en) * 2011-02-10 2012-08-16 パナソニック株式会社 Display device, computer program and method of performing computer
JP2012169780A (en) * 2011-02-10 2012-09-06 Ricoh Co Ltd Imaging apparatus and image correction method
EP2501134A1 (en) 2011-03-18 2012-09-19 Ricoh Company, Ltd. Image processor and image processing method
JP2017126352A (en) * 2012-01-31 2017-07-20 パナソニックIpマネジメント株式会社 Image processing device and image processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02127877A (en) * 1988-11-08 1990-05-16 Casio Comput Co Ltd Electronic still camera provided with fisheye lens
JPH11261868A (en) * 1998-03-13 1999-09-24 Fujitsu Ltd Fisheye lens camera device and image distortion correction method and image extraction method thereof
JP2000182022A (en) * 1998-12-11 2000-06-30 Seiko Epson Corp Color image processor and color printing system
JP2004282163A (en) * 2003-03-12 2004-10-07 Minolta Co Ltd Camera, monitor image generating method, program, and monitoring system
JP2005135096A (en) * 2003-10-29 2005-05-26 Nikon Corp Image processing method, image processing apparatus and program
JP2006109119A (en) * 2004-10-06 2006-04-20 Omron Corp Moving image recorder and moving image reproducing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02127877A (en) * 1988-11-08 1990-05-16 Casio Comput Co Ltd Electronic still camera provided with fisheye lens
JPH11261868A (en) * 1998-03-13 1999-09-24 Fujitsu Ltd Fisheye lens camera device and image distortion correction method and image extraction method thereof
JP2000182022A (en) * 1998-12-11 2000-06-30 Seiko Epson Corp Color image processor and color printing system
JP2004282163A (en) * 2003-03-12 2004-10-07 Minolta Co Ltd Camera, monitor image generating method, program, and monitoring system
JP2005135096A (en) * 2003-10-29 2005-05-26 Nikon Corp Image processing method, image processing apparatus and program
JP2006109119A (en) * 2004-10-06 2006-04-20 Omron Corp Moving image recorder and moving image reproducing apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8379976B2 (en) 2009-04-07 2013-02-19 Dai Nippon Printing Co., Ltd. Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored
JP2010245901A (en) * 2009-04-07 2010-10-28 Dainippon Printing Co Ltd Image processing apparatus, image processing method and the like
US9153014B2 (en) 2010-11-09 2015-10-06 Avisonic Technology Corporation Image correction method and related image correction system thereof
JP2012105246A (en) * 2010-11-09 2012-05-31 Avisonic Technology Corp Image correction method and related image correction system
JP2012169723A (en) * 2011-02-10 2012-09-06 Panasonic Corp Display device and computer program
JP2012169780A (en) * 2011-02-10 2012-09-06 Ricoh Co Ltd Imaging apparatus and image correction method
WO2012108132A1 (en) * 2011-02-10 2012-08-16 パナソニック株式会社 Display device, computer program and method of performing computer
CN103354996A (en) * 2011-02-10 2013-10-16 松下电器产业株式会社 Display device, computer program and method of performing computer
US9412149B2 (en) 2011-02-10 2016-08-09 Panasonic Intellectual Property Management Co., Ltd. Display device, computer program, and computer-implemented method
US11651471B2 (en) 2011-02-10 2023-05-16 Panasonic Intellectual Property Management Co., Ltd. Display device, computer program, and computer-implemented method
EP2501134A1 (en) 2011-03-18 2012-09-19 Ricoh Company, Ltd. Image processor and image processing method
US8639029B2 (en) 2011-03-18 2014-01-28 Ricoh Company, Ltd. Image processor and image processing method
JP2017126352A (en) * 2012-01-31 2017-07-20 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP2019017069A (en) * 2012-01-31 2019-01-31 パナソニックIpマネジメント株式会社 Image processor and image processing method
US10366477B2 (en) 2012-01-31 2019-07-30 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US8189953B2 (en) Image processing apparatus and image processing method
US10572982B2 (en) Method and system of image distortion correction for images captured by using a wide-angle lens
US7834907B2 (en) Image-taking apparatus and image processing method
JP5451782B2 (en) Image processing apparatus and image processing method
US20130058589A1 (en) Method and apparatus for transforming a non-linear lens-distorted image
JP2004241991A (en) Imaging apparatus, image processor, and image processing program
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
WO2012060269A1 (en) Image processing method, image processing device, and imaging device
JP2008061172A (en) Image processing apparatus, image processing method and program therefor and recording medium with the program stored
TWI599809B (en) Lens module array, image sensing device and fusing method for digital zoomed images
US10559068B2 (en) Image processing device, image processing method, and program processing image which is developed as a panorama
JP5195841B2 (en) On-vehicle camera device and vehicle
JP2020068514A (en) Image processing device, image processing method, and program
WO2013169384A1 (en) Systems, methods, and computer program products for compound image demosaicing and warping
JP7261642B2 (en) Image processing method, image processing device, and head mounted display
JP7266179B2 (en) Image processing device and imaging device
CN109672810B (en) Image processing apparatus, image processing method, and storage medium
US9743007B2 (en) Lens module array, image sensing device and fusing method for digital zoomed images
CN107979715B (en) Image pickup apparatus
US11106042B2 (en) Image processing apparatus, head-mounted display, and image displaying method
US20210397005A1 (en) Image processing apparatus, head-mounted display, and image displaying method
JP5458906B2 (en) Image processing device
JP7429515B2 (en) Image processing device, head-mounted display, and image display method
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP2019176302A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110628