JP2008061172A - Image processing apparatus, image processing method and program therefor and recording medium with the program stored - Google Patents
Image processing apparatus, image processing method and program therefor and recording medium with the program stored Download PDFInfo
- Publication number
- JP2008061172A JP2008061172A JP2006238779A JP2006238779A JP2008061172A JP 2008061172 A JP2008061172 A JP 2008061172A JP 2006238779 A JP2006238779 A JP 2006238779A JP 2006238779 A JP2006238779 A JP 2006238779A JP 2008061172 A JP2008061172 A JP 2008061172A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image processing
- processing apparatus
- wide
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 5
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 26
- 239000002131 composite material Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 101100528925 Catharanthus roseus ROLC gene Proteins 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、広角レンズを用いて撮像された画像の歪を補正処理する画像処理装置、画像処理方法、そのプログラム及び記録媒体に関する。 The present invention relates to an image processing apparatus, an image processing method, a program thereof, and a recording medium for correcting distortion of an image captured using a wide-angle lens.
従来から、カメラにより撮像された画像の幾何学的な歪(ディストーション)を補正する技術として次のような技術がある。例えば演算により歪のある画像データをYUVデータに変換し近似多項式演算した後、輝度信号と色差信号とでそれぞれ異なる補間演算する、といった技術である。具体的には、YUVデータのうち、Yデータについては、9点の画素データからラグランジュの補間公式を応用して2次の多項式で補間計算が行われている。一方、YUVデータのうち、UVデータについては4点の画素データから線形補間公式を用いて多項式の補間計算が行われている。このようにするのは、輝度情報については、人間の視覚感度が高いため計算量が多くても画質の劣化が少ない補間法を選ばなければならないが、色情報は視覚感度が低いため計算量の少ない補間法を選択しても視覚上での大きな画質劣化が起こらないからである(例えば、特許文献1参照。)。 Conventionally, there are the following techniques for correcting geometric distortion (distortion) of an image captured by a camera. For example, there is a technique in which image data with distortion is converted into YUV data by calculation, approximate polynomial calculation is performed, and different interpolation calculations are performed for the luminance signal and the color difference signal. Specifically, among YUV data, for Y data, interpolation calculation is performed with a second-order polynomial by applying Lagrange's interpolation formula from 9-point pixel data. On the other hand, among the YUV data, for the UV data, a polynomial interpolation calculation is performed from four points of pixel data using a linear interpolation formula. This is because for luminance information, human visual sensitivity is high, so even if the amount of calculation is large, an interpolation method with little deterioration in image quality must be selected. This is because even if a small number of interpolation methods are selected, there is no significant deterioration in visual image quality (see, for example, Patent Document 1).
しかしながら、最近では、撮像素子の画素数が増えているため、歪補正の計算量も増えており、処理に時間がかかる。特に、撮像される画像が動画の場合、歪補正の計算量が膨大になり、あるいは、歪補正のリアルタイム性を要求される場合には、高速な演算処理が要求される。 However, recently, since the number of pixels of the image sensor has increased, the amount of calculation for distortion correction has also increased, and processing takes time. In particular, when the captured image is a moving image, the amount of calculation for distortion correction becomes enormous, or when high-speed distortion processing is required, high-speed arithmetic processing is required.
以上のような事情に鑑み、本発明の目的は、歪補正における計算量を低減することができる画像処理装置、画像処理方法、そのブログラム及びそのプログラムを記録した記録媒体を提供することにある。 In view of the circumstances as described above, an object of the present invention is to provide an image processing apparatus, an image processing method, a program thereof, and a recording medium on which the program is recorded, which can reduce the amount of calculation in distortion correction. .
上記目的を達成するため、本発明に係る画像処理装置は、広角レンズを用いて撮像された該広角レンズによる歪を含む広視野画像のうち選択された選択領域の画像の前記歪を補正するために、前記選択領域画像の補正座標を計算する座標計算手段と、前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する補間手段とを具備する。 In order to achieve the above object, an image processing apparatus according to the present invention corrects the distortion of an image of a selected region selected from a wide-field image including distortion caused by the wide-angle lens imaged using a wide-angle lens. Furthermore, coordinate calculating means for calculating the correction coordinates of the selection area image and interpolation means for interpolating each predetermined pixel data of the selection area image corresponding to the calculated correction coordinates are provided.
本発明では、例えば広角視野画像のうち選択された選択領域画像の歪補正が実行される際、画素データの補間処理が行われる。特に、例えば広角視野画像のうち選択された選択領域画像の歪補正が実行されるので、広視野画像全体が補正される場合より計算量を低減できる。 In the present invention, for example, when distortion correction is performed on a selected region image selected from a wide-angle visual field image, pixel data interpolation processing is performed. In particular, for example, since distortion correction is performed on a selected region image selected from the wide-angle field image, the amount of calculation can be reduced as compared with the case where the entire wide-field image is corrected.
「画素データ」とは、RGBデータであってもよいし、後述するように、RGBデータから変換された輝度/色差データであってもよい。「輝度/色差データ」とは、輝度データ及び色差データを含む、YUVデータまたはYCrCbデータである。 The “pixel data” may be RGB data, or may be luminance / color difference data converted from RGB data, as will be described later. “Luminance / color difference data” is YUV data or YCrCb data including luminance data and color difference data.
「対応する所定の各画素データ」とは、例えば補間手段による補間処理の対象となる、ある点の周辺の画素データである。 “Corresponding predetermined pixel data” is pixel data around a certain point that is an object of interpolation processing by an interpolation means, for example.
「画像」には、主に動画を意味するが、もちろん静止画も含まれる。 “Image” mainly means moving images, but of course includes still images.
本発明の一の形態によれば、当該画像処理装置は、前記広視野画像のRGBデータを、輝度データ及び色差データを含む輝度/色差データに変換する変換手段をさらに具備し、前記座標計算手段は、前記輝度/色差データのうち、前記選択領域画像に対応する選択領域輝度/色差データの前記補正座標を算出する。 According to an aspect of the present invention, the image processing apparatus further includes conversion means for converting the RGB data of the wide-field image into luminance / color difference data including luminance data and color difference data, and the coordinate calculation means. Calculates the correction coordinates of the selected area luminance / color difference data corresponding to the selected area image among the luminance / color difference data.
本発明の一の形態によれば、前記補間手段は、前記広視野画像のRGBデータのうち、前記選択領域画像に対応する選択領域RGBデータを、当該選択領域画像の各画素について補間するRGB補間手段と、前記補間された選択領域RGBデータと前記選択領域輝度/色差データとに基づき、補間値を算出する算出手段とを有する。本発明では、補間値を算出するために、RGB補間手段により補間された選択領域RGBデータが用いられるので、画質の劣化を抑えながら計算量を減らすことができる。 According to one aspect of the present invention, the interpolation means interpolates selection area RGB data corresponding to the selection area image among the RGB data of the wide field image for each pixel of the selection area image. Means, and calculating means for calculating an interpolation value based on the interpolated selection area RGB data and the selection area luminance / color difference data. In the present invention, since the selected area RGB data interpolated by the RGB interpolation means is used to calculate the interpolation value, it is possible to reduce the amount of calculation while suppressing deterioration in image quality.
本発明の一の形態によれば、前記座標計算手段は、小数点を含む実数を前記補正座標として算出し、前記補間手段は、前記実数の小数点を切り上げまたは切り下げることにより得られる4つの画素の輝度データについて直線補間する輝度データ補間手段を有する。歪補正のために算出された補正座標は、歪を含む広視野画像(あるいは歪を含む選択領域画像)を構成する各画素に1:1で対応しない場合が多い。そこで、本発明では、小数点を切り上げまたは切り下げることにより得られる4つの画素の輝度データについて補間される。 According to an embodiment of the present invention, the coordinate calculation unit calculates a real number including a decimal point as the correction coordinate, and the interpolation unit calculates the luminance of four pixels obtained by rounding up or down the decimal point of the real number. Luminance data interpolation means for linearly interpolating data is provided. In many cases, the correction coordinates calculated for distortion correction do not correspond 1: 1 to each pixel constituting a wide-field image including distortion (or a selected area image including distortion). Therefore, in the present invention, the luminance data of four pixels obtained by rounding up or down the decimal point is interpolated.
本発明の一の形態によれば、前記補間手段は、前記4つの画素のうち2つの画素を直線補間する色差データ補間手段を有する。あるいは、前記補間手段は、前記4つの画素のうちの所定の画素の色差データを選択する色差データ補間手段を有する。本発明では、色差データは所定の画素を選択するのみなので、さらに計算量が低減される。 According to one aspect of the present invention, the interpolation means includes color difference data interpolation means for linearly interpolating two of the four pixels. Alternatively, the interpolation means includes color difference data interpolation means for selecting color difference data of a predetermined pixel among the four pixels. In the present invention, since the color difference data only selects a predetermined pixel, the calculation amount is further reduced.
本発明の一の形態によれば、当該画像処理装置は、前記選択領域を示す情報に応じて前記選択領域を更新する更新手段をさらに具備する。本発明では、選択領域画像が更新されるたびに、補間処理が実行され、歪補正が行われる。このような場合であっても、本発明では計算量を極力低減しているので、スムーズな処理を実行することができる。 According to an aspect of the present invention, the image processing apparatus further includes update means for updating the selection area according to information indicating the selection area. In the present invention, every time the selected area image is updated, an interpolation process is executed and distortion correction is performed. Even in such a case, since the calculation amount is reduced as much as possible in the present invention, smooth processing can be executed.
本発明の一の形態によれば、当該画像処理装置は、前記広視野画像内に前記選択領域が強調された強調領域を含む画像を、全体画像として出力する第1の出力手段と、前記選択領域画像の前記歪が補正された歪補正画像を出力する第2の出力手段と、全体画像と選択領域画像とが一画面の画像データとして合成された合成画像を出力する合成画像出力手段とをさらに具備する。本発明では、強調領域を含む全体画像と、歪が補正された歪補正画像とが一画面で出力可能であることにより、例えば全体画像の中のどの部分が選択されているかをユーザが認識することができ、便利である。また、本発明においても、上記したように計算量を極力低減しているので、スムーズな合成画像の出力処理を実行することができる。 According to an aspect of the present invention, the image processing apparatus includes: a first output unit that outputs an image including an enhanced region in which the selected region is enhanced in the wide-field image as an entire image; and the selection A second output unit that outputs a distortion-corrected image in which the distortion of the region image is corrected; and a composite image output unit that outputs a composite image in which the entire image and the selected region image are combined as one-screen image data. In addition. In the present invention, the entire image including the enhancement region and the distortion-corrected image in which the distortion is corrected can be output on one screen, so that the user recognizes which part of the entire image is selected, for example. Can be convenient. Also in the present invention, as described above, the amount of calculation is reduced as much as possible, so that a smooth composite image output process can be executed.
「全体画像」とは、広視野画像のうち強調領域を含む画像であればよく、広視野画像自体とは限らない。 The “entire image” is not limited to the wide-field image itself, as long as it is an image including an enhancement region in the wide-field image.
以上のように、本発明によれば、歪補正における計算量を低減することができる。 As described above, according to the present invention, the amount of calculation in distortion correction can be reduced.
以下、本発明の実施の形態を図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施の形態に係る画像処理システムの構成を示すブロック図である。画像処理システム100は、広角レンズ1、画像処理装置10、表示部12を備え、そのほか外部機器13や入力機器14等を備える。画像処理装置10は、イメージセンサ2、カラー処理回路3、歪補正処理回路4、コントローラ5、メモリ6、画像圧縮回路7、表示インターフェース8、USB(Universal Serial Bus)インターフェース9、入力機器インターフェース11を備える。
FIG. 1 is a block diagram showing a configuration of an image processing system according to an embodiment of the present invention. The
イメージセンサ2は、広角レンズ1を介して取り込まれた光を電気信号に変換するセンサである。例えばCMOS(Complementary Metal-Oxide Semiconductor)センサや、CCD(Charge Coupled Device)等が用いられる。広角レンズ1としては、広視野角あるいは広画角のレンズが用いられ、例えば画角がおよそ45度以上のものが用いられるが、これに限られるわけではない。例えば魚眼レンズ、あるいは環状の画像が得られるPAL(Panoramic Annular Lens)(環状のレンズ)等が挙げられる。あるいは、画角が180°程度の魚眼レンズが2つ用いられることにより、全方位(球空間(360°))の視野で撮像することもできる。
The
カラー処理回路3は、図2に示すように、例えばイメージセンサ2のBayerデータのRGBデータを補間するRGB補間回路17を有する。また、カラー処理回路3は、補間されたRGBデータをYCrCbデータに変換するYCrCb変換回路18を有する。カラー処理回路3は、そのほか、図示しないが、光量を制御するAE(Automatic Exposure)演算回路、ホワイトバランスを制御するAWB(Automatic White Balance)演算回路、RGrGbB画素フィルタごとに非線形テーブルによりゲイン調整するゲイン調整回路を有する。さらに、カラー処理回路は、図4(C)で説明するように、データが間引きされた広視野の全体画像25を、表示部12に表示される画像の一部に付加する画面付加処理回路、その他、必要な、または付加的な回路を備えている。
As shown in FIG. 2, the
歪補正処理回路4は、カラー処理回路3で処理された歪を含む画像に対し、主に歪補正処理を行う。また、歪補正処理回路4は、歪補正処理の際、輝度データ及び色差データを含む画素データ(上記YCrCbデータ)の補間処理を行う。メモリ6は、歪補正処理回路4の処理時におけるバッファとして機能し、あるいは、画像出力用のフレームメモリとしての機能を有する。特に、メモリ6は、後述する選択領域画像の画素データ(RGBデータまたはYCrCbデータ)を記憶する機能を有する。メモリ6には、図示しないDMA(Direct Memory Access)回路が接続されていてもよい。その場合、コントローラ5の制御によらないでメモリ6に対してデータが入出力される。
The distortion
コントローラ5は、画像処理装置10全体を統括的に制御し、例えばCPU(Central Processing Unit)により構成される。
The
画像圧縮回路7は、歪補正処理回路4で処理された画像を所定の形式で圧縮する。圧縮の形式としては、例えばJPEG(Joint Photographic Expert Group)が用いられる。しかし、適宜その他の公知の形式が用いられてもよい。
The
表示インターフェース8は、歪補正処理回路4で処理された画像を表示部12に出力するインターフェースである。表示インターフェース8は、例えばNTSC(National Television System Committee)方式、またはPAL(Phase Alternating Line)方式等の出力データを生成する。
The
USBインターフェース9は、外部コンピュータ等の外部機器13に対して、画像圧縮回路7で処理された画像の入出力を制御する。なお、上記表示インターフェース8も、画像圧縮回路7で圧縮された画像を出力するようにしてもよい。
The USB interface 9 controls input / output of an image processed by the
入力機器インターフェース11は、例えばユーザによる操作入力の信号を受信したりする。入力機器14としては、例えばマウス、キーボード、スイッチ機器、タッチセンサ、ゲーム機器のコントローラ、ユーザが把持可能なスティック状の操作機器等が挙げられる。
For example, the
なお、本実施の形態でいう「画像」とは、静止画も含まれるが、現実には、動画として処理されることが多い。 Note that the “image” in the present embodiment includes a still image, but in reality, it is often processed as a moving image.
カラー処理回路3、歪補正処理回路4、コントローラ5等は、例えばFPGA(Field Programmable Gate Array)及びDSP(Digital Signal Processor)のうちの少なくとも一方により、処理を実現させることができる。
The
図3は、上記歪補正処理回路4の構成を示すブロック図である。歪補正処理回路4は、更新処理回路24、画素データ補間回路19、出力画素合成回路20、フィルタ回路21を含む。
FIG. 3 is a block diagram showing a configuration of the distortion
更新処理回路24は、座標計算部22、表示方向指定レジスタ23を有する。表示方向指定レジスタ23は、入力機器インターフェース11からの入力情報に応じてコントローラ5により解析された選択領域を示す情報を記憶する。座標計算部22は、選択領域を示す情報に応じて、広角レンズ1を介してイメージセンサ2で撮像された広視野画像25(図4(A)参照)内の選択領域を計算する。後でも説明するが、歪補正処理回路4では、主にこの選択領域の画像の歪を補正し、その歪補正された歪補正画像を各種のインターフェース12、13または14から出力する。「選択領域を示す情報」とは、例えば広視野画像25内で、ユーザにより選択された領域の位置情報である。すなわち、更新処理回路24は、選択領域の位置情報(の変化)に応じて、選択領域の歪補正画像を更新する。
The
画素データ補間回路は、画素データ、つまり画素ごとの輝度データ及び色差データについて、メモリに蓄えられた歪を含む画像の座標計算により直線補間等の処理を行う。 The pixel data interpolation circuit performs processing such as linear interpolation on pixel data, that is, luminance data and color difference data for each pixel by calculating coordinates of an image including distortion stored in the memory.
出力画素合成回路20は、形式的に例えば一旦YCrCb4:4:4形式とされた画素データを、平均化処理することにより4:2:2形式、または4:2:0形式に変換する。フィルタ回路21は、出力画像に対して平均化や先鋭化のフィルタをかける処理を行う。出力画素合成回路20やフィルタ回路21は、本実施の形態では特に重要な要素ではない。
The output
図4は、この画像処理装置10により画像処理されて表示部12で表示される各種画像の例を示す。図4(A)は、広視野画像25内に、選択領域が強調された強調領域16を含む全体画像を示す。強調領域16は、例えば枠状のカーソルである。しかし、強調領域16は、このようなカーソル16に限られず、全体画像25中で強調領域16以外の部分とは色を変えて表示されるような形態であってもよい。すなわち、強調領域16は、ユーザが広視野画像25を見てその強調された領域が他の領域と識別できるような形態であればよい。ユーザは、入力機器を用いて、カーソル16により全体画像25中の所望の領域(カーソル16で囲まれる範囲)を選択し、コントローラ5は、その範囲を選択領域として種々の処理を行う。
FIG. 4 shows examples of various images that are image-processed by the
以降、図4(A)の画像であって強調領域16を含まない画像を「広視野画像」という。また、図4(A)に示すように広視野画像に強調領域16を含む画像を「全体画像25」として、「広視野画像」と「全体画像25」とを区別する。また、以下、強調領域16で囲われる範囲の画像を「選択領域画像」という。
Hereinafter, the image of FIG. 4A that does not include the
全体画像25内の選択領域は、ユーザが選択する形態に限られない。例えば、全体画像25内の予め設定された領域が選択される形態も考えられる。その場合の当該領域を示す情報(位置情報等)は、予め図示しないROMや、外部の記憶装置等に格納されていればよい。このように予め選択領域が設定されている場合に限らず、全体画像25内のある特定の領域が自動認識される場合に、その自動認識された「特定の領域」が「選択領域」として処理される形態も考えられる。あるいは、図示しない様々なセンサによって、全体画像25内で検出された部分の画像領域が「選択領域」として処理される形態もある。その場合、センサとは、例えば光センサ、温度センサ、圧力センサ、音センサ、湿度センサ、振動センサ、ガスセンサ、その他様々なセンサが挙げられる。
The selection area in the
図4(B)は、選択領域の歪が補正された歪補正画像を示す図である。図4(C)は、上記全体画像25が間引きされた全体画像間引き画面45と、歪が補正された歪補正画像35とが一画面の画像データとして合成された合成画像36を示す。歪補正処理回路4は、このような合成画像をも生成し、表示部12等に出力する。合成画像36の生成には、例えばOSD(On Screen Display)等の技術が用いられればよい。コントローラ5は、例えば入力機器インターフェース11による入力情報に応じて、これら図4(A)、(B)及び(C)に示す全体画像25、歪補正画像35及び合成画像36の出力を切り替えることができる。つまり、コントローラ5は、主に3つの表示モードを持ち、これらを適宜切り替える。なお、図4(A)の全体画像25が表示されるモードは、強調領域16が表示されない広視野画像が表示されるモードであってもよい。図14は、表示モードが順に切り替えられるときの表示部に表示される表示画像を示す。図14(A)は、広視野画像(全体画像25でもよい。)のみの画像である。図14(B)は、選択領域の歪が補正された歪補正画像35のみの画像である。図14(C)は、当該両者を含む合成画像36である。
FIG. 4B is a diagram illustrating a distortion corrected image in which the distortion of the selected region is corrected. FIG. 4C shows a
次に、広角レンズ1を搭載したカメラの設置状態の態様について説明する。
Next, the aspect of the installation state of the camera equipped with the wide-
図5を参照して、球31の中心Oに視点がある場合、その視点Oが捉えることが可能な視野は球31で表される3次元空間になる。広角レンズ1として例えば視野180°程度の魚眼レンズが用いられる場合、その魚眼レンズで捉えられる視野は、球31のうち半球部分である。例えば図6(A)は、球31のうち上半分(現実の3次元空間で上方向)の視野(以下、上半球視野という。)を示す。図6(B)は、球31のうち下半分(現実の3次元空間で下方向)の視野(以下、下半球視野という。)を示す。図6(C)は、球31のうち横半分の視野(以下、横半球視野という。)を示す。特に、図6(A)の例では、地面、床上、机上から上方向を見る場合が想定される。図6(B)の例では、天井や上空から下方向を見る場合が想定される。図6(C)の例では、地面に垂直な壁等から水平方向あるいは横方向を見る場合が想定される。
Referring to FIG. 5, when the viewpoint is at the center O of the
これらのほか、斜め上半分や斜め下半分の視野も考えられる。これらのように、魚眼レンズが設置されるときの魚眼レンズの向き、あるいは傾きが種々設定されることにより、様々な半球の視野が得られる。 In addition to these, a field of view of the upper half and the lower half can be considered. As described above, various hemispherical fields of view can be obtained by setting various orientations or inclinations of the fisheye lens when the fisheye lens is installed.
なお、図6では、魚眼レンズが用いられる場合について説明した。これに限られず、様々な広角レンズ1が用いられる場合も、もちろんレンズの向きや傾きによって視野が変わる。
In addition, FIG. 6 demonstrated the case where a fisheye lens was used. The present invention is not limited to this, and when various wide-
次に、以上のように構成された画像処理装置10の動作について説明する。図7は、その動作を示すフローチャートである。
Next, the operation of the
コントローラ5は、広角レンズ1を介して取り込まれた光をイメージセンサ2で電気信号に変換させる(ステップ701)。コントローラ5は、カラー処理回路3によりカラー処理する(ステップ702)。カラー処理では、特に、上述したようにRGBデータが補間され(ステップ702−1)、補間されたRGBデータがYCrCbデータに変換される(ステップ702−2)。この変換処理では、4:4:4方式で行われればよい。あるいは、4:2:2方式、4:1:1方式、または4:2:0方式で間引きされてもよい。
The
なお、RGBからYCrCbの変換式は、下式(1)〜(3)で表せる。しかし、この式において各項の数値が多少異なる場合もあり得る。
Y=0.299R+0.587G+0.114B・・・(1)
Cr=0.500R-0.419G-0.081B・・・(2)
Cb= -0.169R-0.331G+0.500B・・・(3)
The conversion formula from RGB to YCrCb can be expressed by the following formulas (1) to (3). However, the numerical value of each term in this formula may be slightly different.
Y = 0.299R + 0.587G + 0.114B (1)
Cr = 0.500R-0.419G-0.081B (2)
Cb = -0.169R-0.331G + 0.500B (3)
図8は、イメージセンサ2のBayer配列を示す図である。赤の各画素をr mnとし、緑の各画素をg mnとし、青の各画素をb mnとしている。上記ステップ702−1のRGBデータの補間は、次のように行われる。例えばg11(=p11)、r12(=p12)、b21(=p21)、g22(=p22)の4つの画素のRGB値を周辺画素のRGB値を用いてラフに合成する。そうすると、4つの画素p11、p12、p21、p22のRGB値は、以下のようになる。
p11=(r11=(r10+r12)/2 , g11 , b11=(b01+b21)/2) ・・・(4)
p12=(r12 , g12=(g02+g11+g13+g22)/4, b12=(b01+b03+b21+b23)/4) ・・・(5)
p21=(r21=(r10+r12+r30+r32)/4 , g21=(g11+g20+g22+g31)/4 , b21) ・・・(6)
p22=(r22=(r12+r32)/2 , g22 , b22=(b21+b23)/2) ・・・(7)
コントローラ5は、以上のようなRGB補間処理を、全体画像25のRGBデータすべてについて行うのではなく、選択領域画像におけるRGBデータ(選択領域RGBデータ)について行うようにしてもよい。
FIG. 8 is a diagram illustrating a Bayer array of the
p11 = (r11 = (r10 + r12) / 2, g11, b11 = (b01 + b21) / 2) (4)
p12 = (r12, g12 = (g02 + g11 + g13 + g22) / 4, b12 = (b01 + b03 + b21 + b23) / 4) (5)
p21 = (r21 = (r10 + r12 + r30 + r32) / 4, g21 = (g11 + g20 + g22 + g31) / 4, b21) (6)
p22 = (r22 = (r12 + r32) / 2, g22, b22 = (b21 + b23) / 2) (7)
The
ここで、コントローラ5は、補間されたRGB値に対し、下記数1に示したマトリクスAを乗ずることで色ずれを抑えるように調整し、最終的なRGB値を求める。
Here, the
その場合、色ずれ調整後の画素値P11、P12、P21、P22は、
P11=(R11,G11,B11)=Ap11・・・(8)
P12=(R12,G12,B12)=Ap12・・・(9)
P21=(R21,G21,B21)=Ap21・・・(10)
P22=(R22,G22,B22)=Ap22・・・(11)
と表せる。なお、本実施の形態においては、この色ずれの調整処理は、必ずしも行われる必要はない。この色ずれ調整処理も、上記選択領域RGBデータについて行われるようにしてもよい。
In that case, the pixel values P11, P12, P21, P22 after color misregistration adjustment are
P11 = (R11, G11, B11) = Ap11 (8)
P12 = (R12, G12, B12) = Ap12 (9)
P21 = (R21, G21, B21) = Ap21 (10)
P22 = (R22, G22, B22) = Ap22 (11)
It can be expressed. In the present embodiment, this color misregistration adjustment process is not necessarily performed. This color misregistration adjustment process may also be performed on the selected region RGB data.
コントローラ5は、式(4)〜(7)(または、(8)〜(11))により求められたRGB値を最終的なRGB値とし、上記したように、このRGBデータをYCrCbデータに変換する。YCrCbデータはメモリ6に保存される(ステップ703)。
The
図7の説明に戻る。コントローラ5は、歪補正処理回路4により、入力機器インターフェース11からの入力情報に応じて全体画像25内の選択領域画像を歪補正処理し、歪補正画像を生成する(ステップ704)。歪補正処理回路4は、後に詳述するが、座標計算部22の処理によって、表示部12により表示される表示平面の画素の座標に相当するメモリ6のアドレスを計算により求める。すなわち座標変換処理が行われる。当該メモリ6のアドレスは、選択領域画像の補正座標に相当する。計算により求められた補正座標、すなわちメモリアドレスは、小数点を含む場合が多い。したがって、画素データ補間回路19は、座標補間により画素データを生成し、歪補正画像を生成する(ステップ704)。
Returning to the description of FIG. The
コントローラ5は、生成された歪補正画像を、表示部12や外部機器13等に対応した画素フォーマットに変換する。コントローラ5は、出力用メモリに保存した後、各種のインターフェース8、9、11を介して、歪補正画像を出力する(ステップ705)。
The
次に、上記した更新処理回路24の動作について説明する。図9は、その動作を示すフローチャートである。画像処理装置10の待機状態から、入力機器14からの情報に変化があった場合(ステップ901のYES)、コントローラ5は入力機器インターフェース11を介してその入力情報を取得する(ステップ902)。コントローラ5は、全体画像25内における強調領域16の位置情報の算出、歪補正処理のための演算処理、上記表示モードを切り替えるための演算処理、あるいは、後述する2つの表示方向のモード(直行モード及び周回モード)を切り替えるための演算処理等を行う(ステップ903)。特に、上記位置情報や表示方向のモードの切り替え情報は、表示方向指定レジスタ23に記憶される。
Next, the operation of the
次に、歪補正処理回路4の動作についてさらに詳しく説明する。
Next, the operation of the distortion
図10(A)では、視点o(0,0,0)を中心とした、上述した上半球視野の上半球を横から見ている。図中、点P(u,v,w)は周囲の被写点、点Qは魚眼画像である全体画像25の結像点、角度θは点Pから視点への入射角、距離hは像高を示す。点Pと点Qとは像高特性によって対応付けられる。図10(B)は、当該像高特性を示したグラフである。横軸が角度(入射角)θ、縦軸が像高hを示している。当該データは、変換テーブルとして予めメモリ6や図示しない他のメモリに記憶されていればよい。
In FIG. 10A, the above-mentioned upper hemisphere with the viewpoint o (0, 0, 0) as the center is viewed from the side. In the figure, a point P (u, v, w) is a surrounding subject point, a point Q is an imaging point of the
ここで、図11(A)は、表示部12に表示される範囲の平面である表示平面を示す。図11(B)は、図11(A)に示す上半球を3次元で示した図である。図11(B)に示す球面33をx−y平面上に投影した画像が、図11(C)で示す全体画像25となる。この全体画像25がイメージセンサ2により得られる歪補正前の画像である。上記表示平面32の中心Oが、上半球視野により形成される球面33に接しており、表示平面32は、上記全体画像25内の選択領域を表示した画面となる。
Here, FIG. 11A shows a display plane which is a plane of a range displayed on the
座標変換処理を説明するにあたり、説明を分かりやすくするため、まずズーム処理、パン処理(垂直パン処理、水平パン処理)について説明する。ズーム処理とは、入力機器インターフェース11からの入力情報に応じて、コントローラ5が選択領域の大きさを変化させることにより、歪補正画像の大きさを変化させる処理である。なお、この選択領域の大きさの変化も上記位置情報の変化の概念に含まれる。パン処理とは、入力機器インターフェース11からの入力情報に応じて、コントローラ5が選択領域の位置を変化させる処理である。
In describing the coordinate conversion processing, zoom processing and pan processing (vertical pan processing and horizontal pan processing) will be described first for easy understanding. The zoom process is a process of changing the size of the distortion-corrected image by the
図12を参照して、まず表示平面32(選択領域)の中心Oを半径R(=像高100%)の球面33のパンの初期位置P0(x0,y0,z0)=P0(R,0,0)で接触させる。ズーム処理において、ある点P(X,Y)からズーム処理によりP0(x0,y0,z0)に変換される場合、変換式は下記のようになる。なお、このズーム処理では、説明をわかりやすくするため、上記表示平面32の中心Oが点Pと一致しているとする。
x0=R・・・・・・・・(12)
y0=X×Zoom・・・(13)
z0=Y×Zoom・・・(14)
「Zoom」はズーム倍率である。ズーム処理では、図4(A)及び図4(C)において、入力された選択領域の位置情報に応じて、コントローラ5がカーソル16の大きさを変形させる。ズーム処理では、表示平面32の拡大または縮小だけであるので、x0=Rの位置は変わらない。
Referring to FIG. 12, first, the initial position P 0 (x 0 , y 0 , z 0 ) = P of the spherical surface 33 with radius R (= 100% image height) is set at the center O of the display plane 32 (selected area). Contact with 0 (R, 0, 0). In zoom processing, when a certain point P (X, Y) is converted into P 0 (x 0 , y 0 , z 0 ) by zoom processing, the conversion formula is as follows. In this zoom process, it is assumed that the center O of the
x 0 = R (12)
y 0 = X × Zoom (13)
z 0 = Y × Zoom (14)
“Zoom” is a zoom magnification. In the zoom process, the
垂直パン処理を説明する。中心Oを球面33に接触させたまま、初期位置P0からy軸を中心に垂直パン角Vだけ表示平面32を移動させた位置がP1(x1,y1,z1)である。P0からP1への移動は、図4(A)で説明すると、カーソル16が垂直方向(図中縦方向)へ移動に相当する。この場合、表示部12で表示される歪補正画像は、地平線に垂直方向に移動するように表示される。ただし、図4(A)では横半球視野であり、図12では上半球視野であることころが違う点に注意を要し、説明の便宜上、今図4(A)の視野が上半球視野であると仮定して説明している。垂直パン角の座標変換式は、下記のようになる。
x1=x0cosV+z0sinV・・・・(15)
y1=y0・・・・・・・・・・・・・・(16)
z1=−x0sinV+z0cosV・・・(17)
つまり、これらの式は、y軸を中心とした回転行列の変換式である。
The vertical pan process will be described. P 1 (x 1 , y 1 , z 1 ) is a position where the
x 1 = x 0 cosV + z 0 sinV (15)
y 1 = y 0 (16)
z 1 = −x 0 sinV + z 0 cosV (17)
That is, these formulas are rotation matrix conversion formulas around the y-axis.
水平パン処理を説明する。中心Oを球面33に接触させたまま、P1からz軸を中心に水平パン角Hだけ移動させた位置がP2(x2,y2,z2)である。P1からP2への移動は、図4(A)で説明すると、カーソル16が全体画像25の中心を中心として回転角Hで移動したことに相当する。この場合、表示部で表示される歪補正画像は、地平線に平行に水平方向に移動するように表示される。水平パン角の座標変換式は、下記のようになる。
x2=x1cosH−y1sinH・・・・(18)
y2=x1sinH+y1cosH・・・・(19)
z2=z1・・・・・・・・・・・・・・(20)
つまり、これらの式は、z軸を中心とした回転行列の変換式である。
The horizontal panning process will be described. P 2 (x 2 , y 2 , z 2 ) is a position moved from the P 1 by the horizontal pan angle H around the z axis while keeping the center O in contact with the spherical surface 33. The movement from P 1 to P 2 corresponds to the movement of the
x 2 = x 1 cosH-y 1 sinH ···· (18)
y 2 = x 1 sinH + y 1 cosH (19)
z 2 = z 1 (20)
That is, these equations are rotation matrix conversion equations centered on the z-axis.
図16に、以上説明した各回転行列を示す。図16に示すように、[X]はx軸を中心とする回転行列、[Y]はy軸を中心とする回転行列、[Z]はz軸を中心とする回転行列、[M]はズーム倍率を示す。そうすると、[P2]は、直行モードで下式(21)、周回モードで(22)で表せる。
[P2]=[Z][Y][X][M][P0] ・・・(21)
[P2]=[Z][Y][M][P0] ・・・・(22)
「直行モード」、「周回モード」とは、上記式(12)〜(20)を用いて、全体画像25上での選択領域の位置情報を定義するためのモードである。
FIG. 16 shows each rotation matrix described above. As shown in FIG. 16, [X] is a rotation matrix centered on the x axis, [Y] is a rotation matrix centered on the y axis, [Z] is a rotation matrix centered on the z axis, and [M] is Indicates the zoom magnification. Then, [P 2 ] can be expressed by the following equation (21) in the direct mode and (22) in the circulation mode.
[P 2 ] = [Z] [Y] [X] [M] [P 0 ] (21)
[P 2 ] = [Z] [Y] [M] [P 0 ] (22)
The “direct mode” and “circulation mode” are modes for defining position information of a selected region on the
「直行モード」は、上記P0を初期位置とし、上式(21)により3軸すべての周りに点Pを移動させることが可能であって、その結果、最終的に位置した点P(つまりP2)の位置を定義するモードである。これは、図6(C)で示したように、横半球視野が得られるようにカメラが設置された場合に主に用いられるモードである。横半球視野では、図11〜図13で示したz軸方向が、水平線の方向と一致する。 In the “direct mode”, it is possible to move the point P around all three axes by the above equation (21) with the above P 0 as an initial position. In this mode, the position of P 2 ) is defined. As shown in FIG. 6C, this is a mode mainly used when a camera is installed so that a horizontal hemisphere field of view can be obtained. In the horizontal hemisphere field of view, the z-axis direction shown in FIGS. 11 to 13 coincides with the direction of the horizontal line.
「周回モード」は、上記P0を初期位置とし、上式(22)によりz軸及びy軸の2軸の周りに点Pを移動させることが可能であって、その結果、最終的に位置した点Pの位置を定義するモードである。これは、図6(A)及び図6(B)で示したように、上及び下半球視野が得られるようにカメラが設置された場合に主に用いられるモードである。 In the “circulation mode”, the above-described P 0 is set as an initial position, and the point P can be moved around two axes of the z-axis and the y-axis by the above equation (22). In this mode, the position of the point P is defined. This is a mode mainly used when the camera is installed so that the upper and lower hemispherical fields of view can be obtained as shown in FIGS. 6 (A) and 6 (B).
次に、歪補正のための座標変換処理について説明する。図13を参照して、まずP2(x2,y2,z2)の入射角(仰角)θを求める。図13において、座標中心をo(0,0,0)とすると、
OP2=(x2 2+y2 2+z2 2)1/2・・・・(23)
であるので、θは以下の式で表せる。
θ=arccos(z2/OP2)・・・(24)
なお、図12、図13に示したP2(x2,y2,z2)は、図10、図11で示した点P(u,v,w)に相当する座標と考えてよい。
Next, coordinate conversion processing for distortion correction will be described. Referring to FIG. 13, first, an incident angle (elevation angle) θ of P 2 (x 2 , y 2 , z 2 ) is obtained. In FIG. 13, if the coordinate center is o (0, 0, 0),
OP 2 = (x 2 2 + y 2 2 + z 2 2 ) 1/2 (23)
Therefore, θ can be expressed by the following equation.
θ = arccos (z 2 / OP 2 ) (24)
Note that P 2 (x 2 , y 2 , z 2 ) shown in FIGS. 12 and 13 may be considered as coordinates corresponding to the point P (u, v, w) shown in FIGS. 10 and 11.
式(24)で求められたθから像高h(図10(A)参照)が求められる。像高hは、上記したように、図10(B)の像高特性から求められる。 An image height h (see FIG. 10A) is obtained from θ obtained by the equation (24). As described above, the image height h is obtained from the image height characteristics shown in FIG.
図12を参照して、像高hが求められると、点P2から垂直に下りた点P2’(x2,y2,0)を像高hの位置である点Q(x,y)(図10(A)参照)に拡大または縮小させる。具体的には、下記の式から点Qの座標が求められる。
OP2’=OP2sinθ・・・(25)
x=x2h/OP2’・・・・・(26)
y=y2h/OP2’・・・・・(27)
以上のように、点Qの座標(補正座標)が計算されると、図11(C)に示した点Qの座標を、図11(D)に示す点P(u,v,w)の座標と対応させる。すなわち、点Qの座標が計算されれば、その点Qに対応するメモリアドレス上の画素データ(上記ステップ703で保存された画素データのうちの点Qに対応する座標の画素データ)が、当該メモリから読み出される。このような点Qの座標計算が、表示平面32上の全ての点について行われることにより、表示平面32に対応する選択領域の歪補正画像35(図11(D)参照)が生成される。
Referring to FIG. 12, when the image height h is obtained, P 2 that from the point P 2 downlink vertically '(x 2, y 2, 0) point is the position of the image height h to Q (x, y ) (See FIG. 10A). Specifically, the coordinates of the point Q are obtained from the following equation.
OP 2 '= OP 2 sin θ (25)
x = x 2 h / OP 2 '(26)
y = y 2 h / OP 2 '(27)
As described above, when the coordinates of the point Q (corrected coordinates) are calculated, the coordinates of the point Q shown in FIG. 11C are changed to the points P (u, v, w) shown in FIG. Match with coordinates. That is, when the coordinates of the point Q are calculated, the pixel data on the memory address corresponding to the point Q (the pixel data of the coordinates corresponding to the point Q among the pixel data stored in step 703) is Read from memory. Such coordinate calculation of the point Q is performed for all the points on the
ここで、歪補正のために演算により求められた点Qの座標(演算により求められたメモリアドレス)は、上述したように、表示平面32の歪補正画像35を構成する各画素に1:1で対応しない場合が多い。したがって、画素データ補間回路19は、その演算により求められた座標を用いて、次に説明するように画素データについての補間処理を行う。
Here, the coordinates of the point Q obtained by calculation for distortion correction (memory address obtained by calculation) are 1: 1 for each pixel constituting the
図14は、当該補間処理の動作を説明するための図である。例えば、画素データ補間回路19は、図8を参照して、計算により求められたある点p(上記説明における点Qに相当する)の座標の画素データを補間により求めるとする。図14に示すように、今、例えば、点pの座標(x,y)が、小数点を含む実数である(256.7,678.9)であったとする。この点pを含む周辺4つの画素データがメモリ6から読み出される。すなわち、小数点を切り上げまたは切り下げることにより得られる4つの画素の画素データが読み出される。その4つの画素の座標は、下記のようになる。
左上(256,678)
右上(256,679)
左下(257,678)
右下(257,679)
これら4点は、図8におけるg11、r12、b21、g22に相当する。これらの4点の画素データ(4点それぞれの輝度データ(Yデータ)及び色差データ(CrCbデータ))が読み出されると、そのうち、点pの輝度データについては、直線補間し、色差データについてはその色差データそのものを使用する。これは、人間が、色差に対する感度が輝度に対する感度の半分程度でしかないことによる。あるいは、色差データについても直線補間を行ってもよい。
FIG. 14 is a diagram for explaining the operation of the interpolation processing. For example, it is assumed that the pixel
Upper left (256,678)
Upper right (256,679)
Lower left (257, 678)
Lower right (257,679)
These four points correspond to g11, r12, b21, and g22 in FIG. When these four points of pixel data (the luminance data (Y data) and the color difference data (CrCb data) of each of the four points) are read out, the luminance data at the point p is linearly interpolated, and the color difference data is The color difference data itself is used. This is due to the fact that human beings have only half the sensitivity to luminance and the sensitivity to luminance. Alternatively, linear interpolation may be performed on the color difference data.
直線補間は、各種の方法がある。例えば4点の画素データから平均値を算出したり、中央値を算出したりすることにより点pの画素データが求められる。あるいは、次のように補間処理されてもよい。 There are various methods for linear interpolation. For example, the pixel data of the point p is obtained by calculating the average value from the pixel data of four points or calculating the median value. Alternatively, interpolation processing may be performed as follows.
上記式(8)〜(11)(また、式(4)〜(7)でもよい。)で示した4つの点のRGB値から、下記のように点pについて補間されたRGB値であるP(1.m,1.n)が求められる。
P(1.m,1.n)=(1-m)(1-n)P11+(1-m)nP12+m(1-n)P21+mnP22・・・(28)
より厳密には、
P(1+(0.m),1+(0.n))=(1-(0.m))(1-(0.n))P11+(1-(0.m))(0.n)P12
+(0.m)(1-(0.n))P21+(0.m)(0.n)P22・・・(29)
m、nは整数であり、図8において画素g11(=p11)、r12(=p12)、b21(=p21)、g22(=p22)の中心点をCとする。また、点Cから垂直方向に1画素分離れた点の座標をm=1、点Cから水平方向に1画素分離れた点の座標をn=1とする。m、nについて、点Cから上下方向で正負が定められ、また、左右方向で正負が定められる。
P, which is an RGB value interpolated with respect to the point p as follows from the RGB values of the four points shown in the above formulas (8) to (11) (also may be the formulas (4) to (7)) (1.m, 1.n) is required.
P (1.m, 1.n) = (1-m) (1-n) P11 + (1-m) nP12 + m (1-n) P21 + mnP22 (28)
More precisely,
P (1+ (0.m), 1 + (0.n)) = (1- (0.m)) (1- (0.n)) P11 + (1- (0.m)) (0. n) P12
+ (0.m) (1- (0.n)) P21 + (0.m) (0.n) P22 (29)
m and n are integers, and the center point of pixels g11 (= p11), r12 (= p12), b21 (= p21), and g22 (= p22) in FIG. Further, the coordinates of a point separated by 1 pixel in the vertical direction from the point C are m = 1, and the coordinates of the point separated by 1 pixel in the horizontal direction from the point C are n = 1. For m and n, positive / negative is determined in the vertical direction from the point C, and positive / negative is determined in the horizontal direction.
上記したように、人間が、色差に対する感度が輝度に対する感度の半分程度でしかないことから、点pの補間処理の方法として下式(30)の近似式が成立する。この式(30)の例では、上記ステップ702−2において4:2:0方式で変換されたYCrCbデータを扱っている。
YCrCbP(1+(0.m),1+(0.n))
=YCrCb{(1-(0.m))(1-(0.n))P11+(1-(0.m))(0.n)P12 +(0.m)(1-(0.n))P21+(0.m)(0.n)P22}
=(1-(0.m))(1-(0.n))YCrCbP11+(1-(0.m))(0.n)YCrCbP12+(0.m)(1-(0.n))YCrCbP21
+(0.m)(0.n)YCrCbP22
≒((1-(0.m))(1-(0.n))YP11+(1-(0.m))(0.n)YP12+(0.m)(1-n)YP21+(0.m)(0.n)YP22,
CrP12, CbP21)・・・(30)
この式(30)では、輝度のみを計算すればよいので、計算量が1/3程度になる。また、補間値を算出するために、RGB補間回路により補間された選択領域RGBデータと、YCrCbデータが乗算されるので、画質の劣化を抑えながら計算量を減らすことができる。この式(30)は、上記のように4:2:0方式で変換されたYCrCbデータを扱っている。しかし、もちろん、他の方式で変換されたYCrCbデータに対し、補間された選択領域RGBが用いられてもよい。
As described above, since the human sensitivity to the color difference is only about half of the sensitivity to the luminance, the approximate expression of the following expression (30) is established as a method of the interpolation process for the point p. In the example of Expression (30), YCrCb data converted by the 4: 2: 0 method in Step 702-2 is handled.
YCrCbP (1+ (0.m), 1 + (0.n))
= YCrCb {(1- (0.m)) (1- (0.n)) P11 + (1- (0.m)) (0.n) P12 + (0.m) (1- (0.n )) P21 + (0.m) (0.n) P22}
= (1- (0.m)) (1- (0.n)) YCrCbP11 + (1- (0.m)) (0.n) YCrCbP12 + (0.m) (1- (0.n)) YCrCbP21
+ (0.m) (0.n) YCrCbP22
≒ ((1- (0.m)) (1- (0.n)) YP11 + (1- (0.m)) (0.n) YP12 + (0.m) (1-n) YP21 + (0. m) (0.n) YP22,
CrP12, CbP21) (30)
In this equation (30), only the luminance needs to be calculated, so the calculation amount is about 1/3. In addition, since the selection area RGB data interpolated by the RGB interpolation circuit and the YCrCb data are multiplied in order to calculate the interpolation value, the amount of calculation can be reduced while suppressing the deterioration of the image quality. This equation (30) handles YCrCb data converted by the 4: 2: 0 method as described above. However, of course, the selection area RGB interpolated for YCrCb data converted by another method may be used.
図14に示すように、出力画素合成回路は、4:2:0方式で求められた画素データを一旦4:4:4方式にする。そして、出力形式に合わせて適宜4:2:2等の方式に変換される。もちろん、4:2:2方式のほか、4:2:0方式、またはその他の方式であってもよい。出力画素合成回路20での処理が終了すると、コントローラ5は、画素データを出力用のフレームメモリに書き込む。
As shown in FIG. 14, the output pixel composition circuit temporarily changes the pixel data obtained by the 4: 2: 0 method to the 4: 4: 4 method. Then, it is converted into 4: 2: 2 or the like as appropriate according to the output format. Of course, in addition to the 4: 2: 2 scheme, the 4: 2: 0 scheme or other schemes may be used. When the processing in the output
以上のように、本実施の形態では、全体画像25のうち選択された選択領域画像の歪補正が実行される際、画素データの補間処理が行われる。特に、例えば全体画像25のうち選択された選択領域画像の歪補正が実行されるので、全体画像25の全体が補正される場合より計算量を低減できる。
As described above, in the present embodiment, pixel data interpolation processing is performed when distortion correction is performed on a selected region image selected from the
本実施の形態では、上記したように、更新処理回路24において選択領域画像が更新されるたびに、画素データ補間回路19により補間処理が実行される。このような場合であっても、上記のように計算量が低減されているので、スムーズな処理を実行することができる。
In the present embodiment, as described above, every time the selected area image is updated in the
本実施の形態では、カーソル16を含む全体画像25と、歪が補正された歪補正画像35とが一画面で出力可能であることにより、例えば全体画像25の中のどの部分が選択されているかをユーザが認識することができ、便利である。また、この場合においても、上記したように計算量を極力低減しているので、スムーズな合成画像の出力処理を実行することができる。
In the present embodiment, the
本発明に係る実施の形態は、以上説明した実施の形態に限定されず、他の種々の実施形態が考えられる。 Embodiments according to the present invention are not limited to the embodiments described above, and other various embodiments are conceivable.
4…歪補正処理回路
5…コントローラ
6…メモリ
10…画像処理装置
16…強調領域(カーソル)
17…RGB補間回路
18…YCrCb変換回路
19…画素データ補間回路
22…座標計算部
23…表示方向指定レジスタ
24…更新処理回路
25…広視野画像、全体画像
35…歪補正画像
36…合成画像
4 ... distortion
DESCRIPTION OF
Claims (10)
前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する補間手段と
を具備することを特徴とする画像処理装置。 Coordinate calculation means for calculating correction coordinates of the selected area image in order to correct the distortion of the image of the selected area selected from the wide-field image including distortion caused by the wide-angle lens imaged using the wide-angle lens; ,
Interpolating means for interpolating each predetermined pixel data of the selected area image corresponding to the calculated correction coordinates. An image processing apparatus comprising:
前記広視野画像のRGBデータを、輝度データ及び色差データを含む輝度/色差データに変換する変換手段をさらに具備し、
前記座標計算手段は、前記輝度/色差データのうち、前記選択領域画像に対応する選択領域輝度/色差データの前記補正座標を算出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
Further comprising conversion means for converting the RGB data of the wide-field image into luminance / color difference data including luminance data and color difference data;
The coordinate calculation means calculates the correction coordinates of selected area luminance / color difference data corresponding to the selected area image out of the luminance / color difference data.
前記補間手段は、
前記広視野画像のRGBデータのうち、前記選択領域画像に対応する選択領域RGBデータを、当該選択領域画像の各画素について補間するRGB補間手段と、
前記補間された選択領域RGBデータと前記選択領域輝度/色差データとに基づき、補間値を算出する算出手段と
を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The interpolation means includes
RGB interpolation means for interpolating selection region RGB data corresponding to the selection region image among the RGB data of the wide field image for each pixel of the selection region image;
An image processing apparatus comprising: calculation means for calculating an interpolation value based on the interpolated selection area RGB data and the selection area luminance / color difference data.
前記座標計算手段は、小数点を含む実数を前記補正座標として算出し、
前記補間手段は、前記実数の小数点を切り上げまたは切り下げることにより得られる4つの画素の輝度データについて直線補間する輝度データ補間手段を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The coordinate calculation means calculates a real number including a decimal point as the correction coordinates,
The image processing apparatus according to claim 1, wherein the interpolation means includes luminance data interpolation means for linearly interpolating luminance data of four pixels obtained by rounding up or down the decimal point of the real number.
前記補間手段は、前記4つの画素のうち2つの画素を直線補間する色差データ補間手段を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 3,
The image processing apparatus, wherein the interpolation means includes color difference data interpolation means for linearly interpolating two of the four pixels.
前記補間手段は、前記4つの画素のうちの所定の画素の色差データを選択する色差データ補間手段を有することを特徴とする画像処理装置。 The image processing apparatus according to claim 3,
The image processing apparatus, wherein the interpolation means includes color difference data interpolation means for selecting color difference data of a predetermined pixel among the four pixels.
前記選択領域を示す情報に応じて前記選択領域を更新する更新手段をさらに具備することを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
An image processing apparatus, further comprising updating means for updating the selection area according to information indicating the selection area.
前記広視野画像内に前記選択領域が強調された強調領域を含む画像を、全体画像として出力する第1の出力手段と、
前記選択領域画像の前記歪が補正された歪補正画像を出力する第2の出力手段と、
全体画像と選択領域画像とが一画面の画像データとして合成された合成画像を出力する合成画像出力手段と
をさらに具備することを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
A first output means for outputting an image including an enhanced region in which the selected region is enhanced in the wide-field image as a whole image;
Second output means for outputting a distortion corrected image in which the distortion of the selected area image is corrected;
An image processing apparatus, further comprising: a synthesized image output unit that outputs a synthesized image obtained by synthesizing the entire image and the selected region image as image data of one screen.
前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する
ことを特徴とする画像処理方法。 In order to correct the distortion of the image of the selected area selected from the wide-field image including distortion caused by the wide-angle lens imaged using the wide-angle lens, the correction coordinates of the selected area image are calculated,
An image processing method comprising: interpolating predetermined pixel data of the selected area image corresponding to the calculated correction coordinates.
前記算出された前記補正座標に対応する、前記選択領域画像の所定の各画素データを補間する
ことをコンピュータに実行させるプログラム。 In order to correct the distortion of the image of the selected area selected from the wide-field image including distortion caused by the wide-angle lens imaged using the wide-angle lens, the correction coordinates of the selected area image are calculated,
A program that causes a computer to execute interpolation of each predetermined pixel data of the selected area image corresponding to the calculated correction coordinates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006238779A JP2008061172A (en) | 2006-09-04 | 2006-09-04 | Image processing apparatus, image processing method and program therefor and recording medium with the program stored |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006238779A JP2008061172A (en) | 2006-09-04 | 2006-09-04 | Image processing apparatus, image processing method and program therefor and recording medium with the program stored |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008061172A true JP2008061172A (en) | 2008-03-13 |
Family
ID=39243369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006238779A Pending JP2008061172A (en) | 2006-09-04 | 2006-09-04 | Image processing apparatus, image processing method and program therefor and recording medium with the program stored |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008061172A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010245901A (en) * | 2009-04-07 | 2010-10-28 | Dainippon Printing Co Ltd | Image processing apparatus, image processing method and the like |
JP2012105246A (en) * | 2010-11-09 | 2012-05-31 | Avisonic Technology Corp | Image correction method and related image correction system |
WO2012108132A1 (en) * | 2011-02-10 | 2012-08-16 | パナソニック株式会社 | Display device, computer program and method of performing computer |
JP2012169780A (en) * | 2011-02-10 | 2012-09-06 | Ricoh Co Ltd | Imaging apparatus and image correction method |
EP2501134A1 (en) | 2011-03-18 | 2012-09-19 | Ricoh Company, Ltd. | Image processor and image processing method |
JP2017126352A (en) * | 2012-01-31 | 2017-07-20 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02127877A (en) * | 1988-11-08 | 1990-05-16 | Casio Comput Co Ltd | Electronic still camera provided with fisheye lens |
JPH11261868A (en) * | 1998-03-13 | 1999-09-24 | Fujitsu Ltd | Fisheye lens camera device and image distortion correction method and image extraction method thereof |
JP2000182022A (en) * | 1998-12-11 | 2000-06-30 | Seiko Epson Corp | Color image processor and color printing system |
JP2004282163A (en) * | 2003-03-12 | 2004-10-07 | Minolta Co Ltd | Camera, monitor image generating method, program, and monitoring system |
JP2005135096A (en) * | 2003-10-29 | 2005-05-26 | Nikon Corp | Image processing method, image processing apparatus and program |
JP2006109119A (en) * | 2004-10-06 | 2006-04-20 | Omron Corp | Moving image recorder and moving image reproducing apparatus |
-
2006
- 2006-09-04 JP JP2006238779A patent/JP2008061172A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02127877A (en) * | 1988-11-08 | 1990-05-16 | Casio Comput Co Ltd | Electronic still camera provided with fisheye lens |
JPH11261868A (en) * | 1998-03-13 | 1999-09-24 | Fujitsu Ltd | Fisheye lens camera device and image distortion correction method and image extraction method thereof |
JP2000182022A (en) * | 1998-12-11 | 2000-06-30 | Seiko Epson Corp | Color image processor and color printing system |
JP2004282163A (en) * | 2003-03-12 | 2004-10-07 | Minolta Co Ltd | Camera, monitor image generating method, program, and monitoring system |
JP2005135096A (en) * | 2003-10-29 | 2005-05-26 | Nikon Corp | Image processing method, image processing apparatus and program |
JP2006109119A (en) * | 2004-10-06 | 2006-04-20 | Omron Corp | Moving image recorder and moving image reproducing apparatus |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8379976B2 (en) | 2009-04-07 | 2013-02-19 | Dai Nippon Printing Co., Ltd. | Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored |
JP2010245901A (en) * | 2009-04-07 | 2010-10-28 | Dainippon Printing Co Ltd | Image processing apparatus, image processing method and the like |
US9153014B2 (en) | 2010-11-09 | 2015-10-06 | Avisonic Technology Corporation | Image correction method and related image correction system thereof |
JP2012105246A (en) * | 2010-11-09 | 2012-05-31 | Avisonic Technology Corp | Image correction method and related image correction system |
JP2012169723A (en) * | 2011-02-10 | 2012-09-06 | Panasonic Corp | Display device and computer program |
JP2012169780A (en) * | 2011-02-10 | 2012-09-06 | Ricoh Co Ltd | Imaging apparatus and image correction method |
WO2012108132A1 (en) * | 2011-02-10 | 2012-08-16 | パナソニック株式会社 | Display device, computer program and method of performing computer |
CN103354996A (en) * | 2011-02-10 | 2013-10-16 | 松下电器产业株式会社 | Display device, computer program and method of performing computer |
US9412149B2 (en) | 2011-02-10 | 2016-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Display device, computer program, and computer-implemented method |
US11651471B2 (en) | 2011-02-10 | 2023-05-16 | Panasonic Intellectual Property Management Co., Ltd. | Display device, computer program, and computer-implemented method |
EP2501134A1 (en) | 2011-03-18 | 2012-09-19 | Ricoh Company, Ltd. | Image processor and image processing method |
US8639029B2 (en) | 2011-03-18 | 2014-01-28 | Ricoh Company, Ltd. | Image processor and image processing method |
JP2017126352A (en) * | 2012-01-31 | 2017-07-20 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
JP2019017069A (en) * | 2012-01-31 | 2019-01-31 | パナソニックIpマネジメント株式会社 | Image processor and image processing method |
US10366477B2 (en) | 2012-01-31 | 2019-07-30 | Panasonic Intellectual Property Management Co., Ltd. | Image processing apparatus and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8189953B2 (en) | Image processing apparatus and image processing method | |
US10572982B2 (en) | Method and system of image distortion correction for images captured by using a wide-angle lens | |
US7834907B2 (en) | Image-taking apparatus and image processing method | |
JP5451782B2 (en) | Image processing apparatus and image processing method | |
US20130058589A1 (en) | Method and apparatus for transforming a non-linear lens-distorted image | |
JP2004241991A (en) | Imaging apparatus, image processor, and image processing program | |
US10521891B2 (en) | Image processing apparatus, system, image processing method, and non-transitory recording medium | |
WO2012060269A1 (en) | Image processing method, image processing device, and imaging device | |
JP2008061172A (en) | Image processing apparatus, image processing method and program therefor and recording medium with the program stored | |
TWI599809B (en) | Lens module array, image sensing device and fusing method for digital zoomed images | |
US10559068B2 (en) | Image processing device, image processing method, and program processing image which is developed as a panorama | |
JP5195841B2 (en) | On-vehicle camera device and vehicle | |
JP2020068514A (en) | Image processing device, image processing method, and program | |
WO2013169384A1 (en) | Systems, methods, and computer program products for compound image demosaicing and warping | |
JP7261642B2 (en) | Image processing method, image processing device, and head mounted display | |
JP7266179B2 (en) | Image processing device and imaging device | |
CN109672810B (en) | Image processing apparatus, image processing method, and storage medium | |
US9743007B2 (en) | Lens module array, image sensing device and fusing method for digital zoomed images | |
CN107979715B (en) | Image pickup apparatus | |
US11106042B2 (en) | Image processing apparatus, head-mounted display, and image displaying method | |
US20210397005A1 (en) | Image processing apparatus, head-mounted display, and image displaying method | |
JP5458906B2 (en) | Image processing device | |
JP7429515B2 (en) | Image processing device, head-mounted display, and image display method | |
US11928775B2 (en) | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image | |
JP2019176302A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110628 |