JP4293191B2 - Pixel position acquisition method, image processing apparatus, program for executing pixel position acquisition method on a computer, and computer-readable recording medium on which the program is recorded - Google Patents
Pixel position acquisition method, image processing apparatus, program for executing pixel position acquisition method on a computer, and computer-readable recording medium on which the program is recorded Download PDFInfo
- Publication number
- JP4293191B2 JP4293191B2 JP2006009581A JP2006009581A JP4293191B2 JP 4293191 B2 JP4293191 B2 JP 4293191B2 JP 2006009581 A JP2006009581 A JP 2006009581A JP 2006009581 A JP2006009581 A JP 2006009581A JP 4293191 B2 JP4293191 B2 JP 4293191B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- data
- line
- pixel position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 114
- 238000012545 processing Methods 0.000 title claims description 76
- 238000003384 imaging method Methods 0.000 claims description 246
- 238000013507 mapping Methods 0.000 claims description 141
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 230000014509 gene expression Effects 0.000 claims description 12
- 239000003550 marker Substances 0.000 claims description 12
- 238000005520 cutting process Methods 0.000 claims description 9
- 238000013500 data storage Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 22
- 238000011156 evaluation Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、画素位置取得方法、画像処理装置、画素位置取得方法をコンピュータ上で実行させるプログラム、及びこのプログラムが記録されたコンピュータ読み取り可能な記録媒体に関する。 The present invention relates to a pixel position acquisition method, an image processing apparatus, a program for executing the pixel position acquisition method on a computer, and a computer-readable recording medium on which the program is recorded.
液晶プロジェクタ等の固定画素方式ディスプレイにおいて、各画素に対して画素特性値(輝度、色度)補正処理を行うことにより固定画素方式ディスプレイの画像・映像の表示品質向上が大幅に向上する。
このような画素特性値補正処理の補正処理手法や補正量は、固定画素方式ディスプレイの表示原理や、製造工程・製造条件などに起因する画素の発光特性・透過特性に基づいて設定されるため、固定画素方式ディスプレイの画素の特性値(画素の発光特性,画素の透過特性の出力として現れる輝度や色度)を正確に取得する技術は重要である。
一般的には固定画素方式ディスプレイで適当な画像・映像を表示し、その表示画面をCCDカメラなどの撮像装置で撮影し、撮影データを解析することにより画素特性値を取得する。
In a fixed pixel type display such as a liquid crystal projector, by performing a pixel characteristic value (brightness, chromaticity) correction process on each pixel, the display quality improvement of images and videos of the fixed pixel type display is greatly improved.
Since the correction processing method and correction amount of such pixel characteristic value correction processing are set based on the display principle of the fixed pixel type display, the light emission characteristic / transmission characteristic of the pixel due to the manufacturing process and manufacturing conditions, etc. A technique for accurately acquiring pixel characteristic values (luminance and chromaticity appearing as output of pixel emission characteristics and pixel transmission characteristics) of a fixed pixel display is important.
In general, an appropriate image / video is displayed on a fixed pixel display, the display screen is photographed by an imaging device such as a CCD camera, and the pixel characteristic value is obtained by analyzing the photographed data.
このような固定画素方式ディスプレイの画素特性値の取得方法では、各画素の特性値を正確に取得できなければならない。
各画素の特性値を取得する際の正確さを左右する要因は様々であるが、その中でも固定画素方式ディスプレイの各画素が撮影データ上にマッピングされる位置を正確に取得することは、特に重要である。
このため、従来、特定の分布を持つマーカを表示画面に複数表示させた状態を撮像装置で撮影し、そのマーカの対応付けから表示画面上と撮影データ上との対応関係を算出し、これにより、表示画面の各画素位置が撮影データ上にマッピングされる位置を取得する方法が提案されている(例えば、特許文献1参照)。
また、画像表示装置上に表示された画像の輪郭を直線として取得し、その輪郭の直線の交点(つまりは表示画像の四隅)から表示画像と撮影データとの射影変換を算出し、その射影変換を用いて撮影データの幾何補正を実施する方法が提案されている(例えば、特許文献2参照)。
In such a method for acquiring the pixel characteristic value of the fixed pixel type display, it is necessary to accurately acquire the characteristic value of each pixel.
There are various factors that affect the accuracy of acquiring the characteristic value of each pixel, but it is particularly important to accurately acquire the position where each pixel of the fixed pixel display is mapped on the shooting data. It is.
For this reason, conventionally, a state in which a plurality of markers having a specific distribution are displayed on the display screen is photographed by the imaging device, and the correspondence between the display screen and the photographed data is calculated from the association of the markers. A method for acquiring a position where each pixel position on the display screen is mapped on the shooting data has been proposed (for example, see Patent Document 1).
Also, it obtains the contour of the image displayed on the image display device as a straight line, calculates the projective transformation between the display image and the shooting data from the intersection of the straight lines of the contour (that is, the four corners of the display image), and the projective transformation There has been proposed a method of performing geometric correction of photographing data using the method (for example, see Patent Document 2).
しかしながら、前記特許文献に記載の技術では、ドット状のマーカや表示画像の四隅の点に基づいて、表示画像の各画素位置と撮影データ上にマッピングされる位置との対応関係を算出しているに過ぎず、高精度に対応関係を導き出せるとは言い難い。
また、これらの特許文献に記載された技術において、高精度に画素位置と撮影データ上にマッピングされる位置との関係を得ようとすると、対応関係を導き出すためのサンプリング点の数が多くなり、その各々について射影変換等を行わなければならないので、演算処理の複雑化を招くという問題がある。
However, in the technique described in the patent document, the correspondence between each pixel position of the display image and the position mapped on the photographing data is calculated based on the dot-shaped marker and the four corner points of the display image. However, it is hard to say that the correspondence can be derived with high accuracy.
Further, in the techniques described in these patent documents, when trying to obtain the relationship between the pixel position and the position mapped on the shooting data with high accuracy, the number of sampling points for deriving the correspondence increases. Since projective transformation or the like must be performed for each of them, there is a problem in that the computation processing becomes complicated.
本発明の目的は、ディスプレイの各画素が撮影データ上にマッピングされる位置を高速かつ正確に取得する画素位置取得方法、画像処理装置、画素位置取得方法をコンピュータ上で実行させるプログラム、及びこのプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することにある。 An object of the present invention is to provide a pixel position acquisition method, an image processing apparatus, a program for executing a pixel position acquisition method on a computer, and a program for acquiring a position where each pixel of a display is mapped on photographing data at high speed and accurately. Is to provide a computer-readable recording medium on which is recorded.
本発明に係る画素位置取得方法は、
スクリーン上に表示された表示画像を撮像装置により撮像し、撮像された撮像データに基づいて、前記スクリーン上に投影される画像生成デバイスの画素位置と、前記画素位置が前記撮像データ上にマッピングされた位置との対応関係を取得する画素位置取得方法であって、
前記画像生成デバイスの垂直方向に沿って延びる複数の直線からなる第1の線画像を、前記スクリーン上に表示させる手順と、
前記第1の線画像による表示画像を前記撮像装置により撮像し、撮像された第1の撮像データを取得する手順と、
前記画像生成デバイスの水平方向に沿って延びる複数の直線からなる第2の線画像を、前記スクリーン上に表示させる手順と、
前記第2の線画像による表示画像を前記撮像装置により撮像し、撮像された第2の撮像データを取得する手順と、
前記第1の撮像データ上にマッピングされた複数の撮像線を、各撮像線を含む領域を単位として切り出す手順と、
切り出された各撮像線の領域に基づいて、前記第1の撮像データにおける各撮像線を表す近似関数を設定する手順と、
前記第2の撮像データ上にマッピングされた複数の撮像線を、各撮像線を含む領域を単位として切り出す手順と、
切り出された各撮像線の領域に基づいて、前記第2の撮像データにおける各撮像線を表す近似関数を設定する手順と、
前記第1の撮像データ及び第2の撮像データで設定された近似関数に基づいて、前記画像生成デバイスの画素位置と、前記画素位置が前記撮像データ上にマッピングされた位置との対応付けを求める手順とを備えていることを特徴とする。
The pixel position acquisition method according to the present invention includes:
A display image displayed on the screen is picked up by an image pickup device, and based on the picked-up image pickup data, the pixel position of the image generation device projected on the screen and the pixel position are mapped onto the image pickup data. A pixel position acquisition method for acquiring a correspondence relationship with a determined position,
Displaying a first line image composed of a plurality of straight lines extending along a vertical direction of the image generating device on the screen;
A procedure of capturing a display image based on the first line image by the imaging device and acquiring the captured first imaging data;
Displaying a second line image consisting of a plurality of straight lines extending in the horizontal direction of the image generating device on the screen;
A procedure of capturing a display image based on the second line image by the imaging device and acquiring captured second imaging data;
A procedure of cutting out a plurality of imaging lines mapped on the first imaging data in units of areas including the respective imaging lines;
A procedure for setting an approximation function representing each imaging line in the first imaging data based on the area of each extracted imaging line;
A procedure of cutting out a plurality of imaging lines mapped on the second imaging data in units of areas including the respective imaging lines;
A procedure for setting an approximate function representing each imaging line in the second imaging data based on the area of each extracted imaging line;
Based on the approximate function set by the first imaging data and the second imaging data, an association between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data is obtained. And a procedure.
このような本発明によれば、テストパターンとなる第1の線画像及び第2の線画像が垂直又は水平方向に延びる複数の直線から構成され、この直線が撮像データ上にマッピングされた撮像線を表す近似関数を設定し、これに基づいて画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応付けを行うことにより、スクリーンと画像生成デバイスからなる画像表示装置に対する撮像装置の位置や、撮像装置を構成するレンズ等の光学素子に起因する撮像データの歪みを、近似関数という形で考慮しながら対応付けを行うことができるため、スクリーン上に投影される画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応関係を高精度に取得することができる。
また、第1の線画像及び第2の線画像を表示させるだけでスクリーン上に投影される画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応付けが高精度に実行できるため、高速にその対応関係を取得することができる。
According to the present invention as described above, the first line image and the second line image serving as the test pattern are configured by a plurality of straight lines extending in the vertical or horizontal direction, and the straight lines are mapped on the imaging data. By setting an approximation function that represents the image, and by associating the pixel position of the image generation device with the position where the pixel position is mapped on the imaging data, an image display composed of the screen and the image generation device is performed. Projected on the screen because the position of the imaging device with respect to the device and the imaging data distortion caused by the optical elements such as lenses constituting the imaging device can be correlated in the form of an approximate function. The correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data can be acquired with high accuracy.
Also, the correspondence between the pixel position of the image generation device projected on the screen simply by displaying the first line image and the second line image and the position where the pixel position is mapped on the imaging data is high. Since it can be executed with high accuracy, the correspondence can be acquired at high speed.
本発明では、
前記第1の線画像及び前記第2の線画像は、それぞれの撮像データとの対応を与える少なくとも4つのマーカを含んで構成され、
前記第1又は第2の撮像データ上にマッピングされた複数の撮像線を、各撮像線を含む領域として切り出す手順は、
前記第1の線画像及び前記第1の撮像データのマーカの対応関係に基づいて、前記第1の線画像及び前記第1の撮像データの変換式を設定するステップと、
前記第2の線画像及び前記第2の撮像データのマーカの対応関係に基づいて、前記第2の線画像及び前記第2の撮像データの変換式を設定するステップと、
前記第1又は第2の線画像中の各直線を囲む領域を設定するステップと、
前記第1又は第2の線画像中の各直線を囲む領域を、前記設定された変換式によって変換するステップと、
変換された領域に基づいて、前記第1の撮像データ又は前記第2の撮像データの各撮像線を切り出すステップとを備えているのが好ましい。
ここで、第1の線画像及び第1の撮像データ、又は第2の線画像及び第2の撮像データの変換式の設定は、例えば、射影変換式を用いて簡単に行うことができ、具体的には、撮像データのマッピング位置を与えるベクトルを(x,y)Tとし、表示画像の画素位置を与えるベクトルを(X,Y)Tとすると、次の変換式(1)により求めることができる。
In the present invention,
The first line image and the second line image are configured to include at least four markers that give correspondence with respective imaging data,
The procedure of cutting out a plurality of imaging lines mapped on the first or second imaging data as an area including each imaging line,
Setting a conversion formula between the first line image and the first imaging data based on a correspondence relationship between the first line image and the marker of the first imaging data;
Setting a conversion formula between the second line image and the second imaging data based on a correspondence relationship between the second line image and the marker of the second imaging data;
Setting an area surrounding each straight line in the first or second line image;
Converting a region surrounding each straight line in the first or second line image by the set conversion equation;
Preferably, the method includes a step of cutting out each imaging line of the first imaging data or the second imaging data based on the converted area.
Here, the setting of the conversion formula between the first line image and the first imaging data, or the second line image and the second imaging data can be easily performed using, for example, a projective conversion formula. Specifically, when the vector that gives the mapping position of the imaging data is (x, y) T and the vector that gives the pixel position of the display image is (X, Y) T , the following conversion equation (1) can be used. it can.
この発明によれば、マーカによって設定された変換式によって、各撮像線を切り出すための領域を第1の線画像又は第2の線画像で設定すれば、第1の撮像データ又は第2の撮像データ上の切り出す領域を変換式によって簡単に求められるので、複雑な演算処理を行うことなく、第1の撮像データ又は第2の撮像データ上にマッピングされた各撮像線の切り出しを行うことができる。特に、前記変換式(1)のような射影変換行列を用いることにより、変換をより簡単に行うことができる。 According to this invention, if the area for extracting each imaging line is set by the first line image or the second line image by the conversion formula set by the marker, the first imaging data or the second imaging is set. Since a region to be cut out on the data can be easily obtained by a conversion formula, it is possible to cut out each imaging line mapped on the first imaging data or the second imaging data without performing complicated calculation processing. . In particular, conversion can be performed more easily by using a projective transformation matrix such as the conversion formula (1).
本発明では、
各撮像線を表す近似関数を設定する手順は、第1の撮像データ又は第2の撮像データの垂直方向をy軸、水平方向をx軸としたときに、
第1の撮像データ上にマッピングされた各撮像線は、xをyの多項式として表した近似関数として設定され、
第2の撮像データ上にマッピングされた各撮像線は、yをxの多項式として表した近似関数として設定されるのが好ましい。
In the present invention,
The procedure for setting the approximate function representing each imaging line is as follows. When the vertical direction of the first imaging data or the second imaging data is the y axis and the horizontal direction is the x axis,
Each imaging line mapped on the first imaging data is set as an approximate function in which x is expressed as a polynomial of y,
Each imaging line mapped on the second imaging data is preferably set as an approximate function in which y is expressed as a polynomial of x.
この発明によれば、第1の撮像データ又は第2の撮像データ上にマッピングされた各撮像線が多項式で与えられる近似関数として設定されているので、撮像データ上にマッピングされた各撮像線が曲線であったとしても、第1、第2の線画像と、第1、第2の撮像データとの対応を高精度に取ることができる。また、撮像線に応じた多項式による近似関数として設定することにより、近似関数を求めるのに複雑な演算処理を要することなく、これらの対応関係を求めることができる。 According to the present invention, since each imaging line mapped on the first imaging data or the second imaging data is set as an approximate function given by a polynomial, each imaging line mapped on the imaging data is Even if it is a curve, the correspondence between the first and second line images and the first and second imaging data can be taken with high accuracy. In addition, by setting as an approximate function using a polynomial corresponding to the imaging line, it is possible to obtain the corresponding relationship without requiring a complicated calculation process to obtain the approximate function.
本発明では、
画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応付けを求める手順は、
第1の線画像上の各直線と第1の撮像データ上の各撮像線との対応付け、並びに、第2の線画像上の各直線と第2の撮像データ上の各撮像線との対応付けを行うステップと、
対応付けされた各撮像線に応じて設定された近似関数に基づいて、第1の撮像データ上の複数の撮像線及び第2の撮像データ上の複数の撮像線の交点を求めるステップと、
求められた各交点に基づいて、第1の撮像データ上の隣り合う2本の撮像線と、第2の撮像データ上の隣り合う2本の撮像線とによって囲まれる領域内の任意の点を与える補間関数を設定するステップとを備えているのが好ましい。
In the present invention,
The procedure for obtaining the correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data is as follows:
Correspondence between each straight line on the first line image and each imaging line on the first imaging data, and correspondence between each straight line on the second line image and each imaging line on the second imaging data The step of attaching,
Obtaining intersections of a plurality of imaging lines on the first imaging data and a plurality of imaging lines on the second imaging data based on an approximate function set in accordance with each of the associated imaging lines;
Based on each obtained intersection point, an arbitrary point in an area surrounded by two adjacent imaging lines on the first imaging data and two adjacent imaging lines on the second imaging data is determined. And preferably setting an interpolation function to be provided.
この発明によれば、近似関数により線画像上の各直線と高精度に対応関係が求められた撮像線に基づいて、補間関数を設定することができるので、画像生成デバイスの任意の画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応関係を高精度に求めることができる。 According to the present invention, since the interpolation function can be set based on the imaging line whose correspondence with the straight line on the line image is determined with high accuracy by the approximation function, the arbitrary pixel position of the image generation device and The correspondence relationship between the pixel position and the position mapped on the imaging data can be obtained with high accuracy.
本発明では、
画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応付けを求める手順の後に、
既に算出された画像生成デバイスの画素位置とその画素位置が撮像データ上にマッピングされた位置との対応関係、並びに、再度算出された画像生成デバイスの画素位置とその画素位置が撮像データ上にマッピングされた位置との対応関係に基づいて、良否評価を行う手順を備え、
否と評価された場合、再度第1の線画像をスクリーン上に表示させる手順から、画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応付けを求める手順までを繰り返すのが好ましい。
In the present invention,
After the procedure for obtaining the correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data,
The correspondence between the pixel position of the image generation device already calculated and the position where the pixel position is mapped on the imaging data, and the pixel position of the image generation device calculated again and the pixel position are mapped on the imaging data. Provided with a procedure for performing pass / fail evaluation based on the correspondence with the determined position,
If not, from the procedure of displaying the first line image again on the screen to the procedure of finding the correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data Is preferably repeated.
この発明によれば、良否評価を行って、画素位置とその画素位置が撮像データ上にマッピングされた位置との対応関係を評価しているので、否と評価された場合、再度、画像生成デバイスの画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応関係を求めることで、その対応関係を一層高精度に求めることができる。 According to the present invention, the pass / fail evaluation is performed to evaluate the correspondence between the pixel position and the position where the pixel position is mapped on the imaging data. By obtaining the correspondence between the pixel position and the position where the pixel position is mapped on the imaging data, the correspondence can be obtained with higher accuracy.
本発明では、
繰り返す際の第1の線画像を表示させる手順及び第2の線画像を表示させる手順の少なくともいずれかは、前回よりも各直線の間隔を狭めて更新された線画像を表示させるのが好ましい。
この発明によれば、直線の間隔を狭めて更新された線画像を用いて再度対応関係を求めることにより、第1の撮像データ上にマッピングされた隣り合う2本の撮像線と、第2の撮像データ上にマッピングされた隣り合う2本の撮像線とにより囲まれた領域が前回よりも小さくなるので、その領域内の任意の画素位置とその画素位置が撮像データ上にマッピングされた領域内の位置との対応を、より一層高精度に求めることができる。
In the present invention,
It is preferable that at least one of the procedure of displaying the first line image and the procedure of displaying the second line image at the time of repetition displays the updated line image with the interval of each straight line narrower than the previous time.
According to the present invention, the correspondence relationship is obtained again using the line image updated with the interval between the straight lines reduced, so that the two adjacent imaging lines mapped on the first imaging data and the second Since the area surrounded by two adjacent imaging lines mapped on the imaging data is smaller than the previous area, any pixel position in that area and the area where the pixel position is mapped on the imaging data Correspondence with the position of can be obtained with higher accuracy.
本発明では、
繰り返す際の第1の線画像を表示させる手順及び第2の線画像を表示させる手順の少なくともいずれかは、前回とは異なる位置に各直線を配置した線画像を表示させるのが好ましい。
この発明によれば、撮像データ上にマッピングされる撮像線が前回とは異なる位置に配置された状態で対応付けを改めて行うことができるので、前回では検出できなかった撮像データの歪みを検出する可能性が高くなり、領域内の任意の画素位置とその画素位置が撮像データ上にマッピングされた領域内の位置との対応を、高精度に求めることができる。また、線画像中の撮像線の本数は同じなので、演算処理が複雑になることもなく、前回と同様の負荷で対応付けを求めることができる。
In the present invention,
It is preferable that at least one of the procedure of displaying the first line image and the procedure of displaying the second line image at the time of repetition displays a line image in which each straight line is arranged at a position different from the previous time.
According to the present invention, since the imaging line mapped on the imaging data can be associated again with the imaging line being arranged at a position different from the previous time, the distortion of the imaging data that could not be detected in the previous time is detected. The possibility increases, and a correspondence between an arbitrary pixel position in the area and a position in the area where the pixel position is mapped on the imaging data can be obtained with high accuracy. Further, since the number of imaging lines in the line image is the same, the calculation process is not complicated, and the association can be obtained with the same load as the previous time.
本発明は、前述した画素位置取得方法としてのみならず、前記各発明に係る方法を構成する各手順を実行することを特徴とする画像処理装置、コンピュータが前記各発明に係る画素位置取得方法を実行するプログラム、及びこのプログラムが記録されたコンピュータ読み取り可能な記録媒体として成立するものであり、これらの発明によれば、前述した作用及び効果と同様の作用及び効果を享受できる画像処理装置、コンピュータを得ることができる。 The present invention is not limited to the pixel position acquisition method described above, but also executes an image processing apparatus and a computer that execute the respective steps constituting the method according to each of the inventions. A program to be executed, and a computer-readable recording medium on which the program is recorded. According to these inventions, an image processing apparatus and a computer that can enjoy the same operations and effects as those described above Can be obtained.
以下、本発明の実施の形態を図面に基づいて説明する。
〔第1実施形態〕
図1には、本発明の第1実施形態に係る画素位置取得方法を実施するための画素特性値取得システム1が示されている。この画素特性値取得システム1は、プロジェクタ100を構成する液晶パネル等の固定画素方式ディスプレイの各画素についての画素特性値、例えば、輝度、色度等を取得し、取得された画素特性値に基づいて、各画素についての補正データを生成するものであり、撮像装置2及びコンピュータ3を備えて構成される。
撮像装置2は、CCDカメラやCMOSセンサ等が採用され、スクリーン101に対して定点位置に配置され、スクリーン101上に投射された画像データに基づく投射画像を撮像して取得された撮像データをコンピュータ3に出力する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 shows a pixel characteristic
The
コンピュータ3は、演算処理装置及び記憶装置を備え、撮像装置2から出力された撮像データを処理して、プロジェクタ100を構成する液晶パネル等により表示された表示画像上の画素位置と、その画素位置が撮像データ上にマッピングされた位置との対応を求め、各画素についての画素特性値を取得する。具体的には、このコンピュータ3は、表示画像取込手段31、表示画像形成手段32、マッピング領域取得手段33、近似関数設定手段34、画素マッピング算出手段35、及び画素特性値取得手段36を備えて構成され、記憶装置には、予め準備された縦線画像データ蓄積部37、横線画像データ蓄積部38、特性値取得用画像データ蓄積部39の他、各機能的手段による取得又は生成データを蓄積する、縦線画像撮像データ蓄積部40、横線画像撮像データ蓄積部41、特性値取得用撮像データ蓄積部42、縦線マッピング領域データ蓄積部43、横線マッピング領域データ蓄積部44、縦線マッピングデータ蓄積部45、横線マッピングデータ蓄積部46、画素マッピングデータ蓄積部47、及び画素特性値データ蓄積部48が確保されている。以下、これらの各機能的手段で行われる処理について詳述する。
The
〔1〕表示画像取込手段31及び表示画像形成手段32における処理
表示画像取込手段31及び表示画像形成手段32は、画素特性値取得対象となるプロジェクタ100に対して所定の画像データを出力し、プロジェクタ100に所定の表示画像をスクリーン101上に表示させ、スクリーン101上に表示された表示画像を、撮像装置2によって撮像し、撮像データとして取り込む手段であり、両手段は協働して図2に示されるような一連の処理を実行する。
(1) まず、表示画像形成手段32は、縦線画像データ蓄積部37に蓄積された縦線画像データを読み出して取得し(処理S1)、プロジェクタ100に取得したデータを送信する(処理S2)。ここで、縦線画像データは、図3に示されるように、画面上で垂直方向に延びる複数の直線が、水平方向に所定間隔を設けて配置された画像A1であり、実際には、画像データの幅W、高さH、0番目の縦線位置w0、1番目の縦線位置w1、2番目の縦線位置w2…からなるメタデータA2として縦線画像データ蓄積部37に記録されている。
[1] Processing in Display
(1) First, the display
(2) 表示画像形成手段32は、続けてプロジェクタ100で縦線画像データの表示を開始したことを表示画像取込手段31に知らせる(処理S3)。表示画像取込手段31は、表示画像形成手段32からの画像表示が開始された旨の情報を取得すると(処理S4)、撮像装置2によって表示画像の撮像を行い(処理S5)、縦線画像撮像データをコンピュータ3内に取り込んで、縦線画像撮像データ蓄積部40に保存する(処理S6)。
(3) 撮像データの保存が終了したら、表示画像取込手段31は、その旨を表示画像形成手段32に知らせる(処理S7)。表示画像形成手段32は、撮像終了の旨の情報を取得したら(処理S8)、次の横線画像データの取得を開始する(処理S9)。
(2) The display
(3) When the storage of the imaging data is completed, the display
(4) 以後、表示画像形成手段32は、横線画像データ、画素特性値取得用画像データの取得、表示を繰り返し、これに合わせて表示画像取込手段31は、各画像の撮像データを、順次、横線画像撮像データ蓄積部41、特性値取得用撮像データ蓄積部42に保存していく。尚、横線画像データは、図4に示されるように、水平方向に延びる複数の直線が、垂直方向に所定間隔を設けて配置された画像A3であり、横線画像データ蓄積部38に保存されているのは、画像データの幅W、高さH、0番目の横線位置h0、1番目の横線位置h1、2番目の横線位置h2…というメタデータA4である。また、図示を略したが、画素特性値取得用画像データは、すべての画素に一定の輝度、色等を表示させる輝度信号、色信号等から構成され、例えば、各画素の電圧透過特性(VT−γ)のバラツキが判るようなデータとして特性値取得用画像データ蓄積部39に蓄積されている。
(4) Thereafter, the display
(5) 表示画像取込手段31は、横線画像データに基づいて表示された表示画像を撮像装置2で撮像し、横線画像撮像データとして取り込んで横線画像撮像データ蓄積部41に蓄積し、画素特性値取得用画像データに基づいて表示された表示画像を撮像装置2で撮像し、特性値取得用撮像データとして取り込んで特性値取得用撮像データ蓄積部42に蓄積する。
(6) 表示画像形成手段32は、前述したすべての画像データに基づいて、プロジェクタ100に表示させたか否かを判定し(処理S9)、すべての画像表示が終了したと判定されたら、その旨を表示画像取込手段31に知らせ(処理S10)、処理を終了する。
(7) 表示画像取込手段31は、表示画像形成手段32から画像表示が終了した旨の情報を取得したか否かを判定し(処理S11)、終了した旨の情報を取得したら、処理を終了する。
(5) The display image capturing means 31 captures a display image displayed based on the horizontal line image data with the
(6) The display
(7) The display
〔2〕マッピング領域取得手段33における処理
マッピング領域取得手段33は、前述した縦線画像データA1及び横線画像データA3と、これらの表示画像を撮像装置2で撮像した縦線画像撮像データ及び横線画像撮像データとの大まかな対応関係を求め、これに基づいて、縦線画像撮像データ及び横線画像撮像データ上の各撮像線を切り出す手段であり、具体的には、図5に示される処理を行う。
(1) まず、マッピング領域取得手段33は、縦線画像データ蓄積部37に蓄積された縦線画像データA1、及び横線画像データ蓄積部38に蓄積された横線画像データA3を取得する(処理S12)。取得された縦線画像データ及び横線画像データを重ね合わせると、図6に示されるように、格子状の画像A5となる。
[2] Processing in Mapping
(1) First, the mapping
(2) 次に、マッピング領域取得手段33は、縦線画像撮像データ蓄積部40に保存された縦線画像撮像データ、及び横線画像撮像データ蓄積部41に蓄積された横線画像撮像データを取得する(処理S13)。取得された縦線画像撮像データ及び横線画像撮像データを重ね合わせると、図6に示されるように、格子状の画像A5が撮像装置2のスクリーン101に対する撮像位置に応じて変形した画像A6として取得される。
(3) マッピング領域取得手段33は、予め設定された縦線画像データ及び横線画像データとなる画像A5の四隅部分のマーカCA、CB、CC、CDの位置を取得する(処理S14)。
(4) 続けてマッピング領域取得手段33は、画像A5のマーカCA、CB、CC、CDが撮像データとなる画像A6上にマッピングされたマッピング位置cA、cB、cC、cDを取得する(処理S15)。
(2) Next, the mapping
(3) the mapping
(4) continued mapping
(5) マッピング領域取得手段33は、マーカCA、CB、CC、CD及びマッピング位置cA、cB、cC、cDの対応関係に基づいて、射影変換行列を算出する(処理S16)。具体的には、ベクトル(x,y)Tについて、座標軸を一つ増やして任意定数wを設定し、ベクトル(wx,wy,w)Tとすると、射影変換は、以下の式(2)に示される変換式によって表現できる。 (5) The mapping area acquisition means 33 calculates a projective transformation matrix based on the correspondence between the markers C A , C B , C C , C D and the mapping positions c A , c B , c C , c D ( Process S16). Specifically, for the vector (x, y) T , the coordinate axis is increased by one and an arbitrary constant w is set. When the vector (wx, wy, w) T is used, the projective transformation is expressed by the following equation (2). It can be expressed by the conversion formula shown.
この変換式(2)を整理すると、マッピング位置cA、cB、cC、cDのそれぞれのマッピング位置座標(x,y)は、マーカ座標(X,Y)によって次の式(3)、式(4)で与えられる。 When this conversion formula (2) is arranged, the mapping position coordinates (x, y) of the mapping positions c A , c B , c C , c D are expressed by the following formula (3) according to the marker coordinates (X, Y). Is given by equation (4).
(6) マッピング位置座標(x,y)及びマーカ座標(X,Y)の対応関係が求められたら、マッピング領域取得手段33は、例えば、図7に示される縦線画像データを表す画像A7上の直線を、点RA、RB、RC、RDで囲むことで縦線画像データから切り出す処理を行い、さらに、この各点RA、RB、RC、RDの座標(X,Y)から、式(3)、式(4)によって縦線画像撮像データとなる画像A8上にマッピングされた点rA、rB、rC、rDの座標(x,y)を求め、求められた各座標に基づいて、画像A8上の撮像線の切り出しを行い、縦線マッピング領域データを取得する(処理S17)。取得された縦線マッピング領域データは、例えば、図7の縦線画像データの左端から3本目の寸法w2の縦線であれば、画像A9に示されるように、縦線画像データ上での位置w2と、縦線画像撮像データへのマッピングにより生じる撮像線を含む領域の左上位置(x2、y2)、この撮像線を含む領域の幅Δx2、この撮像線を含む領域の高さΔy2、及びこの撮像線を点rA、rB、rC、rDで取り囲んだ領域の撮像データから構成され、縦線マッピング領域データ蓄積部43に各撮像線毎に蓄積される。尚、横線マッピング領域も縦線の場合と同様の手順で求められ、同様のデータ構造で横線マッピング領域データ蓄積部44に蓄積される。
(6) When the correspondence between the mapping position coordinates (x, y) and the marker coordinates (X, Y) is obtained, the mapping
〔3〕近似関数設定手段34における処理
近似関数設定手段34は、縦線マッピング領域データ蓄積部43及び横線マッピング領域データ蓄積部44に蓄積された各マッピング領域データに基づいて、各撮像線を表す近似関数を設定する部分であり、例えば縦線マッピング領域データであれば、図8に示されるフローチャートに示される処理を行って近似関数の設定を行う。
(1) まず、近似関数設定手段34は、縦線マッピング領域データ蓄積部43より縦線マッピング領域データを取得する(処理S18)。
[3] Processing in Approximate
(1) First, the approximate
(2) 次に、近似関数設定手段34は、縦線画像データの縦線が縦線画像撮像データへマッピングされることにより生じる撮像線の位置を取得する(処理S19)。撮像線の位置の取得は、図9に示されるように、画像A10のような縦線マッピング領域データについて、ある垂直方向位置yにおける縦線画像撮像データの水平方向位置xの広がりの範囲を求め、これに基づいて、各垂直方向位置yにおける水平方向位置xの代表値を求めることにより行われる。本実施形態では、図9の画像A11に示されるように、ある垂直方向位置yj+17に対して撮像線であることを示す輝点は水平方向にxi+7〜xi+11までの広がりを持っているので、垂直方向位置yj+17に対する水平方向位置xは、これら5点の平均値とし、これを縦線画像撮像データ中のすべての垂直方向位置yについて算出し、図9のA12のような撮像線を与える(x,y)のデータ群を取得する。
(2) Next, the approximate
(3) そして、近似関数設定手段34は、縦線マッピング領域データ中の縦線画像データの縦線が縦線画像撮像データへマッピングされることにより生じる撮像線の位置を、縦線画像撮像データの垂直方向Yに関する多項式で縦線画像撮像データの水平方向位置Xを表す近似関数に当てはめる(処理S20)。具体的には、この近似関数は、水平位置Xを垂直位置Yの多項式で表現し、多項式の次数をM、撮像線上の位置座標の数をN、撮像線上の位置座標の撮像データ水平方向成分をx、撮像線上の位置座標の撮像データの垂直方向成分をy、撮像線上の位置座標の撮像データの水平方向成分の平均値をμx、撮像線上の撮像データの垂直方向成分の平均値をμy、撮像線上の位置座標の撮像データ水平方向成分の標準偏差をσx、撮像線上の撮像データの垂直方向成分の標準偏差をσyとすると、水平方向位置X及び垂直方向位置Yの関係は、以下の式(5)で与えられる。
(3) Then, the approximate
(4) 最後に近似関数設定手段34は、得られた近似式(5)を縦線画像データ上の縦線位置wとともに、縦線マッピングデータとして取得し、縦線マッピングデータ蓄積部45に蓄積する(処理S21)。
横線マッピング領域データの場合も、上記縦線マッピング領域データと同様の手順によって横線マッピングデータを取得することとなるが、この場合、画像A10に相当するデータ群の取得に際しては、各水平方向位置xに対する垂直方向位置yの広がりの範囲を求め、この垂直方向位置yの平均値を求めることにより、垂直位置Yを水平位置Xの多項式で表す。具体的には、以下の式(6)で与えられ、得られた近似式(6)は、横線画像データの横線位置hとともに横線マッピングデータ蓄積部46に蓄積される。
(4) Finally, the approximate
In the case of the horizontal line mapping area data, the horizontal line mapping data is acquired by the same procedure as the vertical line mapping area data. In this case, when acquiring the data group corresponding to the image A10, each horizontal position x The vertical position Y is expressed by a polynomial of the horizontal position X by obtaining the range of the spread of the vertical position y with respect to and calculating the average value of the vertical positions y. Specifically, the approximate expression (6) given by the following expression (6) is stored in the horizontal line mapping
〔4〕画素マッピング算出手段35における処理
画素マッピング算出手段35は、近似関数設定手段34により得られた縦線マッピングデータ及び横線マッピングデータに基づいて、プロジェクタ1を構成する液晶パネル等により表示された表示画像の画素位置が、これを撮像した撮像データのどこにマッピングされているかを算出する部分であり、具体的には、図10のフローチャートに示されるような処理を行う。
(1) まず、画素マッピング算出手段35は、縦線マッピングデータ蓄積部45に蓄積された縦線マッピングデータを取得し(処理S22)、続けて横線マッピングデータ蓄積部46に蓄積された横線マッピングデータを取得する(処理S23)。
[4] Processing in Pixel
(1) First, the pixel
(2) 次に、画素マッピング算出手段35は、縦線マッピングデータと横線マッピングデータの交点を算出し(処理S24)、横線マッピングデータ、縦線マッピングデータ、及び両者のデータの交点から、縦線マッピングデータと横線マッピングデータによって構成される四辺形領域内で、固定画素型ディスプレイの液晶パネル等により表示された表示画像の各画素位置が撮像データ上にマッピングされる位置を算出する(処理S25)。具体的には、本実施形態では、図11に示されるように、横線画像撮像データ上の撮像線pa、pb、縦線画像撮像データ上の撮像線qa、qbの交点caa、cab、cba、cbb(画像A13)と、固定画素型ディスプレイの液晶パネル等により表示された横線画像データ上の横線Pa、Pb、縦線画像データ上の縦線Qa、Qbの交点Caa、Cab、Cba、Cbb(画像A14)の対応付けを行い(A15)、各交点の対応関係から撮像データの位置(x,y)が、表示画像の画素位置(X,Y)へとどのような補間関数でマッピングされるかを算出する(A16)。 (2) Next, the pixel mapping calculating means 35 calculates the intersection of the vertical line mapping data and the horizontal line mapping data (processing S24), and from the horizontal line mapping data, the vertical line mapping data, and the intersection of the two data, A position where each pixel position of the display image displayed by the liquid crystal panel of the fixed pixel type display is mapped on the imaging data within the quadrangular region constituted by the mapping data and the horizontal line mapping data is calculated (processing S25). . Specifically, in the present embodiment, as shown in FIG. 11, the intersection c aa of the imaging lines p a and p b on the horizontal line imaging data and the imaging lines q a and q b on the vertical imaging data. , C ab , c ba , c bb (image A13), horizontal lines P a , P b on the horizontal line image data displayed by the liquid crystal panel of the fixed pixel type display, etc., vertical lines Q a on the vertical line image data, Q b of intersection C aa, C ab, C ba , C bb performs association (image A14) (A15), position of the imaging data from the correspondence between each intersection (x, y) is the pixel position of the display image The interpolation function to be mapped to (X, Y) is calculated (A16).
(3) 画素マッピング算出手段35による補間関数の算出は、具体的には、画像A13における四辺形領域内の任意の点cαβの座標(x,y)は、交点caaの座標(xaa,yaa)、交点cabの座標(xab,yab)、交点cbaの座標(xba,yba)、交点cbbの座標
(xbb,ybb)を用いて次の式(7)、式(8)で表現することができる。
(3) The interpolation function is calculated by the pixel mapping calculating means 35. Specifically, the coordinates (x, y) of an arbitrary point c αβ in the quadrilateral region in the image A13 are the coordinates of the intersection c aa (x aa , y aa), intersection c ab coordinates (x ab, y ab), intersection c ba coordinates (x ba, y ba), the coordinates of the intersection point c bb (x bb, using y bb) the following formula ( 7) and can be expressed by equation (8).
ここで、各係数Naa、Nba、Nab、Nbbは、表示画像の四辺形領域における交点Caa、Cba間の水平方向距離をΔW、交点Cba、Cbb間の垂直方向距離をΔHとすると、次の式(9)〜(12)で与えられる。つまり、これにより、画像A13に示される撮像データ上にマッピングされた四辺形領域の任意の点cαβの座標(x,y)は、画像A14に示される表示画像上の四辺形領域の対応する点Cαβの座標(X、Y)として表現することができ、表示画像上の画素位置とその画素位置が撮像データ上にマッピングされたマッピング位置との対応を与える補間関数が算出できる。 Here, the coefficients N aa , N ba , N ab , and N bb are the horizontal distance between the intersection points C aa and C ba in the quadrilateral region of the display image, and the vertical direction distance between the intersection points C ba and C bb. Is given by the following equations (9) to (12). That is, as a result, the coordinates (x, y) of an arbitrary point c αβ of the quadrilateral area mapped on the imaging data shown in the image A13 correspond to the quadrilateral area on the display image shown in the image A14. It can be expressed as the coordinates (X, Y) of the point C αβ , and an interpolation function that gives a correspondence between the pixel position on the display image and the mapping position where the pixel position is mapped on the imaging data can be calculated.
(4) 画素マッピング算出手段35は、上記の手順により、撮像データ上にマッピングされたすべての四辺形領域内の任意のマッピング位置と、表示画像上のすべての四辺形領域内の任意の画素位置との対応を与える補間関数を算出し、画素マッピングデータとして画素マッピングデータ蓄積部47に保存する(処理S26)。
(4) The pixel mapping calculation means 35 performs an arbitrary mapping position in all quadrilateral areas mapped on the imaging data and an arbitrary pixel position in all quadrilateral areas on the display image by the above procedure. An interpolation function that gives a correspondence with is calculated and stored in the pixel mapping
〔5〕画素特性値取得手段36における処理
画素特性値取得手段36は、特性値取得用撮像データ蓄積部42に蓄積された特性値取得用撮像データと、画素マッピングデータ蓄積部47に蓄積された画素マッピングデータに基づいて、表示画像上の各画素の特性値を取得する部分であり、次のような手順で画素特性値の取得を行う。
(1) まず、画素特性値取得手段36は、特性値取得用撮像データ蓄積部42より特性値取得用撮像データを取得し、撮像データ上での特性値を取得する。特性値としては、例えば、輝度値、色ムラ等の数値データが与えられる。
[5] Process in Pixel Characteristic
(1) First, the pixel characteristic
(2) 次に、画素特性値取得手段36は、画素マッピングデータ蓄積部47より画素マッピングデータを取得し、表示画像上の各画素位置と、その画素位置が撮像データ上にマッピングされたマッピング位置との対応に基づいて、表示画像上の各画素位置について、その画素位置が撮像データ上にマッピングされた位置の輝度値、色ムラ等の特性値データを取得する。
(3) 最後に、画素特性値取得手段36は、表示画像上のすべての画素位置に応じた特性値データを画素特性値データとして画素特性値データ蓄積部48に蓄積する。
(2) Next, the pixel characteristic
(3) Finally, the pixel characteristic
〔6〕本実施形態の作用
次に、前述した各機能的手段によって実施される画素特性値取得方法の全体の流れを、図12に示されるフローチャートに基づいて説明する。
(1) 表示画像形成手段32は、プロジェクタ100に縦線画像データ、横線画像データ、及び特性値取得用画像データに基づく画像を順次表示させ(処理S27)、各画像データによりスクリーン101上に表示された表示画像を撮像装置2によって撮像し、表示画像取込手段31により撮像データとして順次取り込み(処理S28)、縦線画像撮像データ蓄積部40、横線画像撮像データ蓄積部41、及び特性値取得用撮像データ蓄積部42に記録保存する(処理S29)。
(2) 表示画像取込手段31により、すべての撮像データの取り込みが終了したと判定されたら(処理S30)、マッピング領域取得手段33は、縦線画像データ及び横線画像データを取得し(処理S31)、さらに縦線画像撮像データ及び横線画像撮像データを取得する(処理S32)。
[6] Operation of this embodiment Next, the overall flow of the pixel characteristic value acquisition method implemented by the above-described functional means will be described based on the flowchart shown in FIG.
(1) The display
(2) When it is determined by the display image capturing means 31 that the capturing of all the imaging data has been completed (processing S30), the mapping area acquiring means 33 acquires the vertical line image data and the horizontal line image data (processing S31). In addition, vertical line image capturing data and horizontal line image capturing data are acquired (step S32).
(3) マッピング領域取得手段33は、まず、縦線画像データ上に設定されたマーカ位置が縦線画像撮像データ上のどこにマッピングされているかを把握して、マーカ位置とマッピング位置との対応を表す式(3)、式(4)を算出する(処理S33)。そして、式(3)、式(4)が算出されたら、マッピング領域取得手段33は、縦線画像データ上で設定される各直線を囲む領域を設定し、これに基づいて、式(3)、式(4)によって変換された撮像データ上にマッピングされた領域により、各撮像線の切り出しを行い(処理S34)、得られた縦線マッピング領域データを縦線マッピング領域データ蓄積部43に蓄積する(処理S35)。
(4) 同様に横線画像データ及び横線画像撮像データについても、式(3)、式(4)に基づいて撮像データ中の各撮像線の切り出しを行い、横線マッピング領域データとして蓄積し、縦線及び横線のすべての撮像線についてマッピング領域データが取得されるまで、処理を繰り返す(処理S36)。
(3) The mapping
(4) Similarly, with respect to horizontal line image data and horizontal line image imaging data, each imaging line in the imaging data is cut out based on Expression (3) and Expression (4), and is stored as horizontal line mapping area data. The process is repeated until mapping area data is acquired for all the imaging lines of the horizontal line (process S36).
(5) マッピング領域取得手段33によるマッピング領域データの取得が終了したら、近似関数設定手段34は、縦線マッピング領域データ及び横線マッピング領域データを取得する(処理S37)。
(6) マッピング領域取得手段33は、縦線マッピング領域データとして格納された各撮像線を与える撮像線の位置を取得し(処理S38)、続けてこの撮像線を近似する、式(5)で与えられる多項式の近似関数の当てはめを行う(処理S39)。
(7) 得られた近似関数を縦線マッピングデータとして縦線マッピングデータ蓄積部45に蓄積する(処理S40)。
(8) マッピング領域取得手段33は、横線マッピング領域データに基づいて、横線マッピングデータ中の撮像線を当てはめる式(6)を用いて、同様の手順で近似関数の設定を行い、すべてのマッピング領域データ上の撮像線について近似関数の設定及びマッピングデータの蓄積が終了したら(処理S41)、処理を終了する。
(5) When the mapping area data acquisition by the mapping
(6) The mapping area acquisition means 33 acquires the position of the imaging line that gives each imaging line stored as the vertical line mapping area data (processing S38), and subsequently approximates this imaging line by Expression (5). Fitting of an approximate function of a given polynomial is performed (processing S39).
(7) The obtained approximate function is stored in the vertical line mapping
(8) Based on the horizontal line mapping area data, the mapping
(9) 次に、画素マッピング算出手段35は、縦線マッピングデータ及び横線マッピングデータを取得し(処理S42)、各縦線マッピングデータを与える近似関数及び各横線マッピングデータを与える近似関数に基づいて、縦線撮像線と横線撮像線との交点を算出する(処理S43)。
(10) 画素マッピング算出手段35は、縦線マッピングデータ及び横線マッピングデータにより生成される四辺形領域内の任意の点と、この点に対応する縦線画像データ及び横線画像データによる四辺形領域内の点との対応関係を与える補間関数を式(7)及び式(8)に基づいて算出する(処理S44)。
(11) 画素マッピング算出手段35は、算出された補間関数を画素マッピングデータとして蓄積し(処理S45)、すべての縦線及び横線内の領域についての補間関数が求められるまで繰り返す(処理S46)。
(9) Next, the pixel mapping calculation means 35 acquires the vertical line mapping data and the horizontal line mapping data (processing S42), and based on the approximate function that gives each vertical line mapping data and the approximate function that gives each horizontal line mapping data. The intersection of the vertical line imaging line and the horizontal line imaging line is calculated (processing S43).
(10) The pixel mapping calculating means 35 is configured to select an arbitrary point in the quadrilateral area generated by the vertical line mapping data and the horizontal line mapping data, and the quadrilateral area by the vertical line image data and the horizontal line image data corresponding to this point. An interpolation function that gives a correspondence relationship with the point is calculated based on the equations (7) and (8) (processing S44).
(11) The pixel mapping calculation means 35 accumulates the calculated interpolation function as pixel mapping data (process S45), and repeats until the interpolation functions for all the vertical line and horizontal line areas are obtained (process S46).
(12) 画素マッピング算出手段35による補間関数の算出が終了したら、画素特性値取得手段36は、特性値取得用撮像データ蓄積部42から特性値取得用撮像データを取得し(処理S47)、画素マッピングデータ蓄積部47から画素マッピングデータを取得し(処理S48)、表示画像上の各画素と特性値との関連づけを行い(処理S49)、画素特性値データ蓄積部48に画素特性値データとして蓄積する(処理S50)。
このような本実施形態によれば、画素位置取得用の画像データとして縦線データ及び横線データを採用しているので、撮像装置2に起因する、表示画像上の画素位置とその画素位置が撮像データ上にマッピングされる位置との間に生じる複雑な歪みを、近似関数という形で精度よく把握でき、表示画像の画素位置と、その画素位置が撮像データにマッピングされた位置との対応を高精度に取得することができる。
また、前述した式(1)〜(12)によって高精度な対応関係を把握できるので、複雑な演算処理を行う必要もなく、簡単に高精度な対応関係を求めることができる。
(12) When the calculation of the interpolation function by the pixel
According to the present embodiment, since vertical line data and horizontal line data are employed as image data for pixel position acquisition, the pixel position on the display image and the pixel position caused by the
Further, since the high-accuracy correspondence can be grasped by the above-described equations (1) to (12), it is not necessary to perform complicated arithmetic processing, and the high-precision correspondence can be easily obtained.
〔第2実施形態〕
次に、本発明の第2実施形態について説明する。尚、以下の説明では既に説明した部分と同一の部分等については、その説明を省略する。
前述の第1実施形態では、画素マッピング算出手段35による画素マッピングデータを算出した後、直ちに画素特性値取得手段36によって画素特性値の取得を行うように構成されていた。
これに対して、第2実施形態に係る画素特性値取得システム4では、図13に示されるように、コンピュータ4内に処理終了判定手段49が設けられ、画素マッピングデータが適切でないと判定された場合、再度画像データの表示から取り込みを行い、画素マッピング算出手段50による画素マッピングデータの算出を行い、適切な画素マッピングデータが得られるまで処理を繰り返す点が相違する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the description of the same parts as those already described is omitted.
In the first embodiment described above, the pixel mapping value is obtained by the pixel characteristic
On the other hand, in the pixel characteristic value acquisition system 4 according to the second embodiment, as shown in FIG. 13, the processing
また、前述した第1実施形態では、画素マッピング算出手段35は、四辺形領域内の任意の点の座標を縦線及び横線の交点のみを用いて算出していた。これに対して、第2実施形態に係る画素マッピング算出手段50は、図14に示されるように、四辺形領域内の任意の点の座標を算出するのに、交点及び縦線及び横線の中点を用いている点が相違する。
以下、これらの相違点について詳述する。
In the first embodiment described above, the pixel
Hereinafter, these differences will be described in detail.
まず、画素マッピング算出手段50は、図14に示されるように、画像A18に示される撮像データ上の四辺形領域内の任意の点cαβと、これに対応する画像A19に示される画像データ上の点Cαβとの対応関係を与える補間関数を算出する際に、第1実施形態と同様の交点caa、cab、cba、cbb(A20)の他、各交点の中点cpa、cpb、cqa、cqbを利用し、これと対応する画像データ上の点Cpa、Cpb、Cpb、Cqb、との対応関係を求めた上で補間関数を算出している(A21)。 First, as shown in FIG. 14, the pixel mapping calculation unit 50 calculates an arbitrary point c αβ in the quadrilateral region on the imaging data shown in the image A18 and the image data shown in the image A19 corresponding thereto. When calculating the interpolation function that gives the corresponding relationship with the point C αβ , the intersection point c aa , c ab , c ba , c bb (A20) as in the first embodiment, and the middle point c pa of each intersection point , C pb , c qa , c qb are used, and the interpolation function is calculated after obtaining the corresponding relationship with the points C pa , C pb , C pb , C qb on the corresponding image data. (A21).
ここで、点cpaのx座標は、交点caa及びcbaのx座標を等分する値とし、y座標は横線マッピングデータの近似関数から算出し、点cpb、cqa、cqbも同様に算出している。
このような交点及び中点を用いて撮像データ中の四辺形領域内の任意の点cαβの位置座標(x、y)は、各点cijの座標値を(xij,yij)とすると、補間関数は、次の式(13)、式(14)で与えられる。
Here, the x coordinate of the point c pa is a value that equally divides the x coordinates of the intersections c aa and c ba , the y coordinate is calculated from an approximate function of the horizontal line mapping data, and the points c pb , c qa , and c qb are also It is calculated similarly.
Such intersection and any point c .alpha..beta coordinates of a quadrilateral area in the captured data using the midpoint (x, y) is the coordinate value of each point c ij (x ij, y ij ) and Then, the interpolation function is given by the following equations (13) and (14).
式(13)、式(14)における係数Naa、Nba、Nab、Nbb、Npa、Npb、Nqa、Nqbは、画像A19に示される画像データの交点Caa、Cba間の距離をΔW、Caa、Cab間の距離をΔHとすると、次の式(15)〜式(22)で求められる。 The coefficients N aa , N ba , N ab , N bb , N pa , N pb , N qa , N qb in the equations (13) and (14) are the intersection points C aa , C ba of the image data shown in the image A19. When the distance between them is ΔW, C aa , and the distance between C ab is ΔH, the following equations (15) to (22) are obtained.
画素マッピング算出手段50がこのようにして撮像データ上にマッピングされた四辺形領域内の任意の位置と、表示画像の画素位置との対応を与える補間関数を求めることにより、対比するサンプル点が増加するので、任意の位置の対応関係をより高精度に求めることができる。 The pixel mapping calculation means 50 obtains an interpolation function that gives a correspondence between an arbitrary position in the quadrilateral area mapped on the imaging data in this way and the pixel position of the display image, thereby increasing the number of sample points to be compared. Therefore, it is possible to obtain the correspondence between arbitrary positions with higher accuracy.
次に、処理終了判定手段49は、画素マッピング算出手段50によって求められた画素マッピングデータの精度が十分でないと判定されたら、再度の画素マッピングデータを生成させる部分であり、具体的には、次の式(23)で与えられる評価値Errorに基づいて、処理終了の判定を行っている。評価値Errorは、すべての画素について行ってもよいが、予め代表点をN個設定しておき、その代表点で評価値がどのように変化するかを判定すればよい。
Next, the processing
ここで評価値Errorは、複数回取得された画素マッピングデータ間の差分として算出されており、処理終了判定手段49は、評価値Errorが十分に小さくなったか、前回の処理後の評価値Errorと、最新の処理後の評価値Errorとの差が十分に小さくなれば処理を終了する。
一方、処理終了判定手段49が評価値Errorが十分に小さくなっていない、前回との差が大きいと判定した場合、処理終了判定手段49は、図15に示されるように、最初の縦線表示画像A22の縦線のピッチを、画像A23のように倍に設定した画像データや、縦線のピッチを、画像A24のように不等間隔に設定した画像データを再構成し、プロジェクタ100に入力し、これに基づく表示画像を表示させる。横線画像データも同様にして再構成を行う。
Here, the evaluation value Error is calculated as a difference between the pixel mapping data acquired a plurality of times, and the processing
On the other hand, when the process
次に、前述した第2実施形態に係る画素特性値取得システム4の作用について、図16に示されるフローチャートに基づいて説明する。
(1) まず、表示画像形成手段32は、プロジェクタ100に縦線画像データ、横線画像データ、及び特性値取得用画像データを入力し、スクリーン101上にそれぞれの表示画像を表示させつつ(処理S51)、表示画像取込手段31によって各表示画像の撮像及び取り込みを行う(処理S52)。
Next, the operation of the pixel characteristic value acquisition system 4 according to the second embodiment will be described based on the flowchart shown in FIG.
(1) First, the display
(2) 次に、マッピング領域取得手段33は、マッピング領域の取得を行い(処理S53)、さらに取得されたマッピング領域に基づいて、近似関数設定手段34は、マッピングデータを取得する(処理S54)。
(3) そして、画素マッピング算出手段50は、前述した処理によって画素マッピングデータの算出を行う(処理S55)。ここまでは、第1実施形態と同様の手順である。
(4) 処理終了判定手段49は、前回算出された画素マッピングデータが存在しているか否かを判定し(処理S56)、ない場合は、画像A23又は画像A24のような画像データの再構成を行って(処理S57)、これをプロジェクタ100に入力して前記の処理S51〜処理S55までを繰り返す。
(2) Next, the mapping
(3) Then, the pixel mapping calculating unit 50 calculates pixel mapping data by the above-described processing (processing S55). Up to this point, the procedure is the same as in the first embodiment.
(4) The processing end determination means 49 determines whether or not the previously calculated pixel mapping data exists (processing S56). If there is no processing, the reconfiguration of the image data such as the image A23 or the image A24 is performed. (Step S57), this is input to the
(5) 処理終了判定手段49は、処理S51〜処理S55を繰り返して得られた再構成画像データに基づく画素マッピングデータと、前回の画素マッピングデータに基づいて、式(23)に基づく評価値Errorを算出し(処理S58)、評価値Errorが所定の閾値以下かどうか判定する(処理S59)。
(6) 評価値Errorが所定の閾値以下となっていないと判定された場合、処理終了判定手段49は、画像A23又は画像A24のような画像データの再構成を行って、これをプロジェクタ100に入力して処理S51〜S55を繰り返し、新たな画素マッピングデータの算出を行う。一方、所定の閾値以下となっていると判定された場合、処理を終了し、画素特性値取得手段36による最新の画素マッピングデータに基づく画素特性値の取得を開始する(処理S60)。
(5) The processing end determination means 49 uses the pixel mapping data based on the reconstructed image data obtained by repeating the processes S51 to S55 and the evaluation value Error based on the equation (23) based on the previous pixel mapping data. Is calculated (process S58), and it is determined whether or not the evaluation value Error is equal to or less than a predetermined threshold (process S59).
(6) If it is determined that the evaluation value Error is not less than or equal to the predetermined threshold value, the processing
〔実施形態の変形〕
なお、本発明は前述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
前記実施形態では、プロジェクタ100による表示画像の画素特性値取得のために、本発明に係る画素位置取得方法を採用していたが、これに限らず、直視型の液晶ディスプレイや、プラズマディスプレイ、有機ELディスプレイ等の画素特性値を高精度に取得するために、本発明に係る画素位置取得方法を採用してもよい。
その他、本発明の実施の際の具体的な構造及び形状等は、本発明の目的を達成できる範囲で他の構造等としてもよい。
[Modification of Embodiment]
It should be noted that the present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.
In the above-described embodiment, the pixel position acquisition method according to the present invention is used to acquire the pixel characteristic value of the display image by the
In addition, the specific structure, shape, and the like when implementing the present invention may be other structures as long as the object of the present invention can be achieved.
1…画素特性値取得システム、31…表示画像取込手段、32…表示画像形成手段、33…マッピング領域取得手段、34…近似関数設定手段、35、50…画素マッピング算出手段、49…処理終了判定手段
DESCRIPTION OF
Claims (10)
前記画像生成デバイスの垂直方向に沿って延びる複数の直線からなる第1の線画像を、前記スクリーン上に表示させる手順と、
前記第1の線画像による表示画像を前記撮像装置により撮像し、撮像された第1の撮像データを取得する手順と、
前記画像生成デバイスの水平方向に沿って延びる複数の直線からなる第2の線画像を、前記スクリーン上に表示させる手順と、
前記第2の線画像による表示画像を前記撮像装置により撮像し、撮像された第2の撮像データを取得する手順と、
前記第1の撮像データ上にマッピングされた複数の撮像線を、各撮像線を含む領域を単位として切り出す手順と、
切り出された各撮像線の領域に基づいて、前記第1の撮像データにおける各撮像線を表す近似関数を設定する手順と、
前記第2の撮像データ上にマッピングされた複数の撮像線を、各撮像線を含む領域を単位として切り出す手順と、
切り出された各撮像線の領域に基づいて、前記第2の撮像データにおける各撮像線を表す近似関数を設定する手順と、
前記第1の撮像データ及び第2の撮像データで設定された近似関数に基づいて、前記画像生成デバイスの画素位置と、前記画素位置が前記撮像データ上にマッピングされた位置との対応付けを求める手順とを備えていることを特徴とする画素位置取得方法。 A display image displayed on the screen is picked up by an image pickup device, and based on the picked-up image pickup data, the pixel position of the image generation device projected on the screen and the pixel position are mapped onto the image pickup data. A pixel position acquisition method for acquiring a correspondence relationship with a determined position,
Displaying a first line image composed of a plurality of straight lines extending along a vertical direction of the image generating device on the screen;
A procedure of capturing a display image based on the first line image by the imaging device and acquiring the captured first imaging data;
Displaying a second line image consisting of a plurality of straight lines extending in the horizontal direction of the image generating device on the screen;
A procedure of capturing a display image based on the second line image by the imaging device and acquiring captured second imaging data;
A procedure of cutting out a plurality of imaging lines mapped on the first imaging data in units of areas including the respective imaging lines;
A procedure for setting an approximation function representing each imaging line in the first imaging data based on the area of each extracted imaging line;
A procedure of cutting out a plurality of imaging lines mapped on the second imaging data in units of areas including the respective imaging lines;
A procedure for setting an approximate function representing each imaging line in the second imaging data based on the area of each extracted imaging line;
Based on the approximate function set by the first imaging data and the second imaging data, an association between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data is obtained. And a pixel position acquisition method.
前記第1の線画像及び前記第2の線画像は、それぞれの撮像データとの対応を与える少なくとも4つのマーカを含んで構成され、
前記第1又は第2の撮像データ上にマッピングされた複数の撮像線を、各撮像線を含む領域として切り出す手順は、
前記第1の線画像及び前記第1の撮像データのマーカの対応関係に基づいて、前記第1の線画像及び前記第1の撮像データの、前記第1の線画像の画素位置を前記撮像データのマッピング位置に変換する変換式を設定するステップと、
前記第2の線画像及び前記第2の撮像データのマーカの対応関係に基づいて、前記第2の線画像及び前記第2の撮像データの、前記第2の線画像の画素位置を前記撮像データのマッピング位置に変換する変換式を設定するステップと、
前記第1又は第2の線画像中の各直線を囲む領域を設定するステップと、
前記第1又は第2の線画像中の各直線を囲む領域を、前記設定された変換式によって変換するステップと、
変換された領域に基づいて、前記第1の撮像データ又は前記第2の撮像データの各撮像線を切り出すステップとを備えていることを特徴とする画素位置取得方法。 The pixel position acquisition method according to claim 1,
The first line image and the second line image are configured to include at least four markers that give correspondence with respective imaging data,
The procedure of cutting out a plurality of imaging lines mapped on the first or second imaging data as an area including each imaging line,
Based on the correspondence between the first line image and the marker of the first imaging data , the pixel position of the first line image of the first line image and the first imaging data is represented by the imaging data. Setting a conversion expression to be converted to the mapping position of
Based on the correspondence between the second line image and the marker of the second imaging data , the pixel position of the second line image of the second line image and the second imaging data is the imaging data. Setting a conversion expression to be converted to the mapping position of
Setting an area surrounding each straight line in the first or second line image;
Converting a region surrounding each straight line in the first or second line image by the set conversion equation;
And a step of cutting out each imaging line of the first imaging data or the second imaging data based on the converted area.
前記各撮像線を表す近似関数を設定する手順は、
前記第1の撮像データ又は前記第2の撮像データの垂直方向をy軸、水平方向をx軸とするxy座標系を設定したときに、
前記第1の撮像データ上にマッピングされた各撮像線は、xをyの多項式として表した近似関数として設定され、
前記第2の撮像データ上にマッピングされた各撮像線は、yをxの多項式として表した近似関数として設定されることを特徴とする画素位置取得方法。 In the pixel position acquisition method according to claim 1 or 2,
The procedure for setting an approximation function representing each imaging line is as follows.
When setting an xy coordinate system in which the vertical direction of the first imaging data or the second imaging data is the y-axis and the horizontal direction is the x-axis,
Each imaging line mapped on the first imaging data is set as an approximate function in which x is expressed as a polynomial of y,
Each imaging line mapped on the second imaging data is set as an approximate function in which y is expressed as a polynomial of x, and a pixel position acquisition method.
前記画像生成デバイスの画素位置と、前記画素位置が前記撮像データ上にマッピングされた位置との対応付けを求める手順は、
前記第1の線画像上の各直線と前記第1の撮像データ上の各撮像線との対応付け、並びに、前記第2の線画像上の各直線と前記第2の撮像データ上の各撮像線との対応付けを行うステップと、
対応付けされた各撮像線に応じて設定された近似関数に基づいて、前記第1の撮像データ上の複数の撮像線及び前記第2の撮像データ上の複数の撮像線の交点を求めるステップと、
求められた各交点に基づいて、前記第1の撮像データ上の隣り合う2本の撮像線と、前記第2の撮像データ上の隣り合う2本の撮像線とによって囲まれる領域内の任意の点を与える補間関数を設定するステップとを備えていることを特徴とする画素位置取得方法。 In the pixel position acquisition method according to any one of claims 1 to 3,
The procedure for obtaining the correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data is as follows:
Correspondence between each straight line on the first line image and each imaging line on the first imaging data, and each imaging on each straight line on the second line image and the second imaging data Associating with a line;
Obtaining intersections of a plurality of imaging lines on the first imaging data and a plurality of imaging lines on the second imaging data based on an approximation function set in accordance with each associated imaging line; ,
Based on each obtained intersection point, an arbitrary area within a region surrounded by two adjacent imaging lines on the first imaging data and two adjacent imaging lines on the second imaging data And a step of setting an interpolation function for giving a point.
前記画像生成デバイスの画素位置と、前記画素位置が前記撮像データ上にマッピングされた位置との対応付けを求める手順の後に、
既に算出された前記画像生成デバイスの画素位置と前記画素位置が前記撮像データ上にマッピングされた位置との対応関係、並びに、再度算出された前記画像生成デバイスの画素位置と前記画素位置が前記撮像データ上にマッピングされた位置との対応関係に基づいて、良否評価を行う手順を備え、
否と評価された場合、再度第1の線画像を前記スクリーン上に表示させる手順から前記画像生成デバイスの画素位置と前記画素位置が撮像データ上にマッピングされた位置との対応付けを求める手順までを繰り返すことを特徴とする画素位置取得方法。 In the pixel position acquisition method according to any one of claims 1 to 4,
After the procedure for obtaining the correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data,
The correspondence between the pixel position of the image generation device already calculated and the position where the pixel position is mapped on the imaging data, and the pixel position and the pixel position of the image generation device calculated again are the imaging. Based on the correspondence with the position mapped on the data, it has a procedure to evaluate pass / fail,
If not, from the procedure for displaying the first line image again on the screen to the procedure for obtaining the correspondence between the pixel position of the image generation device and the position where the pixel position is mapped on the imaging data The pixel position acquisition method characterized by repeating.
前記繰り返す際の第1の線画像を表示させる手順及び第2の線画像を表示させる手順の少なくともいずれかは、前回よりも各直線の間隔を狭めて更新された線画像を表示させることを特徴とする画素位置取得方法。 In the pixel position acquisition method according to claim 5,
At least one of the procedure of displaying the first line image and the procedure of displaying the second line image at the time of the repetition displays the updated line image by narrowing the interval of each straight line from the previous time. A pixel position acquisition method.
前記繰り返す際の第1の線画像を表示させる手順及び第2の線画像を表示させる手順の少なくともいずれかは、前回とは異なる位置に各直線を配置した線画像を表示させることを特徴とする画素位置取得方法。 In the pixel position acquisition method according to claim 5,
At least one of the procedure of displaying the first line image and the procedure of displaying the second line image at the time of repetition is characterized by displaying a line image in which each straight line is arranged at a position different from the previous time. Pixel position acquisition method.
請求項1乃至請求項7に記載の画素位置取得方法を構成する各手順を実行することを特徴とする画像処理装置。 A display image displayed on the screen is picked up by an image pickup device, and based on the picked-up image pickup data, the pixel position of the image generation device projected on the screen and the pixel position are mapped onto the image pickup data. An image processing apparatus for acquiring a correspondence relationship with a position,
An image processing apparatus that executes each procedure constituting the pixel position acquisition method according to claim 1.
前記コンピュータが請求項1乃至請求項7に記載の画素位置取得方法を構成する各手順を実行することを特徴とするプログラム。 A display image displayed on the screen is picked up by an image pickup device, and based on the picked-up image pickup data, the pixel position of the image generation device projected on the screen and the pixel position are mapped onto the image pickup data. A program for executing on a computer a pixel position acquisition method for acquiring a correspondence relationship with a position,
A program for executing the steps of the pixel position acquisition method according to any one of claims 1 to 7.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006009581A JP4293191B2 (en) | 2006-01-18 | 2006-01-18 | Pixel position acquisition method, image processing apparatus, program for executing pixel position acquisition method on a computer, and computer-readable recording medium on which the program is recorded |
US11/623,995 US20070165197A1 (en) | 2006-01-18 | 2007-01-17 | Pixel position acquiring method, image processing apparatus, program for executing pixel position acquiring method on computer, and computer-readable recording medium having recorded thereon program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006009581A JP4293191B2 (en) | 2006-01-18 | 2006-01-18 | Pixel position acquisition method, image processing apparatus, program for executing pixel position acquisition method on a computer, and computer-readable recording medium on which the program is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007192610A JP2007192610A (en) | 2007-08-02 |
JP4293191B2 true JP4293191B2 (en) | 2009-07-08 |
Family
ID=38448437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006009581A Expired - Fee Related JP4293191B2 (en) | 2006-01-18 | 2006-01-18 | Pixel position acquisition method, image processing apparatus, program for executing pixel position acquisition method on a computer, and computer-readable recording medium on which the program is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4293191B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5354163B2 (en) * | 2008-12-05 | 2013-11-27 | セイコーエプソン株式会社 | Projector, program and information storage medium |
-
2006
- 2006-01-18 JP JP2006009581A patent/JP4293191B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007192610A (en) | 2007-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101489048B1 (en) | Imaging apparatus, image processing method, and recording medium for recording program thereon | |
JP5222472B2 (en) | Image processing apparatus, image restoration method, and program | |
JP5911296B2 (en) | Image processing apparatus, imaging apparatus, microscope system, image processing method, and image processing program | |
US20110033132A1 (en) | Image correction apparatus and image correction method | |
US7936357B2 (en) | Image display device, method of generating correction value of image display device, program for generating correction value of image display device, and recording medium recording program thereon | |
JPWO2014069632A1 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP2011188083A (en) | Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope | |
JP2011124948A (en) | Information processor, method of processing information, program and image pickup device with optical microscope mounted thereon | |
JP6045523B2 (en) | Image processing apparatus and control method thereof | |
JP5735846B2 (en) | Image processing apparatus and method | |
JP7310606B2 (en) | Two-dimensional flicker measuring device and two-dimensional flicker measuring method | |
JP4419980B2 (en) | Distortion correction method and distortion correction apparatus | |
JP2017092756A (en) | Image processing system, image processing method, image projecting system and program | |
JP5970012B2 (en) | Image processing apparatus and control method thereof | |
US8274597B2 (en) | System and method for measuring a border of an image of an object | |
JP4534992B2 (en) | Pixel position acquisition method | |
JP2007081611A (en) | Method of setting display screen correction parameter | |
JP2001148012A (en) | Method and device for searching corresponding point | |
JP4293191B2 (en) | Pixel position acquisition method, image processing apparatus, program for executing pixel position acquisition method on a computer, and computer-readable recording medium on which the program is recorded | |
US20070165197A1 (en) | Pixel position acquiring method, image processing apparatus, program for executing pixel position acquiring method on computer, and computer-readable recording medium having recorded thereon program | |
JP2008219188A (en) | Image processing apparatus, image processing method, control program of image processing apparatus and computer-readable recording medium with the program recorded thereon | |
JP4017578B2 (en) | Camera shake correction device, camera shake correction method, and recording medium recording camera shake correction program | |
JP5167614B2 (en) | Distance image generating apparatus, distance image generating method and program | |
JP6967382B2 (en) | MTF measuring device and its program | |
JP2007221624A (en) | Illuminance acquisition apparatus, illuminance acquisition method and illuminance acquisition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090330 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4293191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |