JP2013168922A - Projection type image display device and image projection method, and computer program - Google Patents

Projection type image display device and image projection method, and computer program Download PDF

Info

Publication number
JP2013168922A
JP2013168922A JP2012278970A JP2012278970A JP2013168922A JP 2013168922 A JP2013168922 A JP 2013168922A JP 2012278970 A JP2012278970 A JP 2012278970A JP 2012278970 A JP2012278970 A JP 2012278970A JP 2013168922 A JP2013168922 A JP 2013168922A
Authority
JP
Japan
Prior art keywords
image
projection
test
test pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012278970A
Other languages
Japanese (ja)
Inventor
Yosuke Kaji
洋祐 加治
Yoichi Hirota
洋一 廣田
Naomasa Takahashi
巨成 高橋
Noriyuki Yamashita
紀之 山下
Masaya Igarashi
将也 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012278970A priority Critical patent/JP2013168922A/en
Publication of JP2013168922A publication Critical patent/JP2013168922A/en
Priority to CN201310530271.3A priority patent/CN103888700A/en
Priority to KR1020130154001A priority patent/KR20140081678A/en
Priority to US14/102,972 priority patent/US20140176730A1/en
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To suitably perform automatic correction of trapezoidal distortion of a projected image even in an environment with interference by an external light or in the case of a not pure white object being projected.SOLUTION: A camera unit 104 has an optical axis that is disposed at a position different from an irradiation position of a projection unit 101, and is set to include as much of the irradiation range of the projection unit 101 as possible. The projection unit 101 radiates a specific test pattern, and the test pattern is photographed by the camera unit 104. A correction amount detection unit 105 determines a distance and direction to an object of projection from a photographic image, calculates a projection conversion parameter, and outputs the parameter to an image processing unit 102. After that, every input image is projection-converted by the projection conversion parameter so as to radiate an image with trapezoidal distortion being corrected.

Description

本明細書で開示する技術は、メディアの再生映像やコンピューター画面などをスクリーンに投影表示する投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラムに係り、特に、スクリーンに投影された画像の台形歪みや光学歪みを自動補正する投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラムに関する。   The technology disclosed in the present specification relates to a projection-type image display apparatus and image projection method for projecting and displaying a playback image of a media, a computer screen, and the like, and a computer program, and in particular, a trapezoid of an image projected on a screen. The present invention relates to a projection type image display apparatus and image projection method for automatically correcting distortion and optical distortion, and a computer program.

最近、テレビの受信映像やブルーレイなどメディアから再生した映像、パーソナル・コンピューター(PC)画面などを、投影型画像表示装置を用いて大画面スクリーンに投影して、複数人で観賞したりプレゼンテーションを行なったりする機会が増えてきている。また、手のひらに乗せて使用したり携帯機器経に搭載したりすることを意図した、小型の投影型画像表示装置(ピコ・プロジェクター)も出現している。   Recently, television reception video, video reproduced from media such as Blu-ray, personal computer (PC) screen, etc. are projected on a large screen using a projection-type image display device, and can be viewed and presented by multiple people. Opportunities are increasing. In addition, small projection type image display devices (pico projectors) that are intended to be used on the palm of the hand or mounted on a portable device have also appeared.

画像をスクリーンに投影する際、被投射体(スクリーン壁面など)に対し斜めから投影したために映像が台形に歪んでしまう問題がある。台形歪みの自動補正機能は、スクリーンへテスト・パターンを投影し、スクリーン上に投影されたテスト・パターンの画像を内蔵カメラで撮像し、得られたスクリーンの4隅の位置とテスト・パターンの4隅の位置に基づいてスクリーンの3次元情報を得て、台形歪みを補正するものが一般的である(例えば、特許文献1を参照のこと)。スクリーンに投影された画像が垂直方向に台形に歪んでいる場合には、画像表示装置上の表示画像を、スクリーン上の投影画像の台形歪みと逆方向に故意に歪ませることによって、スクリーン上の投影画像がきれいな四角形となるようにすることができる。   When an image is projected onto a screen, there is a problem that the image is distorted into a trapezoid because it is projected obliquely onto a projection target (such as a screen wall surface). The trapezoidal distortion automatic correction function projects a test pattern onto the screen, captures an image of the test pattern projected on the screen with the built-in camera, and obtains the positions of the four corners of the screen and the test pattern 4 In general, the three-dimensional information of the screen is obtained based on the corner position to correct the trapezoidal distortion (see, for example, Patent Document 1). If the image projected on the screen is distorted in a trapezoidal shape in the vertical direction, the display image on the image display device is intentionally distorted in the direction opposite to the trapezoidal distortion of the projected image on the screen. The projected image can be a beautiful rectangle.

ところが、スクリーンに投影したテスト・パターンを利用して台形歪みを正確に補正するには、テスト・パターンのより鮮明な投影像をカメラで捕捉する必要がある。このため、暗い部屋や真っ白なスクリーン上でなければ正しく台形歪みを補正できない、自然光などの外光に邪魔されて誤動作してしまう、という問題がある。すなわち、投影型画像表示装置を使用できる環境が制約されてしまう。例えば、ピコ・プロジェクターは、小型でどこにでも持ち運ぶことができるが、使用場所が限定されると、魅力が失われてしまう。   However, in order to accurately correct the trapezoidal distortion using the test pattern projected on the screen, it is necessary to capture a clearer projected image of the test pattern with a camera. For this reason, there is a problem in that the trapezoidal distortion cannot be corrected correctly unless it is on a dark room or a pure white screen, and malfunction occurs when it is disturbed by outside light such as natural light. That is, the environment in which the projection type image display apparatus can be used is restricted. For example, the pico projector is small and can be carried anywhere, but if the place of use is limited, the attractiveness is lost.

特開2007−13810号公報JP 2007-13810 A

本明細書で開示する技術の目的は、スクリーンに投影したテスト・パターンを利用して、投影画像に生じる台形歪みを始めとする各種歪みを好適に自動補正することができる、優れた投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラムを提供することにある。   An object of the technology disclosed in the present specification is to provide an excellent projection image that can appropriately and automatically correct various distortions including a trapezoidal distortion generated in a projection image by using a test pattern projected on a screen. To provide a display device, an image projection method, and a computer program.

本明細書で開示する技術のさらなる目的は、外光に邪魔された環境下や、真っ白でない被投射体に投影した場合であっても、投影像の台形歪みを好適に自動補正することができる、優れた投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラムを提供することにある。   A further object of the technology disclosed in this specification is to automatically correct the trapezoidal distortion of a projected image even in an environment obstructed by external light or when projected onto a non-white projection object. Another object of the present invention is to provide an excellent projection type image display apparatus, image projection method, and computer program.

本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
画像を被投射体に投影する投影部と、
前記投影部の照射位置と異なる位置に設置され、前記被投射体に投影された画像を撮影するカメラ部と、
前記投影部から前記被投射体にテスト・パターンを投影したときに前記カメラ部で撮影したテスト画像から背景を除去して、背景除去後の前記テスト画像中の前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算する補正量検出部と、
前記補正パラメーターに基づいて前記投影部から投影する画像を補正する画像補正部と、
を具備する投影型画像表示装置である。
The present application has been made in consideration of the above problems, and the technology according to claim 1
A projection unit that projects an image onto a projection object;
A camera unit that is installed at a position different from the irradiation position of the projection unit and shoots an image projected on the projection object;
When a test pattern is projected from the projection unit onto the projection target, a background is removed from a test image photographed by the camera unit, and coordinate information relating to the test pattern in the test image after background removal is obtained. A correction amount detection unit that detects and calculates a correction parameter for correcting an image projected from the projection unit based on the coordinate information;
An image correction unit for correcting an image projected from the projection unit based on the correction parameter;
Is a projection type image display apparatus.

本願の請求項2に記載の技術によれば、請求項1に記載の投影型画像表示装置の前記補正量検出部は、背景除去後の前記テスト画像から前記テスト・パターンの複数の特徴点の座標を算出し、前記被写体の投影画像に含まれる歪みを補正するための射影変換パラメーターを前記複数の特徴点の座標から算出し、前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換するように構成されている。   According to the technique described in claim 2 of the present application, the correction amount detection unit of the projection-type image display device according to claim 1 uses a plurality of feature points of the test pattern from the test image after background removal. A coordinate is calculated, a projection transformation parameter for correcting distortion included in the projection image of the subject is calculated from the coordinates of the plurality of feature points, and the image correction unit is configured to calculate an image projected from the projection unit. It is configured to perform projective transformation with transformation parameters.

本願の請求項3に記載の技術によれば、請求項1に記載の投影型画像表示装置の前記カメラ部は、前記投影部からテスト・パターンを照射しないときに第1のテスト画像を撮影するとともに、前記投影部からテスト・パターンを照射しているときに第2のテスト画像を撮影し、前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像の差を作って、前記第2のテスト画像から背景の情報を除去して、前記テスト・パターンを含んだ背景除去後の前記テスト画像を得るように構成されている。   According to the technique described in claim 3 of the present application, the camera unit of the projection-type image display device according to claim 1 captures the first test image when the test unit does not irradiate the test pattern. At the same time, a second test image is taken while the test pattern is emitted from the projection unit, and the correction amount detection unit creates a difference between the first test image and the second test image. The background information is removed from the second test image, and the test image after the background removal including the test pattern is obtained.

本願の請求項4に記載の技術によれば、請求項1に記載の投影型画像表示装置の前記カメラ部は、前記投影部から第1のテスト・パターンを照射しているときに第1のテスト画像を撮影するとともに、前記投影部から第2のテスト・パターンを照射しているときに第2のテスト画像を撮影し、前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像の差を作って、前記第1のテスト画像及び前記第2のテスト画像から背景の情報を除去して、前記第1のテスト・パターンと前記第2のテスト・パターンを合成したテスト・パターンを含んだ背景除去後の前記テスト画像を得るように構成されている。   According to the technique described in claim 4 of the present application, the camera unit of the projection type image display device according to claim 1 has the first test pattern when the first test pattern is emitted from the projection unit. A test image is taken and a second test image is taken when the second test pattern is emitted from the projection unit, and the correction amount detection unit is configured to capture the first test image and the second test image. A test image obtained by synthesizing the first test pattern and the second test pattern by creating a difference between the first test image and the second test image by removing background information from the first test image and the second test image. It is configured to obtain the test image after removing the background including the pattern.

本願の請求項5に記載の技術によれば、請求項3又は4のいずれかに記載の投影型画像表示装置の前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像間で輝度調整を行なった後に、背景の情報の除去処理を行なうように構成されている。   According to the technique described in claim 5 of the present application, the correction amount detection unit of the projection type image display device according to any one of claims 3 and 4 includes the first test image and the second test image. After the brightness adjustment is performed, the background information is removed.

本願の請求項6に記載の技術によれば、請求項5に記載の投影型画像表示装置の前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像のうち一方を基準とした平均輝度の比率を他方の画像の画素値に掛けて、前記輝度調整処理を行なうように構成されている。   According to the technique described in claim 6 of the present application, the correction amount detection unit of the projection type image display device according to claim 5 uses one of the first test image and the second test image as a reference. The luminance adjustment process is performed by multiplying the pixel value of the other image by the average luminance ratio.

本願の請求項7に記載の技術によれば、請求項6に記載の投影型画像表示装置の前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像のうち一方を基準とした平均輝度の比率を他方の画像の画素値に掛けて、前記輝度調整処理を行なうように構成されている。   According to the technique described in claim 7 of the present application, the correction amount detection unit of the projection type image display device according to claim 6 uses one of the first test image and the second test image as a reference. The luminance adjustment process is performed by multiplying the pixel value of the other image by the average luminance ratio.

本願の請求項8に記載の技術によれば、請求項1に記載の投影型画像表示装置の前記補正量検出部は、背景除去後の前記テスト画像のうちテスト・パターンを含む領域について輝度を正規化するように構成されている。   According to the technique described in claim 8 of the present application, the correction amount detection unit of the projection type image display apparatus according to claim 1 provides luminance for an area including a test pattern in the test image after background removal. It is configured to normalize.

本願の請求項9に記載の技術によれば、請求項8に記載の投影型画像表示装置の前記補正量検出部は、前記テスト画像のうち画素値の分散値が所定の閾値以上となる領域のみ輝度を正規化するように構成されている。   According to the technique described in claim 9 of the present application, the correction amount detection unit of the projection type image display device according to claim 8 is a region in which a variance value of pixel values of the test image is equal to or greater than a predetermined threshold. Only configured to normalize luminance.

本願の請求項10に記載の技術によれば、請求項3に記載の投影型画像表示装置は、複数本の縦線と複数本の横線を含むメッシュ状のテスト・パターンを使用する。そして、前記補正量検出部は、背景除去後の前記テスト画像に含まれる縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標に基づいて、歪みを補正するための射影変換パラメーターを計算し、前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換するように構成されている。   According to the technique described in claim 10 of the present application, the projection type image display apparatus according to claim 3 uses a mesh-like test pattern including a plurality of vertical lines and a plurality of horizontal lines. Then, the correction amount detection unit is a projective transformation for correcting distortion based on the coordinates of a plurality of feature points formed by intersections of the vertical line and horizontal line test patterns included in the test image after background removal. The parameters are calculated, and the image correction unit is configured to projectively transform the image projected from the projection unit using the projective transformation parameters.

本願の請求項11に記載の技術によれば、請求項10に記載の投影型画像表示装置が使用する前記テスト・パターンは、前記テスト・パターンの輪郭となる矩形の対角線に相当する2本のスリットをさらに含んでいる。   According to the technique described in claim 11 of the present application, the test pattern used by the projection type image display device according to claim 10 is two lines corresponding to rectangular diagonal lines that are the outline of the test pattern. It further includes a slit.

本願の請求項12に記載の技術によれば、請求項10に記載の投影型画像表示装置の前記補正量検出部は、背景除去後の前記テスト画像から検出できた特徴点の座標に基づいて、前記投影部から前記被投射体に投影できる最大画像サイズを推定するように構成されている。   According to the technique described in claim 12 of the present application, the correction amount detection unit of the projection type image display device according to claim 10 is based on the coordinates of the feature points detected from the test image after background removal. The maximum image size that can be projected from the projection unit onto the projection target is estimated.

本願の請求項13に記載の技術によれば、請求項4に記載の投影型画像表示装置は、複数本の縦線を含む第1のテスト・パターンと複数本の横線を含む第2のテスト・パターンを使用している。そして、前記補正量検出部は、背景除去後の前記テスト画像に含まれる縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標に基づいて、歪みを補正するための射影変換パラメーターを計算し、前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換するように構成されている。   According to the technique described in claim 13 of the present application, the projection type image display apparatus according to claim 4 includes a first test pattern including a plurality of vertical lines and a second test including a plurality of horizontal lines.・ Pattern is used. Then, the correction amount detection unit is a projective transformation for correcting distortion based on the coordinates of a plurality of feature points formed by intersections of the vertical line and horizontal line test patterns included in the test image after background removal. The parameters are calculated, and the image correction unit is configured to projectively transform the image projected from the projection unit using the projective transformation parameters.

本願の請求項14に記載の技術によれば、請求項13に記載の投影型画像表示装置の前記補正量検出部は、背景除去後の前記テスト画像から検出できた特徴点の座標に基づいて、前記投影部から前記被投射体に投影できる最大画像サイズを推定するように構成されている。   According to the technique described in claim 14 of the present application, the correction amount detection unit of the projection type image display device according to claim 13 is based on the coordinates of the feature points detected from the test image after background removal. The maximum image size that can be projected from the projection unit onto the projection target is estimated.

本願の請求項15に記載の技術によれば、請求項1に記載の投影型画像表示装置の前記補正量検出部は、背景の情報を除去した後のテスト画像に対してさらに自己相関によるノイズ・リダクション処理を行なってから、前記テスト画像中の前記テスト・パターンに関する各特徴点の座標の情報を検出して、前記各特徴点の座標の情報に基づいて補正パラメーターを計算するように構成されている。   According to the technique described in claim 15 of the present application, the correction amount detection unit of the projection type image display apparatus according to claim 1 further includes noise caused by autocorrelation with respect to the test image after the background information is removed. After performing the reduction process, the coordinate information of each feature point related to the test pattern in the test image is detected, and the correction parameter is calculated based on the coordinate information of each feature point. ing.

本願の請求項16に記載の技術によれば、請求項15に記載の投影型画像表示装置の前記補正量検出部は、複数本の縦線又は複数本の横線のテスト・パターンを含む前記テスト画像を縦方向又は横方向に角度サーチしてノイズ・リダクション処理を行なってから、縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標を算出し、前記各交点の座標の情報に基づいて歪みを補正するための射影変換パラメーターを計算するように構成されている。   According to the technique of claim 16 of the present application, the correction amount detection unit of the projection type image display apparatus according to claim 15 includes the test pattern including a test pattern of a plurality of vertical lines or a plurality of horizontal lines. After the image is subjected to an angle search in the vertical or horizontal direction and noise reduction processing is performed, the coordinates of a plurality of feature points consisting of the intersections of the test patterns of the vertical and horizontal lines are calculated, and the coordinates of the coordinates of the intersections are calculated. A projective transformation parameter for correcting the distortion based on the information is calculated.

本願の請求項17に記載の技術によれば、請求項16に記載の投影型画像表示装置の前記補正量検出部は、前記テスト画像に含まれる縦線又は横線の各テスト・パターンを2次曲線として検出するように構成されている。   According to the technique described in claim 17 of the present application, the correction amount detection unit of the projection type image display apparatus according to claim 16 converts each test pattern of vertical lines or horizontal lines included in the test image to a secondary order. It is configured to detect as a curve.

本願の請求項18に記載の技術によれば、請求項16に記載の投影型画像表示装置の前記補正量検出部は、直前に角度サーチを行なった隣の線分の結果を中心にして角度サーチするように構成されている。   According to the technique described in claim 18 of the present application, the correction amount detection unit of the projection type image display apparatus according to claim 16 is configured so that the angle is centered on a result of an adjacent line segment that has just been subjected to an angle search. It is configured to search.

また、本願の請求項19に記載の技術は、
被投射体にテスト・パターンを投射するステップと、
被投射体に投影されたテスト・パターンを撮影してテスト画像を取得するステップと、
前記テスト画像から背景を除去するステップと、
背景を除去した後のテスト画像に含まれる前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算するステップと、
前記補正パラメーターに基づいて投影画像を補正するステップと、
を有する画像投影方法である。
Moreover, the technology described in claim 19 of the present application is:
Projecting a test pattern onto the projection object;
Capturing a test image by capturing a test pattern projected on the projection target; and
Removing a background from the test image;
Detecting coordinate information related to the test pattern included in the test image after removing the background, and calculating correction parameters for correcting the image projected from the projection unit based on the coordinate information;
Correcting the projected image based on the correction parameters;
Is an image projection method.

また、本願の請求項20に記載の技術は、
被投射体にテスト・パターンを投射する手順と、
被投射体に投影されたテスト・パターンを撮影してテスト画像を取得する手順と、
前記テスト画像から背景を除去する手順と、
背景を除去した後のテスト画像に含まれる前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算する手順と、
前記補正パラメーターに基づいて投影画像を補正する手順と、
をコンピューターに実行させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
In addition, the technique described in claim 20 of the present application is:
A procedure for projecting a test pattern onto a projection object;
A procedure for acquiring a test image by photographing a test pattern projected on a projection object,
Removing a background from the test image;
A procedure for detecting coordinate information related to the test pattern included in the test image after removing the background and calculating a correction parameter for correcting an image projected from the projection unit based on the coordinate information;
Correcting the projected image based on the correction parameters;
Is a computer program written in a computer-readable format to cause a computer to execute.

本願の請求項20に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項20に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項19に係る画像投影方法と同様の作用効果を得ることができる。   The computer program according to claim 20 of the present application defines a computer program written in a computer-readable format so as to realize predetermined processing on a computer. In other words, by installing the computer program according to claim 20 of the present application on a computer, a cooperative operation is exhibited on the computer, and the same effect as the image projection method according to claim 19 of the present application is obtained. be able to.

本明細書で開示する技術によれば、スクリーンに投影したテスト・パターンを利用して、投影画像に生じる台形歪みを始めとする各種歪みを好適に自動補正することができる、優れた投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラムを提供することができる。   According to the technique disclosed in this specification, an excellent projection image that can suitably automatically correct various distortions including a trapezoidal distortion generated in a projection image using a test pattern projected on a screen. A display device, an image projection method, and a computer program can be provided.

また、本明細書で開示する技術によれば、外光に邪魔された環境下や、真っ白でない被投射体に投影した場合であっても、投影像の台形歪みを好適に自動補正することができる、優れた投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラムを提供することができる。   Further, according to the technology disclosed in this specification, it is possible to appropriately automatically correct the trapezoidal distortion of a projected image even in an environment obstructed by external light or when projected onto a non-white projection object. An excellent projection-type image display device, image projection method, and computer program that can be provided can be provided.

本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Other objects, features, and advantages of the technology disclosed in the present specification will become apparent from a more detailed description based on the embodiments to be described later and the accompanying drawings.

図1は、本明細書で開示する技術の一実施形態に係る投影型画像表示装置100の構成を模式的に示した図である。FIG. 1 is a diagram schematically illustrating a configuration of a projection image display apparatus 100 according to an embodiment of the technology disclosed in this specification. 図2は、投影部101の内部構成例を示した図である。FIG. 2 is a diagram illustrating an internal configuration example of the projection unit 101. 図3は、画像処理部102の内部構成例を示した図である。FIG. 3 is a diagram illustrating an internal configuration example of the image processing unit 102. 図4は、補正量検出部105の内部構成例を示した図である。FIG. 4 is a diagram illustrating an internal configuration example of the correction amount detection unit 105. 図5Aは、投影画像の歪みを補正する射影変換パラメーターを計算するために使用するテスト・パターンの一例を示した図である。FIG. 5A is a diagram showing an example of a test pattern used for calculating a projective transformation parameter for correcting distortion of a projected image. 図5Bは、投影画像の歪みを補正する射影変換パラメーターを計算するために使用するテスト・パターンの他の例を示した図である。FIG. 5B is a diagram showing another example of a test pattern used for calculating a projective transformation parameter for correcting distortion of a projected image. 図5Cは、投影画像の歪みを補正する射影変換パラメーターを計算するために使用するテスト・パターンのさらに他の例を示した図である。FIG. 5C is a diagram showing still another example of the test pattern used for calculating the projective transformation parameter for correcting the distortion of the projection image. 図5Dは、図5Cに示したテスト・パターンを用いて射影変換パラメーターを計算する処理を説明するための図である。FIG. 5D is a diagram for explaining a process of calculating projective transformation parameters using the test pattern shown in FIG. 5C. 図5Eは、投影画像の歪みを補正する射影変換パラメーターを計算するために使用する第1のテスト・パターンの他の例を示した図である。FIG. 5E is a diagram showing another example of the first test pattern used for calculating the projective transformation parameter for correcting the distortion of the projected image. 図5Fは、投影画像の歪みを補正する射影変換パラメーターを計算するために使用する第2のテスト・パターンの他の例を示した図である。FIG. 5F is a diagram showing another example of the second test pattern used for calculating the projective transformation parameter for correcting the distortion of the projected image. 図5Gは、図5Cに示したテスト・パターンの変形例を示した図である。FIG. 5G is a diagram showing a modification of the test pattern shown in FIG. 5C. 図5Hは、図5Eに示した第1のテスト・パターンの変形例を示した図である。FIG. 5H is a diagram showing a modification of the first test pattern shown in FIG. 5E. 図5Iは、図5Fに示した第2のテスト・パターンの変形例を示した図である。FIG. 5I is a diagram showing a modification of the second test pattern shown in FIG. 5F. 図5Jは、図5Hに示した第1のテスト・パターンを照射して撮影した第1のテスト画像Aの領域Area(0,1)で平均輝度A_Area(0,1)を求める様子を示した図である。FIG. 5J shows how the average luminance A_Area (0, 1) is obtained in the area Area (0, 1) of the first test image A photographed by irradiating the first test pattern shown in FIG. 5H. FIG. 図5Kは、図5Hに示した第2のテスト・パターンを照射して撮影した第1のテスト画像Bの領域Area(0,1)で平均輝度B_Area(0,1)を求める様子を示した図である。FIG. 5K shows how the average luminance B_Area (0, 1) is obtained in the area Area (0, 1) of the first test image B photographed by irradiating the second test pattern shown in FIG. 5H. FIG. 図6は、投影型画像表示装置100において、被投射体への投影画像の台形歪みを補正するための処理手順を示したフローチャートである。FIG. 6 is a flowchart showing a processing procedure for correcting the trapezoidal distortion of the projected image on the projection object in the projection type image display apparatus 100. 図7Aは、2本の横縦線からなる第1のテスト・パターンを被投射体に照射したときに撮影した第1のテスト画像Aを例示した図である。FIG. 7A is a diagram exemplifying a first test image A photographed when a first test pattern composed of two horizontal and vertical lines is irradiated onto a projection target. 図7Bは、2本の縦横線からなる第2のテスト・パターンを被投射体に照射したときに撮影した第2のテスト画像Bを例示した図である。FIG. 7B is a diagram illustrating a second test image B photographed when the projection target is irradiated with a second test pattern composed of two vertical and horizontal lines. 図8Aは、第1のテスト画像Aから第2のテスト画像Bを引き算して得た背景除去画像Cを示した図である。FIG. 8A is a diagram illustrating a background removed image C obtained by subtracting the second test image B from the first test image A. FIG. 図8Bは、第2のテスト画像Bから第1のテスト画像Aを引き算して得た背景除去画像Dを示した図である。FIG. 8B is a diagram showing a background removed image D obtained by subtracting the first test image A from the second test image B. 図9Aは、背景除去画像に対して角度サーチとノイズ・リダクションを行なう処理を説明するための図である。FIG. 9A is a diagram for explaining processing for performing angle search and noise reduction on a background-removed image. 図9Bは、背景除去画像に対して角度サーチとノイズ・リダクションを行なう処理を説明するための図である。FIG. 9B is a diagram for explaining processing for performing angle search and noise reduction on the background-removed image. 図9Cは、背景除去画像に対して角度サーチとノイズ・リダクションを行なう処理を説明するための図である。FIG. 9C is a diagram for explaining processing for performing angle search and noise reduction on the background-removed image. 図9Dは、背景除去画像に対して角度サーチとノイズ・リダクションを行なう処理を説明するための図である。FIG. 9D is a diagram for explaining processing for performing angle search and noise reduction on the background-removed image. 図10Aは、背景除去画像Cに対して自己相関による強力なノイズ・リダクション処理を行なって得られた背景除去画像C2を示した図である。FIG. 10A is a diagram showing a background-removed image C2 obtained by performing a powerful noise reduction process based on autocorrelation on the background-removed image C. 図10Bは、背景除去画像Dに対して自己相関による強力なノイズ・リダクション処理を行なって得られた背景除去画像D2を示した図である。FIG. 10B is a diagram showing a background removed image D2 obtained by performing a powerful noise reduction process by autocorrelation on the background removed image D. 図11Aは、背景除去画像C2、D2に含まれる4本の線分を2次曲線として検出して、交点を求める処理を説明するための図である。FIG. 11A is a diagram for explaining a process of detecting intersections by detecting four line segments included in the background-removed images C2 and D2 as quadratic curves. 図11Bは、背景除去画像C2、D2に含まれる4本の線分を2次曲線として検出して、交点を求める処理を説明するための図である。FIG. 11B is a diagram for explaining a process of detecting intersections by detecting four line segments included in the background-removed images C2 and D2 as quadratic curves. 図11Cは、背景除去画像C2、D2に含まれる4本の線分を2次曲線として検出して、交点を求める処理を説明するための図である。FIG. 11C is a diagram for explaining a process of detecting intersections by detecting four line segments included in the background-removed images C2 and D2 as quadratic curves. 図12は、被写体への投影画像に糸巻き型歪みが生じた様子を例示した図である。FIG. 12 is a diagram illustrating a state where pincushion distortion occurs in an image projected onto a subject. 図13は、被写体への投影画像に樽型歪みが生じた様子を例示した図である。FIG. 13 is a diagram illustrating a state in which barrel distortion has occurred in a projected image on a subject.

以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。   Hereinafter, embodiments of the technology disclosed in this specification will be described in detail with reference to the drawings.

図1には、本明細書で開示する技術の一実施形態に係る投影型画像表示装置100の構成を模式的に示している。図示の投影型画像表示装置100は、投影部101と、画像処理部102と、画像入力部103と、カメラ部104と、補正量検出部105を備えている。以下、各部について説明する。   FIG. 1 schematically shows a configuration of a projection type image display apparatus 100 according to an embodiment of the technology disclosed in this specification. The illustrated projection type image display apparatus 100 includes a projection unit 101, an image processing unit 102, an image input unit 103, a camera unit 104, and a correction amount detection unit 105. Hereinafter, each part will be described.

画像入力部103は、パーソナル・コンピューターやTV受像機、ブルーレイ・ディスク再生装置(いずれも図示しない)などの投影画像の供給源から画像信号を入力する。   The image input unit 103 inputs an image signal from a projection image supply source such as a personal computer, a TV receiver, or a Blu-ray disc playback device (none of which is shown).

画像処理部102は、投影部101から投影出力する画像の処理を行なう。画像処理部102から出力される画像は、画像入力部103から供給される外部画像と、画像処理部102内で生成するテスト・パターンである。画像処理部102内では、補正量検出部105から供給される補正パラメーターに基づいて、投射画像の歪み補正も行なう。補正の対象となる歪みは、投影部101と被投射体との3次元的な位置関係に基づく台形歪みの他、投影部101やカメラ部104の光学系に起因する光学歪みが含まれる。   The image processing unit 102 processes an image output from the projection unit 101. The image output from the image processing unit 102 is an external image supplied from the image input unit 103 and a test pattern generated in the image processing unit 102. In the image processing unit 102, the distortion of the projected image is also corrected based on the correction parameter supplied from the correction amount detection unit 105. The distortion to be corrected includes not only the trapezoidal distortion based on the three-dimensional positional relationship between the projection unit 101 and the projection target but also the optical distortion caused by the optical system of the projection unit 101 and the camera unit 104.

投影部101は、画像処理部102から出力される画像を、スクリーン(図示しない)などの被投射体に投影する。投影部101から被写体(スクリーン壁面)に対し斜め方向から投影することにより、投影画像には台形歪みが発生する。   The projection unit 101 projects the image output from the image processing unit 102 onto a projection target such as a screen (not shown). By projecting from the projection unit 101 onto the subject (screen wall surface) from an oblique direction, trapezoidal distortion occurs in the projected image.

カメラ部104は、投影部101から被投射体に投影されたテスト・パターンを撮影する。補正量検出部105は、カメラ104で撮影したテスト・パターン像を用いて、投影部101からの投影画像に含まれる上記の台形歪みや光学歪みを補正するための補正量を計算して、画像処理部102に出力する。出力画像に対して射影変換を行なうことにより台形歪みや光学歪みを補正することができる。本実施形態では、補正量検出部105は、補正量として射影変換パラメーターを算出する。   The camera unit 104 captures a test pattern projected from the projection unit 101 onto the projection target. The correction amount detection unit 105 calculates a correction amount for correcting the trapezoidal distortion and the optical distortion included in the projection image from the projection unit 101 using the test pattern image captured by the camera 104 to obtain an image. The data is output to the processing unit 102. By performing projective transformation on the output image, trapezoidal distortion and optical distortion can be corrected. In the present embodiment, the correction amount detection unit 105 calculates a projective transformation parameter as the correction amount.

本実施形態では、カメラ部104は、投影部101の照射位置と異なる位置に配設され、撮像範囲が投影部101の照射範囲を極力包含するように光軸が設定されている。投影部101から特定のテスト・パターンを照射すると、カメラ部104で撮影する。そして、補正量検出部105は、撮影画像から、被投射体までの距離と方向を求め、射影変換パラメーターを計算して、画像処理部102に出力する。以降、画像処理部102では画像入力部103から入力されるすべてに画像を射影変換パラメーターで射影変換し、投影部101からは台形歪みや光学歪みが補正された画像が照射される。   In the present embodiment, the camera unit 104 is disposed at a position different from the irradiation position of the projection unit 101, and the optical axis is set so that the imaging range includes the irradiation range of the projection unit 101 as much as possible. When a specific test pattern is emitted from the projection unit 101, the camera unit 104 captures an image. Then, the correction amount detection unit 105 obtains the distance and direction to the projection object from the captured image, calculates the projective transformation parameter, and outputs it to the image processing unit 102. Thereafter, the image processing unit 102 performs projection conversion on all images input from the image input unit 103 using the projective conversion parameters, and the projection unit 101 emits an image with trapezoidal distortion and optical distortion corrected.

図2には、投影部101の内部構成例を示している。図示の投影部101は、液晶パネル201と、照明光学部202と、液晶パネル駆動部204と、投影光学部203を備えている。   FIG. 2 shows an internal configuration example of the projection unit 101. The illustrated projection unit 101 includes a liquid crystal panel 201, an illumination optical unit 202, a liquid crystal panel drive unit 204, and a projection optical unit 203.

液晶パネル駆動部204は、画像処理部102から入力される画像信号に基づいて液晶パネル201を駆動して、その表示画面に投影映像を描画する。照明光学部202は、液晶パネル201を背面から照射する。投影型画像表示装置100がピコ・プロジェクターの場合、照明光学部202の光源には例えばLED(Light Emitting Diode)やレーザーが用いられる。投影光学部203は、液晶パネル201を透過した光を、被投射体(図示しない)に拡大投影する。投影部101からは、画像入力部103への入力画像、又は、投影型画像表示装置100内で発生したテスト・パターンが投影される。投影光学部203は、1枚又は2枚以上の光学レンズからなる。投影光学部203がレンズ歪みを持つことが想定され、このため、投影画像には台形歪みの他に光学歪みも生じる。   The liquid crystal panel driving unit 204 drives the liquid crystal panel 201 based on the image signal input from the image processing unit 102 and draws a projected video on the display screen. The illumination optical unit 202 irradiates the liquid crystal panel 201 from the back side. When the projection image display apparatus 100 is a pico projector, for example, an LED (Light Emitting Diode) or a laser is used as the light source of the illumination optical unit 202. The projection optical unit 203 enlarges and projects the light transmitted through the liquid crystal panel 201 onto a projection target (not shown). From the projection unit 101, an input image to the image input unit 103 or a test pattern generated in the projection type image display apparatus 100 is projected. The projection optical unit 203 includes one or more optical lenses. It is assumed that the projection optical unit 203 has lens distortion. For this reason, the projection image has optical distortion in addition to trapezoidal distortion.

図3には、画像処理部102の内部構成例を示している。図示の画像処理部102は、画像書き込み読み出し制御部301と、フレーム・メモリー302と、画像補正部303と、画質調整部304と、テスト・パターン発生部305と、出力画像切り替え部305を備えている。   FIG. 3 shows an internal configuration example of the image processing unit 102. The illustrated image processing unit 102 includes an image writing / reading control unit 301, a frame memory 302, an image correction unit 303, an image quality adjustment unit 304, a test pattern generation unit 305, and an output image switching unit 305. Yes.

フレーム・メモリー302には、画像入力部103から供給される画像を記憶する。画像書き込み読み出し制御部301は、フレーム・メモリー302への画像フレームの書き込み及び読み出しを制御する。   An image supplied from the image input unit 103 is stored in the frame memory 302. An image writing / reading control unit 301 controls writing and reading of an image frame to / from the frame memory 302.

画像補正部303は、補正量検出部105から受け取った射影変換パラメーターに基づいて、フレーム・メモリー302から読み出した画像に射影変換して、投影部101から被写体に投影した際に台形歪みが解消するよう、補正を行なう。   The image correction unit 303 performs projective conversion on the image read from the frame memory 302 based on the projection conversion parameter received from the correction amount detection unit 105, and the trapezoidal distortion is eliminated when the image is projected from the projection unit 101 onto the subject. Make corrections.

画質調整部304は、歪み補正を行なった後の投影画像が所望の表示状態となるよう、輝度、コントラスト、同期、トラッキング、色の濃さ、色合いなどの画質調整を行なう。   The image quality adjustment unit 304 performs image quality adjustment such as luminance, contrast, synchronization, tracking, color density, and hue so that the projected image after distortion correction is in a desired display state.

テスト・パターン発生部305は、補正量検出部105で射影変換パラメーターを計算する際に用いるテスト・パターンを発生する。テスト・パターンは、被投射体であるスクリーンの3次元情報を得易い幾何学形状を持つ。どのようなテスト・パターンを用いるかについては、後述に譲る。   The test pattern generation unit 305 generates a test pattern used when the correction amount detection unit 105 calculates projective transformation parameters. The test pattern has a geometric shape that makes it easy to obtain three-dimensional information of a screen that is a projection target. What test pattern is used will be described later.

出力画像切り替え部306は、投影部101に出力する画像の切り替えを行なう。例えば、パーソナル・コンピューターやTV受像機、メディア再生装置(いずれも図示しない)などの画像供給源からの入力画像を被投射体に投影してプレゼンテーションなどを行なうときには、出力画像切り替え部306は、画質補正部304からの出力画像を投影部101に出力する。また、投影画像の台形歪みや光学歪みを補正するための射影変換パラメーターを計算するときには、出力画像切り替え部306は、テスト・パターン発生部305で発生したテスト・パターンを投影部101に出力する。   The output image switching unit 306 switches the image output to the projection unit 101. For example, when a presentation is performed by projecting an input image from an image supply source such as a personal computer, a TV receiver, or a media playback device (all not shown) onto the projection object, the output image switching unit 306 has an image quality. An output image from the correction unit 304 is output to the projection unit 101. When calculating the projective transformation parameters for correcting the trapezoidal distortion and optical distortion of the projected image, the output image switching unit 306 outputs the test pattern generated by the test pattern generating unit 305 to the projecting unit 101.

図4には、補正量検出部105の内部構成例を示している。図示の補正量検出部105は、撮影画像書き込み読み出し制御部401と、撮影画像メモリー402と、特徴点計算部403と、射影変換パラメーター計算部404を備えている。   FIG. 4 shows an internal configuration example of the correction amount detection unit 105. The illustrated correction amount detection unit 105 includes a captured image writing / reading control unit 401, a captured image memory 402, a feature point calculation unit 403, and a projective transformation parameter calculation unit 404.

撮影画像メモリー402は、カメラ部104の撮影画像を記憶する。本実施形態では、撮影画像メモリー402は、カメラ部104の撮影画像を少なくとも2フレーム分を記憶するだけのサイズを有している。   The captured image memory 402 stores captured images of the camera unit 104. In the present embodiment, the captured image memory 402 has a size that can store at least two frames of captured images of the camera unit 104.

撮影画像書き込み読み出し制御部401は、撮影画像メモリー402への撮影画像の書き込み及び読み出しを制御する。   A captured image writing / reading control unit 401 controls writing and reading of a captured image to / from the captured image memory 402.

特徴点計算部403は、撮影画像メモリー402から読み出した撮影画像を使って、撮影画像に含まれるテスト・パターンの4隅などの特徴点の座標を求める。そして、射影変換パラメーター計算部404は、算出された特徴点の座標に基づいて、投影部101から被投射体までの距離と方向を求め、被投射体に投影される画像の台形歪みや光学歪みを補正するための射影変換パラメーターを計算する。   The feature point calculation unit 403 uses the captured image read from the captured image memory 402 to obtain the coordinates of feature points such as the four corners of the test pattern included in the captured image. Then, the projective transformation parameter calculation unit 404 obtains the distance and direction from the projection unit 101 to the projection object based on the calculated coordinates of the feature points, and trapezoidal distortion or optical distortion of the image projected on the projection object. Calculate the projective transformation parameters to correct

被投射体に投影したテスト・パターンを利用して台形歪みや光学歪みの補正量を計算するには、より鮮明なテスト・パターンの情報を抽出する必要がある。このため、暗い部屋や真っ白なスクリーン上でなければ、自然光などの外光に邪魔されて誤動作してしまうおそれがある。例えば投影型画像表示装置100がピコ・プロジェクターの場合、どこにでも持ち運んで使用できるというメリットを得るには、外光が射す、柄のあるスクリーン上でもテスト・パターンの情報を正確に抽出しなければならない。これに対し、本実施形態では、カメラ部104の撮影画像からテスト・パターンの情報を抽出するときには、背景の情報を除去するようになっており、これによって、外光に邪魔された環境下や、真っ白でない被投射体に投影した場合でも、台形歪みや光学歪みの自動補正を実現している。   In order to calculate the correction amount of the trapezoidal distortion and the optical distortion using the test pattern projected on the projection target, it is necessary to extract clearer information on the test pattern. For this reason, unless it is on a dark room or a pure white screen, it may be disturbed by outside light such as natural light and malfunction. For example, when the projection-type image display device 100 is a pico projector, in order to obtain the advantage that it can be carried anywhere and used, the test pattern information must be accurately extracted even on a patterned screen that is exposed to external light. Don't be. On the other hand, in the present embodiment, when extracting test pattern information from the captured image of the camera unit 104, background information is removed, and thus, under an environment obstructed by external light, Even when projected onto a non-white projection object, automatic correction of trapezoidal distortion and optical distortion is realized.

背景の情報を除去するために、本実施形態では、カメラ部104では2回の撮影を行なう。例えば背景を同じにしたままで、テスト・パターンを照射しないで撮影した第1のテスト画像と、テスト・パターンを照射して撮影した第2のテスト画像を撮影画像メモリー402に記憶する。あるいは、第1のテスト・パターンを照射したときに撮影した第1のテスト画像と、第1のテスト・パターンとは異なる第2のテスト・パターンを照射したときに撮影した第2のテスト画像を撮影画像メモリー402に記憶する。そして、特徴点計算部403は、撮影画像メモリー402から読み出した第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去し、第1のテスト・パターンと第2のテスト・パターンを合成したテスト・パターンの情報を鮮明にする。これによって、外光に邪魔された環境下や、真っ白でない(柄のある)被投射体にテスト・パターンを投影した場合であっても、テスト・パターンの4隅などの特徴点の座標を正確に計算して、誤動作なしに台形歪みや光学歪みを補正するための射影変換パラメーターを行なうことができるようになる。   In this embodiment, the camera unit 104 performs two shootings in order to remove background information. For example, the first test image shot without irradiating the test pattern with the same background and the second test image shot with the test pattern irradiated are stored in the captured image memory 402. Alternatively, a first test image photographed when the first test pattern is irradiated and a second test image photographed when the second test pattern different from the first test pattern is irradiated. Stored in the captured image memory 402. Then, the feature point calculation unit 403 creates a difference between the first test image and the second test image read from the captured image memory 402, removes the background information, and performs the first test pattern and the second test image. The test pattern information obtained by combining the test patterns is clarified. As a result, the coordinates of the feature points such as the four corners of the test pattern are accurate even in an environment obstructed by external light or when the test pattern is projected onto a non-white (patterned) projection object. Thus, it is possible to perform projective transformation parameters for correcting trapezoidal distortion and optical distortion without malfunction.

ここで、特徴点計算部403がテスト・パターンの4隅などの特徴点の座標を取り出すためには、テスト・パターン発生部305が発生するテスト・パターンは、2本の横線と2本の縦線を含んでいることが好ましい。   Here, in order for the feature point calculation unit 403 to extract the coordinates of feature points such as the four corners of the test pattern, the test pattern generated by the test pattern generation unit 305 includes two horizontal lines and two vertical lines. It preferably includes a line.

例えば、図5Aに示すように、投影部101の照射範囲のほぼ周縁に沿った矩形となるテスト・パターンを使用する場合、テスト・パターンを照射しないで第1のテスト画像を撮影するとともに、テスト・パターンを照射して第2のテスト画像を撮影し、第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去すれば、テスト・パターンの情報を鮮明にすることができる。   For example, as shown in FIG. 5A, when using a test pattern that is a rectangle substantially along the periphery of the irradiation range of the projection unit 101, the first test image is taken without irradiating the test pattern, and the test is performed.・ Take a second test image by irradiating the pattern, make a difference between the first test image and the second test image, and remove the background information to make the test pattern information clearer Can do.

また、図5B左に示すように、投影部101の照射範囲の上下の各端縁に沿った2本の横線を含む第1のテスト・パターンと、図5B右に示すように、投影部101の照射範囲の左右の各端縁に沿った2本の縦線を含む第2のテスト・パターンを使用してもよい。この場合、第1のテスト・パターンを照射して第1のテスト画像を撮影するとともに、第2のテスト・パターンを照射して第2のテスト画像を撮影し、第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去すれば、同様に、投影部101の照射範囲のほぼ周縁に沿った矩形となるテスト・パターンを鮮明にすることができる。背景除去後のテスト画像には、第1のテスト・パターンと第2のテスト・パターンを合成した(すなわち、図5Aに示したテスト・パターンと同様の)、矩形のテスト・パターンが含まれる。そして、射影変換パラメーター計算部404は、この矩形のテスト・パターンの4隅の特徴点の座標を求めると、この座標情報に基づいて、投影部101から被投射体までの距離と方向を求め、被投射体に投影される画像の台形歪みを補正するための射影変換パラメーターを計算することができる。   Further, as shown in the left of FIG. 5B, the first test pattern including two horizontal lines along the upper and lower edges of the irradiation range of the projection unit 101, and the projection unit 101 as shown in the right of FIG. 5B. A second test pattern including two vertical lines along the left and right edges of the illumination range may be used. In this case, the first test pattern is irradiated to shoot the first test image, and the second test pattern is irradiated to shoot the second test image, and the first test image and the second test image are shot. If the difference between the test images is made and the background information is removed, similarly, the test pattern that becomes a rectangle substantially along the periphery of the irradiation range of the projection unit 101 can be sharpened. The test image after background removal includes a rectangular test pattern obtained by synthesizing the first test pattern and the second test pattern (that is, similar to the test pattern shown in FIG. 5A). Then, the projection transformation parameter calculation unit 404 obtains the coordinates of the feature points at the four corners of the rectangular test pattern, and obtains the distance and direction from the projection unit 101 to the projection object based on the coordinate information, Projection transformation parameters for correcting trapezoidal distortion of an image projected on the projection target can be calculated.

テスト・パターンを含んだ液晶パネル201の表示映像は、例えば630×360画素で、周縁部に配設される横線並びに縦線の線幅は例えば6画素である。   The display image of the liquid crystal panel 201 including the test pattern is, for example, 630 × 360 pixels, and the widths of the horizontal lines and the vertical lines arranged in the peripheral portion are, for example, 6 pixels.

投影部101の照射範囲の4隅の点の座標だけを特徴点として抽出すれば、台形歪みを補正することができる。また、テスト・パターンから、投影部101の照射範囲の4隅の点の座標だけでなく、より多くの特徴点の座標を取り出すことができれば、投影画像全体の台形歪みだけでなく、局所的に発生する歪みなど、より詳細な歪み補正を行なうことができるようになる。したがって、テスト・パターン(若しくは第1のテスト・パターンと第2のテスト・パターンの組合せ)は、2本の横線と2本の縦線だけではなく、3本以上の横線と3本以上の縦線の組合せで構成してもよい。   If only the coordinates of the four corner points of the irradiation range of the projection unit 101 are extracted as feature points, the trapezoidal distortion can be corrected. If not only the coordinates of the four corner points of the irradiation range of the projection unit 101 but also the coordinates of more feature points can be extracted from the test pattern, not only the trapezoidal distortion of the entire projection image but also locally. More detailed distortion correction such as the generated distortion can be performed. Therefore, the test pattern (or the combination of the first test pattern and the second test pattern) is not only two horizontal lines and two vertical lines, but also three or more horizontal lines and three or more vertical lines. You may comprise by the combination of a line.

例えば、図5Cに示すように3本以上の横線と3本以上の縦線の組合せで構成されるテスト・パターンを使用する場合、テスト・パターンを照射しないで第1のテスト画像を撮影するとともに、テスト・パターンを照射して第2のテスト画像を撮影し、第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去すれば、3本以上の横線と3本以上の縦線とが交差する、メッシュ状のテスト・パターンの情報を鮮明にすることができる。   For example, as shown in FIG. 5C, when using a test pattern composed of a combination of three or more horizontal lines and three or more vertical lines, the first test image is taken without irradiating the test pattern. If you irradiate the test pattern and take the second test image, make a difference between the first test image and the second test image, and remove the background information, more than three horizontal lines and three The information on the mesh-like test pattern where the above vertical lines intersect can be clarified.

また、図5Eに示すように、3本以上の横線からなる第1のテスト・パターンと、図5Fに示すように、3本以上の縦線からなる第2のテスト・パターンを使用してもよい。この場合、第1のテスト・パターンを照射して第1のテスト画像を撮影するとともに、第2のテスト・パターンを照射して第2のテスト画像を撮影し、第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去すれば、同様にテスト・パターンの情報を鮮明にすることができる。背景除去後のテスト画像には、第1のテスト・パターンと第2のテスト・パターンを合成した(すなわち、図5Cに示したテスト・パターンと同様の)、メッシュ状のテスト・パターンが含まれる。   Further, a first test pattern composed of three or more horizontal lines as shown in FIG. 5E and a second test pattern composed of three or more vertical lines as shown in FIG. 5F may be used. Good. In this case, the first test pattern is irradiated to shoot the first test image, and the second test pattern is irradiated to shoot the second test image, and the first test image and the second test image are shot. If the difference between the test images is made and the background information is removed, the test pattern information can be similarly clarified. The test image after background removal includes a mesh-like test pattern obtained by synthesizing the first test pattern and the second test pattern (that is, similar to the test pattern shown in FIG. 5C). .

ここで、投影部101の照射範囲よりも被投射体の面積が小さい(又は、平らな部分の面積が狭い)などの事情により、投影部101から投影されるテスト・パターンの一部が欠けてしまう場合がある。図5Dには、図5Cに示したメッシュ状のテスト・パターン(若しくは、図5Eと図5Fに示したテスト・パターンの組み合わせ)のうち、欠けている領域を点線で示している。このようにメッシュ状のテスト・パターン全体を射影変換パラメーターの計算に使用できないときには、特徴点計算部403は、被投射体に正常に投影されたテスト・パターンから取り出すことができる最大の長方形の4隅の座標を計算し、射影変換パラメーター計算部404は、この最大の長方形の4隅の座標を用いて射影変換パラメーターを計算すればよい。   Here, due to circumstances such as the area of the projection target being smaller than the irradiation range of the projection unit 101 (or the area of the flat part is narrow), a part of the test pattern projected from the projection unit 101 is missing. May end up. In FIG. 5D, a missing region of the mesh-shaped test pattern shown in FIG. 5C (or a combination of the test patterns shown in FIGS. 5E and 5F) is indicated by a dotted line. Thus, when the entire mesh-like test pattern cannot be used for the calculation of the projective transformation parameter, the feature point calculation unit 403 has the largest rectangular 4 that can be extracted from the test pattern normally projected on the projection target. The coordinates of the corners are calculated, and the projection transformation parameter calculation unit 404 may calculate the projection transformation parameters using the coordinates of the four corners of the largest rectangle.

特徴点計算部403は、図5D中、正常に投影されたテスト・パターンから取り出される最大の長方形(図中、斜線で描いた領域)の4隅(図中、Xで示す4つの交点)を算出する。そして、射影変換パラメーター計算部404は、この4隅の点を用いて台形歪み補正用の射影変換パラメーターの計算に使用するようにすればよい。   The feature point calculation unit 403 obtains four corners (four intersections indicated by X in the drawing) of the largest rectangle (region drawn with diagonal lines in the drawing) extracted from the test pattern projected normally in FIG. 5D. calculate. Then, the projection transformation parameter calculation unit 404 may use the four corner points to calculate the projection transformation parameters for correcting the trapezoidal distortion.

図5Gには、図5Cに示したテスト・パターンの変形例を示している。テスト・パターンを照射しないで第1のテスト画像を撮影するとともに、テスト・パターンを照射して第2のテスト画像を撮影し、第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去すれば、細かいメッシュ状のテスト・パターンの情報を鮮明にすることができる。また、図5Hには図5Eに示した第1のテスト・パターンの変形例を示し、図5Iには図5Fに示した第2のテスト・パターンの変形例を示している。この場合、第1のテスト・パターンを照射して第1のテスト画像を撮影するとともに、第2のテスト・パターンを照射して第2のテスト画像を撮影し、第1のテスト画像と第2のテスト画像の差を作って、背景の情報を除去すれば、同様にテスト・パターンの情報を鮮明にすることができる。背景除去後のテスト画像には、第1のテスト・パターンと第2のテスト・パターンを合成した(すなわち、図5Gに示したテスト・パターンと同様の)、メッシュ状のテスト・パターンが含まれる。   FIG. 5G shows a modification of the test pattern shown in FIG. 5C. Taking the first test image without irradiating the test pattern, taking the second test image by irradiating the test pattern, creating a difference between the first test image and the second test image, If the background information is removed, the information on the fine mesh test pattern can be clarified. 5H shows a modification of the first test pattern shown in FIG. 5E, and FIG. 5I shows a modification of the second test pattern shown in FIG. 5F. In this case, the first test pattern is irradiated to shoot the first test image, and the second test pattern is irradiated to shoot the second test image, and the first test image and the second test image are shot. If the difference between the test images is made and the background information is removed, the test pattern information can be similarly clarified. The test image after background removal includes a mesh-like test pattern obtained by synthesizing the first test pattern and the second test pattern (that is, similar to the test pattern shown in FIG. 5G). .

図5G〜図5Iに示すように、テスト・パターンをより細かいメッシュ状にすると、投影部101の照射範囲よりも被投射体の面積が小さい(又は、平らな部分の面積が狭い)などの事情により、投影部101から投影されるテスト・パターンの一部が欠けてしまう場合には、テスト・パターンから取り出すことができる最大の長方形を高精度に推定することができる。特徴点計算部403は、推定された最大の長方形の4隅の特徴点を用いて、射影変換パラメーターを計算すればよい。また、背景除去後のテスト画像から特徴点を検出していくことで、テスト・パターンのどこまでがスクリーンに照射されているかも容易に検知することができるので、スクリーンに照射できる最大画像サイズも推定可能となる。画像補正部303は、射影変換パラメーターを用いて投影画像の歪み補正を行なうとともに、最大画像サイズに合わせて投影画像のサイズ調整を行なうようにすればよい。   As shown in FIGS. 5G to 5I, when the test pattern is made into a finer mesh, the area of the projection target is smaller than the irradiation range of the projection unit 101 (or the area of the flat part is narrow). Accordingly, when a part of the test pattern projected from the projection unit 101 is missing, the maximum rectangle that can be extracted from the test pattern can be estimated with high accuracy. The feature point calculation unit 403 may calculate projective transformation parameters using the estimated feature points at the four corners of the maximum rectangle. In addition, by detecting feature points from the test image after background removal, it is possible to easily detect how much of the test pattern has been irradiated on the screen, so the maximum image size that can be irradiated to the screen is also estimated. It becomes possible. The image correcting unit 303 may perform distortion correction of the projected image using the projective transformation parameter and adjust the size of the projected image according to the maximum image size.

また、図5G〜図5Iに示すテスト・パターンはそれぞれ、テスト・パターンの輪郭となる矩形の対角線に相当する、メッシュ、又は、横線と縦線のテスト・パターンを分断する2本のスリットを含んでいる。スリットの交点はテスト・パターンのほぼ中央に相当する。したがって、スリットの交点を基準にして、スクリーンに照射されているテスト・パターンの最大範囲の位置(上下及び左右に何番目の交点までを検出できたか)を容易に求めることができる。   Each of the test patterns shown in FIGS. 5G to 5I includes a mesh or two slits that divide the horizontal and vertical test patterns corresponding to a rectangular diagonal line that is the outline of the test pattern. It is out. The intersection of the slits corresponds to approximately the center of the test pattern. Therefore, it is possible to easily obtain the position of the maximum range of the test pattern irradiated on the screen (up to the upper and lower and left and right intersections can be detected) on the basis of the intersection of the slits.

これまで説明してきたように、本実施形態では、第1のテスト画像と第2のテスト画像の差分をとって背景を除去し、より鮮明なテスト・パターンを得るようにしている。ところが、外光の影響や撮影の露出をユーザーが決めることができないシステム(カメラ部104を制御することができない、又は、カメラ部104がユーザーに解放されていない場合)においては、第1のテスト画像と第2のテスト画像間で輝度が大きく異なる場合がある。撮影したテスト画像間に輝度差があると、差分をとっても背景のみを高精度に除去することができない。   As described so far, in the present embodiment, the difference between the first test image and the second test image is taken to remove the background to obtain a clearer test pattern. However, in a system in which the user cannot determine the influence of external light or the exposure of shooting (when the camera unit 104 cannot be controlled or the camera unit 104 is not released to the user), the first test The brightness may differ greatly between the image and the second test image. If there is a luminance difference between the captured test images, only the background cannot be removed with high accuracy even if the difference is taken.

そこで、特徴点計算部403は、第1のテスト画像と第2のテスト画像間で輝度を合わせる調整を行なってから、差分をとり背景除去を行なうようにしている。例えば、どちらか一方のテスト画像を基準として、平均輝度の比率を他方のテスト画像の画素値に掛ける処理を行なう。また、撮影画像全体にわたって均一に輝度差が生じるのではなく、局所的に輝度差が生じることも考慮して、局所的に輝度調整を行なうようにする。   Therefore, the feature point calculation unit 403 adjusts the luminance between the first test image and the second test image, and then performs background removal by taking the difference. For example, the process of multiplying the ratio of the average luminance by the pixel value of the other test image using either one of the test images as a reference. In addition, the luminance adjustment is performed locally in consideration of a local luminance difference, not a uniform luminance difference over the entire captured image.

具体的には、各テスト画像をそれぞれ水平及び垂直方向に複数に分割した領域毎に平均輝度を求める。そして、各テスト画像の対応する領域同士で、一方を基準にした平均輝度の比率を算出し、他方の画素値に掛ける。   Specifically, the average luminance is obtained for each region obtained by dividing each test image into a plurality of horizontal and vertical directions. Then, in the corresponding areas of each test image, the ratio of the average luminance based on one is calculated and multiplied by the other pixel value.

図5Jには、図5Hに示した第1のテスト・パターンを照射して撮影した第1のテスト画像Aを水平及び垂直方向に複数に分割し、0行1列目の領域Area(0,1)で平均輝度A_Area(0,1)を求める様子を示している。同様に、図5Kには、図5Iに示した第2のテスト・パターンを照射して撮影した第2のテスト画像Bの0行1列目の領域Area(0,1)で平均輝度B_Area(0,1)を求める様子を示している。   In FIG. 5J, the first test image A photographed by irradiating the first test pattern shown in FIG. 5H is divided into a plurality of parts in the horizontal and vertical directions, and the area Area (0, 0, 0th row, first column) is divided. 1) shows how the average luminance A_Area (0, 1) is obtained. Similarly, in FIG. 5K, the average luminance B_Area (0) in the area Area (0, 1) in the 0th row and the first column of the second test image B photographed by irradiating the second test pattern shown in FIG. 0, 1) is shown.

そして、第1のテスト画像Aを基準にした平均輝度の比率Scaleを下式(1)に従って算出すると、下式(2)に示すように、この平均比率Scaleを第2のテスト画像Bの同領域Area(0,1)内の各画素の画素値に掛けて、輝度調整後の第2のテスト画像B´を得る。   Then, when the average brightness ratio Scale based on the first test image A is calculated according to the following formula (1), the average ratio Scale is the same as that of the second test image B as shown in the following formula (2). A second test image B ′ after luminance adjustment is obtained by multiplying the pixel value of each pixel in the area Area (0, 1).

特徴点計算部403は、第1のテスト画像と第2のテスト画像の差分をとって背景を除去した後の画像に対して輝度の正規化を行なう。ところが、被投射体が明るい環境にある場合、カメラ部104で撮影できるテスト・パターンの輝度が低くなってしまう。これに合わせて背景除去画像の輝度を正規化すると、テスト・パターンに関係のない領域のノイズまで増幅してしまい、検出精度の劣化を招いてしまうという問題がある。そこで、背景除去画像を、テスト・パターンを含むテスト・パターン領域とそれ以外の領域を区別し、前者のテスト・パターンを含む領域のみ正規化を行なうようにして、ノイズの増幅を防ぐようにしている。   The feature point calculator 403 normalizes the luminance of the image after removing the background by taking the difference between the first test image and the second test image. However, when the projection object is in a bright environment, the brightness of the test pattern that can be photographed by the camera unit 104 is lowered. If the luminance of the background-removed image is normalized in accordance with this, there is a problem that noise in a region unrelated to the test pattern is amplified and detection accuracy is deteriorated. Therefore, in the background removal image, the test pattern area including the test pattern is distinguished from the other areas, and only the area including the former test pattern is normalized to prevent noise amplification. Yes.

各領域がテスト・パターン領域か否かを判別する方法は任意である。例えば、テスト・パターンのエッジ部分では画素値が急激に変化し、画素値の分散が高くなることに着目して、分散値に基づいてテスト・パターン領域かどうかを判別するようにしてもよい。すなわち、特徴点計算部403は、領域毎の分散値を取得し、分散値が閾値以上であれば輝度の正規化を行なうが、分散値が閾値よりも小さい領域は正規化を行なわないようにする。   A method for determining whether or not each region is a test pattern region is arbitrary. For example, attention may be paid to the fact that the pixel value changes abruptly at the edge portion of the test pattern and the variance of the pixel value becomes high, and it may be determined whether the test pattern region is based on the variance value. That is, the feature point calculation unit 403 acquires a variance value for each region, and normalizes the luminance if the variance value is equal to or greater than the threshold value, but does not normalize the region where the variance value is smaller than the threshold value. To do.

あるいは、テスト・パターンが照射された部分は高輝度であることに着目して、平均輝度に基づいてテスト・パターン領域かどうかを判別するようにしてもよい。すなわち、特徴点計算部403は、領域毎の平均輝度を取得し、平均輝度が閾値以上であれば輝度の正規化を行なうが、平均輝度が閾値よりも小さい領域は正規化を行なわないようにする。但し、平均輝度の閾値処理では、投影部101からのテスト・パターンの照射とカメラ部104のシャッターのタイミングが同期していないと、テスト・パターンの低輝度領域を誤判定する懸念があるという点に注意する必要がある。   Alternatively, focusing on the fact that the portion irradiated with the test pattern has high luminance, it may be determined whether or not it is a test pattern region based on the average luminance. That is, the feature point calculation unit 403 obtains the average luminance for each region, and normalizes the luminance if the average luminance is equal to or greater than the threshold, but does not normalize the region where the average luminance is less than the threshold. To do. However, in the average luminance threshold processing, if the test pattern irradiation from the projection unit 101 and the shutter timing of the camera unit 104 are not synchronized, there is a concern that the low luminance region of the test pattern may be erroneously determined. It is necessary to pay attention to.

また、特徴点計算部403では、背景除去後の画像から4隅の各点などの特徴点の座標を求めるために、交差する2本の線分を直線又は2次曲線として検出し(すなわち、線分の方程式を求め)、2本の線分の交点を計算して求める方法をとっている。   In addition, the feature point calculation unit 403 detects two intersecting line segments as straight lines or quadratic curves in order to obtain the coordinates of feature points such as the four corner points from the image after background removal (that is, The equation of the line segment is determined) and the method of calculating the intersection of the two line segments is used.

上述したようにテスト・パターン計算用の第1のテスト画像並びに第2のテスト画像から背景の情報を除去するようになっている。しかしながら、自然光などの外光の影響により、背景の状況を除去した後の画像も、依然としてテスト・パターンのコントラストが極めて低い画像であることが想定される。そこで、特徴点計算部403は、背景の情報を除去した画像に対して強力なノイズ・リダクション処理を行なうようにしている。例えば、背景の情報を除去した画像に対して、線分の自己相関による強力なノイズ・リダクション処理を行なう。すなわち、線分の方程式を求める際に、線分の傾斜角を検出し、その方向の複数の画素情報を平均化することによって、テスト・パターンを構成する線分とそれ以外のノイズ成分を分離することができる。   As described above, background information is removed from the first test image and the second test image for test pattern calculation. However, due to the influence of external light such as natural light, it is assumed that the image after removing the background situation is still an image with a very low contrast of the test pattern. Therefore, the feature point calculation unit 403 performs powerful noise reduction processing on the image from which the background information is removed. For example, a powerful noise reduction process by autocorrelation of line segments is performed on an image from which background information has been removed. In other words, when calculating the line segment equation, the line segment constituting the test pattern and other noise components are separated by detecting the tilt angle of the line segment and averaging the pixel information in that direction. can do.

図6には、投影型画像表示装置100において、被投射体への投影画像の歪みを補正するための処理手順をフローチャートの形式で示している。図示の処理手順は、以下の処理ステップからなる。   FIG. 6 shows, in the form of a flowchart, a processing procedure for correcting distortion of the projection image on the projection object in the projection type image display apparatus 100. The illustrated processing procedure includes the following processing steps.

S601:テスト画像の照射
S602:テスト画像の撮影及び保存
S603:テスト・パターン中の複数の特徴点の座標を算出
S604:テスト・パターン中の複数の特徴点の座標から、被投射体の位置と方向を算出
S605:被投射体の位置と方向を基に射影変換パラメーターを算出
S606:射影変換して被投射体上の投影画像の台形歪みを補正
S601: Test image irradiation S602: Test image capture and storage S603: Calculate the coordinates of a plurality of feature points in the test pattern S604: Calculate the position of the projection object from the coordinates of the plurality of feature points in the test pattern Calculate direction S605: Calculate projective transformation parameters based on the position and direction of the projection object S606: Correct the trapezoidal distortion of the projected image on the projection object by projective transformation

以下、各処理ステップについて詳解する。   Hereinafter, each processing step will be described in detail.

まず、テスト・パターン発生部305で発生したテスト・パターンを含むテスト画像を、投影部101から被投射体に照射する(ステップS601)。そして、カメラ部104は、被投射体に投影されたテスト画像を撮影して、撮影画像メモリー402に記憶する(ステップS602)。   First, a test image including a test pattern generated by the test pattern generation unit 305 is irradiated from the projection unit 101 to the projection target (step S601). Then, the camera unit 104 captures the test image projected on the projection target and stores it in the captured image memory 402 (step S602).

上述したように、本実施形態では、テスト画像から背景の情報を除去するために、ステップS601、S602では2回の撮影を行なう。以下の説明では、互いに異なる第1のテスト・パターンと第2のテスト・パターンをそれぞれ照射したときに撮影した第1のテスト画像と第2のテスト画像を撮影画像メモリー402に記憶するものとして説明する。   As described above, in this embodiment, in order to remove the background information from the test image, two shootings are performed in steps S601 and S602. In the following description, it is assumed that the first test image and the second test image captured when each of the first test pattern and the second test pattern different from each other are irradiated are stored in the captured image memory 402. To do.

図7Aには、照射範囲の左右の各端縁に沿った2本の横縦線からなる第1のテスト・パターンを投影部101から被投射体に照射したときにカメラ部104で撮影した第1のテスト画像Aを例示している。また、図7Bには、照射範囲の上下の各端縁に沿った2本の縦横線からなる第2のテスト・パターンを投影部101から被投射体に照射したときにカメラ部104で撮影した第2のテスト画像Bを例示している。   In FIG. 7A, the first test pattern consisting of two horizontal and vertical lines along the left and right edges of the irradiation range is photographed by the camera unit 104 when the projection unit 101 irradiates the projection target. One test image A is illustrated. In FIG. 7B, a second test pattern consisting of two vertical and horizontal lines along the upper and lower edges of the irradiation range is photographed by the camera unit 104 when the projection unit 101 irradiates the projection target. The second test image B is illustrated.

次いで、特徴点計算部403が、撮影画像メモリー402から読み出した第1のテスト画像A及び第2のテスト画像Bを使って、これらの撮影画像に含まれるテスト・パターンの特徴点として、投影された第1のテスト・パターンと第2のテスト・パターンを合成した矩形の4隅の座標を求める(ステップS603)。   Next, the feature point calculation unit 403 uses the first test image A and the second test image B read from the photographed image memory 402 and projects them as feature points of the test pattern included in these photographed images. The coordinates of the four corners of the rectangle obtained by combining the first test pattern and the second test pattern are obtained (step S603).

ここで、特徴点計算部403は、第1のテスト画像Aと第2のテスト画像Bの差を作って、背景の情報を除去し、テスト・パターンの情報を鮮明にする。また、第1のテスト画像Aと第2のテスト画像B間で輝度を合わせる調整を行なってから(前述)、背景の情報の除去を行なうものとする。   Here, the feature point calculation unit 403 creates a difference between the first test image A and the second test image B, removes the background information, and sharpens the test pattern information. Further, it is assumed that the background information is removed after adjusting the luminance between the first test image A and the second test image B (described above).

図8Aには、第1のテスト画像Aから第2のテスト画像Bを引き算して得た背景除去画像Cを示している。この引き算処理では、画素単位で第1のテスト画像Aから第2のテスト画像Bを引き算し、差が負になった画素では画素値を0にする。この結果、図8Aに示すように、背景除去画像Cには、第1のテスト画像Aから背景が消え去り、照射範囲の左右の各端縁に沿った2本の縦線からなる第1のテスト・パターンが残されている。   FIG. 8A shows a background removed image C obtained by subtracting the second test image B from the first test image A. In this subtraction process, the second test image B is subtracted from the first test image A in units of pixels, and the pixel value is set to 0 for pixels in which the difference is negative. As a result, as shown in FIG. 8A, in the background removal image C, the background disappears from the first test image A, and the first test consisting of two vertical lines along the left and right edges of the irradiation range.・ Pattern remains.

また、図8Bには、第2のテスト画像Bから第1のテスト画像Aを引き算して得た背景除去画像Dを示している。この引き算処理では、画素単位で第2のテスト画像Bから第1のテスト画像Aを引き算し、差が負になった画素では画素値を0にする。この結果、図8Bに示すように、背景除去画像Dには、第2のテスト画像Bから背景が消え去り、照射範囲の上下の各端縁に沿った2本の横線からなる第2のテスト・パターンが残されている。   FIG. 8B shows a background removal image D obtained by subtracting the first test image A from the second test image B. In this subtraction process, the first test image A is subtracted from the second test image B in units of pixels, and the pixel value is set to 0 for pixels in which the difference is negative. As a result, as shown in FIG. 8B, in the background removal image D, the background disappears from the second test image B, and the second test image composed of two horizontal lines along the upper and lower edges of the irradiation range. The pattern is left behind.

但し、図8A並びに図8Bは、特徴点計算部403が、背景除去画像C及びDに含まれる4本の線分の領域毎に輝度の最大値を求め、輝度の正規化処理(前述)を行なった結果とする。   However, in FIG. 8A and FIG. 8B, the feature point calculation unit 403 obtains the maximum luminance value for each of the four line segments included in the background-removed images C and D, and performs the luminance normalization process (described above). This is the result.

暗い雰囲気で照射されたテスト画像A、Bを撮影した場合、鮮明な背景除去画像C、Dを得ることができる。しかしながら、自然光などの外光が少々でも照射された雰囲気でテスト画像A、Bを撮影した場合、コントラストが低い背景除去画像C、Dしか得られない。   When test images A and B irradiated in a dark atmosphere are photographed, clear background-removed images C and D can be obtained. However, when the test images A and B are photographed in an atmosphere irradiated with a little external light such as natural light, only the background-removed images C and D with low contrast can be obtained.

そこで特徴点計算部403は、背景の情報を除去した画像に対して、線分の自己相関による強力なノイズ・リダクション処理を行なう。   Therefore, the feature point calculation unit 403 performs powerful noise reduction processing based on the autocorrelation of the line segment on the image from which the background information is removed.

幅のある縦線は、少々傾いていても上下方向の相関が強い(同様に、幅のある横線は左右方向の相関が強い)。したがって、ある画素ラインについて、上下に±5ラインほどの画素ラインの範囲で、同じ水平画素位置の画素値の合計を算出することによって自己相関をとると、縦線が通過する付近の画素位置では、画素値が10倍くらいに増幅する。これに対し、縦線が通過しない画素位置では、ランダム・ノイズしかないので、±5ライン分の画素値の合計をとっても、3倍くらいにしか増幅されない。このような自己相関を利用したノイズ・リダクションの効果は3倍程度である。   A wide vertical line has a strong vertical correlation even if it is slightly inclined (similarly, a wide horizontal line has a strong horizontal correlation). Therefore, for a certain pixel line, if the autocorrelation is calculated by calculating the sum of the pixel values of the same horizontal pixel position in the range of about ± 5 lines above and below, at the pixel position in the vicinity where the vertical line passes The pixel value is amplified about 10 times. On the other hand, since there is only random noise at the pixel position where the vertical line does not pass, even if the sum of the pixel values for ± 5 lines is taken, it is amplified only about 3 times. The effect of noise reduction using such autocorrelation is about three times.

自己相関をとる画素ライン数を増やせば、ノイズ・リダクションの効果はさらに向上する。例えば100画素ラインにわたって同じ水平画素位置の画素値の合計を算出すると、縦線が通過する付近の画素位置では画素値が100倍くらいに増幅する。しかしながら、100画素ライン分の自己相関をとるには、線分の角度の誤差を0.5度以内にしなければならない。   If the number of pixel lines for autocorrelation is increased, the effect of noise reduction is further improved. For example, when the sum of the pixel values at the same horizontal pixel position is calculated over 100 pixel lines, the pixel value is amplified about 100 times at the pixel position near the vertical line. However, in order to obtain autocorrelation for 100 pixel lines, the angle error of the line segments must be within 0.5 degrees.

そこで、角度サーチという技術を組み合わせることによって、ノイズ・リダクションの効果をさらに積極的に得るようにする。   Therefore, the effect of noise reduction is obtained more positively by combining a technique called angle search.

例えば図5B右に示したテスト・パターンである左右の各端縁の縦線は、最大で13度まで傾斜する可能性がある。そこで、まず±13度の範囲で、1度間隔で最も自己相関の高くなる角度を粗くサーチする。次に、粗い角度サーチで自己相関が最大となった角度付近の2度の範囲で、自己相関による詳細な角度サーチを行なう。このようにして、角度サーチする範囲とサーチする間隔を小さくしていきながら、3回角度サーチを繰り返すと、誤差は0.07度以内になる。   For example, the vertical lines on the left and right edges, which are the test pattern shown on the right in FIG. 5B, may be inclined up to 13 degrees. Therefore, first, an angle having the highest autocorrelation at 1 degree intervals is roughly searched within a range of ± 13 degrees. Next, a detailed angle search by autocorrelation is performed within a range of 2 degrees near the angle at which the autocorrelation is maximized by the rough angle search. If the angle search is repeated three times while reducing the angle search range and the search interval in this way, the error is within 0.07 degrees.

このようにしてノイズ・リダクション処理を経てテスト・パターンとなる縦線の角度を正確に検出することができたら、実際のその角度の方向に100画素ライン分の画素値の合計を求めて自己相関をとる。また、合計の最大値が255になるように割り算して正規化する。実際には191画素ラインで画素値の合計をとっているので、ノイズ・リダクションの効果は14倍ほどになる。   If the angle of the vertical line that becomes the test pattern can be accurately detected through the noise reduction process in this way, the sum of the pixel values for 100 pixel lines in the actual direction of the angle is obtained and the autocorrelation is obtained. Take. Also, normalization is performed by dividing the sum so that the maximum value becomes 255. Actually, since the pixel values are summed in the 191 pixel line, the effect of noise reduction is about 14 times.

図9A〜図9Dには、図8Aに示した背景除去画像Cに対して角度サーチとノイズ・リダクション処理を行なう様子を図解している。   9A to 9D illustrate how the angle search and noise reduction processing are performed on the background-removed image C shown in FIG. 8A.

背景除去画像Cは、2本の縦線がそれぞれ画面半分の左右にある。そこで、以下では、図9Aに示すように画面を左右に2分割し、画面左半分に対する処理について説明する。画面右半分に対する処理も同様となることを理解されたい。   In the background-removed image C, two vertical lines are on the left and right of the screen half. Therefore, in the following, a process for the left half of the screen will be described by dividing the screen into left and right as shown in FIG. 9A. It should be understood that the processing for the right half of the screen is the same.

(1)まず、縦サイズvの中央のラインv/2上で、1画素ずつ水平方向に移動しながら、角度をサーチしていく。図9Bに示すように、まず、±13度の角度の範囲(図中、点線で挟まれる範囲)について、1度間隔でサーチし、上下n画素分の画素値を加算する。 (1) First, the angle is searched while moving in the horizontal direction pixel by pixel on the center line v / 2 of the vertical size v. As shown in FIG. 9B, first, an angle range of ± 13 degrees (a range between the dotted lines in the figure) is searched at intervals of 1 degree, and pixel values for upper and lower n pixels are added.

(2)そして、±13度の角度の区間について角度サーチした結果、縦サイズvの中央のライン2/v上で、自己相関が最大となる角度(anmax01)と、画素位置(imax,v/2)を決定する。 (2) Then, as a result of the angle search for the interval of ± 13 degrees, on the center line 2 / v of the vertical size v, the angle (anmax01) and the pixel position (imax, v / 2) is determined.

(3)続いて、図9Cに示すように、決定した角度(anmax01)に対して、(anmax01−1),(anmax01+1)の角度の範囲(図中、点線で挟まれる範囲)について、1/4度の間隔で2回目の角度サーチを行なう。 (3) Subsequently, as shown in FIG. 9C, with respect to the determined angle (anmax01), the angle range of (anmax01-1), (anmax01 + 1) (the range between the dotted lines in the figure) is 1 / A second angle search is performed at intervals of 4 degrees.

(4)そして、2回目の角度サーチで自己相関が最大となる角度(anmax02)で、さらに(anmax02)に対して、(anmax02−1/4),(anmax02+1/4)の角度の範囲について、1/16度の間隔で3回目の角度サーチを行なう。このように角度サーチを3回繰り返すことによって、誤差は0.07度以内となる。上記の処理により、画面左半分の縦線について、角度(anmax)が決定する。 (4) Then, at the angle (anmax02) at which the autocorrelation is maximized in the second angle search, and (anmax02-1 / 4) and (anmax02 + 1/4) with respect to (anmax02), A third angle search is performed at 1/16 degree intervals. Thus, by repeating the angle search three times, the error is within 0.07 degrees. With the above processing, the angle (anmax) is determined for the vertical line in the left half of the screen.

(5)続いて、図9Dに示すように、垂直方向(y方向)にy=(m/2)〜v−(m/2)の範囲に対して、水平方向(x方向)の位置x=(y−v/2)×tan(anmax)+imaxを中心として、水平方向の±15画素の範囲(図中、点線で挟まれた範囲)を、垂直方向にm画素分の画素を平均化し、それを位置(x,y)の画素値とする。これで、図9D中、点線で囲まれた範囲で、ノイズ・リダクション処理が行なわれた画像が完成する。 (5) Subsequently, as shown in FIG. 9D, the position x in the horizontal direction (x direction) with respect to the range of y = (m / 2) to v− (m / 2) in the vertical direction (y direction). = (Y−v / 2) × tan (anmax) + imax centered within a range of ± 15 pixels in the horizontal direction (range between the dotted lines in the figure), and pixels for m pixels are averaged in the vertical direction , Which is the pixel value at position (x, y). As a result, an image subjected to the noise reduction process is completed within a range surrounded by a dotted line in FIG. 9D.

上記の(1)〜(5)の処理を画面右半分についても適用することで、背景除去画像Cについて、自己相関による強力なノイズ・リダクション処理が実現する。図8Bに示した、2本の横線を含む背景除去画像Dについても、同様に上記の自己相関による強力なノイズ・リダクション処理を適用することができる。   By applying the above processes (1) to (5) also to the right half of the screen, a powerful noise reduction process based on autocorrelation is realized for the background-removed image C. The powerful noise reduction process based on the autocorrelation can be similarly applied to the background-removed image D including two horizontal lines shown in FIG. 8B.

図10Aには、図8Aに示した背景除去画像Cに対して自己相関による強力なノイズ・リダクション処理を行なって得られた背景除去画像C2を示している。また、図10Bには、図8Bに示した背景除去画像Dに対して自己相関による強力なノイズ・リダクション処理を行なって得られた背景除去画像D2を示している。   FIG. 10A shows a background removed image C2 obtained by performing a powerful noise reduction process by autocorrelation on the background removed image C shown in FIG. 8A. FIG. 10B shows a background removed image D2 obtained by performing a powerful noise reduction process by autocorrelation on the background removed image D shown in FIG. 8B.

特徴点計算部403は、背景除去画像C2、D2に含まれる2本の横線と2本の縦線の交点を計算して、投影部101の照射範囲の4隅の4隅の各点の座標を求める。   The feature point calculation unit 403 calculates the intersection of two horizontal lines and two vertical lines included in the background removal images C2 and D2, and coordinates of the four corners of the four corners of the irradiation range of the projection unit 101 Ask for.

ここで、投影画像に生じる歪みが台形歪みであれば、縦線と横線の組み合わせからなるテスト・パターンの投影像は線形的となるはずである。しかしながら、投影光学部203やカメラ部104にレンズ歪みがあるため、被投射体に投影されたこれら4本の線分(言い換えれば、背景除去画像C2、D2で観察される線分)は、わずかであるが曲線になっている。   Here, if the distortion generated in the projected image is a trapezoidal distortion, the projected image of the test pattern composed of a combination of vertical lines and horizontal lines should be linear. However, since the projection optical unit 203 and the camera unit 104 have lens distortion, these four line segments projected on the projection target (in other words, the line segments observed in the background-removed images C2 and D2) are slight. It is a curve.

そこで、特徴点計算部403は、背景除去画像C2、D2に含まれるこれら4本の線分を2次曲線として検出して、交点を求めるようにする。   Therefore, the feature point calculation unit 403 detects these four line segments included in the background-removed images C2 and D2 as quadratic curves so as to obtain intersection points.

具体的には、特徴点計算部403は、背景除去画像C2、D2の線を画面の外側から中心に向かってほぼ垂直な方向に輝度値を調べ、この中で最も輝度値の高い領域の中心を以って、線分の位置データとする。図11Aには、背景除去画像から線分の位置データを抽出した様子を示している。同図中では、線分の位置データを実線で描いている。   Specifically, the feature point calculation unit 403 examines the luminance values of the background-removed images C2 and D2 in a direction substantially perpendicular from the outside of the screen toward the center, and among these, the center of the region with the highest luminance value Thus, the position data of the line segment is obtained. FIG. 11A shows a state in which line segment position data is extracted from the background-removed image. In the figure, the position data of the line segment is drawn with a solid line.

続いて、特徴点計算部403は、この複数の位置データから、4本の各線分を近似する2次曲線y=ax2+bx+cの係数a、b、cを、例えば最小自乗法を用いて算出する。2次曲線の検出に最小自乗法を用い、且つ、線分の多くの点を総合的に扱うことで、1画素の数分の1の精度を得ることができる。図11Bには、背景除去画像C2、D2中の2本の横線並びに縦線から2次曲線を検出した様子を示している。同図中で、2本の横線並びに縦線から検出した2次曲線を点線で描いている。 Subsequently, the feature point calculation unit 403 calculates coefficients a, b, and c of a quadratic curve y = ax 2 + bx + c that approximates each of the four line segments from the plurality of position data using, for example, the least square method. To do. By using the method of least squares for detecting a quadratic curve and comprehensively handling many points of the line segment, it is possible to obtain accuracy of a fraction of one pixel. FIG. 11B shows a state in which a quadratic curve is detected from two horizontal lines and vertical lines in the background-removed images C2 and D2. In the figure, a quadratic curve detected from two horizontal lines and a vertical line is drawn with dotted lines.

そして、特徴点計算部403は、4本の2次曲線の交点を求め、これを4隅の座標とする。図11Cには、4本の2次曲線の交点を求める様子を示している。同図中で、求められた4隅の位置をXで示している。   And the feature point calculation part 403 calculates | requires the intersection of four quadratic curves, and makes this a coordinate of four corners. FIG. 11C shows how to obtain the intersection of four quadratic curves. In the figure, the obtained positions of the four corners are indicated by X.

投影画像に生じる歪みが台形歪みであれば、縦線と横線の組み合わせからなるテスト・パターンの投影像は線形的となるはずであり(前述)、垂直方向並びに水平方向に0度の向きで角度サーチすれば、テスト・パターンの線分を検出できることになる。ところが、実際には投影光学部203やカメラ部104にレンズ歪みがあるため、被投射体に投影されたこれらテスト・パターンは非線形な歪みを持つため、垂直方向並びに水平方向を中心とした探索範囲内に最適解が存在しない場合がある。一般には、レンズ歪みにより、投影画像が視野中央では縮小し、端へ行くほど拡大する糸巻き型歪み(図12を参照のこと)や、視野中央では拡大し、端へ行くほど縮小する樽型歪み(図13を参照のこと)が発生することが知られている。糸巻き型及び樽型いずれの歪みも、左右並びに上下で対称的な歪み量となる。   If the distortion that occurs in the projected image is trapezoidal, the projected image of the test pattern consisting of a combination of vertical and horizontal lines should be linear (as described above), with an angle of 0 degrees in the vertical and horizontal directions. By searching, the line segment of the test pattern can be detected. However, since there is actually lens distortion in the projection optical unit 203 and the camera unit 104, these test patterns projected on the projection target have nonlinear distortion, so that the search range is centered on the vertical and horizontal directions. In some cases, there is no optimal solution. In general, a pincushion distortion (see FIG. 12) in which the projected image is reduced at the center of the field of view and enlarged as it goes to the end due to lens distortion, or barrel distortion that is enlarged at the center of the field of view and shrinks toward the end (See FIG. 13) is known to occur. Both the pincushion type and barrel type distortions have symmetrical distortion amounts on the left and right and top and bottom.

探索範囲を拡大して角度サーチすれば、最適解を見つけ出すことができるが、計算量が増大する。とりわけ、図5Gに示したような細かいメッシュ状のテスト・パターンを使用する場合には、計算量が著しく増大する。また、図5Gに示したように、隣接する線分間の間隔が小さいテスト・パターンを使用する場合には、探索範囲を拡大して角度サーチすると、隣の線分を誤検出するおそれがある。   If an angle search is performed by expanding the search range, an optimal solution can be found, but the calculation amount increases. In particular, when a fine mesh-like test pattern as shown in FIG. 5G is used, the amount of calculation is significantly increased. Further, as shown in FIG. 5G, when using a test pattern having a small interval between adjacent line segments, if an angle search is performed with the search range expanded, the adjacent line segments may be erroneously detected.

そこで、探索範囲を拡大するのではなく、探索範囲の中心を適応的に変化させて角度サーチを行なうようにすればよい。具体的には、直前に角度サーチを行なった隣の線分の結果を中心として、角度サーチを行なう。何故ならば、レンズ歪みの変化は緩やかであり、隣接する線分間では角度の変化はごくわずかであると推測されるからである。   Therefore, instead of expanding the search range, an angle search may be performed by adaptively changing the center of the search range. Specifically, the angle search is performed around the result of the adjacent line segment that has been subjected to the angle search immediately before. This is because the change in lens distortion is gradual, and the change in angle is estimated to be negligible between adjacent line segments.

再び図6を参照して、投影画像の歪み補正処理について説明する。次いで、射影変換パラメーター計算部404は、上述のようにして算出された4隅の座標に基づいて、被投射体までの距離と方向を求め、被投射体に投影される画像の台形歪みを補正するための射影変換パラメーターを計算して、画像補正部に出力する(ステップS604)。   With reference to FIG. 6 again, the distortion correction processing of the projected image will be described. Next, the projective transformation parameter calculation unit 404 obtains the distance and direction to the projection object based on the coordinates of the four corners calculated as described above, and corrects the trapezoidal distortion of the image projected on the projection object. Projective transformation parameters for calculation are calculated and output to the image correction unit (step S604).

その後、画像補正部303は、補正量検出部105から受け取った射影変換パラメーターに基づいて、フレーム・メモリー302から読み出した画像に射影変換して、投影部101から被写体に投影した際に台形歪みが解消するよう、補正を行なう(ステップS605)。   After that, the image correcting unit 303 performs projective conversion on the image read from the frame memory 302 based on the projective transformation parameter received from the correction amount detecting unit 105, and trapezoidal distortion occurs when the image is projected from the projection unit 101 onto the subject. Corrections are made so as to eliminate them (step S605).

このように、本実施形態に係る投影型画像表示装置100によれば、投影部101の照射位置と異なる位置に配設されたカメラ部104で撮影したテスト・パターンの投影画像に基づいて補正量を自動で検出して、投影部101から照射する画像が正しい長方形で被投射体に投影されるように補正することができる。   As described above, according to the projection type image display apparatus 100 according to the present embodiment, the correction amount is based on the projection image of the test pattern photographed by the camera unit 104 arranged at a position different from the irradiation position of the projection unit 101. Can be automatically detected and corrected so that the image irradiated from the projection unit 101 is projected onto the projection object in a correct rectangle.

また、本実施形態に係る投影型画像表示装置100によれば、カメラ部104で撮影したテスト・パターンの投影画像に対して自己相関による強力なノイズ・リダクション処理を行なうので、自然光などの外光による背景の影響を除去して、正確な4隅の座標を求めることができる。したがって、投影型画像表示装置100を暗い部屋だけでなく明るい部屋でも使用することができ、また、真っ白なスクリーンだけでなくも様なある壁上に投影しても、投影部101から照射する画像が正しい長方形で被投射体に投影されるように補正することができる。   Further, according to the projection-type image display apparatus 100 according to the present embodiment, powerful noise reduction processing by autocorrelation is performed on the projection image of the test pattern photographed by the camera unit 104, so that external light such as natural light is emitted. By removing the influence of the background caused by, accurate four corner coordinates can be obtained. Therefore, the projection type image display apparatus 100 can be used not only in a dark room but also in a bright room, and even when projected on a certain wall as well as a pure white screen, an image irradiated from the projection unit 101 Can be corrected so as to be projected onto the projection object in a correct rectangle.

なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)画像を被投射体に投影する投影部と、
前記投影部の照射位置と異なる位置に設置され、前記被投射体に投影された画像を撮影するカメラ部と、
前記投影部から前記被投射体にテスト・パターンを投影したときに前記カメラ部で撮影したテスト画像から背景を除去して、背景除去後の前記テスト画像中の前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算する補正量検出部と、
前記補正パラメーターに基づいて前記投影部から投影する画像を補正する画像補正部と、
を具備する投影型画像表示装置。
(2)前記補正量検出部は、背景除去後の前記テスト画像から前記テスト・パターンの複数の特徴点の座標を算出し、前記被写体の投影画像に含まれる歪みを補正するための射影変換パラメーターを前記複数の特徴点の座標から算出し、
前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換する、
上記(1)に記載の投影型画像表示装置。
(3)前記カメラ部は、前記投影部からテスト・パターンを照射しないときに第1のテスト画像を撮影するとともに、前記投影部からテスト・パターンを照射しているときに第2のテスト画像を撮影し、
前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像の差を作って、前記第2のテスト画像から背景の情報を除去して、前記テスト・パターンを含んだ背景除去後の前記テスト画像を得る、
上記(1)に記載の投影型画像表示装置。
(4)前記カメラ部は、前記投影部から第1のテスト・パターンを照射しているときに第1のテスト画像を撮影するとともに、前記投影部から第2のテスト・パターンを照射しているときに第2のテスト画像を撮影し、
前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像の差を作って、前記第1のテスト画像及び前記第2のテスト画像から背景の情報を除去して、前記第1のテスト・パターンと前記第2のテスト・パターンを合成したテスト・パターンを含んだ背景除去後の前記テスト画像を得る、
上記(1)に記載の投影型画像表示装置。
(5)前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像間で輝度調整を行なった後に、背景の情報の除去処理を行なう、
上記(3)又は(4)のいずれかに記載の投影型画像表示装置。
(6)前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像のうち一方を基準とした平均輝度の比率を他方の画像の画素値に掛けて、前記輝度調整処理を行なう、
上記(5)に記載の投影型画像表示装置。
(7)前記補正量検出部は、前記第1のテスト画像及び前記第2のテスト画像をそれぞれ水平及び垂直方向に分割した領域毎に前記輝度調整処理を行なう、
上記(6)に記載の投影型画像表示装置。
(8)前記補正量検出部は、背景除去後の前記テスト画像のうちテスト・パターンを含む領域について輝度を正規化する、
上記(1)に記載の投影型画像表示装置。
(9)前記補正量検出部は、前記テスト画像のうち画素値の分散値が所定の閾値以上となる領域のみ輝度を正規化する、
上記(8)に記載の投影型画像表示装置。
(10)複数本の縦線と複数本の横線を含むメッシュ状のテスト・パターンを使用し、
前記補正量検出部は、背景除去後の前記テスト画像に含まれる縦線と横線のテスト・パターンの各交点からる複数の特徴点の座標に基づいて、歪みを補正するための射影変換パラメーターを計算し、
前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換する、
上記(5)に記載の投影型画像表示装置。
(11)前記テスト・パターンは、前記テスト・パターンの輪郭となる矩形の対角線に相当する2本のスリットをさらに含む、
上記(10)に記載の投影型画像表示装置。
(12)前記補正量検出部は、背景除去後の前記テスト画像から検出できた特徴点の座標に基づいて、前記投影部から前記被投射体に投影できる最大画像サイズを推定する、
上記(10)に記載の投影型画像表示装置。
(13)複数本の縦線を含む第1のテスト・パターンと複数本の横線を含む第2のテスト・パターンを使用し、
前記補正量検出部は、背景除去後の前記テスト画像に含まれる縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標に基づいて、歪みを補正するための射影変換パラメーターを計算し、
前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換する、
上記(4)に記載の投影型画像表示装置。
(14)前記第1のテスト・パターン及び前記第2のテスト・パターンは、前記テスト・パターンの輪郭となる矩形の対角線に相当する2本のスリットをそれぞれ含む、
上記(13)に記載の投影型画像表示装置。
(15)前記補正量検出部は、背景除去後の前記テスト画像から検出できた特徴点の座標に基づいて、前記投影部から前記被投射体に投影できる最大画像サイズを推定する、
上記(13)に記載の投影型画像表示装置。
(16)前記補正量検出部は、背景の情報を除去した後のテスト画像に対してさらに自己相関によるノイズ・リダクション処理を行なってから、前記テスト画像中の前記テスト・パターンに関する各特徴点の座標の情報を検出して、前記各特徴点の座標の情報に基づいて補正パラメーターを計算する、
上記(1)に記載の投影型画像表示装置。
(17)前記補正量検出部は、複数本の縦線又は複数本の横線のテスト・パターンを含む前記テスト画像を縦方向又は横方向に角度サーチしてノイズ・リダクション処理を行なってから、縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標を算出し、前記各交点の座標の情報に基づいて歪みを補正するための射影変換パラメーターを計算する、
上記(16)に記載の投影型画像表示装置。
(18)前記補正量検出部は、前記テスト画像に含まれる縦線又は横線の各テスト・パターンを2次曲線として検出する、
上記(17)に記載の投影型画像表示装置。
(19)前記補正量検出部は、直前に角度サーチを行なった隣の線分の結果を中心にして角度サーチする、
上記(17)に記載の投影型画像表示装置。
(20)被投射体にテスト・パターンを投射するステップと、
被投射体に投影されたテスト・パターンを撮影してテスト画像を取得するステップと、
前記テスト画像から背景を除去するステップと、
背景を除去した後のテスト画像に含まれる前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算するステップと、
前記補正パラメーターに基づいて投影画像を補正するステップと、
を有する画像投影方法。
(21)被投射体にテスト・パターンを投射する手順と、
被投射体に投影されたテスト・パターンを撮影してテスト画像を取得する手順と、
前記テスト画像から背景を除去する手順と、
背景を除去した後のテスト画像に含まれる前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算する手順と、
前記補正パラメーターに基づいて投影画像を補正する手順と、
をコンピューターに実行させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
Note that the technology disclosed in the present specification can also be configured as follows.
(1) a projection unit that projects an image onto a projection object;
A camera unit that is installed at a position different from the irradiation position of the projection unit and shoots an image projected on the projection object;
When a test pattern is projected from the projection unit onto the projection target, a background is removed from a test image photographed by the camera unit, and coordinate information relating to the test pattern in the test image after background removal is obtained. A correction amount detection unit that detects and calculates a correction parameter for correcting an image projected from the projection unit based on the coordinate information;
An image correction unit for correcting an image projected from the projection unit based on the correction parameter;
A projection-type image display device comprising:
(2) The correction amount detection unit calculates the coordinates of a plurality of feature points of the test pattern from the test image after background removal, and a projective transformation parameter for correcting distortion included in the projected image of the subject. Is calculated from the coordinates of the plurality of feature points,
The image correction unit performs projective transformation on the image projected from the projection unit using the projective transformation parameter.
The projection-type image display device according to (1) above.
(3) The camera unit captures a first test image when a test pattern is not emitted from the projection unit, and displays a second test image when the test pattern is emitted from the projection unit. Shoot,
The correction amount detection unit creates a difference between the first test image and the second test image, removes background information from the second test image, and removes a background including the test pattern. To obtain the test image later,
The projection-type image display device according to (1) above.
(4) The camera unit captures a first test image while irradiating the first test pattern from the projection unit, and irradiates the second test pattern from the projection unit. Sometimes taking a second test image,
The correction amount detection unit creates a difference between the first test image and the second test image, removes background information from the first test image and the second test image, and Obtaining the test image after background removal including a test pattern obtained by synthesizing one test pattern and the second test pattern;
The projection-type image display device according to (1) above.
(5) The correction amount detection unit performs a background information removal process after performing luminance adjustment between the first test image and the second test image.
The projection image display device according to any one of (3) and (4).
(6) The correction amount detection unit performs the luminance adjustment process by multiplying a pixel value of the other image by an average luminance ratio based on one of the first test image and the second test image. Do,
The projection-type image display device according to (5) above.
(7) The correction amount detection unit performs the luminance adjustment processing for each region obtained by dividing the first test image and the second test image in the horizontal and vertical directions, respectively.
The projection type image display device according to (6) above.
(8) The correction amount detection unit normalizes the luminance for a region including a test pattern in the test image after background removal.
The projection-type image display device according to (1) above.
(9) The correction amount detection unit normalizes the luminance only in an area where a variance value of pixel values is equal to or greater than a predetermined threshold in the test image.
The projection-type image display device according to (8) above.
(10) Using a mesh-like test pattern including a plurality of vertical lines and a plurality of horizontal lines,
The correction amount detection unit is configured to calculate a projective transformation parameter for correcting distortion based on the coordinates of a plurality of feature points formed by intersecting points of vertical and horizontal test patterns included in the test image after background removal. Calculate
The image correction unit performs projective transformation on the image projected from the projection unit using the projective transformation parameter.
The projection-type image display device according to (5) above.
(11) The test pattern further includes two slits corresponding to a rectangular diagonal line that is an outline of the test pattern.
The projection-type image display device according to (10) above.
(12) The correction amount detection unit estimates a maximum image size that can be projected from the projection unit to the projection object based on the coordinates of the feature points that can be detected from the test image after background removal.
The projection-type image display device according to (10) above.
(13) using a first test pattern including a plurality of vertical lines and a second test pattern including a plurality of horizontal lines;
The correction amount detection unit is configured to calculate a projective transformation parameter for correcting distortion based on the coordinates of a plurality of feature points including intersections of a vertical line and a horizontal line test pattern included in the test image after background removal. Calculate
The image correction unit performs projective transformation on the image projected from the projection unit using the projective transformation parameter.
The projection-type image display device according to (4) above.
(14) Each of the first test pattern and the second test pattern includes two slits corresponding to rectangular diagonal lines that form an outline of the test pattern,
The projection-type image display device according to (13) above.
(15) The correction amount detection unit estimates a maximum image size that can be projected from the projection unit to the projection object based on the coordinates of the feature points detected from the test image after background removal.
The projection-type image display device according to (13) above.
(16) The correction amount detection unit further performs noise reduction processing based on autocorrelation on the test image after the background information is removed, and then determines each feature point related to the test pattern in the test image. Detecting coordinate information and calculating correction parameters based on the coordinate information of each feature point;
The projection-type image display device according to (1) above.
(17) The correction amount detection unit performs a noise reduction process by performing an angle search in the vertical direction or the horizontal direction on the test image including a test pattern including a plurality of vertical lines or a plurality of horizontal lines. Calculating the coordinates of a plurality of feature points consisting of each intersection of the test pattern of the line and the horizontal line, and calculating a projective transformation parameter for correcting distortion based on the coordinate information of each intersection;
The projection-type image display device according to (16) above.
(18) The correction amount detection unit detects each test pattern of vertical lines or horizontal lines included in the test image as a quadratic curve.
The projection-type image display device according to (17) above.
(19) The correction amount detection unit performs an angle search centering on a result of an adjacent line segment for which an angle search was performed immediately before.
The projection-type image display device according to (17) above.
(20) projecting a test pattern onto the projection object;
Capturing a test image by capturing a test pattern projected on the projection target; and
Removing a background from the test image;
Detecting coordinate information related to the test pattern included in the test image after removing the background, and calculating correction parameters for correcting the image projected from the projection unit based on the coordinate information;
Correcting the projected image based on the correction parameters;
An image projection method comprising:
(21) a procedure for projecting a test pattern onto a projection object;
A procedure for acquiring a test image by photographing a test pattern projected on a projection object,
Removing a background from the test image;
A procedure for detecting coordinate information related to the test pattern included in the test image after removing the background and calculating a correction parameter for correcting an image projected from the projection unit based on the coordinate information;
Correcting the projected image based on the correction parameters;
A computer program written in a computer-readable format that causes a computer to execute.

以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。   As described above, the technology disclosed in this specification has been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the scope of the technology disclosed in this specification.

本明細書では、カメラ一体型の投影型画像表示装置に関する実施形態について説明してきたが、カメラが投影型画像表示装置本体と分離可能若しくは本体に外付け接続されるように構成される場合であっても、同様に本明細書で開示する技術を適用することができる。   In the present specification, an embodiment related to a camera-integrated projection-type image display device has been described. However, the technology disclosed in this specification can be applied in the same manner.

要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。   In short, the technology disclosed in the present specification has been described in the form of exemplification, and the description content of the present specification should not be interpreted in a limited manner. In order to determine the gist of the technology disclosed in this specification, the claims should be taken into consideration.

100…投影型画像表示装置
101…投影部
102…画像処理部
103…画像入力部
104…カメラ部
105…補正量検出部
201…照明光学部、202…液晶パネル、203…投影光学部
301…画像書き込み読み出し制御部、302…フレーム・メモリー
303…画像補正部、304…画質調整部
305…テスト・パターン発生部、305…出力画像切り替え部
401…撮影画像書き込み読み出し制御部、402…撮影画像メモリー
403…特徴点計算部、404…射影変換パラメーター計算部
DESCRIPTION OF SYMBOLS 100 ... Projection type image display apparatus 101 ... Projection part 102 ... Image processing part 103 ... Image input part 104 ... Camera part 105 ... Correction amount detection part 201 ... Illumination optical part, 202 ... Liquid crystal panel, 203 ... Projection optical part 301 ... Image Write / read control unit 302 ... Frame memory 303 ... Image correction unit 304 ... Image quality adjustment unit 305 ... Test pattern generation unit 305 ... Output image switching unit 401 ... Shooting image write / read control unit 402 ... Shooting image memory 403 ... feature point calculation unit, 404 ... projection transformation parameter calculation unit

Claims (20)

画像を被投射体に投影する投影部と、
前記投影部の照射位置と異なる位置に設置され、前記被投射体に投影された画像を撮影するカメラ部と、
前記投影部から前記被投射体にテスト・パターンを投影したときに前記カメラ部で撮影したテスト画像から背景を除去して、背景除去後の前記テスト画像中の前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算する補正量検出部と、
前記補正パラメーターに基づいて前記投影部から投影する画像を補正する画像補正部と、
を具備する投影型画像表示装置。
A projection unit that projects an image onto a projection object;
A camera unit that is installed at a position different from the irradiation position of the projection unit and shoots an image projected on the projection object;
When a test pattern is projected from the projection unit onto the projection target, a background is removed from a test image photographed by the camera unit, and coordinate information relating to the test pattern in the test image after background removal is obtained. A correction amount detection unit that detects and calculates a correction parameter for correcting an image projected from the projection unit based on the coordinate information;
An image correction unit for correcting an image projected from the projection unit based on the correction parameter;
A projection-type image display device comprising:
前記補正量検出部は、背景除去後の前記テスト画像から前記テスト・パターンの複数の特徴点の座標を算出し、前記被写体の投影画像に含まれる歪みを補正するための射影変換パラメーターを前記複数の特徴点の座標から算出し、
前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換する、
請求項1に記載の投影型画像表示装置。
The correction amount detection unit calculates coordinates of a plurality of feature points of the test pattern from the test image after background removal, and sets a plurality of projective transformation parameters for correcting distortion included in the projection image of the subject. Calculated from the coordinates of the feature points of
The image correction unit performs projective transformation on the image projected from the projection unit using the projective transformation parameter.
The projection type image display apparatus according to claim 1.
前記カメラ部は、前記投影部からテスト・パターンを照射しないときに第1のテスト画像を撮影するとともに、前記投影部からテスト・パターンを照射しているときに第2のテスト画像を撮影し、
前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像の差を作って、前記第2のテスト画像から背景の情報を除去して、前記テスト・パターンを含んだ背景除去後の前記テスト画像を得る、
請求項1に記載の投影型画像表示装置。
The camera unit captures a first test image when not irradiating a test pattern from the projection unit, and captures a second test image when irradiating the test pattern from the projection unit,
The correction amount detection unit creates a difference between the first test image and the second test image, removes background information from the second test image, and removes a background including the test pattern. To obtain the test image later,
The projection type image display apparatus according to claim 1.
前記カメラ部は、前記投影部から第1のテスト・パターンを照射しているときに第1のテスト画像を撮影するとともに、前記投影部から第2のテスト・パターンを照射しているときに第2のテスト画像を撮影し、
前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像の差を作って、前記第1のテスト画像及び前記第2のテスト画像から背景の情報を除去して、前記第1のテスト・パターンと前記第2のテスト・パターンを合成したテスト・パターンを含んだ背景除去後の前記テスト画像を得る、
請求項1に記載の投影型画像表示装置。
The camera unit captures a first test image when irradiating the first test pattern from the projection unit, and takes a first test image when irradiating the second test pattern from the projection unit. Take 2 test images,
The correction amount detection unit creates a difference between the first test image and the second test image, removes background information from the first test image and the second test image, and Obtaining the test image after background removal including a test pattern obtained by synthesizing one test pattern and the second test pattern;
The projection type image display apparatus according to claim 1.
前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像間で輝度調整を行なった後に、背景の情報の除去処理を行なう、
請求項3又は4のいずれかに記載の投影型画像表示装置。
The correction amount detection unit performs a background information removal process after performing luminance adjustment between the first test image and the second test image.
The projection type image display apparatus according to claim 3.
前記補正量検出部は、前記第1のテスト画像と前記第2のテスト画像のうち一方を基準とした平均輝度の比率を他方の画像の画素値に掛けて、前記輝度調整処理を行なう、
請求項5に記載の投影型画像表示装置。
The correction amount detection unit performs the luminance adjustment process by multiplying a pixel value of the other image by a ratio of an average luminance based on one of the first test image and the second test image.
The projection type image display apparatus according to claim 5.
前記補正量検出部は、前記第1のテスト画像及び前記第2のテスト画像をそれぞれ水平及び垂直方向に分割した領域毎に前記輝度調整処理を行なう、
請求項6に記載の投影型画像表示装置。
The correction amount detection unit performs the luminance adjustment processing for each region obtained by dividing the first test image and the second test image in the horizontal and vertical directions, respectively.
The projection type image display apparatus according to claim 6.
前記補正量検出部は、背景除去後の前記テスト画像のうちテスト・パターンを含む領域について輝度を正規化する、
請求項1に記載の投影型画像表示装置。
The correction amount detection unit normalizes the luminance for an area including a test pattern in the test image after background removal.
The projection type image display apparatus according to claim 1.
前記補正量検出部は、前記テスト画像のうち画素値の分散値が所定の閾値以上となる領域のみ輝度を正規化する、
請求項8に記載の投影型画像表示装置。
The correction amount detection unit normalizes the luminance only in a region of the test image in which a variance value of pixel values is a predetermined threshold value or more.
The projection type image display apparatus according to claim 8.
複数本の縦線と複数本の横線を含むメッシュ状のテスト・パターンを使用し、
前記補正量検出部は、背景除去後の前記テスト画像に含まれる縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標に基づいて、歪みを補正するための射影変換パラメーターを計算し、
前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換する、
請求項3に記載の投影型画像表示装置。
Using a mesh-like test pattern containing multiple vertical lines and multiple horizontal lines,
The correction amount detection unit is configured to calculate a projective transformation parameter for correcting distortion based on the coordinates of a plurality of feature points including intersections of a vertical line and a horizontal line test pattern included in the test image after background removal. Calculate
The image correction unit performs projective transformation on the image projected from the projection unit using the projective transformation parameter.
The projection type image display apparatus according to claim 3.
前記テスト・パターンは、前記テスト・パターンの輪郭となる矩形の対角線に相当する2本のスリットをさらに含む、
請求項10に記載の投影型画像表示装置。
The test pattern further includes two slits corresponding to a rectangular diagonal line that is an outline of the test pattern.
The projection type image display apparatus according to claim 10.
前記補正量検出部は、背景除去後の前記テスト画像から検出できた特徴点の座標に基づいて、前記投影部から前記被投射体に投影できる最大画像サイズを推定する、
請求項10に記載の投影型画像表示装置。
The correction amount detection unit estimates a maximum image size that can be projected from the projection unit onto the projection object based on the coordinates of the feature points detected from the test image after background removal.
The projection type image display apparatus according to claim 10.
複数本の縦線を含む第1のテスト・パターンと複数本の横線を含む第2のテスト・パターンを使用し、
前記補正量検出部は、背景除去後の前記テスト画像に含まれる縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標に基づいて、歪みを補正するための射影変換パラメーターを計算し、
前記画像補正部は、前記投影部から投影する画像を前記射影変換パラメーターで射影変換する、
請求項4に記載の投影型画像表示装置。
Using a first test pattern including a plurality of vertical lines and a second test pattern including a plurality of horizontal lines;
The correction amount detection unit is configured to calculate a projective transformation parameter for correcting distortion based on the coordinates of a plurality of feature points including intersections of a vertical line and a horizontal line test pattern included in the test image after background removal. Calculate
The image correction unit performs projective transformation on the image projected from the projection unit using the projective transformation parameter.
The projection type image display apparatus according to claim 4.
前記補正量検出部は、背景除去後の前記テスト画像から検出できた特徴点の座標に基づいて、前記投影部から前記被投射体に投影できる最大画像サイズを推定する、
請求項13に記載の投影型画像表示装置。
The correction amount detection unit estimates a maximum image size that can be projected from the projection unit onto the projection object based on the coordinates of the feature points detected from the test image after background removal.
The projection type image display apparatus according to claim 13.
前記補正量検出部は、背景の情報を除去した後のテスト画像に対してさらに自己相関によるノイズ・リダクション処理を行なってから、前記テスト画像中の前記テスト・パターンに関する各特徴点の座標の情報を検出して、前記各特徴点の座標の情報に基づいて補正パラメーターを計算する、
請求項1に記載の投影型画像表示装置。
The correction amount detection unit further performs noise reduction processing by autocorrelation on the test image after removing background information, and then information on coordinates of each feature point related to the test pattern in the test image And calculating correction parameters based on the coordinate information of each feature point,
The projection type image display apparatus according to claim 1.
前記補正量検出部は、複数本の縦線又は複数本の横線のテスト・パターンを含む前記テスト画像を縦方向又は横方向に角度サーチしてノイズ・リダクション処理を行なってから、縦線と横線のテスト・パターンの各交点からなる複数の特徴点の座標を算出し、前記各交点の座標の情報に基づいて歪みを補正するための射影変換パラメーターを計算する、
請求項15に記載の投影型画像表示装置。
The correction amount detection unit performs a noise reduction process by performing an angle search in the vertical direction or the horizontal direction on the test image including a test pattern of a plurality of vertical lines or a plurality of horizontal lines, and then performs vertical and horizontal lines. Calculating the coordinates of a plurality of feature points consisting of each intersection of the test pattern, and calculating a projective transformation parameter for correcting distortion based on the coordinate information of each intersection.
The projection type image display apparatus according to claim 15.
前記補正量検出部は、前記テスト画像に含まれる縦線又は横線の各テスト・パターンを2次曲線として検出する、
請求項16に記載の投影型画像表示装置。
The correction amount detection unit detects each test pattern of vertical lines or horizontal lines included in the test image as a quadratic curve,
The projection type image display apparatus according to claim 16.
前記補正量検出部は、直前に角度サーチを行なった隣の線分の結果を中心にして角度サーチする、
請求項16に記載の投影型画像表示装置。
The correction amount detection unit performs an angle search around the result of an adjacent line segment that has been subjected to an angle search immediately before,
The projection type image display apparatus according to claim 16.
被投射体にテスト・パターンを投射するステップと、
被投射体に投影されたテスト・パターンを撮影してテスト画像を取得するステップと、
前記テスト画像から背景を除去するステップと、
背景を除去した後のテスト画像に含まれる前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算するステップと、
前記補正パラメーターに基づいて投影画像を補正するステップと、
を有する画像投影方法。
Projecting a test pattern onto the projection object;
Capturing a test image by capturing a test pattern projected on the projection target; and
Removing a background from the test image;
Detecting coordinate information related to the test pattern included in the test image after removing the background, and calculating correction parameters for correcting the image projected from the projection unit based on the coordinate information;
Correcting the projected image based on the correction parameters;
An image projection method comprising:
被投射体にテスト・パターンを投射する手順と、
被投射体に投影されたテスト・パターンを撮影してテスト画像を取得する手順と、
前記テスト画像から背景を除去する手順と、
背景を除去した後のテスト画像に含まれる前記テスト・パターンに関する座標の情報を検出し、前記座標の情報に基づいて前記投影部から投影する画像を補正するための補正パラメーターを計算する手順と、
前記補正パラメーターに基づいて投影画像を補正する手順と、
をコンピューターに実行させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
A procedure for projecting a test pattern onto a projection object;
A procedure for acquiring a test image by photographing a test pattern projected on a projection object,
Removing a background from the test image;
A procedure for detecting coordinate information related to the test pattern included in the test image after removing the background and calculating a correction parameter for correcting an image projected from the projection unit based on the coordinate information;
Correcting the projected image based on the correction parameters;
A computer program written in a computer-readable format that causes a computer to execute.
JP2012278970A 2012-01-18 2012-12-21 Projection type image display device and image projection method, and computer program Pending JP2013168922A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012278970A JP2013168922A (en) 2012-01-18 2012-12-21 Projection type image display device and image projection method, and computer program
CN201310530271.3A CN103888700A (en) 2012-01-18 2013-10-31 Projection-type image display device, image projection method, and computer program
KR1020130154001A KR20140081678A (en) 2012-12-21 2013-12-11 Projection-type image display device, image projection method, and computer program
US14/102,972 US20140176730A1 (en) 2012-12-21 2013-12-11 Projection-type image display device, image projection method, and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012008417 2012-01-18
JP2012008417 2012-01-18
JP2012278970A JP2013168922A (en) 2012-01-18 2012-12-21 Projection type image display device and image projection method, and computer program

Publications (1)

Publication Number Publication Date
JP2013168922A true JP2013168922A (en) 2013-08-29

Family

ID=49178978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012278970A Pending JP2013168922A (en) 2012-01-18 2012-12-21 Projection type image display device and image projection method, and computer program

Country Status (2)

Country Link
JP (1) JP2013168922A (en)
CN (1) CN103888700A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014086788A (en) * 2012-10-19 2014-05-12 Casio Comput Co Ltd Projection apparatus, projection control device, projection system and projection state adjusting method
JP2014093604A (en) * 2012-11-01 2014-05-19 Ricoh Co Ltd Image projection device evaluation method, image projection device, image projection device manufacturing method, and image projection device evaluation system
CN104777702A (en) * 2014-01-15 2015-07-15 精工爱普生株式会社 Projector
JP2015139006A (en) * 2014-01-20 2015-07-30 株式会社リコー Information processing apparatus and program
KR20160001868A (en) * 2014-06-27 2016-01-07 충북대학교 산학협력단 Method for calibrating distortion of image in camera
CN106716318A (en) * 2014-09-09 2017-05-24 索尼公司 Projection display unit and function control method
JP2017092819A (en) * 2015-11-13 2017-05-25 キヤノン株式会社 Projection apparatus, control method of the same and projection system
WO2017179111A1 (en) * 2016-04-12 2017-10-19 日立マクセル株式会社 Display system and information processing method
US10602108B2 (en) 2014-07-29 2020-03-24 Sony Corporation Projection display unit
US10635373B2 (en) 2016-12-14 2020-04-28 Samsung Electronics Co., Ltd. Display apparatus and method of controlling the same
US10735820B2 (en) 2016-10-10 2020-08-04 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device
JP2020136696A (en) * 2019-02-12 2020-08-31 株式会社フジタ Projection apparatus
US10939083B2 (en) 2018-08-30 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11128908B2 (en) 2016-10-25 2021-09-21 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
US11336878B2 (en) 2020-04-02 2022-05-17 Samsung Electronics Co., Ltd. Image projecting apparatus and controlling method thereof

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10349023B2 (en) * 2014-07-01 2019-07-09 Sony Corporation Image processing apparatus and method
CN112009357A (en) * 2015-04-10 2020-12-01 麦克赛尔株式会社 Image projection apparatus and method
CN106954053A (en) * 2017-03-22 2017-07-14 成都市极米科技有限公司 A kind of trapezoidal distortion correction method and system
JP7243623B2 (en) 2017-05-26 2023-03-22 ソニーグループ株式会社 Image processing device and method
US10349025B2 (en) * 2017-07-27 2019-07-09 Seiko Epson Corporation Projector and method of controlling projector
WO2019056219A1 (en) * 2017-09-20 2019-03-28 神画科技(深圳)有限公司 Method for horizontal keystone correction of projector
CN109151415B (en) * 2018-08-21 2021-03-12 神画科技(深圳)有限公司 Method for automatically adapting projection target of projection system
CN109151418A (en) * 2018-10-09 2019-01-04 四川长虹电器股份有限公司 A kind of system and method automatically correcting projected image geometric distortion
CN112104851B (en) * 2020-09-15 2022-04-08 成都极米科技股份有限公司 Detection method, device and detection system for picture correction
CN112304812A (en) * 2020-10-23 2021-02-02 中国人民解放军陆军防化学院 Method for testing poison diffusion under explosion action
CN112437284A (en) * 2020-11-23 2021-03-02 海信视像科技股份有限公司 Projection picture correction method, terminal equipment and display equipment
CN113645494B (en) * 2021-08-10 2023-09-15 海信视像科技股份有限公司 Screen fusion method, display device, terminal device and server

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014086788A (en) * 2012-10-19 2014-05-12 Casio Comput Co Ltd Projection apparatus, projection control device, projection system and projection state adjusting method
JP2014093604A (en) * 2012-11-01 2014-05-19 Ricoh Co Ltd Image projection device evaluation method, image projection device, image projection device manufacturing method, and image projection device evaluation system
CN104777702A (en) * 2014-01-15 2015-07-15 精工爱普生株式会社 Projector
US9667927B2 (en) 2014-01-15 2017-05-30 Seiko Epson Corporation Projector
JP2015139006A (en) * 2014-01-20 2015-07-30 株式会社リコー Information processing apparatus and program
KR20160001868A (en) * 2014-06-27 2016-01-07 충북대학교 산학협력단 Method for calibrating distortion of image in camera
KR101583423B1 (en) * 2014-06-27 2016-01-08 충북대학교 산학협력단 Method for calibrating distortion of image in camera
US10602108B2 (en) 2014-07-29 2020-03-24 Sony Corporation Projection display unit
CN106716318A (en) * 2014-09-09 2017-05-24 索尼公司 Projection display unit and function control method
US11054944B2 (en) 2014-09-09 2021-07-06 Sony Corporation Projection display unit and function control method
CN106716318B (en) * 2014-09-09 2020-03-03 索尼公司 Projection display unit and function control method
JP2017092819A (en) * 2015-11-13 2017-05-25 キヤノン株式会社 Projection apparatus, control method of the same and projection system
US10455204B2 (en) 2016-04-12 2019-10-22 Maxell, Ltd. Display system and information processing method
US10582171B2 (en) 2016-04-12 2020-03-03 Maxell, Ltd. Display system and information processing method
WO2017179111A1 (en) * 2016-04-12 2017-10-19 日立マクセル株式会社 Display system and information processing method
US10735820B2 (en) 2016-10-10 2020-08-04 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device
US11128908B2 (en) 2016-10-25 2021-09-21 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
US10635373B2 (en) 2016-12-14 2020-04-28 Samsung Electronics Co., Ltd. Display apparatus and method of controlling the same
US10939083B2 (en) 2018-08-30 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
JP2020136696A (en) * 2019-02-12 2020-08-31 株式会社フジタ Projection apparatus
JP7356802B2 (en) 2019-02-12 2023-10-05 株式会社フジタ projection device
US11336878B2 (en) 2020-04-02 2022-05-17 Samsung Electronics Co., Ltd. Image projecting apparatus and controlling method thereof
US11716452B2 (en) 2020-04-02 2023-08-01 Samsung Electronics Co., Ltd. Image projecting apparatus and controlling method thereof

Also Published As

Publication number Publication date
CN103888700A (en) 2014-06-25

Similar Documents

Publication Publication Date Title
JP2013168922A (en) Projection type image display device and image projection method, and computer program
US20140176730A1 (en) Projection-type image display device, image projection method, and computer program
JP5266954B2 (en) Projection display apparatus and display method
JP5266953B2 (en) Projection display apparatus and display method
JP3925521B2 (en) Keystone correction using part of the screen edge
EP1861748B1 (en) Method of and apparatus for automatically adjusting alignement of a projector with respect to a projection screen
US10051251B2 (en) Video projector with automated image enhancement
US20090190046A1 (en) Output correction for visual projection devices
US8400468B2 (en) Projector masks for calibrating projector-based display systems
JP2003283964A (en) Video display apparatus
JP5633320B2 (en) Drawing image sharing device
JP2015128242A (en) Image projection device and calibration method of the same
JP2015126340A (en) Image processing method and image projection device
JPWO2006085580A1 (en) Pointer light tracking method, program and recording medium therefor
JP2009200683A (en) Image processing device, projector, and distortion correction method
JP2011151764A (en) Drawn image sharing apparatus
TWI629617B (en) Projection screen laser pointer detecting and locating system and the method for detecting and locating the same
JP2018163217A (en) projector
KR101171491B1 (en) Auto screen adjusting apparatus for beam projector
JP5691290B2 (en) Display system setting method, display system setting device, and computer-readable storage medium
JP6295635B2 (en) Image projection apparatus, image projection system, and image projection method
JP2008076445A (en) Projection-type display device, projection-type display method, program for performing this method, and computer-readable medium with the program stored
CN116055696A (en) Projection equipment and projection method
JP2011199717A (en) Projection type display device and image display method
JP2005071192A (en) Projection type display device, program and recording medium