JP2011050013A - Video projection apparatus and video projection method - Google Patents
Video projection apparatus and video projection method Download PDFInfo
- Publication number
- JP2011050013A JP2011050013A JP2009198978A JP2009198978A JP2011050013A JP 2011050013 A JP2011050013 A JP 2011050013A JP 2009198978 A JP2009198978 A JP 2009198978A JP 2009198978 A JP2009198978 A JP 2009198978A JP 2011050013 A JP2011050013 A JP 2011050013A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- correction
- image
- projection
- reference pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Projection Apparatus (AREA)
Abstract
Description
本発明は、映像投影装置及び映像投影方法に関する。 The present invention relates to a video projection apparatus and a video projection method.
近年の無線通信技術の進歩や、安価な超高輝度白色LED(Light Emitting Diode)の出現等のプラス要因が重なり、小型軽量で持ち運びが簡単にできるようなモバイルプロジェクタと呼ばれる映像投影装置が商品化されてきている。モバイルプロジェクタ製品の中には、手の平に載り、重量も200グラム未満の製品もある。また、内蔵電源で動作し、外部電源がない環境で動作する製品もある。 Video projectors called mobile projectors, which are compact and lightweight and easy to carry, are commercialized due to positive factors such as recent advances in wireless communication technology and the appearance of inexpensive ultra-high brightness white LEDs (Light Emitting Diodes). Has been. Some mobile projector products are on the palm and weigh less than 200 grams. There are also products that operate with an internal power supply and operate without an external power supply.
このような、モバイルプロジェクタは、ノートパソコンと繋いでビジネスのプレゼンテーションを行なうような場合に利用できる。さらには、携帯電話やPDA(Personal Digital Assistant)等の小型ディスプレーしか持たない端末の二次的な外部出力装置としても広く使われるようになるだろう。 Such a mobile projector can be used when a business presentation is performed by connecting to a notebook computer. Furthermore, it will be widely used as a secondary external output device for terminals having only a small display such as a mobile phone or PDA (Personal Digital Assistant).
しかし、現状のモバイルプロジェクタは、サイズこそ小さくなったものの、従来の映像投影装置と同様に、専用の平面投影面への投影を前提にしていることに変りはない。したがって、実際のモバイル環境下では、専用の投影幕を持ち歩くということは、そのサイズ及び重さが劇的に改良される必要がある。 However, although the current mobile projector has been reduced in size, it is still assumed that projection onto a dedicated flat projection surface is assumed, as in the case of a conventional video projection apparatus. Therefore, in an actual mobile environment, carrying a dedicated projection screen needs to be dramatically improved in size and weight.
そのため、モバイルプロジェクタの投影面としては、住宅等の璧や戸等、手近な平面を利用しなければならない状況が考えられる。しかし、この場合、映像投影面は、色彩(色相、彩度及び明度)が不均一や不連続であったり、非平面であったり、また平面であってもプロジェクタに正対していない場合が多いであろう。また、さらには、手持ちプロジェクタの場合等、投影面とプロジェクタとの位置関係が時間とともに変化するような場合も考えられる。 For this reason, it is conceivable that the mobile projector has to use a handy plane such as a wall or a door of a house. However, in this case, the image projection surface often has non-uniform or discontinuous color (hue, saturation and brightness), is non-planar, or is not directly facing the projector even if it is flat. It will be. Furthermore, there may be a case where the positional relationship between the projection surface and the projector changes with time, such as in the case of a hand-held projector.
では、今挙げたような、投影面の歪み、不均一な反射率及び色彩等を有する投影面に映像を投影する場合、従来用いられた、映像の見難さの解決方法を以下に記す。 Then, when an image is projected on the projection surface having the distortion of the projection surface, the non-uniform reflectance, the color, etc., as described above, a method for solving the difficulty in viewing the image, which has been conventionally used, is described below.
特許文献1及び特許文献2では、任意の非平面の画面に投影した映像の歪み補正について検討されている。
In
具体的には、特許文献1に記載の方法では、補正前の画像(点画像)を投影し、同時に、その点画像が表示されるべき場所にレーザーポインタを投影する。そして、これらをカメラで画像認識することにより、ずれに関する情報を得る。このずれを多くの点で測定し、画像補正全体のゆがみ補正パラメータを得る。
Specifically, in the method described in
特許文献1以前の方法では、高価な機器(レーザーレンジーファインダー等)を使わない限り、複数の平面からなる投影面に対する投影領域の決定が行えなかったが、特許文献1ではその点が改良されている。
In the method before
また、特許文献2に記載の方法では、複数の平面からなる投影面(例えば屏風状のスクリーン)に特殊な投影パターンを投影し、それをカメラで捕らえることで、画素と投影ポイントとの対応関係を得る。そして、投影ポイントをクラスタリングして、投影面を複数の平面として認識し、例えば、一番広い平面に映像を表示する。このとき、映像の歪み補正も行う。
Moreover, in the method described in
以上のように、特許文献1及び特許文献2では、ともに、映像投影装置に正対していないような投影面に対して映像を投影する場合に、自動的に映像の歪みや位置を補正して、本来あるべき映像をユーザに見せることができる。
As described above, both
また、特許文献2に記載の方法では、さらに、投影面に投影に適さない領域がある場合に、その領域を避けて投影することもできる。
Further, in the method described in
しかしながら、現実のモバイル環境下では、投影面として、例えば住宅の内壁を用いたりする必要がある。この場合、璧が何種類かの色で塗り分けられていたり、色の濃い暗色で塗られた柱が投影面の中を横切るように映像投影装置を設置せざるを得ないことが往々にしてある。 However, in an actual mobile environment, it is necessary to use, for example, an inner wall of a house as a projection plane. In this case, it is often the case that the video projector must be installed so that the wall is painted in several colors or the dark-colored pillars cross the projection surface. is there.
しかし、上記2つの方法によっても、色彩(色相、彩度、明度)が不均一の面に対する補正をすることは困難である。また、特許文献2に記載の方法では、投影しても反射がない投影面の領域を避けつつ、投影できる最大の面を探せるものの、利用できる面が小さくなってしまうことがある。このような場合、上記2つの方法によっても、見易い映像を大きな面に投影することは困難である。
However, even with the above two methods, it is difficult to correct a surface with non-uniform colors (hue, saturation, brightness). In the method described in
また、時間的にプロジェクタと投影面との相対位置が変化するような場合には、どちらの方法によっても対応が困難となる。 Further, when the relative position between the projector and the projection surface changes with time, it is difficult to cope with either method.
本発明の目的は、モバイルプロジェクタにおいて、投影映像の歪み又は投影面の反射率の低さに起因して生じる投影映像の見にくさを改善し、又は、投影面に柱や素材の違う面等の反射率が低い帯状が存在するような場合に、残された投影に適した領域を効率よく使い、見易い画像を投影することができる映像投影装置及び映像投影方法を提供することである。 An object of the present invention is to improve the difficulty in viewing a projected image due to distortion of the projected image or low reflectance of the projection surface in a mobile projector, or a surface with a different column or material on the projection surface. To provide a video projection device and a video projection method capable of efficiently projecting an easy-to-view image by efficiently using a remaining area suitable for projection when a strip having a low reflectance exists.
本発明の映像投影装置は、基準パターンを出力する基準パターン発生手段と、前記基準パターンを映像として投影するパターン投影手段と、投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出する比較手段と、位置歪み用補正パラメータを生成する位置歪み補正手段と、画面分割用補正パラメータを生成する画面分割補正手段とを有し、前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、判断結果に応じて、前記位置歪み補正手段及び前記分割補正手段を動作させる補正管理手段と、前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正する補正手段と、補正された前記映像コンテンツを投影する映像投影手段と、を具備し、前記位置歪み補正手段は、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、前記画像分割補正手段は、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成する。 The image projection apparatus of the present invention includes a reference pattern generating means for outputting a reference pattern, a pattern projecting means for projecting the reference pattern as an image, a light receiving pattern obtained by receiving the projected reference pattern, and the reference Compares the pattern, identifies the correspondence between the components of the pattern, and generates a correction parameter for positional distortion and a comparison means for calculating the mapping W from the reference pattern to the light receiving pattern based on the correspondence And a screen division correction unit that generates a screen division correction parameter. Based on the correspondence, whether or not the position distortion correction or the screen division correction is necessary is determined, and according to the determination result. A correction management unit that operates the positional distortion correction unit and the division correction unit, and the positional distortion correction parameter or the screen division correction. A correction unit that corrects video content using a parameter; and a video projection unit that projects the corrected video content, wherein the positional distortion correction unit corrects the positional distortion according to the mapping W. Generating a parameter, and the image division correction unit detects a low reflection region including a region in which the region corresponding to the reference pattern is missing from the light receiving pattern, and projects the image on a region other than the low reflection region. As described above, the screen on which the video is projected is divided, a mapping V from the image before the division to the image after the division is calculated, and the correction parameter for image division corresponding to the mapping V is generated.
本発明の映像投影方法は、基準パターンを映像として投影し、投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出し、前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、位置歪み補正が必要と判断した場合に、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、画面分割補正が必要と判断した場合に、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成し、前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正し、補正された前記映像コンテンツを投影する。 The image projection method of the present invention projects a reference pattern as an image, compares the received light pattern obtained by receiving the projected reference pattern with the reference pattern, and shows the correspondence between the components of these patterns. Identify and calculate the mapping W from the reference pattern to the light receiving pattern based on the correspondence, determine the necessity of positional distortion correction or screen division correction based on the correspondence, and need positional distortion correction If the correction parameter for position distortion corresponding to the mapping W is generated and it is determined that screen division correction is necessary, the region corresponding to the reference pattern is missing from the light receiving pattern. A low-reflective area including the image, and dividing the screen on which the video is projected so that the video is projected to an area other than the low-reflective area. A mapping V to an image is calculated, the image division correction parameter corresponding to the mapping V is generated, and the video content is corrected and corrected using the position distortion correction parameter or the screen division correction parameter. The video content is projected.
本発明によれば、投影映像の歪み又は投影面の反射率の低さに起因して生じる投影映像の見にくさを改善し、又は、投影面に柱や素材の違う面等の反射率が低い帯状の領域が存在するような場合においても、残された投影に適した領域を効率よく使い、見易い画像を投影することができる。 According to the present invention, it is possible to improve the difficulty in viewing a projected image due to the distortion of the projected image or the low reflectance of the projection surface, or the reflectance of a surface with a different column or material on the projection surface is low. Even in the case where there is a band-like region, it is possible to efficiently use the remaining region suitable for projection and project an easy-to-view image.
以下本発明の実施の形態について、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る映像投影システムの構成図である。
(Embodiment 1)
FIG. 1 is a configuration diagram of a video projection system according to
図1において、投影面120は、映像投影装置100が映像を投影する面である。投影面120は、専用の投影幕のようなものでもよいし、璧やドア等、映像を投影して映像が映る面を持つ物体の面であれば何でもよい。 In FIG. 1, a projection surface 120 is a surface on which the image projection apparatus 100 projects an image. The projection surface 120 may be a dedicated projection screen, or any object surface having a surface on which an image is projected by projecting an image, such as a wall or a door.
映像コンテンツ130は、具体的には、映画、写真、或いはビジネス用のプレゼンテーション資料等であり、通常、映像投影装置100の外部のパソコンやPDA(Personal Digital Assistant)等の記憶装置に格納されている。そして、パソコン等の記憶装置と映像投影装置100との間は、適当な規格又はプロトコルの映像転送ケーブル等で結ばれている。もちろん、パソコン等の記憶装置と映像投影装置100との間は、有線ケーブルではなく、無線の伝送路で結ばれていても構わない。
Specifically, the
基準パターン発生部101は、1種類以上の基準パターンをパターン投影部102及びパターン比較部104に出力する。基準パターンの詳細については、後述する。
The reference
パターン投影部102は、基準パターン発生部101から入力される基準パターンを映像として投影する。なお、この映像は、可視光の映像とは限られず、映像には、液晶プロジェクタのような映画のフィルムの役割をする面に背後から強力な光源で照らす仕組のものから、レーザ光(光点)で投影面をラスタースキャンして映像を表示するようなものまで含まれる。
The
パターン受光解析部103は、パターン投影部102が投影面120に投影した映像を受像し、その受像した映像を解析してパターンへ変換する。この受像した映像を解析した結果得られるパターンを、「受光パターン」と呼ぶ。また、この受像した映像の光学イメージ及び投影面120に投影されている映像の光学イメージを、「パターン像」と呼ぶ。
The pattern light
なお、このパターン像は、基準パターンのパターンとは異なる概念である。パターン像は光学的なイメージであり、単にパターンという場合は、光学イメージであるパターン像を解析した結果得られるものである。すなわち、パターンとは、光学イメージを生成する元となるものであって、「点」、「線」又は「四角形」等の幾何学的な概念である。 This pattern image is a concept different from the pattern of the reference pattern. The pattern image is an optical image, and the simple pattern is obtained as a result of analyzing the pattern image that is an optical image. That is, the pattern is a source for generating an optical image, and is a geometric concept such as “point”, “line”, or “square”.
パターン比較部104は、パターン受光解析部103が生成した受光パターンと、元の基準パターンとを比較し、これら2つのパターンの構成要素間を対応付けることにより、受光パターンから基準パターンへの写像を生成する。
The
補正管理部105は、パターン比較部104により生成された受光パターンと基準パターンとの構成要素間の対応関係に基づいて、位置歪み補正、画面分割補正、及び、色彩補正が必要であるか否かを判断する。そして、補正管理部105は、判断結果に応じて、位置歪み補正部106、画面分割補正部107、又は、色彩補正部108を、適切な順序で組み合わせて呼び出し、映像投影用補正パラメータを算出する。補正管理部105は、算出した映像投影用補正パラメータを補正部109に出力する。
The
位置歪み補正部106は、位置歪み補正のための位置歪み用補正パラメータを計算する。画面分割補正部107は、画面の分割のための画面分割用補正パラメータを計算する。色彩補正部108は、色彩(色相、彩度、明度)の補正のための色彩用補正パラメータを計算する。補正管理部105は、位置歪み用補正パラメータ、画面分割用補正パラメータ、及び、色彩用補正パラメータを総合して、映像投影用補正パラメータを算出する。これら補正パラメータの算出方法については、後述する。
The positional
補正部109は、補正管理部105により生成された映像投影用補正パラメータに応じて、映像コンテンツ130の映り具合を補正する。
The
映像投影部110は、補正部109により補正された状態で映像コンテンツ130を投影面120に投影する。
The
さて、図1のように構成された映像投影装置100において、位置歪み補正、画面分割補正、及び、色彩補正ができることを示す。 Now, it is shown that the image projection apparatus 100 configured as shown in FIG. 1 can perform positional distortion correction, screen division correction, and color correction.
まず、始めに、これら補正の種類に関して定義しておく。なお、具体例は、いずれも以下の説明中に登場する。 First, these correction types are defined. Note that specific examples appear in the following description.
[1]位置歪み補正
位置歪みとは、映像投影部110が投影面120に正対していない場合、投影面120が非平面である場合、又は、映像投影部110の投影面120に対する位置が時間的に変化する場合に発生する、映像投影装置100のユーザから見た映像歪み及び位置ずれをいう。位置歪み補正とは、映像歪み又は位置ずれをユーザから見て正常状態に戻すことをいう。
[1] Positional distortion correction Positional distortion is when the
[2]画面分割補正
画面分割補正とは、映像を投影したい面に、投影面として適さない領域がある場合に、その不適切な領域を避けるように、投影コンテンツの1画面をいくつかの断片に分割、縮小、移動等を行なう補正をいう。
[2] Screen division correction In the screen division correction, when there is an area that is not suitable as a projection plane on the plane on which the image is to be projected, one piece of projection content is divided into several pieces so as to avoid the inappropriate area. This refers to correction for dividing, reducing, moving and the like.
[3]色彩補正
色彩補正とは、投影面の部分領域毎に、色相、彩度又は明度が異なる場合に、その色相、彩度又は明度の違いを打ち消すようにかける補正をいう。或いは、色彩補正とは、投影面120が映像投影装置110に正対していない場合や、投影面120が曲面である場合に発生する明度のむらを補正するものである。
[3] Color correction Color correction refers to correction applied to cancel the difference in hue, saturation, or brightness when the hue, saturation, or brightness differs for each partial area of the projection plane. Alternatively, the color correction is to correct unevenness in brightness that occurs when the projection surface 120 is not directly facing the
では、実施例の説明に戻る。 Now, the description returns to the embodiment.
今、図2に示すような位置関係で、パターン投影部102、パターン受光解析部103、映像投影部110、及び、投影面120が設置されているとする。すなわち、パターン投影部102は投影面120を見るユーザの目(頭部)の近くに設置され、さらに、ユーザの視線とパターン投影部102の映像投影の軸とがほぼ並行になるように設置されている。ユーザが複数いる場合は、ユーザのうち1人を適当に選んで、そのユーザの目付近にパターン投影部102を設置する。なお、このユーザは投影面120の正面にいるとする。
Now, it is assumed that the
パターン受光解析部103と映像投影部110とは隣接して設置され、そのパターン受光解析部103の中心軸と映像投影部110の光軸とは並行に、或いは、双方の軸が投影面の中心で交わるように設置されているとする。そして、映像投影部110及びパターン受光解析部103は、投影面120に向かって、左下方に設置されているとする。
The pattern light
さて、設置が終了すると、映像投影装置100は、映像投影用補正パラメータの計算を開始する。 When the installation is completed, the video projection device 100 starts calculating the video projection correction parameters.
まず、補正管理部105は、基準パターン発生部101に対して基準パターンの生成を命ずる。
First, the
すると、基準パターン発生部101は位置歪み補正及び画像分割補正用の基準パターンを生成する。ここでいうパターンとは、前述したように、点、線、多角形等の幾何学的概念であり、図形の色彩(色相、彩度又は明度)、位置又は大きさ等のグラフィック的な属性も持つ。
Then, the
図3は、本実施の形態において用いられる基準パターンを、グラフィカルに表現したもの、すなわち基準パターンに対するパターン像(以下「基準パターン像」という)200である。ここで、本実施の形態において用いられる基準パターンを、以降「基準パターンd」と呼ぶ。 FIG. 3 is a graphical representation of the reference pattern used in the present embodiment, that is, a pattern image (hereinafter referred to as “reference pattern image”) 200 with respect to the reference pattern. Here, the reference pattern used in the present embodiment is hereinafter referred to as “reference pattern d”.
この基準パターンdは、格子状に整列して並べられた点の集合であり、記述的に表現すれば次のようになる。 This reference pattern d is a set of points arranged in a lattice pattern, and is expressed as follows in a descriptive manner.
基準パターンd={Point(0,0)、Point(0,160)、Point(0,320)、(途中略)、Point(960,1120)、Point(960,1280)}。 Reference pattern d = {Point (0, 0), Point (0, 160), Point (0, 320), (middle omitted), Point (960, 1120), Point (960, 1280)}.
ここで、Point(x,y)は、二次元平面上の座標(x,y)に位置する点という意味である。これらの点は、投影面上では、明るい点(面積があるので正確には点でなく小さな円である)として表現されるため、これら点を光点と呼ぶ。 Here, Point (x, y) means a point located at coordinates (x, y) on the two-dimensional plane. Since these points are expressed as bright points on the projection plane (because of the area, they are expressed as small circles instead of dots), these points are called light spots.
また、これら光点をPoint(x,y)と座標で表現することを、光点の位置表現と呼ぶこととする。また、基準パターンdの光点Point(x,y)を、d(x,y)と表わすこととする。 In addition, expressing these light spots with Point (x, y) and coordinates is referred to as light spot position expression. Further, the light spot Point (x, y) of the reference pattern d is represented as d (x, y).
さらに、本実施の形態では、基準パターンdは、矩形で格子上に配置される。そのため、座標で表わす他に、行及び列を用いて表現できると都合がよい。そこで、便宜上、本実施の形態では、基準パターンd、もしくは、基準パターンdから生成されたパターン像上の各点をd[i,j]等と表現する。iは、x軸の正方向への列番号を示し、jは、y軸の正方向への行番号を示す。例えば、Point(0,0)は、d[0,0]と表現でき、図3の点201は、d[4,5]と表現できる。このd[i,j]のような表現を、光点のインデックス表現と呼ぶこととする。
Furthermore, in the present embodiment, the reference pattern d is rectangular and arranged on the grid. For this reason, it is convenient if it can be expressed using rows and columns in addition to the coordinates. Therefore, for the sake of convenience, in the present embodiment, each point on the reference pattern d or a pattern image generated from the reference pattern d is expressed as d [i, j] or the like. i indicates a column number in the positive direction of the x-axis, and j indicates a row number in the positive direction of the y-axis. For example, Point (0, 0) can be expressed as d [0, 0], and the
なお、説明の便宜上、基準パターンdの光点の数を縦7横9としているが、実際には、精密さと計算時間とのトレードオフにより光点の数を決定しなければならない。光点の数を多くするほど、精密に補正をすることができる一方、補正処理全体の処理時間が長くなる。 For convenience of explanation, the number of light spots of the reference pattern d is 7 by 9 in length, but in actuality, the number of light spots must be determined by a trade-off between precision and calculation time. As the number of light spots is increased, the correction can be performed more precisely, while the processing time of the entire correction process becomes longer.
また、基準パターンdの縦横の大きさを、横1280ピクセル、縦960ピクセルとして説明しているが、これも説明の便宜のために用いた大きさであり、特にこの大きさである必要はない。 In addition, although the vertical and horizontal sizes of the reference pattern d are described as 1280 pixels in width and 960 pixels in length, this is also a size used for convenience of description, and it is not necessary to have this size in particular. .
さて、基準パターンdにおいて、インデックス表現された光点d[i,j]と位置表示された光点Point(x,y)との関係を、次のように定める。
d[i,j]≡Point(i×160,j×160)
ただし、0≦i≦7、0≦j≦5、i,jは整数
Now, in the reference pattern d, the relationship between the indexed light spot d [i, j] and the position-displayed light spot Point (x, y) is determined as follows.
d [i, j] ≡Point (i × 160, j × 160)
However, 0 ≦ i ≦ 7, 0 ≦ j ≦ 5, i and j are integers
これらの光点は、左上が原点座標の横1280ピクセル、縦960ピクセルの長方形内部に収まっている。なお、この長方形は、映像投影部110の投影範囲にそのまま対応している。つまり、この場合、映像投影部110は、最大横1280ピクセル、縦960ピクセルの画面の投影を行なうことができる。
These light spots are within the rectangle whose upper left corner is 1280 pixels wide and 960 pixels long in the origin coordinates. This rectangle corresponds to the projection range of the
基準パターンdが、縦横整列された点の集合とすると、後の過程におけるパターン受光解析部103の解析動作において有利である。基準パターンの形としては、例えば、図4に示すような格子状のパターン、或いは、各種幾何学的模様(図示せぬ)が考えられる。あるパターンが基準パターンとして足り得る必要条件としては、基本的に基準パターンの任意の一部が、受光パターンにおいてどの箇所に対応するか、計算可能であることである。
If the reference pattern d is a set of vertically and horizontally aligned points, it is advantageous in the analysis operation of the pattern light receiving
さて、基準パターン発生部101により生成された基準パターンdは、パターン投影部102に渡され、図3に示したような基準パターン像200に変換され、その映像が投影面120に投影される。なお、図3において、基準パターン像200の各点は、黒丸で示されているが、これは作図上の都合によるものであり、実際には図3の黒い部分が、輝度が高い部分であり、地の白い部分は、輝度が0(真っ暗)な部分である。以下の説明全てにおいても、パターン像に関し特に断らない限り、黒白反転表現しているものとする。
Now, the reference pattern d generated by the reference
なお、パターン像の投影は、その各構成要素(図3に示す例では、点)を同時に全て投影する必要はない。例えば、図5に示すように、パターン投影部102は、4点ずつ時間をおいて投影していってもよい。図5には、パターン投影部102が、上下左右で隣り合った4点(d[i,j],d[i,j+1],d[i+1,j],d[i+1,j+1])を同時に投影する例を示しているが、同時に投影する点は、上下左右に隣り合っている必要はない。例えば、基準パターンの光点からランダムに4点ずつ投影していく方法、又は、d[i,j],d[i,j+1],d[i,j+2],d[i,j+3]のように、縦に4点ずつ投影したり、また同様に横4点ずつ投影したりしてもよい。また、パターン投影部102は、上下左右でいくつかの列(n)を飛ばした4点(d[i,j],d[i+n,j],d[i,j+n],d[i+n,j+n])を同時に投影してもよい。
Note that it is not necessary to project all of the constituent elements (points in the example shown in FIG. 3) at the same time. For example, as shown in FIG. 5, the
パターン投影部102が、どのような形で、光点を投影すると有効であるかに関しては、そもそも基準パターンを投影し、それを受光解析することの目的から考えねばならない。
As to how the
すなわち、基準パターンを投影して、受光パターンを得ることの目的は、(1)基準パターンから受光パターンへの写像を得る(この写像で投影映像の歪み及び位置ずれを修正する)、(2)投影する光の強弱による補正可能範囲を超えるような、投影面の反射率が低い領域を見つける(見つけて、後の画面分割補正に使う)、の2点である。 That is, the purpose of obtaining the light receiving pattern by projecting the reference pattern is (1) obtaining a mapping from the reference pattern to the light receiving pattern (correcting distortion and misalignment of the projected image by this mapping), (2) These are two points: finding a region with a low reflectance on the projection surface that exceeds the correctable range depending on the intensity of the projected light (finding and using it for subsequent screen division correction).
しかし、後に詳述するように、(1)の目的に関しては、基準パターン上から受光パターン上への対応関係が、少なくとも4点分かればよい。また(2)の目的に関しては、投影面の反射率が著しく低い領域(基準パターンを投影しても、対応する受光パターンが得られない領域)が分かればよいので、必ずしも基準パターン全点を投影する必要はない。 However, as will be described in detail later, for the purpose of (1), it is only necessary to know at least four correspondences from the reference pattern to the light receiving pattern. For the purpose of (2), it is only necessary to know an area where the reflectance of the projection surface is extremely low (an area where the corresponding light receiving pattern cannot be obtained even if the reference pattern is projected). do not have to.
そこで、例えば、最初は基準パターンのうち、4点のみ投影して、基準パターンから受光パターンへの写像が計算された後、全点投影する方法が考えられる。後に詳述するが、投影面が平面ならば4点の対応さえ分かれば、写像は計算できる。或いは、全点投影せずに、偶数行かつ偶数列の点のみを投影していき、反射率が低そうな領域が発見されたら、その領域だけ詳細に投影する(つまり、奇数行または奇数列の点を投影していく)方法等が考えられる。何点ずつかランダムに投影し、反射率が低い領域が見つかれば、その領域に集中的に光点を投影することも有効な方法である。 Thus, for example, a method is conceivable in which only four points are initially projected from the reference pattern, and after the mapping from the reference pattern to the light receiving pattern is calculated, all points are projected. As will be described in detail later, if the projection plane is a plane, the mapping can be calculated as long as the correspondence between the four points is known. Alternatively, only the points in even rows and even columns are projected without projecting all points, and if a region with low reflectance is found, only that region is projected in detail (that is, odd rows or odd columns). The method of projecting the point) can be considered. It is also an effective method to project several points at random and project a light spot in a concentrated manner when a region with low reflectance is found.
なお、同時にどんな点を投影すべきかに関しては、パターン受光解析部103の動作説明の中で再度述べる。また、この段階では説明を簡単にするために、投影面120は反射率が均一であり、色が白色で均一の平面璧であるとして説明する。なお、反射率或いは色彩が均一でない場合、又は、投影面120が平面でない場合については、後述する。
Note that what points should be projected at the same time will be described again in the explanation of the operation of the pattern light receiving
さて、補正管理部105は、パターン受像解析部103に対し、投影面120に投影されているパターン像を受像、解析して受光パターンを算出するよう命令する。
Now, the
まず、パターン受像解析部103は、投影面120に写った光学イメージを受像する。この受像したパターン像(受光パターン像)300を図6に示す。この受光パターン像300の解析結果を受光パターンrと呼ぶこととする。
First, the pattern image receiving
本実施の形態の場合、正面から投影された基準パターンを投影面に向って左下から見上げる形になるため、受光パターン像の形は、長方形でなく、図6の四角形のように歪んで見える。なお、投影面が、平面でなく、例えば中央部がユーザ側に向ってやや膨らんでいる場合には、例えば図7のような形に歪んで見えるだろう。 In the case of the present embodiment, since the reference pattern projected from the front is looked up from the lower left toward the projection plane, the shape of the received light pattern image is not a rectangle but looks distorted as a square in FIG. If the projection surface is not a flat surface and, for example, the central portion is slightly bulging toward the user side, it will appear distorted as shown in FIG.
次に、パターン受光解析部103は、受光パターン像300を得ると、受光パターン像300を解析して受光パターンrを生成する。この受光パターンrの中身は、認識できた点の集合である。例えば、点301は、Point(965、512)となる。
Next, when obtaining the light
画像から点を認識することに関しては、画像解析の一般的な方法を用いてソフトウエア的に点の位置を得ることも可能であるし、また、2次元光点位置検出素子(以下、単に位置検出素子と呼ぶ)を用いて、直接的に点の位置を得てもよい。 Regarding the recognition of a point from an image, it is possible to obtain the position of the point by software using a general method of image analysis, and a two-dimensional light spot position detecting element (hereinafter simply referred to as a position). The position of the point may be obtained directly using a detection element).
ただし、ソフトウエアの画像解析には、比較的高速な演算装置や大量のメモリが必要であり、さらに、必ずしも高速に答を得られるとは限らない。これに対して、位置検出素子を用いる方法は、廉価な部品で高速に各光点の位置を検出することができる。そのため、装置を廉価に作成するには、位置検出素子を利用すると有利である。 However, software image analysis requires a relatively high-speed computing device and a large amount of memory, and further, an answer cannot always be obtained at high speed. On the other hand, the method using the position detection element can detect the position of each light spot at high speed with inexpensive components. For this reason, it is advantageous to use a position detection element in order to produce the device at a low cost.
反面、位置検出素子では、一度に位置を知ることができる光点の数が2、4、8等に限られること、受光パターン像そのものを取り出せないこと、また、光点の色彩は分からない等の欠点がある。したがって、位置検出素子を用いる場合のように、一度にn点の光点の位置しか捕捉しない場合は、上述したように、パターン投影部102は、全ての光点を一度に投影せずに、n点ずつ投影し、投影毎に位置検出を行い、光点の位置を検出すればよい。どちらの方法で、光点の位置を算出するかは、コストや必要とされる性能を勘案して決定される。
On the other hand, with the position detection element, the number of light spots whose position can be known at a time is limited to 2, 4, 8, etc., the light-receiving pattern image itself cannot be taken out, and the color of the light spot is unknown. There are disadvantages. Therefore, when only the positions of the n light spots are captured at a time as in the case of using the position detection element, as described above, the
さて、パターン受光解析部103が受光パターンrを得ると、パターン比較部104は、基準パターンdと受光パターンrとの比較を開始し、基準パターンdの光点d[i,j]と受光パターンrの光点r(x,y)との対応関係を特定する。つまり、パターン比較部104は、図8に示したような対応表の「受光パターン光点の位置」の欄(図で網掛部分)を埋めていく。なお、以下では、d[i,j]に対応する受光パターンrの光点r(x,y)を、r[i,j]と表現する。
When the pattern light
この対応関係を特定する方法には、以下に示す3つの方法がある。 There are the following three methods for specifying this correspondence.
[第1の方法]
まず、第1の方法について説明する。
[First method]
First, the first method will be described.
これは、基準パターンの光点d[i,j]を1点ずつ逐次的に投影し、その度に、投影面120上の位置Point(x,y)を読み取ることで、直接的に、d[i,j]とr(x,y)との対応関係を特定する。 This is because the light spot d [i, j] of the reference pattern is sequentially projected point by point, and the position Point (x, y) on the projection plane 120 is read each time, thereby d directly. The correspondence between [i, j] and r (x, y) is specified.
例えば、基準パターンを用いる場合、全ての光点を同時に投影するのでなく、1点ずつ投影し、1光点が投影されたところで、パターン受光解析部103が、受光動作を行うようにする。すると、基準パターンの光点d[i,j]が、受光パターンの光点r(x,y)のいずれに対応しているか、計算を要せずに直接分かることになる。
For example, when the reference pattern is used, instead of projecting all the light spots at the same time, each pattern is projected one by one, and the pattern light receiving
この方法は単純であり、投影面に反射率が低い領域があって受光パターン像に部分的な欠損があるような場合にも容易に対処が可能である。その反面、この逐次的投影方法では、光点を1点ずつ投影しなければならないため、時間がかかるという欠点もある。例えば、図3に示すように光点の数が63の基準パターンを用いる場合に、パターン投影部102が1秒間で10枚(1枚あたり0.1秒)の画像を投影すると、63点の光点を1点ずつ投影するには、6.3秒かかることになる。そして、精度を上げるためには実際には、光点の数を多くして、光点の間隔をもっと細かくしなければならないし、これに加えてパターン受光解析部103の受光部の動作時間を勘案すると、さらに時間を要するであろう。
This method is simple and can easily cope with a case where there is a region with low reflectance on the projection surface and there is a partial defect in the light receiving pattern image. On the other hand, this sequential projection method has a drawback that it takes time because light spots must be projected one by one. For example, as shown in FIG. 3, when a reference pattern having 63 light spots is used, if the
[第2の方法]
次に第2の方法について説明する。
[Second method]
Next, the second method will be described.
これは、受光パターンの全ての光点の位置検出を済ませた後に、基準パターンの光点d[i,j]と、位置検出の結果得られた受光パターンの光点r(x,y)との対応関係を算出する。具体的には、以下のステップA1からステップA4の過程及びステップB1からステップB6の過程により、対応関係を算出する。ステップA1からステップA4は、基準パターンの4隅の光点に対応する光点が受光パターンに存在した場合の算出方法である。一方、ステップB1からステップB6は、基準パターンの4隅の光点に対応する光点のうち、1つ以上の光点の欠損があった場合の算出方法である。 This is because the light spot d [i, j] of the reference pattern and the light spot r (x, y) of the light receiving pattern obtained as a result of the position detection after the position detection of all the light spots of the light receiving pattern is completed. Is calculated. Specifically, the correspondence is calculated by the following process from Step A1 to Step A4 and the process from Step B1 to Step B6. Steps A1 to A4 are calculation methods when light spots corresponding to the light spots at the four corners of the reference pattern exist in the light receiving pattern. On the other hand, Steps B1 to B6 are calculation methods when one or more light spots are missing among the light spots corresponding to the light spots at the four corners of the reference pattern.
いま、図9のような受光パターン像が得られており、各光点の位置も全て検出されているとする。 Now, it is assumed that a light receiving pattern image as shown in FIG. 9 has been obtained, and all the positions of the respective light spots have been detected.
(ステップA1)
受光パターンrの中で、y座標値が一番小さな点をr0とし、一番大きな点をr1とする。
(Step A1)
In the light receiving pattern r, the point having the smallest y coordinate value is designated as r0, and the largest point is designated as r1.
(ステップA2)
r0及びr1を結ぶ直線r0−r1を求める。そして、r0とr1を通る直線403を、式(追1)とする。
A straight line r0-r1 connecting r0 and r1 is obtained. Then, a
(ステップA3)
受光パターンrの光点のうち、直線r0−r1から最も距離が離れている2点を求める。この2点のうち、直線r0−r1上の領域(y軸でマイナス方向の領域)の点をr2とし、下の領域の点をr3とする。
(Step A3)
Of the light spots of the light receiving pattern r, two points that are farthest from the straight line r0-r1 are obtained. Of these two points, the point in the region on the straight line r0-r1 (the region in the negative direction on the y axis) is r2, and the point in the lower region is r3.
具体的には、受光パターンrの光点のうち、直線403から、直線403の上の領域と下の領域とで、それぞれもっとも距離が離れている2点を求める。ただし、距離が最大の点が分かればよく、実際の距離は必要ないため、簡易な計算方法で充分である。つまり、受光パターンrの各光点(xi,yi)のうち、式(2)に示される距離Rが最小の点(直線403の上、すなわちy軸のマイナス方向)と、最大の点(直線403の下、すなわち軸のプラス方向)を求めればよい。
例えば、図9に示す例では、r2が光点404であり、r3が光点405である。
For example, in the example shown in FIG. 9, r2 is the
(ステップA4)
ステップA1からステップA3で求めたr0,r1、r2、r3は、受光パターン像を形成する矩形の4隅の光点にあたる。つまり、r0またはr2が、r[0,0]またはr[8,0]、すなわち受光パターン像を形成する矩形の4頂点のうち、上側の2頂点である。そして、r0,r2のうち、座標xの値が小さい方が、r[0,0]となる。図9のような受光パターン像の場合は、r0がr[0,0]で、r2がr[0,8]となる。同様に、r1がr[6,8]であり、r3がr[0,6]となる。
(Step A4)
R0, r1, r2, and r3 obtained in steps A1 to A3 correspond to the light spots at the four corners of the rectangle forming the light receiving pattern image. That is, r0 or r2 is r [0,0] or r [8,0], that is, the upper two vertices among the four vertices of the rectangle forming the light receiving pattern image. Of r0 and r2, the smaller coordinate x value is r [0,0]. In the case of the light receiving pattern image as shown in FIG. 9, r0 is r [0,0] and r2 is r [0,8]. Similarly, r1 is r [6,8] and r3 is r [0,6].
この結果、図10に示したような基準パターンの矩形の4隅の光点と受光パターンの矩形4隅の光点との対応関係が特定される。 As a result, the correspondence relationship between the light spots at the four corners of the rectangle of the reference pattern as shown in FIG. 10 and the light spots at the four corners of the rectangle of the light receiving pattern is specified.
4点の対応関係が分かれば、基準パターンから受光パターンへの写像が算出でき、その写像を利用することで、残りの点の対応関係も分かるようになる。残りの点の対応関係に関しては、写像の算出方法について説明した後に、再度詳しく説明をする。 If the correspondence between the four points is known, the mapping from the reference pattern to the light receiving pattern can be calculated, and the correspondence between the remaining points can be understood by using the mapping. The correspondence between the remaining points will be described again in detail after describing the mapping calculation method.
上述の光点が欠けていない場合というのは、投影面120が、反射率及び色が一様であり、投影された光点が全て読み取ることができるとの前提がある場合に成り立つ。しかし、実際のモバイル環境では、必ずしも反射率又は色彩が一様であるとは限らない。そのため、基準パターンの矩形の4隅が、全て読み取ることが困難な場合がある。 The case where the above-mentioned light spot is not missing is established when there is a premise that the projection surface 120 has uniform reflectance and color and can read all the projected light spots. However, in an actual mobile environment, the reflectance or color is not always uniform. Therefore, it may be difficult to read all four corners of the reference pattern rectangle.
そこで、次に受光パターン像から光点が欠けている場合、特に欠けているのが、基準パターンの矩形の4隅の点に対応する光点を含む場合に関して述べる。この場合、(1)読み取れた点から推測して、読み取れなかった4隅の点を補完するか、或いは、(2)読み取れた点からd[i,j]と対応が付く4隅の4点を選択する必要がある。 Therefore, next, when light spots are missing from the light receiving pattern image, a case where light spots corresponding to the four corner points of the reference pattern rectangle are included will be described. In this case, (1) the four points at the four corners that are not estimated can be complemented by guessing from the read points, or (2) the four points at the four corners that correspond to d [i, j] from the read points. It is necessary to select.
ここでは、まず前者の(1)の場合から説明する。 Here, the first case (1) will be described first.
今、図11のように、受光パターン像において、r[8,0](光点505)と、その周辺のいくつかの光点が欠けているとする。ただし、現時点では、光点を数えてそれが63点に満たないことにより、どこかの点が欠けていること自体は分かるものの、欠けている点の位置が、r[8,0]とその周辺だとまでは分からない。 Now, as shown in FIG. 11, it is assumed that r [8,0] (light spot 505) and some surrounding light spots are missing in the light receiving pattern image. However, at the present time, the number of light spots is less than 63, and it can be understood that some point is missing, but the position of the missing point is r [8,0] and its I don't know if it's around.
このような場合において、欠けた光点を見つけ、その受光パターン像上の位置を推定する方法について述べる。 In such a case, a method for finding the missing light spot and estimating the position on the light receiving pattern image will be described.
(ステップB1)
まず、先程のステップA1〜A4と同様の動作を行ない、受光パターン像を形成する矩形の4隅の光点の候補として、r0′、r1′、r2′、r3′を得る。図11においては、r0′が光点501に対応し、r1′が光点502に対応し、r2′が光点503に対応し、r3′が光点504に対応する。ここで、受光パターン像上では、r[0,8](光点505)が、失われているため、r2′は、実際には矩形の4隅の点の1つではない。
(Step B1)
First, the same operations as in steps A1 to A4 are performed, and r0 ′, r1 ′, r2 ′, and r3 ′ are obtained as candidates for the light spots at the four corners of the rectangle forming the light receiving pattern image. In FIG. 11,
さて、ここで、受光パターン像の光点の総数が、基準パターンの光点の総数未満の場合、以下のステップに進む。 Now, when the total number of light spots of the light receiving pattern image is less than the total number of light spots of the reference pattern, the process proceeds to the following steps.
(ステップB2)
まず、r0′、r1′、r2′、r3′の4点を結ぶ直線を表わす直線の式(3)を求める。
First, a straight line expression (3) representing a straight line connecting four points r0 ′, r1 ′, r2 ′, and r3 ′ is obtained.
そして、r0′r2′を結ぶ直線を直線506とし、r2′r1′を結ぶ直線を直線512とし、以下同様に、r1′r3′を結ぶ直線を直線508とし、r3′r0′を結ぶ直線を直線509とする。
A straight line connecting r0′r2 ′ is a
(ステップB3)
今、光点を(x,y)として、各々の直線の式に、受光パターンの光点のx座標を代入し、その結果得られるy座標の値(Y=lmn′(x))と、実際のy座標の値とを比較し、全ての光点を以下の3群に振り分ける。
(Step B3)
Now, assuming that the light spot is (x, y), the x coordinate of the light spot of the light receiving pattern is substituted for each straight line equation, and the y coordinate value (Y = lmn ′ (x)) obtained as a result is The actual y-coordinate value is compared, and all the light spots are assigned to the following three groups.
群1(直線上にあるもの)として、以下が成り立つ交点を選ぶ。
|y−Y|≦α(αは、位置検出素子の誤差相当の値)
群2(直線より下にあるもの)として、以下が成り立つ交点を選ぶ。
|y−Y|>α、かつ、y−Y>0
群3(直線より上にあるもの)として、以下が成り立つ交点を選ぶ。
|y−Y|>α、かつ、y−Y<0
ここで、群2の要素が空でなく、かつ、群3の要素が空でない直線を選択する。このようにして選択された直線の上下には光点が存在するので、当該直線は、受光パターン像を形成する矩形の辺となっていないということが分かる。
As group 1 (on a straight line), select an intersection where:
| Y−Y | ≦ α (α is a value corresponding to an error of the position detection element)
For group 2 (below the straight line), choose an intersection where:
| Y−Y |> α and y−Y> 0
For group 3 (above the straight line), select the intersection where:
| Y−Y |> α and y−Y <0
Here, a straight line is selected in which the elements of
図11に示す例では、直線512(光点507)が、群2の要素が空でなく、かつ、群3の要素が空でない直線となる。図11に示す例では、この段階で、正しい矩形の4隅の各2点が定まる。なお、正しい矩形とは、基準パターンの矩形に対応するパターン像の矩形をいう。
In the example shown in FIG. 11, the straight line 512 (light spot 507) is a straight line in which the elements of the
具体的には、群2の要素が空であり、かつ、群3の要素が空の直線をlmn′とする場合、ri′のうち、i≠n、かつ、i≠mである点が、正しい矩形の4隅の各2点となる。図11に示す例では、群2の要素が空であり、かつ、群3の要素が空の直線は、直線l21′であるから、正しい矩形の4隅の各2点の光点は、r0′及びr3′である。
Specifically, when the element of
なお、このステップで、このような直線が2本以上ある場合は、光点の欠損が多すぎてしまうため、この方法では、欠けた光点の補正は困難である。 In this step, if there are two or more such straight lines, there are too many missing light spots, and this method makes it difficult to correct the missing light spots.
(ステップB4)
次に、残った光点2点のうちから、正しい矩形の4隅の光点を選択する。
(Step B4)
Next, out of the remaining two light spots, the light spots at the four corners of the correct rectangle are selected.
残った2点のうち、どちらの点についても、以下の処理を行なう。 The following processing is performed for both of the remaining two points.
(ステップB4−1)
ステップB3において群2及び群3に振り分けられた光点のうち、正しい矩形の4隅の光点を含まない群を群gとする。また、ステップB3で選択された直線をlxとする。具体的には、図11に示す例では、直線lxは、直線512(光点507)である。
(Step B4-1)
Of the light spots assigned to
群gに含まれる光点のうち、直線lxから最も距離が離れた点を選択し、v0とする。そして、正しい矩形の4隅の点と仮定した点と、点v0とを結ぶ直線を求める。この直線をlv0とする。そして、直線lv0に対して、ステップB3において行った処理と同じ処理を行ない、群1、群2及び群3を求める。
Among the light spots included in the group g, a point that is the farthest from the straight line lx is selected and is set as v0. Then, a straight line connecting the point assumed to be the four corner points of the correct rectangle and the point v0 is obtained. Let this straight line be lv0. Then, the same processing as that performed in step B3 is performed on the straight line lv0, and
(ステップB4−2)
ここで、群2または群3に含まれる光点がなくなれば、直線lv0は、正しい矩形の辺を表わしている可能性があり、ここで処理を終了して、残りの光点についてステップB4−1から実行する。残りの光点がなければ、ステップB5に進む。
(Step B4-2)
Here, if there is no light spot included in
一方、群2及び群3がともに空ではない場合は、新たに直線lv0を直線lxとして、ステップB4−1から繰り返す。
On the other hand, when both the
(ステップB5)
さて、この場合、正しい矩形の辺の候補が2つ計算できる。このうち、それぞれの直線についての群1の要素数が多い方を正しい矩形の辺とする。
(Step B5)
In this case, two correct rectangular side candidates can be calculated. Of these, the side with the larger number of elements in
図11に示す例では、直線513及び直線512が正しい矩形の辺の候補として残る。このとき、直線513、直線512のそれぞれの群1の数(つまり、それぞれの直線上にある光点の数)は、2、3である。従って、直線512についての群1の要素数が、直線513についての群1の要素数より多いことから、直線512が正しい矩形の辺と分かる。また、正しい矩形の4隅ではなかった光点、つまり誤っていた光点は、r2′であることが分かる。
In the example illustrated in FIG. 11, the
(ステップB6)
残った正しい矩形の辺と、誤って4隅の点とされた光点を含む正しい矩形の辺との交点を求める。この交点が、正しい矩形の4隅の点の最後の1点である。図11に示す例では、残った正しい矩形の辺、すなわち、直線512と、誤って4隅の点とされた光点r2′を含む正しい矩形の辺、すなわち、直線506との交点である、光点505が求められる点となる。
(Step B6)
An intersection point between the remaining correct rectangular side and the correct rectangular side including the light spot which is erroneously set as the four corner points is obtained. This intersection is the last one of the four corner points of the correct rectangle. In the example shown in FIG. 11, this is the intersection of the remaining correct rectangular side, that is, the
[第3の方法]
最後に第3の方法について述べる。第3の方法は、第1の方法と第2の方法との中間的な方法である。第1の方法は、1点ずつ逐次的に投影し、それに対する受光パターンを求める。第2の方法は、全点を投影し、その後に全点の受光パターンを求める。第3の方法は、全点ではない複数の点を同時に投影し、その受光パターンを求める。
[Third method]
Finally, the third method will be described. The third method is an intermediate method between the first method and the second method. The first method sequentially projects one point at a time and obtains a light receiving pattern for the projection. In the second method, all the points are projected, and then the light receiving pattern of all the points is obtained. In the third method, a plurality of points that are not all points are projected simultaneously, and the light reception pattern is obtained.
同時に投影する複数の点の数は、パターン受光解析部103が同時に位置検出できる光点数以下とする。例えば、パターン受光解析部103が同時に位置検出できる光点数が4点までの場合、投影する光点は同時に4点以下とする。この場合には、d[0,0]、d[0,6]、d[0,8]、d[6,8]の光点、つまり、基準パターンの4隅の点を投影する。
The number of a plurality of points to be projected simultaneously is set to be equal to or less than the number of light points that the pattern light receiving
ここで、投影した4点に対する受光パターンの光点がそのまま得られれば、基準パターンから受光パターンへの写像が求められるので、写像が求まった後に、4隅の光点以外で、基準パターンの光点と受光パターンの光点との対応関係を求める。なお、写像の求め方および写像が求まった後の基準パターンの光点と受光パターンの光点との対応関係の求め方については後述する。 Here, if the light spots of the light receiving pattern with respect to the projected four points are obtained as they are, a mapping from the reference pattern to the light receiving pattern is obtained. Therefore, after the mapping is obtained, the light of the reference pattern other than the light spots at the four corners is obtained. The correspondence between the points and the light spots of the light receiving pattern is obtained. A method for obtaining the mapping and a method for obtaining the correspondence between the light spot of the reference pattern after the mapping is obtained and the light spot of the light receiving pattern will be described later.
もし、基準パターンの矩形の4隅の点のうち欠けた光点があるなら、基準パターンの欠けた光点の周囲の点を投影して、受光パターン像が得られるかどうかを確かめる。例えば、基準パターンのd[0,0]に対する周囲の点とは、d[1,0]、d[0,1]又はd[1,1]である。周囲の点としてどの点を選択するかについては、ランダムでもよいし、適当な規則にしたがってもよい。例えば、図12には、d[0,0]から始まって、d[0,3]までの順序を矢印で示してある。もし、d[0,0]に対する受光パターン像が得られない場合は、例えば、図12中の矢印の順序で基準パターンの光点1点を投影して、受光パターン像が得られるまで繰り返せばよい。 If there are missing light spots among the four corner points of the rectangle of the reference pattern, the surrounding points of the light spots lacking the reference pattern are projected to check whether a light receiving pattern image can be obtained. For example, the surrounding points for d [0, 0] of the reference pattern are d [1, 0], d [0, 1], or d [1, 1]. The points to be selected as the surrounding points may be random or may follow an appropriate rule. For example, in FIG. 12, the order from d [0, 0] to d [0, 3] is indicated by arrows. If a light reception pattern image for d [0, 0] cannot be obtained, for example, one light spot of the reference pattern is projected in the order of the arrows in FIG. 12, and the process is repeated until a light reception pattern image is obtained. Good.
以上で、欠けた光点を見つけだし、その受光パターン像上の位置を推定する方法についての説明を終える。 The description of the method for finding the missing light spot and estimating the position on the received light pattern image is completed.
[写像]
次に、基準パターンから受光パターンへの写像を求める方法について説明する。
[Mapping]
Next, a method for obtaining a mapping from the reference pattern to the light receiving pattern will be described.
投影面120が平面の場合には、基準パターンd上の点d(x,y)から受光パターンr上の点r(X,Y)への写像は、射影変換となる。射影変換の場合、その写像は、式(4)及び式(5)と表わすことができる。
式(4)及び式(5)において、係数a0、a1、a2、b0,b1、b2、及び定数c0、c1、c2が、この写像、すなわち、射影変換の写像パラメータとなる。そして、この9つの写像パラメータを算出するには、写像の元側である基準パターンd上の少なくとも4つの光点が、受光パターンr上のどの光点に対応しているのか分かればよい。 In the equations (4) and (5), the coefficients a 0, a 1 , a 2 , b 0, b 1 , b 2 and the constants c 0, c 1 , c 2 are the mapping, that is, the projective transformation. This is a mapping parameter. In order to calculate these nine mapping parameters, it is only necessary to know which light spots on the light receiving pattern r correspond to at least four light spots on the reference pattern d which is the original side of the mapping.
ここではまず、この4つの点として、基準パターン及び受光パターンを形成する矩形の頂点、すなわち、d[0,0]、d[0,6]、d[8,0]、d[8,6]及びr[0,0]、r[0,6]、r[8,0]、r[8,6]を選択する。これらの点を選択したのは、写像をなるべく大きな領域で計算する方が、より良好な精度で得られるからである。図10は、これらの点の対応関係を示している。 First, as these four points, rectangular vertices forming the reference pattern and the light receiving pattern, that is, d [0, 0], d [0, 6], d [8, 0], d [8, 6 ] And r [0, 0], r [0, 6], r [8, 0], r [8, 6]. These points are selected because it is possible to obtain a better accuracy by calculating the map in as large a region as possible. FIG. 10 shows the correspondence between these points.
そして、d[i,j]=(Xi,yi)、r[i,j]=(xi,yi)とし、(Xi,yi,xi,yi)を、式(4)及び式(5)の(X,Y,x,y)に代入し、連立法定式を解くことにより、写像パラメータa0、a1、a2、b0、b1、b2、c0、c1、c2が定まる。 Then, d [i, j] = (Xi, yi) and r [i, j] = (xi, yi) are set, and (Xi, yi, xi, yi) is expressed by the equations (4) and (5). Substituting into (X, Y, x, y) and solving the simultaneous formula, the mapping parameters a 0 , a 1 , a 2 , b 0 , b 1 , b 2 , c 0 , c 1 , c 2 are Determined.
図13は、この写像の例を模式的に示した図である。図13Aは、元の映像であり、図13Bは、図13Aに対し写像変換された映像である。 FIG. 13 is a diagram schematically showing an example of this mapping. FIG. 13A is an original image, and FIG. 13B is an image obtained by mapping conversion with respect to FIG. 13A.
このようにして、写像が決定されると、写像パラメータ決定に用いた矩形の4隅の光点以外の点の対応関係をも決定することができる。いま写像をWとし、d[i,j]に対し射影変換を行った結果(xdi,ydi)を得るとする。 When the mapping is determined in this way, the correspondence between points other than the light points at the four corners of the rectangle used for determining the mapping parameter can also be determined. Assume that the mapping is W and the result (xdi, ydi) of projective transformation on d [i, j] is obtained.
(xdi,ydi)=W(d[i,j])
ここで、dist(p1,p2)を、点p1と点p2との距離を算出する関数とする。なお、p1、p2は、点の座標を示す。
(Xdi, ydi) = W (d [i, j])
Here, dist (p1, p2) is a function for calculating the distance between the points p1 and p2. In addition, p1 and p2 show the coordinate of a point.
このとき、式(6)を満たす受光パターン上の点(X,Y)が存在すると、その点は、d[i,j]に対応する点、すなわちr[i,j]である。
そして、全ての受光パターンの光点について、対応するr[i,j]が判明したところで、つまり、図8の対応表の網掛け部分に観測できた受光パターンの光点を入力し終わったところで、パターン比較部104は動作を一旦終了する。なお、この対応表は、パターン受光解析部103に記録され、後の過程で利用されることになる。
Then, when the corresponding r [i, j] is found for the light spots of all the light receiving patterns, that is, when the light spots of the light receiving patterns that can be observed in the shaded portion of the correspondence table of FIG. The
ここで、パターン投影部102、パターン受光解析部103、パターン比較部104及び位置歪み補正部106の動作は、比較的複雑な処理であったため、図14及び図15にフローチャートとしてまとめておく。
Here, since the operations of the
図14のフローチャートは、基準パターンの光点のうち、1つずつ投影する第1の方法でのパターン投影部102、パターン受光解析部103及びの動作を示す。これに対して、図15のフローチャートは、基準パターンの光点のうち、2つ以上の光点を同時に投影する第3の方法でのパターン投影部102、パターン受光解析部103及びパターン比較部104の動作を示す。
The flowchart of FIG. 14 shows the operations of the
第1の方法から第3の方法のいずれの方法も、最終的には、図8に示したような、各基準パターンの光点とそれに対する受光パターンの光点との対応表が生成され、生成された対応表に基づいて、補正管理部105は、位置歪み補正、画像分割補正又は色彩補正が必要か否か判断する。
In any of the first method to the third method, finally, a correspondence table between the light spots of the respective reference patterns and the light spots of the light receiving pattern corresponding thereto is generated as shown in FIG. Based on the generated correspondence table, the
次に、補正管理部105における、各種補正が必要か否かの判断方法について説明する。
Next, a method for determining whether various corrections are necessary in the
まず、補正管理部105は、図8に示したような、基準パターンの光点と受光パターンの光点との対応表を確認する。ここで、基準パターンの光点の位置と、当該基準パターンの光点に対応する受光パターンの光点の位置とが異なる場合、補正管理部105は、位置歪み補正が必要と判断する。
First, the
また、全ての基準パターンの光点に対して、受光パターンの光点が存在するならば、投影面120には、反射率が低く投影に適さない領域がなかったと推測できる。すなわち、全ての基準パターンの光点に対応する受光パターンの光点が存在する場合、補正管理部105は、画面分割補正が不要と判断する。この場合、補正管理部105は、色彩補正のためのパターン比較動作を行う。色彩補正のためのパターン比較動作については、後程説明する。
Further, if there are light spots of the light receiving pattern for all the light spots of the reference pattern, it can be estimated that there is no region on the projection surface 120 that has a low reflectance and is not suitable for projection. That is, when there are light spots of the light receiving patterns corresponding to the light spots of all the reference patterns, the
一方、ある基準パターンの光点に対して、受光パターンの光点が欠損していた場合は、どうなるであろうか。 On the other hand, what happens if the light spot of the light receiving pattern is missing with respect to the light spot of a certain reference pattern?
単純な2つの例を用いて、受光パターンの光点が欠損した時の補正管理部105の動作の概略について説明する。その後に、一般的な動作について説明する。
An outline of the operation of the
図16に1つ目の単純な例の受光パターン像を模式的に示す。受光パターン像は、実際には長方形に見えるとは限らない。しかし、この時点で基準パターンから受光パターンへの写像は決定しているはずであるので、従って、図16は、得られた受光パターン像に、得られた写像の逆写像を施したものと考えて欲しい。 FIG. 16 schematically shows a light receiving pattern image of the first simple example. The light reception pattern image does not always look rectangular. However, since the mapping from the reference pattern to the light receiving pattern should have been determined at this time, therefore, FIG. I want you.
図16において、受光パターン600上の斜線領域601に含まれる光点は欠損している。例えば、璧に黒い色の柱がある場合、その領域に投影した基準パターンの光点が欠損してしまう。なお、図16では、本来ならあるべき光点を白丸で示している。
In FIG. 16, the light spot included in the hatched
さて、補正管理部105は、受光パターン600と元の基準パターン(図3)との比較から、光点が欠損している領域がある場合、画面補正分割が必要と判断する。補正管理部105は、全ての基準パターンの光点に対応する受光パターンの光点が存在しない場合、画面補正分割が必要と判断する。そして、補正管理部105は、光点が欠損している領域を大きく見積もって、反射率が低く投影面として適さない領域(以下「低反射領域」という)を検出する。例えば、図16に示す例では、補正管理部105は、領域602を低反射領域として検出する。
Now, from the comparison between the
次に、補正管理部105は、配下の位置歪み補正部106、色彩補正部108、及び、画面分割補正部107を動作させ、各補正パラメータを得る。各々の補正部の出力は、いずれもある画面から画面への写像を行う補正パラメータである。これら3つの補正部の起動順序はどれでもよく、また並列に動作してもよい。
Next, the
位置歪み補正部106は、基準パターンdから受光パターンrへの写像Wを用いて、位置歪み用補正パラメータを生成する。写像Wは、既にパターン比較部104が算出した、基準パターンから受光パターンへの写像である。
The positional
色彩補正部108は、色彩(色相、彩度、明度)を補正する色彩用補正パラメータを生成する。具体的には、色彩補正部108は、元画面の画素の色明度輝度から補正画面上の同一領域の画素の色明度輝度への補正を行う写像Uを生成する。なお、色彩補正についての詳細は、後述する。色彩補正部108は、写像Uを出力する。
The
画面分割補正部107は、投影する画面を分割して、さらに、低反射領域602を避けて投影するように画面を補正する写像Vを生成する。図17の具体例を用いて、画面分割補正について説明する。
The screen
[画面分割補正]
まず、画面分割補正部107は、投影画面を低反射領域700の中心線によって分割し、さらにその分割された画面を低反射領域700にかからないように縮小させる。図17に示す例では、画面分割補正部107は、2つに分割された画面のうち、向って左側の画面の領域701を、領域702まで縮小させる。同様に、画面分割補正部107は、右側の画面の領域703を、低反射領域700を避けるように、領域704まで縮小させる。
[Screen division correction]
First, the screen
そして、画面分割補正部107は、元の画面(基準パターン)から分割縮小させた画面への写像Vを算出する。
Then, the screen
図18に、この写像Vを模式的に示す。なお、図18は、図13Aに示した画像を元画像とした例である。作図の都合上、図中の白部分が実際の画像では暗い部分を示し、図中の黒部分が実際の画像では明るい部分を示している。元画像(図13A)に写像Vを施すことにより、図18に示すように、低反射領域800を避けて、元画像が領域801及び領域802に表示される。
FIG. 18 schematically shows this mapping V. FIG. 18 is an example in which the image shown in FIG. 13A is an original image. For the convenience of drawing, the white part in the figure indicates a dark part in the actual image, and the black part in the figure indicates a bright part in the actual image. By applying the mapping V to the original image (FIG. 13A), the original image is displayed in the
そして、補正管理部105は、以上の写像W,U,Vを統合して、補正写像Hを得る。補正写像Hは、元画像(g)から投影すべき画像(G)への写像であり、補正写像Hと、各写像W,U,Vとの間には、以下の式(7)の関係がある。
図19に、補正写像Hを模式的に示す。なお、写像Uは色彩補正のための写像であり、図面では表現しにくいため、図19に示す例では、写像Uは何もしないとする。まず、図19Bは、図19Aのパターンに対し写像Vを用いて画面分割補正を行った結果であり、図19Cは、図19Aのパターンに対し写像Wを用いて位置歪み補正を行った結果である。 FIG. 19 schematically shows the correction map H. Note that the mapping U is a mapping for color correction, and is difficult to express in the drawing. Therefore, in the example shown in FIG. 19, it is assumed that the mapping U does nothing. First, FIG. 19B is a result of performing screen division correction on the pattern of FIG. 19A using the mapping V, and FIG. 19C is a result of performing positional distortion correction on the pattern of FIG. 19A using the mapping W. is there.
補正管理部105は、式(7)に示す補正写像Hを補正部109に出力する。
The
補正部109は、補正写像Hの写像パラメータを用いて、投影部110が投影する映像を変換し、映像投影部110は、変換後の映像を投影する。この結果、ユーザの視点からは、全ての映像を歪みが少ない形で見ることができる。
The
図20に2つ目の単純な例の受光パターン像を模式的に示す。図20に示す例は、投影面に十字形の低反射領域900がある場合の例である。図20に示すように、投影面に十字形の低反射領域900がある場合、画面分割補正部107は、画面を4分割する。そして、画面分割補正部107は、各々の分割された画面が低反射領域900にかからないように各画面を縮小させる。図21には、画面分割及び画面縮小の様子を示す。図21に示す例では、4分割された領域のうち、左上の領域901は、領域902に縮小される。この結果、元画面(図13A)に示した画像は、図22のように分割表示されることになる。
FIG. 20 schematically shows a light receiving pattern image of the second simple example. The example shown in FIG. 20 is an example when there is a cross-shaped
以上、単純な2つの例を用いて、受光パターンの光点が欠損した時のパターン比較部104及び補正管理部105の動作の概略について説明した。
The outline of the operations of the
最後に一般的な例を示す。 Finally, a general example is shown.
図23において、領域1000は、受光パターンに写像Wの逆写像を施した光点群を示し、低反射領域1001が領域1000の上を横切り、いくつかの光点の欠損がある様子を示している。図23において、欠損した光点は白丸で示している。
In FIG. 23, an
まず、欠損領域1001にかからないような画面を決めるために、矩形ABFEの上辺AEと下辺BF上の光点を左から見ていき、欠損領域1001に入る最後の点(D′及びC′)と、欠損領域1001から抜けでた点(E′、F′)を求める。すなわち、点C′、D′、E′、F′は、欠損領域1001に含まれない光点のうち、欠損領域1001に最も近い矩形の上辺又は下辺上の光点である。
First, in order to determine a screen that does not cover the
そして、D′E′及びC′F′の中点を求め、それぞれD、Cとする。 Then, the midpoints of D′ E ′ and C′F ′ are obtained and set as D and C, respectively.
ここで、画面分割をするための分割線は、DCとなる。そして、DCが表す直線の式をy=Ldc(x)とし、矩形ABCDをABC′D′へ変換する射影変換をV1とし、矩形DCFHからE′F′FEへ変換する射影変換をV2とすると、求める写像Vは、(x,y)を(X,Y)に変換する。
V:(x,y)→(X,Y)
Here, the dividing line for dividing the screen is DC. A straight line expression represented by DC is y = Ldc (x), a projective transformation for transforming the rectangle ABCD to ABC′D ′ is V1, and a projective transform for transforming the rectangle DCFH to E′F′FE is V2. The mapping V to be obtained converts (x, y) to (X, Y).
V: (x, y) → (X, Y)
ただし、
Ldc(x)≦0の場合 Vは、V1
Ldc(x)>0の場合 Vは、V2
とする。
However,
When Ldc (x) ≦ 0 V is V1
When Ldc (x)> 0 V is V2
And
この変換の一部(V1)を模式的に示したのが、図24である。画面ABFEのうち、矩形ABCDの領域、すなわち、Ldc(x)≦0の領域は、矩形ABC′D′に移される。この変換Vによれば、例えば、図13Aの映像は、図25に示した図のように分割変形されることになる。 FIG. 24 schematically shows a part (V1) of this conversion. Of the screen ABFE, the area of the rectangle ABCD, that is, the area of Ldc (x) ≦ 0 is moved to the rectangle ABC′D ′. According to this conversion V, for example, the video in FIG. 13A is divided and deformed as shown in FIG.
この分割変換は、欠損領域1001が十字形の場合、さらに図26のように縦横複数に分割された場合にも同様に処理できる。図26の場合は、垂直方向(Y軸に平行な方向)に3分割、水平方向(X軸に平行な方向)に2分割され、それぞれ反射率の高い領域へ縮小表示されることとなる。
This division conversion can be processed in the same way even when the
また、低反射領域が、図27に示すように台形型の場合も同様に処理可能である。この場合も同様に、図28に示すように、分割(直線CDで分割)及び変形(写像の一部として、矩形ABCDからABC′D′、右半分の写像は略)させる写像Vが算出される。 Further, when the low reflection region is trapezoidal as shown in FIG. Similarly in this case, as shown in FIG. 28, a map V to be divided (divided by a straight line CD) and deformed (rectangle ABCD to ABC′D ′, and the right half of the map is omitted as part of the map) is calculated. The
以上で、画面分割補正部107の動作の説明を終える。
This is the end of the description of the operation of the screen
[色彩補正]
次に、色彩補正に関して述べる。
[Color correction]
Next, color correction will be described.
色紙補正の場合も、基準パターンを投影して、受光パターンを取得し、基準パターンと受光パターンとを比較して、比較結果に基づいて、補正パラメータを算出するという基本的な枠組は、他の補正と同一である。しかし、色彩補正では、位置歪み補正及び画面分割補正に用いる基準パターンとは、異なる基準パターンを用いた方がより適切な写像Uが得られる。そこで、以下では、別の基準パターンを用いる方法について説明する。 In the case of colored paper correction, the basic framework of projecting a reference pattern, obtaining a light receiving pattern, comparing the reference pattern and the light receiving pattern, and calculating a correction parameter based on the comparison result is the other framework. Same as correction. However, in color correction, a more appropriate mapping U can be obtained by using a different reference pattern from the reference pattern used for position distortion correction and screen division correction. Therefore, a method using another reference pattern will be described below.
図29に、色彩用補正の基準パターンを示す。なお、図29には、矩形が描かれているだけである。色彩用補正の基準パターンは、画面一杯の白画素からなるパターンである。つまり、各画素を各色8ビットのRGB表現を使って表現するなら、基準パターンは、縦960ピクセル、横1280画素分の画面上の全ての点がRGB(255、255、255)であるような、パターン(映像)となる。 FIG. 29 shows a reference pattern for color correction. In FIG. 29, only a rectangle is drawn. The reference pattern for color correction is a pattern composed of white pixels that fill the screen. In other words, if each pixel is expressed using an RGB representation of 8 bits for each color, the reference pattern is such that all the points on the screen for 960 pixels vertically and 1280 pixels horizontally are RGB (255, 255, 255). , Pattern (video).
なお、上述の基準パターンは、作図上の都合、黒白反転(輝度反転)させて表現していたのに対し、同様に作図上の都合、この色彩用補正の基準パターン1100の表示は、黒白反転は行なわずに表現する。また、縦横の画素数は、説明のための例であって、プロジェクタの性能等により、変化させてよい。
The above-described reference pattern is expressed by black and white reversal (luminance reversal) for the convenience of drawing, whereas the display of the
この基準パターン1100は、図3に示した基準パターン像200に対する位置歪み補正又は画面分割補正のための動作が終了した「直後」に、補正管理部105の全体制御のもとに、パターン投影部102から投影される。投影面120と、パターン投影部102及びパターン受光解析部103との空間的位置関係は、時間とともに変化する可能性があるため、位置歪み補正又は画面分割補正のための動作が終了した「直後」である必要がある。
This
位置歪み補正又は画面分割補正のための動作が終了してから、パターン投影部102が基準パターン1100を投影するまでの時間的間隔は、短ければ短い程よい。さらに、可能であれば、パターン投影部102及びパターン受光解析部103をそれぞれ二重にして、一方を、基準パターン像200の投影及び受光解析に用い、他方を基準パターン1100の投影及び受光解析専用にするよう構成するのが好ましい。
The shorter the time interval from the end of the operation for position distortion correction or screen division correction until the
なお、基準パターン像200を用いて位置歪み補正及び画面分割補正を行う場合には、パターン受光解析部103の受光部には、上述したように、何らかの位置検出素子を使うことが望ましい。一方、基準パターン1100を用いて色彩補正を行う場合には、パターン受光解析部103の受光部として通常のカメラを用いることになるため、位置歪み補正及び画面分割補正に加えて色彩補正を行なう場合には、少なくともパターン受光部を二重構成にする必要がある。
In the case of performing position distortion correction and screen division correction using the reference pattern image 200, it is desirable to use some position detection element for the light receiving unit of the pattern light receiving
ただし、この二重構成は、必須というわけではない。つまり、位置歪み補正及び画面分割補正を行う際に、受光部に位置検出素子が望ましいというのは、位置検出素子が比較的安価で、かつ、高速正確に光点の位置を検出できるからである。したがって、通常のカメラで受光し、受光イメージ像から画像解析により、同様の受光解析を行うことも可能である。この場合、パターン受光解析部103の受光部は、通常のCMOS(Complementary Metal Oxide Semiconductor)或いはCCD(Charge Coupled Device)カメラで構成することができる。
However, this dual configuration is not essential. That is, when performing position distortion correction and screen division correction, the position detection element is desirable for the light receiving unit because the position detection element is relatively inexpensive and can detect the position of the light spot accurately at high speed. . Therefore, the same light reception analysis can be performed by receiving light with a normal camera and performing image analysis from the received light image. In this case, the light receiving unit of the pattern light receiving
ただし、位置検出素子では、光点の位置検出をハードウエアが行うのに対し、CMOS又はCCDカメラを用いる場合には、光点の位置検出をソフトウエア処理することになる。ソフトウエア処理で、位置検出を位置検出素子並に高速に行うためには、比較的高速のCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)が必要となり、装置が高価とならざるを得ない。 However, in the position detection element, the position of the light spot is detected by hardware, whereas when a CMOS or CCD camera is used, the position detection of the light spot is processed by software. In order to perform position detection as fast as the position detection element by software processing, a relatively high speed CPU (Central Processing Unit) or GPU (Graphics Processing Unit) is required, and the apparatus must be expensive. .
ここで、位置歪み補正及び画面分割補正と、色彩補正との双方の処理を、ともに位置検出素子を使って行うことは、簡単ではないと言える。何故なら、位置検出素子では、ある輝度以上の光点の位置を算出するだけであり、輝度の判断は困難である。そのため、位置検出素子を用いるだけでは、色彩補正を行うために最低限必要な、該当投影面の反射率の情報を算出することが困難となる。 Here, it can be said that it is not easy to perform both the positional distortion correction, the screen division correction, and the color correction using the position detection element. This is because the position detection element only calculates the position of a light spot having a certain luminance or higher, and it is difficult to determine the luminance. For this reason, it is difficult to calculate information on the reflectance of the projection plane, which is the minimum necessary for performing color correction, only by using the position detection element.
さて、色彩補正の説明に話を戻す。 Now, let's return to the explanation of color correction.
パターン投影部102が基準パターン1100を投影した直後、パターン受光解析部103は、投影面に投影された映像を受光し、受光パターンを得る。図30は、得られた受光パターンを、先の基準パターン像200の受光解析時に得られた写像Vの逆写像で変換した受光パターン像である。念のためにいえば、逆写像で変換する前の受光パターン像は、図31Dの形のように歪んでいるはずである。既に写像Vが得られているために、パターン受光解析部103は、新たに写像Vを計算する必要はない。また写像Vは、基準パターン上の光点と、受光パターン上の光点との対応関係そのものであるから、図8に示したような対応表を新たに作る必要もない。そのため、この時点で、パターン受像解析部103の動作は終了する。
Immediately after the
次に、パターン比較部104が動作を開始する。同様に、写像Vは既に算出済みであり、基準パターンと受光のパターンとの比較も受光パターン像の逆写像の像(図29の1200)を算出した時点で動作を終了する。
Next, the
次に、補正管理部105が動作を開始する。
Next, the
ここで、補正管理部105は、色彩補正部108を起動し、色彩補正部108に色彩用補正パラメータを計算させる。
Here, the
いま、図30で示すように、受光パターン像の写像Vの逆写像の像1200に、黒い領域1201、及び、灰色領域1202、1203が観察されたとする。なお、その他の領域は、白であるとする。
Now, as shown in FIG. 30, it is assumed that a
さて、先に説明したように、色彩用補正の基準パターンは、画面一杯の白画素からなるパターンである。したがって、基準パターンの光点d[i,j](0≦i≦1280,0≦j≦960)を、RGB表現で表すと、いずれもRGB(255、255、255)となる。このとき、受光パターン1200の光点r[i,j]に関して、以下のような値が得られているとする。
As described above, the reference pattern for color correction is a pattern composed of white pixels that fill the screen. Therefore, when the light spot d [i, j] (0 ≦ i ≦ 1280, 0 ≦ j ≦ 960) of the reference pattern is expressed in RGB, all are RGB (255, 255, 255). At this time, it is assumed that the following values are obtained for the light spot r [i, j] of the
(1)領域1201上の点は、RGB(1、1、1)
(2)領域1202、1203上の点は、RGB(127、127、127)
(3)それ以外の点は、RGB(255、255、255)
色或いは明度むらを補正するためには、R、G、Bの各色において反射率が弱い点に関して、反射率の弱さを補うように、強い光を投影してやればよい。
(1) The points on the
(2) The points on the
(3) Other points are RGB (255, 255, 255)
In order to correct the color or brightness unevenness, it is only necessary to project strong light so as to compensate for the weak reflectivity of the R, G, and B colors where the reflectivity is weak.
つまり、基準パターンの光点(画素)d[i,j]及び受光パターンの光点(画素)r[i,j]をそれぞれ、RGB表現で、RGBd[i,j](r、g、b)及びRGBr[i,j](r′、g′、b′)と表現した場合、各点の反射率は、refrect[i,j](r′/r、g′/g、b′/b)となる。 That is, the light spot (pixel) d [i, j] of the reference pattern and the light spot (pixel) r [i, j] of the light receiving pattern are expressed in RGB representation as RGBd [i, j] (r, g, b), respectively. ) And RGBr [i, j] (r ′, g ′, b ′), the reflectance of each point is reflected [i, j] (r ′ / r, g ′ / g, b ′ / b).
そこで、色彩補正をするためには、投影すべき映像の各画素[i,j]に対して、それぞれR、G、Bの強度を、r/r′倍、g/g′倍、b/b′倍してやればよい。基本的に、この全ての点に関して、それぞれのRGB値に乗算すべき倍係数が色彩用補正パラメータであり、色彩補正部108が算出する写像Uである。
Therefore, in order to perform color correction, for each pixel [i, j] of the image to be projected, the intensities of R, G, B are respectively r / r ′ times, g / g ′ times, b / What is necessary is just to multiply by b '. Basically, for all of these points, the multiplication factor to be multiplied by the respective RGB values is the color correction parameter, and is the mapping U calculated by the
つまり、投影すべき映像上の点(i,j)に関して、RGBそれぞれの倍係数(Ar、Ag、Ab)を決定してやればよい。ここで、Arは、R(赤)の光の強度を増す係数であり、AgはG(緑)の強度を増す係数であり、AbはB(青)の強度を増す係数である。 That is, it is only necessary to determine the respective RGB multiplication factors (Ar, Ag, Ab) for the point (i, j) on the image to be projected. Here, Ar is a coefficient that increases the intensity of R (red) light, Ag is a coefficient that increases the intensity of G (green), and Ab is a coefficient that increases the intensity of B (blue).
したがって、領域1201に関しては、RGB各色とも255倍(Ar、Ag、Ab)=(255、255、255)とし、領域1202と1203に関しては、RGB各色とも2倍の(Ar、Ag、Ab)=(2、2、2)とし、それ以外の領域については、(Ar、Ag、Ab)=(1、1、1)、すなわち、何もしないとすればよい。
Therefore, regarding the
ただし、実際には、現在の映像投影装置の場合、通常は光源に対して映像を表示した液晶等の表示部で減算して画面投影を行なう。そのため、通常の白色光より明るい白色を投影面に表示するのは困難であるため、全ての場合において色彩補正は、困難となる。 However, in actuality, in the case of the current video projection apparatus, the screen projection is usually performed by subtracting with a display unit such as a liquid crystal that displays the video with respect to the light source. For this reason, since it is difficult to display white light brighter than normal white light on the projection surface, color correction is difficult in all cases.
例えば、領域1201の反射率がほぼ0の場合、事実上、色彩補正は困難であるため、この領域1201の補正は、画像分割補正に任せることが考えられる。つまり、反射率がある閾値より小さい領域については、色彩補正を行なわないのがよい。
For example, when the reflectance of the
そして、この閾値は、画面分割補正との関係で決めることが望ましい。つまり、画面分割補正が働き始める反射率を、この閾値とすればよい。この値は、画面分割補正及び位置歪み補正に用いられるパターン受光解析部103の位置検出素子が反応できる光点の明度に関連して決定することができる。
This threshold value is preferably determined in relation to the screen division correction. That is, the reflectance at which the screen division correction starts to work may be set as this threshold value. This value can be determined in relation to the brightness of the light spot that can be reacted by the position detection element of the pattern light receiving
また、反射率が閾値以上の点であっても、ある一定の光度以下でない場合は、投影困難であるという事情から、例えば、領域1202及び領域1203に関しては、白色(RGB(255、255、255))を再現するのは困難である。つまり、最大光度の光RGB(255、255、255)を投影しても、RGB(127、127、127)の灰色の再現となるからである。
In addition, even if the reflectance is not less than a certain threshold, projection is difficult when the reflectance is not less than a certain value. For example, regarding the
そのため、なるべく多くの点で色或いは明度むらの補正を行なうようにするには、(Ar、Ag、Ab)の各係数にある適当な係数定数α(0<α<1)をかけて、全体の光度を圧縮する等の処理やガンマ補正のような非線形の補正をさらに行なえばよい。ただし、いずれの方法でも、映像投影装置としての全体のコントラスト又は明度が下がることになるので、補正の自然さと画面の明るさ又はコントラストとのトレードオフでこれら係数α等を決定していく必要がある。 Therefore, in order to correct the color or brightness unevenness at as many points as possible, the entire coefficient is multiplied by an appropriate coefficient constant α (0 <α <1) for each coefficient of (Ar, Ag, Ab). Processing such as compressing the intensity of light and non-linear correction such as gamma correction may be further performed. However, in any method, the overall contrast or brightness of the image projection apparatus is lowered, so it is necessary to determine these coefficients α and the like by a trade-off between the naturalness of correction and the brightness or contrast of the screen. is there.
また、さらに、投影面120の反射率は、光点の明度との関係で線形になるとは限らないので、補正できる範囲内においても、実際には微調整が必要となる場合がある。 Furthermore, since the reflectance of the projection surface 120 is not always linear in relation to the lightness of the light spot, fine adjustment may actually be required even within a correctable range.
以上で、3つの各補正部の動作の説明を終える。 This is the end of the description of the operation of each of the three correction units.
図31に、これら補正部が算出した補正結果の組合せの例を示す。図31は、投影面120の中央に、例えば黒い柱等の低反射領域があり、また投影面の下部が、灰色で色が塗られており、ユーザは、映像投影装置を自分の左足あたりに置き、立って投影面を見ているような状況における補正結果の例を示している。 FIG. 31 shows an example of combinations of correction results calculated by these correction units. In FIG. 31, there is a low reflection region such as a black column in the center of the projection surface 120, and the lower portion of the projection surface is colored in gray, so that the user can place the video projection device around his left foot. An example of the correction result in a situation where the user is standing and looking at the projection surface is shown.
図31Aは、ユーザに提示したい画像である。作図の都合上、白黒反転画像となっていることを留意して欲しい。まず、この画像には、画面分割補正(写像V)が施される。その結果、図31Bが得られる。 FIG. 31A is an image to be presented to the user. Please note that it is a black-and-white inverted image for the sake of drawing. First, this image is subjected to screen division correction (mapping V). As a result, FIG. 31B is obtained.
次に、色彩補正(写像U)が施されると、図31Cが得られる。これは、全体の光度圧縮の補正係数αを0.5とした場合で、投影面の白色領域に対する投影光は全体として半分に弱められる(図31Cの灰色の領域)。一方、投影面の灰色の領域に関しては(投影面の下部)、2倍の強度になるところ、光度圧縮の補正係数として0.5がかけられて、結果としてそのままの光度で投影される。 Next, when color correction (mapping U) is performed, FIG. 31C is obtained. This is a case where the correction coefficient α for the entire light intensity compression is set to 0.5, and the projection light with respect to the white area on the projection surface is weakened by half as a whole (gray area in FIG. 31C). On the other hand, regarding the gray area of the projection plane (lower part of the projection plane), when the intensity is doubled, 0.5 is applied as a correction coefficient for luminous intensity compression, and as a result, the projection is performed with the same luminous intensity.
そして、最後に、位置歪み補正(写像W)が行なわれ、この結果図31Dを得る。 Finally, positional distortion correction (mapping W) is performed, and as a result, FIG. 31D is obtained.
以上のように、本実施の形態では、パターン比較部104は、投影された基準パターンを受像して得られる受光パターンと、基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、基準パターンから受光パターンへの写像Wを算出し、補正管理部105は、基準パターンと受光パターンとの構成要素間の対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、判断結果に応じて、位置歪み補正部106及び画面分割補正部107を動作させる。位置歪み補正部106は、写像Wに応じた位置歪み用補正パラメータを生成し、画面分割補正部107は、当該対応関係に基づいて、受光パターンのうち、基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、低反射領域以外の領域に映像が投影されるよう、映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、写像Vに応じて画像分割用補正パラメータを生成する。補正部109は、位置歪み用補正パラメータ又は画面分割用補正パラメータを用いて、映像コンテンツを補正し、映像投影部110は、補正された映像コンテンツを投影する。これにより、投影映像の歪みを補正し、また、投影面に柱や素材の違う面等の反射率が低い帯状の領域が存在するような場合においても、残された投影に適した領域を効率よく使うことで、見易い画像を投影することができる。
As described above, in the present embodiment, the
なお、以下に、これら写像の補正パラメータの算出頻度について説明する。位置歪み補正又は画面分割補正の場合、パターン投影部102は、基準パターンの投影を、人間には不可視の赤外光等を利用して行なうことも可能である。また、人間には不可視の赤外線等を利用する場合、映像の投影と並行して、随時補正パラメータの算出を行なうことが可能である。したがって、この場合には、映像投影装置100を例えば手持ちした場合のように、映像投影装置と投影面との位置関係が時間的に変化するような場合においても、リアルタイムで、位置歪み補正及び画面分割補正が可能となる。
Hereinafter, the calculation frequency of the correction parameters for these mappings will be described. In the case of positional distortion correction or screen division correction, the
色彩補正に関しては、実際に可視光で投影面を照らさない限り、正確な色彩用補正パラメータの算出が困難である。そのため、補正のために投影する基準パターンがユーザに知覚されてしまい、完全にユーザに気付かれない状況で色彩用補正パラメータを算出するのは難しい。 With respect to color correction, it is difficult to accurately calculate color correction parameters unless the projection surface is actually illuminated with visible light. For this reason, it is difficult to calculate the color correction parameter in a situation in which the reference pattern projected for correction is perceived by the user and is not completely noticed by the user.
このため、1つの解決策としては、映像投影装置100に、何らかの振動センサ又は3次元の位置センサを搭載し、映像投影装置100の位置が変更された場合にだけ、補正動作の実行を行なうことで、補正動作の起動を最小限に抑えることが考えらえる。 For this reason, as one solution, the image projection apparatus 100 is mounted with some vibration sensor or three-dimensional position sensor, and the correction operation is executed only when the position of the image projection apparatus 100 is changed. Thus, it is conceivable to minimize the start of the correction operation.
または、一定期間(例えば1秒)の間に映像投影装置100が投影する映像のフレーム中の1フレームだけを、基準パターンの投影に使うことにより、ユーザに基準パターンの投影を気付かれにくくするような手法も考えられる。また基準パターンそのものを、白一色ではなく、灰色にして、目立たなくしたり、また、投影される映像コンテンツの画像それ自体を基準パターンとみなして、色彩用補正パラメータを計算するような工夫も考えられる。 Alternatively, by using only one frame of the video frames projected by the video projection device 100 for a certain period (for example, 1 second) for the projection of the reference pattern, it is difficult for the user to notice the projection of the reference pattern. Various methods are also conceivable. It is also possible to make the reference pattern itself gray instead of white, or to consider the image of the projected video content itself as the reference pattern and calculate the color correction parameters. .
なお、色彩補正用の基準パターンに代えて、投影される映像自体を基準パターンとして利用してもよい。この場合においても、色彩補正用パラメータの計算方法は、本実施の形態で述べた方法をそのまま利用することができる。ただし、全体的に彩度が低く明度又は色相が均一で、輝度が高い映像(例えば、薄曇りの空や雪景色等)は、色彩用補正パラメータを算出するには、有利であるので、そのような映像が投影される時には集中的に、色彩用補正パラメータを算出する等の工夫も可能である。 Note that the projected image itself may be used as the reference pattern instead of the reference pattern for color correction. Even in this case, the method described in this embodiment can be used as it is as the method for calculating the color correction parameter. However, an image with a low overall saturation, lightness or hue, and high brightness (for example, a light cloudy sky or a snow scene) is advantageous in calculating the color correction parameters. For example, it is possible to intensively calculate color correction parameters when a simple image is projected.
(実施の形態2)
実施の形態1では、投影面が平面の場合を例に説明したが、本発明は、投影面が曲面の場合にも適用可能である。本実施の形態では、投影面が曲面の場合について説明する。
(Embodiment 2)
In
投影面が曲面の場合、パターン比較部104における位置歪み補正のための写像Wの算出方法が、投影面が平面の場合と異なる。投影面が曲面の場合、パターン比較部104は、曲面を微小な矩形平面で近似し、それぞれの微小矩形平面間の写像を射影変換として全体の写像を近似する。
When the projection surface is a curved surface, the calculation method of the mapping W for correcting the positional distortion in the
微小矩形平面としては、d[i,j]、d[i+1,j]、d[i,j+1]、d[i+1,j+1]の4点で囲まれる微小平面を考える。図32において、微小平面は、それぞれ破線で囲まれた正方形領域である。例えば、斜線領域1300は、微小平面の例である。
As a minute rectangular plane, a minute plane surrounded by four points d [i, j], d [i + 1, j], d [i, j + 1], and d [i + 1, j + 1] is considered. In FIG. 32, each microplane is a square area surrounded by a broken line. For example, the hatched
パターン比較部104は、r[i,j]、r[i+1,j]、r[i,j+1]、r[i+1,j+1]の4点で囲まれる受光パターン像上の平面への射影変換F(i,j)を求める。射影変換F(i,j)の集まりを、全体の写像Wとする。
The
なお、投影面が平面の場合とは異なり、投影面が曲面の場合、d[i,j]からr[i,j]への対応を求める場合に、直線的な補完を行えないため、一度に沢山の光点を投影して、位置を検出するような方法(第2の方法)は使えない。 Unlike the case where the projection surface is a flat surface, when the projection surface is a curved surface, linear interpolation cannot be performed when obtaining a correspondence from d [i, j] to r [i, j]. A method (second method) in which a large number of light spots are projected and the position is detected cannot be used.
このように、投影面が曲面の場合、図14又は図15のフローチャートに示したような1点投影方法(第1の方法)又は複数の光点を同時に投影する方法(第3の方法)を用いる。なお、複数の光点を同時に投影する方法において、同時投影する光点の数はせいぜい4点に押えて、4点を投影する毎に、基準パターンの光点と受光パターンの光点との対応を取っていく必要がある。また、受光パターン像に欠損の光点が生じた場合は、その領域だけ1点投影方法に拠って光点の対応を確認せねばならないだろう。 As described above, when the projection surface is a curved surface, a one-point projection method (first method) or a method of simultaneously projecting a plurality of light spots (third method) as shown in the flowchart of FIG. 14 or FIG. Use. In the method of projecting a plurality of light spots at the same time, the number of light spots to be simultaneously projected is limited to 4 at most, and each time four points are projected, the correspondence between the light spot of the reference pattern and the light spot of the light receiving pattern. It is necessary to take it. In addition, when a missing light spot is generated in the light receiving pattern image, it is necessary to confirm the correspondence of the light spot only in that area by the one-point projection method.
なお、第3の方法を用いる場合に、最大4点投影とするのは、投影面が曲面の場合であっても、4点の上下左右という位置関係は変わらないためである。 Note that, when the third method is used, the maximum four-point projection is performed because the positional relationship between the four points is not changed even when the projection surface is a curved surface.
なお、他の計算及び各部の動作に関しては、実施の形態1と同様であるため説明を省略する。 The other calculations and the operation of each unit are the same as those in the first embodiment, and thus description thereof is omitted.
以上のように、本実施の形態では、投影面が曲面の場合、パターン比較部104は、4点で囲まれる受光パターン像上の平面への射影変換F(i,j)を求め、射影変換F(i,j)の集まりを、全体の写像Wとする。
As described above, in the present embodiment, when the projection surface is a curved surface, the
(実施の形態3)
実施の形態1では、パターン受光解析部103は、映像投影部110に近接して配置され、パターン投影部102は、映像投影部110とは独立した位置で、かつ、ユーザの目の位置近くに配置されるとした。これに対し、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置することで、同様の効果を得ることも可能である。
(Embodiment 3)
In the first embodiment, the pattern light
本実施の形態では、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置する場合について説明する。
In the present embodiment, a case will be described in which the
図33は、本発明の実施の形態3に係る映像投影システムの構成図である。なお、図33の本実施の形態に係る映像投影システムにおいて、図3と共通する構成部分には、図3と同一の符号を付して説明を省略する。図33の映像投影システムは、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置する。
FIG. 33 is a configuration diagram of a video projection system according to
図33に示すような配置とすることにより、本実施の形態では、位置歪み補正のための写像Wを、実施の形態1で利用される位置歪み補正のための写像Wの逆写像として読みかえることが必要となる。つまり、実施の形態1における手順で基準パターンの光点d[i,j]から受光パターンの光点r[i,j]への写像を算出した上で、本実施の形態では、位置歪み補正のための写像Wとして、算出した写像の逆写像を用いる。 With the arrangement as shown in FIG. 33, in the present embodiment, the mapping W for correcting the positional distortion is read as an inverse mapping of the mapping W for correcting the positional distortion used in the first embodiment. It will be necessary. That is, after calculating the mapping from the light spot d [i, j] of the reference pattern to the light spot r [i, j] of the light receiving pattern in the procedure in the first embodiment, in this embodiment, the positional distortion correction is performed. As the mapping W for, a reverse mapping of the calculated mapping is used.
他の計算及び各部の動作に関しては、実施の形態1と同様であるため説明を省略する。 Other calculations and the operation of each unit are the same as those in the first embodiment, and thus the description thereof is omitted.
以上のように、本実施の形態では、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置する。これにより、図33の構成図から分かるように、パターン受光解析部103の全部又は一部(位置検出素子部分やカメラ部分)を、これら部分と同等の機能を持つ外部機器に置き替えることができる。
As described above, in the present embodiment, the
例えば、本実施の形態に係る映像投影装置100が無線通信機能を有し、また、ユーザが、カメラ機能付き、かつ、無線通信機能付きの携帯端末を有する場合、映像投影装置100は、ユーザの携帯端末が取得したカメラ画像をユーザの携帯端末より無線を介して入手することにより、パターン受光解析部103の全部又は一部をユーザの携帯端末に置き替えることができる。
For example, when the video projection apparatus 100 according to the present embodiment has a wireless communication function and the user has a mobile terminal with a camera function and a wireless communication function, the video projection apparatus 100 By obtaining the camera image acquired by the mobile terminal from the user's mobile terminal via wireless, all or part of the pattern light receiving
さらに、ユーザの携帯端末が外部からアプリケーションをダウンロードして実行できるような場合、パターン受光解析部103が有する各種演算機能を、携帯端末上で実行させることにより、パターン受光解析部103の代用として、その携帯端末を利用することが可能である。
Furthermore, when the user's mobile terminal can download and execute an application from the outside, by executing various calculation functions of the pattern light
なお、以上の説明では、基準パターンから受光パターンへの写像Wをパターン比較部104が生成するとして説明したが、対応表に基づいて、位置歪み補正部106が、写像Wを生成するようにしてもよい。
In the above description, the
本発明に係る映像投影装置及び映像投影方法は、投影面に柱や素材の違う面等の反射率が低い帯状の領域が存在するような場合においても、残された投影に適した領域を効率よく使い、人間に見易い画像を投影することができ、特に、モバイル環境下で利用する場合等、専用投影面が利用困難な場合に、投影映像の歪み又は投影面の反射率の低さに起因して生じる投影映像の見にくさを改善し、見易くする映像投影装置等として有用である。 The image projection apparatus and the image projection method according to the present invention efficiently perform the remaining region suitable for projection even in the case where there is a strip-shaped region with a low reflectance such as a column or a surface with a different material on the projection surface. Can be used frequently and can be easily seen by humans, especially when it is difficult to use a dedicated projection surface, such as when used in a mobile environment, due to distortion of the projected image or low reflectance of the projection surface Therefore, it is useful as a video projection device or the like that improves the difficulty of seeing the projected video generated and makes it easy to see.
100 映像投影装置
101 基準パターン発生部
102 パターン投影部
103 パターン受光解析部
104 パターン比較部
105 補正管理部
106 位置歪み補正部
107 画面分割補正部
108 色彩補正部
109 補正部
110 映像投影部
120 投影面
130 映像コンテンツ
DESCRIPTION OF SYMBOLS 100
Claims (7)
前記基準パターンを映像として投影するパターン投影手段と、
投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出する比較手段と、
位置歪み用補正パラメータを生成する位置歪み補正手段と、画面分割用補正パラメータを生成する画面分割補正手段とを有し、前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、判断結果に応じて、前記位置歪み補正手段及び前記分割補正手段を動作させる補正管理手段と、
前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正する補正手段と、
補正された前記映像コンテンツを投影する映像投影手段と、を具備し、
前記位置歪み補正手段は、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、
前記画像分割補正手段は、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成する、
映像投影装置。 A reference pattern generating means for outputting a reference pattern;
Pattern projection means for projecting the reference pattern as an image;
The light receiving pattern obtained by receiving the projected reference pattern is compared with the reference pattern, the correspondence between the components of these patterns is specified, and the light receiving pattern is derived from the reference pattern based on the correspondence. A comparison means for calculating the mapping W to
A position distortion correction unit that generates a correction parameter for position distortion; and a screen division correction unit that generates a correction parameter for screen division, and determines whether or not position distortion correction or screen division correction is necessary based on the correspondence relationship. And a correction management unit that operates the positional distortion correction unit and the division correction unit according to the determination result;
Correction means for correcting video content using the correction parameter for position distortion or the correction parameter for screen division;
Video projection means for projecting the corrected video content,
The positional distortion correction means generates the positional distortion correction parameter according to the mapping W,
The image division correction unit detects a low reflection region including a region in which a region corresponding to the reference pattern is missing from the light receiving pattern, and the image is projected onto a region other than the low reflection region. Dividing the screen on which the video is projected, calculating a mapping V from the image before the division to the image after the division, and generating the correction parameter for image division according to the mapping V;
Video projection device.
請求項1に記載の映像投影装置。 When the position of the light spot of the reference pattern is different from the position of the light spot of the light receiving pattern corresponding to the light spot of the reference pattern, the correction management unit determines that positional distortion correction is necessary, and all the reference When there is a light spot of the light receiving pattern corresponding to the light spot of the pattern, it is determined that screen division correction is unnecessary.
The video projection device according to claim 1.
前記補正管理手段は、前記対応関係に基づいて、色相彩度明度の補正のための色彩用補正パラメータを計算する色彩補正手段、をさらに有し、
前記補正手段は、前記色彩用補正パラメータをさらに用いて、前記映像コンテンツを補正する、
請求項1に記載の映像投影装置。 The reference pattern generation means generates a pattern for color correction as the reference pattern,
The correction management means further includes color correction means for calculating a color correction parameter for correcting hue saturation lightness based on the correspondence relationship;
The correction means further corrects the video content using the color correction parameter;
The video projection device according to claim 1.
請求項1に記載の映像投影装置。 The projection part of the optical image of the video projection unit also serves as the projection part of the optical image of the pattern projection unit,
The video projection device according to claim 1.
請求項1に記載の映像投影装置。 The pattern projecting means projects the components of the reference pattern divided into a plurality of parts at intervals for each part;
The video projection device according to claim 1.
請求項1記載の映像投影装置。 The pattern projecting means projects the reference pattern using invisible light;
The image projection apparatus according to claim 1.
投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出し、
前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、
位置歪み補正が必要と判断した場合に、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、
画面分割補正が必要と判断した場合に、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成し、
前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正し、
補正された前記映像コンテンツを投影する、
映像投影方法。
Project the reference pattern as an image,
The light receiving pattern obtained by receiving the projected reference pattern is compared with the reference pattern, the correspondence between the components of these patterns is specified, and the light receiving pattern is derived from the reference pattern based on the correspondence. To calculate the mapping W to
Based on the correspondence, determine whether or not position distortion correction or screen division correction is necessary,
When it is determined that positional distortion correction is necessary, the positional distortion correction parameter corresponding to the mapping W is generated,
When it is determined that screen division correction is necessary, a low reflection region including a region in which a region corresponding to the reference pattern is missing is detected from the light receiving pattern, and the video is projected to a region other than the low reflection region. Dividing the screen on which the video is projected, calculating a mapping V from the image before the division to the image after the division, and generating the correction parameter for the image division according to the mapping V,
Using the correction parameter for positional distortion or the correction parameter for screen division, correct video content,
Projecting the corrected video content;
Video projection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198978A JP2011050013A (en) | 2009-08-28 | 2009-08-28 | Video projection apparatus and video projection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198978A JP2011050013A (en) | 2009-08-28 | 2009-08-28 | Video projection apparatus and video projection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011050013A true JP2011050013A (en) | 2011-03-10 |
Family
ID=43835859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009198978A Pending JP2011050013A (en) | 2009-08-28 | 2009-08-28 | Video projection apparatus and video projection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011050013A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196482A (en) * | 2012-03-21 | 2013-09-30 | Casio Comput Co Ltd | Input user interface device, projection device, program and command determination method |
JP2014197242A (en) * | 2012-05-21 | 2014-10-16 | 株式会社リコー | Pattern extraction device, image projection device, and pattern extraction method and program |
JP2015026914A (en) * | 2013-07-24 | 2015-02-05 | 株式会社リコー | Program, information processing device, and system |
JP2015080190A (en) * | 2013-09-11 | 2015-04-23 | 株式会社リコー | Extraction method, program, extraction device, and image projection device |
JP2015095752A (en) * | 2013-11-12 | 2015-05-18 | 株式会社リコー | Interpolation method, program, and interpolation device |
JP2015106050A (en) * | 2013-11-29 | 2015-06-08 | 日本電信電話株式会社 | Spatial projection device, spatial projection method, spatial projection program and recording medium |
JP2015139004A (en) * | 2014-01-20 | 2015-07-30 | キヤノン株式会社 | Video projection device, video projection method, and computer program |
JP2016540267A (en) * | 2013-09-26 | 2016-12-22 | クアルコム,インコーポレイテッド | Image capture input and projection output |
JP2017055160A (en) * | 2015-09-07 | 2017-03-16 | ブラザー工業株式会社 | Projection control device, program, and projection system |
WO2018056195A1 (en) * | 2016-09-21 | 2018-03-29 | 日本電気株式会社 | Projection system, projection method, and program recording medium |
CN110663249A (en) * | 2017-05-26 | 2020-01-07 | 索尼公司 | Apparatus and method for image processing |
CN112668569A (en) * | 2016-04-12 | 2021-04-16 | 麦克赛尔株式会社 | Projection type image display device |
CN114173105A (en) * | 2020-09-10 | 2022-03-11 | 精工爱普生株式会社 | Information generating method, information generating system, and recording medium |
JP7482268B2 (en) | 2019-09-05 | 2024-05-13 | 富士フイルム株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
-
2009
- 2009-08-28 JP JP2009198978A patent/JP2011050013A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9213411B2 (en) | 2012-03-21 | 2015-12-15 | Casio Computer Co., Ltd. | Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program |
JP2013196482A (en) * | 2012-03-21 | 2013-09-30 | Casio Comput Co Ltd | Input user interface device, projection device, program and command determination method |
US9767377B2 (en) | 2012-05-21 | 2017-09-19 | Ricoh Company, Ltd. | Pattern extracting device, image projecting device, pattern extracting method, and program |
JP2014197242A (en) * | 2012-05-21 | 2014-10-16 | 株式会社リコー | Pattern extraction device, image projection device, and pattern extraction method and program |
JP2015026914A (en) * | 2013-07-24 | 2015-02-05 | 株式会社リコー | Program, information processing device, and system |
JP2015080190A (en) * | 2013-09-11 | 2015-04-23 | 株式会社リコー | Extraction method, program, extraction device, and image projection device |
JP2016540267A (en) * | 2013-09-26 | 2016-12-22 | クアルコム,インコーポレイテッド | Image capture input and projection output |
JP2015095752A (en) * | 2013-11-12 | 2015-05-18 | 株式会社リコー | Interpolation method, program, and interpolation device |
JP2015106050A (en) * | 2013-11-29 | 2015-06-08 | 日本電信電話株式会社 | Spatial projection device, spatial projection method, spatial projection program and recording medium |
JP2015139004A (en) * | 2014-01-20 | 2015-07-30 | キヤノン株式会社 | Video projection device, video projection method, and computer program |
US9516289B2 (en) | 2014-01-20 | 2016-12-06 | Canon Kabushiki Kaisha | Video image projection apparatus, video image projection method, and storage medium |
JP2017055160A (en) * | 2015-09-07 | 2017-03-16 | ブラザー工業株式会社 | Projection control device, program, and projection system |
CN112668569A (en) * | 2016-04-12 | 2021-04-16 | 麦克赛尔株式会社 | Projection type image display device |
CN112668569B (en) * | 2016-04-12 | 2024-02-02 | 麦克赛尔株式会社 | Projection type image display device |
WO2018056195A1 (en) * | 2016-09-21 | 2018-03-29 | 日本電気株式会社 | Projection system, projection method, and program recording medium |
JPWO2018056195A1 (en) * | 2016-09-21 | 2019-06-24 | 日本電気株式会社 | Projection system, projection method and program |
US10887563B2 (en) | 2016-09-21 | 2021-01-05 | Nec Corporation | Projection system, projection method, and program recording medium |
CN110663249A (en) * | 2017-05-26 | 2020-01-07 | 索尼公司 | Apparatus and method for image processing |
US11202044B2 (en) | 2017-05-26 | 2021-12-14 | Sony Corporation | Image processing apparatus and method |
CN110663249B (en) * | 2017-05-26 | 2022-04-15 | 索尼公司 | Apparatus and method for image processing |
JP7482268B2 (en) | 2019-09-05 | 2024-05-13 | 富士フイルム株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
CN114173105A (en) * | 2020-09-10 | 2022-03-11 | 精工爱普生株式会社 | Information generating method, information generating system, and recording medium |
CN114173105B (en) * | 2020-09-10 | 2023-06-16 | 精工爱普生株式会社 | Information generating method, information generating system, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011050013A (en) | Video projection apparatus and video projection method | |
KR100843089B1 (en) | Apparatus and method for improving visibility for images | |
US10554880B2 (en) | Image processing system, imaging apparatus, image processing method, and computer-readable storage medium | |
CN107274338B (en) | Systems, methods, and apparatus for low-latency warping of depth maps | |
US9953556B2 (en) | Color correction method for optical see-through displays | |
US7800628B2 (en) | System and method for generating scale maps | |
US7854518B2 (en) | Mesh for rendering an image frame | |
US7909470B2 (en) | Image projection method and projector | |
US7907792B2 (en) | Blend maps for rendering an image frame | |
US9137504B2 (en) | System and method for projecting multiple image streams | |
KR100796849B1 (en) | Method for photographing panorama mosaics picture in mobile device | |
US9654750B2 (en) | Image processing system, image processing apparatus, and image processing method to respectively display images obtained by dividing one image on first and the second display media | |
CN102769759B (en) | Digital image color correcting method and realizing device | |
US20070291184A1 (en) | System and method for displaying images | |
JP2014096834A (en) | Electronic apparatus | |
US10924718B2 (en) | Image processing device and method | |
JP6623832B2 (en) | Image correction apparatus, image correction method, and computer program for image correction | |
KR20070008652A (en) | Method for extracting raw data of a photographed image | |
CN114339194A (en) | Projection display method and device, projection equipment and computer readable storage medium | |
US10097793B2 (en) | Method and system of depth data filling of shadows for image processing | |
US20220358679A1 (en) | Parameter Calibration Method and Apparatus | |
US20130106840A1 (en) | Apparatus and method for correcting image projected by projector | |
CN108337494A (en) | A kind of calibration method of projection device, device, projection device and terminal device | |
US20240257321A1 (en) | Point-of-view image warp systems and methods | |
CN113688900A (en) | Radar and visual data fusion processing method, road side equipment and intelligent traffic system |