JP2011050013A - Video projection apparatus and video projection method - Google Patents

Video projection apparatus and video projection method Download PDF

Info

Publication number
JP2011050013A
JP2011050013A JP2009198978A JP2009198978A JP2011050013A JP 2011050013 A JP2011050013 A JP 2011050013A JP 2009198978 A JP2009198978 A JP 2009198978A JP 2009198978 A JP2009198978 A JP 2009198978A JP 2011050013 A JP2011050013 A JP 2011050013A
Authority
JP
Japan
Prior art keywords
pattern
correction
image
projection
reference pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009198978A
Other languages
Japanese (ja)
Inventor
Tomoaki Maruyama
友朗 丸山
Nobuhiro Kanbe
信裕 神戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009198978A priority Critical patent/JP2011050013A/en
Publication of JP2011050013A publication Critical patent/JP2011050013A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To remedy difficulty in watching a projection video caused by distortion of the projection video or low reflectance of a projection surface in a mobile projector or to project an image easy to watch by efficiently using a region suitable for remaining projection in such a case that a band-like area of low reflectance such as a column or different material surface is present on the projection surface. <P>SOLUTION: A position distortion correction unit 106 generates a position distortion correction parameter corresponding to mapping W from a reference pattern to a light receiving pattern and based on a correspondence relationship, a screen division correction unit 107 detects a low-reflection area where an area corresponding to the reference pattern is missed in the light receiving pattern and divides a video projection screen so as to project a video on any other area than the low-reflection area. Mapping V from an image before division to an image after division is calculated and in accordance with the mapping V, an image division correction parameter is generated. A correction unit 109 uses these parameters to correct video contents. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像投影装置及び映像投影方法に関する。   The present invention relates to a video projection apparatus and a video projection method.

近年の無線通信技術の進歩や、安価な超高輝度白色LED(Light Emitting Diode)の出現等のプラス要因が重なり、小型軽量で持ち運びが簡単にできるようなモバイルプロジェクタと呼ばれる映像投影装置が商品化されてきている。モバイルプロジェクタ製品の中には、手の平に載り、重量も200グラム未満の製品もある。また、内蔵電源で動作し、外部電源がない環境で動作する製品もある。   Video projectors called mobile projectors, which are compact and lightweight and easy to carry, are commercialized due to positive factors such as recent advances in wireless communication technology and the appearance of inexpensive ultra-high brightness white LEDs (Light Emitting Diodes). Has been. Some mobile projector products are on the palm and weigh less than 200 grams. There are also products that operate with an internal power supply and operate without an external power supply.

このような、モバイルプロジェクタは、ノートパソコンと繋いでビジネスのプレゼンテーションを行なうような場合に利用できる。さらには、携帯電話やPDA(Personal Digital Assistant)等の小型ディスプレーしか持たない端末の二次的な外部出力装置としても広く使われるようになるだろう。   Such a mobile projector can be used when a business presentation is performed by connecting to a notebook computer. Furthermore, it will be widely used as a secondary external output device for terminals having only a small display such as a mobile phone or PDA (Personal Digital Assistant).

しかし、現状のモバイルプロジェクタは、サイズこそ小さくなったものの、従来の映像投影装置と同様に、専用の平面投影面への投影を前提にしていることに変りはない。したがって、実際のモバイル環境下では、専用の投影幕を持ち歩くということは、そのサイズ及び重さが劇的に改良される必要がある。   However, although the current mobile projector has been reduced in size, it is still assumed that projection onto a dedicated flat projection surface is assumed, as in the case of a conventional video projection apparatus. Therefore, in an actual mobile environment, carrying a dedicated projection screen needs to be dramatically improved in size and weight.

そのため、モバイルプロジェクタの投影面としては、住宅等の璧や戸等、手近な平面を利用しなければならない状況が考えられる。しかし、この場合、映像投影面は、色彩(色相、彩度及び明度)が不均一や不連続であったり、非平面であったり、また平面であってもプロジェクタに正対していない場合が多いであろう。また、さらには、手持ちプロジェクタの場合等、投影面とプロジェクタとの位置関係が時間とともに変化するような場合も考えられる。   For this reason, it is conceivable that the mobile projector has to use a handy plane such as a wall or a door of a house. However, in this case, the image projection surface often has non-uniform or discontinuous color (hue, saturation and brightness), is non-planar, or is not directly facing the projector even if it is flat. It will be. Furthermore, there may be a case where the positional relationship between the projection surface and the projector changes with time, such as in the case of a hand-held projector.

では、今挙げたような、投影面の歪み、不均一な反射率及び色彩等を有する投影面に映像を投影する場合、従来用いられた、映像の見難さの解決方法を以下に記す。   Then, when an image is projected on the projection surface having the distortion of the projection surface, the non-uniform reflectance, the color, etc., as described above, a method for solving the difficulty in viewing the image, which has been conventionally used, is described below.

特許文献1及び特許文献2では、任意の非平面の画面に投影した映像の歪み補正について検討されている。   In Patent Document 1 and Patent Document 2, distortion correction of an image projected on an arbitrary non-planar screen is studied.

具体的には、特許文献1に記載の方法では、補正前の画像(点画像)を投影し、同時に、その点画像が表示されるべき場所にレーザーポインタを投影する。そして、これらをカメラで画像認識することにより、ずれに関する情報を得る。このずれを多くの点で測定し、画像補正全体のゆがみ補正パラメータを得る。   Specifically, in the method described in Patent Document 1, an image (point image) before correction is projected, and at the same time, a laser pointer is projected to a place where the point image is to be displayed. Then, by recognizing these images with a camera, information on the deviation is obtained. This deviation is measured at many points to obtain distortion correction parameters for the entire image correction.

特許文献1以前の方法では、高価な機器(レーザーレンジーファインダー等)を使わない限り、複数の平面からなる投影面に対する投影領域の決定が行えなかったが、特許文献1ではその点が改良されている。   In the method before Patent Document 1, it is impossible to determine a projection area for a projection plane composed of a plurality of planes unless an expensive device (laser range finder or the like) is used. However, in Patent Document 1, this point has been improved. Yes.

また、特許文献2に記載の方法では、複数の平面からなる投影面(例えば屏風状のスクリーン)に特殊な投影パターンを投影し、それをカメラで捕らえることで、画素と投影ポイントとの対応関係を得る。そして、投影ポイントをクラスタリングして、投影面を複数の平面として認識し、例えば、一番広い平面に映像を表示する。このとき、映像の歪み補正も行う。   Moreover, in the method described in Patent Document 2, a special projection pattern is projected onto a projection plane (for example, a folding screen-like screen) composed of a plurality of planes, and the relationship between the pixels and the projection points is captured by the camera. Get. Then, the projection points are clustered to recognize the projection plane as a plurality of planes, and for example, an image is displayed on the widest plane. At this time, image distortion correction is also performed.

以上のように、特許文献1及び特許文献2では、ともに、映像投影装置に正対していないような投影面に対して映像を投影する場合に、自動的に映像の歪みや位置を補正して、本来あるべき映像をユーザに見せることができる。   As described above, both Patent Document 1 and Patent Document 2 automatically correct image distortion and position when projecting an image onto a projection surface that does not face the image projection apparatus. , It is possible to show the user a desired video.

また、特許文献2に記載の方法では、さらに、投影面に投影に適さない領域がある場合に、その領域を避けて投影することもできる。   Further, in the method described in Patent Document 2, when there is a region that is not suitable for projection on the projection surface, the projection can be performed while avoiding the region.

特開2001−169211号公報Japanese Patent Application Laid-Open No. 2001-169211 特開2007−142495号公報JP 2007-142495 A

しかしながら、現実のモバイル環境下では、投影面として、例えば住宅の内壁を用いたりする必要がある。この場合、璧が何種類かの色で塗り分けられていたり、色の濃い暗色で塗られた柱が投影面の中を横切るように映像投影装置を設置せざるを得ないことが往々にしてある。   However, in an actual mobile environment, it is necessary to use, for example, an inner wall of a house as a projection plane. In this case, it is often the case that the video projector must be installed so that the wall is painted in several colors or the dark-colored pillars cross the projection surface. is there.

しかし、上記2つの方法によっても、色彩(色相、彩度、明度)が不均一の面に対する補正をすることは困難である。また、特許文献2に記載の方法では、投影しても反射がない投影面の領域を避けつつ、投影できる最大の面を探せるものの、利用できる面が小さくなってしまうことがある。このような場合、上記2つの方法によっても、見易い映像を大きな面に投影することは困難である。   However, even with the above two methods, it is difficult to correct a surface with non-uniform colors (hue, saturation, brightness). In the method described in Patent Document 2, the maximum surface that can be projected can be found while avoiding a region of the projection surface that does not reflect even when projected, but the usable surface may be reduced. In such a case, it is difficult to project an easily viewable image on a large surface even by the above two methods.

また、時間的にプロジェクタと投影面との相対位置が変化するような場合には、どちらの方法によっても対応が困難となる。   Further, when the relative position between the projector and the projection surface changes with time, it is difficult to cope with either method.

本発明の目的は、モバイルプロジェクタにおいて、投影映像の歪み又は投影面の反射率の低さに起因して生じる投影映像の見にくさを改善し、又は、投影面に柱や素材の違う面等の反射率が低い帯状が存在するような場合に、残された投影に適した領域を効率よく使い、見易い画像を投影することができる映像投影装置及び映像投影方法を提供することである。   An object of the present invention is to improve the difficulty in viewing a projected image due to distortion of the projected image or low reflectance of the projection surface in a mobile projector, or a surface with a different column or material on the projection surface. To provide a video projection device and a video projection method capable of efficiently projecting an easy-to-view image by efficiently using a remaining area suitable for projection when a strip having a low reflectance exists.

本発明の映像投影装置は、基準パターンを出力する基準パターン発生手段と、前記基準パターンを映像として投影するパターン投影手段と、投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出する比較手段と、位置歪み用補正パラメータを生成する位置歪み補正手段と、画面分割用補正パラメータを生成する画面分割補正手段とを有し、前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、判断結果に応じて、前記位置歪み補正手段及び前記分割補正手段を動作させる補正管理手段と、前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正する補正手段と、補正された前記映像コンテンツを投影する映像投影手段と、を具備し、前記位置歪み補正手段は、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、前記画像分割補正手段は、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成する。   The image projection apparatus of the present invention includes a reference pattern generating means for outputting a reference pattern, a pattern projecting means for projecting the reference pattern as an image, a light receiving pattern obtained by receiving the projected reference pattern, and the reference Compares the pattern, identifies the correspondence between the components of the pattern, and generates a correction parameter for positional distortion and a comparison means for calculating the mapping W from the reference pattern to the light receiving pattern based on the correspondence And a screen division correction unit that generates a screen division correction parameter. Based on the correspondence, whether or not the position distortion correction or the screen division correction is necessary is determined, and according to the determination result. A correction management unit that operates the positional distortion correction unit and the division correction unit, and the positional distortion correction parameter or the screen division correction. A correction unit that corrects video content using a parameter; and a video projection unit that projects the corrected video content, wherein the positional distortion correction unit corrects the positional distortion according to the mapping W. Generating a parameter, and the image division correction unit detects a low reflection region including a region in which the region corresponding to the reference pattern is missing from the light receiving pattern, and projects the image on a region other than the low reflection region. As described above, the screen on which the video is projected is divided, a mapping V from the image before the division to the image after the division is calculated, and the correction parameter for image division corresponding to the mapping V is generated.

本発明の映像投影方法は、基準パターンを映像として投影し、投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出し、前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、位置歪み補正が必要と判断した場合に、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、画面分割補正が必要と判断した場合に、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成し、前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正し、補正された前記映像コンテンツを投影する。   The image projection method of the present invention projects a reference pattern as an image, compares the received light pattern obtained by receiving the projected reference pattern with the reference pattern, and shows the correspondence between the components of these patterns. Identify and calculate the mapping W from the reference pattern to the light receiving pattern based on the correspondence, determine the necessity of positional distortion correction or screen division correction based on the correspondence, and need positional distortion correction If the correction parameter for position distortion corresponding to the mapping W is generated and it is determined that screen division correction is necessary, the region corresponding to the reference pattern is missing from the light receiving pattern. A low-reflective area including the image, and dividing the screen on which the video is projected so that the video is projected to an area other than the low-reflective area. A mapping V to an image is calculated, the image division correction parameter corresponding to the mapping V is generated, and the video content is corrected and corrected using the position distortion correction parameter or the screen division correction parameter. The video content is projected.

本発明によれば、投影映像の歪み又は投影面の反射率の低さに起因して生じる投影映像の見にくさを改善し、又は、投影面に柱や素材の違う面等の反射率が低い帯状の領域が存在するような場合においても、残された投影に適した領域を効率よく使い、見易い画像を投影することができる。   According to the present invention, it is possible to improve the difficulty in viewing a projected image due to the distortion of the projected image or the low reflectance of the projection surface, or the reflectance of a surface with a different column or material on the projection surface is low. Even in the case where there is a band-like region, it is possible to efficiently use the remaining region suitable for projection and project an easy-to-view image.

本発明の実施の形態1に係る映像投影システムの構成を示す図The figure which shows the structure of the image | video projection system which concerns on Embodiment 1 of this invention. 映像投影システムにおける投影面と映像投影装置の各部との位置関係を表現した模式図Schematic representation of the positional relationship between the projection surface and each part of the video projection device 実施の形態1における基準パターンReference pattern in the first embodiment 実施の形態1における他の基準パターンOther reference patterns in the first embodiment 実施の形態1における基準パターンの投影順の説明図Explanatory drawing of the projection order of the reference pattern in Embodiment 1 実施の形態1における受光パターンLight receiving pattern in the first embodiment 実施の形態1における他の受光パターンOther light receiving patterns in the first embodiment 実施の形態1における各パターン間の光点の対応表Light spot correspondence table between patterns in the first embodiment 実施の形態1のパターン受光解析部の動作説明図Operational explanatory diagram of the pattern light receiving analysis unit of the first embodiment 実施の形態1の写像Wを図的に表現したものA graphical representation of the mapping W of the first embodiment 実施の形態1のパターン受光解析部の動作説明図Operational explanatory diagram of the pattern light receiving analysis unit of the first embodiment 実施の形態1における基準パターンの投影順の説明図Explanatory drawing of the projection order of the reference pattern in Embodiment 1 実施の形態1の写像Wの効果をあらわした図The figure showing the effect of the mapping W of Embodiment 1 実施の形態1における写像W算出のフローチャート図Flowchart diagram of mapping W calculation in the first embodiment 実施の形態1における写像W算出のフローチャート図Flowchart diagram of mapping W calculation in the first embodiment 実施の形態1における受光パターンLight receiving pattern in the first embodiment 実施の形態1における画面分割補正の動作の説明図Explanatory drawing of the screen division correction operation in the first embodiment 実施の形態1における画面分割補正の効果をあらわした図The figure showing the effect of the screen division correction in the first embodiment 実施の形態1の写像W、Vの効果をあらわした図The figure showing the effect of maps W and V of the first embodiment 実施の形態1における受光パターンLight receiving pattern in the first embodiment 実施の形態1における画面分割補正の動作の説明図Explanatory drawing of the screen division correction operation in the first embodiment 実施の形態1における画面分割補正の効果をあらわした図The figure showing the effect of the screen division correction in the first embodiment 実施の形態1における受光パターン及び画面分割補正の動作の説明図Explanatory drawing of operation | movement of the light reception pattern and screen division | segmentation correction | amendment in Embodiment 1. 実施の形態1における画面分割補正の動作の説明図Explanatory drawing of the screen division correction operation in the first embodiment 実施の形態1における画面分割補正の効果をあらわした図The figure showing the effect of the screen division correction in the first embodiment 実施の形態1における受光パターンLight receiving pattern in the first embodiment 実施の形態1における受光パターンLight receiving pattern in the first embodiment 実施の形態1における画面分割補正の動作の説明図Explanatory drawing of the screen division correction operation in the first embodiment 実施の形態1における色彩用補正基準パターンColor correction reference pattern in the first embodiment 実施の形態1における色彩用補正受光パターンColor-corrected light receiving pattern in the first embodiment 実施の形態1の写像W、V、Uの効果をあらわした図The figure showing the effect of maps W, V, and U of the first embodiment 本発明の実施の形態2における基準パターンReference pattern in Embodiment 2 of the present invention 本発明の実施の形態3における映像投影装置の部品間の位置関係を表現した模式図Schematic representation of the positional relationship between components of the video projector in Embodiment 3 of the present invention

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る映像投影システムの構成図である。
(Embodiment 1)
FIG. 1 is a configuration diagram of a video projection system according to Embodiment 1 of the present invention.

図1において、投影面120は、映像投影装置100が映像を投影する面である。投影面120は、専用の投影幕のようなものでもよいし、璧やドア等、映像を投影して映像が映る面を持つ物体の面であれば何でもよい。   In FIG. 1, a projection surface 120 is a surface on which the image projection apparatus 100 projects an image. The projection surface 120 may be a dedicated projection screen, or any object surface having a surface on which an image is projected by projecting an image, such as a wall or a door.

映像コンテンツ130は、具体的には、映画、写真、或いはビジネス用のプレゼンテーション資料等であり、通常、映像投影装置100の外部のパソコンやPDA(Personal Digital Assistant)等の記憶装置に格納されている。そして、パソコン等の記憶装置と映像投影装置100との間は、適当な規格又はプロトコルの映像転送ケーブル等で結ばれている。もちろん、パソコン等の記憶装置と映像投影装置100との間は、有線ケーブルではなく、無線の伝送路で結ばれていても構わない。   Specifically, the video content 130 is a movie, a photograph, a presentation material for business, or the like, and is usually stored in a storage device such as a personal computer or a PDA (Personal Digital Assistant) outside the video projection device 100. . The storage device such as a personal computer and the video projection device 100 are connected by a video transfer cable or the like of an appropriate standard or protocol. Of course, the storage device such as a personal computer and the video projection device 100 may be connected not by a wired cable but by a wireless transmission path.

基準パターン発生部101は、1種類以上の基準パターンをパターン投影部102及びパターン比較部104に出力する。基準パターンの詳細については、後述する。   The reference pattern generation unit 101 outputs one or more types of reference patterns to the pattern projection unit 102 and the pattern comparison unit 104. Details of the reference pattern will be described later.

パターン投影部102は、基準パターン発生部101から入力される基準パターンを映像として投影する。なお、この映像は、可視光の映像とは限られず、映像には、液晶プロジェクタのような映画のフィルムの役割をする面に背後から強力な光源で照らす仕組のものから、レーザ光(光点)で投影面をラスタースキャンして映像を表示するようなものまで含まれる。   The pattern projection unit 102 projects the reference pattern input from the reference pattern generation unit 101 as an image. Note that this image is not limited to an image of visible light, and the image is a laser beam (light spot) from a structure that illuminates with a powerful light source from the back on the surface acting as a movie film such as a liquid crystal projector. ), And the like that display the image by raster scanning the projection surface.

パターン受光解析部103は、パターン投影部102が投影面120に投影した映像を受像し、その受像した映像を解析してパターンへ変換する。この受像した映像を解析した結果得られるパターンを、「受光パターン」と呼ぶ。また、この受像した映像の光学イメージ及び投影面120に投影されている映像の光学イメージを、「パターン像」と呼ぶ。   The pattern light reception analysis unit 103 receives the image projected by the pattern projection unit 102 onto the projection surface 120, analyzes the received image, and converts it into a pattern. A pattern obtained as a result of analyzing the received video is called a “light receiving pattern”. The optical image of the received image and the optical image of the image projected on the projection surface 120 are referred to as a “pattern image”.

なお、このパターン像は、基準パターンのパターンとは異なる概念である。パターン像は光学的なイメージであり、単にパターンという場合は、光学イメージであるパターン像を解析した結果得られるものである。すなわち、パターンとは、光学イメージを生成する元となるものであって、「点」、「線」又は「四角形」等の幾何学的な概念である。   This pattern image is a concept different from the pattern of the reference pattern. The pattern image is an optical image, and the simple pattern is obtained as a result of analyzing the pattern image that is an optical image. That is, the pattern is a source for generating an optical image, and is a geometric concept such as “point”, “line”, or “square”.

パターン比較部104は、パターン受光解析部103が生成した受光パターンと、元の基準パターンとを比較し、これら2つのパターンの構成要素間を対応付けることにより、受光パターンから基準パターンへの写像を生成する。   The pattern comparison unit 104 compares the light reception pattern generated by the pattern light reception analysis unit 103 with the original reference pattern, and generates a mapping from the light reception pattern to the reference pattern by associating the components of these two patterns. To do.

補正管理部105は、パターン比較部104により生成された受光パターンと基準パターンとの構成要素間の対応関係に基づいて、位置歪み補正、画面分割補正、及び、色彩補正が必要であるか否かを判断する。そして、補正管理部105は、判断結果に応じて、位置歪み補正部106、画面分割補正部107、又は、色彩補正部108を、適切な順序で組み合わせて呼び出し、映像投影用補正パラメータを算出する。補正管理部105は、算出した映像投影用補正パラメータを補正部109に出力する。   The correction management unit 105 determines whether or not position distortion correction, screen division correction, and color correction are necessary based on the correspondence relationship between the light receiving pattern and the reference pattern generated by the pattern comparison unit 104. Judging. Then, the correction management unit 105 calls up the positional distortion correction unit 106, the screen division correction unit 107, or the color correction unit 108 in an appropriate order according to the determination result, and calculates the video projection correction parameters. . The correction management unit 105 outputs the calculated video projection correction parameters to the correction unit 109.

位置歪み補正部106は、位置歪み補正のための位置歪み用補正パラメータを計算する。画面分割補正部107は、画面の分割のための画面分割用補正パラメータを計算する。色彩補正部108は、色彩(色相、彩度、明度)の補正のための色彩用補正パラメータを計算する。補正管理部105は、位置歪み用補正パラメータ、画面分割用補正パラメータ、及び、色彩用補正パラメータを総合して、映像投影用補正パラメータを算出する。これら補正パラメータの算出方法については、後述する。   The positional distortion correction unit 106 calculates a positional distortion correction parameter for correcting positional distortion. The screen division correction unit 107 calculates a screen division correction parameter for dividing the screen. The color correction unit 108 calculates color correction parameters for correcting colors (hue, saturation, brightness). The correction management unit 105 calculates a video projection correction parameter by combining the position distortion correction parameter, the screen division correction parameter, and the color correction parameter. A method for calculating these correction parameters will be described later.

補正部109は、補正管理部105により生成された映像投影用補正パラメータに応じて、映像コンテンツ130の映り具合を補正する。   The correction unit 109 corrects the projection of the video content 130 according to the video projection correction parameter generated by the correction management unit 105.

映像投影部110は、補正部109により補正された状態で映像コンテンツ130を投影面120に投影する。   The video projection unit 110 projects the video content 130 on the projection surface 120 in a state corrected by the correction unit 109.

さて、図1のように構成された映像投影装置100において、位置歪み補正、画面分割補正、及び、色彩補正ができることを示す。   Now, it is shown that the image projection apparatus 100 configured as shown in FIG. 1 can perform positional distortion correction, screen division correction, and color correction.

まず、始めに、これら補正の種類に関して定義しておく。なお、具体例は、いずれも以下の説明中に登場する。   First, these correction types are defined. Note that specific examples appear in the following description.

[1]位置歪み補正
位置歪みとは、映像投影部110が投影面120に正対していない場合、投影面120が非平面である場合、又は、映像投影部110の投影面120に対する位置が時間的に変化する場合に発生する、映像投影装置100のユーザから見た映像歪み及び位置ずれをいう。位置歪み補正とは、映像歪み又は位置ずれをユーザから見て正常状態に戻すことをいう。
[1] Positional distortion correction Positional distortion is when the video projection unit 110 is not directly facing the projection plane 120, when the projection plane 120 is non-planar, or when the position of the video projection unit 110 with respect to the projection plane 120 is time. This means image distortion and positional deviation as seen from the user of the image projection apparatus 100 that occurs when the image changes. The positional distortion correction refers to returning video distortion or positional deviation to a normal state when viewed from the user.

[2]画面分割補正
画面分割補正とは、映像を投影したい面に、投影面として適さない領域がある場合に、その不適切な領域を避けるように、投影コンテンツの1画面をいくつかの断片に分割、縮小、移動等を行なう補正をいう。
[2] Screen division correction In the screen division correction, when there is an area that is not suitable as a projection plane on the plane on which the image is to be projected, one piece of projection content is divided into several pieces so as to avoid the inappropriate area. This refers to correction for dividing, reducing, moving and the like.

[3]色彩補正
色彩補正とは、投影面の部分領域毎に、色相、彩度又は明度が異なる場合に、その色相、彩度又は明度の違いを打ち消すようにかける補正をいう。或いは、色彩補正とは、投影面120が映像投影装置110に正対していない場合や、投影面120が曲面である場合に発生する明度のむらを補正するものである。
[3] Color correction Color correction refers to correction applied to cancel the difference in hue, saturation, or brightness when the hue, saturation, or brightness differs for each partial area of the projection plane. Alternatively, the color correction is to correct unevenness in brightness that occurs when the projection surface 120 is not directly facing the video projection device 110 or when the projection surface 120 is a curved surface.

では、実施例の説明に戻る。   Now, the description returns to the embodiment.

今、図2に示すような位置関係で、パターン投影部102、パターン受光解析部103、映像投影部110、及び、投影面120が設置されているとする。すなわち、パターン投影部102は投影面120を見るユーザの目(頭部)の近くに設置され、さらに、ユーザの視線とパターン投影部102の映像投影の軸とがほぼ並行になるように設置されている。ユーザが複数いる場合は、ユーザのうち1人を適当に選んで、そのユーザの目付近にパターン投影部102を設置する。なお、このユーザは投影面120の正面にいるとする。   Now, it is assumed that the pattern projection unit 102, the pattern light reception analysis unit 103, the video projection unit 110, and the projection plane 120 are installed in a positional relationship as shown in FIG. That is, the pattern projection unit 102 is installed near the user's eyes (head) viewing the projection plane 120, and is further installed so that the user's line of sight and the image projection axis of the pattern projection unit 102 are substantially parallel. ing. When there are a plurality of users, one of the users is appropriately selected, and the pattern projection unit 102 is installed in the vicinity of the user's eyes. It is assumed that this user is in front of the projection plane 120.

パターン受光解析部103と映像投影部110とは隣接して設置され、そのパターン受光解析部103の中心軸と映像投影部110の光軸とは並行に、或いは、双方の軸が投影面の中心で交わるように設置されているとする。そして、映像投影部110及びパターン受光解析部103は、投影面120に向かって、左下方に設置されているとする。   The pattern light reception analysis unit 103 and the video projection unit 110 are installed adjacent to each other, and the central axis of the pattern light reception analysis unit 103 and the optical axis of the video projection unit 110 are parallel or both axes are the center of the projection plane. It is assumed that they are installed so as to cross each other. Then, it is assumed that the video projection unit 110 and the pattern light reception analysis unit 103 are installed on the lower left side toward the projection plane 120.

さて、設置が終了すると、映像投影装置100は、映像投影用補正パラメータの計算を開始する。   When the installation is completed, the video projection device 100 starts calculating the video projection correction parameters.

まず、補正管理部105は、基準パターン発生部101に対して基準パターンの生成を命ずる。   First, the correction management unit 105 instructs the reference pattern generation unit 101 to generate a reference pattern.

すると、基準パターン発生部101は位置歪み補正及び画像分割補正用の基準パターンを生成する。ここでいうパターンとは、前述したように、点、線、多角形等の幾何学的概念であり、図形の色彩(色相、彩度又は明度)、位置又は大きさ等のグラフィック的な属性も持つ。   Then, the reference pattern generator 101 generates a reference pattern for positional distortion correction and image division correction. As described above, the pattern is a geometric concept such as a point, a line, or a polygon, and has graphic attributes such as color (hue, saturation or brightness), position, or size of a figure. Have.

図3は、本実施の形態において用いられる基準パターンを、グラフィカルに表現したもの、すなわち基準パターンに対するパターン像(以下「基準パターン像」という)200である。ここで、本実施の形態において用いられる基準パターンを、以降「基準パターンd」と呼ぶ。   FIG. 3 is a graphical representation of the reference pattern used in the present embodiment, that is, a pattern image (hereinafter referred to as “reference pattern image”) 200 with respect to the reference pattern. Here, the reference pattern used in the present embodiment is hereinafter referred to as “reference pattern d”.

この基準パターンdは、格子状に整列して並べられた点の集合であり、記述的に表現すれば次のようになる。   This reference pattern d is a set of points arranged in a lattice pattern, and is expressed as follows in a descriptive manner.

基準パターンd={Point(0,0)、Point(0,160)、Point(0,320)、(途中略)、Point(960,1120)、Point(960,1280)}。   Reference pattern d = {Point (0, 0), Point (0, 160), Point (0, 320), (middle omitted), Point (960, 1120), Point (960, 1280)}.

ここで、Point(x,y)は、二次元平面上の座標(x,y)に位置する点という意味である。これらの点は、投影面上では、明るい点(面積があるので正確には点でなく小さな円である)として表現されるため、これら点を光点と呼ぶ。   Here, Point (x, y) means a point located at coordinates (x, y) on the two-dimensional plane. Since these points are expressed as bright points on the projection plane (because of the area, they are expressed as small circles instead of dots), these points are called light spots.

また、これら光点をPoint(x,y)と座標で表現することを、光点の位置表現と呼ぶこととする。また、基準パターンdの光点Point(x,y)を、d(x,y)と表わすこととする。   In addition, expressing these light spots with Point (x, y) and coordinates is referred to as light spot position expression. Further, the light spot Point (x, y) of the reference pattern d is represented as d (x, y).

さらに、本実施の形態では、基準パターンdは、矩形で格子上に配置される。そのため、座標で表わす他に、行及び列を用いて表現できると都合がよい。そこで、便宜上、本実施の形態では、基準パターンd、もしくは、基準パターンdから生成されたパターン像上の各点をd[i,j]等と表現する。iは、x軸の正方向への列番号を示し、jは、y軸の正方向への行番号を示す。例えば、Point(0,0)は、d[0,0]と表現でき、図3の点201は、d[4,5]と表現できる。このd[i,j]のような表現を、光点のインデックス表現と呼ぶこととする。   Furthermore, in the present embodiment, the reference pattern d is rectangular and arranged on the grid. For this reason, it is convenient if it can be expressed using rows and columns in addition to the coordinates. Therefore, for the sake of convenience, in the present embodiment, each point on the reference pattern d or a pattern image generated from the reference pattern d is expressed as d [i, j] or the like. i indicates a column number in the positive direction of the x-axis, and j indicates a row number in the positive direction of the y-axis. For example, Point (0, 0) can be expressed as d [0, 0], and the point 201 in FIG. 3 can be expressed as d [4, 5]. This expression such as d [i, j] is referred to as a light spot index expression.

なお、説明の便宜上、基準パターンdの光点の数を縦7横9としているが、実際には、精密さと計算時間とのトレードオフにより光点の数を決定しなければならない。光点の数を多くするほど、精密に補正をすることができる一方、補正処理全体の処理時間が長くなる。   For convenience of explanation, the number of light spots of the reference pattern d is 7 by 9 in length, but in actuality, the number of light spots must be determined by a trade-off between precision and calculation time. As the number of light spots is increased, the correction can be performed more precisely, while the processing time of the entire correction process becomes longer.

また、基準パターンdの縦横の大きさを、横1280ピクセル、縦960ピクセルとして説明しているが、これも説明の便宜のために用いた大きさであり、特にこの大きさである必要はない。   In addition, although the vertical and horizontal sizes of the reference pattern d are described as 1280 pixels in width and 960 pixels in length, this is also a size used for convenience of description, and it is not necessary to have this size in particular. .

さて、基準パターンdにおいて、インデックス表現された光点d[i,j]と位置表示された光点Point(x,y)との関係を、次のように定める。
d[i,j]≡Point(i×160,j×160)
ただし、0≦i≦7、0≦j≦5、i,jは整数
Now, in the reference pattern d, the relationship between the indexed light spot d [i, j] and the position-displayed light spot Point (x, y) is determined as follows.
d [i, j] ≡Point (i × 160, j × 160)
However, 0 ≦ i ≦ 7, 0 ≦ j ≦ 5, i and j are integers

これらの光点は、左上が原点座標の横1280ピクセル、縦960ピクセルの長方形内部に収まっている。なお、この長方形は、映像投影部110の投影範囲にそのまま対応している。つまり、この場合、映像投影部110は、最大横1280ピクセル、縦960ピクセルの画面の投影を行なうことができる。   These light spots are within the rectangle whose upper left corner is 1280 pixels wide and 960 pixels long in the origin coordinates. This rectangle corresponds to the projection range of the video projection unit 110 as it is. That is, in this case, the video projection unit 110 can project a screen having a maximum width of 1280 pixels and a height of 960 pixels.

基準パターンdが、縦横整列された点の集合とすると、後の過程におけるパターン受光解析部103の解析動作において有利である。基準パターンの形としては、例えば、図4に示すような格子状のパターン、或いは、各種幾何学的模様(図示せぬ)が考えられる。あるパターンが基準パターンとして足り得る必要条件としては、基本的に基準パターンの任意の一部が、受光パターンにおいてどの箇所に対応するか、計算可能であることである。   If the reference pattern d is a set of vertically and horizontally aligned points, it is advantageous in the analysis operation of the pattern light receiving analysis unit 103 in the subsequent process. As the shape of the reference pattern, for example, a lattice pattern as shown in FIG. 4 or various geometric patterns (not shown) can be considered. A necessary condition that a certain pattern can suffice as a reference pattern is that it is basically possible to calculate which part of the reference pattern corresponds to which part of the light receiving pattern.

さて、基準パターン発生部101により生成された基準パターンdは、パターン投影部102に渡され、図3に示したような基準パターン像200に変換され、その映像が投影面120に投影される。なお、図3において、基準パターン像200の各点は、黒丸で示されているが、これは作図上の都合によるものであり、実際には図3の黒い部分が、輝度が高い部分であり、地の白い部分は、輝度が0(真っ暗)な部分である。以下の説明全てにおいても、パターン像に関し特に断らない限り、黒白反転表現しているものとする。   Now, the reference pattern d generated by the reference pattern generation unit 101 is transferred to the pattern projection unit 102, converted into a reference pattern image 200 as shown in FIG. 3, and the image is projected on the projection plane 120. In FIG. 3, each point of the reference pattern image 200 is indicated by a black circle. However, this is for the convenience of drawing, and in fact, the black portion in FIG. 3 is a portion with high luminance. The white portion of the ground is a portion where the luminance is 0 (pure dark). In all of the following description, it is assumed that black and white inversion is expressed unless otherwise specified regarding the pattern image.

なお、パターン像の投影は、その各構成要素(図3に示す例では、点)を同時に全て投影する必要はない。例えば、図5に示すように、パターン投影部102は、4点ずつ時間をおいて投影していってもよい。図5には、パターン投影部102が、上下左右で隣り合った4点(d[i,j],d[i,j+1],d[i+1,j],d[i+1,j+1])を同時に投影する例を示しているが、同時に投影する点は、上下左右に隣り合っている必要はない。例えば、基準パターンの光点からランダムに4点ずつ投影していく方法、又は、d[i,j],d[i,j+1],d[i,j+2],d[i,j+3]のように、縦に4点ずつ投影したり、また同様に横4点ずつ投影したりしてもよい。また、パターン投影部102は、上下左右でいくつかの列(n)を飛ばした4点(d[i,j],d[i+n,j],d[i,j+n],d[i+n,j+n])を同時に投影してもよい。   Note that it is not necessary to project all of the constituent elements (points in the example shown in FIG. 3) at the same time. For example, as shown in FIG. 5, the pattern projection unit 102 may project four points at intervals. In FIG. 5, the pattern projection unit 102 simultaneously applies four points (d [i, j], d [i, j + 1], d [i + 1, j], d [i + 1, j + 1]) that are adjacent vertically and horizontally. Although an example of projection is shown, the points to be projected at the same time do not need to be adjacent vertically and horizontally. For example, a method of projecting four points at random from the light spot of the reference pattern, or d [i, j], d [i, j + 1], d [i, j + 2], d [i, j + 3] In addition, four points may be projected vertically, or four points may be projected similarly. Further, the pattern projection unit 102 has four points (d [i, j], d [i + n, j], d [i, j + n], d [i + n, j + n) in which several rows (n) are skipped in the vertical and horizontal directions. ]) May be projected simultaneously.

パターン投影部102が、どのような形で、光点を投影すると有効であるかに関しては、そもそも基準パターンを投影し、それを受光解析することの目的から考えねばならない。   As to how the pattern projection unit 102 is effective when projecting a light spot, it must be considered from the purpose of projecting a reference pattern and analyzing it in the first place.

すなわち、基準パターンを投影して、受光パターンを得ることの目的は、(1)基準パターンから受光パターンへの写像を得る(この写像で投影映像の歪み及び位置ずれを修正する)、(2)投影する光の強弱による補正可能範囲を超えるような、投影面の反射率が低い領域を見つける(見つけて、後の画面分割補正に使う)、の2点である。   That is, the purpose of obtaining the light receiving pattern by projecting the reference pattern is (1) obtaining a mapping from the reference pattern to the light receiving pattern (correcting distortion and misalignment of the projected image by this mapping), (2) These are two points: finding a region with a low reflectance on the projection surface that exceeds the correctable range depending on the intensity of the projected light (finding and using it for subsequent screen division correction).

しかし、後に詳述するように、(1)の目的に関しては、基準パターン上から受光パターン上への対応関係が、少なくとも4点分かればよい。また(2)の目的に関しては、投影面の反射率が著しく低い領域(基準パターンを投影しても、対応する受光パターンが得られない領域)が分かればよいので、必ずしも基準パターン全点を投影する必要はない。   However, as will be described in detail later, for the purpose of (1), it is only necessary to know at least four correspondences from the reference pattern to the light receiving pattern. For the purpose of (2), it is only necessary to know an area where the reflectance of the projection surface is extremely low (an area where the corresponding light receiving pattern cannot be obtained even if the reference pattern is projected). do not have to.

そこで、例えば、最初は基準パターンのうち、4点のみ投影して、基準パターンから受光パターンへの写像が計算された後、全点投影する方法が考えられる。後に詳述するが、投影面が平面ならば4点の対応さえ分かれば、写像は計算できる。或いは、全点投影せずに、偶数行かつ偶数列の点のみを投影していき、反射率が低そうな領域が発見されたら、その領域だけ詳細に投影する(つまり、奇数行または奇数列の点を投影していく)方法等が考えられる。何点ずつかランダムに投影し、反射率が低い領域が見つかれば、その領域に集中的に光点を投影することも有効な方法である。   Thus, for example, a method is conceivable in which only four points are initially projected from the reference pattern, and after the mapping from the reference pattern to the light receiving pattern is calculated, all points are projected. As will be described in detail later, if the projection plane is a plane, the mapping can be calculated as long as the correspondence between the four points is known. Alternatively, only the points in even rows and even columns are projected without projecting all points, and if a region with low reflectance is found, only that region is projected in detail (that is, odd rows or odd columns). The method of projecting the point) can be considered. It is also an effective method to project several points at random and project a light spot in a concentrated manner when a region with low reflectance is found.

なお、同時にどんな点を投影すべきかに関しては、パターン受光解析部103の動作説明の中で再度述べる。また、この段階では説明を簡単にするために、投影面120は反射率が均一であり、色が白色で均一の平面璧であるとして説明する。なお、反射率或いは色彩が均一でない場合、又は、投影面120が平面でない場合については、後述する。   Note that what points should be projected at the same time will be described again in the explanation of the operation of the pattern light receiving analysis unit 103. In order to simplify the explanation at this stage, it is assumed that the projection surface 120 has a uniform reflectance, a white color, and a uniform flat wall. The case where the reflectance or color is not uniform or the projection surface 120 is not a flat surface will be described later.

さて、補正管理部105は、パターン受像解析部103に対し、投影面120に投影されているパターン像を受像、解析して受光パターンを算出するよう命令する。   Now, the correction management unit 105 instructs the pattern image reception analysis unit 103 to receive and analyze the pattern image projected on the projection surface 120 to calculate a light reception pattern.

まず、パターン受像解析部103は、投影面120に写った光学イメージを受像する。この受像したパターン像(受光パターン像)300を図6に示す。この受光パターン像300の解析結果を受光パターンrと呼ぶこととする。   First, the pattern image receiving analysis unit 103 receives an optical image reflected on the projection surface 120. The received pattern image (light receiving pattern image) 300 is shown in FIG. The analysis result of the light receiving pattern image 300 is referred to as a light receiving pattern r.

本実施の形態の場合、正面から投影された基準パターンを投影面に向って左下から見上げる形になるため、受光パターン像の形は、長方形でなく、図6の四角形のように歪んで見える。なお、投影面が、平面でなく、例えば中央部がユーザ側に向ってやや膨らんでいる場合には、例えば図7のような形に歪んで見えるだろう。   In the case of the present embodiment, since the reference pattern projected from the front is looked up from the lower left toward the projection plane, the shape of the received light pattern image is not a rectangle but looks distorted as a square in FIG. If the projection surface is not a flat surface and, for example, the central portion is slightly bulging toward the user side, it will appear distorted as shown in FIG.

次に、パターン受光解析部103は、受光パターン像300を得ると、受光パターン像300を解析して受光パターンrを生成する。この受光パターンrの中身は、認識できた点の集合である。例えば、点301は、Point(965、512)となる。   Next, when obtaining the light reception pattern image 300, the pattern light reception analysis unit 103 analyzes the light reception pattern image 300 and generates a light reception pattern r. The contents of the light receiving pattern r is a set of recognized points. For example, the point 301 becomes Point (965, 512).

画像から点を認識することに関しては、画像解析の一般的な方法を用いてソフトウエア的に点の位置を得ることも可能であるし、また、2次元光点位置検出素子(以下、単に位置検出素子と呼ぶ)を用いて、直接的に点の位置を得てもよい。   Regarding the recognition of a point from an image, it is possible to obtain the position of the point by software using a general method of image analysis, and a two-dimensional light spot position detecting element (hereinafter simply referred to as a position). The position of the point may be obtained directly using a detection element).

ただし、ソフトウエアの画像解析には、比較的高速な演算装置や大量のメモリが必要であり、さらに、必ずしも高速に答を得られるとは限らない。これに対して、位置検出素子を用いる方法は、廉価な部品で高速に各光点の位置を検出することができる。そのため、装置を廉価に作成するには、位置検出素子を利用すると有利である。   However, software image analysis requires a relatively high-speed computing device and a large amount of memory, and further, an answer cannot always be obtained at high speed. On the other hand, the method using the position detection element can detect the position of each light spot at high speed with inexpensive components. For this reason, it is advantageous to use a position detection element in order to produce the device at a low cost.

反面、位置検出素子では、一度に位置を知ることができる光点の数が2、4、8等に限られること、受光パターン像そのものを取り出せないこと、また、光点の色彩は分からない等の欠点がある。したがって、位置検出素子を用いる場合のように、一度にn点の光点の位置しか捕捉しない場合は、上述したように、パターン投影部102は、全ての光点を一度に投影せずに、n点ずつ投影し、投影毎に位置検出を行い、光点の位置を検出すればよい。どちらの方法で、光点の位置を算出するかは、コストや必要とされる性能を勘案して決定される。   On the other hand, with the position detection element, the number of light spots whose position can be known at a time is limited to 2, 4, 8, etc., the light-receiving pattern image itself cannot be taken out, and the color of the light spot is unknown. There are disadvantages. Therefore, when only the positions of the n light spots are captured at a time as in the case of using the position detection element, as described above, the pattern projection unit 102 does not project all the light spots at one time. It is sufficient to project n points at a time, detect the position for each projection, and detect the position of the light spot. Which method is used to calculate the position of the light spot is determined in consideration of cost and required performance.

さて、パターン受光解析部103が受光パターンrを得ると、パターン比較部104は、基準パターンdと受光パターンrとの比較を開始し、基準パターンdの光点d[i,j]と受光パターンrの光点r(x,y)との対応関係を特定する。つまり、パターン比較部104は、図8に示したような対応表の「受光パターン光点の位置」の欄(図で網掛部分)を埋めていく。なお、以下では、d[i,j]に対応する受光パターンrの光点r(x,y)を、r[i,j]と表現する。   When the pattern light reception analysis unit 103 obtains the light reception pattern r, the pattern comparison unit 104 starts comparison between the reference pattern d and the light reception pattern r, and the light spot d [i, j] of the reference pattern d and the light reception pattern. The correspondence relationship between r and the light spot r (x, y) is specified. That is, the pattern comparison unit 104 fills in the “light receiving pattern light spot position” column (shaded portion in the figure) of the correspondence table as shown in FIG. Hereinafter, the light spot r (x, y) of the light receiving pattern r corresponding to d [i, j] is expressed as r [i, j].

この対応関係を特定する方法には、以下に示す3つの方法がある。   There are the following three methods for specifying this correspondence.

[第1の方法]
まず、第1の方法について説明する。
[First method]
First, the first method will be described.

これは、基準パターンの光点d[i,j]を1点ずつ逐次的に投影し、その度に、投影面120上の位置Point(x,y)を読み取ることで、直接的に、d[i,j]とr(x,y)との対応関係を特定する。   This is because the light spot d [i, j] of the reference pattern is sequentially projected point by point, and the position Point (x, y) on the projection plane 120 is read each time, thereby d directly. The correspondence between [i, j] and r (x, y) is specified.

例えば、基準パターンを用いる場合、全ての光点を同時に投影するのでなく、1点ずつ投影し、1光点が投影されたところで、パターン受光解析部103が、受光動作を行うようにする。すると、基準パターンの光点d[i,j]が、受光パターンの光点r(x,y)のいずれに対応しているか、計算を要せずに直接分かることになる。   For example, when the reference pattern is used, instead of projecting all the light spots at the same time, each pattern is projected one by one, and the pattern light receiving analysis unit 103 performs the light receiving operation when one light spot is projected. Then, it can be directly known without calculating, which one of the light spots r (x, y) of the light receiving pattern corresponds to the light spot d [i, j] of the reference pattern.

この方法は単純であり、投影面に反射率が低い領域があって受光パターン像に部分的な欠損があるような場合にも容易に対処が可能である。その反面、この逐次的投影方法では、光点を1点ずつ投影しなければならないため、時間がかかるという欠点もある。例えば、図3に示すように光点の数が63の基準パターンを用いる場合に、パターン投影部102が1秒間で10枚(1枚あたり0.1秒)の画像を投影すると、63点の光点を1点ずつ投影するには、6.3秒かかることになる。そして、精度を上げるためには実際には、光点の数を多くして、光点の間隔をもっと細かくしなければならないし、これに加えてパターン受光解析部103の受光部の動作時間を勘案すると、さらに時間を要するであろう。   This method is simple and can easily cope with a case where there is a region with low reflectance on the projection surface and there is a partial defect in the light receiving pattern image. On the other hand, this sequential projection method has a drawback that it takes time because light spots must be projected one by one. For example, as shown in FIG. 3, when a reference pattern having 63 light spots is used, if the pattern projection unit 102 projects 10 images (0.1 second per sheet) in 1 second, 63 points are obtained. It takes 6.3 seconds to project light spots one by one. In order to increase the accuracy, in actuality, the number of light spots must be increased to further reduce the distance between the light spots, and in addition to this, the operation time of the light receiving section of the pattern light receiving analysis section 103 can be reduced. Considering this, it will take more time.

[第2の方法]
次に第2の方法について説明する。
[Second method]
Next, the second method will be described.

これは、受光パターンの全ての光点の位置検出を済ませた後に、基準パターンの光点d[i,j]と、位置検出の結果得られた受光パターンの光点r(x,y)との対応関係を算出する。具体的には、以下のステップA1からステップA4の過程及びステップB1からステップB6の過程により、対応関係を算出する。ステップA1からステップA4は、基準パターンの4隅の光点に対応する光点が受光パターンに存在した場合の算出方法である。一方、ステップB1からステップB6は、基準パターンの4隅の光点に対応する光点のうち、1つ以上の光点の欠損があった場合の算出方法である。   This is because the light spot d [i, j] of the reference pattern and the light spot r (x, y) of the light receiving pattern obtained as a result of the position detection after the position detection of all the light spots of the light receiving pattern is completed. Is calculated. Specifically, the correspondence is calculated by the following process from Step A1 to Step A4 and the process from Step B1 to Step B6. Steps A1 to A4 are calculation methods when light spots corresponding to the light spots at the four corners of the reference pattern exist in the light receiving pattern. On the other hand, Steps B1 to B6 are calculation methods when one or more light spots are missing among the light spots corresponding to the light spots at the four corners of the reference pattern.

いま、図9のような受光パターン像が得られており、各光点の位置も全て検出されているとする。   Now, it is assumed that a light receiving pattern image as shown in FIG. 9 has been obtained, and all the positions of the respective light spots have been detected.

(ステップA1)
受光パターンrの中で、y座標値が一番小さな点をr0とし、一番大きな点をr1とする。
(Step A1)
In the light receiving pattern r, the point having the smallest y coordinate value is designated as r0, and the largest point is designated as r1.

(ステップA2)
r0及びr1を結ぶ直線r0−r1を求める。そして、r0とr1を通る直線403を、式(追1)とする。

Figure 2011050013
ここでn、mは定数であり、yはxの1次関数となる。 (Step A2)
A straight line r0-r1 connecting r0 and r1 is obtained. Then, a straight line 403 passing through r0 and r1 is defined as an expression (Addition 1).
Figure 2011050013
Here, n and m are constants, and y is a linear function of x.

(ステップA3)
受光パターンrの光点のうち、直線r0−r1から最も距離が離れている2点を求める。この2点のうち、直線r0−r1上の領域(y軸でマイナス方向の領域)の点をr2とし、下の領域の点をr3とする。
(Step A3)
Of the light spots of the light receiving pattern r, two points that are farthest from the straight line r0-r1 are obtained. Of these two points, the point in the region on the straight line r0-r1 (the region in the negative direction on the y axis) is r2, and the point in the lower region is r3.

具体的には、受光パターンrの光点のうち、直線403から、直線403の上の領域と下の領域とで、それぞれもっとも距離が離れている2点を求める。ただし、距離が最大の点が分かればよく、実際の距離は必要ないため、簡易な計算方法で充分である。つまり、受光パターンrの各光点(xi,yi)のうち、式(2)に示される距離Rが最小の点(直線403の上、すなわちy軸のマイナス方向)と、最大の点(直線403の下、すなわち軸のプラス方向)を求めればよい。

Figure 2011050013
Specifically, out of the light spots of the light receiving pattern r, two points that are most distant from each other between the area above the line 403 and the area below the line 403 are obtained. However, since it is sufficient that the point with the maximum distance is known and the actual distance is not necessary, a simple calculation method is sufficient. That is, among the respective light spots (xi, yi) of the light receiving pattern r, the distance R shown in the equation (2) is the minimum (on the straight line 403, that is, the negative direction of the y axis) and the maximum point (the straight line). What is necessary is just to obtain | require under 403, ie, the positive direction of an axis | shaft.
Figure 2011050013

例えば、図9に示す例では、r2が光点404であり、r3が光点405である。   For example, in the example shown in FIG. 9, r2 is the light spot 404 and r3 is the light spot 405.

(ステップA4)
ステップA1からステップA3で求めたr0,r1、r2、r3は、受光パターン像を形成する矩形の4隅の光点にあたる。つまり、r0またはr2が、r[0,0]またはr[8,0]、すなわち受光パターン像を形成する矩形の4頂点のうち、上側の2頂点である。そして、r0,r2のうち、座標xの値が小さい方が、r[0,0]となる。図9のような受光パターン像の場合は、r0がr[0,0]で、r2がr[0,8]となる。同様に、r1がr[6,8]であり、r3がr[0,6]となる。
(Step A4)
R0, r1, r2, and r3 obtained in steps A1 to A3 correspond to the light spots at the four corners of the rectangle forming the light receiving pattern image. That is, r0 or r2 is r [0,0] or r [8,0], that is, the upper two vertices among the four vertices of the rectangle forming the light receiving pattern image. Of r0 and r2, the smaller coordinate x value is r [0,0]. In the case of the light receiving pattern image as shown in FIG. 9, r0 is r [0,0] and r2 is r [0,8]. Similarly, r1 is r [6,8] and r3 is r [0,6].

この結果、図10に示したような基準パターンの矩形の4隅の光点と受光パターンの矩形4隅の光点との対応関係が特定される。   As a result, the correspondence relationship between the light spots at the four corners of the rectangle of the reference pattern as shown in FIG. 10 and the light spots at the four corners of the rectangle of the light receiving pattern is specified.

4点の対応関係が分かれば、基準パターンから受光パターンへの写像が算出でき、その写像を利用することで、残りの点の対応関係も分かるようになる。残りの点の対応関係に関しては、写像の算出方法について説明した後に、再度詳しく説明をする。   If the correspondence between the four points is known, the mapping from the reference pattern to the light receiving pattern can be calculated, and the correspondence between the remaining points can be understood by using the mapping. The correspondence between the remaining points will be described again in detail after describing the mapping calculation method.

上述の光点が欠けていない場合というのは、投影面120が、反射率及び色が一様であり、投影された光点が全て読み取ることができるとの前提がある場合に成り立つ。しかし、実際のモバイル環境では、必ずしも反射率又は色彩が一様であるとは限らない。そのため、基準パターンの矩形の4隅が、全て読み取ることが困難な場合がある。   The case where the above-mentioned light spot is not missing is established when there is a premise that the projection surface 120 has uniform reflectance and color and can read all the projected light spots. However, in an actual mobile environment, the reflectance or color is not always uniform. Therefore, it may be difficult to read all four corners of the reference pattern rectangle.

そこで、次に受光パターン像から光点が欠けている場合、特に欠けているのが、基準パターンの矩形の4隅の点に対応する光点を含む場合に関して述べる。この場合、(1)読み取れた点から推測して、読み取れなかった4隅の点を補完するか、或いは、(2)読み取れた点からd[i,j]と対応が付く4隅の4点を選択する必要がある。   Therefore, next, when light spots are missing from the light receiving pattern image, a case where light spots corresponding to the four corner points of the reference pattern rectangle are included will be described. In this case, (1) the four points at the four corners that are not estimated can be complemented by guessing from the read points, or (2) the four points at the four corners that correspond to d [i, j] from the read points. It is necessary to select.

ここでは、まず前者の(1)の場合から説明する。   Here, the first case (1) will be described first.

今、図11のように、受光パターン像において、r[8,0](光点505)と、その周辺のいくつかの光点が欠けているとする。ただし、現時点では、光点を数えてそれが63点に満たないことにより、どこかの点が欠けていること自体は分かるものの、欠けている点の位置が、r[8,0]とその周辺だとまでは分からない。   Now, as shown in FIG. 11, it is assumed that r [8,0] (light spot 505) and some surrounding light spots are missing in the light receiving pattern image. However, at the present time, the number of light spots is less than 63, and it can be understood that some point is missing, but the position of the missing point is r [8,0] and its I don't know if it's around.

このような場合において、欠けた光点を見つけ、その受光パターン像上の位置を推定する方法について述べる。   In such a case, a method for finding the missing light spot and estimating the position on the light receiving pattern image will be described.

(ステップB1)
まず、先程のステップA1〜A4と同様の動作を行ない、受光パターン像を形成する矩形の4隅の光点の候補として、r0′、r1′、r2′、r3′を得る。図11においては、r0′が光点501に対応し、r1′が光点502に対応し、r2′が光点503に対応し、r3′が光点504に対応する。ここで、受光パターン像上では、r[0,8](光点505)が、失われているため、r2′は、実際には矩形の4隅の点の1つではない。
(Step B1)
First, the same operations as in steps A1 to A4 are performed, and r0 ′, r1 ′, r2 ′, and r3 ′ are obtained as candidates for the light spots at the four corners of the rectangle forming the light receiving pattern image. In FIG. 11, r 0 ′ corresponds to the light spot 501, r 1 ′ corresponds to the light spot 502, r 2 ′ corresponds to the light spot 503, and r 3 ′ corresponds to the light spot 504. Here, since r [0,8] (light spot 505) is lost on the light receiving pattern image, r2 'is not actually one of the four corner points of the rectangle.

さて、ここで、受光パターン像の光点の総数が、基準パターンの光点の総数未満の場合、以下のステップに進む。   Now, when the total number of light spots of the light receiving pattern image is less than the total number of light spots of the reference pattern, the process proceeds to the following steps.

(ステップB2)
まず、r0′、r1′、r2′、r3′の4点を結ぶ直線を表わす直線の式(3)を求める。

Figure 2011050013
式(3)は、xの1次関数となる。 (Step B2)
First, a straight line expression (3) representing a straight line connecting four points r0 ′, r1 ′, r2 ′, and r3 ′ is obtained.
Figure 2011050013
Equation (3) is a linear function of x.

そして、r0′r2′を結ぶ直線を直線506とし、r2′r1′を結ぶ直線を直線512とし、以下同様に、r1′r3′を結ぶ直線を直線508とし、r3′r0′を結ぶ直線を直線509とする。   A straight line connecting r0′r2 ′ is a straight line 506, a straight line connecting r2′r1 ′ is a straight line 512, and similarly, a straight line connecting r1′r3 ′ is a straight line 508, and a straight line connecting r3′r0 ′ is the same. A straight line 509 is assumed.

(ステップB3)
今、光点を(x,y)として、各々の直線の式に、受光パターンの光点のx座標を代入し、その結果得られるy座標の値(Y=lmn′(x))と、実際のy座標の値とを比較し、全ての光点を以下の3群に振り分ける。
(Step B3)
Now, assuming that the light spot is (x, y), the x coordinate of the light spot of the light receiving pattern is substituted for each straight line equation, and the y coordinate value (Y = lmn ′ (x)) obtained as a result is The actual y-coordinate value is compared, and all the light spots are assigned to the following three groups.

群1(直線上にあるもの)として、以下が成り立つ交点を選ぶ。
|y−Y|≦α(αは、位置検出素子の誤差相当の値)
群2(直線より下にあるもの)として、以下が成り立つ交点を選ぶ。
|y−Y|>α、かつ、y−Y>0
群3(直線より上にあるもの)として、以下が成り立つ交点を選ぶ。
|y−Y|>α、かつ、y−Y<0
ここで、群2の要素が空でなく、かつ、群3の要素が空でない直線を選択する。このようにして選択された直線の上下には光点が存在するので、当該直線は、受光パターン像を形成する矩形の辺となっていないということが分かる。
As group 1 (on a straight line), select an intersection where:
| Y−Y | ≦ α (α is a value corresponding to an error of the position detection element)
For group 2 (below the straight line), choose an intersection where:
| Y−Y |> α and y−Y> 0
For group 3 (above the straight line), select the intersection where:
| Y−Y |> α and y−Y <0
Here, a straight line is selected in which the elements of group 2 are not empty and the elements of group 3 are not empty. Since light spots exist above and below the straight line selected in this way, it can be seen that the straight line is not a rectangular side forming the light receiving pattern image.

図11に示す例では、直線512(光点507)が、群2の要素が空でなく、かつ、群3の要素が空でない直線となる。図11に示す例では、この段階で、正しい矩形の4隅の各2点が定まる。なお、正しい矩形とは、基準パターンの矩形に対応するパターン像の矩形をいう。   In the example shown in FIG. 11, the straight line 512 (light spot 507) is a straight line in which the elements of the group 2 are not empty and the elements of the group 3 are not empty. In the example shown in FIG. 11, at this stage, two points at the four corners of the correct rectangle are determined. The correct rectangle means a pattern image rectangle corresponding to the reference pattern rectangle.

具体的には、群2の要素が空であり、かつ、群3の要素が空の直線をlmn′とする場合、ri′のうち、i≠n、かつ、i≠mである点が、正しい矩形の4隅の各2点となる。図11に示す例では、群2の要素が空であり、かつ、群3の要素が空の直線は、直線l21′であるから、正しい矩形の4隅の各2点の光点は、r0′及びr3′である。   Specifically, when the element of group 2 is empty and the straight line of element 3 of group 3 is lmn ′, the point of i′′n and i ≠ m in ri ′ is There are two points each in the four corners of the correct rectangle. In the example shown in FIG. 11, since the straight line in which the group 2 element is empty and the group 3 element is empty is a straight line l21 ′, the light spots at the two corners of the right rectangle are r0. 'And r3'.

なお、このステップで、このような直線が2本以上ある場合は、光点の欠損が多すぎてしまうため、この方法では、欠けた光点の補正は困難である。   In this step, if there are two or more such straight lines, there are too many missing light spots, and this method makes it difficult to correct the missing light spots.

(ステップB4)
次に、残った光点2点のうちから、正しい矩形の4隅の光点を選択する。
(Step B4)
Next, out of the remaining two light spots, the light spots at the four corners of the correct rectangle are selected.

残った2点のうち、どちらの点についても、以下の処理を行なう。   The following processing is performed for both of the remaining two points.

(ステップB4−1)
ステップB3において群2及び群3に振り分けられた光点のうち、正しい矩形の4隅の光点を含まない群を群gとする。また、ステップB3で選択された直線をlxとする。具体的には、図11に示す例では、直線lxは、直線512(光点507)である。
(Step B4-1)
Of the light spots assigned to group 2 and group 3 in step B3, a group that does not include light spots at the four corners of the correct rectangle is designated as group g. Further, the straight line selected in step B3 is assumed to be lx. Specifically, in the example illustrated in FIG. 11, the straight line lx is a straight line 512 (light spot 507).

群gに含まれる光点のうち、直線lxから最も距離が離れた点を選択し、v0とする。そして、正しい矩形の4隅の点と仮定した点と、点v0とを結ぶ直線を求める。この直線をlv0とする。そして、直線lv0に対して、ステップB3において行った処理と同じ処理を行ない、群1、群2及び群3を求める。   Among the light spots included in the group g, a point that is the farthest from the straight line lx is selected and is set as v0. Then, a straight line connecting the point assumed to be the four corner points of the correct rectangle and the point v0 is obtained. Let this straight line be lv0. Then, the same processing as that performed in step B3 is performed on the straight line lv0, and groups 1, 2, and 3 are obtained.

(ステップB4−2)
ここで、群2または群3に含まれる光点がなくなれば、直線lv0は、正しい矩形の辺を表わしている可能性があり、ここで処理を終了して、残りの光点についてステップB4−1から実行する。残りの光点がなければ、ステップB5に進む。
(Step B4-2)
Here, if there is no light spot included in group 2 or group 3, there is a possibility that straight line lv0 represents a correct rectangular side, and the processing ends here, and step B4- Run from 1. If there are no remaining light spots, the process proceeds to step B5.

一方、群2及び群3がともに空ではない場合は、新たに直線lv0を直線lxとして、ステップB4−1から繰り返す。   On the other hand, when both the group 2 and the group 3 are not empty, the line lv0 is newly set as the line lx and the process is repeated from step B4-1.

(ステップB5)
さて、この場合、正しい矩形の辺の候補が2つ計算できる。このうち、それぞれの直線についての群1の要素数が多い方を正しい矩形の辺とする。
(Step B5)
In this case, two correct rectangular side candidates can be calculated. Of these, the side with the larger number of elements in group 1 for each straight line is defined as the correct rectangular side.

図11に示す例では、直線513及び直線512が正しい矩形の辺の候補として残る。このとき、直線513、直線512のそれぞれの群1の数(つまり、それぞれの直線上にある光点の数)は、2、3である。従って、直線512についての群1の要素数が、直線513についての群1の要素数より多いことから、直線512が正しい矩形の辺と分かる。また、正しい矩形の4隅ではなかった光点、つまり誤っていた光点は、r2′であることが分かる。   In the example illustrated in FIG. 11, the straight line 513 and the straight line 512 remain as candidates for a correct rectangular side. At this time, the number of groups 1 of the straight lines 513 and 512 (that is, the number of light spots on each straight line) is two or three. Accordingly, since the number of elements in group 1 for the straight line 512 is larger than the number of elements in group 1 for the straight line 513, the straight line 512 can be recognized as a correct rectangular side. It can also be seen that the light spot that was not the four corners of the correct rectangle, that is, the light spot that was incorrect, is r2 '.

(ステップB6)
残った正しい矩形の辺と、誤って4隅の点とされた光点を含む正しい矩形の辺との交点を求める。この交点が、正しい矩形の4隅の点の最後の1点である。図11に示す例では、残った正しい矩形の辺、すなわち、直線512と、誤って4隅の点とされた光点r2′を含む正しい矩形の辺、すなわち、直線506との交点である、光点505が求められる点となる。
(Step B6)
An intersection point between the remaining correct rectangular side and the correct rectangular side including the light spot which is erroneously set as the four corner points is obtained. This intersection is the last one of the four corner points of the correct rectangle. In the example shown in FIG. 11, this is the intersection of the remaining correct rectangular side, that is, the straight line 512, and the correct rectangular side including the light spot r2 ′ that is erroneously set as the four corner points, that is, the straight line 506. The light spot 505 is obtained.

[第3の方法]
最後に第3の方法について述べる。第3の方法は、第1の方法と第2の方法との中間的な方法である。第1の方法は、1点ずつ逐次的に投影し、それに対する受光パターンを求める。第2の方法は、全点を投影し、その後に全点の受光パターンを求める。第3の方法は、全点ではない複数の点を同時に投影し、その受光パターンを求める。
[Third method]
Finally, the third method will be described. The third method is an intermediate method between the first method and the second method. The first method sequentially projects one point at a time and obtains a light receiving pattern for the projection. In the second method, all the points are projected, and then the light receiving pattern of all the points is obtained. In the third method, a plurality of points that are not all points are projected simultaneously, and the light reception pattern is obtained.

同時に投影する複数の点の数は、パターン受光解析部103が同時に位置検出できる光点数以下とする。例えば、パターン受光解析部103が同時に位置検出できる光点数が4点までの場合、投影する光点は同時に4点以下とする。この場合には、d[0,0]、d[0,6]、d[0,8]、d[6,8]の光点、つまり、基準パターンの4隅の点を投影する。   The number of a plurality of points to be projected simultaneously is set to be equal to or less than the number of light points that the pattern light receiving analysis unit 103 can detect simultaneously. For example, when the number of light spots that can be simultaneously detected by the pattern light reception analysis unit 103 is four, the number of light spots to be projected is set to four or less simultaneously. In this case, the light spots of d [0, 0], d [0, 6], d [0, 8], d [6, 8], that is, the four corner points of the reference pattern are projected.

ここで、投影した4点に対する受光パターンの光点がそのまま得られれば、基準パターンから受光パターンへの写像が求められるので、写像が求まった後に、4隅の光点以外で、基準パターンの光点と受光パターンの光点との対応関係を求める。なお、写像の求め方および写像が求まった後の基準パターンの光点と受光パターンの光点との対応関係の求め方については後述する。   Here, if the light spots of the light receiving pattern with respect to the projected four points are obtained as they are, a mapping from the reference pattern to the light receiving pattern is obtained. Therefore, after the mapping is obtained, the light of the reference pattern other than the light spots at the four corners is obtained. The correspondence between the points and the light spots of the light receiving pattern is obtained. A method for obtaining the mapping and a method for obtaining the correspondence between the light spot of the reference pattern after the mapping is obtained and the light spot of the light receiving pattern will be described later.

もし、基準パターンの矩形の4隅の点のうち欠けた光点があるなら、基準パターンの欠けた光点の周囲の点を投影して、受光パターン像が得られるかどうかを確かめる。例えば、基準パターンのd[0,0]に対する周囲の点とは、d[1,0]、d[0,1]又はd[1,1]である。周囲の点としてどの点を選択するかについては、ランダムでもよいし、適当な規則にしたがってもよい。例えば、図12には、d[0,0]から始まって、d[0,3]までの順序を矢印で示してある。もし、d[0,0]に対する受光パターン像が得られない場合は、例えば、図12中の矢印の順序で基準パターンの光点1点を投影して、受光パターン像が得られるまで繰り返せばよい。   If there are missing light spots among the four corner points of the rectangle of the reference pattern, the surrounding points of the light spots lacking the reference pattern are projected to check whether a light receiving pattern image can be obtained. For example, the surrounding points for d [0, 0] of the reference pattern are d [1, 0], d [0, 1], or d [1, 1]. The points to be selected as the surrounding points may be random or may follow an appropriate rule. For example, in FIG. 12, the order from d [0, 0] to d [0, 3] is indicated by arrows. If a light reception pattern image for d [0, 0] cannot be obtained, for example, one light spot of the reference pattern is projected in the order of the arrows in FIG. 12, and the process is repeated until a light reception pattern image is obtained. Good.

以上で、欠けた光点を見つけだし、その受光パターン像上の位置を推定する方法についての説明を終える。   The description of the method for finding the missing light spot and estimating the position on the received light pattern image is completed.

[写像]
次に、基準パターンから受光パターンへの写像を求める方法について説明する。
[Mapping]
Next, a method for obtaining a mapping from the reference pattern to the light receiving pattern will be described.

投影面120が平面の場合には、基準パターンd上の点d(x,y)から受光パターンr上の点r(X,Y)への写像は、射影変換となる。射影変換の場合、その写像は、式(4)及び式(5)と表わすことができる。

Figure 2011050013
Figure 2011050013
ただし、(X,Y)は、受光パターンr上の点で、(x,y)は、基準パターンd上の点である。 When the projection surface 120 is a plane, the mapping from the point d (x, y) on the reference pattern d to the point r (X, Y) on the light receiving pattern r is projective transformation. In the case of projective transformation, the mapping can be expressed as Equation (4) and Equation (5).
Figure 2011050013
Figure 2011050013
However, (X, Y) is a point on the light receiving pattern r, and (x, y) is a point on the reference pattern d.

式(4)及び式(5)において、係数a0、、a、b0,、b、及び定数c0、、cが、この写像、すなわち、射影変換の写像パラメータとなる。そして、この9つの写像パラメータを算出するには、写像の元側である基準パターンd上の少なくとも4つの光点が、受光パターンr上のどの光点に対応しているのか分かればよい。 In the equations (4) and (5), the coefficients a 0, a 1 , a 2 , b 0, b 1 , b 2 and the constants c 0, c 1 , c 2 are the mapping, that is, the projective transformation. This is a mapping parameter. In order to calculate these nine mapping parameters, it is only necessary to know which light spots on the light receiving pattern r correspond to at least four light spots on the reference pattern d which is the original side of the mapping.

ここではまず、この4つの点として、基準パターン及び受光パターンを形成する矩形の頂点、すなわち、d[0,0]、d[0,6]、d[8,0]、d[8,6]及びr[0,0]、r[0,6]、r[8,0]、r[8,6]を選択する。これらの点を選択したのは、写像をなるべく大きな領域で計算する方が、より良好な精度で得られるからである。図10は、これらの点の対応関係を示している。   First, as these four points, rectangular vertices forming the reference pattern and the light receiving pattern, that is, d [0, 0], d [0, 6], d [8, 0], d [8, 6 ] And r [0, 0], r [0, 6], r [8, 0], r [8, 6]. These points are selected because it is possible to obtain a better accuracy by calculating the map in as large a region as possible. FIG. 10 shows the correspondence between these points.

そして、d[i,j]=(Xi,yi)、r[i,j]=(xi,yi)とし、(Xi,yi,xi,yi)を、式(4)及び式(5)の(X,Y,x,y)に代入し、連立法定式を解くことにより、写像パラメータa、a、a、b、b、b、c、c、cが定まる。 Then, d [i, j] = (Xi, yi) and r [i, j] = (xi, yi) are set, and (Xi, yi, xi, yi) is expressed by the equations (4) and (5). Substituting into (X, Y, x, y) and solving the simultaneous formula, the mapping parameters a 0 , a 1 , a 2 , b 0 , b 1 , b 2 , c 0 , c 1 , c 2 are Determined.

図13は、この写像の例を模式的に示した図である。図13Aは、元の映像であり、図13Bは、図13Aに対し写像変換された映像である。   FIG. 13 is a diagram schematically showing an example of this mapping. FIG. 13A is an original image, and FIG. 13B is an image obtained by mapping conversion with respect to FIG. 13A.

このようにして、写像が決定されると、写像パラメータ決定に用いた矩形の4隅の光点以外の点の対応関係をも決定することができる。いま写像をWとし、d[i,j]に対し射影変換を行った結果(xdi,ydi)を得るとする。   When the mapping is determined in this way, the correspondence between points other than the light points at the four corners of the rectangle used for determining the mapping parameter can also be determined. Assume that the mapping is W and the result (xdi, ydi) of projective transformation on d [i, j] is obtained.

(xdi,ydi)=W(d[i,j])
ここで、dist(p1,p2)を、点p1と点p2との距離を算出する関数とする。なお、p1、p2は、点の座標を示す。
(Xdi, ydi) = W (d [i, j])
Here, dist (p1, p2) is a function for calculating the distance between the points p1 and p2. In addition, p1 and p2 show the coordinate of a point.

このとき、式(6)を満たす受光パターン上の点(X,Y)が存在すると、その点は、d[i,j]に対応する点、すなわちr[i,j]である。

Figure 2011050013
なお、αは、位置検出素子の誤差相当の値である。 At this time, if there is a point (X, Y) on the light receiving pattern that satisfies Expression (6), the point is a point corresponding to d [i, j], that is, r [i, j].
Figure 2011050013
Α is a value corresponding to an error of the position detection element.

そして、全ての受光パターンの光点について、対応するr[i,j]が判明したところで、つまり、図8の対応表の網掛け部分に観測できた受光パターンの光点を入力し終わったところで、パターン比較部104は動作を一旦終了する。なお、この対応表は、パターン受光解析部103に記録され、後の過程で利用されることになる。   Then, when the corresponding r [i, j] is found for the light spots of all the light receiving patterns, that is, when the light spots of the light receiving patterns that can be observed in the shaded portion of the correspondence table of FIG. The pattern comparison unit 104 ends the operation once. This correspondence table is recorded in the pattern light reception analysis unit 103 and used in a later process.

ここで、パターン投影部102、パターン受光解析部103、パターン比較部104及び位置歪み補正部106の動作は、比較的複雑な処理であったため、図14及び図15にフローチャートとしてまとめておく。   Here, since the operations of the pattern projection unit 102, the pattern light reception analysis unit 103, the pattern comparison unit 104, and the position distortion correction unit 106 are relatively complicated processes, they are summarized as flowcharts in FIGS.

図14のフローチャートは、基準パターンの光点のうち、1つずつ投影する第1の方法でのパターン投影部102、パターン受光解析部103及びの動作を示す。これに対して、図15のフローチャートは、基準パターンの光点のうち、2つ以上の光点を同時に投影する第3の方法でのパターン投影部102、パターン受光解析部103及びパターン比較部104の動作を示す。   The flowchart of FIG. 14 shows the operations of the pattern projection unit 102 and the pattern light reception analysis unit 103 in the first method of projecting light points of the reference pattern one by one. On the other hand, in the flowchart of FIG. 15, the pattern projection unit 102, the pattern light reception analysis unit 103, and the pattern comparison unit 104 in the third method of projecting two or more light points simultaneously among the light points of the reference pattern. Shows the operation.

第1の方法から第3の方法のいずれの方法も、最終的には、図8に示したような、各基準パターンの光点とそれに対する受光パターンの光点との対応表が生成され、生成された対応表に基づいて、補正管理部105は、位置歪み補正、画像分割補正又は色彩補正が必要か否か判断する。   In any of the first method to the third method, finally, a correspondence table between the light spots of the respective reference patterns and the light spots of the light receiving pattern corresponding thereto is generated as shown in FIG. Based on the generated correspondence table, the correction management unit 105 determines whether position distortion correction, image division correction, or color correction is necessary.

次に、補正管理部105における、各種補正が必要か否かの判断方法について説明する。   Next, a method for determining whether various corrections are necessary in the correction management unit 105 will be described.

まず、補正管理部105は、図8に示したような、基準パターンの光点と受光パターンの光点との対応表を確認する。ここで、基準パターンの光点の位置と、当該基準パターンの光点に対応する受光パターンの光点の位置とが異なる場合、補正管理部105は、位置歪み補正が必要と判断する。   First, the correction management unit 105 checks a correspondence table between the light spots of the reference pattern and the light spots of the light receiving pattern as shown in FIG. Here, if the position of the light spot of the reference pattern is different from the position of the light spot of the light receiving pattern corresponding to the light spot of the reference pattern, the correction management unit 105 determines that position distortion correction is necessary.

また、全ての基準パターンの光点に対して、受光パターンの光点が存在するならば、投影面120には、反射率が低く投影に適さない領域がなかったと推測できる。すなわち、全ての基準パターンの光点に対応する受光パターンの光点が存在する場合、補正管理部105は、画面分割補正が不要と判断する。この場合、補正管理部105は、色彩補正のためのパターン比較動作を行う。色彩補正のためのパターン比較動作については、後程説明する。   Further, if there are light spots of the light receiving pattern for all the light spots of the reference pattern, it can be estimated that there is no region on the projection surface 120 that has a low reflectance and is not suitable for projection. That is, when there are light spots of the light receiving patterns corresponding to the light spots of all the reference patterns, the correction management unit 105 determines that the screen division correction is unnecessary. In this case, the correction management unit 105 performs a pattern comparison operation for color correction. The pattern comparison operation for color correction will be described later.

一方、ある基準パターンの光点に対して、受光パターンの光点が欠損していた場合は、どうなるであろうか。   On the other hand, what happens if the light spot of the light receiving pattern is missing with respect to the light spot of a certain reference pattern?

単純な2つの例を用いて、受光パターンの光点が欠損した時の補正管理部105の動作の概略について説明する。その後に、一般的な動作について説明する。   An outline of the operation of the correction management unit 105 when the light spot of the light receiving pattern is lost will be described using two simple examples. Thereafter, a general operation will be described.

図16に1つ目の単純な例の受光パターン像を模式的に示す。受光パターン像は、実際には長方形に見えるとは限らない。しかし、この時点で基準パターンから受光パターンへの写像は決定しているはずであるので、従って、図16は、得られた受光パターン像に、得られた写像の逆写像を施したものと考えて欲しい。   FIG. 16 schematically shows a light receiving pattern image of the first simple example. The light reception pattern image does not always look rectangular. However, since the mapping from the reference pattern to the light receiving pattern should have been determined at this time, therefore, FIG. I want you.

図16において、受光パターン600上の斜線領域601に含まれる光点は欠損している。例えば、璧に黒い色の柱がある場合、その領域に投影した基準パターンの光点が欠損してしまう。なお、図16では、本来ならあるべき光点を白丸で示している。   In FIG. 16, the light spot included in the hatched area 601 on the light receiving pattern 600 is missing. For example, when there is a black column, the light spot of the reference pattern projected on that area is lost. In FIG. 16, the light spots that should be originally shown are indicated by white circles.

さて、補正管理部105は、受光パターン600と元の基準パターン(図3)との比較から、光点が欠損している領域がある場合、画面補正分割が必要と判断する。補正管理部105は、全ての基準パターンの光点に対応する受光パターンの光点が存在しない場合、画面補正分割が必要と判断する。そして、補正管理部105は、光点が欠損している領域を大きく見積もって、反射率が低く投影面として適さない領域(以下「低反射領域」という)を検出する。例えば、図16に示す例では、補正管理部105は、領域602を低反射領域として検出する。   Now, from the comparison between the light receiving pattern 600 and the original reference pattern (FIG. 3), the correction management unit 105 determines that the screen correction division is necessary when there is a region where the light spot is missing. The correction management unit 105 determines that the screen correction division is necessary when there are no light spots of the light receiving patterns corresponding to the light spots of all the reference patterns. Then, the correction management unit 105 estimates a region where the light spot is missing, and detects a region having a low reflectance and not suitable as a projection surface (hereinafter referred to as a “low reflection region”). For example, in the example illustrated in FIG. 16, the correction management unit 105 detects the area 602 as a low reflection area.

次に、補正管理部105は、配下の位置歪み補正部106、色彩補正部108、及び、画面分割補正部107を動作させ、各補正パラメータを得る。各々の補正部の出力は、いずれもある画面から画面への写像を行う補正パラメータである。これら3つの補正部の起動順序はどれでもよく、また並列に動作してもよい。   Next, the correction management unit 105 operates the subordinate position distortion correction unit 106, the color correction unit 108, and the screen division correction unit 107 to obtain each correction parameter. The output of each correction unit is a correction parameter for mapping from one screen to another. These three correction units may be activated in any order and may operate in parallel.

位置歪み補正部106は、基準パターンdから受光パターンrへの写像Wを用いて、位置歪み用補正パラメータを生成する。写像Wは、既にパターン比較部104が算出した、基準パターンから受光パターンへの写像である。   The positional distortion correction unit 106 uses the mapping W from the reference pattern d to the light receiving pattern r to generate a positional distortion correction parameter. The mapping W is a mapping from the reference pattern to the light receiving pattern that has already been calculated by the pattern comparison unit 104.

色彩補正部108は、色彩(色相、彩度、明度)を補正する色彩用補正パラメータを生成する。具体的には、色彩補正部108は、元画面の画素の色明度輝度から補正画面上の同一領域の画素の色明度輝度への補正を行う写像Uを生成する。なお、色彩補正についての詳細は、後述する。色彩補正部108は、写像Uを出力する。   The color correction unit 108 generates a color correction parameter for correcting the color (hue, saturation, brightness). Specifically, the color correction unit 108 generates a mapping U that performs correction from the color brightness luminance of the pixels on the original screen to the color brightness luminance of the pixels in the same region on the correction screen. Details of the color correction will be described later. The color correction unit 108 outputs the mapping U.

画面分割補正部107は、投影する画面を分割して、さらに、低反射領域602を避けて投影するように画面を補正する写像Vを生成する。図17の具体例を用いて、画面分割補正について説明する。   The screen division correction unit 107 divides the screen to be projected, and further generates a mapping V that corrects the screen so as to avoid the low reflection region 602 and project. The screen division correction will be described using the specific example of FIG.

[画面分割補正]
まず、画面分割補正部107は、投影画面を低反射領域700の中心線によって分割し、さらにその分割された画面を低反射領域700にかからないように縮小させる。図17に示す例では、画面分割補正部107は、2つに分割された画面のうち、向って左側の画面の領域701を、領域702まで縮小させる。同様に、画面分割補正部107は、右側の画面の領域703を、低反射領域700を避けるように、領域704まで縮小させる。
[Screen division correction]
First, the screen division correction unit 107 divides the projection screen by the center line of the low reflection region 700 and further reduces the divided screen so as not to cover the low reflection region 700. In the example illustrated in FIG. 17, the screen division correction unit 107 reduces the area 701 on the left side of the divided screen to the area 702. Similarly, the screen division correction unit 107 reduces the area 703 of the right screen to the area 704 so as to avoid the low reflection area 700.

そして、画面分割補正部107は、元の画面(基準パターン)から分割縮小させた画面への写像Vを算出する。   Then, the screen division correction unit 107 calculates a mapping V to a screen obtained by dividing and reducing the original screen (reference pattern).

図18に、この写像Vを模式的に示す。なお、図18は、図13Aに示した画像を元画像とした例である。作図の都合上、図中の白部分が実際の画像では暗い部分を示し、図中の黒部分が実際の画像では明るい部分を示している。元画像(図13A)に写像Vを施すことにより、図18に示すように、低反射領域800を避けて、元画像が領域801及び領域802に表示される。   FIG. 18 schematically shows this mapping V. FIG. 18 is an example in which the image shown in FIG. 13A is an original image. For the convenience of drawing, the white part in the figure indicates a dark part in the actual image, and the black part in the figure indicates a bright part in the actual image. By applying the mapping V to the original image (FIG. 13A), the original image is displayed in the region 801 and the region 802, avoiding the low reflection region 800, as shown in FIG.

そして、補正管理部105は、以上の写像W,U,Vを統合して、補正写像Hを得る。補正写像Hは、元画像(g)から投影すべき画像(G)への写像であり、補正写像Hと、各写像W,U,Vとの間には、以下の式(7)の関係がある。

Figure 2011050013
Then, the correction management unit 105 obtains a correction map H by integrating the above maps W, U, and V. The corrected map H is a map from the original image (g) to the image (G) to be projected, and the relationship of the following expression (7) is between the corrected map H and each of the maps W, U, and V. There is.
Figure 2011050013

図19に、補正写像Hを模式的に示す。なお、写像Uは色彩補正のための写像であり、図面では表現しにくいため、図19に示す例では、写像Uは何もしないとする。まず、図19Bは、図19Aのパターンに対し写像Vを用いて画面分割補正を行った結果であり、図19Cは、図19Aのパターンに対し写像Wを用いて位置歪み補正を行った結果である。   FIG. 19 schematically shows the correction map H. Note that the mapping U is a mapping for color correction, and is difficult to express in the drawing. Therefore, in the example shown in FIG. 19, it is assumed that the mapping U does nothing. First, FIG. 19B is a result of performing screen division correction on the pattern of FIG. 19A using the mapping V, and FIG. 19C is a result of performing positional distortion correction on the pattern of FIG. 19A using the mapping W. is there.

補正管理部105は、式(7)に示す補正写像Hを補正部109に出力する。   The correction management unit 105 outputs the correction map H shown in Expression (7) to the correction unit 109.

補正部109は、補正写像Hの写像パラメータを用いて、投影部110が投影する映像を変換し、映像投影部110は、変換後の映像を投影する。この結果、ユーザの視点からは、全ての映像を歪みが少ない形で見ることができる。   The correction unit 109 converts the image projected by the projection unit 110 using the mapping parameter of the correction map H, and the video projection unit 110 projects the converted image. As a result, from the user's viewpoint, it is possible to view all the images with less distortion.

図20に2つ目の単純な例の受光パターン像を模式的に示す。図20に示す例は、投影面に十字形の低反射領域900がある場合の例である。図20に示すように、投影面に十字形の低反射領域900がある場合、画面分割補正部107は、画面を4分割する。そして、画面分割補正部107は、各々の分割された画面が低反射領域900にかからないように各画面を縮小させる。図21には、画面分割及び画面縮小の様子を示す。図21に示す例では、4分割された領域のうち、左上の領域901は、領域902に縮小される。この結果、元画面(図13A)に示した画像は、図22のように分割表示されることになる。   FIG. 20 schematically shows a light receiving pattern image of the second simple example. The example shown in FIG. 20 is an example when there is a cross-shaped low reflection region 900 on the projection surface. As shown in FIG. 20, when the projection surface has a cross-shaped low reflection region 900, the screen division correction unit 107 divides the screen into four. Then, the screen division correction unit 107 reduces each screen so that each divided screen does not cover the low reflection region 900. FIG. 21 shows a state of screen division and screen reduction. In the example illustrated in FIG. 21, the upper left area 901 of the four divided areas is reduced to the area 902. As a result, the image shown on the original screen (FIG. 13A) is divided and displayed as shown in FIG.

以上、単純な2つの例を用いて、受光パターンの光点が欠損した時のパターン比較部104及び補正管理部105の動作の概略について説明した。   The outline of the operations of the pattern comparison unit 104 and the correction management unit 105 when the light spot of the light receiving pattern is lost has been described above using two simple examples.

最後に一般的な例を示す。   Finally, a general example is shown.

図23において、領域1000は、受光パターンに写像Wの逆写像を施した光点群を示し、低反射領域1001が領域1000の上を横切り、いくつかの光点の欠損がある様子を示している。図23において、欠損した光点は白丸で示している。   In FIG. 23, an area 1000 indicates a light spot group obtained by performing reverse mapping of the map W on the light receiving pattern, and shows a state in which the low reflection area 1001 crosses over the area 1000 and some light spots are missing. Yes. In FIG. 23, the missing light spot is indicated by a white circle.

まず、欠損領域1001にかからないような画面を決めるために、矩形ABFEの上辺AEと下辺BF上の光点を左から見ていき、欠損領域1001に入る最後の点(D′及びC′)と、欠損領域1001から抜けでた点(E′、F′)を求める。すなわち、点C′、D′、E′、F′は、欠損領域1001に含まれない光点のうち、欠損領域1001に最も近い矩形の上辺又は下辺上の光点である。   First, in order to determine a screen that does not cover the defect region 1001, the light spots on the upper side AE and the lower side BF of the rectangle ABFE are viewed from the left, and the last point (D ′ and C ′) entering the defect region 1001 Then, the points (E ′, F ′) that are missing from the defect region 1001 are obtained. That is, the points C ′, D ′, E ′, and F ′ are light spots on the upper side or the lower side of the rectangle closest to the defective area 1001 among the light spots not included in the defective area 1001.

そして、D′E′及びC′F′の中点を求め、それぞれD、Cとする。   Then, the midpoints of D′ E ′ and C′F ′ are obtained and set as D and C, respectively.

ここで、画面分割をするための分割線は、DCとなる。そして、DCが表す直線の式をy=Ldc(x)とし、矩形ABCDをABC′D′へ変換する射影変換をV1とし、矩形DCFHからE′F′FEへ変換する射影変換をV2とすると、求める写像Vは、(x,y)を(X,Y)に変換する。
V:(x,y)→(X,Y)
Here, the dividing line for dividing the screen is DC. A straight line expression represented by DC is y = Ldc (x), a projective transformation for transforming the rectangle ABCD to ABC′D ′ is V1, and a projective transform for transforming the rectangle DCFH to E′F′FE is V2. The mapping V to be obtained converts (x, y) to (X, Y).
V: (x, y) → (X, Y)

ただし、
Ldc(x)≦0の場合 Vは、V1
Ldc(x)>0の場合 Vは、V2
とする。
However,
When Ldc (x) ≦ 0 V is V1
When Ldc (x)> 0 V is V2
And

この変換の一部(V1)を模式的に示したのが、図24である。画面ABFEのうち、矩形ABCDの領域、すなわち、Ldc(x)≦0の領域は、矩形ABC′D′に移される。この変換Vによれば、例えば、図13Aの映像は、図25に示した図のように分割変形されることになる。   FIG. 24 schematically shows a part (V1) of this conversion. Of the screen ABFE, the area of the rectangle ABCD, that is, the area of Ldc (x) ≦ 0 is moved to the rectangle ABC′D ′. According to this conversion V, for example, the video in FIG. 13A is divided and deformed as shown in FIG.

この分割変換は、欠損領域1001が十字形の場合、さらに図26のように縦横複数に分割された場合にも同様に処理できる。図26の場合は、垂直方向(Y軸に平行な方向)に3分割、水平方向(X軸に平行な方向)に2分割され、それぞれ反射率の高い領域へ縮小表示されることとなる。   This division conversion can be processed in the same way even when the defect area 1001 is a cross shape and is further divided into a plurality of vertical and horizontal areas as shown in FIG. In the case of FIG. 26, the image is divided into three parts in the vertical direction (direction parallel to the Y axis) and into two parts in the horizontal direction (direction parallel to the X axis), and each is reduced and displayed in a region with high reflectivity.

また、低反射領域が、図27に示すように台形型の場合も同様に処理可能である。この場合も同様に、図28に示すように、分割(直線CDで分割)及び変形(写像の一部として、矩形ABCDからABC′D′、右半分の写像は略)させる写像Vが算出される。   Further, when the low reflection region is trapezoidal as shown in FIG. Similarly in this case, as shown in FIG. 28, a map V to be divided (divided by a straight line CD) and deformed (rectangle ABCD to ABC′D ′, and the right half of the map is omitted as part of the map) is calculated. The

以上で、画面分割補正部107の動作の説明を終える。   This is the end of the description of the operation of the screen division correction unit 107.

[色彩補正]
次に、色彩補正に関して述べる。
[Color correction]
Next, color correction will be described.

色紙補正の場合も、基準パターンを投影して、受光パターンを取得し、基準パターンと受光パターンとを比較して、比較結果に基づいて、補正パラメータを算出するという基本的な枠組は、他の補正と同一である。しかし、色彩補正では、位置歪み補正及び画面分割補正に用いる基準パターンとは、異なる基準パターンを用いた方がより適切な写像Uが得られる。そこで、以下では、別の基準パターンを用いる方法について説明する。   In the case of colored paper correction, the basic framework of projecting a reference pattern, obtaining a light receiving pattern, comparing the reference pattern and the light receiving pattern, and calculating a correction parameter based on the comparison result is the other framework. Same as correction. However, in color correction, a more appropriate mapping U can be obtained by using a different reference pattern from the reference pattern used for position distortion correction and screen division correction. Therefore, a method using another reference pattern will be described below.

図29に、色彩用補正の基準パターンを示す。なお、図29には、矩形が描かれているだけである。色彩用補正の基準パターンは、画面一杯の白画素からなるパターンである。つまり、各画素を各色8ビットのRGB表現を使って表現するなら、基準パターンは、縦960ピクセル、横1280画素分の画面上の全ての点がRGB(255、255、255)であるような、パターン(映像)となる。   FIG. 29 shows a reference pattern for color correction. In FIG. 29, only a rectangle is drawn. The reference pattern for color correction is a pattern composed of white pixels that fill the screen. In other words, if each pixel is expressed using an RGB representation of 8 bits for each color, the reference pattern is such that all the points on the screen for 960 pixels vertically and 1280 pixels horizontally are RGB (255, 255, 255). , Pattern (video).

なお、上述の基準パターンは、作図上の都合、黒白反転(輝度反転)させて表現していたのに対し、同様に作図上の都合、この色彩用補正の基準パターン1100の表示は、黒白反転は行なわずに表現する。また、縦横の画素数は、説明のための例であって、プロジェクタの性能等により、変化させてよい。   The above-described reference pattern is expressed by black and white reversal (luminance reversal) for the convenience of drawing, whereas the display of the reference pattern 1100 for color correction is also black and white reversal. Express without doing. The number of vertical and horizontal pixels is an example for explanation, and may be changed according to the performance of the projector.

この基準パターン1100は、図3に示した基準パターン像200に対する位置歪み補正又は画面分割補正のための動作が終了した「直後」に、補正管理部105の全体制御のもとに、パターン投影部102から投影される。投影面120と、パターン投影部102及びパターン受光解析部103との空間的位置関係は、時間とともに変化する可能性があるため、位置歪み補正又は画面分割補正のための動作が終了した「直後」である必要がある。   This reference pattern 1100 is a pattern projection unit under the overall control of the correction management unit 105 “immediately after” the operation for correcting positional distortion or screen division correction for the reference pattern image 200 shown in FIG. Projected from 102. Since the spatial positional relationship between the projection surface 120, the pattern projection unit 102, and the pattern light reception analysis unit 103 may change with time, "immediately after" the operation for position distortion correction or screen division correction ends. Need to be.

位置歪み補正又は画面分割補正のための動作が終了してから、パターン投影部102が基準パターン1100を投影するまでの時間的間隔は、短ければ短い程よい。さらに、可能であれば、パターン投影部102及びパターン受光解析部103をそれぞれ二重にして、一方を、基準パターン像200の投影及び受光解析に用い、他方を基準パターン1100の投影及び受光解析専用にするよう構成するのが好ましい。   The shorter the time interval from the end of the operation for position distortion correction or screen division correction until the pattern projection unit 102 projects the reference pattern 1100, the better. Further, if possible, the pattern projection unit 102 and the pattern light reception analysis unit 103 are respectively doubled, one is used for the projection and light reception analysis of the reference pattern image 200, and the other is dedicated to the projection and light reception analysis of the reference pattern 1100. It is preferable to constitute so that.

なお、基準パターン像200を用いて位置歪み補正及び画面分割補正を行う場合には、パターン受光解析部103の受光部には、上述したように、何らかの位置検出素子を使うことが望ましい。一方、基準パターン1100を用いて色彩補正を行う場合には、パターン受光解析部103の受光部として通常のカメラを用いることになるため、位置歪み補正及び画面分割補正に加えて色彩補正を行なう場合には、少なくともパターン受光部を二重構成にする必要がある。   In the case of performing position distortion correction and screen division correction using the reference pattern image 200, it is desirable to use some position detection element for the light receiving unit of the pattern light receiving analysis unit 103 as described above. On the other hand, when performing color correction using the reference pattern 1100, a normal camera is used as the light receiving unit of the pattern light receiving analysis unit 103, and therefore color correction is performed in addition to positional distortion correction and screen division correction. In this case, at least the pattern light receiving unit needs to have a double configuration.

ただし、この二重構成は、必須というわけではない。つまり、位置歪み補正及び画面分割補正を行う際に、受光部に位置検出素子が望ましいというのは、位置検出素子が比較的安価で、かつ、高速正確に光点の位置を検出できるからである。したがって、通常のカメラで受光し、受光イメージ像から画像解析により、同様の受光解析を行うことも可能である。この場合、パターン受光解析部103の受光部は、通常のCMOS(Complementary Metal Oxide Semiconductor)或いはCCD(Charge Coupled Device)カメラで構成することができる。   However, this dual configuration is not essential. That is, when performing position distortion correction and screen division correction, the position detection element is desirable for the light receiving unit because the position detection element is relatively inexpensive and can detect the position of the light spot accurately at high speed. . Therefore, the same light reception analysis can be performed by receiving light with a normal camera and performing image analysis from the received light image. In this case, the light receiving unit of the pattern light receiving analysis unit 103 can be configured by a normal CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device) camera.

ただし、位置検出素子では、光点の位置検出をハードウエアが行うのに対し、CMOS又はCCDカメラを用いる場合には、光点の位置検出をソフトウエア処理することになる。ソフトウエア処理で、位置検出を位置検出素子並に高速に行うためには、比較的高速のCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)が必要となり、装置が高価とならざるを得ない。   However, in the position detection element, the position of the light spot is detected by hardware, whereas when a CMOS or CCD camera is used, the position detection of the light spot is processed by software. In order to perform position detection as fast as the position detection element by software processing, a relatively high speed CPU (Central Processing Unit) or GPU (Graphics Processing Unit) is required, and the apparatus must be expensive. .

ここで、位置歪み補正及び画面分割補正と、色彩補正との双方の処理を、ともに位置検出素子を使って行うことは、簡単ではないと言える。何故なら、位置検出素子では、ある輝度以上の光点の位置を算出するだけであり、輝度の判断は困難である。そのため、位置検出素子を用いるだけでは、色彩補正を行うために最低限必要な、該当投影面の反射率の情報を算出することが困難となる。   Here, it can be said that it is not easy to perform both the positional distortion correction, the screen division correction, and the color correction using the position detection element. This is because the position detection element only calculates the position of a light spot having a certain luminance or higher, and it is difficult to determine the luminance. For this reason, it is difficult to calculate information on the reflectance of the projection plane, which is the minimum necessary for performing color correction, only by using the position detection element.

さて、色彩補正の説明に話を戻す。   Now, let's return to the explanation of color correction.

パターン投影部102が基準パターン1100を投影した直後、パターン受光解析部103は、投影面に投影された映像を受光し、受光パターンを得る。図30は、得られた受光パターンを、先の基準パターン像200の受光解析時に得られた写像Vの逆写像で変換した受光パターン像である。念のためにいえば、逆写像で変換する前の受光パターン像は、図31Dの形のように歪んでいるはずである。既に写像Vが得られているために、パターン受光解析部103は、新たに写像Vを計算する必要はない。また写像Vは、基準パターン上の光点と、受光パターン上の光点との対応関係そのものであるから、図8に示したような対応表を新たに作る必要もない。そのため、この時点で、パターン受像解析部103の動作は終了する。   Immediately after the pattern projection unit 102 projects the reference pattern 1100, the pattern light reception analysis unit 103 receives the image projected on the projection surface and obtains a light reception pattern. FIG. 30 is a light-receiving pattern image obtained by converting the obtained light-receiving pattern by the inverse mapping of the map V obtained at the time of light-receiving analysis of the previous reference pattern image 200. As a precaution, the received light pattern image before conversion by reverse mapping should be distorted as shown in FIG. 31D. Since the mapping V has already been obtained, the pattern light receiving analysis unit 103 does not need to newly calculate the mapping V. Further, since mapping V is the correspondence between the light spot on the reference pattern and the light spot on the light receiving pattern, it is not necessary to create a new correspondence table as shown in FIG. Therefore, at this time, the operation of the pattern image analysis unit 103 ends.

次に、パターン比較部104が動作を開始する。同様に、写像Vは既に算出済みであり、基準パターンと受光のパターンとの比較も受光パターン像の逆写像の像(図29の1200)を算出した時点で動作を終了する。   Next, the pattern comparison unit 104 starts operation. Similarly, the mapping V has already been calculated, and the comparison between the reference pattern and the light receiving pattern is also finished when the inverse mapping image (1200 in FIG. 29) of the light receiving pattern image is calculated.

次に、補正管理部105が動作を開始する。   Next, the correction management unit 105 starts operating.

ここで、補正管理部105は、色彩補正部108を起動し、色彩補正部108に色彩用補正パラメータを計算させる。   Here, the correction management unit 105 activates the color correction unit 108 and causes the color correction unit 108 to calculate color correction parameters.

いま、図30で示すように、受光パターン像の写像Vの逆写像の像1200に、黒い領域1201、及び、灰色領域1202、1203が観察されたとする。なお、その他の領域は、白であるとする。   Now, as shown in FIG. 30, it is assumed that a black region 1201 and gray regions 1202 and 1203 are observed in an inverse mapping image 1200 of the mapping V of the light receiving pattern image. The other areas are assumed to be white.

さて、先に説明したように、色彩用補正の基準パターンは、画面一杯の白画素からなるパターンである。したがって、基準パターンの光点d[i,j](0≦i≦1280,0≦j≦960)を、RGB表現で表すと、いずれもRGB(255、255、255)となる。このとき、受光パターン1200の光点r[i,j]に関して、以下のような値が得られているとする。   As described above, the reference pattern for color correction is a pattern composed of white pixels that fill the screen. Therefore, when the light spot d [i, j] (0 ≦ i ≦ 1280, 0 ≦ j ≦ 960) of the reference pattern is expressed in RGB, all are RGB (255, 255, 255). At this time, it is assumed that the following values are obtained for the light spot r [i, j] of the light receiving pattern 1200.

(1)領域1201上の点は、RGB(1、1、1)
(2)領域1202、1203上の点は、RGB(127、127、127)
(3)それ以外の点は、RGB(255、255、255)
色或いは明度むらを補正するためには、R、G、Bの各色において反射率が弱い点に関して、反射率の弱さを補うように、強い光を投影してやればよい。
(1) The points on the area 1201 are RGB (1, 1, 1)
(2) The points on the areas 1202 and 1203 are RGB (127, 127, 127)
(3) Other points are RGB (255, 255, 255)
In order to correct the color or brightness unevenness, it is only necessary to project strong light so as to compensate for the weak reflectivity of the R, G, and B colors where the reflectivity is weak.

つまり、基準パターンの光点(画素)d[i,j]及び受光パターンの光点(画素)r[i,j]をそれぞれ、RGB表現で、RGBd[i,j](r、g、b)及びRGBr[i,j](r′、g′、b′)と表現した場合、各点の反射率は、refrect[i,j](r′/r、g′/g、b′/b)となる。   That is, the light spot (pixel) d [i, j] of the reference pattern and the light spot (pixel) r [i, j] of the light receiving pattern are expressed in RGB representation as RGBd [i, j] (r, g, b), respectively. ) And RGBr [i, j] (r ′, g ′, b ′), the reflectance of each point is reflected [i, j] (r ′ / r, g ′ / g, b ′ / b).

そこで、色彩補正をするためには、投影すべき映像の各画素[i,j]に対して、それぞれR、G、Bの強度を、r/r′倍、g/g′倍、b/b′倍してやればよい。基本的に、この全ての点に関して、それぞれのRGB値に乗算すべき倍係数が色彩用補正パラメータであり、色彩補正部108が算出する写像Uである。   Therefore, in order to perform color correction, for each pixel [i, j] of the image to be projected, the intensities of R, G, B are respectively r / r ′ times, g / g ′ times, b / What is necessary is just to multiply by b '. Basically, for all of these points, the multiplication factor to be multiplied by the respective RGB values is the color correction parameter, and is the mapping U calculated by the color correction unit 108.

つまり、投影すべき映像上の点(i,j)に関して、RGBそれぞれの倍係数(Ar、Ag、Ab)を決定してやればよい。ここで、Arは、R(赤)の光の強度を増す係数であり、AgはG(緑)の強度を増す係数であり、AbはB(青)の強度を増す係数である。   That is, it is only necessary to determine the respective RGB multiplication factors (Ar, Ag, Ab) for the point (i, j) on the image to be projected. Here, Ar is a coefficient that increases the intensity of R (red) light, Ag is a coefficient that increases the intensity of G (green), and Ab is a coefficient that increases the intensity of B (blue).

したがって、領域1201に関しては、RGB各色とも255倍(Ar、Ag、Ab)=(255、255、255)とし、領域1202と1203に関しては、RGB各色とも2倍の(Ar、Ag、Ab)=(2、2、2)とし、それ以外の領域については、(Ar、Ag、Ab)=(1、1、1)、すなわち、何もしないとすればよい。   Therefore, regarding the area 1201, each RGB color is 255 times (Ar, Ag, Ab) = (255, 255, 255), and regarding the areas 1202 and 1203, each RGB color is twice (Ar, Ag, Ab) = (2, 2, 2), and for other regions, (Ar, Ag, Ab) = (1, 1, 1), that is, do nothing.

ただし、実際には、現在の映像投影装置の場合、通常は光源に対して映像を表示した液晶等の表示部で減算して画面投影を行なう。そのため、通常の白色光より明るい白色を投影面に表示するのは困難であるため、全ての場合において色彩補正は、困難となる。   However, in actuality, in the case of the current video projection apparatus, the screen projection is usually performed by subtracting with a display unit such as a liquid crystal that displays the video with respect to the light source. For this reason, since it is difficult to display white light brighter than normal white light on the projection surface, color correction is difficult in all cases.

例えば、領域1201の反射率がほぼ0の場合、事実上、色彩補正は困難であるため、この領域1201の補正は、画像分割補正に任せることが考えられる。つまり、反射率がある閾値より小さい領域については、色彩補正を行なわないのがよい。   For example, when the reflectance of the area 1201 is substantially 0, it is practically difficult to perform color correction. Therefore, the correction of the area 1201 may be left to image division correction. That is, it is preferable not to perform color correction for an area where the reflectance is smaller than a certain threshold.

そして、この閾値は、画面分割補正との関係で決めることが望ましい。つまり、画面分割補正が働き始める反射率を、この閾値とすればよい。この値は、画面分割補正及び位置歪み補正に用いられるパターン受光解析部103の位置検出素子が反応できる光点の明度に関連して決定することができる。   This threshold value is preferably determined in relation to the screen division correction. That is, the reflectance at which the screen division correction starts to work may be set as this threshold value. This value can be determined in relation to the brightness of the light spot that can be reacted by the position detection element of the pattern light receiving analysis unit 103 used for screen division correction and position distortion correction.

また、反射率が閾値以上の点であっても、ある一定の光度以下でない場合は、投影困難であるという事情から、例えば、領域1202及び領域1203に関しては、白色(RGB(255、255、255))を再現するのは困難である。つまり、最大光度の光RGB(255、255、255)を投影しても、RGB(127、127、127)の灰色の再現となるからである。   In addition, even if the reflectance is not less than a certain threshold, projection is difficult when the reflectance is not less than a certain value. For example, regarding the region 1202 and the region 1203, white (RGB (255, 255, 255) )) Is difficult to reproduce. That is, even if the light RGB (255, 255, 255) having the maximum luminous intensity is projected, the gray of RGB (127, 127, 127) is reproduced.

そのため、なるべく多くの点で色或いは明度むらの補正を行なうようにするには、(Ar、Ag、Ab)の各係数にある適当な係数定数α(0<α<1)をかけて、全体の光度を圧縮する等の処理やガンマ補正のような非線形の補正をさらに行なえばよい。ただし、いずれの方法でも、映像投影装置としての全体のコントラスト又は明度が下がることになるので、補正の自然さと画面の明るさ又はコントラストとのトレードオフでこれら係数α等を決定していく必要がある。   Therefore, in order to correct the color or brightness unevenness at as many points as possible, the entire coefficient is multiplied by an appropriate coefficient constant α (0 <α <1) for each coefficient of (Ar, Ag, Ab). Processing such as compressing the intensity of light and non-linear correction such as gamma correction may be further performed. However, in any method, the overall contrast or brightness of the image projection apparatus is lowered, so it is necessary to determine these coefficients α and the like by a trade-off between the naturalness of correction and the brightness or contrast of the screen. is there.

また、さらに、投影面120の反射率は、光点の明度との関係で線形になるとは限らないので、補正できる範囲内においても、実際には微調整が必要となる場合がある。   Furthermore, since the reflectance of the projection surface 120 is not always linear in relation to the lightness of the light spot, fine adjustment may actually be required even within a correctable range.

以上で、3つの各補正部の動作の説明を終える。   This is the end of the description of the operation of each of the three correction units.

図31に、これら補正部が算出した補正結果の組合せの例を示す。図31は、投影面120の中央に、例えば黒い柱等の低反射領域があり、また投影面の下部が、灰色で色が塗られており、ユーザは、映像投影装置を自分の左足あたりに置き、立って投影面を見ているような状況における補正結果の例を示している。   FIG. 31 shows an example of combinations of correction results calculated by these correction units. In FIG. 31, there is a low reflection region such as a black column in the center of the projection surface 120, and the lower portion of the projection surface is colored in gray, so that the user can place the video projection device around his left foot. An example of the correction result in a situation where the user is standing and looking at the projection surface is shown.

図31Aは、ユーザに提示したい画像である。作図の都合上、白黒反転画像となっていることを留意して欲しい。まず、この画像には、画面分割補正(写像V)が施される。その結果、図31Bが得られる。   FIG. 31A is an image to be presented to the user. Please note that it is a black-and-white inverted image for the sake of drawing. First, this image is subjected to screen division correction (mapping V). As a result, FIG. 31B is obtained.

次に、色彩補正(写像U)が施されると、図31Cが得られる。これは、全体の光度圧縮の補正係数αを0.5とした場合で、投影面の白色領域に対する投影光は全体として半分に弱められる(図31Cの灰色の領域)。一方、投影面の灰色の領域に関しては(投影面の下部)、2倍の強度になるところ、光度圧縮の補正係数として0.5がかけられて、結果としてそのままの光度で投影される。   Next, when color correction (mapping U) is performed, FIG. 31C is obtained. This is a case where the correction coefficient α for the entire light intensity compression is set to 0.5, and the projection light with respect to the white area on the projection surface is weakened by half as a whole (gray area in FIG. 31C). On the other hand, regarding the gray area of the projection plane (lower part of the projection plane), when the intensity is doubled, 0.5 is applied as a correction coefficient for luminous intensity compression, and as a result, the projection is performed with the same luminous intensity.

そして、最後に、位置歪み補正(写像W)が行なわれ、この結果図31Dを得る。   Finally, positional distortion correction (mapping W) is performed, and as a result, FIG. 31D is obtained.

以上のように、本実施の形態では、パターン比較部104は、投影された基準パターンを受像して得られる受光パターンと、基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、基準パターンから受光パターンへの写像Wを算出し、補正管理部105は、基準パターンと受光パターンとの構成要素間の対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、判断結果に応じて、位置歪み補正部106及び画面分割補正部107を動作させる。位置歪み補正部106は、写像Wに応じた位置歪み用補正パラメータを生成し、画面分割補正部107は、当該対応関係に基づいて、受光パターンのうち、基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、低反射領域以外の領域に映像が投影されるよう、映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、写像Vに応じて画像分割用補正パラメータを生成する。補正部109は、位置歪み用補正パラメータ又は画面分割用補正パラメータを用いて、映像コンテンツを補正し、映像投影部110は、補正された映像コンテンツを投影する。これにより、投影映像の歪みを補正し、また、投影面に柱や素材の違う面等の反射率が低い帯状の領域が存在するような場合においても、残された投影に適した領域を効率よく使うことで、見易い画像を投影することができる。   As described above, in the present embodiment, the pattern comparison unit 104 compares the received light pattern obtained by receiving the projected reference pattern with the reference pattern, and specifies the correspondence between the components of these patterns. Then, the mapping W from the reference pattern to the light receiving pattern is calculated based on the correspondence, and the correction management unit 105 corrects the position distortion or splits the screen based on the correspondence between the constituent elements of the reference pattern and the light receiving pattern. The necessity of correction is determined, and the position distortion correction unit 106 and the screen division correction unit 107 are operated according to the determination result. The position distortion correction unit 106 generates a correction parameter for position distortion corresponding to the mapping W, and the screen division correction unit 107, based on the correspondence relationship, is a region where a region corresponding to the reference pattern is missing from the light receiving pattern. Detecting a low reflection area including the image, dividing the screen on which the image is projected so that the image is projected on an area other than the low reflection area, calculating a mapping V from the image before the division to the image after the division, An image division correction parameter is generated according to the mapping V. The correction unit 109 corrects the video content using the position distortion correction parameter or the screen division correction parameter, and the video projection unit 110 projects the corrected video content. As a result, distortion of the projected image is corrected, and even if there is a band-like area with low reflectivity such as a column or a surface with a different material on the projection surface, the remaining area suitable for projection can be efficiently used. By using it often, it is possible to project an easy-to-see image.

なお、以下に、これら写像の補正パラメータの算出頻度について説明する。位置歪み補正又は画面分割補正の場合、パターン投影部102は、基準パターンの投影を、人間には不可視の赤外光等を利用して行なうことも可能である。また、人間には不可視の赤外線等を利用する場合、映像の投影と並行して、随時補正パラメータの算出を行なうことが可能である。したがって、この場合には、映像投影装置100を例えば手持ちした場合のように、映像投影装置と投影面との位置関係が時間的に変化するような場合においても、リアルタイムで、位置歪み補正及び画面分割補正が可能となる。   Hereinafter, the calculation frequency of the correction parameters for these mappings will be described. In the case of positional distortion correction or screen division correction, the pattern projection unit 102 can also project the reference pattern using infrared light that is invisible to humans. When infrared rays that are invisible to humans are used, correction parameters can be calculated as needed in parallel with video projection. Therefore, in this case, even when the positional relationship between the video projection device and the projection surface changes with time, such as when the video projection device 100 is held by hand, the positional distortion correction and the screen are performed in real time. Division correction is possible.

色彩補正に関しては、実際に可視光で投影面を照らさない限り、正確な色彩用補正パラメータの算出が困難である。そのため、補正のために投影する基準パターンがユーザに知覚されてしまい、完全にユーザに気付かれない状況で色彩用補正パラメータを算出するのは難しい。   With respect to color correction, it is difficult to accurately calculate color correction parameters unless the projection surface is actually illuminated with visible light. For this reason, it is difficult to calculate the color correction parameter in a situation in which the reference pattern projected for correction is perceived by the user and is not completely noticed by the user.

このため、1つの解決策としては、映像投影装置100に、何らかの振動センサ又は3次元の位置センサを搭載し、映像投影装置100の位置が変更された場合にだけ、補正動作の実行を行なうことで、補正動作の起動を最小限に抑えることが考えらえる。   For this reason, as one solution, the image projection apparatus 100 is mounted with some vibration sensor or three-dimensional position sensor, and the correction operation is executed only when the position of the image projection apparatus 100 is changed. Thus, it is conceivable to minimize the start of the correction operation.

または、一定期間(例えば1秒)の間に映像投影装置100が投影する映像のフレーム中の1フレームだけを、基準パターンの投影に使うことにより、ユーザに基準パターンの投影を気付かれにくくするような手法も考えられる。また基準パターンそのものを、白一色ではなく、灰色にして、目立たなくしたり、また、投影される映像コンテンツの画像それ自体を基準パターンとみなして、色彩用補正パラメータを計算するような工夫も考えられる。   Alternatively, by using only one frame of the video frames projected by the video projection device 100 for a certain period (for example, 1 second) for the projection of the reference pattern, it is difficult for the user to notice the projection of the reference pattern. Various methods are also conceivable. It is also possible to make the reference pattern itself gray instead of white, or to consider the image of the projected video content itself as the reference pattern and calculate the color correction parameters. .

なお、色彩補正用の基準パターンに代えて、投影される映像自体を基準パターンとして利用してもよい。この場合においても、色彩補正用パラメータの計算方法は、本実施の形態で述べた方法をそのまま利用することができる。ただし、全体的に彩度が低く明度又は色相が均一で、輝度が高い映像(例えば、薄曇りの空や雪景色等)は、色彩用補正パラメータを算出するには、有利であるので、そのような映像が投影される時には集中的に、色彩用補正パラメータを算出する等の工夫も可能である。   Note that the projected image itself may be used as the reference pattern instead of the reference pattern for color correction. Even in this case, the method described in this embodiment can be used as it is as the method for calculating the color correction parameter. However, an image with a low overall saturation, lightness or hue, and high brightness (for example, a light cloudy sky or a snow scene) is advantageous in calculating the color correction parameters. For example, it is possible to intensively calculate color correction parameters when a simple image is projected.

(実施の形態2)
実施の形態1では、投影面が平面の場合を例に説明したが、本発明は、投影面が曲面の場合にも適用可能である。本実施の形態では、投影面が曲面の場合について説明する。
(Embodiment 2)
In Embodiment 1, the case where the projection surface is a plane has been described as an example, but the present invention can also be applied to a case where the projection surface is a curved surface. In this embodiment, a case where the projection surface is a curved surface will be described.

投影面が曲面の場合、パターン比較部104における位置歪み補正のための写像Wの算出方法が、投影面が平面の場合と異なる。投影面が曲面の場合、パターン比較部104は、曲面を微小な矩形平面で近似し、それぞれの微小矩形平面間の写像を射影変換として全体の写像を近似する。   When the projection surface is a curved surface, the calculation method of the mapping W for correcting the positional distortion in the pattern comparison unit 104 is different from that when the projection surface is a flat surface. When the projection surface is a curved surface, the pattern comparison unit 104 approximates the curved surface with a minute rectangular plane, and approximates the whole mapping by using projection mapping between the respective minute rectangular planes.

微小矩形平面としては、d[i,j]、d[i+1,j]、d[i,j+1]、d[i+1,j+1]の4点で囲まれる微小平面を考える。図32において、微小平面は、それぞれ破線で囲まれた正方形領域である。例えば、斜線領域1300は、微小平面の例である。   As a minute rectangular plane, a minute plane surrounded by four points d [i, j], d [i + 1, j], d [i, j + 1], and d [i + 1, j + 1] is considered. In FIG. 32, each microplane is a square area surrounded by a broken line. For example, the hatched area 1300 is an example of a minute plane.

パターン比較部104は、r[i,j]、r[i+1,j]、r[i,j+1]、r[i+1,j+1]の4点で囲まれる受光パターン像上の平面への射影変換F(i,j)を求める。射影変換F(i,j)の集まりを、全体の写像Wとする。   The pattern comparison unit 104 performs projective transformation F onto a plane on the received light pattern image surrounded by four points r [i, j], r [i + 1, j], r [i, j + 1], and r [i + 1, j + 1]. Find (i, j). A group of projective transformations F (i, j) is defined as an entire map W.

なお、投影面が平面の場合とは異なり、投影面が曲面の場合、d[i,j]からr[i,j]への対応を求める場合に、直線的な補完を行えないため、一度に沢山の光点を投影して、位置を検出するような方法(第2の方法)は使えない。   Unlike the case where the projection surface is a flat surface, when the projection surface is a curved surface, linear interpolation cannot be performed when obtaining a correspondence from d [i, j] to r [i, j]. A method (second method) in which a large number of light spots are projected and the position is detected cannot be used.

このように、投影面が曲面の場合、図14又は図15のフローチャートに示したような1点投影方法(第1の方法)又は複数の光点を同時に投影する方法(第3の方法)を用いる。なお、複数の光点を同時に投影する方法において、同時投影する光点の数はせいぜい4点に押えて、4点を投影する毎に、基準パターンの光点と受光パターンの光点との対応を取っていく必要がある。また、受光パターン像に欠損の光点が生じた場合は、その領域だけ1点投影方法に拠って光点の対応を確認せねばならないだろう。   As described above, when the projection surface is a curved surface, a one-point projection method (first method) or a method of simultaneously projecting a plurality of light spots (third method) as shown in the flowchart of FIG. 14 or FIG. Use. In the method of projecting a plurality of light spots at the same time, the number of light spots to be simultaneously projected is limited to 4 at most, and each time four points are projected, the correspondence between the light spot of the reference pattern and the light spot of the light receiving pattern. It is necessary to take it. In addition, when a missing light spot is generated in the light receiving pattern image, it is necessary to confirm the correspondence of the light spot only in that area by the one-point projection method.

なお、第3の方法を用いる場合に、最大4点投影とするのは、投影面が曲面の場合であっても、4点の上下左右という位置関係は変わらないためである。   Note that, when the third method is used, the maximum four-point projection is performed because the positional relationship between the four points is not changed even when the projection surface is a curved surface.

なお、他の計算及び各部の動作に関しては、実施の形態1と同様であるため説明を省略する。   The other calculations and the operation of each unit are the same as those in the first embodiment, and thus description thereof is omitted.

以上のように、本実施の形態では、投影面が曲面の場合、パターン比較部104は、4点で囲まれる受光パターン像上の平面への射影変換F(i,j)を求め、射影変換F(i,j)の集まりを、全体の写像Wとする。   As described above, in the present embodiment, when the projection surface is a curved surface, the pattern comparison unit 104 obtains the projective transformation F (i, j) to the plane on the light receiving pattern image surrounded by the four points, and performs the projective transformation. A group of F (i, j) is defined as the entire map W.

(実施の形態3)
実施の形態1では、パターン受光解析部103は、映像投影部110に近接して配置され、パターン投影部102は、映像投影部110とは独立した位置で、かつ、ユーザの目の位置近くに配置されるとした。これに対し、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置することで、同様の効果を得ることも可能である。
(Embodiment 3)
In the first embodiment, the pattern light reception analysis unit 103 is disposed in the vicinity of the video projection unit 110, and the pattern projection unit 102 is a position independent of the video projection unit 110 and close to the position of the user's eyes. It was supposed to be arranged. On the other hand, it is also possible to obtain the same effect by arranging the video projection unit 110 and the pattern projection unit 103 close to each other and arranging the pattern light receiving analysis unit 103 near the position of the user's eyes.

本実施の形態では、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置する場合について説明する。   In the present embodiment, a case will be described in which the image projection unit 110 and the pattern projection unit 103 are arranged close to each other, and the pattern light reception analysis unit 103 is arranged near the position of the user's eyes.

図33は、本発明の実施の形態3に係る映像投影システムの構成図である。なお、図33の本実施の形態に係る映像投影システムにおいて、図3と共通する構成部分には、図3と同一の符号を付して説明を省略する。図33の映像投影システムは、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置する。   FIG. 33 is a configuration diagram of a video projection system according to Embodiment 3 of the present invention. In the video projection system according to the present embodiment shown in FIG. 33, the same reference numerals as those in FIG. In the video projection system of FIG. 33, the video projection unit 110 and the pattern projection unit 103 are arranged close to each other, and the pattern light receiving analysis unit 103 is arranged near the position of the user's eyes.

図33に示すような配置とすることにより、本実施の形態では、位置歪み補正のための写像Wを、実施の形態1で利用される位置歪み補正のための写像Wの逆写像として読みかえることが必要となる。つまり、実施の形態1における手順で基準パターンの光点d[i,j]から受光パターンの光点r[i,j]への写像を算出した上で、本実施の形態では、位置歪み補正のための写像Wとして、算出した写像の逆写像を用いる。   With the arrangement as shown in FIG. 33, in the present embodiment, the mapping W for correcting the positional distortion is read as an inverse mapping of the mapping W for correcting the positional distortion used in the first embodiment. It will be necessary. That is, after calculating the mapping from the light spot d [i, j] of the reference pattern to the light spot r [i, j] of the light receiving pattern in the procedure in the first embodiment, in this embodiment, the positional distortion correction is performed. As the mapping W for, a reverse mapping of the calculated mapping is used.

他の計算及び各部の動作に関しては、実施の形態1と同様であるため説明を省略する。   Other calculations and the operation of each unit are the same as those in the first embodiment, and thus the description thereof is omitted.

以上のように、本実施の形態では、映像投影部110とパターン投影部103とを近接して配置し、パターン受光解析部103をユーザの目の位置近くに配置する。これにより、図33の構成図から分かるように、パターン受光解析部103の全部又は一部(位置検出素子部分やカメラ部分)を、これら部分と同等の機能を持つ外部機器に置き替えることができる。   As described above, in the present embodiment, the video projection unit 110 and the pattern projection unit 103 are arranged close to each other, and the pattern light reception analysis unit 103 is arranged near the position of the user's eyes. As a result, as can be seen from the configuration diagram of FIG. 33, all or a part of the pattern light reception analysis unit 103 (position detection element part or camera part) can be replaced with an external device having a function equivalent to these parts. .

例えば、本実施の形態に係る映像投影装置100が無線通信機能を有し、また、ユーザが、カメラ機能付き、かつ、無線通信機能付きの携帯端末を有する場合、映像投影装置100は、ユーザの携帯端末が取得したカメラ画像をユーザの携帯端末より無線を介して入手することにより、パターン受光解析部103の全部又は一部をユーザの携帯端末に置き替えることができる。   For example, when the video projection apparatus 100 according to the present embodiment has a wireless communication function and the user has a mobile terminal with a camera function and a wireless communication function, the video projection apparatus 100 By obtaining the camera image acquired by the mobile terminal from the user's mobile terminal via wireless, all or part of the pattern light receiving analysis unit 103 can be replaced with the user's mobile terminal.

さらに、ユーザの携帯端末が外部からアプリケーションをダウンロードして実行できるような場合、パターン受光解析部103が有する各種演算機能を、携帯端末上で実行させることにより、パターン受光解析部103の代用として、その携帯端末を利用することが可能である。   Furthermore, when the user's mobile terminal can download and execute an application from the outside, by executing various calculation functions of the pattern light reception analysis unit 103 on the mobile terminal, as an alternative to the pattern light reception analysis unit 103, The portable terminal can be used.

なお、以上の説明では、基準パターンから受光パターンへの写像Wをパターン比較部104が生成するとして説明したが、対応表に基づいて、位置歪み補正部106が、写像Wを生成するようにしてもよい。   In the above description, the pattern comparison unit 104 generates the mapping W from the reference pattern to the light receiving pattern. However, the positional distortion correction unit 106 generates the mapping W based on the correspondence table. Also good.

本発明に係る映像投影装置及び映像投影方法は、投影面に柱や素材の違う面等の反射率が低い帯状の領域が存在するような場合においても、残された投影に適した領域を効率よく使い、人間に見易い画像を投影することができ、特に、モバイル環境下で利用する場合等、専用投影面が利用困難な場合に、投影映像の歪み又は投影面の反射率の低さに起因して生じる投影映像の見にくさを改善し、見易くする映像投影装置等として有用である。   The image projection apparatus and the image projection method according to the present invention efficiently perform the remaining region suitable for projection even in the case where there is a strip-shaped region with a low reflectance such as a column or a surface with a different material on the projection surface. Can be used frequently and can be easily seen by humans, especially when it is difficult to use a dedicated projection surface, such as when used in a mobile environment, due to distortion of the projected image or low reflectance of the projection surface Therefore, it is useful as a video projection device or the like that improves the difficulty of seeing the projected video generated and makes it easy to see.

100 映像投影装置
101 基準パターン発生部
102 パターン投影部
103 パターン受光解析部
104 パターン比較部
105 補正管理部
106 位置歪み補正部
107 画面分割補正部
108 色彩補正部
109 補正部
110 映像投影部
120 投影面
130 映像コンテンツ
DESCRIPTION OF SYMBOLS 100 Image projection apparatus 101 Reference | standard pattern generation part 102 Pattern projection part 103 Pattern light reception analysis part 104 Pattern comparison part 105 Correction management part 106 Position distortion correction part 107 Screen division correction part 108 Color correction part 109 Correction part 110 Video projection part 120 Projection surface 130 Video content

Claims (7)

基準パターンを出力する基準パターン発生手段と、
前記基準パターンを映像として投影するパターン投影手段と、
投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出する比較手段と、
位置歪み用補正パラメータを生成する位置歪み補正手段と、画面分割用補正パラメータを生成する画面分割補正手段とを有し、前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、判断結果に応じて、前記位置歪み補正手段及び前記分割補正手段を動作させる補正管理手段と、
前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正する補正手段と、
補正された前記映像コンテンツを投影する映像投影手段と、を具備し、
前記位置歪み補正手段は、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、
前記画像分割補正手段は、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成する、
映像投影装置。
A reference pattern generating means for outputting a reference pattern;
Pattern projection means for projecting the reference pattern as an image;
The light receiving pattern obtained by receiving the projected reference pattern is compared with the reference pattern, the correspondence between the components of these patterns is specified, and the light receiving pattern is derived from the reference pattern based on the correspondence. A comparison means for calculating the mapping W to
A position distortion correction unit that generates a correction parameter for position distortion; and a screen division correction unit that generates a correction parameter for screen division, and determines whether or not position distortion correction or screen division correction is necessary based on the correspondence relationship. And a correction management unit that operates the positional distortion correction unit and the division correction unit according to the determination result;
Correction means for correcting video content using the correction parameter for position distortion or the correction parameter for screen division;
Video projection means for projecting the corrected video content,
The positional distortion correction means generates the positional distortion correction parameter according to the mapping W,
The image division correction unit detects a low reflection region including a region in which a region corresponding to the reference pattern is missing from the light receiving pattern, and the image is projected onto a region other than the low reflection region. Dividing the screen on which the video is projected, calculating a mapping V from the image before the division to the image after the division, and generating the correction parameter for image division according to the mapping V;
Video projection device.
前記補正管理手段は、前記基準パターンの光点の位置と、当該基準パターンの光点に対応する受光パターンの光点の位置とが異なる場合、位置歪み補正が必要と判断し、全ての前記基準パターンの光点に対応する前記受光パターンの光点が存在する場合、画面分割補正が不要と判断する、
請求項1に記載の映像投影装置。
When the position of the light spot of the reference pattern is different from the position of the light spot of the light receiving pattern corresponding to the light spot of the reference pattern, the correction management unit determines that positional distortion correction is necessary, and all the reference When there is a light spot of the light receiving pattern corresponding to the light spot of the pattern, it is determined that screen division correction is unnecessary.
The video projection device according to claim 1.
前記基準パターン発生手段は、前記基準パターンとして色彩補正用のパターンを生成し、
前記補正管理手段は、前記対応関係に基づいて、色相彩度明度の補正のための色彩用補正パラメータを計算する色彩補正手段、をさらに有し、
前記補正手段は、前記色彩用補正パラメータをさらに用いて、前記映像コンテンツを補正する、
請求項1に記載の映像投影装置。
The reference pattern generation means generates a pattern for color correction as the reference pattern,
The correction management means further includes color correction means for calculating a color correction parameter for correcting hue saturation lightness based on the correspondence relationship;
The correction means further corrects the video content using the color correction parameter;
The video projection device according to claim 1.
前記映像投影手段の光学イメージの投影部分は、前記パターン投影手段の光学イメージの投影部分を兼ねる、
請求項1に記載の映像投影装置。
The projection part of the optical image of the video projection unit also serves as the projection part of the optical image of the pattern projection unit,
The video projection device according to claim 1.
前記パターン投影手段は、複数の部分に分割された前記基準パターンの構成要素を、部分毎に時間をおいて投影する、
請求項1に記載の映像投影装置。
The pattern projecting means projects the components of the reference pattern divided into a plurality of parts at intervals for each part;
The video projection device according to claim 1.
前記パターン投影手段は、非可視光を利用して前記基準パターンを投影する、
請求項1記載の映像投影装置。
The pattern projecting means projects the reference pattern using invisible light;
The image projection apparatus according to claim 1.
基準パターンを映像として投影し、
投影された前記基準パターンを受像して得られる受光パターンと、前記基準パターンとを比較し、これらパターンの構成要素間の対応関係を特定し、対応関係に基づいて、前記基準パターンから前記受光パターンへの写像Wを算出し、
前記対応関係に基づいて、位置歪み補正又は画面分割補正の要否を判断し、
位置歪み補正が必要と判断した場合に、前記写像Wに応じた前記位置歪み用補正パラメータを生成し、
画面分割補正が必要と判断した場合に、前記受光パターンのうち、前記基準パターンに対応する領域が欠損した領域を含む低反射領域を検出し、前記低反射領域以外の領域に前記映像が投影されるよう、前記映像が投影される画面を分割し、分割前の画像から分割後の画像への写像Vを算出し、前記写像Vに応じた前記画像分割用補正パラメータを生成し、
前記位置歪み用補正パラメータ又は前記画面分割用補正パラメータを用いて、映像コンテンツを補正し、
補正された前記映像コンテンツを投影する、
映像投影方法。
Project the reference pattern as an image,
The light receiving pattern obtained by receiving the projected reference pattern is compared with the reference pattern, the correspondence between the components of these patterns is specified, and the light receiving pattern is derived from the reference pattern based on the correspondence. To calculate the mapping W to
Based on the correspondence, determine whether or not position distortion correction or screen division correction is necessary,
When it is determined that positional distortion correction is necessary, the positional distortion correction parameter corresponding to the mapping W is generated,
When it is determined that screen division correction is necessary, a low reflection region including a region in which a region corresponding to the reference pattern is missing is detected from the light receiving pattern, and the video is projected to a region other than the low reflection region. Dividing the screen on which the video is projected, calculating a mapping V from the image before the division to the image after the division, and generating the correction parameter for the image division according to the mapping V,
Using the correction parameter for positional distortion or the correction parameter for screen division, correct video content,
Projecting the corrected video content;
Video projection method.
JP2009198978A 2009-08-28 2009-08-28 Video projection apparatus and video projection method Pending JP2011050013A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198978A JP2011050013A (en) 2009-08-28 2009-08-28 Video projection apparatus and video projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198978A JP2011050013A (en) 2009-08-28 2009-08-28 Video projection apparatus and video projection method

Publications (1)

Publication Number Publication Date
JP2011050013A true JP2011050013A (en) 2011-03-10

Family

ID=43835859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198978A Pending JP2011050013A (en) 2009-08-28 2009-08-28 Video projection apparatus and video projection method

Country Status (1)

Country Link
JP (1) JP2011050013A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196482A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Input user interface device, projection device, program and command determination method
JP2014197242A (en) * 2012-05-21 2014-10-16 株式会社リコー Pattern extraction device, image projection device, and pattern extraction method and program
JP2015026914A (en) * 2013-07-24 2015-02-05 株式会社リコー Program, information processing device, and system
JP2015080190A (en) * 2013-09-11 2015-04-23 株式会社リコー Extraction method, program, extraction device, and image projection device
JP2015095752A (en) * 2013-11-12 2015-05-18 株式会社リコー Interpolation method, program, and interpolation device
JP2015106050A (en) * 2013-11-29 2015-06-08 日本電信電話株式会社 Spatial projection device, spatial projection method, spatial projection program and recording medium
JP2015139004A (en) * 2014-01-20 2015-07-30 キヤノン株式会社 Video projection device, video projection method, and computer program
JP2016540267A (en) * 2013-09-26 2016-12-22 クアルコム,インコーポレイテッド Image capture input and projection output
JP2017055160A (en) * 2015-09-07 2017-03-16 ブラザー工業株式会社 Projection control device, program, and projection system
WO2018056195A1 (en) * 2016-09-21 2018-03-29 日本電気株式会社 Projection system, projection method, and program recording medium
CN110663249A (en) * 2017-05-26 2020-01-07 索尼公司 Apparatus and method for image processing
CN112668569A (en) * 2016-04-12 2021-04-16 麦克赛尔株式会社 Projection type image display device
CN114173105A (en) * 2020-09-10 2022-03-11 精工爱普生株式会社 Information generating method, information generating system, and recording medium
JP7482268B2 (en) 2019-09-05 2024-05-13 富士フイルム株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213411B2 (en) 2012-03-21 2015-12-15 Casio Computer Co., Ltd. Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program
JP2013196482A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Input user interface device, projection device, program and command determination method
US9767377B2 (en) 2012-05-21 2017-09-19 Ricoh Company, Ltd. Pattern extracting device, image projecting device, pattern extracting method, and program
JP2014197242A (en) * 2012-05-21 2014-10-16 株式会社リコー Pattern extraction device, image projection device, and pattern extraction method and program
JP2015026914A (en) * 2013-07-24 2015-02-05 株式会社リコー Program, information processing device, and system
JP2015080190A (en) * 2013-09-11 2015-04-23 株式会社リコー Extraction method, program, extraction device, and image projection device
JP2016540267A (en) * 2013-09-26 2016-12-22 クアルコム,インコーポレイテッド Image capture input and projection output
JP2015095752A (en) * 2013-11-12 2015-05-18 株式会社リコー Interpolation method, program, and interpolation device
JP2015106050A (en) * 2013-11-29 2015-06-08 日本電信電話株式会社 Spatial projection device, spatial projection method, spatial projection program and recording medium
JP2015139004A (en) * 2014-01-20 2015-07-30 キヤノン株式会社 Video projection device, video projection method, and computer program
US9516289B2 (en) 2014-01-20 2016-12-06 Canon Kabushiki Kaisha Video image projection apparatus, video image projection method, and storage medium
JP2017055160A (en) * 2015-09-07 2017-03-16 ブラザー工業株式会社 Projection control device, program, and projection system
CN112668569A (en) * 2016-04-12 2021-04-16 麦克赛尔株式会社 Projection type image display device
CN112668569B (en) * 2016-04-12 2024-02-02 麦克赛尔株式会社 Projection type image display device
WO2018056195A1 (en) * 2016-09-21 2018-03-29 日本電気株式会社 Projection system, projection method, and program recording medium
JPWO2018056195A1 (en) * 2016-09-21 2019-06-24 日本電気株式会社 Projection system, projection method and program
US10887563B2 (en) 2016-09-21 2021-01-05 Nec Corporation Projection system, projection method, and program recording medium
CN110663249A (en) * 2017-05-26 2020-01-07 索尼公司 Apparatus and method for image processing
US11202044B2 (en) 2017-05-26 2021-12-14 Sony Corporation Image processing apparatus and method
CN110663249B (en) * 2017-05-26 2022-04-15 索尼公司 Apparatus and method for image processing
JP7482268B2 (en) 2019-09-05 2024-05-13 富士フイルム株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
CN114173105A (en) * 2020-09-10 2022-03-11 精工爱普生株式会社 Information generating method, information generating system, and recording medium
CN114173105B (en) * 2020-09-10 2023-06-16 精工爱普生株式会社 Information generating method, information generating system, and recording medium

Similar Documents

Publication Publication Date Title
JP2011050013A (en) Video projection apparatus and video projection method
KR100843089B1 (en) Apparatus and method for improving visibility for images
US10554880B2 (en) Image processing system, imaging apparatus, image processing method, and computer-readable storage medium
CN107274338B (en) Systems, methods, and apparatus for low-latency warping of depth maps
US9953556B2 (en) Color correction method for optical see-through displays
US7800628B2 (en) System and method for generating scale maps
US7854518B2 (en) Mesh for rendering an image frame
US7909470B2 (en) Image projection method and projector
US7907792B2 (en) Blend maps for rendering an image frame
US9137504B2 (en) System and method for projecting multiple image streams
KR100796849B1 (en) Method for photographing panorama mosaics picture in mobile device
US9654750B2 (en) Image processing system, image processing apparatus, and image processing method to respectively display images obtained by dividing one image on first and the second display media
CN102769759B (en) Digital image color correcting method and realizing device
US20070291184A1 (en) System and method for displaying images
JP2014096834A (en) Electronic apparatus
US10924718B2 (en) Image processing device and method
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
KR20070008652A (en) Method for extracting raw data of a photographed image
CN114339194A (en) Projection display method and device, projection equipment and computer readable storage medium
US10097793B2 (en) Method and system of depth data filling of shadows for image processing
US20220358679A1 (en) Parameter Calibration Method and Apparatus
US20130106840A1 (en) Apparatus and method for correcting image projected by projector
CN108337494A (en) A kind of calibration method of projection device, device, projection device and terminal device
US20240257321A1 (en) Point-of-view image warp systems and methods
CN113688900A (en) Radar and visual data fusion processing method, road side equipment and intelligent traffic system