JP2015100084A - Space projection device, space projection method, and space projection program - Google Patents

Space projection device, space projection method, and space projection program Download PDF

Info

Publication number
JP2015100084A
JP2015100084A JP2013240094A JP2013240094A JP2015100084A JP 2015100084 A JP2015100084 A JP 2015100084A JP 2013240094 A JP2013240094 A JP 2013240094A JP 2013240094 A JP2013240094 A JP 2013240094A JP 2015100084 A JP2015100084 A JP 2015100084A
Authority
JP
Japan
Prior art keywords
image
projector
projection
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013240094A
Other languages
Japanese (ja)
Inventor
宮川 勲
Isao Miyagawa
勲 宮川
新井 啓之
Hiroyuki Arai
啓之 新井
行信 谷口
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013240094A priority Critical patent/JP2015100084A/en
Publication of JP2015100084A publication Critical patent/JP2015100084A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a space projection device that can geometrically and optically correct a predetermined image and project the corrected image accurately on a subject, in the general situation where one pixel of a projector screen does not necessarily correspond to one pixel of a camera screen.SOLUTION: A space projection device includes: an LT acquisition unit that projects, on a subject, a pixel pattern in which a rectangular area having m pixels in the horizontal direction and n pixels in the vertical direction is white, and a pixel area other than the rectangular area is black, using as an image for a point light source, to acquire light transport data; an LT adjustment unit that calculates a brightness distribution ratio for adjusting the brightness of projector pixels on the basis of the light transport data; and a projection image creation unit that geometrically and optically corrects a projection object image by using geometrical correspondence information on the projector pixels and camera pixels, the brightness distribution ratio, and brightness compensation parameters calculated from a reference color sample image, so as to create an image projecting the projection object image on the subject.

Description

本発明は、映像投影装置を使用して、空間情報に合わせて画像を投影する空間投影装置、空間投影方法及び空間投影プログラムに関する。   The present invention relates to a spatial projection apparatus, a spatial projection method, and a spatial projection program that project an image according to spatial information using a video projection apparatus.

映像投影装置であるプロジェクタは極めてフレキシブルな画像出力デバイスであり、投影仕様の範囲内であれば個人スペース、会議ホール、巨大パブリックビューイング、ビルの壁などに合わせて自由サイズの映像表示を提供することができる。プロジェクタを使って平面スクリーンではない任意の構造物(以下、被写体と称する)へ投影するとき、被写体の形状を事前に計測して、その形状に合わせて所定画像が空間歪みの無いように投影する技術は、プロジェクション・マッピング(projection mapping)として知られている。任意スケール表示の利点を活かして、プロジェクション・マッピングはエンターテインメント志向のイベントやイルミネーションによる広告表示などに利用されている。   The projector, which is a video projection device, is an extremely flexible image output device that provides free-size video display for personal spaces, conference halls, huge public viewing, building walls, etc. as long as it is within the projection specifications. be able to. When projecting onto an arbitrary structure (hereinafter referred to as a subject) that is not a flat screen using a projector, the shape of the subject is measured in advance, and a predetermined image is projected according to the shape so that there is no spatial distortion. The technique is known as projection mapping. Taking advantage of the arbitrary scale display, projection mapping is used for entertainment-oriented events and advertisement display by illumination.

プロジェクション・マッピングでは所定画像を正確に被写体に投影するために、プロジェクタ・カメラシステム(projector−camera systems)が利用される。プロジェクタ・カメラシステムではカメラから入力された画像に応じてプロジェクタから出力する画像を幾何変換するように制御すれば、所定画像を指定された位置に投影することができる。通常、平面のスクリーンにプロジェクション・マッピングする場合には、事前のキャリブレーション作業で得た平面射影変換(plane−homography)を使い、プロジェクタ画面上の点とカメラ画面上の点をスクリーン面を介して対応付ける。この対応関係を利用して、プロジェクタから出力する所定画像を幾何変換して、所定画像をスクリーン面の決められた場所に投影する。   In projection mapping, a projector-camera system is used in order to accurately project a predetermined image onto a subject. In the projector / camera system, if an image output from the projector is controlled to be geometrically transformed in accordance with an image input from the camera, a predetermined image can be projected at a designated position. In general, when projecting and mapping to a flat screen, the plane-homography obtained in the previous calibration work is used, and the points on the projector screen and the points on the camera screen are passed through the screen surface. Associate. Using this correspondence, the predetermined image output from the projector is geometrically transformed, and the predetermined image is projected onto a predetermined place on the screen surface.

これに対して、空間構造に凹凸があったり曲がった構造である場合には、非特許文献1では、レーザ計測を利用して、被写体の空間構造あるいは凹凸形状を得るようにしている。その形状に合わせて所定画像を幾何的に変形させて、平面スクリーンと同様の状態で指定個所に所定画像を投影する。同様のアプローチとして、構造光(structured lights)と呼ばれる幾何パターンをプロジェクタから投影し、カメラで観測した歪み画像から空間構造の凹凸形状あるいは奥行きを計測する方式も利用できる。このように、従来技術は、外界または被写体の空間構造をレーザ計測またはプロジェクタ・カメラシステムを利用して空間構造を把握し、その凹凸形状または奥行きに合わせて指定個所へ所定画像を投影する。   On the other hand, when the spatial structure is uneven or bent, Non-Patent Document 1 uses laser measurement to obtain the spatial structure or uneven shape of the subject. The predetermined image is geometrically deformed in accordance with the shape, and the predetermined image is projected to the designated place in the same state as the flat screen. As a similar approach, a method of projecting a geometric pattern called structured light from a projector and measuring the concavo-convex shape or depth of the spatial structure from a distortion image observed by the camera can be used. As described above, according to the conventional technology, the spatial structure of the outside world or the subject is grasped by using a laser measurement or a projector / camera system, and a predetermined image is projected to a designated location according to the uneven shape or depth.

これに対して、外界の空間構造を計測せずに、ライト・トランスポートを利用したプロジェクション・マッピングが非特許文献2で公開されている。ライト・トランスポート(light transport)とは、全てのプロジェクタ画素と全てのカメラ画素間の対応関係を表現したデータである。図7は、未校正なプロジェクタ・カメラシステムを使ったライト・トランスポート行列(light transport matrix)の測定を示す図である。図7に示すようにプロジェクタ画素の1点1点を順番に点灯させ、その画素からの光が光学的反射や屈折によって結び付くカメラ画素を検出することによってそのライト・トランスポートを得る。プロジェクタ画面の画素数がp×q画素でカメラ画面の画素数がu×v画素であるとき、各点光源のカメラ応答の画像Cを列ベクトル化して並べた行列Tは、ライト・トランスポート行列と呼ばれ、uv×pq画素の巨大、かつ、スパースな行列である。 On the other hand, Non-Patent Document 2 discloses projection mapping using light transport without measuring the spatial structure of the outside world. Light transport is data representing the correspondence between all projector pixels and all camera pixels. FIG. 7 is a diagram illustrating measurement of a light transport matrix using an uncalibrated projector / camera system. As shown in FIG. 7, each projector pixel is turned on one by one in order, and the light transport is obtained by detecting a camera pixel in which light from the pixel is connected by optical reflection or refraction. When the number of pixels on the projector screen is p × q pixels and the number of pixels on the camera screen is u × v pixels, a matrix T in which the image C j of the camera response of each point light source is converted into a column vector is arranged as a light transport. It is called a matrix and is a huge and sparse matrix of uv × pq pixels.

非特許文献2では、この行列の転置Tを利用して、プロジェクタからの視点から観測されるであろう仮想画像(dual photography)を人工的に生成する方法が記載されている。 Non-Patent Document 2, by using the transposed T T of the matrix, a method of generating a virtual image (dual photography) artificially that would be observed from the point of view of the projector is described.

一般的に、レーザあるいは構造光を使った3次元形状計測では一次反射光のみを受光することを前提としている。このため、被写体の構造によって発生する光学的な多重反射や屈折を扱うことができない。これに対して、ライト・トランスポートは一次反射光と多重反射や屈折光を区別することなく扱うことできるため、全てのプロジェクタ画素と全てのカメラ画素間の対応付けに基づいた高精度なプロジェクション・マッピングを可能とする。   In general, three-dimensional shape measurement using a laser or structured light is premised on receiving only primary reflected light. For this reason, the optical multiple reflection and refraction caused by the structure of the subject cannot be handled. On the other hand, since the light transport can handle primary reflected light, multiple reflected light, and refracted light without distinction, a highly accurate projection based on the correspondence between all projector pixels and all camera pixels. Enable mapping.

なお、プロジェクタ・カメラシステムの輝度補償技術は非特許文献3に記載の技術がある。   Note that there is a technique described in Non-Patent Document 3 as a brightness compensation technique for a projector / camera system.

J. Shimamura and K. Arakawa:"Location-Aware Projection with Robust 3-D Viewing Point Detection and Fast Image Deformation", Proc. ACM International Conference on Multimedia,pp.296.299, 2004.J. Shimamura and K. Arakawa: "Location-Aware Projection with Robust 3-D Viewing Point Detection and Fast Image Deformation", Proc. ACM International Conference on Multimedia, pp.296.299, 2004. P. Sen, B. Chen, G. Garg, S.R. Marschner, M. Horowitz, M. Levoy, and H.P.A. Lensch: "Dual Photography",ACM Transactions on Graphics, vol.23, no.3, pp.745.755, 2005.P. Sen, B. Chen, G. Garg, SR Marschner, M. Horowitz, M. Levoy, and HPA Lensch: "Dual Photography", ACM Transactions on Graphics, vol.23, no.3, pp.745.755, 2005 . K. Fujii, M.D. Grossberg, and S.K. Nayar: "A Projector-Camera System with Real-Time Photometric Adaptation for Dynamic Environments", Proc. of IEEE Computer Vision and Pattern Recognition (CVPR), vol.1, pp.814.821, 2005.K. Fujii, MD Grossberg, and SK Nayar: "A Projector-Camera System with Real-Time Photometric Adaptation for Dynamic Environments", Proc. Of IEEE Computer Vision and Pattern Recognition (CVPR), vol.1, pp.814.821, 2005 .

レーザ光あるいは構造光による3次元計測に頼らずに、任意形状に対して所定画像をプロジェクション・マッピングするには、プロジェクタから出力した画素(これをプロジェクタ画素という)とカメラで観測した画素(これをカメラ画素という)を全て対応付ける必要がある。ここでは、この作業をライト・トランスポートの獲得と称する。図7では、ライト・トランスポートを獲得する概要を示しており、最も単純には各画素を点光源として使う。p×q画素のプロジェクタ画面において1点ずつ順番に繰り返して照明するとき、pq枚の画像をカメラで観測することになり、それぞれの画像においてカメラ応答の画素を検出してライト・トランスポートを獲得する。   In order to project and map a predetermined image to an arbitrary shape without relying on three-dimensional measurement with laser light or structured light, a pixel output from a projector (this is called a projector pixel) and a pixel observed by a camera (this is called It is necessary to associate all of the camera pixels. Here, this operation is referred to as acquisition of the light transport. FIG. 7 shows an outline of acquiring the light transport, and most simply, each pixel is used as a point light source. When repeatedly illuminating one by one on the projector screen of p × q pixels, pq images are observed with the camera, and the camera response pixel is detected in each image to acquire the light transport. To do.

ところが、プロジェクタとカメラの位置または姿勢の関係によっては、プロジェクタ画面の1画素を点光源として使うには不十分な場合がある。図8は、プロジェクタが被写体から遠い場合の例を示す図である。プロジェクタ画面の1画素から放出した照明光は広がりをもって進み被写体で反射し、その反射光をカメラ画面において数画素で観測するとき、プロジェクタ画面の1画素からの照明が微弱過ぎてカメラで観測できない場合がある。この状況は照明する側のプロジェクタの光学的感度特性や機能設定、並びに、観測する側のカメラの光学的感度特性や機能設定にも依存するため、ライト・トランスポートを獲得するにはプロジェクタ画面の1点を点光源として利用することは一般的ではない。   However, depending on the relationship between the position and orientation of the projector and camera, it may be insufficient to use one pixel on the projector screen as a point light source. FIG. 8 is a diagram illustrating an example when the projector is far from the subject. When the illumination light emitted from one pixel on the projector screen advances and reflects off the subject, and when the reflected light is observed with several pixels on the camera screen, the illumination from one pixel on the projector screen is too weak to be observed with the camera There is. This situation depends on the optical sensitivity characteristics and function settings of the illuminating projector and the optical sensitivity characteristics and function settings of the observing camera. It is not common to use one point as a point light source.

さらに、所定の画像を被写体に正確に投影するには、カメラで観測したときの各画素の画素値も所定画像の画素値にする必要がある。非特許文献3の方法によれば、所定の輝度をカメラで観測するようにプロジェクタからの出力輝度を光学的に補償することができる。その方法は平面物体以外の物体表面の輝度補償を扱っているが、プロジェクタ座標とカメラ座標が1対1の幾何的に対応付けられている場合に限定される。   Further, in order to accurately project a predetermined image onto a subject, the pixel value of each pixel when observed with a camera needs to be the pixel value of the predetermined image. According to the method of Non-Patent Document 3, the output luminance from the projector can be optically compensated so that the predetermined luminance is observed with a camera. The method deals with luminance compensation on the surface of an object other than a planar object, but is limited to a case where projector coordinates and camera coordinates are one-to-one geometrically associated.

また、任意形状に対するライト・トランスポートでは直接反射光の他に二次以上の反射光や屈折光が含まれる。このため、被写体に所定画像を幾何的かつ光学的にプロジェクション・マッピングするには、ライト・トランスポートにおけるプロジェクタ画素とカメラ画素間のM対Nの空間的対応関係を考慮して、プロジェクタから出力するカラーの輝度を自動調整する必要があるという問題がある。   Further, the light transport for an arbitrary shape includes secondary or higher-order reflected light and refracted light in addition to directly reflected light. Therefore, in order to geometrically and optically project and map a predetermined image on a subject, the image is output from the projector in consideration of the M to N spatial correspondence between the projector pixel and the camera pixel in the light transport. There is a problem that it is necessary to automatically adjust the brightness of the color.

本発明は、このような事情に鑑みてなされたもので、プロジェクタ・カメラシステムの動作を活用したプロジェクション・マッピングにおいて、プロジェクタ画面の1画素がカメラ画面の1画素と対応付けるとは限らない一般的な状況において、所定画像を幾何的かつ光学的に補正して、被写体上に正確に投影することができる空間投影装置、空間投影方法及び空間投影プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and in projection mapping utilizing the operation of the projector / camera system, one pixel on the projector screen is not always associated with one pixel on the camera screen. An object of the present invention is to provide a spatial projection device, a spatial projection method, and a spatial projection program that can correct a predetermined image geometrically and optically and accurately project it on a subject.

本発明は、横方向にm画素、縦方向にn画素の矩形の領域を白、それ以外の画素領域を黒とした画素パターンを点光源用画像として用いて被写体に対して投影してライト・トランスポートデータを獲得するLT獲得部と、前記ライト・トランスポートデータに基づいてプロジェクタ画素の輝度を調整するための輝度配分比を算出するLT調整部と、プロジェクタ画素とカメラ画素との幾何的対応情報と、前記輝度配分比と、基準のカラーサンプル画像から算出した輝度補償パラメータとを使用して、投影対象画像を幾何的かつ光学的に補正して、前記被写体へ前記投影対象画像を投影する画像を生成する投影画像生成部とを備えることを特徴とする。   In the present invention, a pixel pattern in which a rectangular area of m pixels in the horizontal direction, n pixels in the vertical direction is white, and the other pixel areas are black is used as a point light source image and projected onto a subject. An LT acquisition unit that acquires transport data, an LT adjustment unit that calculates a luminance distribution ratio for adjusting the luminance of the projector pixel based on the light transport data, and a geometric correspondence between the projector pixel and the camera pixel Using the information, the luminance distribution ratio, and the luminance compensation parameter calculated from the reference color sample image, the projection target image is geometrically and optically corrected, and the projection target image is projected onto the subject. And a projection image generation unit that generates an image.

本発明は、前記投影画像生成部は、前記被写体へ前記投影対象画像を投影した画像の観測画像を取得し、前記観測画像と、生成した前記投影対象画像を投影する画像との輝度誤差を求め、該輝度誤差が所定のしきい値より大きい場合に、フィードバックすべき輝度を算出し、算出した前記輝度に基づいて、前記プロジェクタ画素の輝度を更新することを特徴とする。   In the present invention, the projection image generation unit acquires an observation image of an image obtained by projecting the projection target image onto the subject, and obtains a luminance error between the observation image and the generated image that projects the projection target image. When the luminance error is larger than a predetermined threshold, the luminance to be fed back is calculated, and the luminance of the projector pixel is updated based on the calculated luminance.

本発明は、LT獲得部と、LT調整部と、投影画像生成部とを備える空間投影装置が行う空間投影方法であって、前記LT獲得部が、横方向にm画素、縦方向にn画素の矩形の領域を白、それ以外の画素領域を黒とした画素パターンを点光源用画像として用いて被写体に対して投影してライト・トランスポートデータを獲得するLT獲得ステップと、前記LT調整部が、前記ライト・トランスポートデータに基づいてプロジェクタ画素の輝度を調整するための輝度配分比を算出するLT調整ステップと、前記投影画像生成部が、プロジェクタ画素とカメラ画素との幾何的対応情報と、前記輝度配分比と、基準のカラーサンプル画像から算出した輝度補償パラメータとを使用して、投影対象画像を幾何的かつ光学的に補正して、前記被写体へ前記投影対象画像を投影する画像を生成する投影画像生成ステップとを有することを特徴とする。   The present invention is a spatial projection method performed by a spatial projection apparatus including an LT acquisition unit, an LT adjustment unit, and a projection image generation unit, wherein the LT acquisition unit includes m pixels in the horizontal direction and n pixels in the vertical direction. An LT acquisition step for acquiring light transport data by projecting a subject on a subject using a pixel pattern in which the rectangular area of the pixel is white and the other pixel area is black as an image for a point light source; An LT adjustment step of calculating a luminance distribution ratio for adjusting the luminance of the projector pixel based on the light transport data, and the projection image generation unit includes geometric correspondence information between the projector pixel and the camera pixel; The image to be projected is corrected geometrically and optically using the luminance distribution ratio and a luminance compensation parameter calculated from a reference color sample image to And having a projection image generation step of generating an image to be projected a projection target image.

本発明は、コンピュータを、前記空間投影装置として機能させるための空間投影プログラムである。   The present invention is a spatial projection program for causing a computer to function as the spatial projection device.

本発明によれば、プロジェクタ・カメラシステムのライト・トランスポートに基づくプロジェクタ画素とカメラ画素間の幾何的対応関係を使って、凹凸や曲がった形状の空間構造に対してスクリーン平面上にあたかも投影されたかのように、所定の映像を投影することができる。さらに、その映像提示を使った拡張現実や映像コミュニケーションを実現することが可能となるという効果が得られる。   According to the present invention, the geometrical correspondence between the projector pixel and the camera pixel based on the light transport of the projector / camera system is projected onto the screen plane as to the spatial structure of the unevenness or the bent shape. A predetermined image can be projected as if it were. Furthermore, an effect that it becomes possible to realize augmented reality and video communication using the video presentation is obtained.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 図1に示すLT獲得部31の処理動作をフローチャートである。It is a flowchart for the processing operation of the LT acquisition unit 31 shown in FIG. プロジェクタ座標の設定と画素パターンを示す図である。It is a figure which shows the setting of a projector coordinate, and a pixel pattern. ライト・トランスポートデータの一例を示す図である。It is a figure which shows an example of write transport data. 図1に示すLT調整部32の処理動作を示すフローチャートである。3 is a flowchart showing a processing operation of an LT adjustment unit 32 shown in FIG. 図1に示す投影画像生成部33の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the projection image generation part 33 shown in FIG. 未校正なプロジェクタ・カメラシステムを使ったライト・トランスポート行列の測定を示す図である。It is a figure which shows the measurement of the light transport matrix using an uncalibrated projector camera system. プロジェクタが被写体から遠い場合の例を示す図である。It is a figure which shows the example when a projector is far from a to-be-photographed object.

以下、図面を参照して、本発明の一実施形態による空間投影装置を説明する。図1は同実施形態のシステム構成を示すブロック図である。図1に示す実施形態においては、1台のプロジェクタ1と1台のカメラ2のプロジェクタ・カメラシステムを使用する。本システムでは、空間投影装置3、映像データベース(DB)4を備える。図1において、符号31は、プロジェクタ画素とカメラ画素の幾何的対応関係であるライト・トランスポートを獲得するLT獲得部である。なお、本明細書において、ライト・トランスポートを「LT」と略す。符号32は、LT獲得部31において得たライト・トランスポートを読み込みに適した簡単なデータ形式で保有し、そのデータに基づいてプロジェクタ画素の輝度を調整するための輝度配分比を算出するLT調整部である。符号33は、プロジェクタ画素とカメラ画素の幾何的対応とプロジェクタ画素の輝度配分比と、ある基準のカラーサンプル画像から算出した輝度補償パラメータを使って、所定画像を幾何的かつ光学的に補正して、被写体5へ所定画像を投影する投影画像生成部である。プロジェクタ1は、LT獲得部31から点光源用画像が入力されたとき、その画像を被写体5へ投影する。カメラ2は、所定画像をフィードバックによって取得するため、観測画像を投影画像生成33部へ転送する。   Hereinafter, a spatial projection apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a system configuration of the embodiment. In the embodiment shown in FIG. 1, a projector / camera system of one projector 1 and one camera 2 is used. This system includes a spatial projection device 3 and a video database (DB) 4. In FIG. 1, reference numeral 31 denotes an LT acquisition unit that acquires a light transport that is a geometric correspondence between a projector pixel and a camera pixel. In this specification, the write transport is abbreviated as “LT”. Reference numeral 32 denotes an LT adjustment for storing the light transport obtained in the LT acquisition unit 31 in a simple data format suitable for reading and calculating a luminance distribution ratio for adjusting the luminance of the projector pixel based on the data. Part. Reference numeral 33 designates a geometrical and optical correction of a predetermined image using a geometric correspondence between the projector pixel and the camera pixel, a luminance distribution ratio of the projector pixel, and a luminance compensation parameter calculated from a certain color sample image. A projection image generation unit that projects a predetermined image onto the subject 5. When the point light source image is input from the LT acquisition unit 31, the projector 1 projects the image onto the subject 5. The camera 2 transfers the observation image to the projection image generation unit 33 in order to acquire a predetermined image by feedback.

この構成において、プロジェクタ1、カメラ2は必ずしも構成要素として接続している必要はなく、処理に必要なデータを取得すればよく、LT獲得部31、LT調整部32、投影画像生成部33からそれぞれの矢印へのデータの流れは、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。   In this configuration, the projector 1 and the camera 2 do not necessarily have to be connected as components, and it is only necessary to acquire data necessary for processing, and the LT acquisition unit 31, the LT adjustment unit 32, and the projection image generation unit 33 respectively. The data flow to the arrow may be in the form of using a recording medium such as a hard disk, a RAID device, a CD-ROM, or using a remote data resource via a network.

次に、図1に示すLT獲得部31の処理動作を説明する。図2は、図1に示すLT獲得部31の処理動作をフローチャートである。この処理動作は、指定のプロジェクタ画素の範囲内の画素パターンを点滅させて、プロジェクタ1からその点光源を照明して、その反射光をカメラ2で測定して、ライト・トランスポートを獲得するものである。ライト・トランスポートを獲得する手段には他にも考えられるが、本実施形態では最もシンプルなbrute−force scanning(所定範囲内の全点スキャニング方式)によりライト・トランスポートを獲得する。   Next, the processing operation of the LT acquisition unit 31 shown in FIG. 1 will be described. FIG. 2 is a flowchart showing the processing operation of the LT acquisition unit 31 shown in FIG. In this processing operation, the pixel pattern within the range of the designated projector pixel is blinked, the point light source is illuminated from the projector 1, the reflected light is measured by the camera 2, and the light transport is obtained. It is. Although other means for acquiring the write transport are conceivable, in the present embodiment, the write transport is acquired by the simplest true-force scanning (all-point scanning method within a predetermined range).

まず、処理を開始すると、LT獲得部31は、プロジェクタ画面で点灯させるためのプロジェクタ座標として、座標値(x,y)を設定する(ステップS1)。次に、LT獲得部31は、プロジェクタ座標が所定範囲内の座標であることを判定(図2に示す「点灯画素OK?」の判定)する(ステップS2)。この判定は、LT獲得に過剰なメモリを使わないため、全てのプロジェクタ画面を処理対象とするのではなく、所定範囲内のプロジェクタ座標を処理対象とするための役割も担う。そして、点灯画素OKならば、LT獲得部31は、図3に示すようにプロジェクタ画面に対してプロジェクタ座標(x,y)を左下隅の座標とし、横方向にm(mは自然数)画素、縦方向にm画素の矩形のm×m画素の領域を白、それ以外の画素領域を黒とした画素パターンを設定して点光源用の画像を生成する(ステップS3)。図3は、プロジェクタ座標の設定と画素パターンを示す図である。本実施形態ではm×m画素に限定されるものではなく、より一般的にm×n画素の領域でもよい。この画素パターンのサイズは、プロジェクタ1からの各照明からの反射光が正常にカメラ応答を観測できれば十分であり、ユーザが画素パターンのサイズを自由に設定する。 First, when processing is started, the LT acquisition unit 31 sets coordinate values (x j , y j ) as projector coordinates for lighting on the projector screen (step S1). Next, the LT acquisition unit 31 determines that the projector coordinates are within a predetermined range (determination of “lit pixel OK?” Shown in FIG. 2) (step S2). Since this determination does not use an excessive memory for acquiring LT, it does not target all projector screens, but also plays a role to target projector coordinates within a predetermined range. If the lighting pixel is OK, the LT acquisition unit 31 uses the projector coordinates (x j , y j ) as the coordinates of the lower left corner with respect to the projector screen as shown in FIG. 3, and m in the horizontal direction (m is a natural number). An image for a point light source is generated by setting a pixel pattern in which an area of m × m pixels of a rectangular shape of m pixels in the vertical direction is white and the other pixel areas are black (step S3). FIG. 3 is a diagram illustrating projector coordinate settings and pixel patterns. In the present embodiment, the area is not limited to m × m pixels, and may generally be an area of m × n pixels. The size of the pixel pattern is sufficient if the reflected light from each illumination from the projector 1 can normally observe the camera response, and the user can freely set the size of the pixel pattern.

次に、LT獲得部31は、画素パターンを設定した後に、その画像(点光源用画像)をプロジェクタ1に対して出力して、被写体5へ点光源用画像を投影する(ステップS4)。そして、LT獲得部31は、画像観測がOKとなるまで待機し(ステップS5)、「画像観測OK?」と判定された後、カメラ2でプロジェクタで投影されている被写体を撮影する。画像観測がOKの場合には、LT獲得部31は、カメラ2を通じて観測画像を取得する(ステップS6)。一方、LT獲得部31は、点光源用画像を投影する前に、画素を全く点灯させていない黒画像をプロジェクタ1から投影して背景画像を取得しておく。   Next, after setting the pixel pattern, the LT acquisition unit 31 outputs the image (point light source image) to the projector 1 and projects the point light source image onto the subject 5 (step S4). Then, the LT acquisition unit 31 stands by until the image observation is OK (step S5), and after determining “image observation OK?”, The camera 2 captures the subject projected by the projector. If the image observation is OK, the LT acquisition unit 31 acquires an observation image through the camera 2 (step S6). On the other hand, before the point light source image is projected, the LT acquisition unit 31 projects a black image in which no pixels are lit from the projector 1 and acquires a background image.

次に、LT獲得部31は、その背景画像を作業用に保有しておき、その背景画像を取り出し(ステップS7)、観測画像と背景画像との背景差分を処理する(ステップS8)。LT獲得部31は、所定閾値を設定しておき(ステップS9)、その背景画像においてその閾値を超える画素値を検出する(ステップS10)。このとき、応答画素が1点とは限らないため、LT獲得部31は、閾値を超える画素のカメラ座標を全て記録する(ステップS11)。これで得た複数のカメラ座標(u、v)は点光源用画像で与えたプロジェクタの画素パターンとライト・トランスポートとなる。ただし、画素パターンの設定において、プロジェクタ画素は矩形のm×m画素のパターンで与えるため、全ての画素を記録する必要ないため、プロジェクタ画素とカメラ座標のライト・トランスポートを表すにはその代表値として始点のプロジェクタ画素の座標(xj、yj)を記録すれば十分である。そこで、プロジェクタ座標の書き込みでは、点光源用画像で与えたプロジェクタ画素の代表座標値(x,y)だけを記録する(ステップS12)。 Next, the LT acquisition unit 31 holds the background image for work, extracts the background image (step S7), and processes the background difference between the observation image and the background image (step S8). The LT acquisition unit 31 sets a predetermined threshold (step S9), and detects a pixel value exceeding the threshold in the background image (step S10). At this time, since the number of response pixels is not necessarily one point, the LT acquisition unit 31 records all the camera coordinates of pixels that exceed the threshold (step S11). The plurality of camera coordinates (u k , v k ) obtained in this way are the pixel pattern and light transport of the projector given as the point light source image. However, since the projector pixels are given in a rectangular m × m pixel pattern in the pixel pattern setting, it is not necessary to record all the pixels. Therefore, the representative value is used to represent the light transport of the projector pixels and the camera coordinates. It is sufficient to record the coordinates (xj, yj) of the projector pixel as the starting point. Therefore, in writing the projector coordinates, only the representative coordinate values (x j , y j ) of the projector pixels given by the point light source image are recorded (step S12).

次に、LT獲得部31は、プロジェクタ座標の書き込みが終わると、プロジェクタ座標の設定(ステップS1)に戻り、次のプロジェクタ座標において横方向に画素をm画素だけシフトして、
(x,y)←(x+m,y) ・・・(1)
とプロジェクタ座標を設定する。ここで、←は代入を表す。
Next, when the writing of the projector coordinates is completed, the LT acquisition unit 31 returns to the setting of the projector coordinates (step S1), shifts the pixels by m pixels in the horizontal direction at the next projector coordinates,
(X j , y j ) ← (x j + m, y j ) (1)
And set projector coordinates. Here, ← represents substitution.

あるいは、横方向が指定の範囲内を超える場合は、プロジェクタ画素において縦方向に画素をm画素だけシフトして、
(x,y)←(x,y+m) ・・・(2)
とプロジェクタ座標を設定する。
Alternatively, if the horizontal direction exceeds the specified range, shift the pixel in the vertical direction by m pixels in the projector pixel,
(X j , y j ) ← (x j , y j + m) (2)
And set projector coordinates.

以上の処理を繰り返し行い、全てのプロジェクタ画素の座標について処理する。続いて、LT獲得部31は、指定の範囲内のプロジェクタ画素のライト・トランスポートを全て得た後、すなわち、点灯画素が無い(ステップS2でNO)と判定された後、縦方向にカメラ画素の座標とライト・トランスポートで結び付くプロジェクタ画素の座標を横方向に並べたデータをライト・トランスポートデータとして一時的に確保する(ステップS13)。ここで確保されるライト・トランスポートデータの一例を図4に示す。図4は、ライト・トランスポートデータの一例を示す図である。そして、LT獲得部31は、確保したライト・トランスポートデータをLT調整部32へ転送(ステップS14)した時点で処理停止とし、本処理を終了する。   The above process is repeated to process the coordinates of all projector pixels. Subsequently, after obtaining all the light transports of the projector pixels within the designated range, that is, after determining that there are no lighting pixels (NO in step S2), the LT acquisition unit 31 performs camera pixel in the vertical direction. The data obtained by arranging the coordinates of the projector pixels connected in the horizontal direction in the horizontal direction is temporarily secured as the light transport data (step S13). An example of the write transport data secured here is shown in FIG. FIG. 4 is a diagram illustrating an example of write transport data. Then, the LT acquisition unit 31 stops the process when the secured write transport data is transferred to the LT adjustment unit 32 (step S14), and ends this process.

次に、図1に示すLT調整部32の処理動作を説明する。図5は、図1に示すLT調整部32の処理動作を示すフローチャートである。この処理動作は、LT獲得部31から転送されたライト・トランスポートデータに基づいて、被写体5に所定画像を投影するためのプロジェクタ画素値の輝度を調整するための輝度配分比を算出するものである。   Next, the processing operation of the LT adjustment unit 32 shown in FIG. 1 will be described. FIG. 5 is a flowchart showing the processing operation of the LT adjustment unit 32 shown in FIG. This processing operation calculates a luminance distribution ratio for adjusting the luminance of the projector pixel value for projecting a predetermined image on the subject 5 based on the light transport data transferred from the LT acquisition unit 31. is there.

まず、処理を開始すると、LT調整部32は、LT獲得部31で処理した指定範囲内に関するプロジェクタ座標の投票テーブルを全て0に設定する(ステップS21)。投票テーブルの例として、LT獲得部31で処理した指定範囲内に関するプロジェクタ座標を行列形式に確保する。   First, when the process is started, the LT adjustment unit 32 sets all the voting tables of projector coordinates related to the designated range processed by the LT acquisition unit 31 to 0 (step S21). As an example of the voting table, projector coordinates related to the designated range processed by the LT acquisition unit 31 are secured in a matrix format.

次に、初期化の後、LT調整部32は、ライト・トランスポートデータをロードする(ステップS22)。ライト・トランスポートデータは縦方向に図4に示すデータ形式となっているため、LT調整部32は、左端の各カメラ座標(u,v)を縦方向の順番に読み出して(ステップS23)、横方向に記録された全てのプロジェクタ座標(x,y)を取り出す(ステップS24)。このとき、そのプロジェクタ座標はm×m画素の代表座標であるため、プロジェクタ座標(x,y)からプロジェクタ座標(x+m−1,y+m−1)のm×m画素領域のプロジェクタ座標(x+Δx,y+Δy),0≦Δx≦m−1,0≦Δy≦m−1の範囲のプロジェクタ座標の投票テーブルにそれぞれ1票を投じる(ステップS25)。これを対象とするライト・トランスポートデータ中のカメラ座標と結び付く全てのプロジェクタ座標について投票を行う(ステップS26)。 Next, after initialization, the LT adjustment unit 32 loads the write transport data (step S22). Since the write transport data has the data format shown in FIG. 4 in the vertical direction, the LT adjustment unit 32 reads out the leftmost camera coordinates (u k , v k ) in the vertical direction (step S23). ) All projector coordinates (x j , y j ) recorded in the horizontal direction are taken out (step S24). At this time, since the projector coordinates are representative coordinates of m × m pixels, the projector coordinates (x j , y j ) to the projector coordinates (x j + m−1, y j + m−1) in the m × m pixel area. One vote is cast on the voting table of projector coordinates in the range of projector coordinates (x j + Δx, y j + Δy), 0 ≦ Δx ≦ m−1, 0 ≦ Δy ≦ m−1 (step S25). Voting is performed for all projector coordinates associated with the camera coordinates in the light transport data targeted for this (step S26).

各プロジェクタ座標(x,y)の投票結果がNxyの場合、投影画像生成部33ではそのプロジェクタ座標が画像投影に寄与する輝度配分比を1/Nxyとする(ステップS27)。この輝度配分比は投影画像生成部において使う。例えば、輝度配分比が1/3である場合は、その座標の画素値は3箇所のカメラ座標に分配されることを意味する。もし、投票結果がNxy=0である場合は、そのプロジェクタ座標は画像投影には寄与していないと判断して、投影画像生成部では処理対象としない。輝度配分比を決定した後、投影画像生成部33へライト・トランスポートデータと投票テーブルを転送して、本処理を停止する。 When the vote result of each projector coordinate (x j , y j ) is N xy , the projection image generation unit 33 sets the luminance distribution ratio that the projector coordinate contributes to image projection to 1 / N xy (step S27). This luminance distribution ratio is used in the projection image generation unit. For example, when the luminance distribution ratio is 1/3, it means that the pixel value of the coordinate is distributed to three camera coordinates. If the vote result is N xy = 0, it is determined that the projector coordinates do not contribute to the image projection, and the projection image generation unit does not process it. After the luminance distribution ratio is determined, the light / transport data and the voting table are transferred to the projection image generation unit 33, and this processing is stopped.

次に、図1に示す投影画像生成部33の処理動作を説明する。図6は、図1に示す投影画像生成部33の処理動作を示すフローチャートである。この処理動作は、LT獲得部31で得たライト・トランスポートデータとLT調整部32で得た輝度配分比を使って、映像DB4から取り出した各画像を被写体5へ投影するものである。   Next, the processing operation of the projection image generation unit 33 shown in FIG. 1 will be described. FIG. 6 is a flowchart showing the processing operation of the projection image generation unit 33 shown in FIG. This processing operation is to project each image extracted from the video DB 4 onto the subject 5 using the light transport data obtained by the LT acquisition unit 31 and the luminance distribution ratio obtained by the LT adjustment unit 32.

本実施形態では、カメラ2で観測したときの各画素の画素値を所定画像の画素値にする補償する処理において、非特許文献3で公開されているプロジェクタ・カメラシステムの輝度補正の方法を利用する。その従来の輝度補償方法では、各カメラ画素のカラー混合行列(color mixing matrix)とプロジェクタからのブラックオフセット光を含む環境光ベクトルを使う。ブラックオフセット光とは、黒の画像をプロジェクタから投影したときに放出される微弱な投影光を指す。本実施形態でも、非特許文献3で公知の手段によって、事前に撮影した4枚のサンプル画像(非特許文献3で使われている画像)から、各カメラ座標(u,v)のカラー混合行列Vuvと環境光ベクトルFuvを算出しておく。例えば、この事前のセットアップとして、カメラ2の前に平面形状の被写体を設置して、その被写体にサンプル画像を投影して、非特許文献3で公知の方法によりカラー混合行列と環境光ベクトルを算出する。任意の被写体にサンプル画像を投影すると異常な画素値が得られるおそれがあるため、カラー混合行列と環境光ベクトルが求まらない画素が発生するのを防ぐことができる。 In the present embodiment, the brightness correction method of the projector / camera system disclosed in Non-Patent Document 3 is used in the process of compensating the pixel value of each pixel when observed by the camera 2 to the pixel value of the predetermined image. To do. In the conventional luminance compensation method, an ambient light vector including a color mixing matrix of each camera pixel and a black offset light from the projector is used. Black offset light refers to weak projection light emitted when a black image is projected from a projector. Also in this embodiment, the color mixing matrix of each camera coordinate (u, v) is obtained from four sample images (images used in Non-Patent Document 3) captured in advance by means known in Non-Patent Document 3. V uv and ambient light vector F uv are calculated in advance . For example, as a setup in advance, a plane-shaped subject is placed in front of the camera 2, a sample image is projected onto the subject, and a color mixing matrix and an ambient light vector are calculated by a method known in Non-Patent Document 3. To do. If a sample image is projected onto an arbitrary subject, an abnormal pixel value may be obtained, so that it is possible to prevent occurrence of a pixel for which a color mixing matrix and an ambient light vector cannot be obtained.

プロジェクタが入力輝度に対して線形的に輝度を出力する場合、カメラ輝度Cuvとプロジェクタ輝度Pxyは、
uv=Vuvxy+Fuv ・・・(3)
の関係になる(非特許文献3参照)。もし、被写体が平面で、かつ、プロジェクタ座標とカメラ座標が1対1の幾何的に対応付けられているならば、そのカメラ座標とライト・トランスポートで結び付くプロジェクタ座標の輝度値Pxyは、式(3)の関係式を利用して
xy=Vuv −1(Cuv−Fuv) ・・・(4)
により輝度を補償できる。
When the projector outputs the luminance linearly with respect to the input luminance, the camera luminance C uv and the projector luminance P xy are
C uv = V uv P xy + F uv (3)
(See Non-Patent Document 3). If the subject is a plane and the projector coordinates and the camera coordinates are geometrically associated with each other on a one-to-one basis, the brightness value P xy of the projector coordinates associated with the camera coordinates and the light transport is expressed by the equation Using the relational expression (3), P xy = V uv −1 (C uv −F uv ) (4)
Can compensate the luminance.

非特許文献3に従って各カメラ座標(u,v)に関するカラー混合行列Vuvと環境光ベクトルFuvが事前に得られているものとして、処理を開始すると、投影画像生成部33は、対象全てのカラー混合行列Vuvと環境光ベクトルFuv(補償パラメータ)を読み出す(ステップS31)。次に、投影画像生成部33は、映像DB4から所定画像を読み出して(ステップS32)、その画像の各座標について、以降を順番に処理する。 Assuming that the color mixing matrix V uv and the ambient light vector F uv for each camera coordinate (u, v) are obtained in advance according to Non-Patent Document 3, when the processing is started, the projection image generation unit 33 The color mixing matrix V uv and the ambient light vector F uv (compensation parameter) are read out (step S31). Next, the projection image generation unit 33 reads a predetermined image from the video DB 4 (step S32), and sequentially processes the following for each coordinate of the image.

まず、カメラ座標(u,v)を設定し(ステップS33)、ライト・トランスポートデータを参照して(ステップS34)、カメラ座標(u,v)とライト・トランスポートの関係で幾何的に結び付くMuv個のプロジェクタ座標(x,y)を抽出する(ステップS35)。これと並行して、LT調整部32で得たプロジェクタ座標(x,y)の輝度配分比1/Nxyを設定する(ステップS36)。カメラ座標(u,v)の画素値がCであるとき、プロジェクタ画素Pxyを、

Figure 2015100084
により算出する(ステップS37)。 First, camera coordinates (u, v) are set (step S33), the light transport data is referred to (step S34), and they are geometrically linked by the relationship between the camera coordinates (u, v) and the light transport. M uv projector coordinates (x, y) are extracted (step S35). In parallel with this, the luminance distribution ratio 1 / N xy of the projector coordinates (x, y) obtained by the LT adjustment unit 32 is set (step S36). When the pixel value of the camera coordinates (u, v) is C k , the projector pixel P xy is
Figure 2015100084
(Step S37).

もし、プロジェクタ座標(x,y)の投票結果がNxy=0のときは式(5)において、Pxy=0と設定する。式(5)によれば、複数のプロジェクタ座標と複数のカメラ座標がライト・トランスポートで幾何的に対応付けられることを前提にして各プロジェクタの輝度を補償することができる。全てのカメラ座標について、上記の処理が完了すると、その補償画像をプロジェクタ1から被写体5へ投影する(ステップS38)。 If the voting result of the projector coordinates (x, y) is N xy = 0, P xy = 0 is set in Equation (5). According to Expression (5), it is possible to compensate the luminance of each projector on the assumption that a plurality of projector coordinates and a plurality of camera coordinates are geometrically associated by the light transport. When the above processing is completed for all camera coordinates, the compensated image is projected from the projector 1 onto the subject 5 (step S38).

次に、カメラ2によりその投影画像を観測して(ステップS39)、所定画像とその観測画像との間の輝度誤差ΔCuvを
ΔCuv(t)=Cuv−Cuv(t) ・・・(6)
によって検出する(ステップS40)。式(6)では時間tを状態の変化を表す指標として使っており、Cuv(t)は時間tでのカメラ観測画像である。この表記に伴い、式(5)で算出した各プロジェクタ輝度を時刻t=0の初期状態Pxy(0)とする。このとき、全ての輝度誤差が、
ΔCuv (t)ΔCuv(t)<ε ・・・(7)
を満たしているか否かを判定し(ステップS41)、所定の許容値ε以内である場合、本処理を停止する。εはシステムの環境に応じてユーザの要望に応じて自由に設定してよいパラメータである。
Next, the projected image is observed by the camera 2 (step S39), and the luminance error ΔCuv between the predetermined image and the observed image is determined as ΔC uv (t) = C uv −C uv (t) (( 6)
(Step S40). In Expression (6), time t is used as an index representing a change in state, and C uv (t) is a camera observation image at time t. Along with this notation, each projector brightness calculated by Expression (5) is assumed to be an initial state P xy (0) at time t = 0. At this time, all luminance errors are
ΔC uv T (t) ΔC uv (t) <ε (7)
Is satisfied (step S41), and if it is within the predetermined allowable value ε, this process is stopped. ε is a parameter that can be freely set according to the user's request according to the system environment.

もし、輝度誤差ΔCuv(t)が所定の許容値ε以上である場合は、任意形状の被写体の表面に対する輝度補償に順応させるため、時間tでの観測画像を使ってフィードバックする輝度量を、

Figure 2015100084
により算出する(ステップS42)。続いて、現時点(時刻t)でのプロジェクタ画素値がPxy(t)のとき、次の時刻t+1のプロジェクタ輝度Pxy(t+1)を
xy(t+1)=Pxy(t)+GΔPxy(t) ・・・(9)
により更新する(ステップS43)。式(9)では、ゲイン行列G:
Figure 2015100084
を使う。κは0<κ<1の任意の値であり、本実施例ではκ=0.5と設定する。この反復的な輝度補償を全ての輝度誤差が式(7)を満たすまで繰り返す。 If the luminance error ΔC uv (t) is greater than or equal to the predetermined allowable value ε, the luminance amount to be fed back using the observation image at time t is used in order to adapt the luminance compensation to the surface of the subject having an arbitrary shape.
Figure 2015100084
(Step S42). Subsequently, when the projector pixel value at the present time (time t) is P xy (t), the projector brightness P xy (t + 1) at the next time t + 1 is set to P xy (t + 1) = P xy (t) + GΔP xy (t (9)
(Step S43). In equation (9), the gain matrix G:
Figure 2015100084
use. κ is an arbitrary value of 0 <κ <1, and in this embodiment, κ = 0.5 is set. This iterative luminance compensation is repeated until all luminance errors satisfy Equation (7).

上記の輝度補償により処理すれば、任意被写体表面に投影された各プロジェクタ画素に応じてその輝度を柔軟に調整することができる。なお、輝度誤差の検出を行うことなく、投影画像生成部の処理を終了することとしてもよい。   By performing the above-described brightness compensation, the brightness can be flexibly adjusted according to each projector pixel projected on the surface of the arbitrary subject. Note that the processing of the projection image generation unit may be terminated without detecting the luminance error.

以上説明した処理を行うことにより、平面スクリーンへの画像投影と同様に、被写体投影の幾何歪みが無く、投影輝度が補償された高品質な画像を投影できる。   By performing the processing described above, it is possible to project a high-quality image in which the projection luminance is compensated without the geometric distortion of the subject projection as in the case of image projection onto a flat screen.

前述した実施形態における空間投影装置3をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the space projector 3 in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

プロジェクタ・カメラシステムの動作を活用したプロジェクション・マッピングにおいて、プロジェクタ画面の1画素がカメラ画面の1画素と対応付けるとは限らない一般的な状況において、所定画像を幾何的かつ光学的に補正して、被写体上に正確に投影することが不可欠な用途に適用できる。   In the projection mapping using the operation of the projector / camera system, in a general situation where one pixel of the projector screen does not always correspond to one pixel of the camera screen, a predetermined image is corrected geometrically and optically, It can be applied to applications where it is essential to accurately project onto a subject.

1・・・プロジェクタ、2・・・カメラ、3・・・空間投影装置、31・・・LT獲得部、32・・・LT調整部、33・・・投影空間生成部、4・・・映像データベース(DB)、5・・・被写体   DESCRIPTION OF SYMBOLS 1 ... Projector, 2 ... Camera, 3 ... Spatial projection apparatus, 31 ... LT acquisition part, 32 ... LT adjustment part, 33 ... Projection space production | generation part, 4 ... Image | video Database (DB), 5 ... Subject

Claims (4)

横方向にm画素、縦方向にn画素の矩形の領域を白、それ以外の画素領域を黒とした画素パターンを点光源用画像として用いて被写体に対して投影してライト・トランスポートデータを獲得するLT獲得部と、
前記ライト・トランスポートデータに基づいてプロジェクタ画素の輝度を調整するための輝度配分比を算出するLT調整部と、
プロジェクタ画素とカメラ画素との幾何的対応情報と、前記輝度配分比と、基準のカラーサンプル画像から算出した輝度補償パラメータとを使用して、投影対象画像を幾何的かつ光学的に補正して、前記被写体へ前記投影対象画像を投影する画像を生成する投影画像生成部と
を備えることを特徴とする空間投影装置。
Light and transport data is projected onto a subject using a pixel pattern in which a rectangular area of m pixels in the horizontal direction, n pixels in the vertical direction is white, and the other pixel areas are black as a point light source image. An LT acquisition unit to acquire;
An LT adjustment unit for calculating a luminance distribution ratio for adjusting the luminance of the projector pixel based on the light transport data;
Using the geometric correspondence information between the projector pixel and the camera pixel, the luminance distribution ratio, and the luminance compensation parameter calculated from the reference color sample image, geometrically and optically correct the projection target image, A spatial projection apparatus comprising: a projection image generation unit configured to generate an image for projecting the projection target image onto the subject.
前記投影画像生成部は、前記被写体へ前記投影対象画像を投影した画像の観測画像を取得し、前記観測画像と、生成した前記投影対象画像を投影する画像との輝度誤差を求め、該輝度誤差が所定のしきい値より大きい場合に、フィードバックすべき輝度を算出し、算出した前記輝度に基づいて、前記プロジェクタ画素の輝度を更新することを特徴とする請求項1に記載の空間投影装置。   The projection image generation unit acquires an observation image of an image obtained by projecting the projection target image onto the subject, obtains a luminance error between the observation image and an image on which the generated projection target image is projected, and the luminance error 2. The spatial projection device according to claim 1, wherein when the value is larger than a predetermined threshold, the brightness to be fed back is calculated, and the brightness of the projector pixel is updated based on the calculated brightness. LT獲得部と、LT調整部と、投影画像生成部とを備える空間投影装置が行う空間投影方法であって、
前記LT獲得部が、横方向にm画素、縦方向にn画素の矩形の領域を白、それ以外の画素領域を黒とした画素パターンを点光源用画像として用いて被写体に対して投影してライト・トランスポートデータを獲得するLT獲得ステップと、
前記LT調整部が、前記ライト・トランスポートデータに基づいてプロジェクタ画素の輝度を調整するための輝度配分比を算出するLT調整ステップと、
前記投影画像生成部が、プロジェクタ画素とカメラ画素との幾何的対応情報と、前記輝度配分比と、基準のカラーサンプル画像から算出した輝度補償パラメータとを使用して、投影対象画像を幾何的かつ光学的に補正して、前記被写体へ前記投影対象画像を投影する画像を生成する投影画像生成ステップと
を有することを特徴とする空間投影方法。
A spatial projection method performed by a spatial projection device including an LT acquisition unit, an LT adjustment unit, and a projection image generation unit,
The LT acquisition unit projects a pixel pattern in which a rectangular area of m pixels in the horizontal direction and n pixels in the vertical direction is white and the other pixel area is black as a point light source image and projected onto the subject. LT acquisition step for acquiring write transport data;
An LT adjustment step in which the LT adjustment unit calculates a luminance distribution ratio for adjusting the luminance of the projector pixel based on the light transport data;
The projection image generation unit uses the geometric correspondence information between the projector pixel and the camera pixel, the luminance distribution ratio, and the luminance compensation parameter calculated from the reference color sample image to convert the projection target image geometrically and And a projection image generation step of generating an image for optically correcting and projecting the projection target image onto the subject.
コンピュータを、請求項1または2に記載の空間投影装置として機能させるための空間投影プログラム。   A space projection program for causing a computer to function as the space projection device according to claim 1.
JP2013240094A 2013-11-20 2013-11-20 Space projection device, space projection method, and space projection program Pending JP2015100084A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013240094A JP2015100084A (en) 2013-11-20 2013-11-20 Space projection device, space projection method, and space projection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013240094A JP2015100084A (en) 2013-11-20 2013-11-20 Space projection device, space projection method, and space projection program

Publications (1)

Publication Number Publication Date
JP2015100084A true JP2015100084A (en) 2015-05-28

Family

ID=53376435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013240094A Pending JP2015100084A (en) 2013-11-20 2013-11-20 Space projection device, space projection method, and space projection program

Country Status (1)

Country Link
JP (1) JP2015100084A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115086624A (en) * 2021-03-11 2022-09-20 卡西欧计算机株式会社 Projection control device, spatial projection system, and spatial projection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115086624A (en) * 2021-03-11 2022-09-20 卡西欧计算机株式会社 Projection control device, spatial projection system, and spatial projection method

Similar Documents

Publication Publication Date Title
US10701324B2 (en) Gestural control of visual projectors
CN110300292B (en) Projection distortion correction method, device, system and storage medium
US8009178B2 (en) Augmenting images for panoramic display
Bhasker et al. Registration techniques for using imperfect and par tially calibrated devices in planar multi-projector displays
JP6126519B2 (en) Spatial projection apparatus, spatial projection method, spatial projection program, and recording medium
JP4696018B2 (en) Observation position following video presentation device, observation position following video presentation program, video presentation device, and video presentation program
JP5711702B2 (en) Projection type 3D shape restoration device, projection type 3D shape restoration method, and projection type 3D shape restoration program
US8774556B2 (en) Perspective correction using a reflection
JP2012155624A (en) Image output device, image display device, image output method, program and storage medium
JP2013083872A (en) Projection luminance adjustment method, projection luminance adjustment device, computer program and recording medium
JP6679966B2 (en) Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program
JP5973368B2 (en) Spatial projection apparatus, spatial projection method, and spatial projection program
US20140184851A1 (en) Automatic image combining apparatus
JP2015100084A (en) Space projection device, space projection method, and space projection program
JP2013231607A (en) Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program
JP2006323139A (en) Projector, camera server, and image projection method
JP5592834B2 (en) Optical projection control apparatus, optical projection control method, and program
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program
Kolomenski Realization Of A Spatial Augmented Reality System-A Digital Whiteboard Using a Kinect Sensor and a PC Projector
JP6620979B2 (en) Portable terminal, projection system, control method and program for projection system
JP2016192600A (en) Information processor and projection apparatus
Zhao et al. The auto‐geometric correction of multi‐projector for cylindrical surface using Bézier patches
JP6069241B2 (en) Spatial projection apparatus and spatial projection program
JP5841495B2 (en) Projection type three-dimensional shape restoration apparatus, projection type three-dimensional shape restoration method, projection type three-dimensional shape restoration program, and recording medium recording the program
JP2018050252A (en) Space projection device, method, and program