JP6319804B2 - Projection image generation apparatus, projection image generation method, and projection image generation program - Google Patents

Projection image generation apparatus, projection image generation method, and projection image generation program Download PDF

Info

Publication number
JP6319804B2
JP6319804B2 JP2014189772A JP2014189772A JP6319804B2 JP 6319804 B2 JP6319804 B2 JP 6319804B2 JP 2014189772 A JP2014189772 A JP 2014189772A JP 2014189772 A JP2014189772 A JP 2014189772A JP 6319804 B2 JP6319804 B2 JP 6319804B2
Authority
JP
Japan
Prior art keywords
virtual space
space
information
projection image
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014189772A
Other languages
Japanese (ja)
Other versions
JP2016063394A (en
Inventor
陽子 浅野
陽子 浅野
悦夫 源田
悦夫 源田
康佑 松永
康佑 松永
達郎 工藤
達郎 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2014189772A priority Critical patent/JP6319804B2/en
Publication of JP2016063394A publication Critical patent/JP2016063394A/en
Application granted granted Critical
Publication of JP6319804B2 publication Critical patent/JP6319804B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、空間に配置された物体上に画像投影(プロジェクションマッピング)を行う投影画像生成装置、投影画像生成方法および投影画像生成プログラムに関する。   The present invention relates to a projection image generation apparatus, a projection image generation method, and a projection image generation program that perform image projection (projection mapping) on an object arranged in a space.

従来、固定の立体物に対しその形状に対応した画像の生成及び投影を行うことで、表面色の動的変化や空間的な演出を行うプロジェクションマッピングの技術がある(例えば非特許文献1)。   2. Description of the Related Art Conventionally, there is a projection mapping technique that performs dynamic change of surface color and spatial rendering by generating and projecting an image corresponding to the shape of a fixed three-dimensional object (for example, Non-Patent Document 1).

天野敏之、「質感プロジェクションマッピング」、2014年6月、日本バーチャルリアリティ学会誌第19巻2号、pp.14-17Toshiyuki Amano, “Material Projection Mapping”, June 2014, Journal of the Virtual Reality Society of Japan, Vol. 19, No. 2, pp.14-17

従来のプロジェクションマッピングは、固定の立体物を投影対象としており、位置姿勢の変化する動的な立体物に対してリアルタイムに追従して画像投影を行うことができない。   Conventional projection mapping uses a fixed three-dimensional object as a projection target, and cannot project an image following a dynamic three-dimensional object whose position and orientation changes in real time.

本発明は、この課題に鑑みてなされたものであり、可動する立体物に対応した動画あるいは静止画をリアルタイムに投影する投影画像生成装置、投影画像生成方法および投影画像生成プログラムを提供することを目的とする。   The present invention has been made in view of this problem, and provides a projection image generation apparatus, a projection image generation method, and a projection image generation program that project a moving image or a still image corresponding to a movable three-dimensional object in real time. Objective.

本発明の投影画像生成装置は、空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成装置において、前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部と、前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部とを具備し、前記仮想空間ビューボリュームは、前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものである。 The projection image generation apparatus of the present invention is a projection image generation apparatus that generates an image for projection to be projected onto a real space object arranged in a space, from the position information of a position detection element attached to the real space object. A model matrix generation unit that calculates an orthogonal unit vector of a real space coordinate that is a coordinate system, and generates a model matrix indicating a relationship between the position information of the position detection element, the orthogonal unit vector, and the real space coordinate; , Each vertex position information of the virtual space object in the real space coordinates by multiplying the model matrix by each vertex position information of the virtual space object arranged in the virtual space having the coordinate system independent of the change of the position and orientation A vertex position information calculation unit that calculates a projection volume in the space and a virtual space view volume in the virtual space. Wherein the virtual space viewpoint information for between to coincide with each vertex position information, the virtual space object; and a virtual space image generation unit configured to generate a virtual space image to be projected onto the real space object, The virtual space view volume is obtained from two real space coordinates on a straight line connecting the position of the projector that projects two or more point images onto the projector projection screen projected onto the space and the point image. and viewpoint data is a parameter determined from two or more straight lines, and the line-of-sight direction information, and the overhead direction information, and aspect angle information, in Ru der those represented.

また、本発明の投影画像生成方法は、投影画像生成装置が行う空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成方法であって、前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成ステップと、前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出ステップと、前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成ステップとを行い、前記仮想空間ビューボリュームは、前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものである
The projection image generation method of the present invention is a projection image generation method for generating a projection image to be projected onto a real space object arranged in a space performed by the projection image generation device, and is provided to the real space object. An orthogonal unit vector of real space coordinates, which is a coordinate system of the space, is calculated from position information of the position detection element, and the relationship between the position information of the position detection element, the orthogonal unit vector, and the real space coordinates is shown. A model matrix generating step for generating a model matrix; and multiplying the model matrix by each vertex position information of a virtual space object arranged in a virtual space having a coordinate system independent of a change in position and orientation, A vertex position information calculating step of calculating each vertex position information of the virtual space object in the space; a projection volume in the space; A virtual space for generating a virtual space image for projecting the virtual space object onto the real space object using the virtual space viewpoint information for spatially matching the virtual space view volume between them and each vertex position information There line and an image generation step, the virtual space view volume, the projector projection screen projected by the projector in the space, on a straight line in which the positions of the two or more points the projector projecting the image connecting the said point image This is expressed by viewpoint position information, line-of-sight direction information, overhead direction information, and vertical and horizontal angle-of-view information, which are parameters obtained from two or more straight lines obtained from two real space coordinates .

また、本発明の投影画像生成プログラムは、上記の投影画像生成装置としてコンピュータを機能させるようにしたものである。   A projection image generation program according to the present invention causes a computer to function as the projection image generation apparatus.

本発明によれば、可動する立体物(実空間オブジェクト)に対応した動画あるいは静止画をリアルタイムに投影する画像情報を生成することができる。   According to the present invention, it is possible to generate image information that projects a moving image or a still image corresponding to a movable three-dimensional object (real space object) in real time.

本実施の形態における投影画像生成装置50を含む投影画像演出方法の一例を示す全体構成図である。It is a whole block diagram which shows an example of the projection image effect method containing the projection image generation apparatus 50 in this Embodiment. オブジェクト座標上における実空間オブジェクトの頂点位置データの例を示す図である。It is a figure which shows the example of the vertex position data of the real space object on an object coordinate. 実空間における投影ボリュームと仮想空間における仮想空間ビューボリュームとの一致を模式的に示す図である。It is a figure which shows typically the agreement with the projection volume in real space, and the virtual space view volume in virtual space. 仮想空間視点構築で用いる投影画像の一例と、2直線を求める様子を模式的に示す図である。It is a figure which shows typically an example of the projection image used by virtual space viewpoint construction, and a mode that two straight lines are calculated | required. 投影画像生成装置50の動作フローを含む投影画像演出方法の手順を示す図である。It is a figure which shows the procedure of the projection image effect method including the operation | movement flow of the projection image generation apparatus. 実空間オブジェクトの一頂点にL字型に付与された3点の位置検出素子と直交単位ベクトルとモデル行列の一例を示す図である。It is a figure which shows an example of the three-point position detection element, orthogonal unit vector, and model matrix which were given to the one vertex of the real space object. 実空間配置状況再現部20が行う幾何学的な変換を模式的に示す図である。It is a figure which shows typically the geometric transformation which the real space arrangement | positioning condition reproduction part 20 performs. 仮想空間像生成部30が行う画像描写を模式的に示す図である。It is a figure which shows typically the image description which the virtual space image generation part 30 performs.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔投影画像生成装置の構成〕
まず、図1を参照して、本実施の形態の投影画像生成装置50の構成を説明する。投影画像生成装置50は、実空間配置状況再現部20と、仮想空間像生成部30とを具備する。実空間配置状況再現部20は、モデル行列生成部21と頂点位置情報算出部22とを備える。
[Configuration of Projection Image Generation Device]
First, with reference to FIG. 1, the structure of the projection image generation apparatus 50 of this Embodiment is demonstrated. The projection image generation device 50 includes a real space arrangement state reproduction unit 20 and a virtual space image generation unit 30. The real space arrangement state reproduction unit 20 includes a model matrix generation unit 21 and a vertex position information calculation unit 22.

実空間配置状況再現部20は、仮想空間オブジェクトの形状情報14と、モーションキャプチャ装置15から取得される実空間オブジェクト13に付与された3点の位置検出素子の位置情報とを入力として、実空間座標系における仮想空間オブジェクトの頂点位置データを出力する。   The real space arrangement state reproduction unit 20 receives the shape information 14 of the virtual space object and the position information of the three position detection elements given to the real space object 13 acquired from the motion capture device 15 as inputs. Outputs the vertex position data of the virtual space object in the coordinate system.

仮想空間像生成部30は、実空間配置状況再現部20が出力する仮想空間オブジェクトの頂点位置データと、前記空間における投影ボリュームと仮想空間における仮想空間ビューボリュームを空間的に一致させるための仮想空間視点情報17とを入力として、仮想空間オブジェクトを実空間オブジェクト13に投影するための仮想空間像を出力する。ここで仮想空間オブジェクトとは、実空間オブジェクト13の形状と符合する立体物のことである。なお、仮想空間オブジェクトの形状は、実空間オブジェクト13の相似形であってもよい。   The virtual space image generation unit 30 is a virtual space for spatially matching the vertex position data of the virtual space object output from the real space arrangement state reproduction unit 20 with the projection volume in the space and the virtual space view volume in the virtual space. With the viewpoint information 17 as an input, a virtual space image for projecting the virtual space object onto the real space object 13 is output. Here, the virtual space object is a three-dimensional object that matches the shape of the real space object 13. The shape of the virtual space object may be similar to that of the real space object 13.

仮想空間オブジェクトは、当該仮想空間オブジェクトの位置姿勢の変化に依存しないオブジェクト座標の上に配置される。よって、図1では仮想空間オブジェクトの表記を省略している。   The virtual space object is arranged on the object coordinates that do not depend on the change in the position and orientation of the virtual space object. Therefore, the notation of the virtual space object is omitted in FIG.

〔投影画像を表示して演出するための構成〕
また、投影画像生成装置50を用いて投影画像を表示して演出するためには、実空間オブジェクト13と、モーションキャプチャ装置15と、プロジェクター16とが必要である。モーションキャプチャ装置15は、現実の人や物体の動きをディジタル的に記録する装置である。
[Configuration for displaying and directing projected images]
Further, in order to display and produce a projected image using the projected image generation device 50, the real space object 13, the motion capture device 15, and the projector 16 are required. The motion capture device 15 is a device that digitally records the movement of an actual person or object.

実空間オブジェクト13は、空間に配置されるオブジェクトの実体である。実空間オブジェクト13は、操作者11が手動で動かしてもよいし例えば自動的に回転等がなされてもよい。実空間オブジェクト13の位置姿勢は、リアルタイムに変化する。閲覧者12は、プロジェクター16によって実空間オブジェクト13の表面に投影される投影画像を、閲覧する者である。   The real space object 13 is a substance of an object arranged in the space. The real space object 13 may be moved manually by the operator 11 or may be automatically rotated, for example. The position and orientation of the real space object 13 changes in real time. The viewer 12 is a person who views a projection image projected on the surface of the real space object 13 by the projector 16.

〔投影画像生成装置に入力する情報〕
次に、投影画像生成装置50に外部から入力する情報である仮想空間オブジェクトの形状情報14と仮想空間視点情報17とについて説明する。
[Information to be input to the projection image generator]
Next, the virtual space object shape information 14 and the virtual space viewpoint information 17, which are information input to the projection image generation apparatus 50 from the outside, will be described.

〔仮想空間オブジェクトの形状情報〕
仮想空間オブジェクトの形状情報14は、実空間オブジェクト13の形状と符合する仮想空間オブジェクトの形状情報である。実空間オブジェクト13の形状をメジャーなどを用いて人が計測してもよいし、既存の3Dスキャナ装置などを用いて自動的に計測してもよい。
[Shape information of virtual space object]
The virtual space object shape information 14 is virtual space object shape information that matches the shape of the real space object 13. The shape of the real space object 13 may be measured by a person using a measure or the like, or may be automatically measured using an existing 3D scanner device or the like.

図2に示すように、立体物の位置姿勢の変化に依存しないオブジェクト座標系におけるX,Y,Zの位置データを、仮想空間オブジェクトの形状情報とする。図2に示す例は、実空間オブジェクト13の形状を例えば立方体として、その一辺を100mmとした場合の形状情報である。以下においてオブジェクト座標を大文字X,Y,Zで表記する。   As shown in FIG. 2, the X, Y, and Z position data in the object coordinate system that does not depend on the change in the position and orientation of the three-dimensional object is used as the shape information of the virtual space object. The example shown in FIG. 2 is shape information when the shape of the real space object 13 is a cube, for example, and one side is 100 mm. In the following, object coordinates are represented by capital letters X, Y, and Z.

仮想空間オブジェクトの形状情報は、立体物の頂点位置である。立方体の場合は、頂点1〜頂点8の8個の座標情報である。頂点1の座標情報は、X=100,Y=100,Z=100である。Z軸上に位置する頂点8の座標情報は、X=0,Y=0,Z=100である。また、球体の場合は、球面を任意の数で分割した面を用意し、各面の頂点位置の座標情報が球体の形状情報となる。   The shape information of the virtual space object is the vertex position of the three-dimensional object. In the case of a cube, it is eight coordinate information of vertex 1 to vertex 8. The coordinate information of the vertex 1 is X = 100, Y = 100, Z = 100. The coordinate information of the vertex 8 located on the Z axis is X = 0, Y = 0, Z = 100. In the case of a sphere, a surface obtained by dividing an arbitrary number of spherical surfaces is prepared, and coordinate information on the vertex position of each surface becomes the shape information of the sphere.

このように仮想空間オブジェクトの形状情報14は、実空間オブジェクト13の形状と符合する仮想空間オブジェクトのオブジェクト座標系における立体物の頂点位置の座標情報であり、仮想空間オブジェクトに対応させて一度計測しておけばよいものである。   As described above, the shape information 14 of the virtual space object is coordinate information of the vertex position of the three-dimensional object in the object coordinate system of the virtual space object that coincides with the shape of the real space object 13, and is measured once corresponding to the virtual space object. It is a good thing.

〔仮想空間視点情報〕
仮想空間視点情報17は、投影する空間(実空間)における投影ボリュームと仮想空間における仮想空間ビューボリュームを空間的に一致させるための情報である。図3を参照して投影ボリュームと仮想空間ビューボリュームについて説明する。
[Virtual space perspective information]
The virtual space viewpoint information 17 is information for spatially matching the projection volume in the space to be projected (real space) and the virtual space view volume in the virtual space. The projection volume and the virtual space view volume will be described with reference to FIG.

図3(a)は、プロジェクター16が画像を投影する空間の三次元的な「投影領域」を、プロジェクター16を頂点とする四角錐で模式的に示す。この三次元的な「投影領域」を投影ボリュームと称する。   FIG. 3A schematically shows a three-dimensional “projection region” of a space in which the projector 16 projects an image with a quadrangular pyramid having the projector 16 as a vertex. This three-dimensional “projection area” is called a projection volume.

図3(b)は、仮想空間内での人の目(視点)からの「視野の領域」を、視点を頂点とする四角錐で模式的に示す。この三次元的な「視野の範囲」を仮想空間ビューボリュームと称する。   FIG. 3B schematically shows the “field of view” from the human eye (viewpoint) in the virtual space as a quadrangular pyramid with the viewpoint as the apex. This three-dimensional “field of view” is called a virtual space view volume.

投影する空間に、仮想空間の画像を投影するには、投影ボリュームと仮想空間ビューボリュームを空間的に一致させる必要がある。空間的に一致させるためには、プロジェクター16の「位置」、「投影方向」、「姿勢(頭上方向)」、及び「投影の画角」の情報を、仮想空間の視点の「位置」、「視線方向」、「姿勢(頭上方向)」、及び「視野の画角」へと適用する。   In order to project an image of the virtual space onto the space to be projected, it is necessary to spatially match the projection volume and the virtual space view volume. In order to make them coincide spatially, information on the “position”, “projection direction”, “posture (overhead direction)” and “projection angle of view” of the projector 16 is used as the “position”, “ Applies to "Gaze direction", "Posture (overhead direction)", and "View angle of view".

投影ボリュームの各パラメータの導出方法を、図4を参照して説明する。各パラメータの導出は、モーションキャプチャ装置15との連携によって行う。まず、予め中心位置及び中央右端に点が描画された画像をプロジェクター16から投影し、位置検出素子(以下マーカ)を投影点に重なるように移動させて中心軸上の2点A1,A2、及び中央右側の軸上の2点B1,B2の座標x,y,zを取得する。以下において実空間座標を小文字x,y,zで表記する。   A method for deriving each parameter of the projection volume will be described with reference to FIG. Each parameter is derived in cooperation with the motion capture device 15. First, an image in which a point is drawn in advance at the center position and the center right end is projected from the projector 16, and a position detection element (hereinafter referred to as a marker) is moved so as to overlap the projection point, and two points A1, A2 on the center axis, and The coordinates x, y, z of the two points B1, B2 on the center right axis are acquired. In the following, the real space coordinates are written in lower case letters x, y, z.

具体的には、人がマーカを把持し、プロジェクターの投影画面の中央位置に投影された点画像に重なるようにマーカを人が適当に2回停止させて2か所(A1,A2)の3次元位置をモーションキャプチャ装置15で測定する。そして更に、プロジェクター16の投影画面の右位置に投影された点画像に重なるようにマーカを適当に2回停止させて2か所(B1,B2)の3次元位置をモーションキャプチャ装置15で測定する。   Specifically, the person grasps the marker, and the person appropriately stops the marker twice twice so that it overlaps the point image projected at the center position of the projection screen of the projector. The dimension position is measured by the motion capture device 15. Further, the motion capture device 15 measures the two-dimensional (B1, B2) three-dimensional positions by appropriately stopping the marker twice so as to overlap the point image projected on the right position of the projection screen of the projector 16. .

そして、中心軸上の2点(A1,A2)から生成される直線Aと、中心右端の軸上の2点から生成される直線Bの交点が「位置」パラメータ(視点位置情報)として算出される。「投影方向」パラメータ(視線方向情報)には直線Aを適用する。「姿勢(頭上方向)」パラメータ(頭上方向情報)は直線Aと直線Bの外積によって算出する。縦横の「画角」パラメータ(縦横画角情報)は用いるプロジェクター16の既知情報を用いる。   Then, the intersection of the straight line A generated from the two points (A1, A2) on the central axis and the straight line B generated from the two points on the central right end axis is calculated as a “position” parameter (viewpoint position information). The The straight line A is applied to the “projection direction” parameter (gaze direction information). The “posture (overhead direction)” parameter (overhead direction information) is calculated by the outer product of the straight line A and the straight line B. For the vertical and horizontal “view angle” parameters (vertical and horizontal view angle information), known information of the projector 16 to be used is used.

この仮想空間視点情報17は、投影する空間とプロジェクター16とが決まれば一度計測しておけばよいものである。なお、点画像を中心位置と中央右側に投影した例で説明を行ったが、点画像は他の部分に投影するようにしてもよい。   The virtual space viewpoint information 17 may be measured once once the space to be projected and the projector 16 are determined. In addition, although the example which projected the point image on the center position and the center right side was demonstrated, you may make it project a point image on another part.

例えば、点画像を中央左端位置と中央右端の位置に投影し、これらの2つの点画像から直線A′と直線Bを各々求め、これら両直線中間線を直線A(つまり中心線)とすれば、上記の同じ処理が可能である。また、3つ以上の点画像を描画して平均化等することで精度を高めることも可能である。   For example, if a point image is projected at the center left end position and the center right end position, straight lines A ′ and B are obtained from these two point images, and the straight line A (that is, the center line) is set as the straight line between these two straight lines The same processing as described above is possible. It is also possible to improve accuracy by drawing three or more point images and averaging them.

〔投影画像生成装置の動作〕
図5に、投影画像生成装置50の動作フローを示す。図1と図5を参照して投影画像生成装置50の動作を説明する。
[Operation of Projected Image Generation Device]
FIG. 5 shows an operation flow of the projection image generation apparatus 50. The operation of the projection image generating apparatus 50 will be described with reference to FIGS.

ステップS1の仮想空間オブジェクトの形状構築では、仮想空間オブジェクトの形状情報14が生成される。その生成方法は上記の通りである。仮想空間オブジェクトの形状情報14は、投影画像生成装置50が動作を開始するまでに用意する。   In the virtual space object shape construction in step S1, the virtual space object shape information 14 is generated. The generation method is as described above. The shape information 14 of the virtual space object is prepared before the projection image generation device 50 starts operating.

ステップS2の仮想空間視点構築では、仮想空間視点情報17が生成される。その生成方法は上記の通りである。仮想空間視点情報17は、投影画像生成装置50が動作を開始するまでに用意する。   In the virtual space viewpoint construction in step S2, virtual space viewpoint information 17 is generated. The generation method is as described above. The virtual space viewpoint information 17 is prepared before the projection image generation apparatus 50 starts operating.

投影画像生成装置50が動作を開始すると、モーションキャプチャ装置15は実空間オブジェクト13の3点基準位置情報を取得する(ステップS3)。3点基準位置情報は、実空間オブジェクト13にL字状に3点のマーカを付与して、モーションキャプチャ装置15によってそのマーカの位置から取得する。   When the projection image generation device 50 starts operating, the motion capture device 15 acquires the three-point reference position information of the real space object 13 (step S3). The three-point reference position information is acquired from the position of the marker by adding three markers in an L shape to the real space object 13 and using the motion capture device 15.

図6(a)に、実空間オブジェクト13とマーカを示す。例えば立方体である実空間オブジェクト13の頂点1にマーカP2と、マーカP2と同一平面上の頂点4の方向にマーカP1と、頂点2の方向にマーカP3とを配置する。   FIG. 6A shows the real space object 13 and the marker. For example, a marker P2 is arranged at the vertex 1 of the real space object 13 which is a cube, a marker P1 is arranged in the direction of the vertex 4 on the same plane as the marker P2, and a marker P3 is arranged in the direction of the vertex 2.

実空間配置状況再現部20のモデル行列生成部21は、モーションキャプチャ装置15で取得したマーカP1,P2,P3の位置情報から直交する3つの直交単位ベクトルv1,v2,v3を算出する(図6(b))。直交単位ベクトルv1はv1=P1−P2、直交単位ベクトルv2はv2=P3−P2、直交単位ベクトルv3はv1とv2の外積v1×v2で求めることができる。   The model matrix generation unit 21 of the real space arrangement state reproduction unit 20 calculates three orthogonal unit vectors v1, v2, and v3 that are orthogonal from the position information of the markers P1, P2, and P3 acquired by the motion capture device 15 (FIG. 6). (B)). The orthogonal unit vector v1 can be obtained by v1 = P1-P2, the orthogonal unit vector v2 can be obtained by v2 = P3-P2, and the orthogonal unit vector v3 can be obtained by the outer product v1 × v2 of v1 and v2.

そして、モデル行列生成部21は、一つの頂点に配置したマーカP2の座標値と直交単位ベクトルv1,v2,v3とからモデル行列M(図6(c))を生成する(ステップS40)。モデル行列Mは、実空間オブジェクト13の一つの頂点P2と直交単位ベクトルv1,v2,v3と実空間座標値との関係性を示したものである。なお、この例では頂点P2を基準位置情報としたが、他の頂点を基準位置情報としてもよい。   And the model matrix production | generation part 21 produces | generates the model matrix M (FIG.6 (c)) from the coordinate value of the marker P2 arrange | positioned at one vertex, and orthogonal unit vector v1, v2, v3 (step S40). The model matrix M shows the relationship between one vertex P2 of the real space object 13, the orthogonal unit vectors v1, v2, and v3 and the real space coordinate values. In this example, the vertex P2 is used as the reference position information, but another vertex may be used as the reference position information.

このモデル行列Mを、仮想空間オブジェクトの形状情報14の各頂点(頂点1〜頂点8)の座標情報から求めた各頂点位置ベクトル{X,Y,Z,1}と掛け合わせることで、実空間座標系における仮想空間オブジェクトの各頂点位置{x′,y′,z′,1}を算出する(式(1))。   By multiplying the model matrix M by each vertex position vector {X, Y, Z, 1} obtained from the coordinate information of each vertex (vertex 1 to vertex 8) of the shape information 14 of the virtual space object, the real space is obtained. Each vertex position {x ′, y ′, z ′, 1} of the virtual space object in the coordinate system is calculated (formula (1)).

Figure 0006319804
式(1)から明らかなように、モデル行列Mはオブジェクト座標系を実空間座標系に座標変換する行列である。実空間配置状況再現部20の頂点位置情報算出部22は、この幾何学変換により、実空間座標系におけるマーカP2を原点としたv1,v2,v3の軸上に、オブジェクト座標系のX,Y,Z座標軸が移動し、結果的に実空間オブジェクト13と同形状、同位置姿勢の仮想空間オブジェクトの立体形状を実空間内に配置することができる(ステップS41)。ステップS40とS41は、実空間配置状況再現部20が行う処理である(ステップS4)。
Figure 0006319804
As is clear from the equation (1), the model matrix M is a matrix for performing coordinate transformation from the object coordinate system to the real space coordinate system. By this geometric transformation, the vertex position information calculation unit 22 of the real space arrangement state reproduction unit 20 has X, Y in the object coordinate system on the axes of v1, v2, and v3 with the marker P2 in the real space coordinate system as the origin. , The Z coordinate axis is moved, and as a result, the three-dimensional shape of the virtual space object having the same shape and the same position and orientation as the real space object 13 can be arranged in the real space (step S41). Steps S40 and S41 are processes performed by the real space arrangement state reproduction unit 20 (step S4).

図7に、頂点位置情報算出部22(ステップS41)で行う処理を模式的に示す。図7(a)は上記の図2と同じ図である。図7(a)において、仮想空間オブジェクトの形状情報14の各頂点(頂点1〜頂点8)の座標情報を求める。上記のように、仮想空間オブジェクトの形状情報14は予め求めておくものである(ステップS1)。   FIG. 7 schematically shows processing performed by the vertex position information calculation unit 22 (step S41). FIG. 7A is the same view as FIG. In FIG. 7A, coordinate information of each vertex (vertex 1 to vertex 8) of the shape information 14 of the virtual space object is obtained. As described above, the shape information 14 of the virtual space object is obtained in advance (step S1).

仮想空間オブジェクトの形状情報14の各頂点の座標情報から求めた各頂点位置ベクトル{X,Y,Z,1}と、モデル行列Mを掛け合わせることで実空間オブジェクト13と同位置姿勢の仮想空間オブジェクトの立体形状を、実空間内に配置することができる(図7(b)。   By multiplying each vertex position vector {X, Y, Z, 1} obtained from the coordinate information of each vertex of the shape information 14 of the virtual space object and the model matrix M, a virtual space having the same position and orientation as the real space object 13 is obtained. The three-dimensional shape of the object can be arranged in the real space (FIG. 7B).

仮想空間像生成部30は、実空間配置状況再現部20が出力する仮想空間オブジェクトの頂点位置データを、仮想空間視点情報17を用いてレンダリングすることで投影用の仮想空間像を生成する(ステップS5)。仮想空間像をレンダリングする技術は、例えば参考文献1(コンピュータグラフィックス、監修:コンピュータグラフィックス編集委員会、発行所:CG-ARTS協会、pp32-40)に記載されている。   The virtual space image generation unit 30 generates a virtual space image for projection by rendering the vertex position data of the virtual space object output from the real space arrangement state reproduction unit 20 using the virtual space viewpoint information 17 (step). S5). A technique for rendering a virtual aerial image is described in, for example, Reference 1 (Computer Graphics, Supervision: Computer Graphics Editorial Board, Publisher: CG-ARTS Association, pp32-40).

仮想空間像生成部30が生成した仮想空間像をプロジェクター16から実空間オブジェクト13に投影する(ステップS6)。その結果、実空間オブジェクト13に仮想空間オブジェクトの立体形状の像がリアルタイムに重畳する空間演出が可能となる(ステップS7)。つまり、例えば立方体の実空間オブジェクト13がy軸(図7(b)参照)を中心に回転していると仮定すると、次々に現れる複数の投影面(立方体の表面)に仮想空間像を投影することができる。仮想空間像としては、例えば投影面ごとに対応する異なる色などが考えられる。   The virtual space image generated by the virtual space image generation unit 30 is projected from the projector 16 onto the real space object 13 (step S6). As a result, it is possible to produce a space effect in which the real space object 13 is superimposed in real time with the three-dimensional image of the virtual space object (step S7). That is, for example, assuming that the cubic real space object 13 is rotating around the y axis (see FIG. 7B), the virtual space image is projected onto a plurality of projection planes (cube surfaces) that appear one after another. be able to. As the virtual space image, for example, a different color corresponding to each projection surface can be considered.

なお、仮想空間像生成部30が生成した仮想空間像は、メモリに記録するようにしてもよい。実空間オブジェクト13の位置姿勢の変化が周期的であれば、その周期に同期させて記録した仮想空間像を読み出すことで、上記と同じ空間演出が可能である。   Note that the virtual space image generated by the virtual space image generation unit 30 may be recorded in a memory. If the change in the position and orientation of the real space object 13 is periodic, the same space effect as described above can be obtained by reading out the virtual space image recorded in synchronization with the period.

ステップ3の実空間オブジェクト13の3点基準位置情報を取得するステップから、ステップS7のプロジェクター16から投影された仮想空間オブジェクトを閲覧するステップの各ステップは繰り返される。その繰り返しの速度は例えば60f/s(frame/second)程度の速度である。   From the step of acquiring the three-point reference position information of the real space object 13 in step 3, the steps of browsing the virtual space object projected from the projector 16 in step S7 are repeated. The repetition speed is, for example, about 60 f / s (frame / second).

以上説明したように本実施の形態によれば、可動する立体物(実空間オブジェクト13)に対応した動画あるいは静止画をリアルタイムに投影する画像情報(仮想空間像)を生成することができる。なお、プロジェクター16の照射範囲に存在する実空間オブジェクトの数は複数個あっても構わない。また、実空間オブジェクト13の形状を立方体を例に説明したが、この形状に限られない。例えば、実空間オブジェクト13の形状は直方体であってもよい。また、球体であってもよいのは上記の通りである。このように本発明は、上記した実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。   As described above, according to the present embodiment, it is possible to generate image information (virtual space image) that projects a moving image or a still image corresponding to a movable three-dimensional object (real space object 13) in real time. Note that there may be a plurality of real space objects present in the irradiation range of the projector 16. Further, although the shape of the real space object 13 has been described by taking a cube as an example, the shape is not limited to this shape. For example, the shape of the real space object 13 may be a rectangular parallelepiped. Moreover, it may be a sphere as described above. As described above, the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the gist thereof.

上記装置における処理部をコンピュータによって実現する場合、各処理部が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記装置における処理部がコンピュータ上で実現される。   When the processing unit in the above apparatus is realized by a computer, the processing content of the function that each processing unit should have is described by a program. Then, by executing this program on a computer, the processing unit in the above apparatus is realized on the computer.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としても良い。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a recording device of the server computer and transferring the program from the server computer to another computer via a network.

11:操作者
12:閲覧者
13:実空間オブジェクト
14:仮想空間オブジェクトの形状情報
15:モーションキャプチャ装置
16:プロジェクター
17:仮想空間視点情報
20:実空間配置状況再現部
21:モデル行列生成部
22:頂点位置情報算出部
30:仮想空間像生成部
50:投影画像生成装置
11: Operator 12: Viewer 13: Real space object 14: Virtual space object shape information 15: Motion capture device 16: Projector 17: Virtual space viewpoint information 20: Real space arrangement state reproduction unit 21: Model matrix generation unit 22 : Vertex position information calculation unit 30: virtual aerial image generation unit 50: projection image generation device

Claims (5)

空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成装置において、
前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部と、
前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、
前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部と
を具備し、
前記仮想空間ビューボリュームは、
前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものであることを特徴とする投影画像生成装置。
In a projection image generation apparatus that generates a projection image to be projected onto a real space object arranged in space,
An orthogonal unit vector of real space coordinates, which is a coordinate system of the space, is calculated from position information of the position detection element assigned to the real space object, and the position information of the position detection element, the orthogonal unit vector, and the real unit are calculated. A model matrix generation unit that generates a model matrix indicating a relationship with spatial coordinates;
By multiplying the model matrix by each vertex position information of the virtual space object arranged in the virtual space having the coordinate system independent of the change of the position and orientation, each vertex position information of the virtual space object in the real space coordinates is obtained. A vertex position information calculation unit to calculate,
Projecting the virtual space object onto the real space object using the virtual space viewpoint information for spatially matching the projected volume in the space and the virtual space view volume in the virtual space and the vertex position information A virtual aerial image generation unit for generating a virtual aerial image ,
The virtual space view volume is
It is obtained from two or more straight lines obtained from two real space coordinates on a straight line connecting the position of the projector that projected two or more point images on the projector projection screen projected onto the space and the point image. parameters and viewpoint data is a, and the line-of-sight direction information, and the overhead direction information, and aspect angle information, in the projection image generation apparatus according to claim der Rukoto those represented.
請求項1に記載した投影画像生成装置において、
前記直交単位ベクトルは、前記実空間オブジェクトのある一つの頂点にL字型に付与した位置検出素子の3点の座標情報から算出されるベクトルであり、
前記モデル行列は、前記直交単位ベクトルを要素に含み、前記仮想空間オブジェクトのオブジェクト座標における各頂点位置情報を前記実空間座標の各頂点位置情報に座標変換する行列であることを特徴とする投影画像生成装置。
The projection image generating apparatus according to claim 1,
The orthogonal unit vector is a vector calculated from the coordinate information of the three points of the position detection element given in an L shape to one vertex of the real space object,
The model matrix is a projection image that includes the orthogonal unit vector as an element, and that converts each vertex position information in the object coordinates of the virtual space object into each vertex position information in the real space coordinates. Generator.
投影画像生成装置が行う空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成方法であって、
前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成ステップと、
前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出ステップと、
前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成ステップと
を行い、
前記仮想空間ビューボリュームは、
前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものであることを特徴とする投影画像生成方法。
A projection image generation method for generating a projection image to be projected onto a real space object arranged in a space performed by a projection image generation apparatus,
An orthogonal unit vector of real space coordinates, which is a coordinate system of the space, is calculated from position information of the position detection element assigned to the real space object, and the position information of the position detection element, the orthogonal unit vector, and the real unit are calculated. A model matrix generation step for generating a model matrix indicating a relationship with spatial coordinates;
By multiplying the model matrix by each vertex position information of the virtual space object arranged in the virtual space having the coordinate system independent of the change of the position and orientation, each vertex position information of the virtual space object in the real space coordinates is obtained. Calculating vertex position information to be calculated;
Projecting the virtual space object onto the real space object using the virtual space viewpoint information for spatially matching the projected volume in the space and the virtual space view volume in the virtual space and the vertex position information There line and a virtual space image generation step of generating a virtual space image,
The virtual space view volume is
It is obtained from two or more straight lines obtained from two real space coordinates on a straight line connecting the position of the projector that projected two or more point images on the projector projection screen projected onto the space and the point image. A projection image generation method, characterized in that it is represented by viewpoint position information, line-of-sight direction information, overhead direction information, and vertical and horizontal angle-of-view information as parameters .
請求項に記載した投影画像生成方法において、
前記直交単位ベクトルは、前記実空間オブジェクトのある一つの頂点にL字型に付与した位置検出素子の3点の座標情報から算出されたベクトルであり、
前記モデル行列は、前記直交単位ベクトルを要素に含み、前記仮想空間オブジェクトのオブジェクト座標における各頂点位置情報を前記実空間座標の各頂点位置情報に座標変換する行列であることを特徴とする投影画像生成方法。
In the projection image generation method according to claim 3 ,
The orthogonal unit vector is a vector calculated from the coordinate information of the three points of the position detection element given in an L shape to one vertex of the real space object,
The model matrix is a projection image that includes the orthogonal unit vector as an element, and that converts each vertex position information in the object coordinates of the virtual space object into each vertex position information in the real space coordinates. Generation method.
請求項1又は2に記載した投影画像生成装置としてコンピュータを機能させるための投影画像生成プログラム。 Projection image generation program for causing a computer to function as the projection image generation apparatus according to claim 1 or 2.
JP2014189772A 2014-09-18 2014-09-18 Projection image generation apparatus, projection image generation method, and projection image generation program Active JP6319804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014189772A JP6319804B2 (en) 2014-09-18 2014-09-18 Projection image generation apparatus, projection image generation method, and projection image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189772A JP6319804B2 (en) 2014-09-18 2014-09-18 Projection image generation apparatus, projection image generation method, and projection image generation program

Publications (2)

Publication Number Publication Date
JP2016063394A JP2016063394A (en) 2016-04-25
JP6319804B2 true JP6319804B2 (en) 2018-05-09

Family

ID=55798321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189772A Active JP6319804B2 (en) 2014-09-18 2014-09-18 Projection image generation apparatus, projection image generation method, and projection image generation program

Country Status (1)

Country Link
JP (1) JP6319804B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6307426B2 (en) * 2014-10-14 2018-04-04 株式会社東通 Image projection method and image projection system
JP7156937B2 (en) * 2018-12-27 2022-10-19 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method
JP7270477B2 (en) * 2019-06-17 2023-05-10 株式会社ミツトヨ measuring device
JPWO2022080260A1 (en) * 2020-10-13 2022-04-21
CN114520898B (en) * 2020-11-19 2023-09-01 成都极米科技股份有限公司 Projection device control method and device, projection device and storage medium
JP7196899B2 (en) 2020-12-10 2022-12-27 セイコーエプソン株式会社 Projection method, projection system, and program
WO2024166635A1 (en) * 2023-02-06 2024-08-15 パナソニックIpマネジメント株式会社 Virtual space generating method, and information processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2011254411A (en) * 2010-06-04 2011-12-15 Hokkaido Univ Video projection system and video projection program

Also Published As

Publication number Publication date
JP2016063394A (en) 2016-04-25

Similar Documents

Publication Publication Date Title
JP6319804B2 (en) Projection image generation apparatus, projection image generation method, and projection image generation program
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP7182976B2 (en) Information processing device, information processing method, and program
JP2019534510A5 (en)
JP5777786B1 (en) Information processing apparatus, information processing method, and program
JP5872923B2 (en) AR image processing apparatus and method
US12094139B2 (en) Systems and methods for enhanced depth determination using projection spots
JP2006302034A (en) Image processing method and image processor
Jia et al. 3D image reconstruction and human body tracking using stereo vision and Kinect technology
JP2018133063A5 (en)
JP2014067372A (en) Motion parallax reproduction program and device and three-dimensional model generation program and device therefor
JP2014106642A (en) Ar system using optical see-through type hmd
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP6581348B2 (en) Information processing apparatus, information processing method, and program
CN115311133A (en) Image processing method and device, electronic equipment and storage medium
JP2019133310A (en) Image processing system and image processing program and image processing method
JP6948363B2 (en) Information processing equipment, information processing methods, and programs
JP6436872B2 (en) Information processing apparatus, information processing method, and program
JP2002056407A (en) Image generation system
JP7465133B2 (en) Information processing device and information processing method
JP6429240B2 (en) Shape detection apparatus, shape detection method, and program
US20220044351A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2006252059A (en) Image processing method and image processor
JP2016038632A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180329

R150 Certificate of patent or registration of utility model

Ref document number: 6319804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250