JP2016063394A - 投影画像生成装置、投影画像生成方法および投影画像生成プログラム - Google Patents

投影画像生成装置、投影画像生成方法および投影画像生成プログラム Download PDF

Info

Publication number
JP2016063394A
JP2016063394A JP2014189772A JP2014189772A JP2016063394A JP 2016063394 A JP2016063394 A JP 2016063394A JP 2014189772 A JP2014189772 A JP 2014189772A JP 2014189772 A JP2014189772 A JP 2014189772A JP 2016063394 A JP2016063394 A JP 2016063394A
Authority
JP
Japan
Prior art keywords
virtual space
projection image
space
position information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014189772A
Other languages
English (en)
Other versions
JP6319804B2 (ja
Inventor
陽子 浅野
Yoko Asano
陽子 浅野
悦夫 源田
Etsuo Genda
悦夫 源田
康佑 松永
Kosuke Matsunaga
康佑 松永
達郎 工藤
Tatsuro Kudo
達郎 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2014189772A priority Critical patent/JP6319804B2/ja
Publication of JP2016063394A publication Critical patent/JP2016063394A/ja
Application granted granted Critical
Publication of JP6319804B2 publication Critical patent/JP6319804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】可動する複数の投影面に動画あるいは静止画をリアルタイムに投影できる投影画像を生成する。【解決手段】実空間オブジェクトに付与された位置検出素子の位置情報から実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部21と、モデル行列に、仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、実空間座標における仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、空間における投影ボリュームと仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、仮想空間オブジェクトを実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部とを具備する。【選択図】図1

Description

本発明は、空間に配置された物体上に画像投影(プロジェクションマッピング)を行う投影画像生成装置、投影画像生成方法および投影画像生成プログラムに関する。
従来、固定の立体物に対しその形状に対応した画像の生成及び投影を行うことで、表面色の動的変化や空間的な演出を行うプロジェクションマッピングの技術がある(例えば非特許文献1)。
天野敏之、「質感プロジェクションマッピング」、2014年6月、日本バーチャルリアリティ学会誌第19巻2号、pp.14-17
従来のプロジェクションマッピングは、固定の立体物を投影対象としており、位置姿勢の変化する動的な立体物に対してリアルタイムに追従して画像投影を行うことができない。
本発明は、この課題に鑑みてなされたものであり、可動する立体物に対応した動画あるいは静止画をリアルタイムに投影する投影画像生成装置、投影画像生成方法および投影画像生成プログラムを提供することを目的とする。
本発明の投影画像生成装置は、空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成装置において、前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部と、前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部とを具備する。
また、本発明の投影画像生成方法は、投影画像生成装置が行う空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成方法であって、前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成ステップと、前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出ステップと、前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成ステップとを行う。
また、本発明の投影画像生成プログラムは、上記の投影画像生成装置としてコンピュータを機能させるようにしたものである。
本発明によれば、可動する立体物(実空間オブジェクト)に対応した動画あるいは静止画をリアルタイムに投影する画像情報を生成することができる。
本実施の形態における投影画像生成装置50を含む投影画像演出方法の一例を示す全体構成図である。 オブジェクト座標上における実空間オブジェクトの頂点位置データの例を示す図である。 実空間における投影ボリュームと仮想空間における仮想空間ビューボリュームとの一致を模式的に示す図である。 仮想空間視点構築で用いる投影画像の一例と、2直線を求める様子を模式的に示す図である。 投影画像生成装置50の動作フローを含む投影画像演出方法の手順を示す図である。 実空間オブジェクトの一頂点にL字型に付与された3点の位置検出素子と直交単位ベクトルとモデル行列の一例を示す図である。 実空間配置状況再現部20が行う幾何学的な変換を模式的に示す図である。 仮想空間像生成部30が行う画像描写を模式的に示す図である。
以下、本発明の実施の形態について図面を用いて説明する。
〔投影画像生成装置の構成〕
まず、図1を参照して、本実施の形態の投影画像生成装置50の構成を説明する。投影画像生成装置50は、実空間配置状況再現部20と、仮想空間像生成部30とを具備する。実空間配置状況再現部20は、モデル行列生成部21と頂点位置情報算出部22とを備える。
実空間配置状況再現部20は、仮想空間オブジェクトの形状情報14と、モーションキャプチャ装置15から取得される実空間オブジェクト13に付与された3点の位置検出素子の位置情報とを入力として、実空間座標系における仮想空間オブジェクトの頂点位置データを出力する。
仮想空間像生成部30は、実空間配置状況再現部20が出力する仮想空間オブジェクトの頂点位置データと、前記空間における投影ボリュームと仮想空間における仮想空間ビューボリュームを空間的に一致させるための仮想空間視点情報17とを入力として、仮想空間オブジェクトを実空間オブジェクト13に投影するための仮想空間像を出力する。ここで仮想空間オブジェクトとは、実空間オブジェクト13の形状と符合する立体物のことである。なお、仮想空間オブジェクトの形状は、実空間オブジェクト13の相似形であってもよい。
仮想空間オブジェクトは、当該仮想空間オブジェクトの位置姿勢の変化に依存しないオブジェクト座標の上に配置される。よって、図1では仮想空間オブジェクトの表記を省略している。
〔投影画像を表示して演出するための構成〕
また、投影画像生成装置50を用いて投影画像を表示して演出するためには、実空間オブジェクト13と、モーションキャプチャ装置15と、プロジェクター16とが必要である。モーションキャプチャ装置15は、現実の人や物体の動きをディジタル的に記録する装置である。
実空間オブジェクト13は、空間に配置されるオブジェクトの実体である。実空間オブジェクト13は、操作者11が手動で動かしてもよいし例えば自動的に回転等がなされてもよい。実空間オブジェクト13の位置姿勢は、リアルタイムに変化する。閲覧者12は、プロジェクター16によって実空間オブジェクト13の表面に投影される投影画像を、閲覧する者である。
〔投影画像生成装置に入力する情報〕
次に、投影画像生成装置50に外部から入力する情報である仮想空間オブジェクトの形状情報14と仮想空間視点情報17とについて説明する。
〔仮想空間オブジェクトの形状情報〕
仮想空間オブジェクトの形状情報14は、実空間オブジェクト13の形状と符合する仮想空間オブジェクトの形状情報である。実空間オブジェクト13の形状をメジャーなどを用いて人が計測してもよいし、既存の3Dスキャナ装置などを用いて自動的に計測してもよい。
図2に示すように、立体物の位置姿勢の変化に依存しないオブジェクト座標系におけるX,Y,Zの位置データを、仮想空間オブジェクトの形状情報とする。図2に示す例は、実空間オブジェクト13の形状を例えば立方体として、その一辺を100mmとした場合の形状情報である。以下においてオブジェクト座標を大文字X,Y,Zで表記する。
仮想空間オブジェクトの形状情報は、立体物の頂点位置である。立方体の場合は、頂点1〜頂点8の8個の座標情報である。頂点1の座標情報は、X=100,Y=100,Z=100である。Z軸上に位置する頂点8の座標情報は、X=0,Y=0,Z=100である。また、球体の場合は、球面を任意の数で分割した面を用意し、各面の頂点位置の座標情報が球体の形状情報となる。
このように仮想空間オブジェクトの形状情報14は、実空間オブジェクト13の形状と符合する仮想空間オブジェクトのオブジェクト座標系における立体物の頂点位置の座標情報であり、仮想空間オブジェクトに対応させて一度計測しておけばよいものである。
〔仮想空間視点情報〕
仮想空間視点情報17は、投影する空間(実空間)における投影ボリュームと仮想空間における仮想空間ビューボリュームを空間的に一致させるための情報である。図3を参照して投影ボリュームと仮想空間ビューボリュームについて説明する。
図3(a)は、プロジェクター16が画像を投影する空間の三次元的な「投影領域」を、プロジェクター16を頂点とする四角錐で模式的に示す。この三次元的な「投影領域」を投影ボリュームと称する。
図3(b)は、仮想空間内での人の目(視点)からの「視野の領域」を、視点を頂点とする四角錐で模式的に示す。この三次元的な「視野の範囲」を仮想空間ビューボリュームと称する。
投影する空間に、仮想空間の画像を投影するには、投影ボリュームと仮想空間ビューボリュームを空間的に一致させる必要がある。空間的に一致させるためには、プロジェクター16の「位置」、「投影方向」、「姿勢(頭上方向)」、及び「投影の画角」の情報を、仮想空間の視点の「位置」、「視線方向」、「姿勢(頭上方向)」、及び「視野の画角」へと適用する。
投影ボリュームの各パラメータの導出方法を、図4を参照して説明する。各パラメータの導出は、モーションキャプチャ装置15との連携によって行う。まず、予め中心位置及び中央右端に点が描画された画像をプロジェクター16から投影し、位置検出素子(以下マーカ)を投影点に重なるように移動させて中心軸上の2点A1,A2、及び中央右側の軸上の2点B1,B2の座標x,y,zを取得する。以下において実空間座標を小文字x,y,zで表記する。
具体的には、人がマーカを把持し、プロジェクターの投影画面の中央位置に投影された点画像に重なるようにマーカを人が適当に2回停止させて2か所(A1,A2)の3次元位置をモーションキャプチャ装置15で測定する。そして更に、プロジェクター16の投影画面の右位置に投影された点画像に重なるようにマーカを適当に2回停止させて2か所(B1,B2)の3次元位置をモーションキャプチャ装置15で測定する。
そして、中心軸上の2点(A1,A2)から生成される直線Aと、中心右端の軸上の2点から生成される直線Bの交点が「位置」パラメータ(視点位置情報)として算出される。「投影方向」パラメータ(視線方向情報)には直線Aを適用する。「姿勢(頭上方向)」パラメータ(頭上方向情報)は直線Aと直線Bの外積によって算出する。縦横の「画角」パラメータ(縦横画角情報)は用いるプロジェクター16の既知情報を用いる。
この仮想空間視点情報17は、投影する空間とプロジェクター16とが決まれば一度計測しておけばよいものである。なお、点画像を中心位置と中央右側に投影した例で説明を行ったが、点画像は他の部分に投影するようにしてもよい。
例えば、点画像を中央左端位置と中央右端の位置に投影し、これらの2つの点画像から直線A′と直線Bを各々求め、これら両直線中間線を直線A(つまり中心線)とすれば、上記の同じ処理が可能である。また、3つ以上の点画像を描画して平均化等することで精度を高めることも可能である。
〔投影画像生成装置の動作〕
図5に、投影画像生成装置50の動作フローを示す。図1と図5を参照して投影画像生成装置50の動作を説明する。
ステップS1の仮想空間オブジェクトの形状構築では、仮想空間オブジェクトの形状情報14が生成される。その生成方法は上記の通りである。仮想空間オブジェクトの形状情報14は、投影画像生成装置50が動作を開始するまでに用意する。
ステップS2の仮想空間視点構築では、仮想空間視点情報17が生成される。その生成方法は上記の通りである。仮想空間視点情報17は、投影画像生成装置50が動作を開始するまでに用意する。
投影画像生成装置50が動作を開始すると、モーションキャプチャ装置15は実空間オブジェクト13の3点基準位置情報を取得する(ステップS3)。3点基準位置情報は、実空間オブジェクト13にL字状に3点のマーカを付与して、モーションキャプチャ装置15によってそのマーカの位置から取得する。
図6(a)に、実空間オブジェクト13とマーカを示す。例えば立方体である実空間オブジェクト13の頂点1にマーカP2と、マーカP2と同一平面上の頂点4の方向にマーカP1と、頂点2の方向にマーカP3とを配置する。
実空間配置状況再現部20のモデル行列生成部21は、モーションキャプチャ装置15で取得したマーカP1,P2,P3の位置情報から直交する3つの直交単位ベクトルv1,v2,v3を算出する(図6(b))。直交単位ベクトルv1はv1=P1−P2、直交単位ベクトルv2はv2=P3−P2、直交単位ベクトルv3はv1とv2の外積v1×v2で求めることができる。
そして、モデル行列生成部21は、一つの頂点に配置したマーカP2の座標値と直交単位ベクトルv1,v2,v3とからモデル行列M(図6(c))を生成する(ステップS40)。モデル行列Mは、実空間オブジェクト13の一つの頂点P2と直交単位ベクトルv1,v2,v3と実空間座標値との関係性を示したものである。なお、この例では頂点P2を基準位置情報としたが、他の頂点を基準位置情報としてもよい。
このモデル行列Mを、仮想空間オブジェクトの形状情報14の各頂点(頂点1〜頂点8)の座標情報から求めた各頂点位置ベクトル{X,Y,Z,1}と掛け合わせることで、実空間座標系における仮想空間オブジェクトの各頂点位置{x′,y′,z′,1}を算出する(式(1))。
Figure 2016063394
式(1)から明らかなように、モデル行列Mはオブジェクト座標系を実空間座標系に座標変換する行列である。実空間配置状況再現部20の頂点位置情報算出部22は、この幾何学変換により、実空間座標系におけるマーカP2を原点としたv1,v2,v3の軸上に、オブジェクト座標系のX,Y,Z座標軸が移動し、結果的に実空間オブジェクト13と同形状、同位置姿勢の仮想空間オブジェクトの立体形状を実空間内に配置することができる(ステップS41)。ステップS40とS41は、実空間配置状況再現部20が行う処理である(ステップS4)。
図7に、頂点位置情報算出部22(ステップS41)で行う処理を模式的に示す。図7(a)は上記の図2と同じ図である。図7(a)において、仮想空間オブジェクトの形状情報14の各頂点(頂点1〜頂点8)の座標情報を求める。上記のように、仮想空間オブジェクトの形状情報14は予め求めておくものである(ステップS1)。
仮想空間オブジェクトの形状情報14の各頂点の座標情報から求めた各頂点位置ベクトル{X,Y,Z,1}と、モデル行列Mを掛け合わせることで実空間オブジェクト13と同位置姿勢の仮想空間オブジェクトの立体形状を、実空間内に配置することができる(図7(b)。
仮想空間像生成部30は、実空間配置状況再現部20が出力する仮想空間オブジェクトの頂点位置データを、仮想空間視点情報17を用いてレンダリングすることで投影用の仮想空間像を生成する(ステップS5)。仮想空間像をレンダリングする技術は、例えば参考文献1(コンピュータグラフィックス、監修:コンピュータグラフィックス編集委員会、発行所:CG-ARTS協会、pp32-40)に記載されている。
仮想空間像生成部30が生成した仮想空間像をプロジェクター16から実空間オブジェクト13に投影する(ステップS6)。その結果、実空間オブジェクト13に仮想空間オブジェクトの立体形状の像がリアルタイムに重畳する空間演出が可能となる(ステップS7)。つまり、例えば立方体の実空間オブジェクト13がy軸(図7(b)参照)を中心に回転していると仮定すると、次々に現れる複数の投影面(立方体の表面)に仮想空間像を投影することができる。仮想空間像としては、例えば投影面ごとに対応する異なる色などが考えられる。
なお、仮想空間像生成部30が生成した仮想空間像は、メモリに記録するようにしてもよい。実空間オブジェクト13の位置姿勢の変化が周期的であれば、その周期に同期させて記録した仮想空間像を読み出すことで、上記と同じ空間演出が可能である。
ステップ3の実空間オブジェクト13の3点基準位置情報を取得するステップから、ステップS7のプロジェクター16から投影された仮想空間オブジェクトを閲覧するステップの各ステップは繰り返される。その繰り返しの速度は例えば60f/s(frame/second)程度の速度である。
以上説明したように本実施の形態によれば、可動する立体物(実空間オブジェクト13)に対応した動画あるいは静止画をリアルタイムに投影する画像情報(仮想空間像)を生成することができる。なお、プロジェクター16の照射範囲に存在する実空間オブジェクトの数は複数個あっても構わない。また、実空間オブジェクト13の形状を立方体を例に説明したが、この形状に限られない。例えば、実空間オブジェクト13の形状は直方体であってもよい。また、球体であってもよいのは上記の通りである。このように本発明は、上記した実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
上記装置における処理部をコンピュータによって実現する場合、各処理部が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記装置における処理部がコンピュータ上で実現される。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としても良い。
11:操作者
12:閲覧者
13:実空間オブジェクト
14:仮想空間オブジェクトの形状情報
15:モーションキャプチャ装置
16:プロジェクター
17:仮想空間視点情報
20:実空間配置状況再現部
21:モデル行列生成部
22:頂点位置情報算出部
30:仮想空間像生成部
50:投影画像生成装置

Claims (7)

  1. 空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成装置において、
    前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成部と、
    前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出部と、
    前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成部と
    を具備することを特徴とする投影画像生成装置。
  2. 請求項1に記載した投影画像生成装置において、
    前記直交単位ベクトルは、前記実空間オブジェクトのある一つの頂点にL字型に付与した位置検出素子の3点の座標情報から算出されるベクトルであり、
    前記モデル行列は、前記直交単位ベクトルを要素に含み、前記仮想空間オブジェクトのオブジェクト座標における各頂点位置情報を前記実空間座標の各頂点位置情報に座標変換する行列であることを特徴とする投影画像生成装置。
  3. 請求項1に記載した投影画像生成装置において、
    前記投影ボリュームは、
    前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものであることを特徴とする投影画像生成装置。
  4. 投影画像生成装置が行う空間に配置される実空間オブジェクトに投影する投影用画像を生成する投影画像生成方法であって、
    前記実空間オブジェクトに付与された位置検出素子の位置情報から前記空間の座標系である実空間座標の直交単位ベクトルを算出して、前記位置検出素子の前記位置情報と前記直交単位ベクトルと前記実空間座標との関係性を示すモデル行列を生成するモデル行列生成ステップと、
    前記モデル行列に、位置姿勢の変化に依存しない座標系を持つ仮想空間に配置される仮想空間オブジェクトの各頂点位置情報を乗じることで、前記実空間座標における前記仮想空間オブジェクトの各頂点位置情報を算出する頂点位置情報算出ステップと、
    前記空間における投影ボリュームと前記仮想空間における仮想空間ビューボリュームとを空間的に一致させるための仮想空間視点情報と前記各頂点位置情報とを用いて、前記仮想空間オブジェクトを前記実空間オブジェクトに投影する仮想空間像を生成する仮想空間像生成ステップと
    を行うことを特徴とする投影画像生成方法。
  5. 請求項4に記載した投影画像生成方法において、
    前記直交単位ベクトルは、前記実空間オブジェクトのある一つの頂点にL字型に付与した位置検出素子の3点の座標情報から算出されたベクトルであり、
    前記モデル行列は、前記直交単位ベクトルを要素に含み、前記仮想空間オブジェクトのオブジェクト座標における各頂点位置情報を前記実空間座標の各頂点位置情報に座標変換する行列であることを特徴とする投影画像生成方法。
  6. 請求項4に記載した投影画像生成方法において、
    前記投影ボリュームは、
    前記空間にプロジェクターで投影したプロジェクター投影画面に、2つ以上の点画像を投影した前記プロジェクターの位置と前記点画像とを結ぶ直線上の2つの実空間座標から得られる2本以上の直線から求めたパラメータである視点位置情報と、視線方向情報と、頭上方向情報と、縦横画角情報と、で表されるものであることを特徴とする投影画像生成方法。
  7. 請求項1乃至3の何れかに記載した投影画像生成装置としてコンピュータを機能させるための投影画像生成プログラム。
JP2014189772A 2014-09-18 2014-09-18 投影画像生成装置、投影画像生成方法および投影画像生成プログラム Active JP6319804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014189772A JP6319804B2 (ja) 2014-09-18 2014-09-18 投影画像生成装置、投影画像生成方法および投影画像生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189772A JP6319804B2 (ja) 2014-09-18 2014-09-18 投影画像生成装置、投影画像生成方法および投影画像生成プログラム

Publications (2)

Publication Number Publication Date
JP2016063394A true JP2016063394A (ja) 2016-04-25
JP6319804B2 JP6319804B2 (ja) 2018-05-09

Family

ID=55798321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189772A Active JP6319804B2 (ja) 2014-09-18 2014-09-18 投影画像生成装置、投影画像生成方法および投影画像生成プログラム

Country Status (1)

Country Link
JP (1) JP6319804B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081497A (ja) * 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2020107089A (ja) * 2018-12-27 2020-07-09 クラリオン株式会社 画像処理装置及び画像処理方法
JP2020204515A (ja) * 2019-06-17 2020-12-24 株式会社ミツトヨ 測定装置
WO2022080260A1 (ja) * 2020-10-13 2022-04-21 パナソニックIpマネジメント株式会社 設置情報取得方法、補正方法、プログラム、及び設置情報取得システム
CN114520898A (zh) * 2020-11-19 2022-05-20 成都极米科技股份有限公司 投影设备控制方法和装置、投影设备及存储介质
US11743436B2 (en) 2020-12-10 2023-08-29 Seiko Epson Corporation Projection method and non-transitory computer-readable storage medium storing a program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2001320652A (ja) * 2000-05-11 2001-11-16 Nec Corp プロジェクタ装置
JP2011254411A (ja) * 2010-06-04 2011-12-15 Hokkaido Univ 映像投影システムおよび映像投影プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2001320652A (ja) * 2000-05-11 2001-11-16 Nec Corp プロジェクタ装置
JP2011254411A (ja) * 2010-06-04 2011-12-15 Hokkaido Univ 映像投影システムおよび映像投影プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081497A (ja) * 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2020107089A (ja) * 2018-12-27 2020-07-09 クラリオン株式会社 画像処理装置及び画像処理方法
JP7156937B2 (ja) 2018-12-27 2022-10-19 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP2020204515A (ja) * 2019-06-17 2020-12-24 株式会社ミツトヨ 測定装置
JP7270477B2 (ja) 2019-06-17 2023-05-10 株式会社ミツトヨ 測定装置
WO2022080260A1 (ja) * 2020-10-13 2022-04-21 パナソニックIpマネジメント株式会社 設置情報取得方法、補正方法、プログラム、及び設置情報取得システム
CN114520898A (zh) * 2020-11-19 2022-05-20 成都极米科技股份有限公司 投影设备控制方法和装置、投影设备及存储介质
CN114520898B (zh) * 2020-11-19 2023-09-01 成都极米科技股份有限公司 投影设备控制方法和装置、投影设备及存储介质
US11743436B2 (en) 2020-12-10 2023-08-29 Seiko Epson Corporation Projection method and non-transitory computer-readable storage medium storing a program

Also Published As

Publication number Publication date
JP6319804B2 (ja) 2018-05-09

Similar Documents

Publication Publication Date Title
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
JP6319804B2 (ja) 投影画像生成装置、投影画像生成方法および投影画像生成プログラム
JP5777786B1 (ja) 情報処理装置、情報処理方法、プログラム
US20150302648A1 (en) Systems and methods for mapping an environment using structured light
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
Jia et al. 3D image reconstruction and human body tracking using stereo vision and Kinect technology
US20210158552A1 (en) Systems and methods for enhanced depth determination using projection spots
JP2018133063A5 (ja)
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP2014067372A (ja) 運動視差再現プログラムおよび装置ならびにその三次元モデル生成プログラムおよび装置
Solari et al. Natural perception in dynamic stereoscopic augmented reality environments
JP6295296B2 (ja) 複合システム及びターゲットマーカ
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
CN115311133A (zh) 一种图像处理方法、装置、电子设备及存储介质
JP6581348B2 (ja) 情報処理装置、情報処理方法、およびプログラム
BARON et al. APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION.
JP2006318094A (ja) 情報処理方法、情報処理装置
JP6948363B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6436872B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2019133310A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP7465133B2 (ja) 情報処理装置、情報処理方法
JP2002056407A (ja) 画像生成システム
JP6429240B2 (ja) 形状検出装置、形状検出方法、及びプログラム
JP2016038632A (ja) 画像処理装置、画像処理方法
US20220044351A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180329

R150 Certificate of patent or registration of utility model

Ref document number: 6319804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250