JP2013165344A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2013165344A JP2013165344A JP2012026481A JP2012026481A JP2013165344A JP 2013165344 A JP2013165344 A JP 2013165344A JP 2012026481 A JP2012026481 A JP 2012026481A JP 2012026481 A JP2012026481 A JP 2012026481A JP 2013165344 A JP2013165344 A JP 2013165344A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- correction
- projection image
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
【課題】校正用カメラの設置精度に依存することなく、投影画像データに対する幾何補正を精度良く実現する。
【解決手段】本願発明に係る画像処理装置は、投影画像を投影するスクリーンの三次元位置を取得する取得手段と、取得手段により取得された三次元位置に基づいて、スクリーンに投影される投影画像の幾何補正を行う補正手段と、を備えることを特徴とする。
【選択図】図4
Description
本発明は、マルチプロジェクションシステムにおける投影画像を補正する画像処理装置及び画像処理方法に関する。
近年、複数台のプロジェクタを用いて複数の投影画像を組み合わせて大画面として表示する、高精細画像を投影可能なマルチプロジェクションシステムの研究が盛んに行われている。このマルチプロジェクションシステムにおいて、投影画像の位置合わせが重要である。投影画像の位置精度は、プロジェクタの設置精度に依存するため、大規模なマルチプロジェクションシステムでは、プロジェクタの設置精度を上げようとすると設置コストが多くかかることになる。
そこで、プロジェクタからの投影画像を校正用カメラで撮影し、その撮影結果に基づいてプロジェクタの姿勢を推定して画像を補正する方法が提案されている(例えば特許文献1参照。)。
特許文献1のような従来の手法では、2次元的な幾何補正を行うため校正用カメラがスクリーンに対して正対するように厳密に設定しなければ十分な補正効果が得られないという問題があった。
そこで本願発明は、校正用カメラの設置精度に依存することなく、投影画像データに対する幾何補正を精度良く実現する画像処理装置及び画像処理方法を提供することを目的とする。
上記課題を解決するために、本願発明に係る画像処理装置は、投影画像を投影するスクリーンの三次元位置を取得する取得手段と、前記取得手段により取得された三次元位置に基づいて、前記スクリーンに投影される投影画像の幾何補正を行う補正手段と、を備えることを特徴とする画像処理装置。
本発明により、校正用カメラを厳密に設定しなくてもプロジェクタ間の位置合わせを精度よく実現することが可能になる。
(実施例1)
本実施例における画像処理装置の構成について、図1を参照して説明する。
本実施例における画像処理装置の構成について、図1を参照して説明する。
図1は、本願発明の実施例による画像処理装置の構成例を示すブロック図である。画像処理装置100は、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、表示I/F108、メインバス109を備える。
汎用I/F104は、カメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、メモリーカードなどの外部メモリ107をメインバス109に接続させる。また、表示I/F108はモニタ110、プロジェクタ111などをメインバス109に接続させる。
以下、CPU101がHDD103に格納された各種ソフトウェア(コンピュータプログラム)に基づいて実現される各種処理について説明する。
まず、CPU101は、HDD103に格納されている画像処理アプリケーションを起動し、RAM102に展開するとともに、表示I/F108を介してモニタ110やプロジェクタ111にユーザインターフェース(UI)を表示する。
続いて、HDD103や外部メモリ107に格納されている各種データ、撮像装置105で撮影された画像データ、入力装置106からの指示などがRAM102に転送される。
さらに、画像処理アプリケーション内の処理に従って、RAM102に格納されているデータに対してCPU101が各種演算を実行し、演算結果が表示I/F108を介してモニタ110やプロジェクタ111に表示される。また、HDD103、外部メモリ107にも格納される。
上記の構成を備える画像処理装置が、複数のプロジェクタからの投影画像を複数の異なる視点から撮影(以下、多視点撮影)した画像データに基づいて投影画像を補正する処理の詳細について図2から図4を参照して説明する。
ここで、本願発明の実施例によるマルチプロジェクションシステムの全体的な態様について、図2を参照して説明する。
プロジェクタ202及び203は、スクリーン201に画像を投影するプロジェクタである。例えば、プロジェクタ202は、スクリーン201に対し投影画像204のように画像を投影させる。また、プロジェクタ203は、スクリーン201に対し投影画像205のように画像を投影させる。
なお、一般に、マルチプロジェクションシステムにおいて、投影画像間のつなぎ目を目立たなくさせるために、投影画像204及び投影画像205を一部重複させる。図2においても、投影画像204及び投影画像205の一部が重複している。
校正用カメラ206は、多視点撮影可能な撮像装置であり、投影画像204及び205を撮影する。ここで、図3を参照して多視点撮影可能な校正用カメラ206の一例を説明する。
校正用カメラは、図3に示す校正用カメラ311のように、カラー画像データを取得する9個の撮像部301〜309及び撮像ボタン310を備える。
9個の撮像部301〜309は、正方格子上に均等に配置されている。
ユーザが撮像ボタン310を押下すると、撮像部301〜309が被写体からの光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数のカラー画像データ(デジタルデータ)が取得される。
このような多眼方式の撮像装置である校正用カメラにより、同一の被写体を複数の視点から撮像したカラー画像群を得ることができる。なお、ここでは撮像部の数を9個としたが撮像部の数は9個に限定されない。すなわち、複数の撮像部を有していればよい。また、ここでは9個の撮像部が正方格子上に均等に配置される例について説明したが、撮像部の配置は任意である。例えば、放射状や直線状に配置してもよいし、撮像部の相対的な位置関係は、任意のものとすることができる。
尚、校正用カメラ206はプロジェクタへの投影画像を確認する観察位置207の近傍に設置して撮影するのが好適であるが、投影画像を面撮影できる位置であれば任意の位置に設置することができる。
画像処理装置208はプロジェクタ202、プロジェクタ203及びカメラ204を制御する。本実施例では2台のプロジェクタによるマルチプロジェクションシステムを説明するが、2台以上のプロジェクタを用いてシステムを構成しても構わない。
図4は、本実施例に係る画像処理装置の機能構成を示す図である。なお、図4に示す機能は、画像処理アプリケーションソフトウェアを解釈するCPU101の指示に基づいて実行される。
多視点画像データ入力部401は、校正用カメラ311が撮影した複数の画像データを入力する。入力された複数の画像データは、汎用I/F105を介してHDD103に格納される。
投影画像データ入力部402は、プロジェクタ202及び203に投影させる画像に係る投影画像データを入力する。投影画像データはHDD103に予め格納されているデータや、外部メモリ107に格納されているデータであり、或いは、外部の撮像装置105で撮影された画像データであってもよい。
距離情報算出部403は、多視点画像データ入力部401に入力された画像データを取得し、画像データが表す画像における視差を利用してスクリーンに投影された投影画像上の点までの距離を算出する。算出した距離情報はRAM102やHDD103に記憶する。
変換パラメータ生成部404は、距離情報算出部403で算出した距離情報と、投影画像データ入力部402に入力された投影画像データとを取得し、投影画像データの幾何補正を実行するための変換パラメータを生成する。生成した変換パラメータはRAM102やHDD103に記憶する。
画像データ補正部405は、変換パラメータ生成部404で生成したパラメータと投影画像データ入力部402から入力した投影画像データとを取得し、複数のプロジェクタから投影される投影画像データが適切に投影されるように投影画像データを幾何補正する。
画像データ投影部406及び407は、投影画像データ入力部402から入力した投影画像データや、画像データ補正部で補正した画像データを取得し、プロジェクタ202及び203にスクリーン201へ投影させる。
(画像処理のフロー)
以下では、本発明の実施例による画像処理装置の処理手順について、図5のフローチャートを参照して説明する。
以下では、本発明の実施例による画像処理装置の処理手順について、図5のフローチャートを参照して説明する。
ステップS501では、投影画像データ入力部402から投影画像データを入力する。ここでの投影画像データは、白色の均一パターンやコントラストの高いチェッカーパターンなどの画像に係る校正用の校正用画像データである。以下、本実施例では、投影画像データとして入力される校正用画像データに係る画像が白色の均一パターンであるものとして説明する。
ステップS502では、ステップS501で入力した校正用画像データを、画像データ投影部406及び407を介して、それぞれプロジェクタ202及び203からスクリーン201に投影させる。
ステップS503では、ステップ502でスクリーン201に投影した各投影画像を校正用カメラ311で多視点撮影し、多視点撮影に係る複数の画像データを多視点画像データ入力部401に入力する。
ステップS504では、距離情報算出部403において、ステップS503で入力した複数の画像データに基づいて、撮影位置から、スクリーン上の投影画像の所定の位置までの距離を距離情報として算出する。ここで、所定の位置は、例えば、投影画像の角の4点や、チェッカーパターンの格子点の位置とすることができる。尚、算出方法の詳細は後述する。
ステップS505では、変換パラメータ生成部404において、投影画像を幾何補正するためのパラメータを算出する。尚、パラメータ算出方法の詳細は後述する。
ステップS506では、画像データ補正部405において、投影画像データ入力部402から入力した投影画像データを、ステップS506で算出した変換パラメータに基づいて幾何補正する。補正した投影画像データは、画像データ投影部406,407を介してスクリーンに投影する。尚、投影画像データを幾何補正する処理の詳細は後述する。
(距離情報算出処理)
以下では、ステップS504における距離情報算出処理の詳細について図6のフローチャート及び図7と図8の模式図を参照して説明する。
以下では、ステップS504における距離情報算出処理の詳細について図6のフローチャート及び図7と図8の模式図を参照して説明する。
ステップS601では、ステップS503で入力した複数の画像データの中から基準画像データを選択する。基準画像データは任意に選択してもよい。例えば、撮像部305で撮影した画像データを基準画像データとすることができる。
ステップS602では、ステップS601で決定した基準画像データに係る基準画像の4隅の点を参照点として決定する。尚、参照点の決定方法は所望の方法で構わない。例えば、基準画像の輝度分布に基づいてエッジを検出し、さらに検出したエッジの変曲点を求めることで得られる。ここで、図7(a)は基準画像701のX軸上のあるラインにおける輝度分布を示している。投影面の重複領域は周辺領域より相対的に明るくなるため、複数のプロジェクタから画像が投影されていても、各投影画像のエッジを検出することが可能である。
また、図7(b)のようなUI上に基準画像701を表示して、ユーザが指定しても良い。図7(b)において、表示領域702に、ステップS701で選択した基準画像701が表示される。
表示領域702には、参照点を決定するためのポインタも併せて表示され、ユーザは参照点703〜706のように、投影画像204の4隅を参照点として決定することができる。また、投影画像205に関しても同様にして参照点を決定することができる。
このように、UI上で基準画像701を参照しながら参照点を設定してもよい。勿論、UIに関してはこれに限られるものではなく、各投影画像の参照点をユーザが指示可能であれば、どのようなインターフェースを用いても構わない。このようにして、本実施例では、2つの投影画像204及び205に関して、各4点、合計8点の参照点が決定される。
ステップS603では、ステップS702で決定した8点の参照点から、距離を算出するための参照点を選択する。
ステップS604では、一例として、撮像部303で撮影した点からステップS703で選択した参照点までの距離を算出する。距離の算出は、レンズ焦点法やステレオ法など所望の三次元計測法を用いることが可能である。また、レーザー光などを用いて参照点までの距離を別途取得してもよい。本実施例では、多視点画像の対応点の位置関係から三角測量の原理に基づいて距離を求める手法について図8を用いて説明する。
図8はスクリーン201を撮像部304と撮像部306から撮影した場合における参照点までの距離の算出方法を説明するための図である。
撮像部306はレンズ801と、センサ802とを有する。また、撮像部304は、レンズ803と、センサ804とを有する。
以下では、ステップS603で選択した参照点が、参照点P1及び参照点P2である場合を例に、撮像部306のレンズ801からP1までの距離L1,及び撮像部304のレンズ803からP2までの距離L2を算出する方法について説明する。なお、撮像部306を視点C1、撮像部304を視点C2とする。
参照点P1は、視点C1ではP1‘に投影され、視点C2ではP1‘‘に投影される。また、参照点P2は、視点C1ではP2’に投影され、視点C2ではP2‘‘に投影される。
一般に、異なる視点から撮影した画像を重ねても、投影点P1‘とP1‘‘、'及びP2‘とP2‘‘は一致せず、P1‘P1 ‘‘の移動量が生じる。ここで、視点C1、C2から各参照点までの距離L1,L2が焦点距離fより十分大きいとすると、参照点の結像面は視点C1、C2で一致するとみなす。
従って、視点C1と視点C2間の基線長をdとすると、相似の関係から次式が成り立つ。
よって、参照点P1及び参照点P2までの距離L1、L2は次式のようになる。
以上の算出方法により、撮影位置から各参照点までの距離を算出することができる。
ここで、撮像部303の撮影位置を原点とし、水平方向をX軸、垂直方向をY軸、校正用カメラからの距離方向をZ軸とする。さらに、基準画像の幅方向の画素位置をX座標及び高さ方向の画素位置をY座標、各参照点までの距離はZ座標に対応させることで各参照点の三次元空間上の位置が得られる。
ステップS605では、ステップS602で決定した全ての参照点に係る距離の算出が終了したかどうかを判定する。終了していればステップS504の処理を終了し、終了していなければステップS603に移行して次の参照点を選択する。
(変換パラメータ算出処理)
以下では、ステップS505における変換パラメータ算出処理の詳細について図9のフローチャート及び図10、図11を参照して説明する。
以下では、ステップS505における変換パラメータ算出処理の詳細について図9のフローチャート及び図10、図11を参照して説明する。
ステップS901では、ステップS602で設定した各参照点を読み込んで、撮像部303を基準とした座標値からスクリーン201に正対する視点を基準とした座標値に変換する。
具体的に、座標変換処理について図10を参照して説明する。
まず、スクリーン201からの法線ベクトルNを求める。各参照点はスクリーン面内に存在するため、少なくとも3点の座標値があればスクリーン201に対する法線ベクトルNが得られる。ここで、任意の参照点の座標をP1(x1, y1, z1)、P2(x2, y2, z2)、P3(x3, y3, z3)とすると、法線ベクトルN(nx, ny, nz)は次式のようになる。
次に、スクリーン201に正対する視点位置V(vx, vy, vz)を求める。媒介変数をt、スクリーン上の点をP0(x0, y0, z0)とすると、スクリーンに正対する視点位置は次式のようになる。
ここで、媒介変数tは、所望の条件で与えて構わない。例えば、観察距離に応じて設定しても良いし、あるいは図10に示すように、XY平面にあると仮定してvz=0として求めても良い。
次に、視点位置Vを中心としてスクリーン201に正対する新たな座標系X’Y’Z’に変換するための視点変換行列Mを生成する。スクリーン上の点P0を注目点、上向きの方向ベクトルをU(ux, uy, uz)とすると、変換後の各軸の単位方向ベクトルAx(axx, axy, axz), Ay(ayx, ayy, ayz), Az(azx, azy, azz)は次式となる。
従って、視点変換行列Mは次式のようになる。
この視点変換行列Mを参照点の各座標に乗算することで、視点位置Vを中心とした座標系に変換可能である。従って、変換前の点P0(x0, y0, z0)を変換した点P0’(x0’, y0’, z0’)は次式のようになる。
ここで、変換後の各参照点はスクリーン面上の点であるため視点Vからの距離、即ちZ’座標が同一になるため、X’座標とY’座標の2次元で扱うことが可能になる。
ステップS902では、変換パラメータを算出する対象となる投影画像データを選択する。以下では、投影画像204に係る投影画像データを選択したものとして説明する。
ステップS903では、ステップS902で選択した投影画像データにおける4つの参照点Q1(x1, y1)、Q2(x2, y2)、Q3(x3, y3)、Q4(x4, y4)を取得する。
ステップS904では、投影画像の幅Wと高さHを取得する。
ステップS905では、取得した4つの参照点が投影画像の4隅の点と対応するように目標点を決定する。参照点Q1、Q2、Q3、Q4に対応する目標点をそれぞれQ1’(x1’, y1’)、Q2’(x2’, y2’)、Q3’(x3’, y3’)、Q4’(x4’, y4’)とすると、対応関係は図11のようになる。
ステップS906では、ステップS903で取得した参照点と、ステップS905で設定した目標点との対応関係に基づいて、ステップS902で選択した投影画像を幾何補正するための変換パラメータを算出する。幾何補正には射影変換を用いる。変換前の座標を(x, y)、変換後の座標を(x’, y’)とすると、射影変換は次式のようになる。
ここで、a1〜a8が変換パラメータである。変換パラメータ数は8個であるため変換前後の点、即ち参照点と目標点の対応が4点あれば変換パラメータを得られる。従って、変換パラメータは次式で算出される。
ステップS907では、全ての投影画像の変換パラメータ算出が終了したかどうかを判定する。変換パラメータ算出が終了していればステップS505の処理を終了し、終了していなければステップS902に移行して処理を継続する。
(投影画像補正処理)
以下では、ステップS506における投影画像補正処理の詳細について図12のフローチャートを参照して説明する。
以下では、ステップS506における投影画像補正処理の詳細について図12のフローチャートを参照して説明する。
ステップS1201では、ステップS901で求めたX’Y’Z’座標系において、投影画像の表示領域を設定する。
図13(a)に示すように、表示領域1301は投影画像204及び205からなる投影領域1102に内包される矩形として決定する。なお、投影領域1102の大きさは、最終的に投影する画像のアスペクト比に応じた最大矩形を指定するのが好適である。その場合は投影画像のアスペクト比を入力することで自動的に決定可能である。勿論、図8(b)で説明したようなUIなどから手動で決定しても構わない。
ステップS1202では、補正する投影画像を選択する。以下では投影画像204を選択したものとして説明する。
ステップS1203では、ステップS505で算出した変換パラメータから、ステップS1202で選択した投影画像に対応する変換パラメータを取得する。
ステップS1204では、補正する画素を選択する。尚、ここで選択する画素は、図13(b)に示すように、表示領域1301と投影画像204とが重複する領域1303に含まれる画素であり、非重複の領域1304における画素は選択されない。
ステップS1205では、ステップS1204で選択した画素に対して幾何補正をする。幾何補正するための式はステップS1203で取得した変換パラメータを式16及び式17に代入することにより得られる。
図13(c)は幾何補正の結果得られる画像を示している。幾何補正により、領域1303は、領域1305に変換される。一方、領域1304に対して幾何補正を適用すると領域1306に変換されるが、ステップS1204では選択されないため黒色にする。その結果、変換後の画像を投影すると、領域1303にだけ画像が表示されることになる。
ステップS1206では、ステップS1202で選択した投影画像の全ての画素の補正が終了したか否かを判定する。終了していればステップS1207へ移行し、終了していなければステップS1203に移行して次の処理画素を選択する。
ステップS1207では、全ての画像の補正が終了したかどうかを判定する。終了していればS506の処理を終了し、終了していなければステップS1202に移行して次の投影画像を選択する。
以上の処理により、マルチプロジェクションシステムにおいて、校正用カメラを厳密に設置しなくても、精度良い位置合わせを実現することが可能になる。
本実施例では、多視点撮影可能な校正用カメラを用いる。よって、アクティブな測距装置(例えば、赤外線を使った測距装置)を利用しなくとも投影画像の補正を行うことができる。また、本実施例では画像を用いることから投影画像の4隅を特定することができ、適切な幾何補正を実行することが可能となる。
(実施例2)
実施例1では、ステップS504において距離情報算出部403が複数の画像データに基づいて距離情報を算出する。しかしながら、距離情報の算出はこれに限らない。例えば、赤外線を用いたアクティブ測距方式を用いても良い。赤外線を用いたアクティブ測距方式などの距離測定専用の機構を備えることにより、高精度に距離情報を取得することが可能になる。
実施例1では、ステップS504において距離情報算出部403が複数の画像データに基づいて距離情報を算出する。しかしながら、距離情報の算出はこれに限らない。例えば、赤外線を用いたアクティブ測距方式を用いても良い。赤外線を用いたアクティブ測距方式などの距離測定専用の機構を備えることにより、高精度に距離情報を取得することが可能になる。
(その他の実施例)
実施例1における校正用画像データとして、コントラストが高く、格子状の模様のような格子状に分割されているチェッカーパターンなどを用いてもよい。この場合、チェッカーパターンの各格子点を参照点としてパターンの小領域毎に本手法を適用することで、プロジェクタのレンズなどにより発生する歪みも補正することが可能である。
実施例1における校正用画像データとして、コントラストが高く、格子状の模様のような格子状に分割されているチェッカーパターンなどを用いてもよい。この場合、チェッカーパターンの各格子点を参照点としてパターンの小領域毎に本手法を適用することで、プロジェクタのレンズなどにより発生する歪みも補正することが可能である。
Claims (10)
- 投影画像を投影するスクリーンの三次元位置を取得する取得手段と、
前記取得手段により取得された三次元位置に基づいて、前記スクリーンに投影される投影画像の幾何補正を行う補正手段と、
を備えることを特徴とする画像処理装置。 - 前記三次元位置は、複数の視点から撮影することにより得られた画像データから算出された距離情報に基づいて決定されることを特徴とする請求項1に記載の画像処理装置。
- 前記補正手段は、前記取得手段により取得された三次元位置に基づいて、前記投影画像の幾何補正を示す変換パラメータを算出し、算出された変換パラメータに基づいて投影画像の幾何補正を行うことを特徴とする請求項1又は2に記載の画像処理装置。
- 前記取得手段は、前記投影画像の4隅の点、或いは格子状の模様を示す前記投影画像における格子点に従って三次元位置を取得することを特徴とする請求項1乃至3のうちのいずれか1項に記載の画像処理装置。
- 前記補正手段による補正は画像データの射影変換であり、
前記変換パラメータは、前記射影変換のパラメータである
ことを特徴とする請求項3に記載の画像処理装置。 - 投影画像を投影するスクリーンの三次元位置を取得する取得工程と、
前記取得手段により取得された三次元位置に基づいて、前記スクリーンに投影される投影画像の幾何補正を行う補正工程と、
を備えることを特徴とする画像処理方法。 - 前記三次元位置は、複数の視点から撮影することにより得られた画像データから算出された距離情報に基づいて決定されることを特徴とする請求項6に記載の画像処理方法。
- 前記補正工程は、前記取得工程により取得された三次元位置に基づいて、前記投影画像の幾何補正を示す変換パラメータを算出し、算出された変換パラメータに基づいて投影画像の幾何補正を行うことを特徴とする請求項6又は7に記載の画像処理方法。
- 前記取得工程は、前記投影画像の4隅の点、或いは格子状の模様を示す前記投影画像における格子点に従って三次元位置を取得することを特徴とする請求項6乃至8のうちのいずれか1項に記載の画像処理方法。
- 前記補正工程による補正は画像データの射影変換であり、
前記変換パラメータは、前記射影変換のパラメータである
ことを特徴とする請求項8に記載の画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012026481A JP2013165344A (ja) | 2012-02-09 | 2012-02-09 | 画像処理装置及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012026481A JP2013165344A (ja) | 2012-02-09 | 2012-02-09 | 画像処理装置及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013165344A true JP2013165344A (ja) | 2013-08-22 |
Family
ID=49176466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012026481A Pending JP2013165344A (ja) | 2012-02-09 | 2012-02-09 | 画像処理装置及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013165344A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11620732B2 (en) | 2017-09-19 | 2023-04-04 | Sharp Nec Display Solutions, Ltd. | Multi-projection system, image projection method and projector |
-
2012
- 2012-02-09 JP JP2012026481A patent/JP2013165344A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11620732B2 (en) | 2017-09-19 | 2023-04-04 | Sharp Nec Display Solutions, Ltd. | Multi-projection system, image projection method and projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110809786B (zh) | 校准装置、校准图表、图表图案生成装置和校准方法 | |
JP6363863B2 (ja) | 情報処理装置および情報処理方法 | |
CN103765870B (zh) | 图像处理装置、包括图像处理装置的投影仪和投影仪系统、图像处理方法 | |
JP2020187358A (ja) | 投影システム、投影装置及びその表示画像の校正方法 | |
JP6359259B2 (ja) | デプスセンサと撮影カメラとの間の関係に基づいたデプス映像補正装置及び方法 | |
CN108028900B (zh) | 投影设备、投影方法和程序存储介质 | |
US10063792B1 (en) | Formatting stitched panoramic frames for transmission | |
US20130222776A1 (en) | Image projector, method of image projection, and computer-readable storage medium storing program for causing computer to execute image projection | |
JP7145432B2 (ja) | 投影システム、画像処理装置および投影方法 | |
JP5633058B1 (ja) | 3次元計測装置及び3次元計測方法 | |
JP2011123008A (ja) | 計測方法および計測プログラムならびに計測装置 | |
JP2007036482A (ja) | 情報投影表示装置およびプログラム | |
JP6804056B2 (ja) | 投写型表示装置、投写型表示装置の制御方法、及びプログラム | |
JP6594170B2 (ja) | 画像処理装置、画像処理方法、画像投影システムおよびプログラム | |
JP2016085380A (ja) | 制御装置、制御方法、及び、プログラム | |
JP2004228824A (ja) | スタックプロジェクション装置及びその調整方法 | |
JP2011155412A (ja) | 投影システムおよび投影システムにおける歪み修正方法 | |
WO2018167918A1 (ja) | プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム | |
JP5561503B2 (ja) | プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法 | |
JP2011075336A (ja) | 3次元形状計測装置、3次元形状計測方法 | |
Yang et al. | Effect of field of view on the accuracy of camera calibration | |
JP5727969B2 (ja) | 位置推定装置、方法、及びプログラム | |
JP2015206654A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2014041074A (ja) | 画像処理装置及び検査装置 | |
JP6317611B2 (ja) | ディスプレイ表示パターン生成装置及びそのプログラム |