JP2021193500A - 位置検出方法、位置検出装置及びプロジェクター - Google Patents
位置検出方法、位置検出装置及びプロジェクター Download PDFInfo
- Publication number
- JP2021193500A JP2021193500A JP2020099361A JP2020099361A JP2021193500A JP 2021193500 A JP2021193500 A JP 2021193500A JP 2020099361 A JP2020099361 A JP 2020099361A JP 2020099361 A JP2020099361 A JP 2020099361A JP 2021193500 A JP2021193500 A JP 2021193500A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- operation surface
- indicator
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】複数の指示体による操作を検出する場合の処理量の増加を抑制する。【解決手段】プロジェクター100は、撮影視点が異なる左カメラ151及び右カメラ152により操作面20を撮影し、操作面20にキャリブレーションされた左撮影画像と右撮影画像とを取得する取得ステップと、左撮影画像と右撮影画像との輝度値の差分画像215を生成する生成ステップと、左撮影画像と、右撮影画像と、差分画像215とを学習済みモデルに入力して、指示体40により指示された操作面20の指示位置が示された検出画像を出力する出力ステップと、を実行する。【選択図】図4
Description
本発明は、位置検出方法、位置検出装置及びプロジェクターに関する。
従来、操作面に対する指示体の操作を検出して、検出した操作に対応した処理を実行する装置が知られている。例えば、特許文献1に開示の装置は、Time−of−Flightセンサを有する距離検出部を備え、この距離検出部の検出結果に基づいてユーザーが行った操作の操作位置を検出する。
しかしながら、複数の指示体で操作を行う場合、操作を行った指示体の数だけ繰り返し操作位置を検出するための処理を行わなければならず、処理量が増加する。
上記課題を解決する一態様は、指示体により指示される操作面の指示位置を検出する位置検出方法であって、撮影視点が異なる第1撮影部及び第2撮影部により前記操作面を撮影し、前記操作面にキャリブレーションされた第1撮影画像と第2撮影画像とを取得する取得ステップと、前記第1撮影画像と前記第2撮影画像との輝度値の差分画像を生成する生成ステップと、前記第1撮影画像と、前記第2撮影画像と、前記差分画像とを学習済みモデルに入力して、前記操作面の指示位置が示された検出画像を出力する出力ステップと、を有する位置検出方法である。
上記課題を解決する別の一態様は、指示体により指示される操作面の指示位置を検出する位置検出装置であって、撮影視点が異なる第1撮影部及び第2撮影部により操作面を撮影し、前記操作面にキャリブレーションされた第1撮影画像と第2撮影画像とを取得する取得部と、前記第1撮影画像と前記第2撮影画像との輝度値の差分画像を生成する生成部と、前記第1撮影画像と、前記第2撮影画像と、前記差分画像とを学習済みモデルに入力して、前記操作面の指示位置が示された検出画像を出力する出力部と、を備える位置検出装置である。
上記課題を解決する別の一態様は、請求項4記載の位置検出装置と、画像データが展開される記憶領域を有するメモリーと、前記メモリーに展開された画像データに基づく画像を投射する投射部と、前記検出画像に基づき、前記指示体により指示された前記操作面の指示位置を取得し、取得した前記指示位置に対応づけられた前記記憶領域の位置に描画データを展開する処理部と、を備え、前記投射部は、前記記憶領域に展開された前記画像データ及び前記描画データに基づく画像を投射するプロジェクターである。
以下、添付図面を参照して本発明の実施形態について説明する。
図1は、プロジェクター100の設置態様を示す斜視図であり、図2は、プロジェクター100の設置態様を示す側面図である。本実施形態のプロジェクター100は、図1及び図2に示すように、室内の壁に固定する壁掛け設置により設置される。プロジェクター100の設置方法は、壁掛け設置に限定されず、天井から吊り下げる吊り下げ設置であってもよいし、床面や台座の上に平置きする平置き設置であってもよい。
プロジェクター100の斜め下方には、投射面10が設けられる。プロジェクター100は、パーソナルコンピューター等の外部装置に有線又は無線で接続され、外部装置から供給される画像信号に基づいて画像光30を生成する。また、プロジェクター100は、投射装置120と位置検出装置150とを備える。図1に示すように投射装置120は、生成した画像光30を、光学ユニット125により投射面10に投射する。投射面10には、画像信号に対応した画像が結像する。画像光30が投射される投射面10の領域を、投射領域15という。画像光30とは、投射面10に画像を表示するための光束である。以下では、投射面10の法線方向であって投射面10の前方をZ軸方向、投射面10に沿う鉛直上方向をY軸方向、Z軸方向とY軸方向に垂直な方向をX軸方向と仮定して説明する。投射面10は、Z=0のXY面に対応する。
図1には、投射面10が、平面で構成されるスクリーンである場合を示すが、室内の壁面や、ホワイトボード、黒板等を投射面10として利用することも可能である。また、投射面10としてスクリーンを利用する場合、スクリーンは、吊り下げ式や、立ち上げ式等の幕状のスクリーンであってもよい。また、投射面10は、指示体40の操作が行われる操作面20としても利用される。
プロジェクター100は、インタラクティブ機能を備える。インタラクティブ機能とは、操作面20に対して指示体40により行われた操作の操作位置を検出し、検出した操作位置に基づいて、文字や、記号、画像を表示させたり、表示済みの文字や、記号、画像に変更を加えたりする機能である。
プロジェクター100は、インタラクティブ機能を実現する機能部として、左カメラ151及び右カメラ152を備える。左カメラ151及び右カメラ152は、図1に示すようにプロジェクター100の異なる位置に配置される。左カメラ151及び右カメラ152は、ステレオカメラとして機能する。
左カメラ151及び右カメラ152は、それぞれ投射面10の全体を撮影可能に設定され、異なる撮影視点から投射面10を撮影する。左カメラ151及び右カメラ152の撮影画像には、投射面10を背景とした指示体40の画像がそれぞれ撮影される。2つの撮影画像は、ステレオ画像を構成し、三角測量の原理により、指示体40の3次元位置を求めることができる。なお、カメラの台数は3以上でもよい。
指示体40には、例えば、使用者の指先や、ペンや指示棒等の物体が用いられる。
プロジェクター100は、複数の指示体40により同時に行われる操作を検出可能である。また、同時に使用される指示体40の種類は、異なっていてもよい。例えば、使用者Aが自身の指を指示体40として操作面20に操作を行い、使用者Bがペン等の指示部材を指示体40として操作面20に操作を行うような態様であってもよい。
プロジェクター100は、複数の指示体40により同時に行われる操作を検出可能である。また、同時に使用される指示体40の種類は、異なっていてもよい。例えば、使用者Aが自身の指を指示体40として操作面20に操作を行い、使用者Bがペン等の指示部材を指示体40として操作面20に操作を行うような態様であってもよい。
図3は、位置検出装置150が検出する検出画像200の一例である。検出画像200は、操作面20における指示体40の指示位置を示す画像であり、指示体40の指示位置を示す指示位置画像201が含まれる。検出画像200は、図1に対応し、使用者の指である指示体40と、指示部材である指示体40との先端が、操作面20に接触させた状態を示す。検出画像200は、指示位置画像201が2つ検出され、それぞれの指示体40の指示位置が同時に検出されたことを示す。
図4は、プロジェクター100の構成を示すブロック図である。
プロジェクター100は、入力インターフェイス101、処理部110、フレームメモリー115、投射装置120、駆動回路130、操作部140、位置検出装置150及び制御部170を備える。以下では、入力インターフェイス101を、入力I/F101と略記する。
プロジェクター100は、入力インターフェイス101、処理部110、フレームメモリー115、投射装置120、駆動回路130、操作部140、位置検出装置150及び制御部170を備える。以下では、入力インターフェイス101を、入力I/F101と略記する。
入力I/F101は、外部装置との接続インターフェイスである。入力I/F101は、ケーブルを接続するコネクター、及び信号処理を行うインターフェイス回路を備える。入力I/F101には、ケーブルを介して接続された外部装置から画像信号が入力される。画像信号には、同期信号や画像データ含まれる。入力I/F101は、入力された画像信号を信号処理して同期信号や、画像データを取り出す。入力I/F101は、取り出した画像データや同期信号を処理部110に出力する。また、プロジェクター100に、無線通信部を設けて、外部装置から無線により供給される画像信号を無線通信部により受信する構成であってもよい。
処理部110は、画像処理部111及び描画処理部113を備える。処理部110には、入力I/F101から画像データや同期信号が入力され、後述する指示体検出部157から検出画像200が入力される。
画像処理部111は、入力された画像データをフレームメモリー115に展開する。フレームメモリーは、メモリーに相当する。フレームメモリー115は、1フレーム分の画像データを書き込みが可能な記憶領域を有するバンクを複数備える。フレームメモリー115は、例えば、SDRAMや、DDRにより構成される。SDRAMは、Synchronous Dynamic Random Access Memoryを省略した表記である。DDRは、Double−Data−Rate Synchronous Dynamic Random Access Memoryを省略した表記である。
画像処理部111は、フレームメモリー115に展開した画像データに対して画像処理を行う。画像処理部111が行う画像処理には、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等が含まれる。また、画像処理部111は、上記のうち複数の画像処理を組み合わせて実行することも可能である。
描画処理部113には、画像処理部111で処理された画像データに対して描画処理を行う。例えば、指示体検出部157から検出画像200が入力される指示体40の指示された操作面20の位置を対応した描画を行われる。
検出画像200は、後述する左カメラ151及び右カメラ152の撮影画像から操作面20の撮影範囲を切り出した画像に基づいて生成される。このため、検出画像200の全体は、操作面20の全体に対応する。すなわち、操作面20上の任意の位置に対応づけられた検出画像200上の位置が存在する。このため、描画処理部113は、検出画像200における指示位置画像201の位置を検出することで、操作面20における指示体40の指示位置を検出することができる。
検出画像200は、後述する左カメラ151及び右カメラ152の撮影画像から操作面20の撮影範囲を切り出した画像に基づいて生成される。このため、検出画像200の全体は、操作面20の全体に対応する。すなわち、操作面20上の任意の位置に対応づけられた検出画像200上の位置が存在する。このため、描画処理部113は、検出画像200における指示位置画像201の位置を検出することで、操作面20における指示体40の指示位置を検出することができる。
描画処理部113は、入力された検出画像200から、指示体40の指示位置を示す座標情報を取得する。例えば、検出画像200には縦軸及び横軸の直交座標系が設定されている。描画処理部113は、検出画像200から指示位置画像201を検出し、検出した指示位置画像201の検出画像200における座標を示す座標情報を取得する。
描画処理部113は、検出画像200から座標情報を取得すると、取得した座標情報を、フレームメモリー115の座標に変換する。フレームメモリー115にも縦軸及び横軸の直交座標系が設定されている。フレームメモリー115の座標系と、検出画像200の座標系とは対応づけがされている。すなわち、検出画像200の座標から、フレームメモリー115の座標に変換することがきる。描画処理部113は、取得した検出画像200における座標情報を、フレームメモリー115の位置を示す座標情報に変換する。
描画処理部113は、変換した座標情報が示すフレームメモリー115の位置に、文字や図形、記号等の描画データを重畳させる。フレームメモリー115には、すでに外部装置から入力された画像データが展開されている。描画処理部113は、座標情報が示すフレームメモリー115の位置の画像データを消去し、この消去した位置に描画データを展開する。
処理部110は、フレームメモリー115に展開された画像データ、又は、画像データ及び描画データを読み出し、読み出したデータを駆動回路130に出力する。処理部110は、フレームメモリー115に画像データだけが展開されている場合には、画像データを駆動回路130に出力する。また、処理部110は、フレームメモリー115に画像データ及び描画データが展開されている場合には、画像データ及び描画データを駆動回路130に出力する。
処理部110及びフレームメモリー115は、例えば、集積回路により構成される。また、集積回路の構成の一部にアナログ回路が含まれていてもよい。
投射装置120は、光源121、光変調装置123及び光学ユニット125を備える。
光源121には、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ光源が使用される。また、光源121として、LEDやレーザー光源等の固体光源を用いてもよい。投射装置120は、投射部に相当する。
光源121には、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ光源が使用される。また、光源121として、LEDやレーザー光源等の固体光源を用いてもよい。投射装置120は、投射部に相当する。
光変調装置123は、光源121が発する光を変調して画像光30を生成する光変調素子を備える。光変調素子には、例えば、透過型の液晶ライトバルブや、反射型の液晶ライトバルブ、デジタルミラーデバイス等を用いることができる。
光学ユニット125は、レンズやミラー等の光学素子を備え、光変調装置123により生成された画像光30を拡大して投射面10に投射する。
駆動回路130は、投射装置120を駆動する回路である。駆動回路130は、光源121、光変調装置123及び光学ユニット125を駆動する回路をそれぞれ別々に備えるが、簡略化のため、光源121、光変調装置123及び光学ユニット125を駆動する駆動回路130として示す。駆動回路130は、制御部170の制御に従って、光源121を点灯又は消灯させる。また、駆動回路130には、処理部110からデータが入力される。駆動回路130は、入力されたデータに対応した信号電圧を生成し、生成した信号電圧を、光変調装置123が備える光変調素子に印加する。これにより光変調素子を透過する光の透過量が制御され、光源121の光が画像光30に変調される。また、駆動回路130は、制御部170の制御に従って不図示のモーターを駆動し、光学ユニット125が備える投射レンズのレンズ位置や、ズームを調整する。
操作部140は、不図示のリモコンにより送信される赤外線信号を受光する。操作部140は、リモコンから受光した赤外線信号に対応した操作信号を制御部170に出力する。操作信号は、操作されたリモコンのスイッチに対応した信号である。
位置検出装置150は、左カメラ151、右カメラ152、左フレームメモリー153、右フレームメモリー154、キャリブレーションデータ記憶部155、画像前処理部156及び指示体検出部157を備える。
左カメラ151及び右カメラ152は、レンズ等の光学系にて集光された光を電気信号に変換する撮影素子であるCCDやCMOSを備える。CCDは、Charge Coupled Deviceを省略した表記である。CMOSは、Complementary Metal Oxide Semiconductorを省略した表記である。左カメラ151及び右カメラ152は、所定のフレームレートで操作面20を含む範囲を撮影して撮影画像を生成する。左カメラ151が撮影した撮影画像を左撮影画像といい、右カメラ152が撮影した撮影画像を右撮影画像という。左カメラ151は、第1撮影部に相当し、右カメラ152は、第2撮影部に相当する。
左カメラ151が生成した左撮影画像は、左フレームメモリー153に記憶され、右カメラ152が生成した右撮影画像は、右フレームメモリー154に記憶される。左フレームメモリー153及び右フレームメモリー154は、1フレーム分の撮影画像を書き込み可能な記憶領域を有するバンクを複数備える。左フレームメモリー153及び右フレームメモリー154は、例えば、SDRAMや、DDRにより構成される。
キャリブレーションデータ記憶部155は、キャリブレーションデータを記憶する。
キャリブレーションデータは、例えば、プロジェクター100の設置時や、アプリケーションプログラムの起動時に、画像前処理部156により生成されるデータである。キャリブレーションデータには、第1範囲情報、第2範囲情報、第1画像変形係数及び第2画像変形係数が含まれる。アプリケーションプログラムは、上述したインタラクティブ機能を実現する制御を行う制御プログラムである。
キャリブレーションデータは、例えば、プロジェクター100の設置時や、アプリケーションプログラムの起動時に、画像前処理部156により生成されるデータである。キャリブレーションデータには、第1範囲情報、第2範囲情報、第1画像変形係数及び第2画像変形係数が含まれる。アプリケーションプログラムは、上述したインタラクティブ機能を実現する制御を行う制御プログラムである。
第1範囲情報は、左撮影画像において、投射領域15が撮影された範囲を示す情報である。第2範囲情報は、右撮影画像において、投射領域15が撮影された範囲を示す情報である。第1範囲情報及び第2範囲情報は、例えば、プロジェクター100により、予め設定されたパターンを有するパターン画像を投射面10に投射させ、左カメラ151及び右カメラ152により投射面10を撮影する。左カメラ151の左撮影画像からパターン画像が撮影された範囲を検出することで、第1範囲情報が生成され、左カメラ151の右撮影画像からパターン画像が撮影された範囲を検出することで、第2範囲情報が生成される。
第1画像変形係数は、第1範囲情報に基づいて左撮影画像から切り出した画像の形状を矩形に変形する係数である。第2画像変形係数は、第2範囲情報に基づいて右撮影画像から切り出した画像の形状を矩形に変形する係数である。第1画像変形係数及び第2画像変形係数の生成手順については後述する。
画像前処理部156は、取得部及び生成部に相当する。画像前処理部156は、左フレームメモリー153から左撮影画像を読み出し、右フレームメモリー154から右撮影画像を読み出す。画像前処理部156が左フレームメモリー153から読み出す左撮影画像、及び右フレームメモリー154から読み出す右撮影画像は、同一のタイミング又は略同一のタイミングで左カメラ151及び右カメラ152により撮影された画像である。
画像前処理部156は、第1範囲情報に従い、左撮影画像の投射領域15が撮影された範囲を切り出す。切り出された画像を左切出画像230という。同様に、画像前処理部156は、第2範囲情報に従い、右撮影画像の投射領域15が撮影された範囲を切り出す。切り出された画像を右切出画像240という。
次に、画像前処理部156は、切り出した左切出画像230を、第1画像変形係数を用いて矩形の画像に変形する。矩形に変形された画像を左矩形画像211という。同様に、画像前処理部156は、切り出した範囲の右撮影画像を、第2画像変形係数を用いて矩形の画像に変形する。矩形に変形された画像を右矩形画像213という。左矩形画像211は、操作面20にキャリブレーションされた第1撮影画像に相当する。また、右矩形画像213は、操作面20にキャリブレーションされた第2撮影画像に相当する。
左矩形画像211及び右矩形画像213は、操作面20にキャリブレーションされた画像である。操作面20にキャリブレーションされた画像とは、操作面20における視差が0となるように調整された画像を意味する。左矩形画像211及び右矩形画像213は、矩形の画像であって、操作面20の位置であるZ=0の位置での視差が0になるように調整された画像である。また、左矩形画像211と右矩形画像213との視差は、操作面20の前方、すなわちZ軸の正方向に離れた物体ほど、視差が大きくなる。左矩形画像211と右矩形画像213との操作面20での視差を0に調整する方法については後述する。
次に、画像前処理部156は、左矩形画像211と右矩形画像213との輝度の差分を示す差分画像215を生成する。図5に、指示体40が1つの場合の左矩形画像211の一例を示し、図6に、指示体40が1つの場合の右矩形画像213の一例を示し、図7に、生成された差分画像215の一例を示す。
画像前処理部156は、左矩形画像211を構成する画素の輝度値から、右矩形画像213を構成する画素の輝度値を減算して差分画像215を生成する。例えば、画像前処理部156は、左矩形画像211と右矩形画像213とに座標系を設定する。画像前処理部156は、左矩形画像211の左上を原点とし、横方向をx軸、縦方向をy軸とする座標系を設定する。同様に、画像前処理部156は、右矩形画像213の左上を原点とし、横方向をx軸、縦方向をy軸とする座標系を設定する。次に、画像前処理部156は、左矩形画像211の画素を選択し、選択した画素と同一の座標に位置する右矩形画像213の画素を選択する。画像前処理部156は、選択した左矩形画像211の画素の輝度値から、選択した右矩形画像213の画素の輝度値を減算する。画像前処理部156は、この処理を、左矩形画像211を構成するすべての画素で繰り返し行い、差分画像215を生成する。
画像前処理部156は、左矩形画像211を構成する画素の輝度値から、右矩形画像213を構成する画素の輝度値を減算して差分画像215を生成する。例えば、画像前処理部156は、左矩形画像211と右矩形画像213とに座標系を設定する。画像前処理部156は、左矩形画像211の左上を原点とし、横方向をx軸、縦方向をy軸とする座標系を設定する。同様に、画像前処理部156は、右矩形画像213の左上を原点とし、横方向をx軸、縦方向をy軸とする座標系を設定する。次に、画像前処理部156は、左矩形画像211の画素を選択し、選択した画素と同一の座標に位置する右矩形画像213の画素を選択する。画像前処理部156は、選択した左矩形画像211の画素の輝度値から、選択した右矩形画像213の画素の輝度値を減算する。画像前処理部156は、この処理を、左矩形画像211を構成するすべての画素で繰り返し行い、差分画像215を生成する。
差分画像215は、指示体40の先端が操作面20に接した位置に対応する位置の輝度値が0の画像となる。前述したように左矩形画像211及び右矩形画像213は、操作面20での視差が0に調整された画像である。このため、指示体40の先端が操作面20に接した場合、接した指示体40の先端の輝度値が同一になり、差分画像215における輝度値が0になる。また、指示体40の先端以外の部分は、操作面20から離れているため、視差が0にはならず、差分画像215における輝度値は0にならない。画像前処理部156は、生成した左矩形画像211、右矩形画像213及び差分画像215を指示体検出部157に出力する。
また、画像前処理部156は、キャリブレーションデータを生成する。
図8及び図9を参照しながら画像前処理部156が実行するキャリブレーションについて説明する。図8は、キャリブレーション画像220の一例を示す図である。
画像前処理部156は、プロジェクター100の設置時、又はアプリケーションプログラムの起動時に、キャリブレーションを実行してキャリブレーションデータを生成する。キャリブレーションは、左カメラ151の座標系と右カメラ152の座標系とを、投射面10の座標系に対応させる処理であり、ステレオキャリブレーションとも言える。
図8及び図9を参照しながら画像前処理部156が実行するキャリブレーションについて説明する。図8は、キャリブレーション画像220の一例を示す図である。
画像前処理部156は、プロジェクター100の設置時、又はアプリケーションプログラムの起動時に、キャリブレーションを実行してキャリブレーションデータを生成する。キャリブレーションは、左カメラ151の座標系と右カメラ152の座標系とを、投射面10の座標系に対応させる処理であり、ステレオキャリブレーションとも言える。
まず、制御部170の制御により、図8に示すキャリブレーション画像220を投射装置120に投射させ、キャリブレーション画像220が投射された投射面10を左カメラ151及び右カメラ152に撮影させる。
図8に示すようにキャリブレーション画像220は、予め設定された形状のマーク225が、キャリブレーション画像220の縦方向及び横方向に等間隔で配置された画像である。本実施形態では、キャリブレーション画像220として、黒色の背景に、マーク225としての白色のドットをキャリブレーション画像220の縦方向及び横方向に等間隔で配置した画像を用いる。
画像前処理部156には、キャリブレーション画像220が投射された投射面10を左カメラ151で撮影した左撮影画像と、投射面10を右カメラ152で撮影した右撮影画像とが入力される。
画像前処理部156は、第1範囲情報を参照して、投射領域15が撮影された左撮影画像の領域を切り出して左切出画像230を生成する。同様に、画像前処理部156は、第2範囲情報を参照して、投射領域15が撮影された右撮影画像の領域を切り出して右切出画像240を生成する。
画像前処理部156は、第1範囲情報を参照して、投射領域15が撮影された左撮影画像の領域を切り出して左切出画像230を生成する。同様に、画像前処理部156は、第2範囲情報を参照して、投射領域15が撮影された右撮影画像の領域を切り出して右切出画像240を生成する。
左切出画像230に撮影されたマーク225と、右切出画像240に撮影されたマーク225との位置にはずれが生じている。画像前処理部156は、キャリブレーション画像220のマーク225の位置と、左切出画像230のマーク225の位置とを比較して、両画像のマーク225の位置が一致するように第1画像変形係数を決定する。また、画像前処理部156は、キャリブレーション画像220のマーク225の位置と、右切出画像240のマーク225の位置とを比較して、両画像のマーク225の位置が一致するように第2画像変形係数を決定する。
左切出画像230及び右切出画像240の変形方法は同一であるため、以下では、左切出画像230の変形方法について説明する。図9は、左切出画像230及び右切出画像240の形状を矩形に変形する変形方法を説明する説明図である。
画像前処理部156は、キャリブレーション画像220のマーク225の位置と、左切出画像230のマークの位置とを比較し、キャリブレーション画像220の頂点と、左切出画像230の頂点とを比較する。画像前処理部156は、これらの比較結果に基づき、左切出画像230をキャリブレーション画像220と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第1画像変形係数として決定する。同様に、画像前処理部156は、キャリブレーション画像220のマーク225の位置と、右切出画像240のマーク225の位置とを比較し、キャリブレーション画像220の頂点と、右切出画像240の頂点とを比較する。画像前処理部156は、これらの比較結果に基づき、右切出画像240をキャリブレーション画像220と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第2画像変形係数として決定する。
画像前処理部156は、キャリブレーション画像220のマーク225の位置と、左切出画像230のマークの位置とを比較し、キャリブレーション画像220の頂点と、左切出画像230の頂点とを比較する。画像前処理部156は、これらの比較結果に基づき、左切出画像230をキャリブレーション画像220と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第1画像変形係数として決定する。同様に、画像前処理部156は、キャリブレーション画像220のマーク225の位置と、右切出画像240のマーク225の位置とを比較し、キャリブレーション画像220の頂点と、右切出画像240の頂点とを比較する。画像前処理部156は、これらの比較結果に基づき、右切出画像240をキャリブレーション画像220と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第2画像変形係数として決定する。
第1画像変形係数は、左切出画像230の各マーク225の位置が、キャリブレーション画像220に形成されたマーク225の位置に一致するように左切出画像230の形状を変形する係数である。また、第2画像変形係数は、右切出画像240の各マーク225の位置が、キャリブレーション画像220に形成されたマーク225の位置に一致するように右切出画像240の形状を変形する係数である。このため、第1画像変形係数により変形された左切出画像230と、第2画像変形係数により変形された右切出画像240とは、キャリブレーション画像220に一致するように変形される。このため、投射面10での視差が生じないように左切出画像230及び右切出画像240が変形される。
指示体検出部157は、出力部に相当する。指示体検出部157は、AIであり、学習済みモデルを構成するソフトウェア、又はソフトウェア及びハードウェアにより構成される。AIは、Artificial Intelligenceを省略した表記である。指示体検出部157は、学習済みモデルとして畳み込みニューラルネットワークを備える。学習済みモデルは、入力画像である左矩形画像211、右矩形画像213及び差分画像215から指示体40による指示位置を示す検出画像200を生成する学習を済ませたモデルである。学習済みモデルは、例えば、学習済みのニューラルネットワークを規定するモデルであり、例えば、ニューラルネットワークを構成するノードであるニューロン同士の間の結合の重みの情報の集合として表現される。指示体検出部157は、左矩形画像211、右矩形画像213及び差分画像215を学習済みモデルに入力して、指示体40による指示位置を示す検出画像200を生成する。生成した検出画像200は、処理部110に出力される。
次に、制御部170について説明する。
制御部170は、記憶部171及びプロセッサー173を備えるコンピューター装置である。記憶部171は、RAM等の揮発性の記憶装置と、ROMやフラッシュメモリー等の不揮発性の記憶装置とを備える。記憶部171は、プロセッサー173が実行する制御プログラムを記憶する。制御プログラムには、例えば、ファームウェアや、インタラクティブ機能を実現するアプリケーションプログラムが含まれる。RAMは、Random access memoryを省略した表記であり、ROMは、Read Only Memoryを省略した表記である。
制御部170は、記憶部171及びプロセッサー173を備えるコンピューター装置である。記憶部171は、RAM等の揮発性の記憶装置と、ROMやフラッシュメモリー等の不揮発性の記憶装置とを備える。記憶部171は、プロセッサー173が実行する制御プログラムを記憶する。制御プログラムには、例えば、ファームウェアや、インタラクティブ機能を実現するアプリケーションプログラムが含まれる。RAMは、Random access memoryを省略した表記であり、ROMは、Read Only Memoryを省略した表記である。
プロセッサー173は、CPUやMPUにより構成される演算処理装置である。プロセッサー173は、制御プログラムを実行してプロジェクター100の各部を制御する。プロセッサー173は、単一のプロセッサーにより構成してもよいし、複数のプロセッサーにより構成することも可能である。また、プロセッサー173は、記憶部171の一部又は全部や、その他の回路と統合されたSoCにより構成してもよい。また、プロセッサー173は、プログラムを実行するCPUと、所定の演算処理を実行するDSPとの組合せにより構成してもよい。さらに、プロセッサー173の機能の全てをハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。CPUは、Central Processing Unitを省略した表記であり、MPUは、Micro Processing Unitを省略した表記である。
制御部170は、入力I/F101に画像信号が入力されると、処理部110や、駆動回路130を制御して、入力された画像信号に対応した画像光30を生成させ、生成させた画像光30を投射装置120により投射面10に投射させる。
また、制御部170は、操作部140から操作信号が入力されると、入力された操作信号に対応した処理を実行させる。例えば、制御部170は、アプリケーションプログラムを起動させる操作信号が入力された場合、アプリケーションプログラムを起動させる。制御部170は、アプリケーションプログラムを実行して位置検出装置150を動作させ、インタラクティブ機能を実行する。
また、制御部170は、操作部140から操作信号が入力されると、入力された操作信号に対応した処理を実行させる。例えば、制御部170は、アプリケーションプログラムを起動させる操作信号が入力された場合、アプリケーションプログラムを起動させる。制御部170は、アプリケーションプログラムを実行して位置検出装置150を動作させ、インタラクティブ機能を実行する。
図10に示すフローチャートを参照しながら、プロジェクター100の動作について説明する。
まず、制御部170は、アプリケーションプログラムが起動されたか否かを判定する(ステップS1)。制御部170は、操作部140から所定の操作信号を受信した場合に、アプリケーションプログラムが起動されたと判定する。リモコンには、アプリケーションプログラムを起動させるボタンが設けられている。操作部140は、リモコンからこのボタンが操作された場合に出力される赤外線信号を受信すると、所定の操作信号を制御部170に出力する。
まず、制御部170は、アプリケーションプログラムが起動されたか否かを判定する(ステップS1)。制御部170は、操作部140から所定の操作信号を受信した場合に、アプリケーションプログラムが起動されたと判定する。リモコンには、アプリケーションプログラムを起動させるボタンが設けられている。操作部140は、リモコンからこのボタンが操作された場合に出力される赤外線信号を受信すると、所定の操作信号を制御部170に出力する。
制御部170は、アプリケーションプログラムが起動された場合(ステップS1/YES)、アプリケーションプログラムを実行する。まず、制御部170は、記憶部171からキャリブレーション画像220を読み出し、読み出したキャリブレーション画像220を処理部110に処理させる。処理部110により処理されたキャリブレーション画像220は、駆動回路130に入力され、駆動回路130が、入力されたデータに対応した信号電圧を生成して光変調装置123を駆動することで、光源121から射出された光が画像光30に変調される。変調された画像光30は、投射装置120により投射面10に投射され、投射面10には、画像光30に対応した画像が表示される(ステップS2)。
制御部170は、左カメラ151及び右カメラ152に撮影を実行させる(ステップS3)。以降、制御部170は、位置検出装置150の各部を制御し、位置検出装置150に、変形係数を生成させ、インタラクティブ機能を実行させる。
画像前処理部156は、左カメラ151の左撮影画像が左フレームメモリー153に記憶されると、この左フレームメモリー153から左撮影画像を読み出す。また、位置検出装置150の画像前処理部156は、右カメラ152の右撮影画像が右フレームメモリー154に記憶されると、この右フレームメモリー154から右撮影画像を読み出す。
画像前処理部156は、第1範囲情報に従い、読み出した左撮影画像から投射領域15の撮影範囲を切り出す(ステップS4)。同様に、画像前処理部156は、第2範囲情報に従い、読み出した右撮影画像から投射領域15の撮影範囲を切り出す(ステップS4)。
次に、画像前処理部156は、左撮影画像から切り出した画像と、キャリブレーション画像220とを比較して、切り出した画像の形状を、キャリブレーション画像220と同一の矩形に変形するための変形量である第1画像変形係数を決定する(ステップS5)。同様に、画像前処理部156は、右撮影画像から切り出した画像と、キャリブレーション画像220とを比較して、切り出した画像の形状を、キャリブレーション画像220と同一の矩形に変形するための変形量である第2画像変形係数を決定する(ステップS5)。画像前処理部156は、生成した第1画像変形係数及び第2画像変形係数を、キャリブレーションデータとして、キャリブレーションデータ記憶部155に記憶させる。
制御部170は、第1画像変形係数及び第2画像変形係数が決定され、決定した第1画像変形係数及び第2画像変形係数がキャリブレーションデータ記憶部155に記憶されると、左カメラ151及び右カメラ152に撮影を実行させる(ステップS6)。
画像前処理部156は、左カメラ151により撮影された左撮影画像を左フレームメモリー153から読み出し、右カメラ152により撮影された右撮影画像を右フレームメモリー154から読み出す(ステップS7)。画像前処理部156は、読み出した左撮影画像及び右撮影画像に対して前処理を実行する(ステップS8)。ステップS8は、取得ステップに相当する。
画像前処理部156は、第1範囲情報に従い、読み出した左撮影画像から、投射領域15の撮影範囲を切り出し左切出画像230を生成する。また、画像前処理部156は、第2範囲情報に従い、読み出した右撮影画像から、投射領域15の撮影範囲を切り出し右切出画像240を生成する。
次に、画像前処理部156は、第1画像変形係数を用いて、生成した左切出画像230を左矩形画像211に変形する。また、画像前処理部156は、第2画像変形係数を用いて、生成した右切出画像240を右矩形画像213に変形する。
次に、画像前処理部156は、第1画像変形係数を用いて、生成した左切出画像230を左矩形画像211に変形する。また、画像前処理部156は、第2画像変形係数を用いて、生成した右切出画像240を右矩形画像213に変形する。
次に、画像前処理部156は、左矩形画像211を構成する各画素の輝度値から右矩形画像213を構成する各画素の輝度値を減算して、輝度値の差分を示す差分画像215を生成する(ステップS9)。ステップS9は、生成ステップに相当する。画像前処理部156は、左矩形画像211の画素を選択し、選択した画素と同一の座標に位置する右矩形画像213の画素を選択する。画像前処理部156は、選択した左矩形画像211の画素の輝度値から、選択した右矩形画像213の画素の輝度値を減算して、差分画像215を生成する。画像前処理部156は、生成した左矩形画像211、右矩形画像213及び差分画像215を指示体検出部157に出力する。
指示体検出部157は、左矩形画像211、右矩形画像213及び差分画像215を学習済みモデルに入力して、指示体40による指示位置を示す検出画像200を生成する(ステップS10)。ステップS10は、出力ステップに相当する。指示体検出部157は、生成した検出画像200を処理部110に出力する(ステップS11)。
処理部110は、入力された検出画像200から指示位置画像201を検出し、検出した指示位置画像201の検出画像200における位置を示す座標情報を取得する。処理部110は、取得した座標情報を、フレームメモリー115の座標に変換する(ステップS12)。次に、処理部110は、変換したフレームメモリー115の座標が示す位置の画像データを削除し、削除した位置に描画データを重畳させる(ステップS13)。処理部110は、描画データをフレームメモリー115に重畳させると、フレームメモリー115に展開したデータを読み出して駆動回路130に出力する。駆動回路130は、入力されたデータに対応した信号電圧を生成し、生成した信号電圧により光変調装置123を駆動する。これにより、光源121から射出された光が画像光30に変調され、画像光30が生成される(ステップS14)。生成された画像光30は、投射装置120により投射面10に投射され(ステップS15)、投射面10には、画像光30に対応した画像が表示される。
次に、制御部170は、アプリケーションプログラムを終了させる操作が入力されたか否かを判定する(ステップS16)。制御部170は、アプリケーションプログラムを終了させる操作が入力されていない場合(ステップS16/NO)、位置検出装置150に、ステップS6からの処理を継続させる。また、制御部170は、アプリケーションプログラムを終了させる操作が入力されると(ステップS16/YES)、この処理フローを終了させる。
以上説明したように本実施形態のプロジェクター100は、指示体40により指示される操作面20の指示位置を検出する位置検出方法として、取得ステップ、生成ステップ及び出力ステップの各ステップを実行する。取得ステップは、撮影視点が異なる左カメラ151及び右カメラ152により操作面20を撮影し、操作面20にキャリブレーションされた左矩形画像211と右矩形画像213とを取得する。生成ステップは、左矩形画像211と右矩形画像213との輝度値の差分画像215を生成する。
プロジェクター100が、画像光30を投射する投射面10のような広範囲を、高精度に位置検出しようとした場合、ToF方式では、高解像度化のために画素サイズを小さくすると、フレームレートが低下するという問題があった。
また、スリット光等の構造化光を投射面10に投射し、カメラでその像を撮影して3次元位置を検出する構造化光方式では、高精度化のためにパターン・セットの解像度を上げると、コストの増加になり、高精度化した場合、フレームレートが低下した。
これに対して本実施形態では、左矩形画像211、右矩形画像213及び差分画像215を学習済みモデルに入力することで、指示体40により指示された操作面20の指示位置が示された検出画像200が出力される。このため、指示体40により指示された指示位置ごとに処理する必要がなく、処理量の増加を抑制することができる。
また、スリット光等の構造化光を投射面10に投射し、カメラでその像を撮影して3次元位置を検出する構造化光方式では、高精度化のためにパターン・セットの解像度を上げると、コストの増加になり、高精度化した場合、フレームレートが低下した。
これに対して本実施形態では、左矩形画像211、右矩形画像213及び差分画像215を学習済みモデルに入力することで、指示体40により指示された操作面20の指示位置が示された検出画像200が出力される。このため、指示体40により指示された指示位置ごとに処理する必要がなく、処理量の増加を抑制することができる。
取得ステップは、左カメラ151の撮影画像から操作面20に対応する領域を切り出して左切出画像230を生成し、右カメラ152の撮影画像から操作面20に対応する領域を切り出して右切出画像240を生成する。また、取得ステップは、左切出画像230及び右切出画像240の形状を、予め設定された変形係数により変形して、操作面20において視差の生じない左矩形画像211と右矩形画像213とを取得する。
従って、指示体が操作面20に接触した状態では、左矩形画像211と右矩形画像213とに視差が生じない。このため、左矩形画像211と右矩形画像213との輝度値の差を求めて差分画像215を生成することで、差分画像215において輝度値が0の位置を、指示体40の接触位置として示すことができる。
従って、指示体が操作面20に接触した状態では、左矩形画像211と右矩形画像213とに視差が生じない。このため、左矩形画像211と右矩形画像213との輝度値の差を求めて差分画像215を生成することで、差分画像215において輝度値が0の位置を、指示体40の接触位置として示すことができる。
上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形が可能である。
例えば、上述した実施形態では、プロジェクター100が左カメラ151及び右カメラ152を備える構成を説明したが、プロジェクター100とは別体で、左カメラ151及び右カメラ152を備えた撮影部を設けてもよい。
例えば、上述した実施形態では、プロジェクター100が左カメラ151及び右カメラ152を備える構成を説明したが、プロジェクター100とは別体で、左カメラ151及び右カメラ152を備えた撮影部を設けてもよい。
また、3つ以上の指示体40が用いられてもよい。
また、プロジェクター100に、指示体40の検出に用いる検出光を照射する検出光照射部を設けてもよい。検出光は、指示体40の検出に用いられる光であり、例えば、赤外光が用いられる。赤外光を用いることにより、可視光を主とする画像光30の影響を受けずに指示体40を検出でき、また、画像光30による表示にも影響を与えない。検出光照射部は、検出光を、投射面10の少なくとも一部を含む範囲に照射する。また、検出光照射部を設けた構成の場合、左カメラ151及び右カメラ152に、検出光の反射光を受光するための赤外線フィルターを設ける。また、検出光照射部は、プロジェクター100とは別体で設けてもよい。
位置検出装置150が、検出画像200に基づいて、指示体40の指示位置の座標情報を検出してもよい。これにより、プロジェクター100は、描画以外の指示体40の指示位置に対応づけられた処理を行うことができる。
また、図4に示すプロジェクター100の各機能部は、機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクターの他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図10に示すフローチャートの処理単位は、プロジェクター100の処理を理解容易にするために、主な処理内容に応じて分割したものである。図10のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部170や位置検出装置150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、図10に示すフローチャートでは、制御部170は、アプリケーションプログラムの起動時に、第1画像変形係数及び第2画像変形係数を生成したが、プロジェクター100の設置時に生成してもよい。例えば、操作部140がリモコンに設けられた所定ボタンに対応した信号を受信した場合に、制御部170は、プロジェクター100の設置時であると判定してもよい。また、プロジェクター100の工場出荷後、プロジェクター100の電源が最初にオンされた場合に、制御部170は、プロジェクター100の設置時であると判定してもよい。
また、位置検出方法を、プロジェクター100が備えるコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD、CD−ROM、DVD、Blu−ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu−rayは、登録商標である。
10…投射面、15…投射領域、20…操作面、30…画像光、40…指示体、100…プロジェクター、101…入力I/F、110…処理部、111…画像処理部、113…描画処理部、115…フレームメモリー、120…投射装置、121…光源、123…光変調装置、125…光学ユニット、130…駆動回路、140…操作部、150…位置検出装置、151…左カメラ、152…右カメラ、153…左フレームメモリー、154…右フレームメモリー、155…キャリブレーションデータ記憶部、156…画像前処理部、157…指示体検出部、170…制御部、171…記憶部、173…プロセッサー、200…検出画像、201…指示位置画像、211…左矩形画像、213…右矩形画像、215…差分画像、220…キャリブレーション画像、225…マーク、230…左切出画像、240…右切出画像。
Claims (6)
- 指示体により指示される操作面の指示位置を検出する位置検出方法であって、
撮影視点が異なる第1撮影部及び第2撮影部により前記操作面を撮影し、前記操作面にキャリブレーションされた第1撮影画像と第2撮影画像とを取得する取得ステップと、
前記第1撮影画像と前記第2撮影画像との輝度値の差分画像を生成する生成ステップと、
前記第1撮影画像と、前記第2撮影画像と、前記差分画像とを学習済みモデルに入力して、前記操作面の指示位置が示された検出画像を出力する出力ステップと、を有する位置検出方法。 - 取得ステップは、
前記第1撮影部の撮影画像から前記操作面に対応する領域を切り出して左切出画像を生成し、
前記第2撮影部の撮影画像から前記操作面に対応する領域を切り出して右切出画像を生成し、
前記左切出画像及び前記右切出画像の形状を、予め設定された変形係数により変形して、前記操作面において視差の生じない前記第1撮影画像と前記第2撮影画像とを取得する、請求項1記載の位置検出方法。 - 前記指示体は、複数の指示体を含み、
前記検出画像は、前記複数の指示体に対応する前記指示位置が示され、
前記検出画像に基づき、複数の前記指示位置を取得する、請求項1記載の位置検出方法。 - 指示体により指示される操作面の指示位置を検出する位置検出装置であって、
撮影視点が異なる第1撮影部及び第2撮影部により操作面を撮影し、前記操作面にキャリブレーションされた第1撮影画像と第2撮影画像とを取得する取得部と、
前記第1撮影画像と前記第2撮影画像との輝度値の差分画像を生成する生成部と、
前記第1撮影画像と、前記第2撮影画像と、前記差分画像とを学習済みモデルに入力して、前記操作面の指示位置が示された検出画像を出力する出力部と、を備える位置検出装置。 - 前記指示体は、複数の指示体を含み、
前記検出画像は、前記複数の指示体に対応する前記指示位置が示され、
前記検出画像に基づき、複数の前記指示位置を取得する、請求項4記載の位置検出装置。 - 請求項4記載の位置検出装置と、
画像データが展開される記憶領域を有するメモリーと、
前記メモリーに展開された画像データに基づく画像を投射する投射部と、
前記検出画像に基づき、前記指示体により指示された前記操作面の指示位置を取得し、取得した前記指示位置に対応づけられた前記記憶領域の位置に描画データを展開する処理部と、を備え、
前記投射部は、前記記憶領域に展開された前記画像データ及び前記描画データに基づく画像を投射する、プロジェクター。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020099361A JP2021193500A (ja) | 2020-06-08 | 2020-06-08 | 位置検出方法、位置検出装置及びプロジェクター |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020099361A JP2021193500A (ja) | 2020-06-08 | 2020-06-08 | 位置検出方法、位置検出装置及びプロジェクター |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021193500A true JP2021193500A (ja) | 2021-12-23 |
Family
ID=79169046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020099361A Pending JP2021193500A (ja) | 2020-06-08 | 2020-06-08 | 位置検出方法、位置検出装置及びプロジェクター |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021193500A (ja) |
-
2020
- 2020-06-08 JP JP2020099361A patent/JP2021193500A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6459194B2 (ja) | プロジェクター、及び投写画像制御方法 | |
TW200425736A (en) | Image processing system, projector and image processing method | |
JP2010130225A (ja) | 投写型表示装置および投写用調整方法 | |
JP2010050540A (ja) | 投写型表示装置および表示方法 | |
JP2010050542A (ja) | 投写型表示装置および表示方法 | |
CN112272292B (zh) | 投影校正方法、装置和存储介质 | |
JP5239611B2 (ja) | 投写型表示装置および画像の補正方法 | |
KR101691880B1 (ko) | 자동 캘리브레이션 기능이 구비된 인터액티브 시스템 및 인터액티브 시스템의 자동 캘리브레이션 방법 | |
JP2017083550A (ja) | 情報処理装置、画像投影システムおよびプログラム | |
JP7163943B2 (ja) | 情報生成方法、情報生成システム、及びプログラム | |
JP2016085380A (ja) | 制御装置、制御方法、及び、プログラム | |
JP2019176356A (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
CN107872659B (zh) | 投影装置以及投影方法 | |
JP4428371B2 (ja) | 投写型画像表示装置及び平面被投写体 | |
JP2008294545A (ja) | 投射型映像表示装置及び投射型映像表示システム | |
JP2021128660A (ja) | 操作検出方法、操作検出装置及び表示システム | |
JP3879560B2 (ja) | 投写型画像表示装置 | |
JPWO2018042582A1 (ja) | 投射型映像表示装置および投射映像の調整方法 | |
JPWO2018012524A1 (ja) | 投影装置、投影方法および投影制御プログラム | |
JP2021193500A (ja) | 位置検出方法、位置検出装置及びプロジェクター | |
US11991481B2 (en) | Display method, information processing device, and non-transitory computer-readable storage medium storing program | |
CN114339179A (zh) | 投影校正方法、装置、存储介质以及投影设备 | |
KR20190043032A (ko) | 이미지에 포함된 오브젝트에 기반하여 이미지를 보정하기 위한 전자 장치 및 방법 | |
JP2021193499A (ja) | 位置検出システム、位置検出装置、プロジェクター及び位置検出方法 | |
JP2022147145A (ja) | プロジェクタ、投影システム、補正値修正方法及びプログラム |