JP2021190945A - 補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター - Google Patents
補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター Download PDFInfo
- Publication number
- JP2021190945A JP2021190945A JP2020097136A JP2020097136A JP2021190945A JP 2021190945 A JP2021190945 A JP 2021190945A JP 2020097136 A JP2020097136 A JP 2020097136A JP 2020097136 A JP2020097136 A JP 2020097136A JP 2021190945 A JP2021190945 A JP 2021190945A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- light
- visible light
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】撮像レンズに起因する倍率色収差の影響を低減するための補正データを提供可能になる。【解決手段】補正データ生成方法は、所定画像が示される撮像面を、撮像レンズを介してイメージセンサーによって可視光で撮像することによって、可視光画像データを生成し、前記撮像面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像することによって、赤外光画像データを生成し、前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成する。【選択図】図3
Description
本発明は、補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクターに関する。
特許文献1は、投射面における指示体の位置に基づいて投射画像を制御可能なインタラクティブプロジェクターを開示する。
インタラクティブプロジェクターは、投射面における指示体の位置に基づいて投射画像を制御するために、キャリブレーションデータを用いる。キャリブレーションデータは、投射面を撮像するイメージセンサーにおける位置と、投射面に投射される投射画像を生成する液晶パネル等のパネルにおける位置と、の対応関係を示す。
キャリブレーションデータは、以下のように生成される。
パネルによって生成される可視光のキャリブレーション画像が投射面に投射される状況において、イメージセンサーが、撮像レンズを介して投射面を可視光で撮像することによって、第1画像を示す第1撮像データを生成する。インタラクティブプロジェクターは、第1画像におけるキャリブレーション画像の位置に基づいて、イメージセンサーにおける位置とパネルにおける位置との対応関係を示すキャリブレーションデータを生成する。
パネルによって生成される可視光のキャリブレーション画像が投射面に投射される状況において、イメージセンサーが、撮像レンズを介して投射面を可視光で撮像することによって、第1画像を示す第1撮像データを生成する。インタラクティブプロジェクターは、第1画像におけるキャリブレーション画像の位置に基づいて、イメージセンサーにおける位置とパネルにおける位置との対応関係を示すキャリブレーションデータを生成する。
キャリブレーションデータが生成された後、イメージセンサーは、指示体によって指示される投射面を、撮像レンズを介して赤外光で撮像することによって、第2画像を示す第2撮像データを生成する。インタラクティブプロジェクターは、第2画像に基づいて、イメージセンサーにおいて指示体の一部の像が形成される像位置を特定する。インタラクティブプロジェクターは、パネルにおいて当該像位置に対応する対応位置を、キャリブレーションデータを用いて特定する。インタラクティブプロジェクターは、パネルにおける対応位置に線等を描画する。
第1画像を示す第1撮像データは、撮像レンズを介する可視光での撮像によって生成される。一方、第2画像を示す第2撮像データは、撮像レンズを介する赤外光での撮像によって生成される。
このため、撮像レンズに起因する倍率色収差の影響により、第2画像において、指示体の一部の像が示される位置、例えば、指示体の先端部分の像が示される位置が、第1画像において指示体の一部の像が示される位置と異なり得る。
よって、特許文献1に記載のインタラクティブプロジェクターは、パネルにおける対応位置を特定する処理において倍率色収差に起因する誤差を生じる可能性を有する。したがって、倍率色収差の影響を低減するための補正データを生成する手法が望まれる。
本発明に係る補正データ生成方法の一態様は、所定画像が示される撮像面を、撮像レンズを介してイメージセンサーによって可視光で撮像することによって、可視光画像データを生成し、前記撮像面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像することによって、赤外光画像データを生成し、前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成する。
本発明に係るプロジェクターの制御方法の一態様は、所定画像が示される撮像面を、撮像レンズを介してイメージセンサーによって可視光で撮像することによって、可視光画像データを生成し、前記撮像面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像することによって、赤外光画像データを生成し、前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成し、複数のマークを示す可視光のキャリブレーション画像をパネルによって生成し、前記キャリブレーション画像を投射面に投射し、前記キャリブレーション画像が前記投射面に投射される投射状況において、前記投射面を、前記撮像レンズを介して前記イメージセンサーによって可視光で撮像することによって、キャリブレーション画像データを生成し、前記キャリブレーション画像データが示す画像における前記複数のマークの位置を、前記補正データに基づいて補正することによって、前記投射状況において、前記投射面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像する場合に生成される赤外画像における前記複数のマークの位置を決定し、前記赤外画像における前記複数のマークの位置に基づいて、前記イメージセンサーにおける位置と前記パネルにおける位置との対応関係を示すキャリブレーションデータを生成する。
本発明に係る補正データ生成装置の一態様は、撮像レンズと、所定画像が示される撮像面を、前記撮像レンズを介して可視光で撮像することによって可視光画像データを生成し、また、前記撮像面を、前記撮像レンズを介して赤外光で撮像することによって赤外光画像データを生成するイメージセンサーと、前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成する生成部と、を含む。
本発明に係るプロジェクターの一態様は、上述の補正データ生成装置と、複数のマークを示す可視光のキャリブレーション画像を生成するパネルと、前記キャリブレーション画像を投射面に投射する投射レンズと、を含み、前記イメージセンサーは、さらに、前記キャリブレーション画像が前記投射面に投射される投射状況において、前記投射面を、前記撮像レンズを介して可視光で撮像することによって、キャリブレーション画像データを生成し、前記キャリブレーション画像データが示す画像における前記複数のマークの位置を、前記補正データに基づいて補正することによって、前記投射状況において、前記投射面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像する場合に生成される赤外画像における前記複数のマークの位置を決定する補正部と、前記赤外画像における前記複数のマークの位置に基づいて、前記イメージセンサーにおける位置と前記パネルにおける位置との対応関係を示すキャリブレーションデータを生成するキャリブレーションデータ生成部と、を含む。
A.第1実施形態
A1.プロジェクターシステム1000の概要
図1は、プロジェクターシステム1000を示す図である。プロジェクターシステム1000は、第1実施形態に係るプロジェクター1と、指示体2と、を含む。
A1.プロジェクターシステム1000の概要
図1は、プロジェクターシステム1000を示す図である。プロジェクターシステム1000は、第1実施形態に係るプロジェクター1と、指示体2と、を含む。
プロジェクター1は、可視光画像S1を投射面4に投射する。可視光画像S1は、可視光によって示される。可視光画像S1は、例えば、文字、数字、グラフ、表、図、絵、写真および動画の少なくともいずれか1つを表す。
可視光画像S1は、画像情報に基づく画像である。画像情報は、パーソナルコンピューター等の外部装置からプロジェクター1に提供される。画像情報が記録された可搬型記録媒体が、プロジェクター1に接続される場合、プロジェクター1は、可搬型記録媒体から画像情報を取得してもよい。可搬型記録媒体は、例えば、USB(Universal Serial Bus)メモリーである。
投射面4は、スクリーンである。投射面4は、スクリーンに限らず、例えば、ホワイトボード、壁、または、扉でもよい。
プロジェクター1は、投射面4の上端4aよりも上方の壁に設置される。プロジェクター1は、机、テーブルまたは床の上に配置されてもよい。プロジェクター1は、天井から吊るされてもよい。
指示体2は、ペン型の指示具である。指示体2の形状は、ペンの形状に限らず、例えば、円柱、角柱、円錐または角錐でもよい。
ユーザーは、指示体2を用いることによって投射面4を指示する。投射面4には可視光画像S1が投射されるので、投射面4を指示することは、可視光画像S1を指示することも意味する。ユーザーは、指示体2の軸部2bを持ち、先端2aを投射面4にタッチさせながら指示体2を投射面4上で移動する。
プロジェクター1は、カメラ15で投射面4を撮像することによって画像データを生成する。プロジェクター1は、画像データに基づいて、投射面4のうち指示体2によってタッチされるタッチ部分4bの位置、すなわち、タッチ位置を検出する。プロジェクター1は、指示体2が非発光指示体の場合、検出光等の反射強度に基づいてタッチを検出する。また、プロジェクター1は、指示体2が発光指示体の場合、後述する指示体2の発光によりタッチを検出する。
プロジェクター1は、タッチ位置に基づいて、タッチ位置に対応付けられた処理を行う。例えば、プロジェクター1は、可視光画像S1を、タッチ位置の軌跡を示す可視光画像に変更する。可視光画像S1の変更は、タッチ位置の軌跡を示す可視光画像への変更に限らない。
A2.指示体2の一例
図2は、指示体2の一例を示す図である。指示体2は、タッチ位置をプロジェクター1に認識させるために赤外光を出射する。指示体2は、電源21と、第1通信部22と、第1光源23と、スイッチ24と、第1記憶部25と、第1制御部26と、を含む。
図2は、指示体2の一例を示す図である。指示体2は、タッチ位置をプロジェクター1に認識させるために赤外光を出射する。指示体2は、電源21と、第1通信部22と、第1光源23と、スイッチ24と、第1記憶部25と、第1制御部26と、を含む。
電源21は、第1通信部22と、第1光源23と、スイッチ24と、第1記憶部25と、第1制御部26とに、不図示の電力線を介して電力を供給する。電源21は、指示体2が有する不図示の電源ボタンがオンされると、電力の供給を開始する。電源21は、電源ボタンがオフされると、電力の供給を停止する。
第1通信部22は、プロジェクター1とBluetoothで無線通信する。Bluetoothは登録商標である。第1通信部22とプロジェクター1との無線通信の方式は、Bluetoothに限らず、例えば、赤外線通信方式またはWi−Fiでもよい。Wi−Fiは登録商標である。Bluetooth、赤外線通信方式およびWi−Fiは、近距離無線方式の一例である。第1通信部22とプロジェクター1との無線通信の方式は、近距離無線方式に限らず他の通信方式でもよい。
第1通信部22は、プロジェクター1から同期信号を受信する。同期信号は、指示体2の発光タイミングを、カメラ15の撮像タイミングに同期させるために用いられる。
第1光源23は、赤外光を出射するLED(Light Emitting Diode)を含む。第1光源23は、LEDを含まずに、例えば、赤外光を出射するLD(Laser Diode)を含んでもよい。
スイッチ24は、指示体2の先端2aに大気圧以上の圧力が加わるとオンし、先端2aに加えられた圧力が解消されるとオフする。スイッチ24は、先端2aが投射面4に接触しているか否かを検出するセンサーとして機能する。指示体2は、スイッチ24がオンされると、投射面4に接触していることの通知として、第1光源23により赤外光を出射する。
第1記憶部25は、コンピューターが読み取り可能な記録媒体である。第1記憶部25は、例えば、不揮発性メモリーと揮発性メモリーとを含む。
不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。第1記憶部25は、第1プログラムと、各種のデータと、を記憶する。
第1制御部26は、例えば、1または2以上のプロセッサーによって構成される。一例を挙げると、第1制御部26は、1または2以上のCPU(Central Processing Unit)によって構成される。1または2以上のプロセッサー、および、1または2以上のCPUは、それぞれ、コンピューターの一例である。
第1制御部26の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。第1制御部26は、各種の処理を、並列的または逐次的に実行する。
第1制御部26は、第1記憶部25から第1プログラムを読み取る。第1制御部26は、第1プログラムを実行することによって種々の機能を実現する。例えば、第1制御部26は、スイッチ24がオンしている状況において、同期信号の受信タイミングに基づくタイミングで第1光源23を点灯させる。
A3.プロジェクター1の一例
図3は、プロジェクター1の一例を示す図である。プロジェクター1は、補正データ生成装置10と、操作部11と、第2通信部13と、を含む。補正データ生成装置10は、投射部14と、カメラ15と、第2記憶部16と、処理部17と、を含む。
図3は、プロジェクター1の一例を示す図である。プロジェクター1は、補正データ生成装置10と、操作部11と、第2通信部13と、を含む。補正データ生成装置10は、投射部14と、カメラ15と、第2記憶部16と、処理部17と、を含む。
操作部11は、各種の操作ボタン、操作キーまたはタッチパネルを含む。操作部11は、ユーザーの入力操作を受け取る。
第2通信部13は、指示体2の第1通信部22とBluetoothで無線通信を行う。無線通信の方式は、上述の通り、Bluetoothに限らず、例えば、赤外線通信またはWi−Fiでもよい。
投射部14は、可視光画像S1を示す駆動信号を処理部17から受け取る。駆動信号は、可視光画像S1を示す画像情報に基づいて生成される。例えば、処理部17は、パーソナルコンピューター等の外部装置から受信した画像情報に画像処理を施すことによって駆動信号を生成する。投射部14は、駆動信号に基づいて可視光画像S1を投射面4に投射する。
投射部14は、ライトバルブ駆動部143と、第2光源144と、赤色用液晶ライトバルブ145Rと、緑色用液晶ライトバルブ145Gと、青色用液晶ライトバルブ145Bと、投射レンズ146と、を含む。
赤色用液晶ライトバルブ145Rと、緑色用液晶ライトバルブ145Gと、青色用液晶ライトバルブ145Bとを相互に区別する必要がない場合、これらを「液晶ライトバルブ145」と称する。
ライトバルブ駆動部143は、例えば、ドライバー等の回路で構成される。ライトバルブ駆動部143は、処理部17から提供される駆動信号に基づいて、電圧信号を生成する。ライトバルブ駆動部143は、電圧信号を液晶ライトバルブ145に印加することによって、液晶ライトバルブ145を駆動する。
第2光源144は、LEDである。第2光源144は、LEDに限らず、例えば、キセノンランプ、超高圧水銀ランプ、またはレーザー光源でもよい。第2光源144は、可視光を出射する。
第2光源144から出射された光は、不図示のインテグレーター光学系に入射する。インテグレーター光学系は、入射される光における輝度分布のばらつきを低減する。第2光源144から出射された光は、インテグレーター光学系を通った後、不図示の色分離光学系によって光の3原色である赤色、緑色および青色の色光成分に分離される。
赤色の色光成分は、赤色用液晶ライトバルブ145Rに入射する。緑色の色光成分は、緑色用液晶ライトバルブ145Gに入射する。青色の色光成分は、青色用液晶ライトバルブ145Bに入射する。
液晶ライトバルブ145は、一対の透明基板間に液晶が存在する液晶パネルを含む。液晶ライトバルブ145は、「パネル」の一例である。液晶ライトバルブ145は、矩形の画素領域145aを有する。画素領域145aは、マトリクス状に位置する複数の画素145pを含む。
ライトバルブ駆動部143が、電圧信号を各画素145pに印加すると、各画素145pの光透過率は、電圧信号に基づく光透過率に設定される。第2光源144から出射される光は、画素領域145aを通ることで変調される。
各画素145pに印加される電圧信号は、駆動信号に基づいて生成され、駆動信号は、画像情報に基づいて生成される。このため、画像情報に基づく画像が色光ごとに形成される。液晶ライトバルブ145は、光変調装置の一例である。光変調装置は、ミラーデバイスで構成されてもよい。
各色の画像は、不図示の色合成光学系によって画素145pごとに合成される。よって、カラーの可視光画像S1が生成される。可視光画像S1は、投射レンズ146を介して投射される。投射レンズ146は、1または2以上のレンズを含む光学系である。
カメラ15は、投射面4を撮像することによって画像データを生成する。カメラ15は、プロジェクター1とは別体として設けられてもよい。この場合、カメラ15とプロジェクター1は、データの送受信ができるように有線または無線のインターフェイスを介して相互に接続されてもよい。
カメラ15は、撮像レンズ151と、光選択部152と、駆動部153と、イメージセンサー154と、を含む。
撮像レンズ151は、魚眼レンズである。魚眼レンズは、1または2以上のレンズによって構成される。
光選択部152は、撮像レンズ151を通過した光の中から、イメージセンサー154に向かう光を選択する。光選択部152は、ガラス板152aと、可視光カットフィルター152bと、を含む。
ガラス板152aは、可視光と赤外光とのいずれも透過させる。可視光カットフィルター152bは、可視光を透過させずに、赤外光を透過させる。
駆動部153は、ガラス板152aと可視光カットフィルター152bを、撮像レンズ151とイメージセンサー154との間に択一的に配置する。
イメージセンサー154は、マトリクス状に配置される複数の光電変換素子を有する。イメージセンサー154は、例えば、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーである。
イメージセンサー154は、撮像レンズ151および光選択部152の両方を透過した光を電気信号に変換する。イメージセンサー154は、撮像レンズ151および光選択部152を介して撮像を実行することによって、種々の画像データを生成する。
第2記憶部16は、コンピューターが読み取り可能な記録媒体である。第2記憶部16は、例えば、不揮発性メモリーと揮発性メモリーとを含む。
第2記憶部16は、処理部17によって実行される第2プログラムと、処理部17が使用する各種のデータと、を記憶する。各種のデータは、後述のキャリブレーションにて用いられるキャリブレーション投射画像データを含む。キャリブレーション投射画像データは、画像情報の一例でもある。
処理部17は、例えば、1または2以上のプロセッサーによって構成される。一例を挙げると、処理部17は、1または2以上のCPUによって構成される。処理部17の機能の一部または全部は、DSP、ASIC、PLD、FPGA等の回路によって構成されてもよい。処理部17は、各種の処理を、並列的または逐次的に実行する。
処理部17は、第2記憶部16から第2プログラムを読み取る。処理部17は、第2プログラムを実行することによって、動作制御部171、生成部172、補正部173、キャリブレーションデータ生成部174、決定部175および表示制御部176として機能する。
動作制御部171は、プロジェクター1の種々の動作を制御する。動作制御部171は、例えば、指示体2と第2通信部13との通信を確立する。動作制御部171は、例えば、1または2以上の動作コントローラー、または、動作制御回路によって構成されてもよい。
生成部172は、赤外光画像データと可視光画像データとに基づいて、撮像レンズ151に起因する倍率色収差を示す補正データを生成する。生成部172は、例えば、プロジェクター1の製造時において補正データを生成する。
赤外光画像データは、後述する図4に示されるような、所定画像6が示される撮像面5を、撮像レンズ151を介してイメージセンサー154が赤外光で撮像することによって生成される。
可視光画像データは、所定画像6が示される撮像面5を、撮像レンズ151を介してイメージセンサー154が可視光で撮像することによって生成される。
生成部172は、1または2以上のジェネレーター、または、生成回路によって構成されてもよい。図3に示すように、生成部172は、受光部分特定部172aと、補正データ生成部172bと、を含む。
受光部分特定部172aは、可視光画像データに基づいて、イメージセンサー154において、撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定する。受光部分特定部172aは、例えば、受光部分特定回路によって構成されてもよい。
補正データ生成部172bは、赤外光画像データと可視光画像データと受光部分の位置とに基づいて、撮像レンズ151に起因する倍率色収差を示す補正データを生成する。補正データ生成部172bは、1または2以上の補正データジェネレーター、または、補正データ生成回路によって構成されてもよい。
補正部173は、撮像レンズ151が赤外光によってイメージセンサー154に形成する像の位置を、補正データに基づいて補正する。補正後の位置は、撮像レンズ151が可視光によってイメージセンサー154に形成する像の位置を示す。補正部173は、例えば、補正回路によって構成されてもよい。
キャリブレーションデータ生成部174は、補正部173による補正結果に基づいて、イメージセンサー154における位置と液晶ライトバルブ145における位置との対応関係を示すキャリブレーションデータを生成する。
キャリブレーションデータ生成部174は、例えば、1または2以上のキャリブレーションデータジェネレーター、または、キャリブレーションデータ生成回路によって構成されてもよい。
決定部175は、キャリブレーションデータを用いることによって、液晶ライトバルブ145において、タッチ位置に対応する対応位置を決定する。決定部175は、例えば、決定回路によって構成されてもよい。
表示制御部176は、液晶ライトバルブ145における対応位置に、タッチ位置の軌跡を表す線等を描画する。表示制御部176は、例えば、1または2以上の表示コントローラー、または、表示制御回路によって構成されてもよい。
A4.所定画像および撮像面の一例
図4は、所定画像6および撮像面5の一例を示す図である。撮像面5は、プロジェクター1の製造時に使用される面、例えば、作業台の上面または壁面である。プロジェクター1と撮像面5は、ユーザー使用時とほぼ同じ関係、例えば、図1に示される関係となるように配置される。また、可視光ライト7及び赤外光ライト8が配置される。
図4は、所定画像6および撮像面5の一例を示す図である。撮像面5は、プロジェクター1の製造時に使用される面、例えば、作業台の上面または壁面である。プロジェクター1と撮像面5は、ユーザー使用時とほぼ同じ関係、例えば、図1に示される関係となるように配置される。また、可視光ライト7及び赤外光ライト8が配置される。
撮像面5には、所定画像6が表される。所定画像6は、マトリクス状に配列された複数のドット6aを示す。所定画像6は、図4に示される画像に限らず、後述する図19に示される画像でもよい。複数のドット6aは、マトリクスの行方向及び列方向に線を示すことができ、撮像面5に格子パターンを形成する。複数のドット6aの数は25に限らない。マトリクスの行の数は5に限らず、例えば2以上であればよい。マトリクスの列の数は5に限らず、例えば2以上であればよい。マトリクスの行の数は、マトリクスの列の数と異なってもよい。所定画像6は、投射画像でも、ドット6aが印刷された印刷物でもよい。また、所定画像6は、壁等にドット6aに対応する物理マーカーが配置されることで構成されてもよい。
複数のドット6aは、複数のオブジェクトの一例である。複数のオブジェクトは、複数のドット6aに限らない。例えば、複数のオブジェクトは、複数の多角形、または、複数の楕円でもよい。
可視光ライト7は、可視光を撮像面5に照射する。赤外光ライト8は、赤外光を撮像面5に照射する。
A5.補正データの生成動作
図5は、補正データの生成動作を説明するためのフローチャートである。
図5は、補正データの生成動作を説明するためのフローチャートである。
ステップS101においてイメージセンサー154は、赤外光ライト8が点灯せずに可視光ライト7が点灯する状況において撮像面5を撮像することによって可視光画像データを生成する。
ステップS101では、ガラス板152aが撮像レンズ151とイメージセンサー154との間に位置する。このため、ステップS101ではイメージセンサー154は、撮像レンズ151を介して可視光で撮像面5を撮像する。
続いて、ステップS102においてイメージセンサー154は、可視光ライト7が点灯せずに赤外光ライト8が点灯する状況において撮像面5を撮像することによって赤外光画像データを生成する。
ステップS102では、ガラス板152aが撮像レンズ151とイメージセンサー154との間に位置する。このため、ステップS102ではイメージセンサー154は、撮像レンズ151を介して赤外光で撮像面5を撮像する。
続いて、ステップS103において生成部172は、可視光画像データと赤外光画像データとに基づいて、撮像レンズ151に起因する倍率色収差を示す補正データを生成する。
以下、ステップS103の一例を説明する。
受光部分特定部172aは、可視光画像データに基づいて、イメージセンサー154において、撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定する。
受光部分特定部172aは、可視光画像データに基づいて、イメージセンサー154において、撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定する。
魚眼レンズである撮像レンズ151の光軸が、格子パターンを示す面と交わる場合、格子パターンのうち、撮像レンズ151の光軸を通ってイメージセンサー154に結像される線は歪みを有さない。一方、格子パターンのうち、撮像レンズ151の光軸を通らずにイメージセンサー154に結像される線は歪みを有する。受光部分特定部172aは、この性質を用いて、受光部分の位置を特定する。
受光部分特定部172aは、可視光画像データが示す画像における複数のドット6bの位置に基づいて、受光部分の位置を特定する。複数のドット6bは、撮像面5に示される複数のドット6aの可視光による撮像画像である。
受光部分特定部172aは、まず、可視光画像データに基づいて、イメージセンサー154に可視光によって示される各ドット6bの重心位置6b1を特定する。
図6は、各ドット6bの重心位置6b1の一例を示す図である。
図6は、各ドット6bの重心位置6b1の一例を示す図である。
受光部分特定部172aは、図7に示すように行ごとのドット6bの重心位置6b1に基づく線G1〜G5を、「y=ax2+bx+c」という2次式でフィッティングする。受光部分特定部172aは、例えば、最小二乗法を用いて当該フィッティングを行う。
受光部分特定部172aは、線G1〜G5の2次式における係数aと係数cの関係から、係数a=0に対応する係数cを算出する。以下、係数a=0に対応する係数cを「係数c1」と称する。
例えば、受光部分特定部172aは、図8に示すように、縦軸において係数aを表し横軸において係数cを表す座標系において、線G1〜G5における係数aと係数cの関係を表す座標G1a〜G5aを特定する。
受光部分特定部172aは、座標G1a〜G5aに基づく線を、1次式でフィッティングする。受光部分特定部172aは、例えば、最小二乗法を用いて当該フィッティングを行う。
受光部分特定部172aは、フィッティングによって得られる1次式を用いて、係数a=0に対応する係数c1を算出する。
受光部分特定部172aは、線G1〜G5の2次式における係数cと係数bの関係から、係数c1に対応する係数bを算出する。以下、係数c1に対応する係数bを「係数b1」と称する。係数c1は係数a=0に対応するため、係数c1に対応する係数b1は、係数a=0に対応する係数b1を意味する。
なお、イメージセンサー154におけるx軸に沿う方向が、複数のドット6aのマトリクスにおける行の方向と交差する可能性があるため、係数bは必要となる。
受光部分特定部172aは、図9に示すように、縦軸において係数bを表し横軸において係数cを表す座標系において、線G1〜G5における係数bと係数cの関係を表す座標G1b〜G5bを特定する。
受光部分特定部172aは、座標G1b〜G5bに基づく線を、1次式でフィッティングする。受光部分特定部172aは、例えば、最小二乗法を用いて当該フィッティングを行う。
受光部分特定部172aは、フィッティングによって得られる1次式を用いて、係数c1に対応する係数b1を算出する。
続いて、受光部分特定部172aは、係数a=0、係数b1および係数c1を用いて、イメージセンサー154において、撮像レンズ151の光軸を通る光を受光する受光部分を通る直線の式、y=b1x+c1、を算出する。
なお、受光部分特定部172aは、最初に、係数a=0に対応する係数b1を算出し、その後、係数b1に対応する係数c1を算出することによって、y=b1x+c1、を算出してもよい。
続いて、受光部分特定部172aは、図10に示す列ごとのドット6bの重心位置6b1に基づく線G11〜G15を、「x=a’y2+b’y+c’」という2次式でフィッティングする。受光部分特定部172aは、例えば、最小二乗法を用いて当該フィッティングを行う。
受光部分特定部172aは、線G11〜G15の2次式における係数a’と係数c’の関係から、係数a’=0に対応する係数c’を算出する。以下、係数a’=0に対応する係数c’を「係数c’1」と称する。受光部分特定部172aは、係数c1の算出手法と同様の手法で係数c’1を算出する。
受光部分特定部172aは、線G11〜G15の2次式における係数c’1と係数b’の関係から、係数c’1に対応する係数b’を算出する。以下、係数c’1に対応する係数b’を「係数b’1」と称する。係数c’1は係数a’=0に対応するため、係数c’1に対応する係数b’1は、係数a’=0に対応する係数b’を意味する。受光部分特定部172aは、係数b1の算出手法と同様の手法で係数b’1を算出する。このように、受光部分特定部172aは、x=b’1y+c’1、を算出する。
なお、受光部分特定部172aは、最初に、係数a’=0に対応する係数b’1を算出し、その後、係数b’1に対応する係数c’1を算出することによって、x=b’1y+c’1、を算出してもよい。
受光部分特定部172aは、図11に示すように、y=b1x+c1と、x=b’1x+c’1と、の交点を、受光部分の位置Hとして特定する。
続いて、補正データ生成部172bは、可視光画像データと赤外光画像データと受光部分の位置Hとに基づいて、撮像レンズ151に起因する倍率色収差を示す補正データを生成する。
補正データ生成部172bは、まず、赤外光画像データに基づいて、イメージセンサー154に赤外光によって示される各ドット6cの重心位置6c1を特定する。複数のドット6cは、撮像面5に示される複数のドット6aの赤外光による撮像画像である。
図12は、イメージセンサー154に赤外光によって示される各ドット6cの重心位置6c1と、イメージセンサー154に可視光によって示される各ドット6bの重心位置6b1と、を示す図である。
補正データ生成部172bは、重心位置6b1ごとに、重心位置6b1と受光部分の位置Hとの距離R1を特定する。距離R1は、受光部分の位置Hからの距離を意味する。
補正データ生成部172bは、重心位置6b1ごとに、重心位置6b1と、当該重心位置6b1に対応する重心位置6c1と、の距離R2を特定する。
重心位置6b1に対応する重心位置6c1は、複数の重心位置6c1のうち、当該重心位置6b1に最も近い重心位置6c1である。
さらに言えば、重心位置6b1を有するドット6bと、重心位置6b1に対応する重心位置6c1を有するドット6cは、共通のドット6aを表す。
このため、距離R2は、撮像レンズ151に起因する倍率色収差を示す。
さらに言えば、重心位置6b1を有するドット6bと、重心位置6b1に対応する重心位置6c1を有するドット6cは、共通のドット6aを表す。
このため、距離R2は、撮像レンズ151に起因する倍率色収差を示す。
補正データ生成部172bは、距離R1と距離R2との関係を示す倍率色収差データJ1を、補正データとして生成する。
例えば、補正データ生成部172bは、図13に示すように、横軸において距離R1を表し縦軸において距離R2を表す座標系において、重心位置6b1ごとに、距離R1と距離R2との関係を示す座標Kを特定する。
補正データ生成部172bは、座標Kに基づく曲線を、倍率色収差データJ1、すなわち補正データとして生成する。
補正データ生成部172bは、例えば、座標Kに基づく曲線を2次式でフィッティングすることによって、倍率色収差データJ1を生成する。補正データ生成部172bは、倍率色収差データJ1を補正データとして第2記憶部16に記憶する。
なお、補正データ生成部172bは、座標Kに基づく曲線にて特定される距離R1と距離R2との関係を表す表を、倍率色収差データJ1として生成してもよい。
A6.キャリブレーションデータの生成動作
図14は、キャリブレーションデータの生成が実行されるキャリブレーションを説明するためのフローチャートである。
図14は、キャリブレーションデータの生成が実行されるキャリブレーションを説明するためのフローチャートである。
キャリブレーションとは、液晶ライトバルブ145における座標とイメージセンサー154における座標とを相互に対応づける処理である。液晶ライトバルブ145における座標は、液晶ライトバルブ145における位置、すなわち、各画素145pの位置を示す。イメージセンサー154における座標は、イメージセンサー154における位置、すなわち、複数の光電変換素子の位置を示す。
ステップS201においてキャリブレーションデータ生成部174は、液晶ライトバルブ145にキャリブレーション画像を生成させる。
例えば、キャリブレーションデータ生成部174は、キャリブレーション投射画像データを第2記憶部16から読み出す。キャリブレーションデータ生成部174は、キャリブレーション投射画像データを第2プログラムに従って生成してもよい。
キャリブレーションデータ生成部174は、キャリブレーション画像データに画像処理を施すことによって、キャリブレーション駆動信号を生成する。キャリブレーションデータ生成部174は、不図示の画像処理回路に当該画像処理を実行させることによって、キャリブレーション駆動信号を生成してもよい。
キャリブレーションデータ生成部174は、キャリブレーション駆動信号をライトバルブ駆動部143に提供する。
ライトバルブ駆動部143は、キャリブレーション駆動信号に基づいて、液晶ライトバルブ145に可視光のキャリブレーション画像を生成させる。
キャリブレーション画像では、複数のマークM1が相互に間隔をあけて配置される。マークM1は、例えば、ドッドまたは矩形である。
図15は、キャリブレーション画像の一例を示す図である。図15では、複数のマークM1として、複数のドットが示される。
キャリブレーションデータ生成部174は、キャリブレーション駆動信号をライトバルブ駆動部143に提供する前に、キャリブレーション駆動信号に基づいて、液晶ライトバルブ145におけるマークM1の位置、例えば、マークM1の重心位置を特定する。
例えば、キャリブレーションデータ生成部174は、液晶ライトバルブ145におけるマークM1の重心位置を、液晶ライトバルブ145における座標を用いて特定する。
続いて、ステップS202において、投射レンズ146は、キャリブレーション画像を投射面4に投射する。
続いて、ステップS203において、キャリブレーションデータ生成部174は、イメージセンサー154に、撮像レンズ151を介して可視光でキャリブレーション画像を撮像させる。この場合、キャリブレーションデータ生成部174は、駆動部153に、ガラス板152aを、撮像レンズ151とイメージセンサー154との間に配置させる。
イメージセンサー154は、キャリブレーション画像を可視光で撮像することによってキャリブレーション画像データを生成する。
続いて、ステップS204においてキャリブレーションデータ生成部174は、キャリブレーション画像データと、撮像レンズ151に起因する倍率色収差を示す補正データと、に基づいて、キャリブレーションデータを生成する。
例えは、キャリブレーションデータ生成部174は、まず、イメージセンサー154からキャリブレーション画像データを取得する。
続いて、キャリブレーションデータ生成部174は、キャリブレーション画像データが示す画像におけるマークM2を検出する。
図16は、キャリブレーション画像データが示す画像の一例を示す図である。キャリブレーション画像データが示す画像には、マークM1の可視光での撮像画像であるマークM2が示される。
キャリブレーションデータ生成部174は、マークM2ごとに、マークM2の位置、例えば、マークM2の重心位置を特定する。
例えば、キャリブレーションデータ生成部174は、マークM2の重心位置を、イメージセンサー154における座標を特定する。
続いて、キャリブレーションデータ生成部174は、複数のマークM2の位置を補正データに基づいて補正することによって、複数のマークM2の補正後の位置を決定する。
例えば、キャリブレーションデータ生成部174は、まず、マークM2ごとに、マークM2の位置と受光部分の位置Hとの距離R1aを特定する。
続いて、キャリブレーションデータ生成部174は、マークM2ごとに、補正データを用いて、距離R1aに対応する距離R2aを特定する。
続いて、キャリブレーションデータ生成部174は、マークM2ごとに、マークM2の位置を、受光部分の位置HからマークM2の位置へ向かう方向に、距離R2aだけ移動する。
キャリブレーションデータ生成部174は、この移動後の位置を、マークM2の補正後の位置として決定する。
複数のマークM2の補正後の位置は、キャリブレーション画像が投射面4に投射される投射状況において、投射面4を、撮像レンズ151を介してイメージセンサー154によって赤外光で撮像する場合に生成される赤外画像での複数のマークM2の位置を示す。
キャリブレーションデータ生成部174は、複数のマークM2の補正後の位置に基づいて、イメージセンサー154における位置と液晶ライトバルブ145における位置との対応関係を示すキャリブレーションデータを生成する。
例えば、キャリブレーションデータ生成部174は、複数のマークM2の補正後の位置と、液晶ライトバルブ145における複数のマークM1の重心と、の関係に基づいて、キャリブレーションデータを生成する。
キャリブレーションデータ生成部174は、キャリブレーションデータを第2記憶部16に記憶する。
A7.タッチ位置に基づく可視光画像の変更動作
図17は、タッチ位置に基づく可視光画像S1の変更動作を説明するためのフローチャートである。
図17は、タッチ位置に基づく可視光画像S1の変更動作を説明するためのフローチャートである。
ステップS301において決定部175は、投射面4が指示体2によって指示される指示状況において、イメージセンサー154に、投射面4を、撮像レンズ151を介して赤外光で撮像させる。この場合、決定部175は、駆動部153に、可視光カットフィルター152bを、撮像レンズ151とイメージセンサー154との間に配置させる。
イメージセンサー154は、当該撮像によって、投射面画像データを生成する。
続いて、ステップS302において決定部175は、投射面画像データに基づいて、タッチ位置を特定する。
例えば、決定部175は、投射面画像データが示す画像において、指示体2の先端2aから発せられる赤外光が示される部分を、タッチ位置として特定する。
続いて、ステップS303において決定部175は、液晶ライトバルブ145において、タッチ位置に対応する対応位置を、キャリブレーションデータを用いることによって決定する。
続いて、ステップS304において表示制御部176は、液晶ライトバルブ145における対応位置に、タッチ位置の軌跡を表す線等を描画することによって、可視光画像S1を変更する。
A8.第1実施形態についてのまとめ
第1実施形態によれば、撮像レンズ151に起因する倍率色収差の影響を低減できる。
第1実施形態によれば、撮像レンズ151に起因する倍率色収差の影響を低減できる。
B.変形例
上述の実施形態について、例えば、次に述べるような各種の変形が可能である。次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることも可能である。
上述の実施形態について、例えば、次に述べるような各種の変形が可能である。次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることも可能である。
B1.第1変形例
受光部分特定部172aは、可視光画像データではなく、赤外光画像データに基づいて、イメージセンサー154において撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定してもよい。
受光部分特定部172aは、可視光画像データではなく、赤外光画像データに基づいて、イメージセンサー154において撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定してもよい。
例えば、受光部分特定部172aは、赤外光画像データが示す画像における複数のドット6bの位置に基づいて、受光部分の位置を特定してもよい。
B2.第2変形例
キャリブレーション画像として、図18に示すような、複数のクロスパターンM3を示す画像が用いられてもよい。複数のクロスパターンM3は、複数のマークの一例である。この場合、2つの矩形が接触するクロスパターンM3の位置として、例えば、2つの矩形が接触する位置が用いられる。
キャリブレーション画像として、図18に示すような、複数のクロスパターンM3を示す画像が用いられてもよい。複数のクロスパターンM3は、複数のマークの一例である。この場合、2つの矩形が接触するクロスパターンM3の位置として、例えば、2つの矩形が接触する位置が用いられる。
B3.第3変形例
指示体2は、赤外光を発光しない物体、例えば人の指でもよい。この場合、投射面4に沿って面状に赤外光を出射する光出力装置が、投射面4の上端4aよりも上に設けられる。
指示体2は、赤外光を発光しない物体、例えば人の指でもよい。この場合、投射面4に沿って面状に赤外光を出射する光出力装置が、投射面4の上端4aよりも上に設けられる。
プロジェクター1は、光出力装置から出射された赤外光のうち、投射面4上の指示体2によって反射された反射光を、カメラ15で撮像することによって、投射面画像データを生成する。
B4.第4変形例
ガラス板152aと可視光カットフィルター152bにおいて、厚さの違い、および、イメージセンサー154に対する傾き角度の違いがある場合、補正部173は、これらの違いを補正するための補正データをさらに生成してもよい。キャリブレーションデータ生成部174は、この補正データも用いてキャリブレーションデータを生成する。
ガラス板152aと可視光カットフィルター152bにおいて、厚さの違い、および、イメージセンサー154に対する傾き角度の違いがある場合、補正部173は、これらの違いを補正するための補正データをさらに生成してもよい。キャリブレーションデータ生成部174は、この補正データも用いてキャリブレーションデータを生成する。
B5.第5変形例
所定画像6は、相互に独立した複数のドット6aを示す画像に限らない。所定画像6は、1つのオブジェクトを示す画像でもよい。例えば、所定画像6は、図19に示すように、マトリクス状に配置される複数のドット6aと、複数のドット6aを相互に繋ぐ複数の線6fと、を有するオブジェクトを示す画像でもよい。
所定画像6は、相互に独立した複数のドット6aを示す画像に限らない。所定画像6は、1つのオブジェクトを示す画像でもよい。例えば、所定画像6は、図19に示すように、マトリクス状に配置される複数のドット6aと、複数のドット6aを相互に繋ぐ複数の線6fと、を有するオブジェクトを示す画像でもよい。
B6.第6変形例
パネルとして液晶ライトバルブが用いられたが、パネルは液晶ライトバルブに限らない。例えば、パネルは、3枚の反射型の液晶パネルを用いた構成でもよい。パネルは、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイスを用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせた方式等の構成でもよい。液晶パネルおよびデジタルミラーデバイス以外にも、光源が発する光を変調可能な構成は、パネルとして採用できる。
パネルとして液晶ライトバルブが用いられたが、パネルは液晶ライトバルブに限らない。例えば、パネルは、3枚の反射型の液晶パネルを用いた構成でもよい。パネルは、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイスを用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせた方式等の構成でもよい。液晶パネルおよびデジタルミラーデバイス以外にも、光源が発する光を変調可能な構成は、パネルとして採用できる。
C.上述の形態および変形例から把握される態様
上述の形態および変形例の少なくとも1つから以下の態様が把握される。
上述の形態および変形例の少なくとも1つから以下の態様が把握される。
C1.第1態様
補正データ生成装置10およびプロジェクター1は、撮像レンズ151と、イメージセンサー154と、生成部172と、を含む。イメージセンサー154は、所定画像6が示される撮像面5を、撮像レンズ151を介して可視光で撮像することによって可視光画像データを生成する。イメージセンサー154は、所定画像6が示される撮像面5を、撮像レンズ151を介して赤外光で撮像することによって赤外光画像データを生成する。生成部172は、可視光画像データと赤外光画像データとに基づいて、撮像レンズ151に起因する倍率色収差を示す補正データを生成する。
補正データ生成装置10およびプロジェクター1は、撮像レンズ151と、イメージセンサー154と、生成部172と、を含む。イメージセンサー154は、所定画像6が示される撮像面5を、撮像レンズ151を介して可視光で撮像することによって可視光画像データを生成する。イメージセンサー154は、所定画像6が示される撮像面5を、撮像レンズ151を介して赤外光で撮像することによって赤外光画像データを生成する。生成部172は、可視光画像データと赤外光画像データとに基づいて、撮像レンズ151に起因する倍率色収差を示す補正データを生成する。
可視光画像データと赤外光画像データとの相違を生じさせる主な要因は、撮像レンズ151に起因する倍率色収差である。このため、生成部172は、撮像レンズ151に起因する倍率色収差を示す補正データを生成できる。この補正データが用いられる場合、撮像レンズに起因する倍率色収差の影響を低減できる。
C2.第2態様
撮像レンズ151は、魚眼レンズである。生成部172は、受光部分特定部172aと補正データ生成部172bとを含む。受光部分特定部172aは、可視光画像データおよび赤外光画像データのうち一方の画像データに基づいて、イメージセンサー154において撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定する。補正データ生成部172bは、可視光画像データと赤外光画像データと受光部分の位置とに基づいて、補正データを生成する。
撮像レンズ151は、魚眼レンズである。生成部172は、受光部分特定部172aと補正データ生成部172bとを含む。受光部分特定部172aは、可視光画像データおよび赤外光画像データのうち一方の画像データに基づいて、イメージセンサー154において撮像レンズ151の光軸を通る光を受光する受光部分の位置を特定する。補正データ生成部172bは、可視光画像データと赤外光画像データと受光部分の位置とに基づいて、補正データを生成する。
受光部分の位置では、倍率色収差が生じず、受光部分の位置からの距離に応じて、倍率色収差の影響が大きくなる。この態様によれば、受光部分の位置を基準に倍率色収差を示す補正データを生成できる。
C3.第3態様
補正データ生成部172bは、可視光画像データと赤外光画像データと受光部分の位置とに基づいて、受光部分の位置からの距離と倍率色収差との関係を示す倍率色収差データを、補正データとして生成する。この態様によれば、倍率色収差データが、受光部分の位置からの距離と倍率色収差との関係を示すので、イメージセンサー154に生じる倍率色収差の影響を補正しやすくなる。
補正データ生成部172bは、可視光画像データと赤外光画像データと受光部分の位置とに基づいて、受光部分の位置からの距離と倍率色収差との関係を示す倍率色収差データを、補正データとして生成する。この態様によれば、倍率色収差データが、受光部分の位置からの距離と倍率色収差との関係を示すので、イメージセンサー154に生じる倍率色収差の影響を補正しやすくなる。
C4.第4態様
所定画像6は、複数のオブジェクトを示す。上述の一方の画像データは、可視光画像データである。受光部分特定部172aは、可視光画像データが示す画像における複数のオブジェクトの位置に基づいて、受光部分の位置を特定する。この態様によれば、補正データを生成するための可視光画像データを、受光部分の位置を特定するためのデータとして兼用できる。このため、受光部分の位置を特定するための専用のデータが使用される構成に比べて、データ量を少なくできる。
所定画像6は、複数のオブジェクトを示す。上述の一方の画像データは、可視光画像データである。受光部分特定部172aは、可視光画像データが示す画像における複数のオブジェクトの位置に基づいて、受光部分の位置を特定する。この態様によれば、補正データを生成するための可視光画像データを、受光部分の位置を特定するためのデータとして兼用できる。このため、受光部分の位置を特定するための専用のデータが使用される構成に比べて、データ量を少なくできる。
C5.第5態様
所定画像は、複数のオブジェクトを示す。上述の一方の画像データは、赤外光画像データである。受光部分特定部172aは、赤外光画像データが示す画像における複数のオブジェクトの位置に基づいて、受光部分の位置を特定する。この態様によれば、補正データを生成するための赤外光画像データを、受光部分の位置を特定するためのデータとして兼用できる。このため、受光部分の位置を特定するための専用のデータが使用される構成に比べて、データ量を少なくできる。
所定画像は、複数のオブジェクトを示す。上述の一方の画像データは、赤外光画像データである。受光部分特定部172aは、赤外光画像データが示す画像における複数のオブジェクトの位置に基づいて、受光部分の位置を特定する。この態様によれば、補正データを生成するための赤外光画像データを、受光部分の位置を特定するためのデータとして兼用できる。このため、受光部分の位置を特定するための専用のデータが使用される構成に比べて、データ量を少なくできる。
C6.第6態様
イメージセンサー154は、さらに、キャリブレーション画像が投射面4に投射される投射状況において、投射面4を、撮像レンズ151を介して可視光で撮像することによって、キャリブレーション画像データを生成する。
イメージセンサー154は、さらに、キャリブレーション画像が投射面4に投射される投射状況において、投射面4を、撮像レンズ151を介して可視光で撮像することによって、キャリブレーション画像データを生成する。
プロジェクター1は、補正データ生成装置10と、液晶ライトバルブ145と、投射レンズ146と、補正部173と、キャリブレーションデータ生成部174と、を含む。
液晶ライトバルブ145は、複数のマークを示す可視光のキャリブレーション画像を生成する。投射レンズ146は、キャリブレーション画像を投射面4に投射する。補正部173は、キャリブレーション画像データが示す画像における複数のマークの位置を補正データに基づいて補正することによって、複数のマークの補正後の位置を決定する。複数のマークの補正後の位置は、上述の投射状況において、投射面4を、撮像レンズ151を介してイメージセンサー154が赤外光で撮像する場合に生成される赤外画像における複数のマークの位置を示す。キャリブレーションデータ生成部174は、赤外画像における複数のマークの位置に基づいて、イメージセンサー154における位置と液晶ライトバルブ145における位置との対応関係を示すキャリブレーションデータを生成する。
この態様によれば、キャリブレーションデータに、撮像レンズに起因する倍率色収差が影響することを低減できる。
1…プロジェクター、2…指示体、5…撮像面、6…所定画像、10…補正データ生成装置、14…投射部、15…カメラ、16…第2記憶部、17…処理部、143…ライトバルブ駆動部、144…第2光源、145…液晶ライトバルブ、145B…青色用液晶ライトバルブ、145G…緑色用液晶ライトバルブ、145R…赤色用液晶ライトバルブ、146…投射レンズ、151…撮像レンズ、153…駆動部、154…イメージセンサー、171…動作制御部、172…生成部、172a…受光部分特定部、172b…補正データ生成部、173…補正部、174…キャリブレーションデータ生成部、175…決定部、176…表示制御部。
Claims (8)
- 所定画像が示される撮像面を、撮像レンズを介してイメージセンサーによって可視光で撮像することによって、可視光画像データを生成し、
前記撮像面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像することによって、赤外光画像データを生成し、
前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成する、
補正データ生成方法。 - 前記撮像レンズは、魚眼レンズであり、
前記可視光画像データおよび前記赤外光画像データのうち一方の画像データに基づいて、前記イメージセンサーにおいて前記魚眼レンズの光軸を通る光を受光する受光部分の位置を特定し、
前記可視光画像データと前記赤外光画像データと前記受光部分の位置とに基づいて、前記補正データを生成する、
請求項1に記載の補正データ生成方法。 - 前記可視光画像データと前記赤外光画像データと前記受光部分の位置とに基づいて、前記受光部分の位置からの距離と、前記倍率色収差と、の関係を示す倍率色収差データを、前記補正データとして生成する、
請求項2に記載の補正データ生成方法。 - 前記所定画像は、複数のオブジェクトを示し、
前記一方の画像データは、前記可視光画像データであり、
前記可視光画像データが示す画像における前記複数のオブジェクトの位置に基づいて、前記受光部分の位置を特定する、
請求項2または3に記載の補正データ生成方法。 - 前記所定画像は、複数のオブジェクトを示し、
前記一方の画像データは、前記赤外光画像データであり、
前記赤外光画像データが示す画像における前記複数のオブジェクトの位置に基づいて、前記受光部分の位置を特定する、
請求項2または3に記載の補正データ生成方法。 - 所定画像が示される撮像面を、撮像レンズを介してイメージセンサーによって可視光で撮像することによって、可視光画像データを生成し、
前記撮像面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像することによって、赤外光画像データを生成し、
前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成し、
複数のマークを示す可視光のキャリブレーション画像をパネルによって生成し、
前記キャリブレーション画像を投射面に投射し、
前記キャリブレーション画像が前記投射面に投射される投射状況において、前記投射面を、前記撮像レンズを介して前記イメージセンサーによって可視光で撮像することによって、キャリブレーション画像データを生成し、
前記キャリブレーション画像データが示す画像における前記複数のマークの位置を、前記補正データに基づいて補正することによって、前記投射状況において、前記投射面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像する場合に生成される赤外画像における前記複数のマークの位置を決定し、
前記赤外画像における前記複数のマークの位置に基づいて、前記イメージセンサーにおける位置と前記パネルにおける位置との対応関係を示すキャリブレーションデータを生成する、
プロジェクターの制御方法。 - 撮像レンズと、
所定画像が示される撮像面を、前記撮像レンズを介して可視光で撮像することによって可視光画像データを生成し、また、前記撮像面を、前記撮像レンズを介して赤外光で撮像することによって赤外光画像データを生成するイメージセンサーと、
前記可視光画像データと前記赤外光画像データとに基づいて、前記撮像レンズに起因する倍率色収差を示す補正データを生成する生成部と、
を含む補正データ生成装置。 - 請求項7に記載の補正データ生成装置と、
複数のマークを示す可視光のキャリブレーション画像を生成するパネルと、
前記キャリブレーション画像を投射面に投射する投射レンズと、を含み、
前記イメージセンサーは、さらに、前記キャリブレーション画像が前記投射面に投射される投射状況において、前記投射面を、前記撮像レンズを介して可視光で撮像することによって、キャリブレーション画像データを生成し、
前記キャリブレーション画像データが示す画像における前記複数のマークの位置を、前記補正データに基づいて補正することによって、前記投射状況において、前記投射面を、前記撮像レンズを介して前記イメージセンサーによって赤外光で撮像する場合に生成される赤外画像における前記複数のマークの位置を決定する補正部と、
前記赤外画像における前記複数のマークの位置に基づいて、前記イメージセンサーにおける位置と前記パネルにおける位置との対応関係を示すキャリブレーションデータを生成するキャリブレーションデータ生成部と、
を含むプロジェクター。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020097136A JP2021190945A (ja) | 2020-06-03 | 2020-06-03 | 補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020097136A JP2021190945A (ja) | 2020-06-03 | 2020-06-03 | 補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021190945A true JP2021190945A (ja) | 2021-12-13 |
Family
ID=78847640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020097136A Pending JP2021190945A (ja) | 2020-06-03 | 2020-06-03 | 補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021190945A (ja) |
-
2020
- 2020-06-03 JP JP2020097136A patent/JP2021190945A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6111706B2 (ja) | 位置検出装置、調整方法、および調整プログラム | |
US10228611B2 (en) | Projector, projection system, and control method of projector | |
JP5428600B2 (ja) | プロジェクター、画像投写システムおよび画像投写方法 | |
JP6369810B2 (ja) | 投写画像表示システム、投写画像表示方法及び投写型表示装置 | |
US9521276B2 (en) | Portable projection capture device | |
JP6205777B2 (ja) | 投影装置、投影方法、及び投影のためのプログラム | |
US20140139668A1 (en) | Projection capture system and method | |
CN104660946B (zh) | 投影机及其控制方法 | |
JP6809292B2 (ja) | プロジェクターおよびプロジェクターの制御方法 | |
CN108446047A (zh) | 显示装置以及显示控制方法 | |
US20140145948A1 (en) | Interactive projection system and method for calibrating position of light point thereof | |
JP2003234983A (ja) | プロジェクタ | |
JP2019078845A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
CN114173105B (zh) | 信息生成方法、信息生成系统以及记录介质 | |
EP2916201B1 (en) | Position detecting device and position detecting method | |
JP2021132312A (ja) | プロジェクションシステム、プロジェクターの制御方法およびプロジェクター | |
US20130257702A1 (en) | Image projecting apparatus, image projecting method, and computer program product | |
JP2021190945A (ja) | 補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター | |
JP2020144413A (ja) | 表示方法および表示装置 | |
JP2022147145A (ja) | プロジェクタ、投影システム、補正値修正方法及びプログラム | |
JP5664725B2 (ja) | プロジェクター、画像投写システムおよび画像投写方法 | |
JP2015053734A (ja) | プロジェクター、画像投写システムおよび画像投写方法 | |
JP2020091440A (ja) | 情報処理装置の制御方法、情報処理装置およびプログラム | |
US20170201732A1 (en) | Projector and method for controlling projector | |
JP2014187515A (ja) | プロジェクター及びプロジェクターの制御方法 |