JP2006162808A - プロジェクタ及びその画像投影方法 - Google Patents

プロジェクタ及びその画像投影方法 Download PDF

Info

Publication number
JP2006162808A
JP2006162808A JP2004352026A JP2004352026A JP2006162808A JP 2006162808 A JP2006162808 A JP 2006162808A JP 2004352026 A JP2004352026 A JP 2004352026A JP 2004352026 A JP2004352026 A JP 2004352026A JP 2006162808 A JP2006162808 A JP 2006162808A
Authority
JP
Japan
Prior art keywords
image
unit
projection
signal
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004352026A
Other languages
English (en)
Inventor
Toshitaka Mori
俊隆 森
Atsushi Yoshida
淳 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko NPC Corp
Original Assignee
Seiko NPC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko NPC Corp filed Critical Seiko NPC Corp
Priority to JP2004352026A priority Critical patent/JP2006162808A/ja
Publication of JP2006162808A publication Critical patent/JP2006162808A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】人物の目に投影光を投写しないように、人物部分の輝度を低下させた人影画像を生成して、的確に投影光を人物に追従させる。
【解決手段】プロジェクタ制御部103は、スクリーンSよりもプロジェクタ100側に人物が立っている場合に、投影部101にターゲットマーク画像が整列したパターン画像を投影させる。画像情報取得部102は、各ターゲットマーク画像の重心位置を短時間で取得する。そして、プロジェクタ制御部103は、この重心位置に基づいて、ターゲットマーク画像の位置ずれ領域を判別し、この位置ずれ領域を人物部分として、投影画像補正部104に供給する。投影画像補正部104は、この位置情報に基づいて人影画像を生成し、投影部101は、この人影画像をスクリーンSに投影する。
【選択図】図1

Description

本発明は、プロジェクタ及びその画像投影方法に関するものである。
近年、スクリーンに画像を投影するプロジェクタが急速に普及している。また、スクリーンに資料等の画像を投影し、人物としてのプレゼンターがスクリーン手前に立って説明することもある。この場合、プレゼンターは、投影光に向かって立って説明を行うため、投影光がプレゼンターの目にも直接投影される。
このため、プレゼンターへの投影光を低減するようにしたプロジェクタがある(例えば、特許文献1参照)。
このプロジェクタは、映像光をスクリーンに投写し、その反射光を受光して、人物位置を検出し、検出した人物位置の輝度を調整するようにしている。そして、反射光を受光する受光手段として、CCDを用いたプロジェクタがある。
特開2000−305481号公報(第3頁−第4頁、図1)
しかし、CCDは、複数の光電変換素子を備え、光電変換素子に蓄積された電荷を垂直方向、水平方向に順次転送して出力するため、読み取り速度に制限がある。従来のプロジェクタでは、受光部にCCDを用いているため、短時間で人物の位置を検出することができず、投影光を低減するのに遅れが生ずる。このため、プレゼンターが移動したときに、投影光を低減する位置がプレゼンターの位置に追従せず、効果が低減するおそれがある。
さらに、プロジェクタは、投影レンズの焦点位置の調整、調光、スクリーンサイズの調整、スクリーンへの投影画像の歪みの補正(台形補正)、壁色補正等、種々の調整、補正を行う必要があり、プレゼンターの位置に追従して投影光を低減するためには、これらの調整、補正を短時間で行う必要がある。
本発明は、このような従来の問題点に鑑みてなされたもので、的確に投影光を人物としての物体に追従させることが可能なプロジェクタ及びその画像投影方法を提供することを目的とする。
また、本発明は、種々の調整、補正を短時間で行うことが可能なプロジェクタ及びその画像投影方法を提供することを目的とする。
この目的を達成するため、本発明の第1の観点に係るプロジェクタは、
複数のターゲットマーク画像が整列したパターン画像をスクリーンに投影する投影部と、
前記スクリーン上に投影されたパターン画像からの光を、行列配置された複数の光電変換素子で受光し、前記複数の光電変換素子が出力した光検出信号の2値信号を加算演算するセンサ部と、
前記センサ部の光電変換素子を選択し、選択した光電変換素子の光検出信号の2値信号を前記センサ部が加算演算して前記パターン画像の各ターゲットマーク画像の面積を示す0次モーメント量と前記0次モーメント量を前記選択した光電変換素子の座標値で重み付けした1次モーメント量とを示す2値信号を出力するように前記センサ部を制御して、前記センサ部の出力信号に基づいて前記各ターゲットマーク画像の重心位置を取得する演算処理部と、
前記演算処理部が取得した各ターゲットマーク画像の重心位置と前記スクリーンに投影するパターン画像の各ターゲットマーク画像の正規重心位置とを比較して、前記スクリーンよりも投影部側に位置する物体による各ターゲットマーク画像の重心位置の正規重心位置からの位置ずれを検出し、位置がずれたターゲットマーク画像の位置を前記物体の位置情報として取得する位置情報取得部と、
前記位置情報取得部が取得した位置情報に基づいて、前記物体部分の投影光の輝度を、より低減させた画像を生成する画像生成部と、
前記画像生成部が生成した画像を前記投影部に投影させる制御部と、を備えたことを特徴とする。
前記センサ部は、
前記各光電変換素子が出力した光検出信号の2値信号に基づいて生成された2値画像を追跡対象画像として、前記追跡対象画像を囲むウィンドウ画像を生成し、前記各光電変換素子が出力した光検出信号の2値信号に基づいて新たに生成された2値画像のうち、前記ウィンドウ画像に含まれる2値画像を新たな追跡対象画像として追跡するトラッキング部を備え、
前記トラッキング部が追跡する追跡対象画像に対応する前記光検出信号の2値信号を加算演算するようにしてもよい。
前記制御部は、前記投影部が投影する画像の輝度補正を行ってから、前記画像生成部が生成した画像を前記投影部に投影させるようしてもよい。
前記センサ部は、前記投影部が投影した投影画像からの光を、行列配置された複数の光電変換素子で受光し、前記複数の光電変換素子が変換した複数の光検出信号の信号レベルと供給された閾値とをそれぞれ比較することにより前記複数の光検出信号を2値化して複数の2値信号を生成し、
前記演算処理部は、既知の輝度に基づいて設定された閾値を前記センサ部に供給して、前記複数の2値信号を加算演算させて前記投影画像を2値化した2値画像の0次モーメント量を示す信号を出力するように前記センサ部を制御するとともに、前記センサ部に供給する前記閾値を変化させて前記2値画像の面積を変化させ、前記面積の変化量に基づいて前記投影画像の輝度値を取得し、
前記制御部は、前記演算処理部が取得した前記輝度値に基づいて前記投影部が投影する画像の輝度補正を行うようにしてもよい。
前記制御部は、前記投影部の投影光とは異なる環境光がないときに、前記センサ部が出力した出力信号に基づいて取得した前記スクリーン上の投影画像の輝度計測値を予め記憶し、前記環境光があったときに、前記センサ部が出力した出力信号に基づいて取得した前記投影画像の輝度計測値と前記予め記憶した輝度計測値とを比較して、両輝度計測値の比に基づいて、前記環境光があるときの前記投影画像の輝度補正を行うようにしてもよい。
前記制御部は、前記投影部に、予め設定された基準輝度比を有する複数の原色の画像を順次投影させ、前記センサ部が出力した信号に基づいて取得した原色の輝度比と前記基準輝度比とを比較し、取得する輝度比が前記基準輝度比となるように、投影する画像の輝度値を補正してから、前記画像生成部が生成した画像を前記投影部に投影させるようにしてもよい。
前記制御部は、前記投影部に、一定の面積を有する画像を前記スクリーンに投影させ、前記投影部の投影レンズの位置を制御して、前記投影レンズの各位置で前記演算処理部に前記閾値を変化させ、前記閾値の変化に対して前記2値画像の面積変化量が最大となるような前記投影レンズの位置を最適な位置として前記投影レンズの位置を設定してから、前記画像生成部が生成した画像を前記投影部に投影させるようにしてもよい。
前記制御部は、前記投影部にサイズ調整用画像を投影させ、前記センサ部が出力した0次モーメント量を示す信号に基づいて、前記サイズ調整用画像のサイズを取得し、取得した前記サイズ調整用画像のサイズと前記スクリーンのサイズとが一致するように、サイズ調整用画像のサイズを拡大又は縮小する補正をしてから、前記画像生成部が生成した画像を前記投影部に投影させるようにしてもよい。
本発明の第2の観点に係るプロジェクタの画像投影方法は、
スクリーンに画像を投影する投影部と、
前記スクリーン上に投影された投影画像からの光を、行列配置された複数の光電変換素子で受光し、前記複数の光電変換素子が出力した光検出信号の2値信号を加算演算するセンサ部と、を備えたプロジェクタにおいて、
前記投影部に、複数のターゲットマーク画像が整列したパターン画像をスクリーンに投影させるステップと、
前記センサ部の光電変換素子を選択し、選択した光電変換素子の光検出信号の2値信号を加算演算させて前記パターン画像の各ターゲットマーク画像の面積を示す0次モーメント量と前記0次モーメント量を前記選択した光電変換素子の座標値で重み付けした1次モーメント量とを示す信号を出力するように前記センサ部を制御して、前記センサ部の出力信号に基づいて前記各ターゲットマーク画像の重心位置を取得するステップと、
前記取得した各ターゲットマーク画像の重心位置と前記スクリーンに投影するパターン画像の各ターゲットマーク画像の正規重心位置とを比較して、前記スクリーンよりも投影部側に位置する物体による各ターゲットマーク画像の重心位置の正規重心位置からの位置ずれを検出し、位置がずれたターゲットマーク画像の位置を前記物体の位置情報として取得するステップと、
前記取得した位置情報に基づいて、前記物体部分の投影光の輝度を、より低減させた画像を生成するステップと、
前記生成した画像を前記投影部に投影させるステップと、を備えたことを特徴とする。
本発明によれば、的確に投影光を物体に追従させることができる。
以下、本発明の実施の形態に係るプロジェクタを図面を参照して説明する。
本実施形態に係るプロジェクタの構成を図1に示す。
本実施形態に係るプロジェクタ100は、投影部101と、画像情報取得部102と、プロジェクタ制御部103と、投影画像補正部104と、を備える。
投影部101は、プロジェクタ制御部103から供給された画像をスクリーンSに投影するものである。このプロジェクタ100は、図2(a)に示すように、スクリーンSよりもプロジェクタ100側に人物201が立っている場合、人物部分201aの投影光の照度を低下させた図2(b)に示すような人影画像202を投影するように構成されている。
投影部101は、人物部分201aを検出するため、プレゼンテーション用の投影画像を投影する間に、図3に示すような複数のターゲットマーク画像203が整列したパターン画像204を定期的に1フレームだけ投影する。
画像情報取得部102は、投影部101が投影したパターン画像204からの光を受光して、投影画像又はパターン画像204の画像情報として、その0次モーメント量と1次モーメント量とを取得するものである。
一般に、モーメント量mijは、次の数1によって表される。
Figure 2006162808

0次モーメント量m00は、次の数2によって表される。
Figure 2006162808

0次モーメント量m00は、この数2に示すように、画像データI(x,y)の総和を示す。
また、1次モーメント量m10,m01は、次の数3によって表される。
Figure 2006162808

1次モーメント量m10,m01は、この数3に示すように、0次モーメント量m00を座標値x,yのそれぞれで重み付けしたものである。
画像データI(x,y)の重心位置を(xg,yg)として、重心位置(xg,yg)は、0次モーメント量m00と1次モーメント量m10,m01とから、次の数4に従って求められる。
Figure 2006162808

ここで、整数をxとして2進数で表すと、整数xは、次の数5によって表される。
Figure 2006162808

1次モーメント量m10は、この数5を用いて、数6によって求められる。
Figure 2006162808
画像情報取得部102は、この0次モーメント量m00と1次モーメント量m10,m01とから重心位置(xg,yg)を求めるため、演算処理部105と、センサ部106と、を備える。センサ部106は、投影画像又はパターン画像204からの光を受光し、受光した光に対応する光検出信号を2値化し、取得した画像の0次モーメント量m00を示す2値信号と1次モーメント量m10,m01を示す2値信号とを出力するものである。
センサ部106は、図4に示すように投影部101とともにプロジェクタ100の前面パネルに配置される。尚、センサ部106は、取得した画像の重心の計測精度を確保するため、投影部101からできるだけ離れた位置に配置される。
また、演算処理部105は、センサ部106が出力した信号に基づいて0次モーメント量と1次モーメント量とを取得し、数4に従い、演算により、取得した画像の重心を求めるものである。
次に、演算処理部105がセンサ部106に供給する信号について説明してから、センサ部106の構成、演算処理部105の構成について説明する。
演算処理部105は、信号LOAD、COL(x)、ROW(y)、CLOCK1、CLOCK2、SEL、輝度閾値を生成してセンサ部106に出力する。信号LOADは、センサ部106を初期設定するための信号である。
信号CLOCK1、CLOCK2は、センサ部106の動作タイミングを設定するための信号である。信号CLOCK1、CLOCK2の周波数は、センサ部106の処理速度、構成等によって設定され、例えば、信号CLOCK1の周波数は、20MHz〜100MHz程度、信号CLOCK2の周波数は、1MHz〜10MHz程度に設定される。信号COL(x)、ROW(y)は、座標選択用の信号であり、信号SELは、信号選択用の制御信号である。輝度閾値は、取得した画像を2値化するためのものである。信号COL(x)、ROW(y)、信号SELについては、後述する。
センサ部106は、図5に示すように、画像処理部1と、列加算部2と、ロウデコーダ3と、カラムデコーダ4と、を備える。
画像処理部1は、複数の画像検出処理要素(以後、単に「処理要素」と記す。)1_xyからなる。本実施形態では、行方向、列方向の処理要素1_xyを、ともにN個として、N=8とする(x=1〜8,y=1〜8)。但し、処理要素1_xyの行数と列数とは異なるようにしてもよいし、N=8に限定されるものでもない。
ロウデコーダ3は、演算処理部105から供給された信号ROW(y)に従って処理要素1_xyのいずれかの列を選択するものである。ロウデコーダ3は、供給された信号ROW(y)を、処理要素1_xyの列を選択するため列選択信号yj(j=1〜8)に変換して処理要素1_xyに出力し、処理要素1_xyのいずれかの列を選択する。
カラムデコーダ4は、演算処理部105から供給された信号COL(x)に従って処理要素1_xyのいずれかの行を選択するものである。カラムデコーダ4は、供給された信号COL(x)を、処理要素1_xyの行を選択するための行選択信号xi(i=1〜8)に変換して処理要素1_xyに出力し、処理要素1_xyのいずれかの行を選択する。
N=8とした場合、信号ROW(y)、COL(x)をそれぞれ送信する信号線は、例えば、4本で構成される。この場合、ロウデコーダ3、カラムデコーダ4は、図6に示すような選択パターンに従って信号ROW(y),COL(x)を、それぞれ、列選択信号yj、行選択信号xiに変換する。ロウデコーダ3、カラムデコーダ4は、この選択パターンを記憶するメモリ(図示せず)を備える。
各処理要素1_xyは、取得した画像からの反射光を受光して光検出信号に変換し、変換した光検出信号に対して、それぞれ、画像処理を行うものである。各処理要素1_xyは、図7に示すように、光電変換器11と、トラッキング部12と、マスク部13と、行加算部14と、を備える。
光電変換器11は、受光した光を、その光強度に対応する信号レベルの光検出信号S2に変換するものである。
トラッキング部12は、各処理要素1_xyの光電変換器11が出力した光検出信号の2値信号に基づいて生成された2値画像をトラッキング画像(追跡対象画像)として追跡するものである。
このため、トラッキング部12は、光電変換器11からの光検出信号S2を2値画像に変換する。そして、トラッキング部12は、セルフウィンドウ法に基づいてターゲットトラッキングを行う。セルフウィンドウ法は、隣接する処理要素と自らの処理要素において、前フレームのトラッキング画像から、このトラッキング画像を囲むウィンドウ画像を生成し、生成したウィンドウ画像に含まれる2値画像を新たなトラッキング画像として生成する方法である。
即ち、前回のトラッキング画像が図8(a)に示すような画像211である場合に、トラッキング部12は、隣接する処理要素と自らの処理要素において生成したトラッキング画像から、図8(b)に示すようなウィンドウ画像212を生成する。今回の2値画像が図8(c)に示すような画像213であった場合、トラッキング部12は、図8(b)に示すウィンドウ画像212と図8(c)に示す2値画像213との論理積を演算して、図8(d)に示すような今回のトラッキング画像214を生成する。
言い換えれば、トラッキング部12は、生成したウィンドウ画像212の領域外の画像を除外してトラッキング画像214を生成する。
このトラッキング部12は、2値化回路121と、論理和回路122と、論理積回路123と、マルチプレクサ124と、FF回路125と、を備える。
2値化回路121は、光電変換器11によって変換された光検出信号S2の信号レベルを、演算処理部105から供給された輝度閾値と比較することにより、2値信号S3に変換するものである。演算処理部105は、この輝度閾値を記憶し、各処理要素1_xyに供給する。2値画像は、複数の処理要素1_xyの2値化回路121が変換した2値信号S3によって生成される。
2値化回路121は、光検出信号S2の信号レベルが輝度閾値以上の場合、“H”レベルの信号S3を出力し、輝度閾値未満の場合、“L”レベルの信号S3を出力する。
論理和回路122は、周辺の処理要素1_(x-1)y ,1_(x+1)y,1_x(y-1),1_x(y+1)のトラッキング部12からそれぞれ出力されたトラッキング画像信号S6と、自己の処理要素1_xyのトラッキング部12から出力されたトラッキング画像信号S6と、の論理和を演算してウィンドウ画像信号S4を生成するものである。
論理和回路122は、これらのトラッキング画像信号S6の信号レベルうち、少なくとも1つの信号レベルが“H”レベルのとき、“H”レベルのウィンドウ画像信号S4を出力し、すべての信号レベルが“L”レベルのとき、“L”レベルのウィンドウ画像信号S4を出力する。
論理積回路123は、論理和回路122が生成したウィンドウ画像信号S4と2値化回路121が生成した信号S3との論理積を演算し、信号S5を生成するものである。信号S3及び信号S4の信号レベルが“H”レベルの場合、論理積回路123は、“H”レベルの信号S5を出力し、信号S3及び信号S4の信号レベルの少なくとも一方が“L”レベルのときに、“L”レベルの信号S5を出力する。
マルチプレクサ124は、信号LOADに従って、マスク部13の論理積回路131から出力された信号S1又は論理積回路123から出力された信号S5を選択してFF回路125に出力するものである。マルチプレクサ124は、信号LOADが“L”レベルの場合、信号S1を選択出力し、信号LOADが“H”レベルの場合には、信号S5を選択出力する。
FF(フリップフロップ)回路125は、Dフリップフロップによって構成され、演算処理部105から供給された信号CLOCK1の立ち上がりに同期して、マルチプレクサ124が出力した信号S1又は信号S5の信号レベルを保持するものである。FF回路125は、保持した信号を次の信号CLOCK1の立ち上がり時にトラッキング画像信号S6として出力する。
マスク部13は、トラッキング部12と行加算部14とを初期化するとともに、トラッキング画像信号S6をビットマスクするためのものであり、論理積回路131,132を備える。
論理積回路131は、カラムデコーダ4から出力された行選択信号xi及びロウデコーダ3から出力された列選択信号yjがともに“H”レベルの場合、“H”レベルの信号S1を出力し、行選択信号xi及び列選択信号yjの少なくとも一方が“L”レベルのとき、“L”レベルの信号S1を出力する。
論理積回路132は、論理積回路131から出力された信号S1とトラッキング部12から出力されたトラッキング画像信号S6との論理積を演算するものである。
論理積回路131から出力された信号S1の信号レベルが“H”レベルの場合、論理積回路132は、トラッキング画像信号S6を行加算部14に出力する。また、論理積回路132は、信号S1の信号レベルが“L”レベルの場合、トラッキング画像信号S6の行加算部14への出力を停止する。
センサ部106は、このマスク部13を用い、図6に示す選択パターンの信号COL(x)、信号ROW(y)等が供給されて種々のビットパターンを生成する。
例えば、センサ部106は、図6に示す選択パターンP9の信号COL(x)、選択パターンP9の信号ROW(y)が供給され、“L”レベルの信号LOADが供給されると、図9(a)に示すようなビットパターンを生成する。
すべての処理要素1_xyの論理積回路131は、このビットパターンにより、“L”レベルの信号COL(x),ROW(y)が供給されて、論理積回路132に“L”レベルの信号S1を出力する。そして、すべての処理要素1_xyの論理積回路132は、“L”レベルの信号S1が供給されて、トラッキング画像信号S6をマスクする。
センサ部106は、図6に示す選択パターンP10の信号COL(x)、選択パターンP16の信号ROW(y)が供給され、マルチプレクサ124に“H”レベルの信号LOADが供給されると、図9(b)に示すようなビットパターンを生成する。
この場合、処理要素1_xy(x=1〜8、y=1〜8)の論理積回路131は、“H”レベルの信号COL(x),ROW(y)が供給されて、論理積回路132に“H”レベルの信号S1を出力する。そして、処理要素1_xy(x=1〜8、y=1〜8)の論理積回路132は、“H”レベルの信号S1が供給されて、トラッキング部12が生成したトラッキング画像信号S6を行加算部14に出力する。
センサ部106は、図6に示す選択パターンP10の信号COL(x)、選択パターンP16の信号ROW(y)が供給され、マルチプレクサ124に“H”レベルの信号LOADが供給されると、図9(c)に示すようなビットパターンを生成する。
“L”レベルの信号COL(x),ROW(y)が供給された処理要素1_xy(x=1,3,5,7,y=1〜8)の論理積回路131は、“L”レベルの信号S1を出力し、論理積回路132は、トラッキング部12が生成したトラッキング画像信号S6をマスクする。
“H”レベルの信号COL(x),ROW(y)が供給された処理要素1_xy(x=2,4,6,8,y=1〜8)の論理積回路131は、“H”レベルの信号S1を出力し、論理積回路132は、トラッキング部12が生成したトラッキング画像信号S6を行加算部14に出力する。
そして、センサ部106は、“H”レベルの信号COL(x),ROW(y)が供給された処理要素1_xyのトラッキング画像信号S6の部分和(カウント数)を示す信号SOUTを2進数の桁毎に出力する。
また、センサ部106は、図6に示す選択パターンP11の信号COL(x)、選択パターンP16の信号ROW(y)が供給され、マルチプレクサ124に“H”レベルの信号LOADが供給されると、図9(d)に示すようなビットパターンを生成する。
また、センサ部106は、図6に示す選択パターンP12の信号COL(x)、選択パターンP16の信号ROW(y)が供給され、マルチプレクサ124に“H”レベルの信号LOADが供給されると、図9(e)に示すようなビットパターンを生成する。
センサ部106は、図9(d),(e)に示すようなビットパターンを生成した場合も同様に、“H”レベルの信号COL(x),ROW(y)が供給された処理要素1_xyのトラッキング画像信号S6の部分和を示す信号SOUTを2進数の桁毎に出力する。
図7に戻り、行加算部14は、行方向のSUM信号をカウントするためのものであり、マルチプレクサ141と、加算回路142と、FF回路143と、からなる。
マルチプレクサ141は、演算処理部105から供給された信号SELに従って論理積回路132の出力信号又はFF回路143が出力したCARRY信号を選択出力するものである。
マルチプレクサ141は、信号SELが“H”レベルのときに、論理積回路132の出力信号を選択出力し、信号SELが“L”レベルのときに、FF回路143から出力されたCARRY信号を選択出力する。
加算回路142は、半加算回路によって構成され、マルチプレクサ141が選択出力した信号又はCARRY信号と、隣接する処理要素1_(x-1)yの加算回路142から出力されたSUM信号と、をカウントするものである。
加算回路142は、カウントした数をSUM信号、CARRY信号として、SUM信号を隣接する処理要素1_(x+1)yの加算回路142に出力し、CARRY信号をFF回路143に出力する。
FF回路143は、Dフリップフロップによって構成され、加算回路142から出力されたCARRY信号を、演算処理部105から供給された信号CLOCK2の立ち上がりに同期して保持するものである。FF回路143は、保持したCARRY信号を次の信号CLOCK2の立ち上がり時にマルチプレクサ141に出力する。
次に、図5に示す列加算部2は、処理要素1_18〜1_88からそれぞれ出力されたSUM信号を、順次、列方向にカウントするものであり、加算部2_1〜2_8からなる。
各加算部2_y(y=1〜8)は、図10に示すように、加算回路21とFF回路22とからなる。
加算回路21は、半加算回路によって構成され、加算部2_(y-1)の加算回路21から供給されたSUM信号と処理要素1_8yの加算回路142から出力されたSUM信号とFF回路22から出力されたCARRY信号とをカウントするものである。
そして、加算回路21は、カウントした数をSUM信号、CARRY信号として、SUM信号を加算部2_(y+1)の加算回路21に出力し、CARRY信号を加算部2_yのFF回路22に出力する。
FF回路22は、Dフリップフロップによって構成され、加算部2_yの加算回路21から出力されたCARRY信号を、信号CLOCK2の立ち上がりに同期して加算部2_yの加算回路21に出力するものである。
尚、演算処理部105は、信号CLOCK2のクロック周期を1サイクルとして、初期化時に、信号SELを2n(n;自然数、N=2^n)サイクル分だけマルチプレクサ141に出力し、各加算部2_yのFF回路22をリセットする。
列加算部2は、加算部2_8の加算回路21が出力したSUM信号を、列加算部2の信号SOUTとして、図1に示す演算処理部105に出力する。演算処理部105が座標選択を行うことにより、この信号SOUTが0次モーメント量又は1次モーメント量を示す信号になる。
即ち、このセンサ部106は、各処理要素1_xyに光電変換器11だけでなく、行加算部14も備え、座標選択されることにより、0次モーメント量、1次モーメント量を示す信号SOUTを出力するものであり、この点で、CCDとは異なる構成を有している。この0次モーメント量は、信号CLOCK2の2×nサイクルで求められる。このため、この画像情報取得部102は、高速に重心の計測を行える。
演算処理部105は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備え、前述のようにセンサ部106に、各種信号を出力してセンサ部106を制御する。
演算処理部105は、まず、“L”レベルの信号LOADをセンサ部106に出力し、図6に示す選択パターンP9の信号ROW(y)、COL(x)をセンサ部106に出力してセンサ部106を初期化する。
初期化後、演算処理部105は、センサ部106に、処理要素1_xyを選択する信号ROW(y),COL(x)を出力して、センサ部106から、投影画像の0次モーメント量と1次モーメント量を示す信号SOUTを出力させる。
例えば、処理要素1_xy(x=1〜8、y=1〜8)の0次モーメント量を示す信号SOUTを出力させる場合、演算処理部105は、選択パターンP16の信号COL(x)、選択パターンP16の信号ROW(y)をセンサ部106に出力する。
そして、演算処理部105は、センサ部106から、0次モーメント量の各桁を示す信号SOUTを、順次、取得する。この0次モーメント量は、トラッキング画像の面積を示す。
選択した行の1次モーメント量を示す信号SOUTを出力させる場合、演算処理部105は、センサ部106に、図6に示す選択パターンP16の信号ROW(y)を出力する。また、演算処理部105は、センサ部106に、選択パターンP10,P11,P12の信号COL(x)を、順次、出力する。
そして、演算処理部105は、センサ部106が出力した信号SOUTを、順次、取得する。図9(c)〜(e)に示すようなビットパターンによる部分和を示す信号SOUTは、それぞれ、2進数表現された数6のs1〜s3の各桁を表す。
演算処理部105は、数6に従い、取得したs1,s2,s3の値に、それぞれ、荷重値として1(=2^0),2(=2^1),4(=2^2)を乗算し、ターゲット画像の選択した行の1次モーメント量を示す信号SOUTを、順次、取得する。
そして、演算処理部105は、センサ部106から取得した信号SOUTから数4に従い、取得した画像の重心位置(xg,yg)を取得する。演算処理部105は、取得した重心位置(xg,yg)をプロジェクタ制御部103に出力する。
図1に戻り、プロジェクタ制御部103は、プロジェクタ全体を制御するものであり、演算処理部105と同様に、CPU、ROM、RAM等を備える。プロジェクタ制御部103は、スクリーンSへの焦点合わせを行うように投影部101を制御する。そして、プロジェクタ制御部103は、投影部101に画像データを供給する。
プロジェクタ制御部103は、人影画像202を生成する前に、投影レンズの焦点位置の調整処理、調光処理、スクリーンサイズの調整処理、台形補正処理、壁色補正処理を、投影部101、画像情報取得部102、投影画像補正部104とともに実行する。
投影レンズの焦点位置の調整処理は、スクリーンSに投影したターゲットマーク画像203の輝度測定値に基づいて投影部101の投影レンズの焦点位置を調整する処理である。
具体的には、プロジェクタ制御部103は、この処理を行うため、スクリーンSに図11に示すような焦点位置調整用のターゲットマーク画像203を投影部101に投影させ、画像情報取得部102に、ターゲットマーク画像203の0次モーメント量を取得させる。
また、ターゲットマーク画像203の輝度を測定する場合、プロジェクタ制御部103は、画像情報取得部102の演算処理部105を制御して、センサ部106の各処理要素1_xyの光電変換器11に、複数の輝度閾値を供給させる。
そして、プロジェクタ制御部103は、各輝度閾値を供給する毎に、演算処理部105にターゲットマーク画像203の0次モーメント量を取得させる。プロジェクタ制御部103は、各輝度閾値毎の0次モーメント量を、画像情報取得部102から取得する。0次モーメント量は、ターゲットマーク画像203の面積を示し、輝度閾値が変化すれば、この面積も変化する。
投影レンズの焦点位置が正規の焦点位置からずれている場合、輝度閾値の変化に対して、ターゲットマーク画像203の面積変化は緩やかになる。一方、投影レンズの焦点位置が適正であれば、輝度閾値を変化させることによって急激に面積が変化する点が存在する。プロジェクタ制御部103は、この面積の変化量が最大となるような点が存在したときに、この投影レンズの位置を適正な焦点位置として取得する。プロジェクタ制御部103は、このようにして、投影部101の投影レンズの焦点位置を調整する。
次に、調光処理は、例えば、窓から入射する環境光によって影響を受けた画像の輝度を、適正な値に補正する処理である。
スクリーンに投影された画像に、窓から環境光が照射された場合、図12に示すように、画像の輝度測定値は環境光分だけ上昇する。しかし、環境光の影響を受けた場合、投影輝度値が最大のときに測定した最大輝度値と取得した輝度測定値との輝度比は、環境光の光強度によって変化する。
プロジェクタ制御部103は、この輝度比を取得するため、投影輝度が変化するように投影部101を制御して、図11に示すようなターゲットマーク画像203を投影部101に供給する。そして、プロジェクタ制御部103は、画像情報取得部102が取得した0次モーメント量に基づいて、ターゲットマーク画像203の輝度測定値を取得する。
尚、図13に示すように、輝度が均一のターゲットマーク画像203に対して輝度閾値をth_k-1からth_kに変化させた場合に、輝度閾値の変化量に対して、ターゲットマーク画像203の面積がA_k-1からA_kに大きく変化したとき、そのときの輝度閾値がターゲットマーク画像203の輝度測定値Bになる。
従って、ターゲットマーク画像203の輝度測定値Bを取得する場合、プロジェクタ制御部103は、画像情報取得部102を制御して、複数の輝度閾値を、順次、センサ部106に供給する。
そして、プロジェクタ制御部103は、画像情報取得部102から、各輝度閾値に対するターゲットマーク画像203の面積を取得し、ターゲットマーク画像203の輝度測定値Mを取得する。プロジェクタ制御部103は、取得した輝度測定値Mから、前述の輝度比を取得し、取得した輝度比を投影画像補正部104に供給する。
次に、スクリーンサイズの調整処理は、図14に示すように、投影画像の大きさをスクリーンSのサイズに合わせる処理である。この処理は、プロジェクタ100がズーム機能を備えている場合に、スクリーンSを最大限に使用できるため、特に有効な処理である。
プロジェクタ制御部103は、スクリーンサイズを調整するため、投影部101を制御して全面白色の画像を投影し、画像情報取得部102から、投影画像の0次モーメント量を、その面積として取得する。ズームインした場合、投影画像の面積は変化し、その変化量は、投影画像の辺がスクリーンSと一致したときに変化する。プロジェクタ制御部103は、ズームインしたときの投影画像の面積変化の変化量に基づいてスクリーンサイズを調整する。
次に、台形補正処理は、スクリーンS上の投影画像の歪みを補正する処理である。即ち、投影部101の光軸に対してスクリーンSの面が垂直でなければ、スクリーンS上の投影画像は、図15(a)〜(d)に示すように歪んでしまう。このプロジェクタ100は、歪んだ投影画像の重心を取得してその歪み量を検出し、スクリーンS上の投影画像の歪みを補正する。
具体的には、プロジェクタ制御部103は、画像情報取得部102に、スクリーンS上の投影画像の0次モーメント量、1次モーメント量を取得させ、重心位置を取得させる。
そして、プロジェクタ制御部103は、投影画像の重心位置と投影部101に供給した画像の正規重心位置とを比較して、投影画像の歪み量を取得する。プロジェクタ制御部103は、投影画像の歪み量を投影画像補正部104に供給して、投影画像補正部104が補正した補正画像を投影部101に供給する。
次に、壁色補正処理は、スクリーン、黒板等の壁に画像を投影する場合に壁の色によって変化した輝度パラメータを補正する処理である。例えば、外出時等に、白色のスクリーンSを使用できないこともあり得る。この場合、代用として、図16(b)に示すような白色でない黒板Sb等を利用することになる。白色のスクリーンSの代わりに、白色でない黒板Sbを用いて時計画像224を投影した場合、図16(c)に示すように、時計画像224の色合いが黒板Sbの色により大きく影響を受けてしまい、図16(d)に示すような本来の時計画像の色を再現することができない。
しかし、時計画像310の色合いが黒板Sbの色によって影響を受けた場合、輝度パラメータとしてRGB各色の輝度比も変化する。従って、RGB各原色の輝度値を測定し、この輝度比を輝度パラメータとして求め、基準白色スクリーンでのRGBの輝度比を基準値とすることによって壁色補正を行うことができる。
具体的には、プロジェクタ制御部103は、投影部101を制御して、スクリーンSにRGBのターゲットマーク画像203を、順次、投影させる。プロジェクタ制御部103は、RGBのターゲットマーク画像203を投影したときの0次モーメント量を画像情報取得部102に取得させる。そして、プロジェクタ制御部103は、画像情報取得部102から各RGBのターゲットマーク画像203の輝度測定値を前述のように取得する。
そして、プロジェクタ制御部103は、予め設定された基準白色スクリーンSでのRGBの輝度比とそれぞれの輝度測定値の比とを比較し、比較結果に基づいて、輝度値の補正量を取得する。プロジェクタ制御部103は、この補正量を投影画像補正部104に供給する。そして、プロジェクタ制御部103は、輝度値を補正した補正画像を投影画像補正部104から取得して投影部101に供給する。
プロジェクタ制御部103は、このような各補正処理を行ってから、人影画像202を生成する。具体的には、プロジェクタ制御部103は、前述のように投影部101に、図3に示すパターン画像204をスクリーンSに投影させる。この際、プロジェクタ制御部103は、プレゼンテーション用の投影画像のリフレッシュレートを、例えば、100Hzとした場合、投影部101に、100フレーム中、1フレームだけパターン画像204を投影させる。
この程度の周期でパターン画像204を投影すれば、人の目では、パターン画像204を視認できず、人への影響を無視することができる。一方、センサ部106の処理速度が投影画像のリフレッシュレートと比較して高速であるため、センサ部106はこのパターン画像204を取得することができる。
また、プロジェクタ制御部103は、画像情報取得部102が取得したパターン画像204の各ターゲットマーク画像203の重心位置(xg,yg)の位置ずれを検出して、スクリーンSよりもプロジェクタ100側に立っている人物部分を検出する。
そして、プロジェクタ制御部103は、投影画像補正部104に、検出した人物部分の情報を供給し、投影画像補正部104が補正した画像データを投影部101に供給する。
投影画像補正部104は、投影画像の補正を行い、補正した補正画像をプロジェクタ制御部103に供給するものである。投影画像補正部104は、プロジェクタ制御部103から、調光処理において取得した輝度比、台形補正処理において取得した投影画像の歪み量が供給され、供給された輝度比、投影画像の歪み量に基づいて投影画像の補正を行う。
具体的に、投影画像補正部104は、プロジェクタ制御部103から供給された輝度比に基づいて、環境光がない場合のコントラスト比となるように、投影画像の明るい部分の輝度を低下させて、補正画像を生成する。
投影画像補正部104は、プロジェクタ制御部103から供給された投影画像の歪み量がスクリーンS上で0となるような補正画像を生成する。
また、投影画像補正部104は、プロジェクタ制御部103から供給された人物部分の情報に基づいて、図2に示すような人影画像202を生成し、生成した人影画像202をプロジェクタ制御部103に供給する。
次に、本実施形態に係るプロジェクタ100の動作を説明する。
まず、画像情報取得部102の基本動作について説明する。尚、ここでは、トラッキング画像を図8(a)又は(d)に示すような画像として説明する。
演算処理部105は、まず、センサ部106を初期化する。この場合、演算処理部105は、図9(a)に示すようなビットパターンが生成されるように、センサ部106に図6に示す選択パターンP9の信号ROW(y)、COL(x)をセンサ部106に出力する。センサ部106のロウデコーダ3、カラムデコーダ4は、選択パターンP9に従って、すべて“L”レベルの列選択信号yi、行選択信号xiを、すべての処理要素1_xyの論理積回路131に出力する。
また、演算処理部105が“L”レベルの信号LOADをセンサ部106に供給すると、すべての処理要素1_xyのマルチプレクサ124は、論理積回路131の“L”レベルの信号S1をFF回路125に選択出力する。
また、演算処理部105がセンサ部106に、信号SELを、信号CLOCK2の2nサイクル分だけ出力すると、各処理要素1_xyのFF回路143はリセットされる。このようにして、演算処理部105は、センサ部106を初期化する。初期化後、画像情報取得部102の演算処理部105は、センサ部106に、“H”レベルの信号LOADを出力する。
トラッキング画像の0次モーメント量を取得する場合、演算処理部105は、センサ部106に選択パターンP16の信号ROW(y)、信号COL(x)を出力する。センサ部106は、図9(b)に示すようなビットパターンを生成する。
演算処理部105は、“H”レベルの信号SELをセンサ部106に供給する。例えば、第5行目の処理要素1_15〜1_85の各加算回路142について説明すると、処理要素1_15〜1_85の各加算回路142は、図17(a)に示すように、順次、隣接した処理要素の加算回路142から出力されたSUM信号と、自己の処理要素のマルチプレクサ141から選択出力されたトラッキング画像信号S6と、をカウントする。
そして、各処理要素1_15〜1_85の加算回路142は、カウントした数をSUM信号、CARRY信号として出力する。処理要素1_15〜1_85の各FF回路143は、出力されたCARRY信号を信号CLOCK2の立ち上がり時に格納する。
列加算部2の加算部2_5の加算回路21は、処理要素1_85の加算回路142から出力されたSUM信号と、加算部2_4から出力されたSUM信号と、加算部2_5のFF回路22から出力されたCARRY信号と、を列カウント数の最下位桁としてカウントする。
加算部2_1〜2_4,2_6〜2_8の各加算回路21は、加算部2_5の加算回路21と同じように動作する。そして、加算部2_1〜2_8の各加算回路21は、処理要素1_81〜1_88の各加算回路142から出力されたSUM信号を、順次、カウントする。そして、加算部2_8は、信号CLOCK2の立ち上がり時にSUM信号“1”を信号SOUTとして出力する。この信号SOUTは、図8(a)又は(d)に示すトラッキング画像の総カウント数(0次モーメント量、面積)の最下位桁を示す。
次に、演算処理部105は、図17(b)に示すように、センサ部106に“L”レベルの信号SELを供給する。処理要素1_15〜1_85の各マルチプレクサ141は、同じ処理要素のFF回路143が格納したCARRY信号を選択出力する。
処理要素1_15〜1_85の各加算回路142は、順次、隣接した処理要素の加算回路142から出力されたSUM信号とマルチプレクサ141から選択出力されたCARRY信号とを加算する。
列加算部2の加算部2_5の加算回路21は、処理要素1_85の加算回路142から出力されたSUM信号と、加算部2_4から出力されたSUM信号と、加算部2_5のFF回路22から出力されたCARRY信号と、を列カウント数の次の桁としてカウントする。
加算部2_1〜2_4,2_6〜2_8の各加算回路21は、加算部2_5の加算回路21と同じように動作する。そして、加算部2_1〜2_8の各加算回路21は、処理要素1_81〜1_88の各加算回路142から出力されたSUM信号を、順次、カウントする。加算部2_8は、信号CLOCK2の立ち上がり時に、SUM信号“1”を信号SOUTとして出力する。この信号SOUTは、図8(a)又は(d)に示すトラッキング画像の総カウント数の次の桁を示す。
同じようにして、加算部2_8は、図18(c)に示すように、信号CLOCK2の立ち上がり時に、SUM信号“0”を信号SOUTとして出力する。この信号SOUTは、図8(a)又は(d)に示すトラッキング画像の総カウント数のさらに次の桁を示す。
このようにして、センサ部106は、図8(a)又は(d)に示すトラッキング画像の総カウント数を示す信号SOUTを、最下位桁から順に出力する。即ち、画像処理部1は、図18(a)に示すように、図8(a)又は(d)に示すトラッキング画像と図9(b)に示すようなビットパターンとの論理積を演算する。そして、センサ部106は、演算結果として、図8(a)又は(d)に示すトラッキング画像の0次モーメント量を示す信号SOUTを、最下位桁から順に出力し、演算処理部105は、この信号SOUTを、順次、取得する。
次に、行方向の1次モーメント量を取得する場合、演算処理部105は、図9(c)〜(e)に示すビットパターンに対応した選択パターンの信号COL(x)を、順次、センサ部106に出力する。
まず、演算処理部105は、図9(c)に示すビットパターンに対応した選択パターンとして、選択パターンP10の信号COL(x)、選択パターンP16の信号ROW(y)をセンサ部106に出力する。画像処理部1は、図18(b)に示すように、このビットパターンの値と各処理要素の値との論理積を演算する。この演算結果は、数6に示すs1の値(=2)を示す。センサ部106は、このs1の値の各桁を示す信号SOUTを順次出力する。演算処理部105は、このs1の値を取得する。
次に、演算処理部105は、図9(d)に示すビットパターンに対応した選択パターンとして、選択パターンP11の信号COL(x)をセンサ部106に出力する。
画像処理部1は、図18(c)に示すように、このビットパターンの値と各処理要素の値との論理積を演算する。この演算結果は、数6に示すs2の値(=1)を示す。センサ部106は、このs2の値の各桁を示す信号SOUTを順次出力する。演算処理部105は、このs2の値を取得する。
次に、演算処理部105は、図9(e)に示すビットパターンに対応した選択パターンとして、選択パターンP12の信号COL(x)をセンサ部106に出力する。
画像処理部1は、図18(d)に示すように、このビットパターンの値と各処理要素の値との論理積を演算する。この演算結果は、数6に示すs3の値(=4)を示す。センサ部106は、このs3の値の各桁を示す信号SOUTを順次出力する。演算処理部105は、このs3の値を取得する。
次に、演算処理部105は、数6に従い、取得したs1,s2,s3の値に、それぞれ、荷重値として1(=2^0),2(=2^1),4(=2^2)を乗算し、図8(a)又は(d)に示すトラッキング画像の行方向の1次モーメント量として20を取得する。
演算処理部105は、このようにして求めた0次モーメント量と図8(a)又は(d)に示すトラッキング画像の行方向の1次モーメント量とを数4に代入し、4を算出する。処理要素1_11の座標を(1,1)とすると、このトラッキング画像の行方向の重心位置は、第1列目から4列目、即ち、xg=5となる。
画像情報取得部102は、同じように、図8(a)又は(d)に示すトラッキング画像の列方向の重心位置を求め、列方向の重心位置として、yg=5を取得する。従って、このトラッキング画像の重心位置(xg,yg)は、(5,5)となる。
そして、画像情報取得部102は、取得した重心位置(xg,yg)をプロジェクタ制御部103に出力する。
次に、従来のCCDの処理時間とセンサ部106の処理時間とを比較する。従来のCCDの処理時間は、通常、30ms程度である。これに対して、センサ部106が重心を取得する場合、(4n^2+2n+1)サイクルを要する。
具体的に、N=64として重心を取得する場合、センサ部106は、約256サイクルを要する。信号CLOCK2のクロック周波数を10MHzとすると、重心を取得する処理時間は、20μs程度になる。このようにCCDと比較して、画像情報取得部102は、短時間で投影画像の重心位置を検出する。
プロジェクタ100は、このように動作する画像情報取得部102を用い、図19に示すフローチャートに従って各補正処理を実行する。
プロジェクタ制御部103は、投影部101、画像情報取得部102を制御して、投影部101の投影レンズの焦点位置の調整処理を、図20に示すフローチャートに従って実行する(ステップS11)。
即ち、プロジェクタ制御部103は、投影部101に、スクリーンSの中央にターゲットマークの画像を投影させる(ステップS21)。
プロジェクタ制御部103は、画像情報取得部102の演算処理部105に対し、センサ部106に複数の輝度閾値を、順次、供給させて、ターゲットマーク画像203の0次モーメント量を取得させるように制御する(ステップS22)。
プロジェクタ制御部103は、画像情報取得部102から、各輝度閾値に対応するターゲットマーク画像203の0次モーメント量を、ターゲットマーク画像203の面積として取得し、取得した面積の変化量を取得する(ステップS23)。
プロジェクタ制御部103は、取得した面積の変化量が最大となる点があった場合、この位置を適正な焦点位置として、投影部101の投影レンズの焦点位置を設定する(ステップS24)。
プロジェクタ制御部103は、投影部101、画像情報取得部102を制御して、図21に示すフローチャートに従い、調光処理を実行する(図19のステップS12)。
即ち、プロジェクタ制御部103は、ターゲットマーク画像203を投影部101に供給し、スクリーンSに画像を投影させる(ステップS31)。
プロジェクタ制御部103は、投影部101を制御して、スクリーンSに投影した画像の投影輝度を変化させる(ステップS32)。
プロジェクタ制御部103は、画像情報取得部102を制御して、各投影輝度に対応するターゲットマーク画像203の0次モーメント量を取得させ、輝度測定値を取得する(ステップS33)。
プロジェクタ制御部103は、各輝度測定値と輝度最大値との輝度比を取得する(ステップS34)。
プロジェクタ制御部103は、投影画像補正部104に、取得した輝度比を供給する(ステップS35)。
プロジェクタ制御部103は、投影画像補正部104から、投影輝度値を補正した画像を取得して、投影部101に供給する(ステップS36)。
次に、プロジェクタ制御部103は、投影部101、画像情報取得部102を制御して、図22に示すフローチャートに従い、スクリーンサイズの調整処理を実行する(図19のステップS13)。
即ち、プロジェクタ制御部103は、投影部101に全面白色の投影画像を供給して、スクリーンSにこの投影画像を投影させる(ステップS41)。
プロジェクタ制御部103は、画像情報取得部102に投影画像の0次モーメント量を取得させる(ステップS42)。
プロジェクタ制御部103は、画像情報取得部102から、この0次モーメント量を、投影画像の面積として取得する(ステップS43)。
プロジェクタ制御部103は、投影部101を制御して、広角側からズームインして、投影画像の面積の変化量を取得する(ステップS44)。
プロジェクタ制御部103は、取得した面積変化量の変化に基づいてズームを設定する(ステップS45)。
次に、プロジェクタ制御部103は、投影部101、画像情報取得部102を制御して、図23に示すフローチャートに従い、台形補正処理を実行する(図19のステップS14)。
プロジェクタ制御部103は、画像を投影部101に供給して、スクリーンSに画像を投影させる(ステップS51)。
プロジェクタ制御部103は、画像情報取得部102に、投影画像の重心位置を取得させる(ステップS52)。
プロジェクタ制御部103は、画像情報取得部102から、投影画像の重心位置を取得し、取得した重心位置と基準重心位置とを比較して投影画像の歪み量を検出する(ステップS53)。
プロジェクタ制御部103は、検出した投影画像の歪み量を投影画像補正部104に供給する(ステップS54)。
プロジェクタ制御部103は、投影画像補正部104から、歪み量に基づいて補正した補正画像を投影部101に供給し、スクリーンSに投影させる(ステップS55)。
次に、プロジェクタ制御部103は、再補正するか否かを判定する(図19のステップS15)。
再補正すると判定した場合(ステップS15においてYes)、プロジェクタ制御部103は、ステップS12〜S14の処理を、再度、実行する。
再補正しないと判定した場合(ステップS15においてNo)、プロジェクタ制御部103は、図20に示すフローチャートに従い、投影部101の投影レンズの焦点位置の詳細な調整処理を実行する(ステップS16)。
プロジェクタ制御部103は、図24に示すフローチャートに従い、壁色補正処理を実行する(ステップS17)。
即ち、プロジェクタ制御部103は、投影部101にRGB色のターゲットマーク画像203を供給し、順次、スクリーンSに投影させる(ステップS61)。
プロジェクタ制御部103は、RGB各色のターゲットマーク画像203の0次モーメント量を取得させ、0次モーメント量に基づいて輝度測定値を取得する(ステップS62)。
プロジェクタ制御部103は、取得した各色の輝度測定値の輝度比を取得する(ステップS63)。
プロジェクタ制御部103は、取得した輝度比と基準白色スクリーンでのRGBの輝度比とを比較する(ステップS64)。
プロジェクタ制御部103は、比較結果に基づいて、壁色補正量を取得する(ステップS65)。
プロジェクタ制御部103は、取得した壁色補正量を投影画像補正部104に供給する(ステップS66)。
プロジェクタ制御部103は、投影画像補正部104から、壁色補正量に基づいて補正した補正画像を取得して、投影部101に供給し、スクリーンSに投影させる(ステップS67)。
次に、プロジェクタ制御部103は、再度、コントラスト補正、ガンマ補正を含む調光処理を実行し(ステップS18)、この補正処理を終了させる。
このようにプロジェクタ制御部103は、補正処理を実行すると、図25に示すフローチャートに従い、人影画像投影処理を実行する。
プロジェクタ制御部103は、図3に示すようなパターン画像204を投影部101に供給して、投影画像の間に1フレームだけスクリーンSに投影させる(ステップS71)。
プロジェクタ制御部103は、画像情報取得部102に、各ターゲットマーク画像203の重心位置を取得させる(ステップS72)。
プロジェクタ制御部103は、画像情報取得部102から、各ターゲットマーク画像203の重心位置を取得し、取得した重心位置の位置ずれを検出する(ステップS73)。
プロジェクタ制御部103は、ターゲットマーク画像203の位置ずれ領域を人物部分として検出する(ステップS74)。
プロジェクタ制御部103は、投影画像補正部104に、人物部分の情報を供給する(ステップS75)。
プロジェクタ制御部103は、投影画像補正部104から、人物部分の情報に基づいて生成した人影画像202を取得して、投影部101に供給し、スクリーンSに投影させる(ステップS76)。プロジェクタ制御部103は、このようにして人影画像投影処理を実行する。
次に、プロジェクタ100の具体的な動作について説明する。
プロジェクタ制御部103は、投影レンズの焦点位置の調整処理を実行して、投影部101は、スクリーンSに図26(a)に示すようなターゲットマーク画像203を投影する(図20のステップS21の処理)。
そして、プロジェクタ制御部103は、画像情報取得部102が、各輝度閾値th_kに対応して取得した0次モーメント量に基づいて図26(b)、(c)に示すようなターゲットマーク画像203の面積を取得する。
図26(c)に示すように、輝度閾値th_kを変化させたときのターゲットマーク画像203の面積の変化が緩やかな場合、プロジェクタ制御部103は、焦点がずれていると判別して投影部101の投影レンズの焦点位置を調整する。
図26(b)に示すように、輝度閾値th_kを変化させたときのターゲットマーク画像203の面積の変化量がある点で最大となった場合、プロジェクタ制御部103は、この位置を適正な焦点位置として、投影レンズの焦点位置を設定する。
次に、プロジェクタ制御部103は、調光処理を実行して、投影部101は、スクリーンSにターゲットマーク画像203を投影する(図21のステップS31の処理)。
そして、プロジェクタ制御部103は、投影輝度を変化させて(ステップS32の処理)、各輝度測定値と輝度最大値との輝度比を取得する(ステップS34の処理)。図27に示すように、投影輝度Lの場合に取得した輝度比が、p1の場合、プロジェクタ制御部103は、環境光ありと判別し、輝度比p1を投影画像補正部104に供給する(ステップS35の処理)。
投影画像補正部104は、輝度比p0となるような補正画像を生成し、プロジェクタ制御部103は、この補正画像を投影部101に供給して、スクリーンSに投影させる(ステップS36の処理)。
次に、プロジェクタ制御部103は、スクリーンサイズの調整処理を実行して、投影部101は、図28(a)に示すような全面白色の投影画像232を、スクリーンSに投影する(図22のステップS41の処理)。
プロジェクタ制御部103は、投影部101を制御して、広角側からズームインすると(ステップS44の処理)、投影画像232の面積は、図29に示すように変化する。即ち、ズームがS0よりも広角側の場合、投影画像232は、図28(c)に示すように、スクリーンSからはみ出ている状態なので、投影画像232の検知面積は、S11で一定値となる。
ズームがS01になると、投影画像232の縦辺又は横辺のサイズがスクリーンSの縦辺又は横辺のサイズと一致する。さらにズームが望遠側になると、投影画像232の検知面積は低下する。
ズームがS02になると、投影画像232の両辺のサイズは、図28(b)に示すように、スクリーンSの両辺のサイズと一致する。
さらにズームが望遠側になると、投影画像232は、図28(a)に示すように、スクリーンSよりも小さくなり、投影画像232の検知面積の変化量は増大する。
プロジェクタ制御部103は、ズームS02となるようにズームを設定する(ステップS45の処理)。
次に、プロジェクタ制御部103は、台形補正処理を実行して、投影部101は、画像をスクリーンSに投影する(図23のステップS51の処理)。
スクリーンS上の投影画像gが、図30(a)に示すように歪んだ場合、画像情報取得部102に、投影画像の画素(センサ部106の1行又は1列の処理要素1_xyに対応)を選択して投影画像の重心位置(xg,yg)を取得させる(ステップS52の処理)。
プロジェクタ制御部103は、図30(b)に示すように、投影部101に供給した画像Gの正規重心位置と投影画像gの重心位置(xg,yg)とを比較して、投影画像の歪み量Δyを検出し、投影画像補正部104に供給する(ステップS53,54の処理)。
そして、投影画像補正部104は、供給された歪み量Δyに基づいて補正画像を生成し、プロジェクタ制御部103は、この補正画像を投影部101に供給して、スクリーンSに投影させる(ステップS55の処理)。
次に、プロジェクタ制御部103は、壁色補正処理を実行して、投影部101は、RGB色のターゲットマーク画像203を、順次、スクリーンSに投影する(図24のステップS61の処理)。
基準白色のRGBの輝度比に対して、壁色の補正前のRGBの輝度比が、図31に示すような比になっている場合、プロジェクタ制御部103は、取得した輝度比と基準白色スクリーンでのRGBの輝度比とを比較して取得した壁色補正量を投影画像補正部104に供給する(ステップS64〜S66の処理)。
投影画像補正部104は、供給された壁色補正量に基づいて、図31に示すような補正後のRGB輝度比の補正画像を生成する。
プロジェクタ制御部103は、この補正画像を投影部101に供給して、スクリーンSに投影させる(ステップS67の処理)。
プロジェクタ制御部103は、このような補正処理を実行して、人影画像投影処理を実行する。投影部101は、図32(a)に示すようなパターン画像204をスクリーンSに投影する(ステップS71の処理)。
図32(b)に示すように、スクリーンSよりもプロジェクタ100側に人物が立っていると、プロジェクタ制御部103は、画像情報取得部102から、図32(c)に示すようなパターン画像204を取得し、ターゲットマーク画像203の位置ずれを検出する(ステップS73)の処理。
プロジェクタ制御部103は、このターゲットマーク画像203の位置ずれ領域を人物部分と判別し、人物部分を検出する(ステップS74の処理)。
プロジェクタ制御部103は、この人物部分の位置情報を投影画像補正部104に供給し、投影画像補正部104は、この位置情報に基づいて、図2に示すような人影画像202を生成する。
プロジェクタ制御部103は、この人影画像202を投影画像補正部104から取得して、投影部101に供給し、スクリーンSに投影させる(ステップS76の処理)。
以上説明したように、本実施形態によれば、スクリーンSよりもプロジェクタ100側に人物が立っている場合に、投影部101はターゲットマーク画像203が整列したパターン画像204を投影して、画像情報取得部102が、各ターゲットマーク画像203の重心位置を取得するようにした。そして、投影画像補正部104は、プロジェクタ制御部103が検出したターゲットマーク画像203の位置ずれ領域に基づいて、人物部分の輝度を低下させた人影画像202を生成し、投影部101が、この人影画像202をスクリーンSに投影するようにした。
従って、画像情報取得部102は、短時間でターゲットマーク画像203の重心位置を取得し、短時間で人物の位置を検出することができ、人物がスクリーン手前で移動しても人物の位置に追従させて人影画像202を生成することができる。このため、人物への影響を効果的に低減させることができる。
特に、センサ部106は、トラッキング部12を備え、生成したウィンドウ画像212の領域外の画像を除外してトラッキング画像214を生成するため、ターゲットマーク画像203の重心位置を取得する時間をさらに短縮することができる。そして、複数のターゲットマーク画像203の1つ1つを順次ターゲットとして、その重心位置を取得することもできる。さらに、複数のターゲットマーク画像203のうち、人物部分201aの近傍をターゲットとしてトラッキングを行うこともでき、このようにすることにより、重心位置を取得する時間をさらに短縮することもできる。
また、プロジェクタ制御部103は、人影画像202を投影する前に、種々の調整、補正処理を短時間で実行するため、人物に追従して効果的に、人影画像202をスクリーンSに投影することができる。そして、プロジェクタ100は、これらの補正処理、人影画像投影処理を1つの画像情報取得部102を備えることにより、すべて実行できるため、プロジェクタ100の構成を簡易にすることができる。
本発明の実施形態に係るプロジェクタの構成を示すブロック図である。 人影画像を説明するための図である。 図1に示す投影部が投影するパターン画像を示す図である。 図1に示すプロジェクタの外観図である。 図1に示すセンサ部の構成を示すブロック図である。 図5に示す画像検出処理要素を選択するための選択パターンを示す図である。 図5に示す画像検出処理要素の構成を示すブロック図である。 図7に示すトラッキング部のトラッキング処理を示す図である。 図1に示すセンサ部が生成するビットパターンを示す図である。 図5に示す列加算部の構成を示すブロック図である。 図1に示す投影部が、焦点位置の調整処理実行時に投影するターゲットマーク画像を示す図である。 環境光の有無による投影輝度と計測輝度との関係を示す図である。 輝度閾値、面積、輝度測定値との関係を示す図である。 スクリーンのサイズと投影画像のサイズとの関係を示す図である。 台形補正の内容を示す図である。 壁色補正の内容を示す図である。 図5に示すセンサ部の行加算部の動作を示す図である。 図5に示すセンサ部のモーメント量取得動作を示す図である。 図1に示すプロジェクタ制御部が実行する補正処理を示すフローチャートである。 図1に示すプロジェクタ制御部が実行する焦点位置の調整処理を示すフローチャートである。 図1に示すプロジェクタ制御部が実行する調光処理を示すフローチャートである。 図1に示すプロジェクタ制御部が実行するスクリーンサイズの調整処理を示すフローチャートである。 図1に示すプロジェクタ制御部が実行する台形補正処理を示すフローチャートである。 図1に示すプロジェクタ制御部が実行する壁色補正処理を示すフローチャートである。 図1に示すプロジェクタ制御部が実行する人影画像投影処理を示すフローチャートである。 焦点位置の調整処理実行時に図1に示す投影部が投影するターゲットマーク画像と輝度値と面積との関係を示す図である。 調光処理実行時の輝度比と環境光との関係を示す図である。 スクリーンサイズの調整処理実行時のスクリーンのサイズと投影画像のサイズとの関係を示す図である。 スクリーンサイズの調整処理時のズームと投影画像の検知面積との関係を示す図である。 台形補正処理の具体的な動作を示す図である。 壁色補正処理の具体的な動作を示す図である。 人影画像投影処理の具体的な動作を示す図である。
符号の説明
1 画像処理部
2 列加算部
3 ロウデコーダ
4 カラムデコーダ
11 光電変換器
12 トラッキング部
14 行加算部
21 加算回路
100 プロジェクタ
101 投影部
102 画像情報取得部
103 プロジェクタ制御部
104 投影画像補正部
105 演算処理部
106 センサ部

Claims (9)

  1. 複数のターゲットマーク画像が整列したパターン画像をスクリーンに投影する投影部と、
    前記スクリーン上に投影されたパターン画像からの光を、行列配置された複数の光電変換素子で受光し、前記複数の光電変換素子が出力した光検出信号の2値信号を加算演算するセンサ部と、
    前記センサ部の光電変換素子を選択し、選択した光電変換素子の光検出信号の2値信号を前記センサ部が加算演算して前記パターン画像の各ターゲットマーク画像の面積を示す0次モーメント量と前記0次モーメント量を前記選択した光電変換素子の座標値で重み付けした1次モーメント量とを示す2値信号を出力するように前記センサ部を制御して、前記センサ部の出力信号に基づいて前記各ターゲットマーク画像の重心位置を取得する演算処理部と、
    前記演算処理部が取得した各ターゲットマーク画像の重心位置と前記スクリーンに投影するパターン画像の各ターゲットマーク画像の正規重心位置とを比較して、前記スクリーンよりも投影部側に位置する物体による各ターゲットマーク画像の重心位置の正規重心位置からの位置ずれを検出し、位置がずれたターゲットマーク画像の位置を前記物体の位置情報として取得する位置情報取得部と、
    前記位置情報取得部が取得した位置情報に基づいて、前記物体部分の投影光の輝度を、より低減させた画像を生成する画像生成部と、
    前記画像生成部が生成した画像を前記投影部に投影させる制御部と、を備えた、
    ことを特徴とするプロジェクタ。
  2. 前記センサ部は、
    前記各光電変換素子が出力した光検出信号の2値信号に基づいて生成された2値画像を追跡対象画像として、前記追跡対象画像を囲むウィンドウ画像を生成し、前記各光電変換素子が出力した光検出信号の2値信号に基づいて新たに生成された2値画像のうち、前記ウィンドウ画像に含まれる2値画像を新たな追跡対象画像として追跡するトラッキング部を備え、
    前記トラッキング部が追跡する追跡対象画像に対応する前記光検出信号の2値信号を加算演算する、
    ことを特徴とする請求項1に記載のプロジェクタ。
  3. 前記制御部は、前記投影部が投影する画像の輝度補正を行ってから、前記画像生成部が生成した画像を前記投影部に投影させる、
    ことを特徴とする請求項1又は2に記載のプロジェクタ。
  4. 前記センサ部は、前記投影部が投影した投影画像からの光を、行列配置された複数の光電変換素子で受光し、前記複数の光電変換素子が変換した複数の光検出信号の信号レベルと供給された閾値とをそれぞれ比較することにより前記複数の光検出信号を2値化して複数の2値信号を生成し、
    前記演算処理部は、既知の輝度に基づいて設定された閾値を前記センサ部に供給して、前記複数の2値信号を加算演算させて前記投影画像を2値化した2値画像の0次モーメント量を示す信号を出力するように前記センサ部を制御するとともに、前記センサ部に供給する前記閾値を変化させて前記2値画像の面積を変化させ、前記面積の変化量に基づいて前記投影画像の輝度値を取得し、
    前記制御部は、前記演算処理部が取得した前記輝度値に基づいて前記投影部が投影する画像の輝度補正を行う、
    ことを特徴とする請求項3に記載のプロジェクタ。
  5. 前記制御部は、前記投影部の投影光とは異なる環境光がないときに、前記センサ部が出力した出力信号に基づいて取得した前記スクリーン上の投影画像の輝度計測値を予め記憶し、前記環境光があったときに、前記センサ部が出力した出力信号に基づいて取得した前記投影画像の輝度計測値と前記予め記憶した輝度計測値とを比較して、両輝度計測値の比に基づいて、前記環境光があるときの前記投影画像の輝度補正を行う、
    ことを特徴とする請求項4に記載のプロジェクタ。
  6. 前記制御部は、前記投影部に、予め設定された基準輝度比を有する複数の原色の画像を順次投影させ、前記センサ部が出力した信号に基づいて取得した原色の輝度比と前記基準輝度比とを比較し、取得する輝度比が前記基準輝度比となるように、投影する画像の輝度値を補正してから、前記画像生成部が生成した画像を前記投影部に投影させる、
    ことを特徴とする請求項4に記載のプロジェクタ。
  7. 前記制御部は、前記投影部に、一定の面積を有する画像を前記スクリーンに投影させ、前記投影部の投影レンズの位置を制御して、前記投影レンズの各位置で前記演算処理部に前記閾値を変化させ、前記閾値の変化に対して前記2値画像の面積変化量が最大となるような前記投影レンズの位置を最適な位置として前記投影レンズの位置を設定してから、前記画像生成部が生成した画像を前記投影部に投影させる、
    ことを特徴とする請求項1乃至6のいずれか1項に記載のプロジェクタ。
  8. 前記制御部は、前記投影部にサイズ調整用画像を投影させ、前記センサ部が出力した0次モーメント量を示す信号に基づいて、前記サイズ調整用画像のサイズを取得し、取得した前記サイズ調整用画像のサイズと前記スクリーンのサイズとが一致するように、サイズ調整用画像のサイズを拡大又は縮小する補正をしてから、前記画像生成部が生成した画像を前記投影部に投影させる、
    ことを特徴とする請求項1乃至7のいずれか1項に記載のプロジェクタ。
  9. スクリーンに画像を投影する投影部と、
    前記スクリーン上に投影された投影画像からの光を、行列配置された複数の光電変換素子で受光し、前記複数の光電変換素子が出力した光検出信号の2値信号を加算演算するセンサ部と、を備えたプロジェクタにおいて、
    前記投影部に、複数のターゲットマーク画像が整列したパターン画像をスクリーンに投影させるステップと、
    前記センサ部の光電変換素子を選択し、選択した光電変換素子の光検出信号の2値信号を加算演算させて前記パターン画像の各ターゲットマーク画像の面積を示す0次モーメント量と前記0次モーメント量を前記選択した光電変換素子の座標値で重み付けした1次モーメント量とを示す信号を出力するように前記センサ部を制御して、前記センサ部の出力信号に基づいて前記各ターゲットマーク画像の重心位置を取得するステップと、
    前記取得した各ターゲットマーク画像の重心位置と前記スクリーンに投影するパターン画像の各ターゲットマーク画像の正規重心位置とを比較して、前記スクリーンよりも投影部側に位置する物体による各ターゲットマーク画像の重心位置の正規重心位置からの位置ずれを検出し、位置がずれたターゲットマーク画像の位置を前記物体の位置情報として取得するステップと、
    前記取得した位置情報に基づいて、前記物体部分の投影光の輝度を、より低減させた画像を生成するステップと、
    前記生成した画像を前記投影部に投影させるステップと、を備えた、
    ことを特徴とするプロジェクタの画像投影方法。
JP2004352026A 2004-12-03 2004-12-03 プロジェクタ及びその画像投影方法 Withdrawn JP2006162808A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004352026A JP2006162808A (ja) 2004-12-03 2004-12-03 プロジェクタ及びその画像投影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004352026A JP2006162808A (ja) 2004-12-03 2004-12-03 プロジェクタ及びその画像投影方法

Publications (1)

Publication Number Publication Date
JP2006162808A true JP2006162808A (ja) 2006-06-22

Family

ID=36664926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004352026A Withdrawn JP2006162808A (ja) 2004-12-03 2004-12-03 プロジェクタ及びその画像投影方法

Country Status (1)

Country Link
JP (1) JP2006162808A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258630A (ja) * 2008-03-24 2009-11-05 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
WO2014069018A1 (en) * 2012-11-05 2014-05-08 Kabushiki Kaisha Toshiba Electronic device and information processing method
US9171522B2 (en) 2012-03-14 2015-10-27 Ricoh Company, Limited Image projection device, light/dark-level processing method, and computer-readable storage medium
US10574952B2 (en) 2016-04-27 2020-02-25 Sony Corporation Image projection apparatus, projection imaging system, and correction method
CN111598090A (zh) * 2020-05-15 2020-08-28 广东工业大学 一种印刷电路板上标记的识别方法以及相关设备

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258630A (ja) * 2008-03-24 2009-11-05 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
US9171522B2 (en) 2012-03-14 2015-10-27 Ricoh Company, Limited Image projection device, light/dark-level processing method, and computer-readable storage medium
WO2014069018A1 (en) * 2012-11-05 2014-05-08 Kabushiki Kaisha Toshiba Electronic device and information processing method
JP2014092715A (ja) * 2012-11-05 2014-05-19 Toshiba Corp 電子機器、情報処理方法及びプログラム
CN104756007A (zh) * 2012-11-05 2015-07-01 株式会社东芝 电子装置和信息处理方法
US10574952B2 (en) 2016-04-27 2020-02-25 Sony Corporation Image projection apparatus, projection imaging system, and correction method
CN111598090A (zh) * 2020-05-15 2020-08-28 广东工业大学 一种印刷电路板上标记的识别方法以及相关设备
CN111598090B (zh) * 2020-05-15 2023-05-09 广东工业大学 印刷电路板上标记的识别方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
US8471923B2 (en) Flicker correction apparatus, flicker correction method and image sensing apparatus
US10298843B2 (en) Image processing device, image processing method, and electronic apparatus for motion detection in image
JP5767485B2 (ja) 画像処理装置及び制御方法
US20110150280A1 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
CN102611837A (zh) 闪光带处理电路和处理方法、成像装置和成像处理方法
JP2016085637A (ja) データ処理装置、撮像装置、およびデータ処理方法
CN109714536A (zh) 图像校正方法、装置、电子设备及计算机可读存储介质
CN104702971A (zh) 相机阵列高动态范围成像方法
US9807325B2 (en) Imaging apparatus, control method for imaging apparatus, and non-transitory computer-readable storage medium
KR20150101952A (ko) 화상처리장치 및 그 제어 방법
CN103685967A (zh) 图像数据处理装置、成像装置、及图像数据处理方法
CN111031256B (zh) 图像处理方法、装置、存储介质及电子设备
JP5970012B2 (ja) 画像処理装置およびその制御方法
JP2006162808A (ja) プロジェクタ及びその画像投影方法
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
US7667690B2 (en) Optical pointing device and method of computing movement value thereof
WO2012147337A1 (ja) フリッカ検出装置、フリッカ検出方法およびフリッカ検出プログラム
JP4645455B2 (ja) 画像投影装置、投影画像補正方法及びプログラム
JP2022553726A (ja) Pdaf画素の出力信号を生成する方法
US11470264B2 (en) Image sensor capable of detecting rolling flicker and adjusting frame rate
US11290654B2 (en) Image capturing apparatus, light emission control apparatus, image capturing method, and light emission control method
JP2021127998A (ja) 距離情報取得装置および距離情報取得方法
JP2006162356A (ja) 輝度測定装置、プロジェクタ、輝度測定方法及びプロジェクタの画像補正方法
JP6704726B2 (ja) エッジ検出装置、エッジ検出方法、及び、プログラム
JP2006165819A (ja) プロジェクタ、投影画像歪み検出装置及びプロジェクタの投影画像歪み補正方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080205