JP2004109246A - Projection system - Google Patents
Projection system Download PDFInfo
- Publication number
- JP2004109246A JP2004109246A JP2002268950A JP2002268950A JP2004109246A JP 2004109246 A JP2004109246 A JP 2004109246A JP 2002268950 A JP2002268950 A JP 2002268950A JP 2002268950 A JP2002268950 A JP 2002268950A JP 2004109246 A JP2004109246 A JP 2004109246A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- projected
- photographing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Video Image Reproduction Devices For Color Tv Systems (AREA)
- Processing Of Color Television Signals (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、投影面に画像を投影する投影システムの技術に関する。
【0002】
【従来の技術】
パーソナルコンピュータ(以下、「パソコン」と略称する)の画面に表示される画像を、投影装置によってホワイトボード等の投影面に投影して、会議を行う用途が増加してきている(例えば、非特許文献1参照)。
【0003】
図30は、会議における従来の投影システム500の使用例を示す模式図である。なお、図30は、会議室CR10を上から見た上面図を示している。
【0004】
図30に示すように、従来の投影システム500は、主に、投影装置510とパソコン520とから構成され、会議机CD10上に設置されている。そして、投影装置510とパソコン520とはケーブルによって接続され、投影装置510が、パソコン520の画面上に表示される画像と同様な画像を、ホワイトボードW10に拡大投影する。
【0005】
ここでは、説明者PM10等が、適宜、ホワイトボードW10に拡大投影される画像を指しつつ会議を進行することができるため、会議に参加した人々M11〜M15に、会議の内容等をわかり易く伝えることができる。よって、特に会議用の資料を配付する必要性がなく、資料作成にかかるコストを大幅に削減することができる。
【0006】
また、このような会議においては、ホワイトボードW10に拡大投影した画像に合わせて、説明者PM10等が、マーカーMK等でホワイトボードW10にマニュアルで書き込みを行うことが一般的に行われている。そして、会議の内容を記録するために、ホワイトボードW10に書き込んだ内容をカメラで撮影する場合もある(例えば、非特許文献2参照)。
【0007】
さらに、図示を省略するが、複数の会議室のパソコン520をネットワークを介して接続し、異なる会議室において同様な画像を投影装置510によってホワイトボードW10に拡大投影しながら、遠隔地どうしで会議を協同で進行させる電子会議システムのサービスも行われている。
【0008】
このような技術に関する先行技術文献としては以下のようなものがある。
【0009】
【特許文献1】
特開平9−289600号公報
【特許文献2】
特開平9−289611号公報
【特許文献3】
特開2002−57879号公報
【特許文献4】
特許第2632520号公報
【特許文献5】
登録実用新案平4−18308号公報
【非特許文献1】
”DATA PROJECTOR(TLP−X20DJ/TLP−X21DJ)カタログ”、株式会社東芝 デジタルメディアネットワーク社、2002年3月
【非特許文献2】
”水で消色するマーカーペン対応のホワイトボード用シート「A・B・シート」新発売”、[online]、平成11年6月4日、富士写真フィルム株式会社、[平成14年8月6日検索]、インターネット<URL:http://www.fujifilm.co.jp/news_r/nrj458.html>。
【0010】
【発明が解決しようとする課題】
しかしながら、投影面の色や反射率、外光、および投影装置の光源の劣化等の影響によって、パソコン520の画面上に表示される画像と、投影面に投影される画像との間で、色調や階調特性等の相違が生じる場合がある。また、投影面に対して斜めの方向から、投影装置によって画像を投影する場合等、投影面と投影装置との相対的な位置関係によって、投影面に投影される画像が歪む場合もある。これら場合は、画像の作成者が意図した内容を会議に参加した人々に対して正確に伝達することができないといった問題を生じる。
【0011】
さらに、上述した遠隔地どうしで会議を協同で進行させる電子会議システムでは、投影面に書き込んだ内容等が、他の会議室の投影面には反映されないため、異なる会議室どうしの間で、会議の内容が理解し難くなるといった問題も生じる。
【0012】
また、会議資料を配付しない場合には、拡大投影された画像と、投影面に書き込んだ内容等とを併せて、会議の内容として記録するために、カメラ等で撮影しても、拡大投影された画像等を、きれいに撮影することが難しいといった問題も生じる。
【0013】
さらに、会議の内容を記録するために、投影面に書き込んだ内容等を撮影する際に、投影面に対して斜めの方向から撮影しなければならない場合等、投影面とカメラとの相対的な位置関係によって、撮影された画像が歪む場合もある。この問題に関してはカメラに関する以下の従来技術を応用することが考えられる。例えば、特許文献1、2におけるカメラでは、カメラの長手方向とホワイトボードとのなす角度をユーザーが目分量で図り、その角度をカメラに入力することによって、撮影画像の台形歪みを補正することができる。しかし、この方法では、煩雑な操作が必要な上に、補正の精度が低くなるといった難点がある。また、特許文献3におけるカメラでは、投影面に書き込んだ文字や図形から対向する少なくとも2組の線分を外挿すること等によって、歪みを補正するための補正値を算出することができる。しかし、この方法では、少なくとも2組の線分を外挿できるような書き込み等でなければ有効でなく、利用できる場合が制限される。
【0014】
本発明は、上記課題に鑑みてなされたものであり、投影面の状況に応じた適正な画像処理が可能な投影システムを提供することを基本目的とする。
【0015】
そして、この基本目的に対応して下記の具体的な目的がある。
【0016】
第1の具体的な目的は、投影面の状況に応じて適正な画像を「生成」可能な投影システムを提供することである。
【0017】
第2の具体的な目的は、投影面の状況に応じて適正な画像を「投影」可能な投影システムを提供することである。
【0018】
第3の具体的な目的は、投影面の状況に応じて適正な画像を「撮影」可能な投影システムを提供することである。
【0019】
また、本発明の他の目的は、投影面に投影される情報と、投影面に直接付加される情報とを合わせた高品質の画像を取得可能な投影システムを提供することである。
【0020】
【課題を解決するための手段】
上記の課題を解決するために、請求項1の発明は、投影システムであって、投影面に、輝度が段階的に変化するパターンを投影する投影手段と、前記投影面に投影された前記パターンを撮影することによって画像を取得する撮影手段と、前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、階調特性を補正する階調補正手段とを備えることを特徴とする。
【0021】
また、請求項2の発明は、投影システムであって、投影面に、無彩色の光を投影する投影手段と、前記無彩色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、ホワイトバランスを補正するホワイトバランス補正手段とを備えることを特徴とする。
【0022】
また、請求項3の発明は、投影システムであって、投影面に、複数の焦点検出用の部分を含むパターンを投影する投影手段と、前記投影面に投影された前記パターンを撮影することによって、複数の画素で構成される前記パターンに係る画像を入力する撮影手段と、前記撮影手段における撮影レンズの合焦制御を行う合焦制御手段と、前記画像における前記複数の焦点検出用の部分に対応する領域について、それぞれ前記撮影レンズの合焦状態に関する評価値を算出する評価値算出手段と、前記評価値に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、歪みを補正する歪み補正手段とを備えることを特徴とする。
【0023】
また、請求項4の発明は、投影システムであって、投影面に、複数の特異点を含む所定のパターンを投影する投影手段と、前記投影面に投影された前記所定のパターンを撮影することによって、画像を取得する撮影手段と、前記画像について、前記複数の特異点にそれぞれ対応する対応点を抽出する抽出手段と、前記複数の特異点と、前記対応点との位置関係から補正値を算出する算出手段と、前記補正値に基づいて、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像の歪みを補正する歪み補正手段とを備えることを特徴とする。
【0024】
また、請求項5の発明は、投影システムであって、投影面に、単一色の光を投影する投影手段と、前記単一色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、前記撮影手段によって取得される前記画像について、前記投影面に直接に付された視覚要素に対応する領域を抽出する領域抽出手段と、前記領域抽出手段によって抽出した前記領域と、前記投影手段によって前記投影面に投影するための画像とをデータ合成する合成手段とを備えることを特徴とする。
【0025】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0026】
<(1) 第1実施形態>
<(1−1) 投影システムの概要>
図1は、本発明の第1実施形態に係る投影システム1の使用例を示す模式図である。なお、図1は、会議室CR1を上から見た上面図を示しており、図1以降では、方位関係を明確とするために必要に応じて、XYZ直交座標系を付している。
【0027】
図1に示すように、本発明の第1実施形態に係る投影システム1は、主に、カメラ(デジタルカメラ)付きプロジェクター2と、パーソナルコンピュータ(以下「パソコン」と略称する)30とから構成され、会議机CD上に設置される。そして、カメラ付きプロジェクター2とパソコン30とはケーブルCBによって接続され、カメラ付きプロジェクター2が、パソコン30の画面上に表示される画像と同様な画像を、投影面であるホワイトボードWに拡大投影する。
【0028】
ここでは、説明者PM等は、適宜、ホワイトボードWに拡大投影された画像(投影画像)を指したり、マーカーMK等でホワイトボードWに書き込みを行いながら会議を進行する。よって、会議に参加した人々M1〜M5に、会議の内容等をわかり易く伝えることができるため、特に会議用の資料を配付する必要性がなく、資料作成にかかるコストを大幅に削減することができる。
【0029】
カメラ付きプロジェクター2は、主に、プロジェクター部10とカメラ部20とから構成され、カメラ部20はプロジェクター部10の筐体に固定される。そして、例えば、プロジェクター部10の投影レンズ10Rと、カメラ部20の撮影レンズ20Rとは、出来るだけ近くに配置され、投影レンズ10Rと撮影レンズ20Rは、光軸および画角が互いに近似するように設定される。
【0030】
なお、図1では、投影レンズ10Rの画角を模式的に示す実線10Lと、撮影レンズ20Rの画角を模式的に示す点線20Lとを付している。図1に示すように、ここでは、ホワイトボードWに投影される投影画像の全領域(以下、「投影領域」と称する)が、カメラ部20によって撮影可能な範囲に入るように設定される。
【0031】
<(1−2) 投影システムの内部構成>
図2は、投影システム1の内部構成を示すブロック図である。投影システム1は、上述したように、主に、プロジェクター部10と、カメラ部20と、パソコン30の3つの部分から構成される。以下、3つの部分について順に説明する。
【0032】
<(1−2−1) プロジェクター部の内部構成>
本実施形態では、後述する表示素子123として、一般的なDMD(Digital Micromirror Device)(登録商標)を1つ用いる1チップ方式を例にとって説明する。
【0033】
図2に示すように、プロジェクター部10は、一般的なプロジェクターと同様、主に、プロジェクター制御部100、画像生成機能部110、投影機能部120、およびUSBI/F34を備えて構成される。
【0034】
投影機能部120は、光源121、色分解用カラーホイール122、表示素子123、および投影レンズ10Rを備えている。
【0035】
光源121は、白色光を発生させる光源であり、投影レンズ10Rは一般的な投影レンズである。
【0036】
色分解用カラーホイール122は、RGBの3原色のフィルターを有し、表示素子123の駆動と同期しながら回転する。そして、光源121から発せられた白色光を、時分割方式によって、順次、R(レッド)の光、G(グリーン)の光、B(ブルー)の光とすることによって色分解した光を、表示素子123の表示素子面に照射する。
【0037】
表示素子123は、上述したように、1つのDMDによって構成されている。DMDは、各画素毎に微小なミラーによって構成されており、プロジェクター制御部100から発せられる電気信号による制御に基づいて、微小なミラーの角度が変更される。そして、プロジェクター制御部100から電気信号が発せられた状態では、微小なミラーの角度は、色分解用カラーホイール122から照射される光束が、微小なミラーによって反射されて投影レンズ10Rを透過するように構成される。一方、プロジェクター制御部100から電気信号が発せられない状態では、微小なミラーの角度は、色分解用カラーホイール122から照射される光束が、微小なミラーによって反射されて投影レンズ10Rを透過しないように構成される。
【0038】
画像生成機能部110は、パソコン30から入力されるアナログRGB信号に基づいて、投影するための画像データを生成する。なお、ここでは、パソコン30から入力されるアナログRGB信号が、動画にも対応可能なように、全て動画用のフォーマットとなっているものを例に挙げて説明する。
【0039】
画像生成機能部110は、アナログRGBデコーダー111、フレームメモリ112、スケーラー113、および画像メモリ114を備えている。
【0040】
アナログRGBデコーダー111は、パソコン30から入力されるアナログRGB信号から、投影機能部120の駆動に適合するデジタル画像データを生成する。言い換えれば、色分解用カラーホイール122および表示素子123の駆動に適合するデジタル画像データを生成する。そして、アナログRGBデコーダー111は、図示を省略するが、アナログ信号をサンプリングするためのサンプリングパルスを発生するPLL回路と、アナログ画像信号をデジタル画像信号(例えば、8ビットのデジタル画像信号)に変換するA/D変換器とを有している。
【0041】
アナログRGBデコーダー111では、パソコン30から入力されるアナログRGB信号から水平同期信号および垂直同期信号を分離する。そして、PLL回路が、分離された水平同期信号および1フレームの開始を示す垂直同期信号に対して、3倍のスピードで、水平同期信号および垂直同期信号といったサンプリングパルスを発生する。
【0042】
例えば、後述する表示素子123の画素数がS−VGA規格(800×600画素)に対応するものと仮定すると、PLL回路は、水平同期信号を発生させてから、次の水平同期信号を発生させる迄に、800画素分のデータをサンプリングするパルスを発生させる。また、PLL回路から発生する垂直同期信号と、色分解用カラーホイール122のRGBの切り替えタイミングと、表示素子123の垂直走査とを同期させるようにサンプリングを行って、デジタル画像データを生成する。
【0043】
具体的には、PLL回路から発生される垂直同期信号に同期して、色分解用カラーホイール122からRの光を表示素子123に照射すべきタイミングになると、A/D変換器の入力はアナログ信号のうちのR信号に切り替わり、サンプリングが開始される。そして、垂直600ラインのサンプリングが終了すると、次の垂直同期信号に同期して、色分解用カラーホイール122からGの光を表示素子123に照射すべきタイミングになり、A/D変換器の入力はアナログ信号のうちのG信号に切り替わり、サンプリングが開始される。さらに、垂直600ラインのサンプリングが終了すると、次の垂直同期信号に同期して、色分解用カラーホイール122からBの光を表示素子123に照射すべきタイミングになり、A/D変換器の入力はアナログ信号のうちのG信号に切り替わり、サンプリングが開始される。
【0044】
その後、垂直600ラインのサンプリングが終了すると、さらに同様なサンプリング動作が繰り返されて、パソコン30から入力されるアナログRGB信号から、投影機能部120の駆動に適合するデジタル画像データを生成する。以上のようにして生成されるデジタル画像データは随時、フレームメモリ112に記憶される。
【0045】
スケーラー113は、投影レンズ10Rの光軸と、投影面であるホワイトボードWとが垂直でない場合に発生する台形歪み等を補正する。なお、従来のプロジェクターでは、ユーザーが投影レンズのレンズ面と投影面との相対角度を目分量で測定して入力すること等によって、スケーラーが、フレームメモリ112に記憶されている画素データについて、走査線毎に拡大、縮小演算を行っていた。一方、本発明の第1実施形態に係るスケーラー113は、後述する補正値算出機能102において算出される歪み補正用の補正値に基づいて、フレームメモリ112に記憶されているデジタル画像データに対し、走査線毎や、画素毎に拡大、縮小演算を行う。なお、スケーラー113から出力される画像データの画素数は、表示素子123の画素数に対応している。歪み補正用の補正値の算出、および歪みの補正については、後程詳述する。
【0046】
画像メモリ114は、揮発性または不揮発性の記憶媒体によって構成され、スケーラー113において拡大、縮小演算が行われたデジタル画像データを記憶する。そして、プロジェクター制御部100は、画像メモリ114に記憶されたデジタル画像データに基づいて、投影機能部120の駆動を制御することにより、垂直同期信号に同期して、Rのフィールド、Gのフィールド、Bのフィールドを繰り返して光学的に投影する。したがって、プロジェクター部10が、ホワイトボードW(投影面)に画像を投影する手段として機能する。
【0047】
ここでは、画素毎に、画像メモリ114に記憶されるデジタル値に応じた期間、プロジェクター制御部100から表示素子123への電気信号が発生される。つまり、画素毎に、画像メモリ114に記憶されるデジタル値に応じた期間、表示素子123の微小なミラーの反射角度が変更される。なお、画素毎のデジタル値と、プロジェクター制御部100から表示素子123への電気信号の発生時間との関係は、R、G、B毎に、プロジェクター制御部100内に記憶されるLUT(変換テーブル)によって設定されている。そして、LUTはプロジェクター制御部100において変更可能であり、後述する階調特性補正用およびホワイトバランス補正用の補正値等に従って、投影画像のホワイトバランス(以下、「WB」と略称する)および階調特性を任意に設定することができる。
【0048】
プロジェクター制御部100は、マイクロコンピュータ(CPU)、RAM10aおよびROM10bを有しており、上述したプロジェクター部10の各部材の駆動を有機的に制御してプロジェクター部10の動作を統括制御する。なお、プロジェクター制御部100の各機能は、CPUにおいて、ROM10bに格納されるプログラムによって実現される。
【0049】
また、プロジェクター制御部100は、表示素子123の微小なミラーの反射角度を変更するため、電気信号を発生させる素子駆動制御機能101を有しており、さらに、投影画像の歪み補正用の補正値を算出する補正値算出機能102を有している。補正値算出機能102は、後述するカメラ制御部200において算出される撮影倍率比に基づいて、投影画像の歪みを補正するための補正値を算出する。
【0050】
USBI/F130は、プロジェクター制御部100とカメラ部20との間で通信を可能にするための、USB規格に準拠した通信用インターフェースである。
【0051】
<(1−2−2)カメラ部の内部構成>
図2に示すように、カメラ部20は、主に、カメラ制御部200、撮影機能部210、画像メモリ220、およびUSBI/F230を備えて構成される。
【0052】
撮影機能部210は、画像を取得するために、画像信号処理を行うものであり、撮影レンズ20R、レンズ駆動回路212、撮像素子213、撮像素子駆動回路214、信号処理回路215、A/D変換器216、WB回路217、γ補正回路218、および、色変換・色補正回路219を備えている。
【0053】
撮像素子213は、一般的なCCDであり、撮影レンズ20Rにより結像された被写体の光像を、R,G,Bの色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。撮像素子駆動回路214は、撮像素子213の駆動を制御するための各種のタイミングパルスを生成するものである。
【0054】
撮影機能部210における露出制御は、レンズ駆動回路212による撮影レンズ20Rの絞りと、撮像素子213の露光量、つまり、シャッタスピードに相当する撮像素子213の電荷蓄積時間を調節して行われる。ここで、被写体輝度が低輝度時に適切なシャッタスピードが設定出来ない場合は、撮像素子213から出力される画像信号のレベル調整を行うことにより露光不足による不適正露出が補正される。すなわち、低輝度時は、絞りとシャッタスピードと信号処理回路215のゲイン調整とを組合せて露出制御が行われることとなる。
【0055】
撮像素子駆動回路214は、カメラ制御部200から送信される基準クロックに基づき撮像素子213の駆動制御信号を生成するものである。この撮像素子駆動回路214は、例えば積分開始/終了(露出開始/終了)のタイミング信号、各画素の受光信号の読出制御信号(水平同期信号,垂直同期信号,転送信号等)等のクロック信号を生成し、撮像素子213に出力する。
【0056】
信号処理回路215は、撮像素子213から出力される画像信号(アナログ信号)に所定のアナログ信号処理を施すものである。この信号処理回路215は、CDS(相関二重サンプリング)回路とAGC(オートゲインコントロール)回路とを有し、CDS回路により画像信号のノイズ低減処理を行い、AGC回路でゲインを調整することにより画像信号のレベル調整を行う。
【0057】
A/D変換器216は、信号処理回路215から出力される画像信号の各画素信号をデジタル信号に変換するものである。A/D変換器216は、図示を省略するタイミング発生回路から入力されるA/D変換用のクロックに基づいて各画素信号(アナログ信号)をデジタル画像信号(例えば、8ビットのデジタル画像信号)に変換する。
【0058】
WB(ホワイトバランス)回路217は、A/D変換器216から出力されるR,G,Bの各色成分の画素データの画素値の変換を行うことにより、画像データ(撮影画像)に対してWB補正を施すものである。例えば、このWB回路217は、画像データの各色成分値(全画素のRGB値)に基づいてR,G,Bの各色成分の画素値を調整する。このWB補正についてはさらに後述する。
【0059】
γ補正回路218は、WB回路217から入力される画像データ(撮影画像)に対して階調特性の補正を行うものである。この階調補正についてもさらに後述する。
【0060】
色変換・色補正回路219は、γ補正回路218から入力される画像データに対して、例えばYCrCb系に色空間を変換し、色再現性を向上させる色補正を行うものである。
【0061】
画像メモリ220は、撮像素子213で取得され、上記の画像処理が施された画像データ(撮影画像)を一時的に記憶するメモリである。画像メモリ220は、少なくとも数フレーム分の記憶容量を有している。すなわち、画像メモリ220は、撮像素子213の画素数に対応する画素データ数フレーム分の記憶容量を少なくとも有し、各画素データが対応する画素位置に記憶されるようになっている。
【0062】
USBI/F230は、プロジェクター部10およびパソコン30と通信可能にするための、USB規格に準拠した通信用インターフェースであり、プロジェクター部10のUSBI/F130とケーブルで接続され、プロジェクター制御部100とカメラ制御部200との間でデータの送受信が可能となっている。
【0063】
カメラ制御部200は、マイクロコンピュータ(CPU)、RAM20aおよびROM20bを有しており、カメラ部20の各部材の駆動を有機的に制御してカメラ部20の動作を統括制御する。なお、カメラ制御部200の各機能は、CPUにおいて、ROM20bに格納されるプログラムを実行することによって実現される。
【0064】
また、カメラ制御部200は、プロジェクター部10によってホワイトボードWに光学的に投影される画像(投影画像)、および、カメラ部20によってホワイトボードWを撮影することによって得られる画像(撮影画像)について、階調特性やWBや歪みの補正を行うための各種機能を有している。さらに、カメラ制御部200は、ホワイトボードWへの書き込み等を撮影して、会議の内容を記録するための機能も有している。
【0065】
図3は、カメラ制御部200の各種機能を説明するためのブロック図である。なお、図3では、CPUで実現される機能を具体的に図示している。
【0066】
図3に示すように、カメラ制御部200は、投影画像や撮影画像に対するWB補正を制御するためのWB制御機能201、投影画像や撮影画像に対する階調特性の補正を行うための階調制御機能202を備えている。また、カメラ制御部200は、投影画像および撮影画像に対する歪みを補正するためのAF領域抽出機能203、評価値演算機能204、合焦制御機能205、および距離算出機能206を備えている。
【0067】
なお、図3に示す各種機能の説明については、後程、ホワイトバランス(WB)補正、階調特性の補正、画像の歪み補正、および、会議内容の記録について具体的に説明する際に、詳述する。
【0068】
<(1−2−3) パソコンの内部構成>
図2に示すように、パソコン30は、記憶部32、出力I/F33、USBI/F34、LCD35、およびPC制御部300を備えている。
【0069】
記憶部32は、例えばハードディスク等で構成されており、後述するプログラムや画像データ等が格納される。記憶部32に記憶される画像データは、プロジェクター部10からホワイトボードWに投影される投影画像のもととなる画像データである。なお、以下では、投影画像のもととなる画像データを「投影原画像」と称することとする。
【0070】
出力I/F33は、プロジェクター部10へデータを伝送するためのインターフェイスである。具体的には、PC制御部300から出力されるアナログRGB信号を、プロジェクター部10のアナログRGBデコーダー111へ伝送する。
【0071】
USBI/F34は、カメラ部20と通信可能にするための、USB規格に準拠した通信用インターフェースであり、カメラ部20のUSBI/F230とケーブルによって接続され、カメラ制御部200とPC制御部300との間でデータの送受信が可能となっている。
【0072】
LCD35は、記憶部32に記憶される画像データ等に基づいて、画像を表示するための表示装置である。
【0073】
PC制御部300は、マイクロコンピュータ(CPU)、RAM30aおよびROM30bを有し、パソコン30の各部を統括制御する部位である。そして、このPC制御部300のRAM30aに、記憶部32に記憶されるプログラムをロードして、CPUで実行することにより、PC制御部300の各種機能を実現する。そして、PC制御部300の機能には、例えば、アナログRGBエンコーダー機能301、補正値算出機能302、画像補正機能303、領域抽出機能304、および画像合成機能305等がある。
【0074】
また、PC制御部300が、記憶部32に記憶されるカメラ付きプロジェクター2の動作を制御するプログラム(投影プログラム)を実行することによって、カメラ付きプロジェクター2およびパソコン30は投影システム1としての動作を実行する。即ち、投影システム1では、プロジェクター部10およびカメラ部20は、USB34,130,230を介して、パソコン30によって制御される。
【0075】
例えば、ユーザーがパソコン30に設けられている図示を省略するキーボード等を操作することによって、PC制御部300において、カメラ付きプロジェクター2の動作を制御する投影プログラムが実行される。そして、ユーザーがキーボード等を種々操作することによって、本発明の特徴部分である、WB補正、階調特性の補正、画像の歪み補正、会議内容の記録等の動作が実行される。なお、これらの動作については、後程詳述する。
【0076】
また、ユーザーがプロジェクター部10による画像の投影を開始すべくパソコン30のキーボード等を操作すると、PC制御部300が記憶部32から投影原画像を読み出す。そして、アナログRGBエンコーダー機能301によって、アナログRGB信号を生成して、出力I/F33を介して、プロジェクター部10に伝送する。さらに、プロジェクター部10によってホワイトボードWに投影される投影画像に同期して、同様の内容の画像(投影原画像)がLCD35上に表示される。
【0077】
また、PC制御部300は、ユーザーによるキーボード等の操作によって、USBI/F34を介して、カメラ部20から画像データ(撮影画像)を取得する。なお、この撮影画像は、ホワイトボードWを撮影することによって得られる画像である。
【0078】
補正値算出機能302は、後述するカメラ制御部200において算出される撮影倍率比に基づいて、撮影画像の歪み補正用の補正値を算出する。画像補正機能303は、補正値算出機能302において算出される歪み補正値に基づいて、撮影画像の歪みを補正する。また、カメラ部20によって撮影可能な範囲は、ホワイトボードWに画像が投影される投影領域を全て包含し、その周辺の領域をも含むため、画像補正機能303は、必要に応じて、撮影画像のうち投影領域に対応する領域を、撮影画像の全体を占めるように、投影領域の抽出・拡大処理を行う。なお、補正値算出機能302における補正値の算出、画像補正機能303における撮影画像の歪み補正、および投影領域の抽出および拡大処理については、後程、動作説明を行う際に詳述する。
【0079】
ところで、PC制御部300がカメラ部20から画像データを取得する場合は、単にホワイトボードWを撮影して撮影画像を得る場合と、ホワイトボードWを撮影して、投影画像と合わせて会議内容を記録する場合とがある。そして、もしも、単に撮影画像を得る場合は、画像補正機能303によって撮影画像の歪み補正が施された撮影画像を記憶部32に記憶する。一方、もしも、投影画像と合わせて会議内容を記録する場合は、画像補正機能303によって撮影画像の歪み補正、および投影領域の抽出・拡大処理が施された撮影画像から、領域抽出機能304によって、マーカーMK等を用いてマニュアルでホワイトボードWに直接書き込まれる等して直接色彩等が付加された部分に対応する領域を抽出する。即ち、領域抽出機能304が、カメラ部20によって取得される画像について、ホワイトボードW(投影面)に直接に付された視覚要素に対応する領域を抽出する手段として機能する。
【0080】
そして、画像合成機能305は、領域抽出機能304によって抽出された領域と、プロジェクター部10によってホワイトボードW(投影面)に投影するための投影原画像とをデータ合成(具体的にはデジタルデータとして合成)して画像データを生成し、記憶部32に記憶する。
【0081】
なお、領域抽出機能304および画像合成機能305における処理については、後程、動作説明を行う際に詳述する。
【0082】
<(1−3) 投影システムの動作説明>
<(1−3−1) 投影画像のWB補正>
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると投影画像のWB補正の動作が実行される。
【0083】
以下、図2および図3等を参照しつつ、投影画像のWB補正の動作について説明する。
【0084】
投影画像のWB補正の動作が開始すると、PC制御部300からカメラ制御部200に投影画像のWB補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200は、プロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドでは、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データを全面無彩色であるグレーであってかつ空間的に均一な画像レベルとなるように設定する。つまり、次の垂直同期信号に同期して、プロジェクター部10が、投影面であるホワイトボードWに、無彩色である全面グレーの光を投影する。ここで言う全面グレーの光は、例えば、デジタル画像データが8ビットのデータの場合は、RGBの各色の各画素値が100/255階調となるように設定することによって生成可能である。
【0085】
なお、プロジェクター部10から投影される全面無彩色の光は、RGBの各色の各画素値が100/255階調となるように設定された全面グレーのものに限られず、その他の階調となるように設定されたものでも良い。しかし、人間の視覚的な観点から、RGBの各色の各画素値が100/255階調等となるようなミドル階調の全面無彩色の光であることが好ましい。
【0086】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、無彩色である全面グレーの光が投影されたホワイトボードW(投影面)を撮影することによってデジタル画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からは全面グレーの光が投影され、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0087】
図3に示すカメラ制御部200のWB制御機能201では、プロジェクター部10から全面グレーの略均一な光をホワイトボードWに投影して撮影を行った際に、A/D変換器216から出力されるデジタル画像信号を取得する。そして、その取得したデジタル画像信号に基づいて、各画素毎に、R/G、B/Gの画素値の比をそれぞれ演算し、全画素についての平均値(Rs/Gs,Bs/Gs)を求め(gr,gb)とする。なお、演算の効率化のため、画像を所定面積の複数のブロックに分割して各ブロックの代表となる画素のみからgr,gbを求めても良く、所定間隔で画素を間引いた後の画素のみからgr,gbを求めても良い。
【0088】
次に、WB制御機能201は、算出した(gr,gb)に基づいて投影画像について、WB補正用のWB補正値を設定する。
【0089】
図4は、WB制御機能201におけるWB補正値の設定方法を説明するための図である。図4において、点510はXX−YY座標系において座標(gr,gb)に位置する。座標(gr,gb)のXX座標の値が大きく、YY座標の値が小さいほどBs/Gsに対してRs/Gsが大きくなるため、元の画像は赤みがかっていることとなる。逆に、XX座標の値が小さく、YY座標の値が大きいほどBs/Gsに対してRs/Gsが小さくなるため、元の画像は青みがかっていることとなる。したがって、原点から45°の角度にて伸びる直線Leに近い点は、WBが整っている画像に対応する点となる。
【0090】
図4に示すように、予め設定されたWB設定に応じてXX−YY座標系には所定の領域Raが設定されており、外光や投影面の色や光源121の劣化等の影響で、点510に示すように、座標(gr,gb)が所定の領域Ra内にない場合には、点510の位置が領域Raのうち最も近い位置(点511)へと変換されるように、WB補正値を設定する。なお、点510が領域Raに含まれる場合には、点510の位置の変換は行われないため、WB補正値は設定されない。また、座標(gr,gb)が一定の範囲内にない場合は、異常なデータであるとして、WB補正値を設定しない。
【0091】
WB制御機能201において設定された投影画像に対するWB補正値は、プロジェクター制御部100に送信される。そして、プロジェクター制御部100は、受信したWB補正値に応じて、LUT(変換テーブル)を変更し、素子駆動制御機能101によって、プロジェクター部10から投影される画像の表示色温度を変更する。即ち、ここでは、素子駆動制御機能101が、プロジェクター部10によって全面グレーの光が投影されたホワイトボードWを撮影することによって取得される画像に基づいて、プロジェクター部10によってホワイトボードWに投影される投影画像について、ホワイトバランスを補正する手段として機能する。
【0092】
<(1−3−2) 撮影画像のWB補正>
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると撮影画像のWB補正の動作が実行される。
【0093】
上述した投影画像に対するWB補正の動作では、WB補正用の撮影時に、プロジェクター部10からホワイトボードWに対して全面グレーの光を投影したが、撮影画像のWB補正の動作では、例えば、WB補正用の撮影時に、プロジェクター部10からホワイトボードWに対して無彩色の光として全面白色の略均一な光を投影する。つまり、カメラ部20の撮影に同期して、プロジェクター部10が、投影面であるホワイトボードWに、無彩色である全面白色の光を投影する。全面白色の光は、例えば、デジタル画像データが8ビットのデータの場合は、RGBの各色の各画素値が最大輝度すなわち255/255階調となるように設定することによって生成可能である。
【0094】
なお、プロジェクター部10から投影される全面無彩色の光の色は、RGBの各色の各画素値が255/255階調となるように設定された全面白色のものに限られず、ホワイトボードWに直接記載されたものや、貼付された資料等をカメラ部20によって撮影する際にプロジェクター部10から撮影用の照明光として投影される光の色と同様であれば良い。
【0095】
そして、撮影画像に対するWB補正値の設定までは、WB補正用の撮影時にプロジェクター部10からホワイトボードWに対して投影する光が、投影画像に対するWB補正値の設定と異なるのみであり、WB制御機能201が、投影画像に対するWB補正値の設定と同様に、撮影画像に対するWB補正値を設定する。
【0096】
WB補正値が設定されると、WB回路217におけるR,G,Bのゲインの設定値が求められる。そして、その後にカメラ部20によって得られる撮影画像対しては、求められたゲイン設定値に基づいて、WB回路217においてWB補正が行われる。即ち、ここでは、WB回路217が、プロジェクター部10によって無彩色である全面白色の光が投影されたホワイトボードWを撮影することによって取得される画像に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像について、ホワイトバランスを補正する手段として機能する。
【0097】
以上のように、ここでは、パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、無彩色の光を投影したホワイトボードW(投影面)を撮影して画像を得る。そして、得られた画像に基づいて、ホワイトボードWに投影される投影画像、および、ホワイトボードWを撮影することによって得られる撮影画像のうち少なくとも一方の画像についてWBを補正する。その結果、ホワイトボードWの表面が有する固有の色や、外光の色や、光源121の色等の影響により、投影画像や撮影画像の色調が変化するのを補正することができる。
【0098】
なお、上述したようなWB補正の動作は、投影システム1の使用開始時、および、使用開始時から一定時間経過する毎に行われるようにしても良い。このような構成とすることで、時間の経過とともに外光の影響が変化する場合等に対応することができる。なお、ここでは、無彩色の光を投影するタイミングと、撮影するタイミングとが同期しており、さらに、無彩色の光を投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0099】
<(1−3−3) 階調特性の補正>
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると投影画像や撮影画像に対する階調特性の補正の動作が実行される。
【0100】
以下、図2および図3等を参照しつつ、階調特性の補正の動作について説明する。
【0101】
階調特性の補正の動作が開始すると、PC制御部300からカメラ制御部200に階調特性補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200はプロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドでは、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、ROM10bに格納される階調が段階的に変化するパターンであるグレースケールチャートとなるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、輝度が段階的に変化するパターン(グレースケールチャート)を投影する。なお、グレースケールチャートの具体例については後述する。
【0102】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、ホワイトボードWに投影された、輝度が段階的に変化するパターン(段階的な濃淡分布パターン)を撮影することによって画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からはグレースケールチャートが投影され、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0103】
次に、図3に示すカメラ制御部200の階調制御機能202では、プロジェクター部10からグレースケールチャートをホワイトボードWに投影して撮影を行った際に、A/D変換器216から出力されるデジタル画像信号に基づいて、階調特性補正用の補正値を算出する。
【0104】
ここで、階調制御機能202における階調特性補正用の補正値の算出方法について説明する。
【0105】
図5は、階調特性補正用の撮影時に、A/D変換器216から出力されるデジタル画像信号に基づいた画像G1を例示する模式図である。図5では、枠PS内が、プロジェクター部10から投影されるグレースケールチャートに対応する部分である。
【0106】
グレースケールチャートは、輝度が等間隔かつ段階的に変化する無彩色の領域S1〜S7を有している。なお、ここでは、領域S1が白色で、領域S7が黒色となっており、領域S1〜S7の順に段階的に輝度が低くなるように設定されている。また、グレースケールチャートは、領域S1〜S7以外の部分は、領域S4と同様な輝度の無彩色となるように設定されている。
【0107】
また、図5に示すように、プロジェクター部10によってホワイトボードWに投影される投影領域と、カメラ部20によって撮影されるホワイトボードW上の領域とは完全に一致していない。よって、階調制御機能202では、グレースケールチャートの領域S1〜S7が確実に含まれていると考えられる画像G1中央の左右に伸びる破線SL1上の画像データを用いる。そして、撮像素子213の画素数が仮に1024×768であるとすると、破線SL1上の1024画素のデータのうち、領域S1〜S7に対応しない左右のデータを排除する。例えば、破線SL1上を−X方向から+X方向へ輝度の変化を見ていくと、領域S1になる所で著しく輝度(画素値)が上昇し、また、領域S7から出るところで著しく輝度(画素値)が上昇するため、左右のデータの排除は輝度の変化を検出することによって容易に達成することができる。
【0108】
その後、階調制御機能202は、得られた画像データの画素値と領域S1〜S7の位置関係とから、領域S1〜S7それぞれの領域についての画素値の平均値を求める。そして、グレースケールチャートの最も明るい領域S1の画素値を1とし、その画素値を基準に、領域S2〜S7の画素値を換算する。つまり、ここでは、領域S1の明るさを基準とする領域S2〜S7の明るさの比を求める。
【0109】
図6は、領域S1〜S7の理想的な明るさの比を例示する模式図である。なお、図6では、横軸が画像G1中におけるX方向の位置を示し、縦軸が明るさの比を示している。また、領域S1〜S7にそれぞれ対応する明るさの比をStep1〜Step7として示している。図6に示すように、外光の影響が無く理想的な場合は、Step1の明るさの比を1とすると、Step7の明るさの比は0.05となるものとする。
【0110】
図7は、外光の影響がある場合の明るさの比を例示する模式図である。なお、図7では、実線が、外光の影響がある場合の明るさの比を示し、破線が、図6で示した理想的な明るさの比を参考として示している。
【0111】
図7に示すように、外光の影響がある場合は、Step5〜Step7の明るさの差が著しく小さくなってしまっている。このような場合は、ホワイトボードWに投影される投影画像のうち輝度の低い部分については、黒つぶれ等が発生し、意図した画像を投影することができない。このような問題を解決するために、ここでは、階調制御機能202が階調特性を補正すべく階調特性補正用の補正値を算出する。
【0112】
図8は、階調特性補正用の補正値の算出方法を説明するための図である。なお、図8では、実線が、図7に示す外光の影響がある場合の明るさの比を理想的に補正したものを示し、破線が、図6で示した理想的な明るさの比を参考として示している。
【0113】
図8に示すように、階調制御機能202は、図7に示す外光の影響がある場合のStep1とStep7の明るさの比を基準として、Step1〜Step7の明るさの比が等間隔かつ順に低下するような明るさの比を算出する。この算出された明るさの比は、図7に示す外光の影響がある場合の明るさの比を理想的に補正したものである。なお、階調制御機能202は、Step1〜Step7の明るさの比が等間隔かつ順に低下するようにしたが、これに限られるものではなく、特定の明るさを強調するように補正しても良い。
【0114】
図8に示すように、Step1〜Step7の明るさの差は、図6で示したStep1〜Step7の理想的な明るさの差と比較して小さくなっているが、Step5〜Step7の明るさの差が著しく小さくなるといった問題が解決されている。よって、階調制御機能202では、図7に示す外光の影響がある場合の明るさの比から、図8に示す明るさの比へと理想的に補正するための階調変換特性を算出する。
【0115】
図9は、外光の影響がある場合の階調変換特性を例示する図である。なお、図9では、横軸が変換前の階調特性を示し、縦軸が変換後の階調特性を示し、さらに、曲線9Cが変換前と変換後の階調特性の関係(階調変換特性)を示している。この階調変換特性は、図7に示す外光の影響がある場合の明るさの比から、図8に示す明るさの比へと理想的に補正するための階調特性補正用の補正値となる。
【0116】
カメラ制御部200は、階調制御機能202によって算出された階調特性補正用の補正値(階調変換特性)を、USBI/F130,230を介してプロジェクター制御部100に伝送する。そして、プロジェクター制御部100では、階調特性補正用の補正値にしたがって、ROM10b内に記憶されたLUT(変換テーブル)を補正する。LUTが補正されると、その後は、素子駆動制御機能101の制御の下で、外光の影響等を考慮した投影画像がホワイトボードWに投影されることとなる。
【0117】
したがって、ここでは、素子駆動制御機能101が、プロジェクター部10によって輝度が段階的に変化するパターンが投影されたホワイトボードWをカメラ部20によって撮影することにより取得される画像に基づいて、プロジェクター部10によってホワイトボードWに投影される投影画像について、階調特性を補正する手段として機能する。
【0118】
また、上述したように、ホワイトボードWへの書き込みや、資料や、写真を貼付して撮影する際にも、外光やホワイトボードWの反射率等の影響により、撮影画像の階調特性が変化することがある。よって、ここでは、このような撮影画像の階調特性の変化を抑制するために、階調制御機能202によって、上記の方法で算出された階調特性補正用の補正値(階調変換特性)を用いる。具体的には、階調制御機能202によって算出された補正値を、プロジェクター制御部100において、γ補正回路218における補正値として設定する。このように、γ補正回路218における補正値が設定されると、その後は、外光の影響等を考慮して、撮影画像の階調特性を補正することができる。
【0119】
したがって、ここでは、γ補正回路218が、プロジェクター部10によって輝度が段階的に変化するパターンが投影されたホワイトボードWをカメラ部20によって撮影することによって取得される画像に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像について、階調特性を補正する手段として機能する。
【0120】
以上のように、ここでは、輝度が段階的に変化するパターンをホワイトボードW(投影面)に投影し、そのパターンを撮影して画像を取得する。そして、その取得した画像に基づいて、ホワイトボードWに投影される投影画像、および、ホワイトボードW(投影面)等を撮影することによって得られる撮影画像のうちの少なくとも一方の画像について、階調特性を補正する。その結果、外光の影響やホワイトボードWの表面における光学的反射率等により投影画像や撮影画像の階調特性が変化するのを補正することができる。
【0121】
なお、上述したような階調特性補正用の補正値の算出は、投影システム1の使用開始時、および、使用開始時から一定時間経過する毎に行われるようにしても良い。このような構成とすることによって、時間の経過とともに外光等の影響が変化する場合に対応することができる。そして、ここでは、グレースケールチャートを投影するタイミングと、撮影するタイミングとが同期しており、さらに、グレースケールチャートを投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0122】
また、上述した階調特性の補正においては、ホワイトボードWにグレースケールチャートを投影したが、これに限られるものではなく、例えば、RGBの三色の輝度が段階的に変化する3つのパターンを別個に投影して、その3つのパターンを別々に撮影して、RGBの三色それぞれについて階調特性補正用の補正値を算出するようにしても良い。しかしながら、輝度が段階的に変化するパターンをグレースケールチャートのように無彩色の輝度が段階的に変化するパターンとした方が、1つのパターンを撮影するのみ補正値を算出することができるため、投影画像や撮影画像の階調特性を効率良く補正することができる。
【0123】
なお、グレースケールチャートを撮影して取得される画像に基づいて、上述したように、WB補正用の補正値を算出し設定することもできる。このような構成とすることによって、WB補正と階調特性の補正とを効率良く実施することができる。
【0124】
<(1−3−4) 画像の歪み補正>
図10は、ホワイトボードWに対して斜めの方向から投影および撮影する場合を例示する模式図である。なお、図10は、ホワイトボードWおよびカメラ付きプロジェクター2を真上から見た図であり、図10では、投影レンズ10Rの画角を模式的に示す実線10Lと、撮影レンズ20Rの画角を模式的に示す点線20Lとを付している。また、図10に示す状態では、投影レンズ10Rおよび撮影レンズ20Rの光軸はY軸と略一致し、ホワイトボードWは、Z軸を軸として、XZ平面に対して角度θだけ回動させた位置に配置される。
【0125】
以下、図10のようにホワイトボードWとカメラ付きプロジェクター2とが配置される場合を例に挙げて、撮影画像および投影画像の歪み補正について説明する。
【0126】
図11は、プロジェクター部10から、後述する投影画像の歪み補正をすることなく、ホワイトボードWに投影される投影画像Sm1を、ホワイトボードWの正面(ホワイトボードWの投影面に対する法線方向)から見た模式図を例示している。このとき、図11に示すように、投影画像Sm1は台形歪みを生じる。つまり、ここでは、ホワイトボードWとプロジェクター部10との相対的な位置関係によって、ホワイトボードWに対して斜めの方向から画像を投影する斜め投影を行う際は、ホワイトボードW上の投影画像が歪む。
【0127】
このような場合は、画像の作成者が意図した内容を会議に参加した人々に対して正確に伝達することができないといった問題を生じる。よって、ここでは、図11に示すように、斜め投影によって生じる台形歪みを補正して、図12に示すように、ホワイトボードWの正面から投影したような投影画像Sm1’とする必要性がある。
【0128】
図13は、カメラ部20が、後述する撮影画像の歪み補正をすることなく、ホワイトボードWを斜めの方向から撮影する斜め撮影を行った際に取得される撮影画像を例示する模式図である。図13に示す”ABCD”というそれぞれの文字の大きさはほぼ同じであるが、斜め撮影をすることによって、撮影画像に台形歪みが発生し、右端の寸法が左端の寸法よりも小さくなる。
【0129】
このような場合は、文字などが読みにくくなったり、後述するホワイトボードWへの書き込み等を撮影して得られた撮影画像と、投影するための投影原画像とをデータ合成する際には、投影原画像とずれを生じる。よって、ここでは、図13に示すように、斜め撮影によって生じる台形歪み等を補正して、図14に示すように、ホワイトボードWの正面から撮影したような画像とする必要性がある。
【0130】
以下、図2および図3等を適宜参照しつつ、カメラ付きプロジェクター2とホワイトボードWとの相対的な位置関係によって生じる投影画像および撮影画像の歪みの補正動作について説明する。
【0131】
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、投影画像の歪み補正動作が実行されたり、撮影画像の歪み補正動作が開始して、カメラ部20がホワイトボードWを撮影し、取得された撮影画像の歪みを補正したりする。
【0132】
歪み補正動作が開始すると、PC制御部300からカメラ制御部200に歪み補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200は、プロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドから、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、ホワイトボードWの各位置と、カメラ付きプロジェクター2との距離を検出することができるパターン(焦点検出用パターン)となるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、焦点検出用のパターンを投影する。
【0133】
図15は、プロジェクター部10からホワイトボードWに投影される焦点検出用パターンAFPを例示する図である。図示の便宜上、図15では白黒を反転させて描いているが、焦点検出用パターンAFPは、矩形の輪郭部分である明るい白色の枠PFと、焦点検出用の複数の部分A1〜A5と、黒色の背景BGとを含んでいる。なお、部分A1〜A5は、それぞれ白色の複数の線が並んだ縞領域となっており、焦点検出用パターンAFPのほぼ中心と四隅に分散配置されている。
【0134】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、ホワイトボードWに投影された焦点検出用のパターンを撮影することによって、複数の画素で構成される焦点検出用のパターンに係る画像を入力する。このとき、カメラ制御部200の制御の下で、焦点検出が容易となるように、撮影レンズ20Rの絞りを開放近くに設定する。したがって、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、プロジェクター部10から投影される焦点検出用パターンAFPの明るさが設定される。
【0135】
なお、ここでは、シャッタースピードが垂直同期信号によって決まり、撮影レンズ20Rの絞りをほぼ開放としているため、撮像素子213の出力が飽和しないように、焦点検出用パターンAFPの明るさを容易に設定することができる。
【0136】
次に、プロジェクター部10から焦点検出用パターンAFPをホワイトボードWに投影して撮影を行った際にA/D変換器216からカメラ制御部200にデジタル画像信号を出力する。
【0137】
図16は、焦点検出用パターンAFPが投影されたホワイトボードWをカメラ部20で撮影して取得した画像G3を例示する模式図である。図16では、枠PF’の内側が、プロジェクター部10から投影される焦点検出用パターンAFPに対応する領域である。また、図16に示すように、点線で囲まれた領域A1’〜A5’が、焦点検出のための部分A1〜A5に対応した焦点検出用の領域である。また、プロジェクター部10から焦点検出用パターンAFPを投影していない部分は暗い領域となっている。
【0138】
よって、図3に示すAF領域抽出機能203が、明るい白色の枠PF’の外側のエッジを色若しくは階調の変化等によって抽出することで、焦点検出用パターンAFPが投影された領域の境界画素を検出することができる。そして、AF領域抽出機能203が、焦点検出のための領域A1’〜A5’の位置を特定し、領域A1’〜A5’の画像データを抽出する。なお、焦点検出のための領域A1’〜A5’の位置の特定は、例えば、枠PF’との位置関係や、輝度の変化によって容易に実施することができる。
【0139】
評価値演算機能204は、AF領域抽出機能203から領域A1’〜A5’の画像データを取り込み、それぞれの領域についてコントラストを評価する。つまり、評価値演算機能204では、コントラスト方式のオートフォーカス動作において実施されているものと同様に、領域A1’〜A5’内の各隣接画素間に関するコントラスト値の総和として評価値を求める。
【0140】
そして、合焦制御機能205が、レンズ駆動回路212に制御信号を送り、撮影レンズ20Rの焦点位置を徐々に変化させながら数回〜数十回撮影を行い、上述したように、評価値演算機能204において領域A1’〜A5’についての評価値を算出する。即ち、合焦制御機能205が、カメラ部20における撮影レンズ20Rの合焦制御を行う手段として機能し、評価値演算機能204が、焦点検出用パターンAFPに係る画像G3における複数の焦点検出用の部分A1〜A5に対応する領域A1’〜A5’について、それぞれ撮影レンズ20Rの合焦状態に関する評価値を算出する手段として機能する。
【0141】
図17は、領域A1’〜A5’について算出された評価値と撮影レンズ20Rの光軸方向の位置との関係を表す曲線C14,C3,C25を例示する模式図である。図17では、横軸がレンズ位置X、縦軸が評価値Cを示しており、曲線C14,C3,C25がそれぞれ領域A1’,A4’と領域A3’と領域A2’,A5’における評価値Cとレンズ位置Xとの関係を示している。
【0142】
距離算出機能206は、図17に示すように、レンズ位置が繰り入れ側から繰り出し側へ順に、曲線C14の評価値が最大となるレンズ位置X=X1、曲線C3の評価値が最大となるレンズ位置X=X2,曲線C25の評価値が最大となるレンズ位置X=X3が検出する。そして、距離算出機能206は、レンズ位置X=X1,X2,X3に対応する焦点位置を算出することによって、カメラ付きプロジェクター2からホワイトボードWに投影されている部分A1〜A5までの距離を算出する。なお、ここでは、部分A1,A4までの距離がL1、部分A3までの距離がL2、部分A2,A5までの距離をL3と算出する。
【0143】
ここで、撮影画像の歪み補正を行う場合には、カメラ部20によって、歪み補正を行う対象である撮影画像の取得を行う。
【0144】
具体的には、PC制御部300からカメラ制御部200にホワイトボードWの撮影を実施するための撮影信号が伝送される。そして、カメラ制御部200はプロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドは、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、全面白色の明るい画像となるように設定する。したがって、ホワイトボードWに全面白色の明るい光が投影されることとなる。
【0145】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、カメラ部20において、次の垂直同期信号に同期して、全面白色の明るい光が投影されたホワイトボードWの撮影を行う。このとき、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からの発光は全面白色光であり、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0146】
こうしてカメラ部20によって撮影され取得された撮影画像は、撮影機能部210の各部の処理が施されて、カメラ制御部200の制御の下で、PC制御部300へと転送される。
【0147】
ここで、歪み補正用の補正値の算出方法について簡単に説明する。
【0148】
図18は、歪み補正用の補正値の算出方法を説明するための図である。なお、図18では、ホワイトボードW、撮影レンズ20R、および撮像素子213の位置関係を平面的に示した模式図である。そして、図18では、点P,F,GはホワイトボードW上の点であり、点PはホワイトボードWに投影されている部分A3の中心の位置に対応し、点FはホワイトボードWに投影されている部分A1,A4の中心の位置に対応し、点GはホワイトボードWに投影されている部分A2,A5の中心の位置に対応する。
【0149】
図18において、Lは撮影レンズ20Rの光軸である。点Aは撮像素子213の撮像面と光軸Lとの交点である。N0、N1、N2は、それぞれホワイトボードW上の点P,F,Gを通る撮像素子213の撮像面に平行な線分であり、N3は撮像素子213の撮像面上の点Aを通る被写体面(線分FG)に平行な線分である。また、N5は撮影レンズ20Rのレンズ面を示す線分である。点Oは撮影レンズ20Rのレンズ面と光軸Lとの交点である。点Bは線分OFの延長線と撮像素子213の撮像面との交点である。点Cは線分OGの延長線と撮像素子213の撮像面との交点である。点Qは線分N1と光軸Lとの交点、点Rは線分N2と光軸Lとの交点であり、点D,Eはそれぞれ線分N0と線分BFの延長線および線分GCとの交点である。また点B’,C’はそれぞれ線分N3と線分FBおよび線分GCの延長線との交点である。
【0150】
図18に示すように、ホワイトボードW上のFG上から発せられる光像は撮像素子213の撮像面に結像するが、撮像面とホワイトボードWとは傾斜角θだけ傾いているため、撮像面に結像される光像BCは、DE上から発せられる光像が撮像面に投影したものと等価となっている。
【0151】
撮像素子213の撮像面上のA,B,C各点での撮影倍率をそれぞれMa,Mb,Mcとし、被写体距離をそれぞれL2(=OP),L1(=OQ),L3(=OR)とすると、Mb=Ma・OP/OQ=Ma・L2/L1,Mc=Ma・OP/OR=Ma・L2/L3であるから、Mb>Ma>Mcとなり、撮像面に結像される光像は、図13に示すような台形に歪んだ画像となり、光像BCの内、完全に焦点が合っているのはA点(光軸Lと撮像面との交点)のみとなっている。
【0152】
そして、撮影倍率Mは撮影レンズ20Rによって決まる定数であり、K(比例定数)×f(焦点距離)で求められる。したがって、ホワイトボードW上の点P,F,Gにおける距離L1,L2,L3を測定すれば、L2/L1とL2/L3からA点に対する撮影倍率比を求めることができ、この情報をもとに歪み補正用の補正値を算出することができる。なお、ここでは、厳密にはL2/L1とL2/L3は異なるが、何れかの値を代表して用いて補正値を算出しても誤差はごく小さいものとなる。なお、L2/L1とL2/L3の平均値を用いて、補正値を算出しても良い。
【0153】
ところで、撮影画像の歪み補正は、特許文献1で開示されている方法でも実施可能であるが、本実施形態では、パソコン30の画像補正機能303において実施する。
【0154】
距離算出機能206は、撮影倍率比L2/L1,L2/L3を算出し、PC制御部300の補正値算出機能302に転送する。そして、補正値算出機能302において、撮影倍率比L2/L1,L2/L3に基づき、撮影画像の歪み補正用の歪み補正値を算出する。
【0155】
補正値算出機能302では、撮影画像のうち撮影倍率の高い部分を撮影倍率の低い部分に合わせられるように画像の各部における縮小倍率を算出し設定する。ここでは、この縮小倍率が歪み補正値となる。
【0156】
図18のB点の縮小倍率Mb’はMc/Mbになるが、ここで、撮像素子213の撮像面上の水平方向(X方向)の画素位置Xiにおける縮小倍率をMiとし、点B,Cの撮像面上の水平方向(X方向)の画素位置をXb,Xcとすると、下に示す式(1)が成立する。
【0157】
【数1】
【0158】
ここでは、Xb,Xc、Mb,Mcも既知であるため、式(1)より撮像面上の水平方向(X方向)の画素位置Xiにおける縮小倍率Miを求めることができる。例えば、Mc=0.9、Mb=1.1、Xb=1、Xc=−1である場合、Xi=0.5とすると、式(1)より、縮小倍率Mi=0.8635と算出される。
【0159】
このように、補正値算出機能302では、撮像素子213の撮像面上のX方向の全ての画素について局所的な縮小倍率Miを算出する。そして、補正値算出機能302によって算出された歪み補正値に基づいて、画像補正機能303によって、撮影画像の歪みが補正される。具体的には、画素位置Xiの同じ垂直ラインにおける画素を縮小倍率Miで縮小処理を行う。縮小処理としては、例えば、ニアエストネイバー法、バイリニア法、バイキュービック法等、一般的な画像処理によって実施することができる。即ち、画像補正機能303が、評価値演算機能204で算出された評価値に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像について、歪みを補正する手段として機能する。
【0160】
このような撮影画像の歪み補正によって、全体的に画像中に表されるものは小さくなるが、台形歪みのない撮影画像を得ることができ、ホワイトボードWへの書き込み等を見易い状態で保存や印刷等することができる。
【0161】
また、プロジェクター制御部100の補正値算出機能102は、距離算出機能206において算出した撮影倍率比L2/L1,L2/L3に基づいて、投影画像の台形歪みを補正するための補正値を算出することもできる。これは、プロジェクター部10とカメラ部20とは一体となっているため、カメラ部20の撮像素子213からホワイトボードWまでの距離と、プロジェクター部10の表示素子123からホワイトボードまでの距離とが、ほぼ一致することを利用するものである。そして、ここでは、従来のプロジェクターに広く採用されている台形歪み補正と同様な方法によって補正値を算出することができる。
【0162】
例えば、図11に示すような投影画像を、図12に示すような投影画像とするためには、図11に示す投影画像のうち+X方向の大きく投影される部分が縮小されるように投影される必要性がある。補正値算出機能102では、歪み補正値算出機能302において撮像素子213の撮像面上のX方向の全ての画素について縮小倍率Miを算出したのと同様の方法で、フレームメモリ112に記憶される画像データについて、X方向の全ての画素について縮小倍率Mi’を算出することができる。ここでは、プロジェクター制御部100において、この縮小倍率Mi’が歪み補正値として設定される。
【0163】
その後は、プロジェクター制御部100において設定された歪み補正値に基づいて、スケーラー113によって、投影画像の歪みが補正される。例えば、画素位置Xi’の同じ垂直ラインにおける画素を縮小倍率Mi’で縮小処理を行う。即ち、スケーラー113が、評価値演算機能204で算出された評価値に基づいて、プロジェクター部10によってホワイトボードWに投影される投影画像について、歪みを補正する手段として機能する。
【0164】
なお、ここで撮影画像および投影画像の歪みを正しく補正するためには、図18に示すように、ホワイトボードW上の3点の距離を求める必要性がある。つまり、プロジェクター部10から投影する焦点検出用のパターンには、全ての部分が直線状に並ばない3箇所の焦点検出用の部分が必要である。また、投影レンズ10Rや撮影レンズ20Rの各種収差等の誤差要因を勘案すると、図15に示すように、焦点検出用パターンには、中心と4隅の計5箇所の焦点検出用の部分が存在する方が好ましい。
【0165】
また、ここでは、コントラスト方式のオートフォーカス動作において実施されているものと同様に、焦点検出用の領域A1’〜A5’内の各隣接画素間に関するコントラスト値の総和として評価値を求めることによって距離を測定する。よって、焦点検出用の部分に描かれる模様は、撮影レンズ20Rの駆動によって評価値が変化するものであれば、点や線等何でも良い。しかし、より正しく距離を測定して、歪みをより良く補正するためには、焦点検出用の部分に描かれる模様は、撮影レンズ20Rの駆動によって評価値が変化し易いものが好ましい。なお、撮影レンズ20Rの駆動によって評価値が変化し易い模様としては、例えば、図15に示す線が多く並んだような模様が挙げられる。
【0166】
なお、以上では、図10に示すように、ホワイトボードWがZ軸を回転軸として、XZ平面に対して角度θだけ回動させた状態を例にとって説明したが、X軸を回転軸としてXZ平面に対して角度θだけ回動させた状態であっても、同様にして、撮影画像および投影画像の歪みを補正することができる。よって、ここでは、縦および横方向の台形歪み補正の両方ともを実施することができる。
【0167】
また、ホワイトボードWをZ軸を回転軸として、XY平面に対して角度θだけ回動させた上に、X軸を回転軸として回動させた状態であっても、距離算出機能206において、カメラ付きプロジェクター2からホワイトボードWに投影される部分A1〜A5までの距離をそれぞれ算出することができ、その値に基づいて、撮影画像および投影画像の歪みを補正することができる。例えば、ホワイトボードWに投影される部分A1〜A5までの距離が分かれば、内挿および外挿によって、カメラ付きプロジェクター2から投影画像上の任意の点までの距離を推定することができる。そして、その距離に基づいて、撮影画像の画素毎に縦方向および横方向の縮小倍率を求めることによって、撮影画像および投影画像の歪みを補正することができる。よって、ここでは、プロジェクター部10やカメラ部20と、ホワイトボードWとの相対的な位置関係等から生じる投影画像や撮影画像のあらゆる方向への歪みを補正することができる。
【0168】
なお、上述したような投影画像に対する歪み補正値の設定動作は、投影システム1の使用開始時、および、使用開始時から一定時間経過する毎に行われるようにしても良い。このような構成とすることで、途中でホワイトボードWが動いた場合にも対応することができる。また、上述したように、撮影画像に対する歪み補正値は、撮影が行われる毎に行われるため、途中でホワイトボードWが動いた場合にも対応することができる。なお、ここでは、焦点検出用パターンを投影するタイミングと、撮影するタイミングとが同期しており、さらに、焦点検出用パターンを投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0169】
以上のように、ここでは、パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、焦点検出用の部分(部分A1〜A5)を複数含むパターン(焦点検出用パターンAFP)をホワイトボードWに投影する。ホワイトボードWに投影されたパターンを撮影して入力された画像における複数の焦点検出用の部分に対応する領域(領域A1’〜A5’)について、それぞれ撮影レンズ20Rの合焦状態に関する評価値を求める。さらに、その評価値に基づいて、ホワイトボードWに投影される投影画像、および、ホワイトボードWを撮影することにより得られる撮影画像のうちの少なくとも一方の画像について、歪みを補正する。その結果、プロジェクター部10やカメラ部20と、ホワイトボードWとの相対的な位置関係等から生じる投影画像や撮影画像の歪みを補正することができる。
【0170】
また、ここでは、1つのパターン(焦点検出用パターンAFP)を投影して、そのパターンを撮影して入力された画像に基づいて、投影画像と撮影画像の両方の歪みの補正用の補正値を算出することができるため、効率良く、投影画像と撮影画像の両方の歪み補正用の補正値を算出することができる。
【0171】
<(1−3−5) 会議内容の記録>
図19は、ホワイトボードW上の状態を例示する模式図である。図19に示すように、枠PS2内は投影画像が投影される投影領域であり、その投影画像に合わせて、マーカーMKによる書き込みMRが行われている。
【0172】
そして、パソコン30において、投影プログラムが実行されて、図19に示すような投影画像が投影されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、ホワイトボードW上に投影されている投影画像および書き込みMR等を併せて記録する記録動作が実行される。
【0173】
記録動作が開始すると、PC制御部300からカメラ制御部200に記録用の撮影を実施するための撮影信号が伝送される。そして、カメラ制御部200は、プロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドから、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、略均一な単一色である全面白色となるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、単一色の光を投影する。
【0174】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、単一色である全面白色の光が投影されたホワイトボードWを撮影することによって画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からの発光は全面白色の光であり、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0175】
図20は、ホワイトボード上の書き込みを撮影した撮影画像PGを例示する模式図である。図20に示すように、ホワイトボードW上の枠PS3内に全面白色の光が照射され、書き込みMRを鮮明に撮影することができる。
【0176】
図20に示すような撮影画像PGは、カメラ制御部200の制御の下で、PC制御部300の画像補正機能303に伝送される。
【0177】
次に、画像補正機能303では、投影するための投影原画像と、撮影画像PGに係る画像とをデータ合成する際に、ずれのない合成画像を生成するため、上述したように、撮影画像PGの歪み補正を行う。その後、撮影画像PGのうち投影領域に対応する領域を、撮影画像の全体を占めるように、投影領域の抽出・拡大処理を行う。例えば、図20に示すように、ホワイトボードW上の投影領域には略均一な全面白色の光が照射され、その周辺は投影領域よりも十分暗いため、輝度変化に基づいて、撮影画像PGのうち、投影領域とその周辺部との境界(枠PS3)を容易に検出することができる。よって、画像補正機能303では、枠PS3内の画像を抽出し、その抽出した画像を撮影画像の全体となるように拡大処理を施す。
【0178】
領域抽出機能304は、画像補正機能303によって歪み補正、および投影領域の抽出・拡大処理が施された撮影画像から、マーカーMK等を使用してマニュアルでホワイトボードWに直接書き込まれる等して直接に表示された視覚要素(文字、図形、色彩等)に対応する領域を抽出する。例えば、図20に示すように、ホワイトボードW上の投影領域内には全面白色の光が照射される場合は、書き込みMRと、その周辺とは色が全く異なるため、撮影画像PGから書き込みMRに対応する領域を容易に抽出することができる。即ち、領域抽出機能304が、カメラ部20によって取得される画像について、ホワイトボードW上に直接に付された視覚要素に対応する領域を抽出する手段として機能する。
【0179】
なお、ここでは、書き込みMRに対応する領域を抽出する場合を例にとって説明したが、ホワイトボードWに紙の資料や写真等を直接貼付して視覚要素を与えた際にも同様な方法によって、撮影画像から資料や写真等に対応する領域を抽出することができる。
【0180】
図21は、ホワイトボードW上に投影するための投影原画像PPを例示する模式図である。なお、図21では、パソコン30の記憶部32に記憶される投影原画像PPを示しており、図19に示すホワイトボードW上に投影された投影画像に対応する投影原画像である。
【0181】
次に、画像合成機能305は、領域抽出機能304によって抽出された領域と、プロジェクター部10によって投影原画像PPとをデジタル情報としてデータ合成して画像データ(合成画像)を生成し、記憶部32に記憶する。図22は、投影原画像PPと書き込みMRとをデータ合成した画像(合成画像)CPを例示する模式図である。図22に示す合成画像CPは、図19に示すホワイトボードW上の状態を反映した画像となっている。即ち、画像合成機能305が、領域抽出機能304によって抽出した領域と、プロジェクター部10によってホワイトボードWに投影するための投影原画像とをデータ合成する手段として機能する。
【0182】
したがって、ここでは、単一色の光をホワイトボードWに照射して、ホワイトボードWを撮影して画像を取得する。そして、取得される画像から、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出する。そして抽出した領域とホワイトボードWに投影するための投影原画像とデータ合成する。その結果、ホワイトボードWに投影するための投影原画像と、ホワイトボードW上に直接書き込まれた文字や線や添付された資料等とをデータ合成した高品質な画像を作成することができる。即ち、ホワイトボードWに投影される情報と、ホワイトボードWに直接付加される視覚要素の情報とを併せた高品質の画像を取得可能な投影システムを提供することができる。
【0183】
以上、第1実施形態に係る投影システム1においては、外光や、ホワイトボードWの傾き等を勘案して、投影画像や撮影画像のホワイトバランスや階調特性や歪み等を補正する。また、ホワイトボードWに投影される情報と、ホワイトボードWに直接付加される情報とを併せた高品質の画像を取得する。よって、ホワイトボードW(投影面)の状況に応じた適正な画像を投影および撮影可能であるとともに、ホワイトボードW(投影面)の状況に応じた適正な画像を生成可能な投影システムを提供することができる。
【0184】
<(2) 第2実施形態>
<(2−1) 撮影画像の歪み補正>
上述したように、ホワイトボードWを斜め撮影した際に、ホワイトボードWの正面から撮影したような撮影画像を得るためには、撮影画像の歪み補正をしなければならない。また、ホワイトボードWに対して斜め投影している際に、ホワイトボードWへの書き込み等を撮影して得られた撮影画像と、投影するための投影原画像とをデータ合成するためには、投影原画像と整合するように撮影画像の歪み補正をしなければならない。
【0185】
このような撮影画像の歪み補正を行うために、第1実施形態に係る投影システム1では、焦点検出用パターンAFPを投影し、そのパターンを撮影して入力された画像に基づいて撮影画像の歪みを補正したが、第2実施形態に係る投影システム1Aでは、撮影画像の歪み補正を行うために、第1実施形態とは異なるパターンをホワイトボードWに投影する。
【0186】
したがって、第2実施形態に係る投影システム1Aでは、カメラ制御部200およびPC制御部300の機能が第1実施形態に係る投影システム1と異なる。具体的には、図23に示すように、第2実施形態に係るカメラ制御部200Aには、第1実施形態に係る各種機能に加えて、対応点抽出機能207が付加されている。また、図2に示すように、第2実施形態に係るPC制御部300Aでは、補正値算出機能302Aおよび画像補正機能303Aの機能が、第1実施形態に係る補正値算出機能302および画像補正機能303と異なる。
【0187】
以下、図2および図23等を適宜参照しつつ、第1実施形態に係る投影システム1と異なる部分のみについて説明し、その他の部分については、第1実施形態に係る投影システム1と同様となるため、同様な符号を付して説明を省略する。
【0188】
ここでは、上述した図10に示した場合と同様に、投影レンズ10Rおよび撮影レンズ20Rの光軸がほぼY軸と一致し、ホワイトボードWの投影面は、XZへ平面から角度θだけ傾いている場合を例に挙げて説明する。
【0189】
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、撮影画像の歪み補正動作が開始して、カメラ部20がホワイトボードWを撮影し、取得された撮影画像の歪みを補正したりする。
【0190】
撮影画像の歪み補正動作が開始すると、PC制御部300からカメラ制御部200Aに撮影画像の歪み補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200Aはプロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドから、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、ROM10bに格納される歪みを補正するためのパターン(方眼パターン)となるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、方眼パターンを投影する。
【0191】
図24は、プロジェクター部10からホワイトボードWに投影される方眼パターンGPSを例示する模式図である。方眼パターンGPSは、輪郭部分が白色の枠GPFと、縦横に伸びる白色の線分からなる方眼状のパターンGPとから構成されている。なお、方眼パターンGPSでは、縦横に伸びる白色の線分が交差する点(例えば、点A、点B、点C)が、方眼パターンGPS上の位置を特定するための特異点(他の点と識別可能な幾何学的特徴を有する点)となっている。即ち、プロジェクター部10が、ホワイトボードWに、複数の特異点を含む所定の方眼パターンを投影する手段として機能する。
【0192】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、ホワイトボードWに投影された所定の方眼パターンGPSを撮影することによって、画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。
【0193】
なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からは方眼パターンGPSが投影され、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0194】
次に、プロジェクター部10から方眼パターンGPSをホワイトボードWに投影して撮影を行った際に、A/D変換器216から図23に示すカメラ制御部200の対応点抽出機能207に出力される。
【0195】
図25は、ホワイトボードWに投影された方眼パターンGPSをカメラ部20で撮影して取得される画像G2を例示する模式図である。図25では、枠GPF’が、プロジェクター部10から投影される方眼パターンGPSの枠GPFに対応し、方眼状のパターンGP’が方眼状のパターンGPに対応する。そして、ここでは、撮影レンズ20Rの光軸とホワイトボードWとは垂直の関係にないため、図25に示すように、方眼状のパターンGP’に台形歪みが発生している。
【0196】
対応点抽出機能207では、輝度の変化を検出することによって、図25に示す画像G2から、枠GPF’外の領域を輝度による判別で排除する。次に、残された方眼状のパターンGP’の縦方向と横方向への輝度変化を見ることにより、方眼状のパターンGP’の縦および横から何本目の線が何処にあるのかを検出することができる。よって、対応点抽出機能207は、図25に示すG2における、方眼状のパターンGP’の線分が交差する点の位置を特定することができる。その結果、例えば、図24における点A、点B、点Cに対応する点として、図25に示す画像G2における点A’、点B’、点C’をそれぞれ特定し、抽出することができる。即ち、対応点抽出機能207が、画像G2について、プロジェクター部10から投影される方眼パターンGPSに含まれる複数の特異点にそれぞれ対応する対応点を抽出する手段として機能する。
【0197】
次に、図2に示すPC制御部300Aの補正値算出機能302Aにおいて、図24に示す方眼パターンGPSにおける複数の特異点(例えば、点A、点B、点C)と、図25に示す画像G2における対応点(点A’、点B’、点C’)との位置関係から撮影画像の歪みを補正するための補正値を算出する。即ち、補正値算出機能302Aが、複数の特異点と、その対応点との位置関係から補正値を算出する手段として機能する。
【0198】
ここで、図26および図27を参照しつつ、補正値算出機能302Aにおける補正値を算出するための原理を簡単に説明する。
【0199】
図26および図27は、補正値を算出するための原理を説明するための図である。図26では、プロジェクターの光軸をz軸とし、光源を原点としてxyz直交座標系を設定した場合に、ライトバルブ(例えば、表示素子123)における画素と、投影面(ホワイトボードW)上に投影される画像との位置関係を模式的に示す。また、図27では、カメラの光軸をz’軸としたx’y’z’直交座標系を設定した場合において、投影面(ホワイトボードW)上の位置と、撮像素子213における画素との位置関係を模式的に示している。
【0200】
図26に示すように、プロジェクター部10から発せられるある光線(第1の光線)が、下式(2)の関係を有する場合、ライトバルブである第1の投影面P1をz=1で表される平面とすると、第1の光線と第1の投影面P1との交点の座標は点M(p,q,1)となる。
【0201】
x/p=y/q=z・・・(2)
【0202】
次に、この状態で、画像として第2の投影面P2(例えば、ホワイトボードW)に投影されることを前提に発せられる光線群と、第2の投影面P2との交点M’を求める。ここで、第2の投影面P2を下式(3)で表すと、第1の光線と第2の投影面P2との交点M’の座標は次式(4)〜(6)で表される。
【0203】
z=ax+by+c・・・(3)
x=cp/(1−ap−bq)・・・(4)
y=cq/(1−ap−bq)・・・(5)
z=c/(1−ap−bq)・・・(6)
【0204】
つまり、ここでは、第1の投影面P1の画像を第2の投影面P2に投影することで、3次元空間において、画像の一部を示す点Mが点M’に変換されたことになる。
【0205】
そして、図27に示すように、カメラの撮像素子に照射されるある光線(第2の光線)が、下式(7)の関係を有する場合、撮像素子の撮像面となる第3の投影面P3をz’=1で表される平面とすると、第2の光線と第3の投影面P3との交点の座標は点N(s,t,1)となる。
【0206】
x’/s=y’/t=z’・・・(7)
【0207】
この状態で、第3の投影面P3に画像を結像するために照射される光線群と、第3の投影面P3とは異なる第4の投影面P4(例えば、ホワイトボードW)との交点N’を求める。ここで、第4の投影面P4を下式(8)で表すと、第2の光線と第4の投影面P2との交点N’の座標は次式(9)〜(11)で表される。
【0208】
z’=dx’+ey’+f・・・(8)
x’=fs/(1−ds−et)・・・(9)
y’=ft/(1−ds−et)・・・(10)
z’=f/(1−ds−et)・・・(11)
【0209】
つまり、ここでは、第4の投影面P4の画像を第3の投影面P3に投影することで、3次元空間において、画像の一部を示す点N’が点Nに変換されたことになる。
【0210】
そして、プロジェクターによる投影画像を、プロジェクターとは異なる位置と姿勢を有するカメラで撮影した場合には、3次元空間において、投影画像を構成するある点の座標は、図26に示す投影過程における点Mから点M’への座標変換と、プロジェクターについてのxyz直交座標系からカメラについてのx’y’z’直交座標系への座標変換と、図27に示す撮影過程における点N’から点Nへの座標変換を受けることとなる。また、ここで、xyz直交座標系からx’y’z’直交座標系への座標変換を示す係数(座標変換係数)をr11,r12,r13,r21,r22,r23,r31,r32,r33として、下式(12)〜(14)の関係が成立するものとして説明を続ける。
【0211】
x’=r11x+r12y+r13z・・・(12)
y’=r21x+r22y+r23z・・・(13)
z’=r31x+r32y+r33z・・・(14)
【0212】
ここで、式(12)〜(14)に、式(4)〜(6)および式(9)〜(11)を代入すると、下式(15)〜(17)の関係式が求まる。
【0213】
【数2】
【0214】
式(15)〜(17)の3つの式には、a〜f、r11〜r33の15個の未知である係数が含まれているが、以下の手順で整理すると未知数を9個まで減らすことができる。
【0215】
例えば、第2の投影面と第4の投影面は同一であるため、一方の投影面の式が決まれば、他方の投影面の式は、xyz直交座標系からx’y’z’直交座標系への座標変換係数を用いて表すことができる。つまり、未知数a,b,cまたは未知数d,e,fのうち一方を無くすことができ、未知数が3個減る。また、2つの座標系(xyz直交座標系とx’y’z’直交座標系)の間で、方位関係が傾いているのみで、拡大縮小を伴わないことを条件とすると、下式(18)〜(20)の関係を用いて、未知数である9個の座標変換係数r11〜r33を6個の未知数に減らすことができる。
【0216】
r11 2+r12 2+r13 2=1・・・(18)
r21 2+r22 2+r23 2=1・・・(19)
r31 2+r32 2+r33 2=1・・・(20)
【0217】
このように、式(15)〜(17)の3つの式における未知数は9個とすることができるため、第1の投影面P1上での点M(p,q,1)と第3の投影面P3上での点N(s,t,1)とを対応づける組合せが3組あれば、その3組の座標を式(15)〜(17)に代入すると、9つの式が得られ、残りの9個の未知数を求めることができる。よって、第1の投影面P1上の任意の点と、その点に対応する第3の投影面P3上の点とを相互に変換することができる式(変換式)を導出することができる。
【0218】
したがって、例えば、補正値算出機能302Aにおいて、図24に示す方眼パターンGPSにおける3点の特異点(例えば、点A、点B、点C)と、図25に示す画像G2における対応点(点A’、点B’、点C’)との位置関係から、変換式を求めることができる。なお、ここでは、この変換式が撮影画像の歪みを補正するための補正値にあたる。
【0219】
そして、画像補正機能303Aが、補正値算出機能302Aで算出された補正値に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像の歪みを補正する。この結果、ホワイトボードWに投影される画像に合わせて書き込まれる文字や資料等をカメラ部20で撮影して画像を取得し、その画像を、投影画像と整合するように座標変換して画像を生成することができる。
【0220】
ところで、プロジェクター部10において、投影画像の歪み補正をしている場合には、第1の投影面P1における画像は、投影画像の歪み補正値に基づいて、投影原画像を変形させたものとなっている。しかし、第1の投影面P1における画像と、投影原画像との位置関係は、投影画像の歪み補正値によって規定されるため、カメラ部20で撮影した画像を、投影原画像と整合するように座標変換をすることは容易に可能である。なお、このような場合は、PC制御部300がプロジェクター制御部100から投影画像に対する歪み補正値を取得することによって、変換式を、投影画像に対する歪み補正値を加味した式とし、座標変換を実現する。
【0221】
したがって、プロジェクター部10において、投影画像の歪み補正をしている場合には、ホワイトボードWに投影される画像は、ホワイトボードWの正面から見ると、パソコン30の記憶部32に記憶される投影原画像をそのまま拡大したものとなっている。よって、カメラ部20で撮影した画像を、投影原画像と整合するように座標変換をすると、ホワイトボードW上の書き込み等をホワイトボードWの正面から撮影して取得された画像のように補正することができる。
【0222】
なお、上述したように、ここでは、投影するための画像における3点の特異点と、3点の特異点に対応する撮影画像における対応点との位置関係から、撮影画像の歪みを補正するための補正値を求めることができる。そして、この3点の特異点は直線状に並ばないことが必要である。しかし、投影レンズ10Rや撮影レンズ20Rの各種収差等の誤差要因を勘案すると、すべての画像の中心と4隅の計5箇所における特異点と、その対応点との位置関係から、撮影画像の歪み補正をするための補正値を求める方が好ましい。
【0223】
また、上述したように、撮影画像に対する歪み補正値は、撮影が行われる毎に行われるため、途中でホワイトボードWが動いた場合にも対応することができる。なお、ここでは、方眼パターンGPSを投影するタイミングと、撮影するタイミングとが同期しており、さらに、方眼パターンGPSを投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0224】
以上のように、第2実施形態に係る投影システム1Aでは、複数の特異点(例えば、点A,B,C)を含む所定の方眼パターンGPSをホワイトボードWに投影する。そして、その投影された方眼パターンGPSを撮影して得られた画像G2から、複数の特異点にそれぞれ対応する対応点を抽出する。さらに、方眼パターンGPSにおける複数の特異点と、対応点との位置関係とから補正値を算出する。その補正値に基づいて、ホワイトボードWを撮影することにより得られる撮影画像の歪みを補正する。その結果、ホワイトボードW(投影面)とカメラ部20との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0225】
また、ここでは、ホワイトボードWを撮影することによって得られる撮影画像を、投影するための投影原画像と整合するように補正することができる。よって、上述したように、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を撮影画像から抽出して、ホワイトボードWに投影するための投影原画像とデータ合成する際に、ずれのない合成画像を生成することができる。
【0226】
<(3) 第3実施形態>
第3実施形態では、複数の会議室のパソコンをネットワークを介して接続し、同じ画像を各会議室において拡大投影しながら、遠隔地同士で会議を協同して進行させる電子会議システムについて示している。
【0227】
<(3−1) 電子会議システムの内部構成>
図28は、電子会議システムの内部構成を示すブロック図である。図28に示すように、電子会議システムでは、2つの会議室CR1,CR2にそれぞれ、ホワイトボードW1,W2に画像を投影するように、第1実施形態に係る投影システム1とほぼ同様な投影システム1Bが設置されている。両会議室CR1,CR2に設置される投影システム1Bの内部構成は、全く同様であるため、同様な部分については同様な符号を付しており、また、投影システム1Bは投影システム1に異なる機能が若干付加されたものであり、以下、主に、投影システム1と異なる点について説明する。なお、投影システム1Bの動作の制御は、パソコン30内に記憶されるプログラムがPC制御部300において実行されることによって実現されているものとする。
【0228】
投影システム1Bのパソコン30にはスピーカSPが設けられるとともに、マイクMCが接続され、両会議室CR1,CR2内の音声を入力して音声データを取得することができる。また、投影システム1Bは、それぞれパソコン30がネットワーク400に接続され、両会議室CR1,CR2に設置される投影システム1Bは相互にデータを送受信することができる。
【0229】
そして、パソコン30の記憶部32に記憶される画像データ(投影原画像)を送受信することによって、両会議室CR1,CR2において同様な投影画像をホワイトボードWに投影することができる。例えば、会議室CR1のパソコン30に記憶される画像データ(投影原画像)を会議室CR2のパソコン30に送信することによって、会議室CR1のパソコンに記憶される画像データに基づいて、両会議室CR1,CR2において同様な投影画像を投影することができる。
【0230】
また、両会議室CR1,CR2に設置される投影システム1Bは、パソコン30がネットワーク400を介して相互にデータを送受信することができるため、マイクMCを介して取得される音声データを相互に送受信して、スピーカSPから音声を出力することができる。
【0231】
ところで、上述した投影システム1では、会議内容の記録動作において、画像合成機能305が、領域抽出機能304によって抽出された領域と、プロジェクター部10によって投影するための投影原画像とをデータ合成して合成画像データを生成し、記憶部32に記憶した。これに対して、投影システム1Bでは、投影システム1における会議内容の記録動作と同様に、カメラ部20によってホワイトボードW1,W2の撮影を行い、その画像に基づいて、領域抽出機能304によって抽出した領域についての画像データをネットワーク400を介して他方の投影システム1Bに送信する。そして、他方の投影システム1Bにおいて、投影原画像とデータ合成して合成画像データを生成し、ホワイトボードWに投影する。なお、投影システム1Bにおける投影画像と撮影画像との合成処理のその他の動作については、投影システム1と同様となる。
【0232】
ここで、「ネットワーク」とは、データ通信を行う通信回線網であり、具体的には、インターネット、LAN、WAN、CATVなどの、電気通信回線(光通信回線を含む)により構成される各種の通信回線網である。ネットワークに対する接続形態は、専用回線などを利用した常時接続であってもよいし、アナログ回線あるいはデジタル回線(ISDN)などの電話回線を利用したダイアルアップ接続などの一時的な接続のいずれであってもよい。また、その伝送方式は、無線方式および有線方式のいずれであってもよい。
【0233】
<(3−2) 電子会議システムの使用例>
図29は、電子会議システムの使用例を示す模式図である。図29に示すように、複数の会議室CR1,CR2には、それぞれ、投影システム1Bが設置され、投影システム1に備えられたパソコン30が、ネットワーク等を介して、データを送受信し合うことによって、ホワイトボードW1,W2上に直接書き込まれた内容等も反映させながら、パソコン30に表示される同一の画像を、ホワイトボードW1,W2に投影している。また、パソコン30が図示を省略するマイクMCによって音声データを取得し、ネットワーク400を介して音声データを送信受信することによって、一方の会議室における音声を他方の会議室において、パソコン30に設けられたスピーカSPから出力することができる。
【0234】
そして、例えば、図29に示すように、会議室CR1の説明者PM1は、ホワイトボードW上に投影された画像中の重要な点に赤のマーカーでアンダーラインMR1を付し、会議の参加者に説明している。一方、会議室CR2の説明者PM2は、ホワイトボードW上に投影された画像中の重要な点に丸印MR2を付すとともに、「40万画素超」という文字MR3を書き込んで、会議の参加者に説明している。
【0235】
このとき、両会議室CR1,CR2においては、もう一方の会議室で書き込まれた内容等を反映させるため、一定間隔毎に、カメラ部20がホワイトボードW上の書き込み等を撮影し、その画像に基づいて、領域抽出機能304によって抽出した領域についての画像データをネットワーク400を介して他方の投影システム1Bに送信する。そして、他方の投影システム1Bにおいて、投影原画像とデータ合成して合成画像データを生成し、ホワイトボードWに投影する。
【0236】
その結果、図29に示すように、一方の会議室においてホワイトボードWに書き込まれたり、貼付された資料等の内容を他方の会議室のホワイトボードWに反映させることができる。
【0237】
なお、一方の会議室において、ホワイトボードに投影した投影画像に合わせてマーカー等で書き込みを行った場合に、そのままカメラ部20で撮影してその画像を他方の会議室にネットワーク400を介して伝達し、その画像に基づいて、他方の会議室において、ホワイトボードWに画像を投影しても、一方の会議室においてホワイトボードWに書き込まれたり、貼付された資料等の内容を他方の会議室のホワイトボードWに反映させることができる。しかし、そのままカメラ部20で撮影すると、投影した画像とマーカーの書き込みとが重なって撮影されるため、読みにくい画像になったり、ホワイトボードWに投影した画像をカメラで撮影した場合は、投影画像に対応する部分の画質が劣化してしまい、他方の会議室では、画像の作成者が意図した内容を会議に参加した人々に対して正確に伝達することができない。
【0238】
このような問題に対して、本実施形態に係る投影システム1Bでは、単一色(全面白色)の光をホワイトボードWに照射して、ホワイトボードWを撮影することによって画像を取得する。そして、取得された画像から、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出して、ホワイトボードWに投影するための投影原画像とデータ合成する。その結果、ホワイトボードWに投影するための投影画像と、ホワイトボードW上に直接書き込まれた文字や線や添付された資料等の視覚要素とをデータ合成した高品質な画像を作成することができる。
【0239】
なお、上述したように、カメラ部20による撮影時に、全面白色等の単一色の光をプロジェクター部10から照射する。よって、全面白色等の単一色の光をホワイトボードWに投影する時間が長いと、会議の参加者に違和感を与えたり、画像が見づらくなったりする。しかし、本実施形態に係る投影システム1Bにおいては、単一色の光を照射するタイミングと、撮影するタイミングとが同期しており、さらに、単一色の光を投影する時間は、1フレーム以内というごく短時間であるため、会議の参加者に違和感を与えたり、画像が見づらくなったりすることがない。
【0240】
また、ホワイトボードWへの書き込み等の撮影は、ユーザーがパソコン30のキーボード等を種々操作することによって行うことができるが、電子会議では、時間的なずれの低減が要求されるため、ホワイトボードW上の書き込み等を次々と撮影し、画像データをネットワーク400を介して伝送する場合もある。このような場合は、ユーザーがパソコン30において撮影間隔を短く設定し、撮影動作を繰り返し行って、書き込み等に係る撮影画像と投影原画像のデータ合成を短い周期で行うことが好ましい。
【0241】
ところで、ここでは、ホワイトボードW上の書き込みを撮影する際に、撮影画像の歪み補正をするか否かは、プロジェクター部10から投影される投影画像の歪み補正を行っているか否かに従う。
【0242】
例えば、投影画像の歪み補正を行っていない場合は、会議の説明者は特に台形歪み等を問題とせず、投影画像に合わせて、ホワイトボードWに書き込み等をしたものと考えられる。よって、この場合は、撮影画像に対する歪み補正は行わない。なお、投影画像の歪み補正を行っているか否かは、プロジェクター制御部100とカメラ制御部200間のデータの交信等によって情報を取得し、撮影画像に対する歪みを行うか否かについて、PC制御部300等によって制御および管理することができる。一方、投影画像の歪み補正を行っている場合は、上述した撮影画像の歪み補正を必ず行い、他方の会議室の投影システムに画像データを伝送する。
【0243】
以上のように、第3実施形態に係る電子会議システムでは、一方の投影システム1Bにおいて、単一色(全面白色)の光をホワイトボードWに照射して、ホワイトボードWを撮影することによって画像を取得する。そして、取得された画像から、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出して、他方の投影システムに伝送する。そして、他方の投影システムにおいて、抽出された領域と、ホワイトボードW上に投影するための投影原画像とをデータ合成して投影する。その結果、遠隔地等場所を違える会議室同士で、意志疎通を十分図ることができる。また、ホワイトボードWに投影される情報と、ホワイトボードWに直接付加される視覚要素の情報とを併せた高品質の画像を投影可能な投影システムを提供することができる。
【0244】
<(4) 変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0245】
◎例えば、上述した実施形態では、スケーラー113等は専用の電子回路となっているが、プロジェクター制御部100内のCPUにおいてプログラムを実行することにより、その機能を実現するようにしても良い。
【0246】
◎また、上述した実施形態では、プロジェクター制御部100、カメラ制御部200、およびPC制御部300を別々に設けているが、それらの機能のうちの一部、または全ての機能を、1箇所のCPUにおいてプログラムを実行することによって実現するようにしても良い。
【0247】
◎また、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作することによって、投影画像のWB補正、撮影画像のWB補正、投影画像の階調特性の補正、撮影画像の階調特性の補正、投影画像の歪み補正、および撮影画像の歪み補正のうちの全ての動作を実行しなかったり、いずれか1つの動作を実行したり、種々の組合せの動作を実行したり、全ての動作を実行するようにしても良い。
【0248】
◎また、上述した第2実施形態では、第2および第4等の投影面が平面の場合における撮影画像の歪み補正について例示したが、第2および第4の投影面が曲面である場合にも、曲面の式を規定することによって、第2実施形態と同様な手法によって、第1の投影面と第3の投影面との間の座標変換係数を求めることができる。したがって、プロジェクター部10から投影画像が投影される投影面が曲面の場合にも撮影画像の歪み補正を実施可能である。
【0249】
◎また、上述した実施形態では、WB補正値を求めるために、投影領域に全面無彩色の光を投影したが、投影領域の一部に無彩色の光を投影して、その部分に係る画像データに基づいてWB補正値を求めるようにしても良い。
【0250】
◎また、上述した実施形態では、プロジェクター制御部100、カメラ制御部200,200A、PC制御部300,300Aの間におけるデータの送受信は、USBI/F34とUSBI/F230の間、およびUSBI/F230とUSBI/F130の間をそれぞれケーブルによって接続することによって実現されていたが、接続の組合せや方式はこれに限られず、種々の組合せや方式で接続しても良い。
【0251】
◎また、上述した実施形態では、投影画像の歪み補正を自動で行う点を特徴とする動作以外の動作においては、投影画像の歪み補正の設定はユーザーが手動で行っても良い。
【0252】
◎また、上述した実施形態において例示した投影システム1,1A,1Bは、上述したように撮影画像の歪み補正を行うため、ホワイトボードW等の被写体に係る撮影画像の歪み補正を行う歪み補正装置として見ることもできる。
【0253】
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。
【0254】
(1)被写体に複数の焦点検出用の部分を含むパターンを投影する投影手段と、前記投影面に投影された前記パターンを撮影することによって、複数の画素で構成される前記パターンに係る画像を入力する撮影手段と、前記撮影手段における撮影レンズの合焦制御を行う合焦制御手段と、前記画像における前記複数の焦点検出用の部分に対応する領域について、それぞれ前記撮影レンズの合焦状態に関する評価値を算出する評価値算出手段と、前記評価値に基づいて、前記撮影手段によって前記被写体を撮影することにより得られる撮影画像について、歪みを補正する歪み補正手段とを備えることを特徴とする歪み補正装置。
【0255】
(1)の発明によれば、焦点検出用の領域を複数含むパターンを投影し、そのパターンを撮影して入力された画像における、複数の焦点検出用の部分に対応する領域について、それぞれ撮影レンズの合焦状態に関する評価値を求め、その評価値に基づいて、被写体を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、撮影手段と、被写体との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0256】
(2)被写体に複数の特異点を含む所定のパターンを投影する投影手段と、前記投影面に投影された前記所定のパターンを撮影することによって、画像を取得する撮影手段と、前記画像について、前記複数の特異点にそれぞれ対応する対応点を抽出する抽出手段と、前記複数の特異点と、前記対応点との位置関係から補正値を算出する算出手段と、前記補正値に基づいて、前記撮影手段によって前記被写体を撮影することにより得られる撮影画像の歪みを補正する歪み補正手段とを備えることを特徴とする歪み補正装置。
【0257】
(2)の発明によれば、複数の特異点を含む所定のパターンを被写体に投影し、その投影された所定のパターンを撮影して得られた画像から、複数の特異点にそれぞれ対応する対応点を抽出し、所定のパターンにおける複数の特異点と、対応点との位置関係から補正値を算出し、その補正値に基づいて、被写体を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、被写体と撮影手段との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0258】
(3)投影システムに含まれるコンピュータによって実行されることにより、前記投影システムを、請求項1から請求項5、(1)および(2)のうちいずれかに記載の投影システムとして機能させるプログラム。
【0259】
(3)の発明によれば、請求項1から請求項5、(1)および(2)のいずれかに記載の発明と同様な効果を得ることができる。
【0260】
【発明の効果】
以上説明したように、請求項1から請求項5の発明によれば、投影面の状況に応じた適正な画像処理が可能な投影システムを提供することができる。
【0261】
また、請求項1から請求項3の発明によれば、投影面の状況に応じた適正な画像を投影可能な投影システムを提供することができる。
【0262】
特に、請求項1の発明によれば、輝度が段階的に変化するパターンを投影面に投影し、そのパターンを撮影して得られた画像に基づいて、投影面に投影される投影画像や、投影面等を撮影することによって得られる撮影画像の階調特性を補正するような構成とすることによって、外光の影響や投影面の反射率等により投影画像や撮影画像の階調特性が変化するのを補正することができる。
【0263】
また、請求項2の発明によれば、無彩色の光を投影した投影面を撮影して得られた画像に基づいて、投影面に投影される投影画像や、投影面等を撮影することによって得られる撮影画像のホワイトバランスを補正するような構成とすることによって、投影面の色や、外光の色や、投影手段の光源の色等の影響により、投影画像や撮影画像の色調が変化するのを補正することができる。
【0264】
また、請求項3の発明によれば、焦点検出用の部分を複数含むパターンを投影し、そのパターンを撮影して入力された画像における複数の焦点検出用の部分に対応する領域について、それぞれ撮影レンズの合焦状態に関する評価値を求め、その評価値に基づいて、投影面に投影される投影画像や、投影面を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、投影手段や撮影手段と、投影面との相対的な位置関係等から生じる投影画像や撮影画像の歪みを補正することができる。
【0265】
また、請求項4の発明によれば、複数の特異点を含む所定のパターンを投影面に投影し、その投影された所定のパターンを撮影して得られた画像から、複数の特異点にそれぞれ対応する対応点を抽出し、所定のパターンにおける複数の特異点と、対応点との位置関係から補正値を算出し、その補正値に基づいて、投影面を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、投影面と撮影手段との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0266】
また、請求項5の発明によれば、単一色の光を投影面に投影して投影面を撮影することによって取得される画像について、投影面に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出して、投影面に投影するための画像とデータ合成するような構成とすることによって、投影面に投影される画像と、投影面に直接書き込まれた文字や線や添付された資料等の視覚要素とを合成した高品質な画像を作成することができる。即ち、投影面に投影される情報と、投影面に直接付加される情報とを併せた高品質の画像を取得可能な投影システムを提供することができる。
【図面の簡単な説明】
【図1】第1実施形態に係る投影システムの使用例を示す模式図である。
【図2】第1実施形態に係る投影システムの内部構成を示すブロック図である。
【図3】第1実施形態に係るカメラ制御部の機能を説明するためのブロック図である。
【図4】ホワイトバランス補正値の設定方法を説明するための図である。
【図5】階調特性補正用の撮影時に取得される画像を例示する模式図である。
【図6】グレースケールチャートに係る理想的な明るさの比を例示する模式図である。
【図7】外光の影響がある場合の明るさの比を例示する模式図である。
【図8】階調特性補正用の補正値の算出方法を説明するための図である。
【図9】外光の影響がある場合の階調変換特性を例示する図である。
【図10】ホワイトボードに対して斜めの方向から投影および撮影する場合を例示する模式図である。
【図11】ホワイトボードに対して斜め投影される画像を例示する模式図である。
【図12】歪み補正後の投影画像を示す模式図である。
【図13】斜め撮影時に取得される撮影画像を例示する模式図である。
【図14】歪み補正後の撮影画像を示す模式図である。
【図15】ホワイトボードに投影される焦点検出用パターンを例示する図である。
【図16】ホワイトボードに投影された焦点検出用パターンを撮影することによって取得される撮影画像を例示する模式図である。
【図17】評価値と撮影レンズの位置との関係を表す曲線を例示する模式図である。
【図18】撮影画像に対する歪み補正用の補正値の算出方法を説明するための図である。
【図19】ホワイトボード上の状態を例示する模式図である。
【図20】ホワイトボードの書き込みを撮影した撮影画像を例示する模式図である。
【図21】ホワイトボードに投影するための投影原画像を例示する模式図である。
【図22】投影原画像と書き込みとをデータ合成した合成画像を例示する模式図である。
【図23】第2実施形態に係るカメラ制御部の機能を説明するためのブロック図である。
【図24】ホワイトボードに投影される方眼パターンを例示する模式図である。
【図25】ホワイトボードに投影された方眼パターンを撮影して得られた画面を例示する模式図である。
【図26】撮影画像の歪み補正用を算出するための原理を説明するための図である。
【図27】撮影画像の歪み補正用を算出するための原理を説明するための図である。
【図28】電子会議システムの内部構成を示すブロック図である。
【図29】電子会議システムの使用例を示す模式図である。
【図30】会議における従来の投影システムの使用例を示す模式図である。
【符号の説明】
1,1A,1B 投影システム
2 カメラ付きプロジェクター
10 プロジェクター部(投影手段)
20 カメラ部(撮影手段)
30 パソコン
100 プロジェクター制御部
101 素子駆動制御機能(ホワイトバランス補正手段、階調補正手段)
113 スケーラー(歪み補正手段)
200,200A カメラ制御部
204 評価値演算機能(評価値算出手段)
205 合焦制御機能(合焦制御手段)
207 対応点抽出機能(抽出手段)
210 撮影機能部(撮影手段)
217 WB回路(ホワイトバランス補正手段)
218 γ補正回路(階調補正手段)
300 PC制御部
302A 補正値算出機能(算出手段)
303A 画像補正機能(歪み補正手段)
304 領域抽出機能(領域抽出手段)
305 画像合成機能(合成手段)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology of a projection system that projects an image on a projection surface.
[0002]
[Prior art]
An image displayed on a screen of a personal computer (hereinafter, abbreviated as “PC”) is projected by a projection device onto a projection surface such as a whiteboard to hold a meeting, for example, for use in meetings (for example, Non-Patent Documents). 1).
[0003]
FIG. 30 is a schematic diagram illustrating an example of use of the
[0004]
As shown in FIG. 30, the
[0005]
Here, since the presenter PM10 and the like can proceed with the conference while appropriately pointing to the image projected on the whiteboard W10, the contents of the conference and the like can be easily communicated to the people M11 to M15 who participated in the conference. Can be. Therefore, there is no need to distribute meeting materials, and the cost of creating materials can be significantly reduced.
[0006]
In such a meeting, it is common practice that the presenter PM10 or the like manually writes on the whiteboard W10 with the marker MK or the like in accordance with the image enlarged and projected on the whiteboard W10. Then, in order to record the content of the conference, the content written on the whiteboard W10 may be photographed by a camera (for example, see Non-Patent Document 2).
[0007]
Further, although not shown, the
[0008]
Prior art documents relating to such technology include the following.
[0009]
[Patent Document 1]
JP-A-9-289600
[Patent Document 2]
JP-A-9-289611
[Patent Document 3]
JP-A-2002-57879
[Patent Document 4]
Japanese Patent No. 2632520
[Patent Document 5]
Registered Utility Model No. 4-18308
[Non-patent document 1]
"DATA PROJECTOR (TLP-X20DJ / TLP-X21DJ) Catalog", Toshiba Digital Media Network Company, March 2002
[Non-patent document 2]
"New Release of White and White Sheet for Marker Pen Corresponding to Marker Pen A / B Sheet" [online], June 4, 1999, Fuji Photo Film Co., Ltd., [August 6, 2002] Day search], Internet <URL: http://www.fujifilm.co.jp/news_r/nrj458.html>.
[0010]
[Problems to be solved by the invention]
However, the color tone between the image displayed on the screen of the
[0011]
Furthermore, in the above-described electronic conferencing system in which a conference is cooperatively proceeded between remote locations, the contents written on the projection plane are not reflected on the projection planes of the other conference rooms. There is also a problem that it becomes difficult to understand the contents of the information.
[0012]
In addition, when the meeting materials are not distributed, the enlarged and projected images are combined with the contents written on the projection surface and the like to record as meeting contents. There is also a problem that it is difficult to take a clean image or the like.
[0013]
Further, when recording the contents written on the projection surface to record the contents of the meeting, the relative position between the projection surface and the camera may be required, such as when it is necessary to take an image from a direction oblique to the projection surface. Depending on the positional relationship, the captured image may be distorted. In order to address this problem, it is conceivable to apply the following conventional technology regarding cameras. For example, in the cameras disclosed in
[0014]
The present invention has been made in view of the above problems, and has as its basic object to provide a projection system capable of performing appropriate image processing according to the state of a projection surface.
[0015]
And there are the following specific purposes corresponding to this basic purpose.
[0016]
A first specific object is to provide a projection system that can “generate” an appropriate image according to the condition of the projection plane.
[0017]
A second specific object is to provide a projection system capable of “projecting” an appropriate image according to the condition of the projection plane.
[0018]
A third specific object is to provide a projection system capable of “taking” an appropriate image according to the state of the projection plane.
[0019]
Another object of the present invention is to provide a projection system capable of acquiring a high-quality image combining information projected on a projection plane and information directly added to the projection plane.
[0020]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, an invention according to
[0021]
The invention according to
[0022]
The invention according to
[0023]
Further, the invention according to
[0024]
Further, the invention according to
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0026]
<(1) First embodiment>
<(1-1) Overview of projection system>
FIG. 1 is a schematic diagram showing an example of use of a
[0027]
As shown in FIG. 1, a
[0028]
Here, the presenter PM or the like appropriately proceeds with the meeting while pointing to an image (projected image) enlarged and projected on the whiteboard W or writing the whiteboard W with the marker MK or the like. Therefore, since the contents of the conference and the like can be easily communicated to the people M1 to M5 who have participated in the conference, there is no need to distribute the materials for the conference in particular, and the cost for preparing the materials can be greatly reduced. .
[0029]
The camera-equipped
[0030]
In FIG. 1, a
[0031]
<(1-2) Internal configuration of projection system>
FIG. 2 is a block diagram illustrating an internal configuration of the
[0032]
<(1-2-1) Internal configuration of projector unit>
In the present embodiment, a one-chip system using one general DMD (Digital Micromirror Device) (registered trademark) as a
[0033]
As shown in FIG. 2, the
[0034]
The
[0035]
The
[0036]
The color wheel for
[0037]
The
[0038]
The image
[0039]
The image
[0040]
The
[0041]
The
[0042]
For example, assuming that the number of pixels of a
[0043]
More specifically, when the timing to emit R light from the color
[0044]
Thereafter, when the sampling of the vertical 600 lines is completed, the same sampling operation is further repeated, and digital image data suitable for driving the
[0045]
The
[0046]
The
[0047]
Here, an electric signal from the
[0048]
The
[0049]
Further, the
[0050]
The USB I /
[0051]
<(1-2-2) Internal Configuration of Camera Unit>
As shown in FIG. 2, the
[0052]
The photographing
[0053]
The
[0054]
The exposure control in the photographing
[0055]
The image
[0056]
The signal processing circuit 215 performs predetermined analog signal processing on an image signal (analog signal) output from the
[0057]
The A / D converter 216 converts each pixel signal of the image signal output from the signal processing circuit 215 into a digital signal. The A / D converter 216 converts each pixel signal (analog signal) into a digital image signal (for example, an 8-bit digital image signal) based on an A / D conversion clock input from a timing generation circuit (not shown). Convert to
[0058]
A WB (white balance)
[0059]
The
[0060]
The color conversion /
[0061]
The
[0062]
The USB I /
[0063]
The
[0064]
In addition, the
[0065]
FIG. 3 is a block diagram for explaining various functions of the
[0066]
As shown in FIG. 3, a
[0067]
Note that the various functions shown in FIG. 3 will be described in detail later when white balance (WB) correction, gradation characteristic correction, image distortion correction, and recording of conference contents are specifically described. I do.
[0068]
<(1-2-3) @ Internal configuration of personal computer>
As shown in FIG. 2, the
[0069]
The
[0070]
The output I /
[0071]
The USB I /
[0072]
The
[0073]
The
[0074]
Further, the
[0075]
For example, when the user operates a keyboard or the like (not shown) provided in the
[0076]
When the user operates a keyboard or the like of the
[0077]
Further, the
[0078]
The correction value calculation function 302 calculates a correction value for correcting a distortion of a captured image based on a shooting magnification ratio calculated by a
[0079]
By the way, when the
[0080]
Then, the image synthesis function 305 performs data synthesis (specifically, as digital data) of the area extracted by the
[0081]
The processing in the
[0082]
<(1-3) Description of operation of projection system>
<(1-3-1) WB correction of projected image>
In the
[0083]
Hereinafter, the operation of WB correction of a projected image will be described with reference to FIGS.
[0084]
When the operation of the WB correction of the projected image starts, a photographing signal is transmitted from the
[0085]
The achromatic color light projected from the
[0086]
On the other hand, the
[0087]
The
[0088]
Next, the
[0089]
FIG. 4 is a diagram for explaining a method of setting a WB correction value in the
[0090]
As shown in FIG. 4, a predetermined region Ra is set in the XX-YY coordinate system according to a preset WB setting, and is affected by external light, the color of the projection surface, the deterioration of the
[0091]
The WB correction value for the projection image set in the
[0092]
<(1-3-2) WB correction of captured image>
When the user performs various operations on the keyboard and the like of the
[0093]
In the above-described WB correction operation on the projected image, the entire gray light is projected from the
[0094]
Note that the color of the achromatic color light projected from the
[0095]
Until the setting of the WB correction value for the captured image, the light projected from the
[0096]
When the WB correction value is set, the set values of the R, G, and B gains in the
[0097]
As described above, here, when the user operates the keyboard or the like of the
[0098]
Note that the above-described WB correction operation may be performed at the start of use of the
[0099]
<(1-3-3) Correction of gradation characteristics>
In the
[0100]
Hereinafter, the operation of correcting the gradation characteristic will be described with reference to FIGS.
[0101]
When the operation of correcting the gradation characteristic is started, a photographing signal is transmitted from the
[0102]
In response to this, the
[0103]
Next, in the
[0104]
Here, a method of calculating a correction value for gradation characteristic correction in the
[0105]
FIG. 5 is a schematic diagram illustrating an image G1 based on a digital image signal output from the A / D converter 216 at the time of photographing for gradation characteristic correction. In FIG. 5, the inside of the frame PS is a portion corresponding to the gray scale chart projected from the
[0106]
The gray scale chart has achromatic regions S1 to S7 in which luminance changes at regular intervals and in steps. Here, the region S1 is white and the region S7 is black, and the brightness is set so as to gradually decrease in the order of the regions S1 to S7. Further, the gray scale chart is set so that portions other than the regions S1 to S7 have an achromatic color having the same luminance as that of the region S4.
[0107]
In addition, as shown in FIG. 5, the projection area projected on the whiteboard W by the
[0108]
Thereafter, the
[0109]
FIG. 6 is a schematic diagram illustrating the ideal brightness ratio of the regions S1 to S7. In FIG. 6, the horizontal axis indicates the position in the X direction in the image G1, and the vertical axis indicates the brightness ratio. In addition, the brightness ratios corresponding to the regions S1 to S7 are shown as Step1 to Step7. As shown in FIG. 6, in an ideal case where there is no influence of external light, assuming that the brightness ratio of
[0110]
FIG. 7 is a schematic view illustrating a brightness ratio when there is an influence of external light. In FIG. 7, the solid line indicates the brightness ratio when there is the influence of external light, and the broken line indicates the ideal brightness ratio shown in FIG. 6 for reference.
[0111]
As shown in FIG. 7, when there is an influence of external light, the difference in brightness between
[0112]
FIG. 8 is a diagram for explaining a method of calculating a correction value for gradation characteristic correction. In FIG. 8, the solid line shows the ideally corrected brightness ratio when there is an influence of external light shown in FIG. 7, and the broken line shows the ideal brightness ratio shown in FIG. Is shown for reference.
[0113]
As illustrated in FIG. 8, the
[0114]
As shown in FIG. 8, the difference in brightness between
[0115]
FIG. 9 is a diagram illustrating a gradation conversion characteristic when there is an influence of external light. In FIG. 9, the horizontal axis indicates the gradation characteristics before the conversion, the vertical axis indicates the gradation characteristics after the conversion, and the curve 9C indicates the relationship between the gradation characteristics before and after the conversion (the gradation conversion). Characteristic). This gradation conversion characteristic is a correction value for gradation characteristic correction for ideally correcting the brightness ratio under the influence of external light shown in FIG. 7 to the brightness ratio shown in FIG. It becomes.
[0116]
The
[0117]
Therefore, here, the element drive control function 101 performs the projector unit based on an image acquired by photographing the whiteboard W onto which the pattern in which the luminance changes stepwise by the
[0118]
Further, as described above, even when writing on a whiteboard W, or attaching a document or a photograph when photographing, the gradation characteristics of the photographed image may be affected by the influence of external light, the reflectance of the whiteboard W, and the like. May change. Therefore, here, in order to suppress such a change in the gradation characteristic of the captured image, the
[0119]
Therefore, here, the
[0120]
As described above, here, the pattern in which the luminance changes stepwise is projected on the whiteboard W (projection surface), and the pattern is photographed to acquire an image. Then, based on the acquired image, the gradation of at least one of a projected image projected on the whiteboard W and a photographed image obtained by photographing the whiteboard W (projection surface) or the like is obtained. Correct the characteristics. As a result, it is possible to correct a change in the gradation characteristic of the projection image or the captured image due to the influence of external light, the optical reflectance on the surface of the whiteboard W, and the like.
[0121]
Note that the above-described calculation of the correction value for gradation characteristic correction may be performed at the start of use of the
[0122]
Further, in the above-described correction of the gradation characteristics, the gray scale chart is projected on the white board W. However, the present invention is not limited to this. For example, three patterns in which the luminance of the three colors of RGB changes stepwise are used. The three patterns may be separately projected, the three patterns may be separately photographed, and the correction values for the gradation characteristic correction may be calculated for each of the three colors RGB. However, when the pattern in which the luminance changes stepwise is set to a pattern in which the achromatic luminance changes stepwise as in a gray scale chart, the correction value can be calculated only by photographing one pattern. It is possible to efficiently correct the gradation characteristics of a projected image or a captured image.
[0123]
As described above, a correction value for WB correction can be calculated and set based on an image obtained by photographing a gray scale chart. With such a configuration, WB correction and correction of gradation characteristics can be efficiently performed.
[0124]
<(1-3-4) Image distortion correction>
FIG. 10 is a schematic view exemplifying a case of projecting and photographing from an oblique direction with respect to the whiteboard W. FIG. 10 is a view of the whiteboard W and the projector with
[0125]
Hereinafter, distortion correction of a captured image and a projected image will be described by taking as an example a case where a whiteboard W and a projector with a
[0126]
FIG. 11 shows a state in which the projection image Sm1 projected on the whiteboard W is projected from the
[0127]
In such a case, there arises a problem that the content intended by the creator of the image cannot be accurately transmitted to the people who participated in the conference. Therefore, here, it is necessary to correct the trapezoidal distortion caused by the oblique projection as shown in FIG. 11 to obtain a projection image Sm1 ′ as projected from the front of the whiteboard W as shown in FIG. .
[0128]
FIG. 13 is a schematic diagram illustrating a photographed image obtained when the
[0129]
In such a case, when data and the like are difficult to read, or when a photographed image obtained by photographing writing on a whiteboard W described later and a projection original image for projection are combined with data, A deviation from the original projection image occurs. Therefore, here, as shown in FIG. 13, it is necessary to correct a trapezoidal distortion or the like caused by oblique photographing, and to obtain an image photographed from the front of the whiteboard W as shown in FIG.
[0130]
Hereinafter, the operation of correcting the distortion of the projected image and the captured image caused by the relative positional relationship between the camera-equipped
[0131]
When the user performs various operations on the keyboard or the like of the
[0132]
When the distortion correction operation is started, an imaging signal is transmitted from the
[0133]
FIG. 15 is a diagram illustrating a focus detection pattern AFP projected from the
[0134]
In response to this, the
[0135]
Here, since the shutter speed is determined by the vertical synchronization signal and the aperture of the photographing
[0136]
Next, a digital image signal is output from the A / D converter 216 to the
[0137]
FIG. 16 is a schematic diagram illustrating an image G3 obtained by photographing the whiteboard W onto which the focus detection pattern AFP is projected by the
[0138]
Therefore, the AF
[0139]
The evaluation
[0140]
Then, the
[0141]
FIG. 17 is a schematic diagram illustrating curves C14, C3, and C25 representing the relationship between the evaluation values calculated for the regions A1 'to A5' and the position of the
[0142]
As shown in FIG. 17, the
[0143]
Here, when distortion correction of a captured image is performed, the
[0144]
Specifically, a photographing signal for photographing the whiteboard W is transmitted from the
[0145]
On the other hand, the
[0146]
The photographed image photographed and acquired by the
[0147]
Here, a method of calculating a correction value for distortion correction will be briefly described.
[0148]
FIG. 18 is a diagram for explaining a method of calculating a correction value for distortion correction. FIG. 18 is a schematic diagram illustrating a positional relationship between the whiteboard W, the photographing
[0149]
In FIG. 18, L is the optical axis of the photographing
[0150]
As shown in FIG. 18, the light image emitted from the FG on the whiteboard W forms an image on the imaging surface of the
[0151]
The imaging magnifications at points A, B, and C on the imaging surface of the
[0152]
The photographing magnification M is a constant determined by the photographing
[0153]
By the way, the distortion correction of the photographed image can be performed by the method disclosed in
[0154]
The
[0155]
The correction value calculation function 302 calculates and sets the reduction magnification of each part of the image so that a high-magnification portion of the captured image can be matched with a low-magnification portion. Here, this reduction magnification is a distortion correction value.
[0156]
The reduction magnification Mb ′ at point B in FIG. 18 is Mc / Mb. Here, the reduction magnification at the pixel position Xi in the horizontal direction (X direction) on the imaging surface of the
[0157]
(Equation 1)
[0158]
Here, since Xb, Xc, Mb, and Mc are also known, the reduction magnification Mi at the pixel position Xi in the horizontal direction (X direction) on the imaging surface can be obtained from Expression (1). For example, when Mc = 0.9, Mb = 1.1, Xb = 1, and Xc = -1, if Xi = 0.5, the reduction magnification Mi = 0.8635 is calculated from the equation (1). You.
[0159]
As described above, the correction value calculation function 302 calculates the local reduction magnification Mi for all pixels in the X direction on the imaging surface of the
[0160]
By such a distortion correction of the photographed image, what is entirely represented in the image is reduced, but a photographed image without trapezoidal distortion can be obtained, and writing or the like on the whiteboard W can be stored in an easily viewable state. Printing can be performed.
[0161]
The correction
[0162]
For example, in order to make the projection image as shown in FIG. 11 into the projection image as shown in FIG. 12, the projection image shown in FIG. Need to be In the correction
[0163]
After that, the distortion of the projected image is corrected by the
[0164]
Here, in order to correctly correct the distortion of the photographed image and the projected image, it is necessary to obtain the distances of three points on the whiteboard W as shown in FIG. That is, the focus detection pattern projected from the
[0165]
In addition, here, as in the case of the contrast type autofocus operation, the evaluation value is obtained by calculating the evaluation value as the sum of contrast values between adjacent pixels in the focus detection areas A1 'to A5'. Is measured. Therefore, the pattern drawn on the focus detection portion may be any point or line as long as the evaluation value is changed by driving the photographing
[0166]
In the above description, as shown in FIG. 10, the whiteboard W has been described as an example in which the white board W is rotated by an angle θ with respect to the XZ plane with the Z axis as the rotation axis. Even in the state of being rotated by the angle θ with respect to the plane, the distortion of the captured image and the projection image can be similarly corrected. Therefore, here, both the vertical and horizontal trapezoidal distortion correction can be performed.
[0167]
Further, even when the whiteboard W is rotated by the angle θ with respect to the XY plane with the Z axis as the rotation axis, the distance calculation function The distances from the camera-equipped
[0168]
Note that the operation of setting the distortion correction value for the projection image as described above may be performed at the start of use of the
[0169]
As described above, here, when the user performs various operations on the keyboard and the like of the
[0170]
Further, here, one pattern (focus detection pattern AFP) is projected, and the correction value for correcting the distortion of both the projected image and the captured image is calculated based on the image captured and input. Since the calculation can be performed, it is possible to efficiently calculate the correction value for correcting the distortion of both the projected image and the captured image.
[0171]
<(1-3-5) Record of meeting contents>
FIG. 19 is a schematic view illustrating a state on the whiteboard W. As shown in FIG. 19, the inside of the frame PS2 is a projection area where the projection image is projected, and the writing MR using the marker MK is performed in accordance with the projection image.
[0172]
Then, when the projection program is executed on the
[0173]
When the recording operation is started, a photographing signal for performing photographing for recording is transmitted from the
[0174]
On the other hand, the
[0175]
FIG. 20 is a schematic diagram illustrating a captured image PG obtained by capturing writing on a whiteboard. As shown in FIG. 20, the entire surface of the frame PS3 on the whiteboard W is illuminated with white light, so that the written MR can be clearly photographed.
[0176]
The captured image PG as shown in FIG. 20 is transmitted to the
[0177]
Next, in the
[0178]
The
[0179]
Here, the case where the region corresponding to the writing MR is extracted has been described as an example. However, when a visual material is given by directly pasting a paper material or a photograph on the whiteboard W, a similar method is used. It is possible to extract an area corresponding to a material, a photograph, or the like from a captured image.
[0180]
FIG. 21 is a schematic view illustrating a projection original image PP for projecting on the whiteboard W. Note that FIG. 21 shows the projection original image PP stored in the
[0181]
Next, the image synthesizing function 305 generates image data (synthesized image) by synthesizing the area extracted by the
[0182]
Therefore, here, the white board W is irradiated with light of a single color, and the white board W is photographed to acquire an image. Then, from the acquired image, an area corresponding to a visual element directly written, for example, attached or attached to the whiteboard W is extracted. Then, data is synthesized with the extracted region and a projection original image to be projected on the whiteboard W. As a result, it is possible to create a high-quality image in which a projection original image to be projected on the whiteboard W and data such as characters, lines, and attached materials directly written on the whiteboard W are combined. That is, it is possible to provide a projection system capable of acquiring a high-quality image combining information projected on the whiteboard W and information on visual elements directly added to the whiteboard W.
[0183]
As described above, in the
[0184]
<(2) Second embodiment>
<(2-1) Distortion correction of captured image>
As described above, when obliquely photographing the whiteboard W, in order to obtain a photographed image as if photographed from the front of the whiteboard W, the distortion of the photographed image must be corrected. In addition, when obliquely projecting onto the whiteboard W, in order to combine data of a captured image obtained by capturing a writing or the like on the whiteboard W and a projection original image for projection, The distortion of the photographed image must be corrected so as to match the original projected image.
[0185]
In order to perform such distortion correction of the captured image, the
[0186]
Therefore, in the
[0187]
Hereinafter, only portions different from the
[0188]
Here, as in the case shown in FIG. 10 described above, the optical axes of the
[0189]
When the user performs various operations on the keyboard or the like of the
[0190]
When the distortion correction operation of the photographed image is started, a photographing signal is transmitted from the
[0191]
FIG. 24 is a schematic view illustrating a grid pattern GPS projected from the
[0192]
In response to this, the
[0193]
Here, since the shutter speed is determined by the vertical synchronization signal and the grid pattern GPS is projected from the
[0194]
Next, when the grid pattern GPS is projected from the
[0195]
FIG. 25 is a schematic diagram illustrating an image G2 obtained by photographing the grid pattern GPS projected on the whiteboard W with the
[0196]
The corresponding
[0197]
Next, in the correction value calculation function 302A of the
[0198]
Here, the principle for calculating the correction value in the correction value calculation function 302A will be briefly described with reference to FIGS. 26 and 27.
[0199]
FIG. 26 and FIG. 27 are diagrams for explaining the principle for calculating the correction value. In FIG. 26, when the xyz orthogonal coordinate system is set with the optical axis of the projector as the z-axis and the light source as the origin, the pixel on the light valve (for example, the display element 123) and the projection on the projection surface (whiteboard W) Schematically shows the positional relationship with the image to be performed. In FIG. 27, when an x′y′z ′ orthogonal coordinate system with the optical axis of the camera as the z ′ axis is set, the position on the projection plane (whiteboard W) and the pixel on the
[0200]
As shown in FIG. 26, when a certain light ray (first light ray) emitted from the
[0201]
x / p = y / q = z (2)
[0202]
Next, in this state, an intersection M 'between the light beam group that is emitted on the assumption that the image is projected on the second projection plane P2 (for example, the whiteboard W) and the second projection plane P2 is obtained. Here, when the second projection plane P2 is expressed by the following equation (3), the coordinates of the intersection M ′ between the first light ray and the second projection plane P2 are expressed by the following equations (4) to (6). You.
[0203]
z = ax + by + c (3)
x = cp / (1-ap-bq) (4)
y = cq / (1-ap-bq) (5)
z = c / (1-ap-bq) (6)
[0204]
That is, here, by projecting the image of the first projection plane P1 onto the second projection plane P2, the point M indicating a part of the image is converted into the point M ′ in the three-dimensional space. .
[0205]
Then, as shown in FIG. 27, when a certain light ray (second light ray) irradiated on the image pickup device of the camera has the relationship of the following expression (7), a third projection surface serving as an image pickup surface of the image pickup device Assuming that P3 is a plane represented by z ′ = 1, the coordinates of the intersection of the second light ray and the third projection plane P3 are points N (s, t, 1).
[0206]
x '/ s = y' / t = z '(7)
[0207]
In this state, an intersection of a light beam group irradiated to form an image on the third projection plane P3 and a fourth projection plane P4 (for example, a whiteboard W) different from the third projection plane P3. Find N '. Here, if the fourth projection plane P4 is represented by the following equation (8), the coordinates of the intersection N ′ between the second light ray and the fourth projection plane P2 are represented by the following equations (9) to (11). You.
[0208]
z '= dx' + ey '+ f (8)
x '= fs / (1-ds-et) (9)
y '= ft / (1-ds-et) (10)
z '= f / (1-ds-et) (11)
[0209]
That is, here, by projecting the image of the fourth projection plane P4 onto the third projection plane P3, the point N ′ indicating a part of the image is converted into the point N in the three-dimensional space. .
[0210]
When the image projected by the projector is captured by a camera having a position and orientation different from that of the projector, the coordinates of a point forming the projected image in the three-dimensional space are represented by a point M in the projection process shown in FIG. From the point N 'to the point N in the photographing process shown in FIG. 27, the coordinate conversion from the point x' to the point M ', the coordinate conversion from the xyz rectangular coordinate system for the projector to the x'y'z' rectangular coordinate system for the camera. Will be subjected to the coordinate transformation. Here, a coefficient (coordinate conversion coefficient) indicating a coordinate conversion from the xyz rectangular coordinate system to the x'y'z 'rectangular coordinate system is represented by r.11, R12, RThirteen, R21, R22, R23, R31, R32, R33The description will be continued assuming that the following equations (12) to (14) hold.
[0211]
x '= r11x + r12y + rThirteenz ... (12)
y '= r21x + r22y + r23z ... (13)
z '= r31x + r32y + r33z (14)
[0212]
Here, by substituting the equations (4) to (6) and the equations (9) to (11) into the equations (12) to (14), the following equations (15) to (17) are obtained.
[0213]
(Equation 2)
[0214]
Equations (15) to (17) include a to f, r11~ R33Although the 15 unknown coefficients are included, the number of unknowns can be reduced to 9 by rearranging in the following procedure.
[0215]
For example, since the second projection plane and the fourth projection plane are the same, if the equation of one projection plane is determined, the equation of the other projection plane is calculated from the xyz orthogonal coordinate system to the x′y′z ′ orthogonal coordinate. It can be expressed using a coordinate conversion coefficient for the system. That is, one of the unknowns a, b, and c or the unknowns d, e, and f can be eliminated, and the number of unknowns is reduced by three. Further, if only the azimuth relationship is inclined between two coordinate systems (xyz rectangular coordinate system and x'y'z 'rectangular coordinate system) and no enlargement / reduction is involved, the following equation (18) is obtained. ) To (20), nine unknown coordinate transformation coefficients r11~ R33Can be reduced to six unknowns.
[0216]
r11 2+ R12 2+ RThirteen 2= 1 ... (18)
r21 2+ R22 2+ R23 2= 1 ... (19)
r31 2+ R32 2+ R33 2= 1 ... (20)
[0219]
As described above, since the number of unknowns in the three equations (15) to (17) can be nine, the point M (p, q, 1) on the first projection plane P1 and the third If there are three sets of combinations for associating points N (s, t, 1) on the projection plane P3, substituting the three sets of coordinates into equations (15) to (17) yields nine equations. , The remaining nine unknowns can be obtained. Therefore, it is possible to derive an equation (conversion equation) that can mutually convert an arbitrary point on the first projection plane P1 and a point on the third projection plane P3 corresponding to the point.
[0218]
Therefore, for example, in the correction value calculation function 302A, three singular points (for example, point A, point B, and point C) in the grid pattern GPS illustrated in FIG. 24 and corresponding points (point A) in the image G2 illustrated in FIG. , Point B ′, point C ′), a conversion equation can be obtained. Here, this conversion formula corresponds to a correction value for correcting the distortion of the captured image.
[0219]
Then, the
[0220]
By the way, when the
[0221]
Therefore, when distortion of the projection image is corrected in the
[0222]
Note that, as described above, in order to correct the distortion of the captured image from the positional relationship between the three singular points in the image to be projected and the corresponding points in the captured image corresponding to the three singular points. Can be obtained. Then, it is necessary that these three singular points are not arranged in a straight line. However, when error factors such as various aberrations of the
[0223]
Further, as described above, since the distortion correction value for the captured image is performed every time the image capturing is performed, it is possible to cope with a case where the whiteboard W is moved in the middle. In this case, the timing for projecting the grid pattern GPS and the timing for capturing are synchronized, and the time for projecting the grid pattern GPS is very short, so that a person watching the projected image notices. And the projected image is not difficult to see.
[0224]
As described above, in the
[0225]
Further, here, the captured image obtained by capturing the whiteboard W can be corrected so as to match the original image to be projected. Therefore, as described above, an area corresponding to a visual element directly written on or attached to the whiteboard W is extracted from the captured image and projected onto the whiteboard W, as described above. When synthesizing data with the projection original image, it is possible to generate a synthesized image without deviation.
[0226]
<(3) Third Embodiment>
In the third embodiment, an electronic conferencing system in which personal computers in a plurality of conference rooms are connected via a network, and the same image is enlarged and projected in each conference room and a conference is performed in a cooperative manner between remote locations is shown. .
[0227]
<(3-1) Internal configuration of the electronic conference system>
FIG. 28 is a block diagram showing an internal configuration of the electronic conference system. As shown in FIG. 28, in the electronic conference system, a projection system substantially similar to the
[0228]
The
[0229]
Then, by transmitting and receiving the image data (projected original image) stored in the
[0230]
The
[0231]
By the way, in the
[0232]
Here, the “network” is a communication line network for performing data communication, and specifically, various types of electric communication lines (including optical communication lines) such as the Internet, a LAN, a WAN, and a CATV. It is a communication network. The connection form to the network may be a permanent connection using a dedicated line or a temporary connection such as a dial-up connection using a telephone line such as an analog line or a digital line (ISDN). Good. The transmission method may be any of a wireless method and a wired method.
[0233]
<(3-2) Example of using electronic conference system>
FIG. 29 is a schematic diagram showing a usage example of the electronic conference system. As shown in FIG. 29, a
[0234]
Then, for example, as shown in FIG. 29, the presenter PM1 of the conference room CR1 attaches an underline MR1 to important points in the image projected on the whiteboard W with a red marker, and the participants of the conference Has been described. On the other hand, the explainer PM2 of the conference room CR2 attaches a circle MR2 to an important point in the image projected on the whiteboard W and writes a character MR3 of “exceeding 400,000 pixels”, and Has been described.
[0235]
At this time, in each of the conference rooms CR1 and CR2, the
[0236]
As a result, as shown in FIG. 29, the contents of materials and the like written on or attached to the whiteboard W in one conference room can be reflected on the whiteboard W in the other conference room.
[0237]
When writing is performed with a marker or the like in accordance with the projected image projected on the whiteboard in one conference room, the image is directly taken by the
[0238]
In order to solve such a problem, the
[0239]
As described above, the
[0240]
In addition, the user can perform various operations such as writing on the whiteboard W by variously operating the keyboard and the like of the
[0241]
By the way, here, whether or not to correct the distortion of the photographed image when photographing the writing on the whiteboard W depends on whether or not the distortion of the projection image projected from the
[0242]
For example, when the distortion correction of the projection image is not performed, it is considered that the presenter of the conference wrote the whiteboard W or the like in accordance with the projection image without particularly considering the trapezoidal distortion or the like. Therefore, in this case, no distortion correction is performed on the captured image. Whether the distortion correction of the projection image is performed or not is determined by acquiring information by data exchange between the
[0243]
As described above, in the electronic conference system according to the third embodiment, one
[0244]
<(4) Modification>
The embodiments of the present invention have been described above, but the present invention is not limited to the above-described contents.
[0245]
For example, in the above-described embodiment, the
[0246]
Also, in the above-described embodiment, the
[0247]
◎ Further, when the projection program is being executed, the user operates the keyboard of the
[0248]
Also, in the above-described second embodiment, the distortion correction of the captured image in the case where the second and fourth projection planes are planes has been described as an example. However, even when the second and fourth projection planes are curved planes, By defining the equation of the curved surface, a coordinate conversion coefficient between the first projection surface and the third projection surface can be obtained by the same method as in the second embodiment. Therefore, even when the projection surface onto which the projection image is projected from the
[0249]
Also, in the above-described embodiment, in order to obtain a WB correction value, achromatic light is projected on the entire projection area, but achromatic light is projected on a part of the projection area, and an image related to the part is projected. The WB correction value may be obtained based on the data.
[0250]
In the above-described embodiment, data transmission and reception between the
[0251]
In the above-described embodiment, the user may manually set the distortion correction of the projection image in an operation other than the operation characterized in that the distortion correction of the projection image is performed automatically.
[0252]
In addition, the
[0253]
The specific embodiments described above include inventions having the following configurations.
[0254]
(1) Projection means for projecting a pattern including a plurality of focus detection portions onto a subject, and photographing the pattern projected on the projection surface to form an image related to the pattern including a plurality of pixels. The photographing means to be input, the focus control means for controlling the focusing of the photographing lens in the photographing means, and the in-focus state of the photographing lens with respect to regions corresponding to the plurality of focus detection portions in the image. An evaluation value calculation unit configured to calculate an evaluation value; and a distortion correction unit configured to correct a distortion of a captured image obtained by capturing the subject by the imaging unit based on the evaluation value. Distortion correction device.
[0255]
According to the invention of (1), a pattern including a plurality of regions for focus detection is projected, and the imaging lens is used for each of regions corresponding to a plurality of portions for focus detection in an image input by capturing the pattern. An evaluation value relating to the in-focus state is obtained, and distortion of a captured image obtained by imaging the subject is corrected based on the evaluation value. It is possible to correct distortion of a captured image caused by a positional relationship or the like.
[0256]
(2) projecting means for projecting a predetermined pattern including a plurality of singular points on a subject; photographing means for acquiring an image by photographing the predetermined pattern projected on the projection surface; Extracting means for extracting corresponding points respectively corresponding to the plurality of singular points, calculating means for calculating a correction value from a positional relationship between the plurality of singular points and the corresponding point, and, based on the correction value, A distortion correction unit that corrects a distortion of a captured image obtained by capturing the subject with a capturing unit.
[0257]
According to the invention of (2), a predetermined pattern including a plurality of singular points is projected on a subject, and a corresponding image corresponding to the plurality of singular points is obtained from an image obtained by photographing the projected predetermined pattern. A point is extracted, a correction value is calculated from a positional relationship between a plurality of singular points in a predetermined pattern and a corresponding point, and distortion of a captured image obtained by capturing an object is corrected based on the correction value. With such a configuration, it is possible to correct the distortion of the captured image caused by the relative positional relationship between the subject and the imaging unit.
[0258]
(3) A program which, when executed by a computer included in the projection system, causes the projection system to function as the projection system according to any one of
[0259]
According to the invention of (3), the same effect as the invention described in any one of
[0260]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, it is possible to provide a projection system capable of performing appropriate image processing according to the state of the projection plane.
[0261]
Further, according to the first to third aspects of the present invention, it is possible to provide a projection system capable of projecting an appropriate image according to the situation of the projection plane.
[0262]
In particular, according to the first aspect of the present invention, a projected image projected onto a projection surface based on an image obtained by projecting a pattern whose luminance changes stepwise on a projection surface and photographing the pattern, By adopting a configuration that corrects the gradation characteristics of the photographed image obtained by photographing the projection surface, etc., the gradation characteristics of the projection image and the photographed image change due to the influence of external light, the reflectance of the projection surface, and the like. Can be corrected.
[0263]
According to the second aspect of the present invention, a projection image projected on the projection surface, a projection surface, or the like is photographed based on an image obtained by photographing the projection surface on which achromatic light is projected. By adopting a configuration that corrects the white balance of the obtained captured image, the color tone of the projected image or the captured image changes due to the influence of the color of the projection surface, the color of the external light, the color of the light source of the projection unit, and the like. Can be corrected.
[0264]
According to the third aspect of the present invention, a pattern including a plurality of focus detection portions is projected, and the pattern is photographed, and an image corresponding to the plurality of focus detection portions in an input image is captured. An evaluation value relating to the in-focus state of the lens is obtained, and based on the evaluation value, distortion of a projection image projected on the projection surface or a captured image obtained by photographing the projection surface is corrected. This makes it possible to correct distortion of a projected image or a captured image caused by a relative positional relationship between the projection unit or the imaging unit and the projection surface.
[0265]
According to the invention of
[0266]
According to the fifth aspect of the present invention, an image obtained by projecting a single color light on the projection surface and photographing the projection surface is directly written on the projection surface or directly attached thereto. By extracting a region corresponding to the visual element attached to the image and combining the data with an image to be projected on the projection surface, the image projected on the projection surface and the image directly written on the projection surface are written. It is possible to create a high-quality image by combining characters, lines, and visual elements such as attached materials. That is, it is possible to provide a projection system capable of acquiring a high-quality image combining information projected on the projection surface and information directly added to the projection surface.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating an example of use of a projection system according to a first embodiment.
FIG. 2 is a block diagram illustrating an internal configuration of the projection system according to the first embodiment.
FIG. 3 is a block diagram for explaining functions of a camera control unit according to the first embodiment.
FIG. 4 is a diagram for explaining a method of setting a white balance correction value.
FIG. 5 is a schematic view exemplifying an image acquired at the time of photographing for gradation characteristic correction.
FIG. 6 is a schematic diagram illustrating an ideal brightness ratio according to the gray scale chart.
FIG. 7 is a schematic diagram illustrating a brightness ratio when there is an influence of external light;
FIG. 8 is a diagram for explaining a method of calculating a correction value for gradation characteristic correction.
FIG. 9 is a diagram exemplifying gradation conversion characteristics when there is an influence of external light;
FIG. 10 is a schematic view exemplifying a case of projecting and photographing from an oblique direction with respect to a whiteboard.
FIG. 11 is a schematic view illustrating an image obliquely projected on a whiteboard.
FIG. 12 is a schematic diagram showing a projected image after distortion correction.
FIG. 13 is a schematic view illustrating a photographed image acquired at the time of oblique photographing.
FIG. 14 is a schematic diagram illustrating a captured image after distortion correction.
FIG. 15 is a diagram illustrating a focus detection pattern projected on a whiteboard.
FIG. 16 is a schematic view illustrating a captured image obtained by capturing a focus detection pattern projected on a whiteboard.
FIG. 17 is a schematic diagram illustrating a curve representing a relationship between an evaluation value and a position of a photographing lens.
FIG. 18 is a diagram illustrating a method of calculating a correction value for correcting a distortion of a captured image.
FIG. 19 is a schematic view illustrating a state on a whiteboard.
FIG. 20 is a schematic diagram illustrating a captured image of a whiteboard written;
FIG. 21 is a schematic diagram illustrating a projection original image for projecting on a whiteboard.
FIG. 22 is a schematic view illustrating a combined image obtained by combining data of a projection original image and writing.
FIG. 23 is a block diagram for explaining functions of a camera control unit according to the second embodiment.
FIG. 24 is a schematic view illustrating a grid pattern projected on a whiteboard.
FIG. 25 is a schematic view illustrating a screen obtained by photographing a grid pattern projected on a whiteboard;
FIG. 26 is a diagram for explaining a principle for calculating a distortion correction of a captured image.
FIG. 27 is a diagram for explaining a principle for calculating a distortion correction of a captured image.
FIG. 28 is a block diagram showing an internal configuration of the electronic conference system.
FIG. 29 is a schematic diagram showing a usage example of the electronic conference system.
FIG. 30 is a schematic diagram showing an example of use of a conventional projection system in a conference.
[Explanation of symbols]
1,1A, 1B projection system
2 Projector with camera
10 Projector unit (projection means)
20 Camera unit (photographing means)
30 PC
100 Projector control unit
101 element drive control function (white balance correction means, gradation correction means)
113 scaler (distortion correction means)
200, 200A Camera control unit
204 Evaluation value calculation function (evaluation value calculation means)
205 Focus control function (focus control means)
207 Corresponding point extraction function (extraction means)
210 photography function unit (photography means)
217 WB circuit (white balance correction means)
218 γ correction circuit (gradation correction means)
300 PC control unit
302A Correction value calculation function (calculation means)
303A Image correction function (distortion correction means)
304 area extraction function (area extraction means)
305 Image composition function (composition means)
Claims (5)
投影面に、輝度が段階的に変化するパターンを投影する投影手段と、
前記投影面に投影された前記パターンを撮影することによって画像を取得する撮影手段と、
前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、階調特性を補正する階調補正手段と、
を備えることを特徴とする投影システム。A projection system,
Projection means for projecting a pattern whose luminance changes stepwise on a projection surface,
A photographing unit that acquires an image by photographing the pattern projected on the projection surface,
Based on the image acquired by the photographing unit, a projection image projected on the projection surface by the projection unit, and at least one of a photographed image obtained by photographing the projection surface by the photographing unit Gradation correction means for correcting gradation characteristics of an image;
A projection system comprising:
投影面に、無彩色の光を投影する投影手段と、
前記無彩色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、
前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、ホワイトバランスを補正するホワイトバランス補正手段と、
を備えることを特徴とする投影システム。A projection system,
Projecting means for projecting achromatic light on the projection surface;
A photographing unit that acquires an image by photographing the projection surface on which the achromatic light is projected,
Based on the image acquired by the photographing unit, a projection image projected on the projection surface by the projection unit, and at least one of a photographed image obtained by photographing the projection surface by the photographing unit White balance correction means for correcting the white balance of the image;
A projection system comprising:
投影面に、複数の焦点検出用の部分を含むパターンを投影する投影手段と、
前記投影面に投影された前記パターンを撮影することによって、複数の画素で構成される前記パターンに係る画像を入力する撮影手段と、
前記撮影手段における撮影レンズの合焦制御を行う合焦制御手段と、
前記画像における前記複数の焦点検出用の部分に対応する領域について、それぞれ前記撮影レンズの合焦状態に関する評価値を算出する評価値算出手段と、
前記評価値に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、歪みを補正する歪み補正手段と、を備えることを特徴とする投影システム。A projection system,
Projection means for projecting a pattern including a plurality of focus detection portions on a projection surface,
By photographing the pattern projected on the projection surface, photographing means for inputting an image of the pattern composed of a plurality of pixels,
Focusing control means for performing focusing control of a photographing lens in the photographing means;
An evaluation value calculation unit configured to calculate an evaluation value regarding an in-focus state of the photographing lens for an area corresponding to the plurality of focus detection portions in the image,
Based on the evaluation value, distortion is corrected for at least one of a projection image projected on the projection surface by the projection unit and a photographed image obtained by photographing the projection surface by the photographing unit. And a distortion correction unit.
投影面に、複数の特異点を含む所定のパターンを投影する投影手段と、
前記投影面に投影された前記所定のパターンを撮影することによって、画像を取得する撮影手段と、
前記画像について、前記複数の特異点にそれぞれ対応する対応点を抽出する抽出手段と、
前記複数の特異点と、前記対応点との位置関係から補正値を算出する算出手段と、
前記補正値に基づいて、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像の歪みを補正する歪み補正手段と、
を備えることを特徴とする投影システム。A projection system,
Projection means for projecting a predetermined pattern including a plurality of singularities on a projection surface,
By photographing the predetermined pattern projected on the projection surface, a photographing means for acquiring an image,
For the image, extraction means for extracting corresponding points respectively corresponding to the plurality of singularities,
Calculation means for calculating a correction value from the positional relationship between the plurality of singular points and the corresponding point,
Distortion correction means for correcting distortion of a captured image obtained by imaging the projection surface by the imaging means based on the correction value;
A projection system comprising:
投影面に、単一色の光を投影する投影手段と、
前記単一色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、
前記撮影手段によって取得される前記画像について、前記投影面に直接に付された視覚要素に対応する領域を抽出する領域抽出手段と、
前記領域抽出手段によって抽出した前記領域と、前記投影手段によって前記投影面に投影するための画像とをデータ合成する合成手段と、
を備えることを特徴とする投影システム。A projection system,
Projecting means for projecting a single color light onto a projection surface;
A photographing unit that acquires an image by photographing the projection surface on which the single color light is projected,
For the image obtained by the photographing unit, an area extracting unit that extracts an area corresponding to a visual element directly attached to the projection plane,
Combining means for combining the area extracted by the area extracting means and an image to be projected onto the projection surface by the projecting means;
A projection system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002268950A JP2004109246A (en) | 2002-09-13 | 2002-09-13 | Projection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002268950A JP2004109246A (en) | 2002-09-13 | 2002-09-13 | Projection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004109246A true JP2004109246A (en) | 2004-04-08 |
Family
ID=32267025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002268950A Pending JP2004109246A (en) | 2002-09-13 | 2002-09-13 | Projection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004109246A (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004208089A (en) * | 2002-12-26 | 2004-07-22 | Casio Comput Co Ltd | Projector, imaging device, and program for trapezoid correction |
JP2005354171A (en) * | 2004-06-08 | 2005-12-22 | Ricoh Co Ltd | Image display apparatus |
WO2006011192A1 (en) * | 2004-07-26 | 2006-02-02 | Mitsubishi Denki Kabushiki Kaisha | Conference system |
JP2006053313A (en) * | 2004-08-11 | 2006-02-23 | Sharp Corp | Image projection apparatus with photographing function and data management system using the apparatus |
JP2006093823A (en) * | 2004-09-21 | 2006-04-06 | Nikon Corp | Projector apparatus, mobile phone, and camera |
JP2006094445A (en) * | 2004-09-27 | 2006-04-06 | Casio Comput Co Ltd | Projector, method of photographing projection image, and program |
JP2006186723A (en) * | 2004-12-28 | 2006-07-13 | Casio Comput Co Ltd | Imaging apparatus, imaging method, program, and projector system |
JP2007017543A (en) * | 2005-07-05 | 2007-01-25 | Ricoh Elemex Corp | Device, system, method and program for presentation |
JP2007079003A (en) * | 2005-09-13 | 2007-03-29 | Canon Inc | Image projecting apparatus |
JP2007206619A (en) * | 2006-02-06 | 2007-08-16 | Olympus Corp | Information presentation apparatus and method |
JP2008079070A (en) * | 2006-09-22 | 2008-04-03 | Seiko Epson Corp | Digital camera, image display system, and parameter adjustment method |
JP2008306264A (en) * | 2007-06-05 | 2008-12-18 | Nippon Telegr & Teleph Corp <Ntt> | Image processor, image processing method, program, and recording medium |
JP2009115984A (en) * | 2007-11-05 | 2009-05-28 | Casio Comput Co Ltd | Projection device, projection method and program |
JP2009239598A (en) * | 2008-03-27 | 2009-10-15 | Casio Comput Co Ltd | Camera built-in projector |
US7719596B2 (en) | 2006-03-27 | 2010-05-18 | Funai Electric Co., Ltd. | Display apparatus, burn-in correction system and burn-in correction method |
US7911500B2 (en) | 2007-06-28 | 2011-03-22 | Fuji Xerox Co., Ltd. | Image processing device, computer readable recording medium, and image processing method |
JP2011141600A (en) * | 2010-01-05 | 2011-07-21 | Canon Inc | Image processing apparatus, method, and program |
US8123363B2 (en) | 2004-09-21 | 2012-02-28 | Nikon Corporation | Projector device, portable telephone and camera |
JP2012095249A (en) * | 2010-10-29 | 2012-05-17 | Casio Comput Co Ltd | Imaging device, imaging processing method, and program |
WO2012111121A1 (en) * | 2011-02-17 | 2012-08-23 | Necディスプレイソリューションズ株式会社 | Projector and minute information generating method |
JP2013070218A (en) * | 2011-09-22 | 2013-04-18 | Sharp Corp | Projection apparatus |
JP2013513807A (en) * | 2009-12-15 | 2013-04-22 | テスト アクチエンゲゼルシャフト | Method for visualizing position-resolved measurement results and corresponding measuring device |
JP2013137368A (en) * | 2011-12-28 | 2013-07-11 | Hitachi Consumer Electronics Co Ltd | Projector and method for controlling image display of the same |
JP2014197739A (en) * | 2013-03-29 | 2014-10-16 | セイコーエプソン株式会社 | Projector and adjustment method |
JP2015019401A (en) * | 2014-09-05 | 2015-01-29 | カシオ計算機株式会社 | Imaging controlling device, imaging controlling method, and program |
US8964070B2 (en) | 2007-06-21 | 2015-02-24 | Nikon Corporation | Image processing method, image processing program, image processing device, image processing system, electronic camera and electronic apparatus |
WO2018142586A1 (en) * | 2017-02-03 | 2018-08-09 | マクセル株式会社 | Projection-type video display device |
WO2018155269A1 (en) * | 2017-02-27 | 2018-08-30 | ソニー株式会社 | Image processing device and method, and program |
CN113709429A (en) * | 2020-05-20 | 2021-11-26 | 中强光电股份有限公司 | Color correction method and color correction system |
US11323673B2 (en) | 2019-12-24 | 2022-05-03 | Seiko Epson Corporation | Method for operating control apparatus, and projector |
CN114630089A (en) * | 2020-12-10 | 2022-06-14 | 精工爱普生株式会社 | Projection method, projection system, and recording medium |
-
2002
- 2002-09-13 JP JP2002268950A patent/JP2004109246A/en active Pending
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004208089A (en) * | 2002-12-26 | 2004-07-22 | Casio Comput Co Ltd | Projector, imaging device, and program for trapezoid correction |
JP4588366B2 (en) * | 2004-06-08 | 2010-12-01 | 株式会社リコー | Image display device |
JP2005354171A (en) * | 2004-06-08 | 2005-12-22 | Ricoh Co Ltd | Image display apparatus |
WO2006011192A1 (en) * | 2004-07-26 | 2006-02-02 | Mitsubishi Denki Kabushiki Kaisha | Conference system |
JP2006053313A (en) * | 2004-08-11 | 2006-02-23 | Sharp Corp | Image projection apparatus with photographing function and data management system using the apparatus |
JP2006093823A (en) * | 2004-09-21 | 2006-04-06 | Nikon Corp | Projector apparatus, mobile phone, and camera |
US8123363B2 (en) | 2004-09-21 | 2012-02-28 | Nikon Corporation | Projector device, portable telephone and camera |
JP2006094445A (en) * | 2004-09-27 | 2006-04-06 | Casio Comput Co Ltd | Projector, method of photographing projection image, and program |
JP2006186723A (en) * | 2004-12-28 | 2006-07-13 | Casio Comput Co Ltd | Imaging apparatus, imaging method, program, and projector system |
JP2007017543A (en) * | 2005-07-05 | 2007-01-25 | Ricoh Elemex Corp | Device, system, method and program for presentation |
JP2007079003A (en) * | 2005-09-13 | 2007-03-29 | Canon Inc | Image projecting apparatus |
JP2007206619A (en) * | 2006-02-06 | 2007-08-16 | Olympus Corp | Information presentation apparatus and method |
US7719596B2 (en) | 2006-03-27 | 2010-05-18 | Funai Electric Co., Ltd. | Display apparatus, burn-in correction system and burn-in correction method |
JP2008079070A (en) * | 2006-09-22 | 2008-04-03 | Seiko Epson Corp | Digital camera, image display system, and parameter adjustment method |
JP2008306264A (en) * | 2007-06-05 | 2008-12-18 | Nippon Telegr & Teleph Corp <Ntt> | Image processor, image processing method, program, and recording medium |
US8964070B2 (en) | 2007-06-21 | 2015-02-24 | Nikon Corporation | Image processing method, image processing program, image processing device, image processing system, electronic camera and electronic apparatus |
US7911500B2 (en) | 2007-06-28 | 2011-03-22 | Fuji Xerox Co., Ltd. | Image processing device, computer readable recording medium, and image processing method |
JP2009115984A (en) * | 2007-11-05 | 2009-05-28 | Casio Comput Co Ltd | Projection device, projection method and program |
JP2009239598A (en) * | 2008-03-27 | 2009-10-15 | Casio Comput Co Ltd | Camera built-in projector |
JP2013513807A (en) * | 2009-12-15 | 2013-04-22 | テスト アクチエンゲゼルシャフト | Method for visualizing position-resolved measurement results and corresponding measuring device |
JP2011141600A (en) * | 2010-01-05 | 2011-07-21 | Canon Inc | Image processing apparatus, method, and program |
JP2012095249A (en) * | 2010-10-29 | 2012-05-17 | Casio Comput Co Ltd | Imaging device, imaging processing method, and program |
WO2012111121A1 (en) * | 2011-02-17 | 2012-08-23 | Necディスプレイソリューションズ株式会社 | Projector and minute information generating method |
JP2013070218A (en) * | 2011-09-22 | 2013-04-18 | Sharp Corp | Projection apparatus |
JP2013137368A (en) * | 2011-12-28 | 2013-07-11 | Hitachi Consumer Electronics Co Ltd | Projector and method for controlling image display of the same |
JP2014197739A (en) * | 2013-03-29 | 2014-10-16 | セイコーエプソン株式会社 | Projector and adjustment method |
JP2015019401A (en) * | 2014-09-05 | 2015-01-29 | カシオ計算機株式会社 | Imaging controlling device, imaging controlling method, and program |
WO2018142586A1 (en) * | 2017-02-03 | 2018-08-09 | マクセル株式会社 | Projection-type video display device |
JPWO2018142586A1 (en) * | 2017-02-03 | 2019-11-07 | マクセル株式会社 | Projection-type image display device |
US11146766B2 (en) | 2017-02-03 | 2021-10-12 | Maxell, Ltd. | Projection-type video display device |
WO2018155269A1 (en) * | 2017-02-27 | 2018-08-30 | ソニー株式会社 | Image processing device and method, and program |
CN110313176A (en) * | 2017-02-27 | 2019-10-08 | 索尼公司 | Image processing apparatus, method and program |
US11323673B2 (en) | 2019-12-24 | 2022-05-03 | Seiko Epson Corporation | Method for operating control apparatus, and projector |
CN113709429A (en) * | 2020-05-20 | 2021-11-26 | 中强光电股份有限公司 | Color correction method and color correction system |
CN114630089A (en) * | 2020-12-10 | 2022-06-14 | 精工爱普生株式会社 | Projection method, projection system, and recording medium |
CN114630089B (en) * | 2020-12-10 | 2023-06-06 | 精工爱普生株式会社 | Projection method, projection system, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004109246A (en) | Projection system | |
EP3356887B1 (en) | Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama | |
US11368604B2 (en) | Combined HDR/LDR video streaming | |
TWI242381B (en) | Image processing system, projector, information storage medium, and picture processing method | |
US7433089B2 (en) | Image processor | |
JP3908255B2 (en) | Image projection system | |
US10924718B2 (en) | Image processing device and method | |
JP2010009417A (en) | Image processing apparatus, image processing method, program and recording medium | |
JPH10187929A (en) | Image processor | |
Klein et al. | Simulating low-cost cameras for augmented reality compositing | |
JP2004228824A (en) | Stack projection device and its adjusting method | |
JPH11242737A (en) | Method for processing picture and device therefor and information recording medium | |
JP6425571B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
KR101626447B1 (en) | An apparatus, a method, a computer-readable medium storing a computer program of removing lens distortion and chromatic aberration | |
JP2006074805A (en) | Multi-projection video display device | |
JP5363872B2 (en) | Image correction apparatus and program thereof | |
WO2013190645A1 (en) | Automatic image compositing device | |
JP2005039849A (en) | Video display system | |
JP4168024B2 (en) | Stack projection apparatus and adjustment method thereof | |
JP2004265185A (en) | Image projecting device with camera/with digitizer | |
JP2004032665A (en) | Image projection system | |
JP2009253553A (en) | Image data output device and image data output method | |
JP4701774B2 (en) | Image capturing apparatus, image capturing method, and image capturing program | |
JP2006313965A (en) | Photographic apparatus, and photographed image processing method, and program | |
JP2006053313A (en) | Image projection apparatus with photographing function and data management system using the apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050622 |