JP2004109246A - Projection system - Google Patents

Projection system Download PDF

Info

Publication number
JP2004109246A
JP2004109246A JP2002268950A JP2002268950A JP2004109246A JP 2004109246 A JP2004109246 A JP 2004109246A JP 2002268950 A JP2002268950 A JP 2002268950A JP 2002268950 A JP2002268950 A JP 2002268950A JP 2004109246 A JP2004109246 A JP 2004109246A
Authority
JP
Japan
Prior art keywords
image
projection
projected
photographing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002268950A
Other languages
Japanese (ja)
Inventor
Nobuo Hashimoto
橋本 信雄
Mutsuhiro Yamanaka
山中 睦裕
Shinichi Ban
伴 慎一
Takeshi Ono
小野 剛
Tsutomu Honda
本田 努
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002268950A priority Critical patent/JP2004109246A/en
Publication of JP2004109246A publication Critical patent/JP2004109246A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projection system for generating a proper image in accordance with the condition of a projection surface. <P>SOLUTION: In the projection system, an image is obtained by a camera section 20 picking up the projection surface on which a pattern whose luminance changes stepwise and with regular intervals is projected by a projector section 10. Then, in a camera controlling section 200, a correction value for correcting the gradation property of the obtained image is set so that the gradual change amount of the brightness of the area where the pattern is projected is of the regular intervals. Then, in a γ correction circuit 218, the gradation property of pickup image obtained by the camera section 20 is corrected based on the correction value set at the camera controlling section 200, and an element drive controlling function 101 corrects the gradation property of a projected image projected from the projector section 10 on the projection surface. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、投影面に画像を投影する投影システムの技術に関する。
【0002】
【従来の技術】
パーソナルコンピュータ(以下、「パソコン」と略称する)の画面に表示される画像を、投影装置によってホワイトボード等の投影面に投影して、会議を行う用途が増加してきている(例えば、非特許文献1参照)。
【0003】
図30は、会議における従来の投影システム500の使用例を示す模式図である。なお、図30は、会議室CR10を上から見た上面図を示している。
【0004】
図30に示すように、従来の投影システム500は、主に、投影装置510とパソコン520とから構成され、会議机CD10上に設置されている。そして、投影装置510とパソコン520とはケーブルによって接続され、投影装置510が、パソコン520の画面上に表示される画像と同様な画像を、ホワイトボードW10に拡大投影する。
【0005】
ここでは、説明者PM10等が、適宜、ホワイトボードW10に拡大投影される画像を指しつつ会議を進行することができるため、会議に参加した人々M11〜M15に、会議の内容等をわかり易く伝えることができる。よって、特に会議用の資料を配付する必要性がなく、資料作成にかかるコストを大幅に削減することができる。
【0006】
また、このような会議においては、ホワイトボードW10に拡大投影した画像に合わせて、説明者PM10等が、マーカーMK等でホワイトボードW10にマニュアルで書き込みを行うことが一般的に行われている。そして、会議の内容を記録するために、ホワイトボードW10に書き込んだ内容をカメラで撮影する場合もある(例えば、非特許文献2参照)。
【0007】
さらに、図示を省略するが、複数の会議室のパソコン520をネットワークを介して接続し、異なる会議室において同様な画像を投影装置510によってホワイトボードW10に拡大投影しながら、遠隔地どうしで会議を協同で進行させる電子会議システムのサービスも行われている。
【0008】
このような技術に関する先行技術文献としては以下のようなものがある。
【0009】
【特許文献1】
特開平9−289600号公報
【特許文献2】
特開平9−289611号公報
【特許文献3】
特開2002−57879号公報
【特許文献4】
特許第2632520号公報
【特許文献5】
登録実用新案平4−18308号公報
【非特許文献1】
”DATA PROJECTOR(TLP−X20DJ/TLP−X21DJ)カタログ”、株式会社東芝 デジタルメディアネットワーク社、2002年3月
【非特許文献2】
”水で消色するマーカーペン対応のホワイトボード用シート「A・B・シート」新発売”、[online]、平成11年6月4日、富士写真フィルム株式会社、[平成14年8月6日検索]、インターネット<URL:http://www.fujifilm.co.jp/news_r/nrj458.html>。
【0010】
【発明が解決しようとする課題】
しかしながら、投影面の色や反射率、外光、および投影装置の光源の劣化等の影響によって、パソコン520の画面上に表示される画像と、投影面に投影される画像との間で、色調や階調特性等の相違が生じる場合がある。また、投影面に対して斜めの方向から、投影装置によって画像を投影する場合等、投影面と投影装置との相対的な位置関係によって、投影面に投影される画像が歪む場合もある。これら場合は、画像の作成者が意図した内容を会議に参加した人々に対して正確に伝達することができないといった問題を生じる。
【0011】
さらに、上述した遠隔地どうしで会議を協同で進行させる電子会議システムでは、投影面に書き込んだ内容等が、他の会議室の投影面には反映されないため、異なる会議室どうしの間で、会議の内容が理解し難くなるといった問題も生じる。
【0012】
また、会議資料を配付しない場合には、拡大投影された画像と、投影面に書き込んだ内容等とを併せて、会議の内容として記録するために、カメラ等で撮影しても、拡大投影された画像等を、きれいに撮影することが難しいといった問題も生じる。
【0013】
さらに、会議の内容を記録するために、投影面に書き込んだ内容等を撮影する際に、投影面に対して斜めの方向から撮影しなければならない場合等、投影面とカメラとの相対的な位置関係によって、撮影された画像が歪む場合もある。この問題に関してはカメラに関する以下の従来技術を応用することが考えられる。例えば、特許文献1、2におけるカメラでは、カメラの長手方向とホワイトボードとのなす角度をユーザーが目分量で図り、その角度をカメラに入力することによって、撮影画像の台形歪みを補正することができる。しかし、この方法では、煩雑な操作が必要な上に、補正の精度が低くなるといった難点がある。また、特許文献3におけるカメラでは、投影面に書き込んだ文字や図形から対向する少なくとも2組の線分を外挿すること等によって、歪みを補正するための補正値を算出することができる。しかし、この方法では、少なくとも2組の線分を外挿できるような書き込み等でなければ有効でなく、利用できる場合が制限される。
【0014】
本発明は、上記課題に鑑みてなされたものであり、投影面の状況に応じた適正な画像処理が可能な投影システムを提供することを基本目的とする。
【0015】
そして、この基本目的に対応して下記の具体的な目的がある。
【0016】
第1の具体的な目的は、投影面の状況に応じて適正な画像を「生成」可能な投影システムを提供することである。
【0017】
第2の具体的な目的は、投影面の状況に応じて適正な画像を「投影」可能な投影システムを提供することである。
【0018】
第3の具体的な目的は、投影面の状況に応じて適正な画像を「撮影」可能な投影システムを提供することである。
【0019】
また、本発明の他の目的は、投影面に投影される情報と、投影面に直接付加される情報とを合わせた高品質の画像を取得可能な投影システムを提供することである。
【0020】
【課題を解決するための手段】
上記の課題を解決するために、請求項1の発明は、投影システムであって、投影面に、輝度が段階的に変化するパターンを投影する投影手段と、前記投影面に投影された前記パターンを撮影することによって画像を取得する撮影手段と、前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、階調特性を補正する階調補正手段とを備えることを特徴とする。
【0021】
また、請求項2の発明は、投影システムであって、投影面に、無彩色の光を投影する投影手段と、前記無彩色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、ホワイトバランスを補正するホワイトバランス補正手段とを備えることを特徴とする。
【0022】
また、請求項3の発明は、投影システムであって、投影面に、複数の焦点検出用の部分を含むパターンを投影する投影手段と、前記投影面に投影された前記パターンを撮影することによって、複数の画素で構成される前記パターンに係る画像を入力する撮影手段と、前記撮影手段における撮影レンズの合焦制御を行う合焦制御手段と、前記画像における前記複数の焦点検出用の部分に対応する領域について、それぞれ前記撮影レンズの合焦状態に関する評価値を算出する評価値算出手段と、前記評価値に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、歪みを補正する歪み補正手段とを備えることを特徴とする。
【0023】
また、請求項4の発明は、投影システムであって、投影面に、複数の特異点を含む所定のパターンを投影する投影手段と、前記投影面に投影された前記所定のパターンを撮影することによって、画像を取得する撮影手段と、前記画像について、前記複数の特異点にそれぞれ対応する対応点を抽出する抽出手段と、前記複数の特異点と、前記対応点との位置関係から補正値を算出する算出手段と、前記補正値に基づいて、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像の歪みを補正する歪み補正手段とを備えることを特徴とする。
【0024】
また、請求項5の発明は、投影システムであって、投影面に、単一色の光を投影する投影手段と、前記単一色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、前記撮影手段によって取得される前記画像について、前記投影面に直接に付された視覚要素に対応する領域を抽出する領域抽出手段と、前記領域抽出手段によって抽出した前記領域と、前記投影手段によって前記投影面に投影するための画像とをデータ合成する合成手段とを備えることを特徴とする。
【0025】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0026】
<(1) 第1実施形態>
<(1−1) 投影システムの概要>
図1は、本発明の第1実施形態に係る投影システム1の使用例を示す模式図である。なお、図1は、会議室CR1を上から見た上面図を示しており、図1以降では、方位関係を明確とするために必要に応じて、XYZ直交座標系を付している。
【0027】
図1に示すように、本発明の第1実施形態に係る投影システム1は、主に、カメラ(デジタルカメラ)付きプロジェクター2と、パーソナルコンピュータ(以下「パソコン」と略称する)30とから構成され、会議机CD上に設置される。そして、カメラ付きプロジェクター2とパソコン30とはケーブルCBによって接続され、カメラ付きプロジェクター2が、パソコン30の画面上に表示される画像と同様な画像を、投影面であるホワイトボードWに拡大投影する。
【0028】
ここでは、説明者PM等は、適宜、ホワイトボードWに拡大投影された画像(投影画像)を指したり、マーカーMK等でホワイトボードWに書き込みを行いながら会議を進行する。よって、会議に参加した人々M1〜M5に、会議の内容等をわかり易く伝えることができるため、特に会議用の資料を配付する必要性がなく、資料作成にかかるコストを大幅に削減することができる。
【0029】
カメラ付きプロジェクター2は、主に、プロジェクター部10とカメラ部20とから構成され、カメラ部20はプロジェクター部10の筐体に固定される。そして、例えば、プロジェクター部10の投影レンズ10Rと、カメラ部20の撮影レンズ20Rとは、出来るだけ近くに配置され、投影レンズ10Rと撮影レンズ20Rは、光軸および画角が互いに近似するように設定される。
【0030】
なお、図1では、投影レンズ10Rの画角を模式的に示す実線10Lと、撮影レンズ20Rの画角を模式的に示す点線20Lとを付している。図1に示すように、ここでは、ホワイトボードWに投影される投影画像の全領域(以下、「投影領域」と称する)が、カメラ部20によって撮影可能な範囲に入るように設定される。
【0031】
<(1−2) 投影システムの内部構成>
図2は、投影システム1の内部構成を示すブロック図である。投影システム1は、上述したように、主に、プロジェクター部10と、カメラ部20と、パソコン30の3つの部分から構成される。以下、3つの部分について順に説明する。
【0032】
<(1−2−1) プロジェクター部の内部構成>
本実施形態では、後述する表示素子123として、一般的なDMD(Digital Micromirror Device)(登録商標)を1つ用いる1チップ方式を例にとって説明する。
【0033】
図2に示すように、プロジェクター部10は、一般的なプロジェクターと同様、主に、プロジェクター制御部100、画像生成機能部110、投影機能部120、およびUSBI/F34を備えて構成される。
【0034】
投影機能部120は、光源121、色分解用カラーホイール122、表示素子123、および投影レンズ10Rを備えている。
【0035】
光源121は、白色光を発生させる光源であり、投影レンズ10Rは一般的な投影レンズである。
【0036】
色分解用カラーホイール122は、RGBの3原色のフィルターを有し、表示素子123の駆動と同期しながら回転する。そして、光源121から発せられた白色光を、時分割方式によって、順次、R(レッド)の光、G(グリーン)の光、B(ブルー)の光とすることによって色分解した光を、表示素子123の表示素子面に照射する。
【0037】
表示素子123は、上述したように、1つのDMDによって構成されている。DMDは、各画素毎に微小なミラーによって構成されており、プロジェクター制御部100から発せられる電気信号による制御に基づいて、微小なミラーの角度が変更される。そして、プロジェクター制御部100から電気信号が発せられた状態では、微小なミラーの角度は、色分解用カラーホイール122から照射される光束が、微小なミラーによって反射されて投影レンズ10Rを透過するように構成される。一方、プロジェクター制御部100から電気信号が発せられない状態では、微小なミラーの角度は、色分解用カラーホイール122から照射される光束が、微小なミラーによって反射されて投影レンズ10Rを透過しないように構成される。
【0038】
画像生成機能部110は、パソコン30から入力されるアナログRGB信号に基づいて、投影するための画像データを生成する。なお、ここでは、パソコン30から入力されるアナログRGB信号が、動画にも対応可能なように、全て動画用のフォーマットとなっているものを例に挙げて説明する。
【0039】
画像生成機能部110は、アナログRGBデコーダー111、フレームメモリ112、スケーラー113、および画像メモリ114を備えている。
【0040】
アナログRGBデコーダー111は、パソコン30から入力されるアナログRGB信号から、投影機能部120の駆動に適合するデジタル画像データを生成する。言い換えれば、色分解用カラーホイール122および表示素子123の駆動に適合するデジタル画像データを生成する。そして、アナログRGBデコーダー111は、図示を省略するが、アナログ信号をサンプリングするためのサンプリングパルスを発生するPLL回路と、アナログ画像信号をデジタル画像信号(例えば、8ビットのデジタル画像信号)に変換するA/D変換器とを有している。
【0041】
アナログRGBデコーダー111では、パソコン30から入力されるアナログRGB信号から水平同期信号および垂直同期信号を分離する。そして、PLL回路が、分離された水平同期信号および1フレームの開始を示す垂直同期信号に対して、3倍のスピードで、水平同期信号および垂直同期信号といったサンプリングパルスを発生する。
【0042】
例えば、後述する表示素子123の画素数がS−VGA規格(800×600画素)に対応するものと仮定すると、PLL回路は、水平同期信号を発生させてから、次の水平同期信号を発生させる迄に、800画素分のデータをサンプリングするパルスを発生させる。また、PLL回路から発生する垂直同期信号と、色分解用カラーホイール122のRGBの切り替えタイミングと、表示素子123の垂直走査とを同期させるようにサンプリングを行って、デジタル画像データを生成する。
【0043】
具体的には、PLL回路から発生される垂直同期信号に同期して、色分解用カラーホイール122からRの光を表示素子123に照射すべきタイミングになると、A/D変換器の入力はアナログ信号のうちのR信号に切り替わり、サンプリングが開始される。そして、垂直600ラインのサンプリングが終了すると、次の垂直同期信号に同期して、色分解用カラーホイール122からGの光を表示素子123に照射すべきタイミングになり、A/D変換器の入力はアナログ信号のうちのG信号に切り替わり、サンプリングが開始される。さらに、垂直600ラインのサンプリングが終了すると、次の垂直同期信号に同期して、色分解用カラーホイール122からBの光を表示素子123に照射すべきタイミングになり、A/D変換器の入力はアナログ信号のうちのG信号に切り替わり、サンプリングが開始される。
【0044】
その後、垂直600ラインのサンプリングが終了すると、さらに同様なサンプリング動作が繰り返されて、パソコン30から入力されるアナログRGB信号から、投影機能部120の駆動に適合するデジタル画像データを生成する。以上のようにして生成されるデジタル画像データは随時、フレームメモリ112に記憶される。
【0045】
スケーラー113は、投影レンズ10Rの光軸と、投影面であるホワイトボードWとが垂直でない場合に発生する台形歪み等を補正する。なお、従来のプロジェクターでは、ユーザーが投影レンズのレンズ面と投影面との相対角度を目分量で測定して入力すること等によって、スケーラーが、フレームメモリ112に記憶されている画素データについて、走査線毎に拡大、縮小演算を行っていた。一方、本発明の第1実施形態に係るスケーラー113は、後述する補正値算出機能102において算出される歪み補正用の補正値に基づいて、フレームメモリ112に記憶されているデジタル画像データに対し、走査線毎や、画素毎に拡大、縮小演算を行う。なお、スケーラー113から出力される画像データの画素数は、表示素子123の画素数に対応している。歪み補正用の補正値の算出、および歪みの補正については、後程詳述する。
【0046】
画像メモリ114は、揮発性または不揮発性の記憶媒体によって構成され、スケーラー113において拡大、縮小演算が行われたデジタル画像データを記憶する。そして、プロジェクター制御部100は、画像メモリ114に記憶されたデジタル画像データに基づいて、投影機能部120の駆動を制御することにより、垂直同期信号に同期して、Rのフィールド、Gのフィールド、Bのフィールドを繰り返して光学的に投影する。したがって、プロジェクター部10が、ホワイトボードW(投影面)に画像を投影する手段として機能する。
【0047】
ここでは、画素毎に、画像メモリ114に記憶されるデジタル値に応じた期間、プロジェクター制御部100から表示素子123への電気信号が発生される。つまり、画素毎に、画像メモリ114に記憶されるデジタル値に応じた期間、表示素子123の微小なミラーの反射角度が変更される。なお、画素毎のデジタル値と、プロジェクター制御部100から表示素子123への電気信号の発生時間との関係は、R、G、B毎に、プロジェクター制御部100内に記憶されるLUT(変換テーブル)によって設定されている。そして、LUTはプロジェクター制御部100において変更可能であり、後述する階調特性補正用およびホワイトバランス補正用の補正値等に従って、投影画像のホワイトバランス(以下、「WB」と略称する)および階調特性を任意に設定することができる。
【0048】
プロジェクター制御部100は、マイクロコンピュータ(CPU)、RAM10aおよびROM10bを有しており、上述したプロジェクター部10の各部材の駆動を有機的に制御してプロジェクター部10の動作を統括制御する。なお、プロジェクター制御部100の各機能は、CPUにおいて、ROM10bに格納されるプログラムによって実現される。
【0049】
また、プロジェクター制御部100は、表示素子123の微小なミラーの反射角度を変更するため、電気信号を発生させる素子駆動制御機能101を有しており、さらに、投影画像の歪み補正用の補正値を算出する補正値算出機能102を有している。補正値算出機能102は、後述するカメラ制御部200において算出される撮影倍率比に基づいて、投影画像の歪みを補正するための補正値を算出する。
【0050】
USBI/F130は、プロジェクター制御部100とカメラ部20との間で通信を可能にするための、USB規格に準拠した通信用インターフェースである。
【0051】
<(1−2−2)カメラ部の内部構成>
図2に示すように、カメラ部20は、主に、カメラ制御部200、撮影機能部210、画像メモリ220、およびUSBI/F230を備えて構成される。
【0052】
撮影機能部210は、画像を取得するために、画像信号処理を行うものであり、撮影レンズ20R、レンズ駆動回路212、撮像素子213、撮像素子駆動回路214、信号処理回路215、A/D変換器216、WB回路217、γ補正回路218、および、色変換・色補正回路219を備えている。
【0053】
撮像素子213は、一般的なCCDであり、撮影レンズ20Rにより結像された被写体の光像を、R,G,Bの色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。撮像素子駆動回路214は、撮像素子213の駆動を制御するための各種のタイミングパルスを生成するものである。
【0054】
撮影機能部210における露出制御は、レンズ駆動回路212による撮影レンズ20Rの絞りと、撮像素子213の露光量、つまり、シャッタスピードに相当する撮像素子213の電荷蓄積時間を調節して行われる。ここで、被写体輝度が低輝度時に適切なシャッタスピードが設定出来ない場合は、撮像素子213から出力される画像信号のレベル調整を行うことにより露光不足による不適正露出が補正される。すなわち、低輝度時は、絞りとシャッタスピードと信号処理回路215のゲイン調整とを組合せて露出制御が行われることとなる。
【0055】
撮像素子駆動回路214は、カメラ制御部200から送信される基準クロックに基づき撮像素子213の駆動制御信号を生成するものである。この撮像素子駆動回路214は、例えば積分開始/終了(露出開始/終了)のタイミング信号、各画素の受光信号の読出制御信号(水平同期信号,垂直同期信号,転送信号等)等のクロック信号を生成し、撮像素子213に出力する。
【0056】
信号処理回路215は、撮像素子213から出力される画像信号(アナログ信号)に所定のアナログ信号処理を施すものである。この信号処理回路215は、CDS(相関二重サンプリング)回路とAGC(オートゲインコントロール)回路とを有し、CDS回路により画像信号のノイズ低減処理を行い、AGC回路でゲインを調整することにより画像信号のレベル調整を行う。
【0057】
A/D変換器216は、信号処理回路215から出力される画像信号の各画素信号をデジタル信号に変換するものである。A/D変換器216は、図示を省略するタイミング発生回路から入力されるA/D変換用のクロックに基づいて各画素信号(アナログ信号)をデジタル画像信号(例えば、8ビットのデジタル画像信号)に変換する。
【0058】
WB(ホワイトバランス)回路217は、A/D変換器216から出力されるR,G,Bの各色成分の画素データの画素値の変換を行うことにより、画像データ(撮影画像)に対してWB補正を施すものである。例えば、このWB回路217は、画像データの各色成分値(全画素のRGB値)に基づいてR,G,Bの各色成分の画素値を調整する。このWB補正についてはさらに後述する。
【0059】
γ補正回路218は、WB回路217から入力される画像データ(撮影画像)に対して階調特性の補正を行うものである。この階調補正についてもさらに後述する。
【0060】
色変換・色補正回路219は、γ補正回路218から入力される画像データに対して、例えばYCrCb系に色空間を変換し、色再現性を向上させる色補正を行うものである。
【0061】
画像メモリ220は、撮像素子213で取得され、上記の画像処理が施された画像データ(撮影画像)を一時的に記憶するメモリである。画像メモリ220は、少なくとも数フレーム分の記憶容量を有している。すなわち、画像メモリ220は、撮像素子213の画素数に対応する画素データ数フレーム分の記憶容量を少なくとも有し、各画素データが対応する画素位置に記憶されるようになっている。
【0062】
USBI/F230は、プロジェクター部10およびパソコン30と通信可能にするための、USB規格に準拠した通信用インターフェースであり、プロジェクター部10のUSBI/F130とケーブルで接続され、プロジェクター制御部100とカメラ制御部200との間でデータの送受信が可能となっている。
【0063】
カメラ制御部200は、マイクロコンピュータ(CPU)、RAM20aおよびROM20bを有しており、カメラ部20の各部材の駆動を有機的に制御してカメラ部20の動作を統括制御する。なお、カメラ制御部200の各機能は、CPUにおいて、ROM20bに格納されるプログラムを実行することによって実現される。
【0064】
また、カメラ制御部200は、プロジェクター部10によってホワイトボードWに光学的に投影される画像(投影画像)、および、カメラ部20によってホワイトボードWを撮影することによって得られる画像(撮影画像)について、階調特性やWBや歪みの補正を行うための各種機能を有している。さらに、カメラ制御部200は、ホワイトボードWへの書き込み等を撮影して、会議の内容を記録するための機能も有している。
【0065】
図3は、カメラ制御部200の各種機能を説明するためのブロック図である。なお、図3では、CPUで実現される機能を具体的に図示している。
【0066】
図3に示すように、カメラ制御部200は、投影画像や撮影画像に対するWB補正を制御するためのWB制御機能201、投影画像や撮影画像に対する階調特性の補正を行うための階調制御機能202を備えている。また、カメラ制御部200は、投影画像および撮影画像に対する歪みを補正するためのAF領域抽出機能203、評価値演算機能204、合焦制御機能205、および距離算出機能206を備えている。
【0067】
なお、図3に示す各種機能の説明については、後程、ホワイトバランス(WB)補正、階調特性の補正、画像の歪み補正、および、会議内容の記録について具体的に説明する際に、詳述する。
【0068】
<(1−2−3) パソコンの内部構成>
図2に示すように、パソコン30は、記憶部32、出力I/F33、USBI/F34、LCD35、およびPC制御部300を備えている。
【0069】
記憶部32は、例えばハードディスク等で構成されており、後述するプログラムや画像データ等が格納される。記憶部32に記憶される画像データは、プロジェクター部10からホワイトボードWに投影される投影画像のもととなる画像データである。なお、以下では、投影画像のもととなる画像データを「投影原画像」と称することとする。
【0070】
出力I/F33は、プロジェクター部10へデータを伝送するためのインターフェイスである。具体的には、PC制御部300から出力されるアナログRGB信号を、プロジェクター部10のアナログRGBデコーダー111へ伝送する。
【0071】
USBI/F34は、カメラ部20と通信可能にするための、USB規格に準拠した通信用インターフェースであり、カメラ部20のUSBI/F230とケーブルによって接続され、カメラ制御部200とPC制御部300との間でデータの送受信が可能となっている。
【0072】
LCD35は、記憶部32に記憶される画像データ等に基づいて、画像を表示するための表示装置である。
【0073】
PC制御部300は、マイクロコンピュータ(CPU)、RAM30aおよびROM30bを有し、パソコン30の各部を統括制御する部位である。そして、このPC制御部300のRAM30aに、記憶部32に記憶されるプログラムをロードして、CPUで実行することにより、PC制御部300の各種機能を実現する。そして、PC制御部300の機能には、例えば、アナログRGBエンコーダー機能301、補正値算出機能302、画像補正機能303、領域抽出機能304、および画像合成機能305等がある。
【0074】
また、PC制御部300が、記憶部32に記憶されるカメラ付きプロジェクター2の動作を制御するプログラム(投影プログラム)を実行することによって、カメラ付きプロジェクター2およびパソコン30は投影システム1としての動作を実行する。即ち、投影システム1では、プロジェクター部10およびカメラ部20は、USB34,130,230を介して、パソコン30によって制御される。
【0075】
例えば、ユーザーがパソコン30に設けられている図示を省略するキーボード等を操作することによって、PC制御部300において、カメラ付きプロジェクター2の動作を制御する投影プログラムが実行される。そして、ユーザーがキーボード等を種々操作することによって、本発明の特徴部分である、WB補正、階調特性の補正、画像の歪み補正、会議内容の記録等の動作が実行される。なお、これらの動作については、後程詳述する。
【0076】
また、ユーザーがプロジェクター部10による画像の投影を開始すべくパソコン30のキーボード等を操作すると、PC制御部300が記憶部32から投影原画像を読み出す。そして、アナログRGBエンコーダー機能301によって、アナログRGB信号を生成して、出力I/F33を介して、プロジェクター部10に伝送する。さらに、プロジェクター部10によってホワイトボードWに投影される投影画像に同期して、同様の内容の画像(投影原画像)がLCD35上に表示される。
【0077】
また、PC制御部300は、ユーザーによるキーボード等の操作によって、USBI/F34を介して、カメラ部20から画像データ(撮影画像)を取得する。なお、この撮影画像は、ホワイトボードWを撮影することによって得られる画像である。
【0078】
補正値算出機能302は、後述するカメラ制御部200において算出される撮影倍率比に基づいて、撮影画像の歪み補正用の補正値を算出する。画像補正機能303は、補正値算出機能302において算出される歪み補正値に基づいて、撮影画像の歪みを補正する。また、カメラ部20によって撮影可能な範囲は、ホワイトボードWに画像が投影される投影領域を全て包含し、その周辺の領域をも含むため、画像補正機能303は、必要に応じて、撮影画像のうち投影領域に対応する領域を、撮影画像の全体を占めるように、投影領域の抽出・拡大処理を行う。なお、補正値算出機能302における補正値の算出、画像補正機能303における撮影画像の歪み補正、および投影領域の抽出および拡大処理については、後程、動作説明を行う際に詳述する。
【0079】
ところで、PC制御部300がカメラ部20から画像データを取得する場合は、単にホワイトボードWを撮影して撮影画像を得る場合と、ホワイトボードWを撮影して、投影画像と合わせて会議内容を記録する場合とがある。そして、もしも、単に撮影画像を得る場合は、画像補正機能303によって撮影画像の歪み補正が施された撮影画像を記憶部32に記憶する。一方、もしも、投影画像と合わせて会議内容を記録する場合は、画像補正機能303によって撮影画像の歪み補正、および投影領域の抽出・拡大処理が施された撮影画像から、領域抽出機能304によって、マーカーMK等を用いてマニュアルでホワイトボードWに直接書き込まれる等して直接色彩等が付加された部分に対応する領域を抽出する。即ち、領域抽出機能304が、カメラ部20によって取得される画像について、ホワイトボードW(投影面)に直接に付された視覚要素に対応する領域を抽出する手段として機能する。
【0080】
そして、画像合成機能305は、領域抽出機能304によって抽出された領域と、プロジェクター部10によってホワイトボードW(投影面)に投影するための投影原画像とをデータ合成(具体的にはデジタルデータとして合成)して画像データを生成し、記憶部32に記憶する。
【0081】
なお、領域抽出機能304および画像合成機能305における処理については、後程、動作説明を行う際に詳述する。
【0082】
<(1−3) 投影システムの動作説明>
<(1−3−1) 投影画像のWB補正>
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると投影画像のWB補正の動作が実行される。
【0083】
以下、図2および図3等を参照しつつ、投影画像のWB補正の動作について説明する。
【0084】
投影画像のWB補正の動作が開始すると、PC制御部300からカメラ制御部200に投影画像のWB補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200は、プロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドでは、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データを全面無彩色であるグレーであってかつ空間的に均一な画像レベルとなるように設定する。つまり、次の垂直同期信号に同期して、プロジェクター部10が、投影面であるホワイトボードWに、無彩色である全面グレーの光を投影する。ここで言う全面グレーの光は、例えば、デジタル画像データが8ビットのデータの場合は、RGBの各色の各画素値が100/255階調となるように設定することによって生成可能である。
【0085】
なお、プロジェクター部10から投影される全面無彩色の光は、RGBの各色の各画素値が100/255階調となるように設定された全面グレーのものに限られず、その他の階調となるように設定されたものでも良い。しかし、人間の視覚的な観点から、RGBの各色の各画素値が100/255階調等となるようなミドル階調の全面無彩色の光であることが好ましい。
【0086】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、無彩色である全面グレーの光が投影されたホワイトボードW(投影面)を撮影することによってデジタル画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からは全面グレーの光が投影され、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0087】
図3に示すカメラ制御部200のWB制御機能201では、プロジェクター部10から全面グレーの略均一な光をホワイトボードWに投影して撮影を行った際に、A/D変換器216から出力されるデジタル画像信号を取得する。そして、その取得したデジタル画像信号に基づいて、各画素毎に、R/G、B/Gの画素値の比をそれぞれ演算し、全画素についての平均値(Rs/Gs,Bs/Gs)を求め(gr,gb)とする。なお、演算の効率化のため、画像を所定面積の複数のブロックに分割して各ブロックの代表となる画素のみからgr,gbを求めても良く、所定間隔で画素を間引いた後の画素のみからgr,gbを求めても良い。
【0088】
次に、WB制御機能201は、算出した(gr,gb)に基づいて投影画像について、WB補正用のWB補正値を設定する。
【0089】
図4は、WB制御機能201におけるWB補正値の設定方法を説明するための図である。図4において、点510はXX−YY座標系において座標(gr,gb)に位置する。座標(gr,gb)のXX座標の値が大きく、YY座標の値が小さいほどBs/Gsに対してRs/Gsが大きくなるため、元の画像は赤みがかっていることとなる。逆に、XX座標の値が小さく、YY座標の値が大きいほどBs/Gsに対してRs/Gsが小さくなるため、元の画像は青みがかっていることとなる。したがって、原点から45°の角度にて伸びる直線Leに近い点は、WBが整っている画像に対応する点となる。
【0090】
図4に示すように、予め設定されたWB設定に応じてXX−YY座標系には所定の領域Raが設定されており、外光や投影面の色や光源121の劣化等の影響で、点510に示すように、座標(gr,gb)が所定の領域Ra内にない場合には、点510の位置が領域Raのうち最も近い位置(点511)へと変換されるように、WB補正値を設定する。なお、点510が領域Raに含まれる場合には、点510の位置の変換は行われないため、WB補正値は設定されない。また、座標(gr,gb)が一定の範囲内にない場合は、異常なデータであるとして、WB補正値を設定しない。
【0091】
WB制御機能201において設定された投影画像に対するWB補正値は、プロジェクター制御部100に送信される。そして、プロジェクター制御部100は、受信したWB補正値に応じて、LUT(変換テーブル)を変更し、素子駆動制御機能101によって、プロジェクター部10から投影される画像の表示色温度を変更する。即ち、ここでは、素子駆動制御機能101が、プロジェクター部10によって全面グレーの光が投影されたホワイトボードWを撮影することによって取得される画像に基づいて、プロジェクター部10によってホワイトボードWに投影される投影画像について、ホワイトバランスを補正する手段として機能する。
【0092】
<(1−3−2) 撮影画像のWB補正>
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると撮影画像のWB補正の動作が実行される。
【0093】
上述した投影画像に対するWB補正の動作では、WB補正用の撮影時に、プロジェクター部10からホワイトボードWに対して全面グレーの光を投影したが、撮影画像のWB補正の動作では、例えば、WB補正用の撮影時に、プロジェクター部10からホワイトボードWに対して無彩色の光として全面白色の略均一な光を投影する。つまり、カメラ部20の撮影に同期して、プロジェクター部10が、投影面であるホワイトボードWに、無彩色である全面白色の光を投影する。全面白色の光は、例えば、デジタル画像データが8ビットのデータの場合は、RGBの各色の各画素値が最大輝度すなわち255/255階調となるように設定することによって生成可能である。
【0094】
なお、プロジェクター部10から投影される全面無彩色の光の色は、RGBの各色の各画素値が255/255階調となるように設定された全面白色のものに限られず、ホワイトボードWに直接記載されたものや、貼付された資料等をカメラ部20によって撮影する際にプロジェクター部10から撮影用の照明光として投影される光の色と同様であれば良い。
【0095】
そして、撮影画像に対するWB補正値の設定までは、WB補正用の撮影時にプロジェクター部10からホワイトボードWに対して投影する光が、投影画像に対するWB補正値の設定と異なるのみであり、WB制御機能201が、投影画像に対するWB補正値の設定と同様に、撮影画像に対するWB補正値を設定する。
【0096】
WB補正値が設定されると、WB回路217におけるR,G,Bのゲインの設定値が求められる。そして、その後にカメラ部20によって得られる撮影画像対しては、求められたゲイン設定値に基づいて、WB回路217においてWB補正が行われる。即ち、ここでは、WB回路217が、プロジェクター部10によって無彩色である全面白色の光が投影されたホワイトボードWを撮影することによって取得される画像に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像について、ホワイトバランスを補正する手段として機能する。
【0097】
以上のように、ここでは、パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、無彩色の光を投影したホワイトボードW(投影面)を撮影して画像を得る。そして、得られた画像に基づいて、ホワイトボードWに投影される投影画像、および、ホワイトボードWを撮影することによって得られる撮影画像のうち少なくとも一方の画像についてWBを補正する。その結果、ホワイトボードWの表面が有する固有の色や、外光の色や、光源121の色等の影響により、投影画像や撮影画像の色調が変化するのを補正することができる。
【0098】
なお、上述したようなWB補正の動作は、投影システム1の使用開始時、および、使用開始時から一定時間経過する毎に行われるようにしても良い。このような構成とすることで、時間の経過とともに外光の影響が変化する場合等に対応することができる。なお、ここでは、無彩色の光を投影するタイミングと、撮影するタイミングとが同期しており、さらに、無彩色の光を投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0099】
<(1−3−3) 階調特性の補正>
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると投影画像や撮影画像に対する階調特性の補正の動作が実行される。
【0100】
以下、図2および図3等を参照しつつ、階調特性の補正の動作について説明する。
【0101】
階調特性の補正の動作が開始すると、PC制御部300からカメラ制御部200に階調特性補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200はプロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドでは、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、ROM10bに格納される階調が段階的に変化するパターンであるグレースケールチャートとなるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、輝度が段階的に変化するパターン(グレースケールチャート)を投影する。なお、グレースケールチャートの具体例については後述する。
【0102】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、ホワイトボードWに投影された、輝度が段階的に変化するパターン(段階的な濃淡分布パターン)を撮影することによって画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からはグレースケールチャートが投影され、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0103】
次に、図3に示すカメラ制御部200の階調制御機能202では、プロジェクター部10からグレースケールチャートをホワイトボードWに投影して撮影を行った際に、A/D変換器216から出力されるデジタル画像信号に基づいて、階調特性補正用の補正値を算出する。
【0104】
ここで、階調制御機能202における階調特性補正用の補正値の算出方法について説明する。
【0105】
図5は、階調特性補正用の撮影時に、A/D変換器216から出力されるデジタル画像信号に基づいた画像G1を例示する模式図である。図5では、枠PS内が、プロジェクター部10から投影されるグレースケールチャートに対応する部分である。
【0106】
グレースケールチャートは、輝度が等間隔かつ段階的に変化する無彩色の領域S1〜S7を有している。なお、ここでは、領域S1が白色で、領域S7が黒色となっており、領域S1〜S7の順に段階的に輝度が低くなるように設定されている。また、グレースケールチャートは、領域S1〜S7以外の部分は、領域S4と同様な輝度の無彩色となるように設定されている。
【0107】
また、図5に示すように、プロジェクター部10によってホワイトボードWに投影される投影領域と、カメラ部20によって撮影されるホワイトボードW上の領域とは完全に一致していない。よって、階調制御機能202では、グレースケールチャートの領域S1〜S7が確実に含まれていると考えられる画像G1中央の左右に伸びる破線SL1上の画像データを用いる。そして、撮像素子213の画素数が仮に1024×768であるとすると、破線SL1上の1024画素のデータのうち、領域S1〜S7に対応しない左右のデータを排除する。例えば、破線SL1上を−X方向から+X方向へ輝度の変化を見ていくと、領域S1になる所で著しく輝度(画素値)が上昇し、また、領域S7から出るところで著しく輝度(画素値)が上昇するため、左右のデータの排除は輝度の変化を検出することによって容易に達成することができる。
【0108】
その後、階調制御機能202は、得られた画像データの画素値と領域S1〜S7の位置関係とから、領域S1〜S7それぞれの領域についての画素値の平均値を求める。そして、グレースケールチャートの最も明るい領域S1の画素値を1とし、その画素値を基準に、領域S2〜S7の画素値を換算する。つまり、ここでは、領域S1の明るさを基準とする領域S2〜S7の明るさの比を求める。
【0109】
図6は、領域S1〜S7の理想的な明るさの比を例示する模式図である。なお、図6では、横軸が画像G1中におけるX方向の位置を示し、縦軸が明るさの比を示している。また、領域S1〜S7にそれぞれ対応する明るさの比をStep1〜Step7として示している。図6に示すように、外光の影響が無く理想的な場合は、Step1の明るさの比を1とすると、Step7の明るさの比は0.05となるものとする。
【0110】
図7は、外光の影響がある場合の明るさの比を例示する模式図である。なお、図7では、実線が、外光の影響がある場合の明るさの比を示し、破線が、図6で示した理想的な明るさの比を参考として示している。
【0111】
図7に示すように、外光の影響がある場合は、Step5〜Step7の明るさの差が著しく小さくなってしまっている。このような場合は、ホワイトボードWに投影される投影画像のうち輝度の低い部分については、黒つぶれ等が発生し、意図した画像を投影することができない。このような問題を解決するために、ここでは、階調制御機能202が階調特性を補正すべく階調特性補正用の補正値を算出する。
【0112】
図8は、階調特性補正用の補正値の算出方法を説明するための図である。なお、図8では、実線が、図7に示す外光の影響がある場合の明るさの比を理想的に補正したものを示し、破線が、図6で示した理想的な明るさの比を参考として示している。
【0113】
図8に示すように、階調制御機能202は、図7に示す外光の影響がある場合のStep1とStep7の明るさの比を基準として、Step1〜Step7の明るさの比が等間隔かつ順に低下するような明るさの比を算出する。この算出された明るさの比は、図7に示す外光の影響がある場合の明るさの比を理想的に補正したものである。なお、階調制御機能202は、Step1〜Step7の明るさの比が等間隔かつ順に低下するようにしたが、これに限られるものではなく、特定の明るさを強調するように補正しても良い。
【0114】
図8に示すように、Step1〜Step7の明るさの差は、図6で示したStep1〜Step7の理想的な明るさの差と比較して小さくなっているが、Step5〜Step7の明るさの差が著しく小さくなるといった問題が解決されている。よって、階調制御機能202では、図7に示す外光の影響がある場合の明るさの比から、図8に示す明るさの比へと理想的に補正するための階調変換特性を算出する。
【0115】
図9は、外光の影響がある場合の階調変換特性を例示する図である。なお、図9では、横軸が変換前の階調特性を示し、縦軸が変換後の階調特性を示し、さらに、曲線9Cが変換前と変換後の階調特性の関係(階調変換特性)を示している。この階調変換特性は、図7に示す外光の影響がある場合の明るさの比から、図8に示す明るさの比へと理想的に補正するための階調特性補正用の補正値となる。
【0116】
カメラ制御部200は、階調制御機能202によって算出された階調特性補正用の補正値(階調変換特性)を、USBI/F130,230を介してプロジェクター制御部100に伝送する。そして、プロジェクター制御部100では、階調特性補正用の補正値にしたがって、ROM10b内に記憶されたLUT(変換テーブル)を補正する。LUTが補正されると、その後は、素子駆動制御機能101の制御の下で、外光の影響等を考慮した投影画像がホワイトボードWに投影されることとなる。
【0117】
したがって、ここでは、素子駆動制御機能101が、プロジェクター部10によって輝度が段階的に変化するパターンが投影されたホワイトボードWをカメラ部20によって撮影することにより取得される画像に基づいて、プロジェクター部10によってホワイトボードWに投影される投影画像について、階調特性を補正する手段として機能する。
【0118】
また、上述したように、ホワイトボードWへの書き込みや、資料や、写真を貼付して撮影する際にも、外光やホワイトボードWの反射率等の影響により、撮影画像の階調特性が変化することがある。よって、ここでは、このような撮影画像の階調特性の変化を抑制するために、階調制御機能202によって、上記の方法で算出された階調特性補正用の補正値(階調変換特性)を用いる。具体的には、階調制御機能202によって算出された補正値を、プロジェクター制御部100において、γ補正回路218における補正値として設定する。このように、γ補正回路218における補正値が設定されると、その後は、外光の影響等を考慮して、撮影画像の階調特性を補正することができる。
【0119】
したがって、ここでは、γ補正回路218が、プロジェクター部10によって輝度が段階的に変化するパターンが投影されたホワイトボードWをカメラ部20によって撮影することによって取得される画像に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像について、階調特性を補正する手段として機能する。
【0120】
以上のように、ここでは、輝度が段階的に変化するパターンをホワイトボードW(投影面)に投影し、そのパターンを撮影して画像を取得する。そして、その取得した画像に基づいて、ホワイトボードWに投影される投影画像、および、ホワイトボードW(投影面)等を撮影することによって得られる撮影画像のうちの少なくとも一方の画像について、階調特性を補正する。その結果、外光の影響やホワイトボードWの表面における光学的反射率等により投影画像や撮影画像の階調特性が変化するのを補正することができる。
【0121】
なお、上述したような階調特性補正用の補正値の算出は、投影システム1の使用開始時、および、使用開始時から一定時間経過する毎に行われるようにしても良い。このような構成とすることによって、時間の経過とともに外光等の影響が変化する場合に対応することができる。そして、ここでは、グレースケールチャートを投影するタイミングと、撮影するタイミングとが同期しており、さらに、グレースケールチャートを投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0122】
また、上述した階調特性の補正においては、ホワイトボードWにグレースケールチャートを投影したが、これに限られるものではなく、例えば、RGBの三色の輝度が段階的に変化する3つのパターンを別個に投影して、その3つのパターンを別々に撮影して、RGBの三色それぞれについて階調特性補正用の補正値を算出するようにしても良い。しかしながら、輝度が段階的に変化するパターンをグレースケールチャートのように無彩色の輝度が段階的に変化するパターンとした方が、1つのパターンを撮影するのみ補正値を算出することができるため、投影画像や撮影画像の階調特性を効率良く補正することができる。
【0123】
なお、グレースケールチャートを撮影して取得される画像に基づいて、上述したように、WB補正用の補正値を算出し設定することもできる。このような構成とすることによって、WB補正と階調特性の補正とを効率良く実施することができる。
【0124】
<(1−3−4) 画像の歪み補正>
図10は、ホワイトボードWに対して斜めの方向から投影および撮影する場合を例示する模式図である。なお、図10は、ホワイトボードWおよびカメラ付きプロジェクター2を真上から見た図であり、図10では、投影レンズ10Rの画角を模式的に示す実線10Lと、撮影レンズ20Rの画角を模式的に示す点線20Lとを付している。また、図10に示す状態では、投影レンズ10Rおよび撮影レンズ20Rの光軸はY軸と略一致し、ホワイトボードWは、Z軸を軸として、XZ平面に対して角度θだけ回動させた位置に配置される。
【0125】
以下、図10のようにホワイトボードWとカメラ付きプロジェクター2とが配置される場合を例に挙げて、撮影画像および投影画像の歪み補正について説明する。
【0126】
図11は、プロジェクター部10から、後述する投影画像の歪み補正をすることなく、ホワイトボードWに投影される投影画像Sm1を、ホワイトボードWの正面(ホワイトボードWの投影面に対する法線方向)から見た模式図を例示している。このとき、図11に示すように、投影画像Sm1は台形歪みを生じる。つまり、ここでは、ホワイトボードWとプロジェクター部10との相対的な位置関係によって、ホワイトボードWに対して斜めの方向から画像を投影する斜め投影を行う際は、ホワイトボードW上の投影画像が歪む。
【0127】
このような場合は、画像の作成者が意図した内容を会議に参加した人々に対して正確に伝達することができないといった問題を生じる。よって、ここでは、図11に示すように、斜め投影によって生じる台形歪みを補正して、図12に示すように、ホワイトボードWの正面から投影したような投影画像Sm1’とする必要性がある。
【0128】
図13は、カメラ部20が、後述する撮影画像の歪み補正をすることなく、ホワイトボードWを斜めの方向から撮影する斜め撮影を行った際に取得される撮影画像を例示する模式図である。図13に示す”ABCD”というそれぞれの文字の大きさはほぼ同じであるが、斜め撮影をすることによって、撮影画像に台形歪みが発生し、右端の寸法が左端の寸法よりも小さくなる。
【0129】
このような場合は、文字などが読みにくくなったり、後述するホワイトボードWへの書き込み等を撮影して得られた撮影画像と、投影するための投影原画像とをデータ合成する際には、投影原画像とずれを生じる。よって、ここでは、図13に示すように、斜め撮影によって生じる台形歪み等を補正して、図14に示すように、ホワイトボードWの正面から撮影したような画像とする必要性がある。
【0130】
以下、図2および図3等を適宜参照しつつ、カメラ付きプロジェクター2とホワイトボードWとの相対的な位置関係によって生じる投影画像および撮影画像の歪みの補正動作について説明する。
【0131】
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、投影画像の歪み補正動作が実行されたり、撮影画像の歪み補正動作が開始して、カメラ部20がホワイトボードWを撮影し、取得された撮影画像の歪みを補正したりする。
【0132】
歪み補正動作が開始すると、PC制御部300からカメラ制御部200に歪み補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200は、プロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドから、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、ホワイトボードWの各位置と、カメラ付きプロジェクター2との距離を検出することができるパターン(焦点検出用パターン)となるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、焦点検出用のパターンを投影する。
【0133】
図15は、プロジェクター部10からホワイトボードWに投影される焦点検出用パターンAFPを例示する図である。図示の便宜上、図15では白黒を反転させて描いているが、焦点検出用パターンAFPは、矩形の輪郭部分である明るい白色の枠PFと、焦点検出用の複数の部分A1〜A5と、黒色の背景BGとを含んでいる。なお、部分A1〜A5は、それぞれ白色の複数の線が並んだ縞領域となっており、焦点検出用パターンAFPのほぼ中心と四隅に分散配置されている。
【0134】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、ホワイトボードWに投影された焦点検出用のパターンを撮影することによって、複数の画素で構成される焦点検出用のパターンに係る画像を入力する。このとき、カメラ制御部200の制御の下で、焦点検出が容易となるように、撮影レンズ20Rの絞りを開放近くに設定する。したがって、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、プロジェクター部10から投影される焦点検出用パターンAFPの明るさが設定される。
【0135】
なお、ここでは、シャッタースピードが垂直同期信号によって決まり、撮影レンズ20Rの絞りをほぼ開放としているため、撮像素子213の出力が飽和しないように、焦点検出用パターンAFPの明るさを容易に設定することができる。
【0136】
次に、プロジェクター部10から焦点検出用パターンAFPをホワイトボードWに投影して撮影を行った際にA/D変換器216からカメラ制御部200にデジタル画像信号を出力する。
【0137】
図16は、焦点検出用パターンAFPが投影されたホワイトボードWをカメラ部20で撮影して取得した画像G3を例示する模式図である。図16では、枠PF’の内側が、プロジェクター部10から投影される焦点検出用パターンAFPに対応する領域である。また、図16に示すように、点線で囲まれた領域A1’〜A5’が、焦点検出のための部分A1〜A5に対応した焦点検出用の領域である。また、プロジェクター部10から焦点検出用パターンAFPを投影していない部分は暗い領域となっている。
【0138】
よって、図3に示すAF領域抽出機能203が、明るい白色の枠PF’の外側のエッジを色若しくは階調の変化等によって抽出することで、焦点検出用パターンAFPが投影された領域の境界画素を検出することができる。そして、AF領域抽出機能203が、焦点検出のための領域A1’〜A5’の位置を特定し、領域A1’〜A5’の画像データを抽出する。なお、焦点検出のための領域A1’〜A5’の位置の特定は、例えば、枠PF’との位置関係や、輝度の変化によって容易に実施することができる。
【0139】
評価値演算機能204は、AF領域抽出機能203から領域A1’〜A5’の画像データを取り込み、それぞれの領域についてコントラストを評価する。つまり、評価値演算機能204では、コントラスト方式のオートフォーカス動作において実施されているものと同様に、領域A1’〜A5’内の各隣接画素間に関するコントラスト値の総和として評価値を求める。
【0140】
そして、合焦制御機能205が、レンズ駆動回路212に制御信号を送り、撮影レンズ20Rの焦点位置を徐々に変化させながら数回〜数十回撮影を行い、上述したように、評価値演算機能204において領域A1’〜A5’についての評価値を算出する。即ち、合焦制御機能205が、カメラ部20における撮影レンズ20Rの合焦制御を行う手段として機能し、評価値演算機能204が、焦点検出用パターンAFPに係る画像G3における複数の焦点検出用の部分A1〜A5に対応する領域A1’〜A5’について、それぞれ撮影レンズ20Rの合焦状態に関する評価値を算出する手段として機能する。
【0141】
図17は、領域A1’〜A5’について算出された評価値と撮影レンズ20Rの光軸方向の位置との関係を表す曲線C14,C3,C25を例示する模式図である。図17では、横軸がレンズ位置X、縦軸が評価値Cを示しており、曲線C14,C3,C25がそれぞれ領域A1’,A4’と領域A3’と領域A2’,A5’における評価値Cとレンズ位置Xとの関係を示している。
【0142】
距離算出機能206は、図17に示すように、レンズ位置が繰り入れ側から繰り出し側へ順に、曲線C14の評価値が最大となるレンズ位置X=X1、曲線C3の評価値が最大となるレンズ位置X=X2,曲線C25の評価値が最大となるレンズ位置X=X3が検出する。そして、距離算出機能206は、レンズ位置X=X1,X2,X3に対応する焦点位置を算出することによって、カメラ付きプロジェクター2からホワイトボードWに投影されている部分A1〜A5までの距離を算出する。なお、ここでは、部分A1,A4までの距離がL1、部分A3までの距離がL2、部分A2,A5までの距離をL3と算出する。
【0143】
ここで、撮影画像の歪み補正を行う場合には、カメラ部20によって、歪み補正を行う対象である撮影画像の取得を行う。
【0144】
具体的には、PC制御部300からカメラ制御部200にホワイトボードWの撮影を実施するための撮影信号が伝送される。そして、カメラ制御部200はプロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドは、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、全面白色の明るい画像となるように設定する。したがって、ホワイトボードWに全面白色の明るい光が投影されることとなる。
【0145】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、カメラ部20において、次の垂直同期信号に同期して、全面白色の明るい光が投影されたホワイトボードWの撮影を行う。このとき、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からの発光は全面白色光であり、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0146】
こうしてカメラ部20によって撮影され取得された撮影画像は、撮影機能部210の各部の処理が施されて、カメラ制御部200の制御の下で、PC制御部300へと転送される。
【0147】
ここで、歪み補正用の補正値の算出方法について簡単に説明する。
【0148】
図18は、歪み補正用の補正値の算出方法を説明するための図である。なお、図18では、ホワイトボードW、撮影レンズ20R、および撮像素子213の位置関係を平面的に示した模式図である。そして、図18では、点P,F,GはホワイトボードW上の点であり、点PはホワイトボードWに投影されている部分A3の中心の位置に対応し、点FはホワイトボードWに投影されている部分A1,A4の中心の位置に対応し、点GはホワイトボードWに投影されている部分A2,A5の中心の位置に対応する。
【0149】
図18において、Lは撮影レンズ20Rの光軸である。点Aは撮像素子213の撮像面と光軸Lとの交点である。N0、N1、N2は、それぞれホワイトボードW上の点P,F,Gを通る撮像素子213の撮像面に平行な線分であり、N3は撮像素子213の撮像面上の点Aを通る被写体面(線分FG)に平行な線分である。また、N5は撮影レンズ20Rのレンズ面を示す線分である。点Oは撮影レンズ20Rのレンズ面と光軸Lとの交点である。点Bは線分OFの延長線と撮像素子213の撮像面との交点である。点Cは線分OGの延長線と撮像素子213の撮像面との交点である。点Qは線分N1と光軸Lとの交点、点Rは線分N2と光軸Lとの交点であり、点D,Eはそれぞれ線分N0と線分BFの延長線および線分GCとの交点である。また点B’,C’はそれぞれ線分N3と線分FBおよび線分GCの延長線との交点である。
【0150】
図18に示すように、ホワイトボードW上のFG上から発せられる光像は撮像素子213の撮像面に結像するが、撮像面とホワイトボードWとは傾斜角θだけ傾いているため、撮像面に結像される光像BCは、DE上から発せられる光像が撮像面に投影したものと等価となっている。
【0151】
撮像素子213の撮像面上のA,B,C各点での撮影倍率をそれぞれMa,Mb,Mcとし、被写体距離をそれぞれL2(=OP),L1(=OQ),L3(=OR)とすると、Mb=Ma・OP/OQ=Ma・L2/L1,Mc=Ma・OP/OR=Ma・L2/L3であるから、Mb>Ma>Mcとなり、撮像面に結像される光像は、図13に示すような台形に歪んだ画像となり、光像BCの内、完全に焦点が合っているのはA点(光軸Lと撮像面との交点)のみとなっている。
【0152】
そして、撮影倍率Mは撮影レンズ20Rによって決まる定数であり、K(比例定数)×f(焦点距離)で求められる。したがって、ホワイトボードW上の点P,F,Gにおける距離L1,L2,L3を測定すれば、L2/L1とL2/L3からA点に対する撮影倍率比を求めることができ、この情報をもとに歪み補正用の補正値を算出することができる。なお、ここでは、厳密にはL2/L1とL2/L3は異なるが、何れかの値を代表して用いて補正値を算出しても誤差はごく小さいものとなる。なお、L2/L1とL2/L3の平均値を用いて、補正値を算出しても良い。
【0153】
ところで、撮影画像の歪み補正は、特許文献1で開示されている方法でも実施可能であるが、本実施形態では、パソコン30の画像補正機能303において実施する。
【0154】
距離算出機能206は、撮影倍率比L2/L1,L2/L3を算出し、PC制御部300の補正値算出機能302に転送する。そして、補正値算出機能302において、撮影倍率比L2/L1,L2/L3に基づき、撮影画像の歪み補正用の歪み補正値を算出する。
【0155】
補正値算出機能302では、撮影画像のうち撮影倍率の高い部分を撮影倍率の低い部分に合わせられるように画像の各部における縮小倍率を算出し設定する。ここでは、この縮小倍率が歪み補正値となる。
【0156】
図18のB点の縮小倍率Mb’はMc/Mbになるが、ここで、撮像素子213の撮像面上の水平方向(X方向)の画素位置Xiにおける縮小倍率をMiとし、点B,Cの撮像面上の水平方向(X方向)の画素位置をXb,Xcとすると、下に示す式(1)が成立する。
【0157】
【数1】

Figure 2004109246
【0158】
ここでは、Xb,Xc、Mb,Mcも既知であるため、式(1)より撮像面上の水平方向(X方向)の画素位置Xiにおける縮小倍率Miを求めることができる。例えば、Mc=0.9、Mb=1.1、Xb=1、Xc=−1である場合、Xi=0.5とすると、式(1)より、縮小倍率Mi=0.8635と算出される。
【0159】
このように、補正値算出機能302では、撮像素子213の撮像面上のX方向の全ての画素について局所的な縮小倍率Miを算出する。そして、補正値算出機能302によって算出された歪み補正値に基づいて、画像補正機能303によって、撮影画像の歪みが補正される。具体的には、画素位置Xiの同じ垂直ラインにおける画素を縮小倍率Miで縮小処理を行う。縮小処理としては、例えば、ニアエストネイバー法、バイリニア法、バイキュービック法等、一般的な画像処理によって実施することができる。即ち、画像補正機能303が、評価値演算機能204で算出された評価値に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像について、歪みを補正する手段として機能する。
【0160】
このような撮影画像の歪み補正によって、全体的に画像中に表されるものは小さくなるが、台形歪みのない撮影画像を得ることができ、ホワイトボードWへの書き込み等を見易い状態で保存や印刷等することができる。
【0161】
また、プロジェクター制御部100の補正値算出機能102は、距離算出機能206において算出した撮影倍率比L2/L1,L2/L3に基づいて、投影画像の台形歪みを補正するための補正値を算出することもできる。これは、プロジェクター部10とカメラ部20とは一体となっているため、カメラ部20の撮像素子213からホワイトボードWまでの距離と、プロジェクター部10の表示素子123からホワイトボードまでの距離とが、ほぼ一致することを利用するものである。そして、ここでは、従来のプロジェクターに広く採用されている台形歪み補正と同様な方法によって補正値を算出することができる。
【0162】
例えば、図11に示すような投影画像を、図12に示すような投影画像とするためには、図11に示す投影画像のうち+X方向の大きく投影される部分が縮小されるように投影される必要性がある。補正値算出機能102では、歪み補正値算出機能302において撮像素子213の撮像面上のX方向の全ての画素について縮小倍率Miを算出したのと同様の方法で、フレームメモリ112に記憶される画像データについて、X方向の全ての画素について縮小倍率Mi’を算出することができる。ここでは、プロジェクター制御部100において、この縮小倍率Mi’が歪み補正値として設定される。
【0163】
その後は、プロジェクター制御部100において設定された歪み補正値に基づいて、スケーラー113によって、投影画像の歪みが補正される。例えば、画素位置Xi’の同じ垂直ラインにおける画素を縮小倍率Mi’で縮小処理を行う。即ち、スケーラー113が、評価値演算機能204で算出された評価値に基づいて、プロジェクター部10によってホワイトボードWに投影される投影画像について、歪みを補正する手段として機能する。
【0164】
なお、ここで撮影画像および投影画像の歪みを正しく補正するためには、図18に示すように、ホワイトボードW上の3点の距離を求める必要性がある。つまり、プロジェクター部10から投影する焦点検出用のパターンには、全ての部分が直線状に並ばない3箇所の焦点検出用の部分が必要である。また、投影レンズ10Rや撮影レンズ20Rの各種収差等の誤差要因を勘案すると、図15に示すように、焦点検出用パターンには、中心と4隅の計5箇所の焦点検出用の部分が存在する方が好ましい。
【0165】
また、ここでは、コントラスト方式のオートフォーカス動作において実施されているものと同様に、焦点検出用の領域A1’〜A5’内の各隣接画素間に関するコントラスト値の総和として評価値を求めることによって距離を測定する。よって、焦点検出用の部分に描かれる模様は、撮影レンズ20Rの駆動によって評価値が変化するものであれば、点や線等何でも良い。しかし、より正しく距離を測定して、歪みをより良く補正するためには、焦点検出用の部分に描かれる模様は、撮影レンズ20Rの駆動によって評価値が変化し易いものが好ましい。なお、撮影レンズ20Rの駆動によって評価値が変化し易い模様としては、例えば、図15に示す線が多く並んだような模様が挙げられる。
【0166】
なお、以上では、図10に示すように、ホワイトボードWがZ軸を回転軸として、XZ平面に対して角度θだけ回動させた状態を例にとって説明したが、X軸を回転軸としてXZ平面に対して角度θだけ回動させた状態であっても、同様にして、撮影画像および投影画像の歪みを補正することができる。よって、ここでは、縦および横方向の台形歪み補正の両方ともを実施することができる。
【0167】
また、ホワイトボードWをZ軸を回転軸として、XY平面に対して角度θだけ回動させた上に、X軸を回転軸として回動させた状態であっても、距離算出機能206において、カメラ付きプロジェクター2からホワイトボードWに投影される部分A1〜A5までの距離をそれぞれ算出することができ、その値に基づいて、撮影画像および投影画像の歪みを補正することができる。例えば、ホワイトボードWに投影される部分A1〜A5までの距離が分かれば、内挿および外挿によって、カメラ付きプロジェクター2から投影画像上の任意の点までの距離を推定することができる。そして、その距離に基づいて、撮影画像の画素毎に縦方向および横方向の縮小倍率を求めることによって、撮影画像および投影画像の歪みを補正することができる。よって、ここでは、プロジェクター部10やカメラ部20と、ホワイトボードWとの相対的な位置関係等から生じる投影画像や撮影画像のあらゆる方向への歪みを補正することができる。
【0168】
なお、上述したような投影画像に対する歪み補正値の設定動作は、投影システム1の使用開始時、および、使用開始時から一定時間経過する毎に行われるようにしても良い。このような構成とすることで、途中でホワイトボードWが動いた場合にも対応することができる。また、上述したように、撮影画像に対する歪み補正値は、撮影が行われる毎に行われるため、途中でホワイトボードWが動いた場合にも対応することができる。なお、ここでは、焦点検出用パターンを投影するタイミングと、撮影するタイミングとが同期しており、さらに、焦点検出用パターンを投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0169】
以上のように、ここでは、パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、焦点検出用の部分(部分A1〜A5)を複数含むパターン(焦点検出用パターンAFP)をホワイトボードWに投影する。ホワイトボードWに投影されたパターンを撮影して入力された画像における複数の焦点検出用の部分に対応する領域(領域A1’〜A5’)について、それぞれ撮影レンズ20Rの合焦状態に関する評価値を求める。さらに、その評価値に基づいて、ホワイトボードWに投影される投影画像、および、ホワイトボードWを撮影することにより得られる撮影画像のうちの少なくとも一方の画像について、歪みを補正する。その結果、プロジェクター部10やカメラ部20と、ホワイトボードWとの相対的な位置関係等から生じる投影画像や撮影画像の歪みを補正することができる。
【0170】
また、ここでは、1つのパターン(焦点検出用パターンAFP)を投影して、そのパターンを撮影して入力された画像に基づいて、投影画像と撮影画像の両方の歪みの補正用の補正値を算出することができるため、効率良く、投影画像と撮影画像の両方の歪み補正用の補正値を算出することができる。
【0171】
<(1−3−5) 会議内容の記録>
図19は、ホワイトボードW上の状態を例示する模式図である。図19に示すように、枠PS2内は投影画像が投影される投影領域であり、その投影画像に合わせて、マーカーMKによる書き込みMRが行われている。
【0172】
そして、パソコン30において、投影プログラムが実行されて、図19に示すような投影画像が投影されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、ホワイトボードW上に投影されている投影画像および書き込みMR等を併せて記録する記録動作が実行される。
【0173】
記録動作が開始すると、PC制御部300からカメラ制御部200に記録用の撮影を実施するための撮影信号が伝送される。そして、カメラ制御部200は、プロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドから、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、略均一な単一色である全面白色となるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、単一色の光を投影する。
【0174】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、単一色である全面白色の光が投影されたホワイトボードWを撮影することによって画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からの発光は全面白色の光であり、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0175】
図20は、ホワイトボード上の書き込みを撮影した撮影画像PGを例示する模式図である。図20に示すように、ホワイトボードW上の枠PS3内に全面白色の光が照射され、書き込みMRを鮮明に撮影することができる。
【0176】
図20に示すような撮影画像PGは、カメラ制御部200の制御の下で、PC制御部300の画像補正機能303に伝送される。
【0177】
次に、画像補正機能303では、投影するための投影原画像と、撮影画像PGに係る画像とをデータ合成する際に、ずれのない合成画像を生成するため、上述したように、撮影画像PGの歪み補正を行う。その後、撮影画像PGのうち投影領域に対応する領域を、撮影画像の全体を占めるように、投影領域の抽出・拡大処理を行う。例えば、図20に示すように、ホワイトボードW上の投影領域には略均一な全面白色の光が照射され、その周辺は投影領域よりも十分暗いため、輝度変化に基づいて、撮影画像PGのうち、投影領域とその周辺部との境界(枠PS3)を容易に検出することができる。よって、画像補正機能303では、枠PS3内の画像を抽出し、その抽出した画像を撮影画像の全体となるように拡大処理を施す。
【0178】
領域抽出機能304は、画像補正機能303によって歪み補正、および投影領域の抽出・拡大処理が施された撮影画像から、マーカーMK等を使用してマニュアルでホワイトボードWに直接書き込まれる等して直接に表示された視覚要素(文字、図形、色彩等)に対応する領域を抽出する。例えば、図20に示すように、ホワイトボードW上の投影領域内には全面白色の光が照射される場合は、書き込みMRと、その周辺とは色が全く異なるため、撮影画像PGから書き込みMRに対応する領域を容易に抽出することができる。即ち、領域抽出機能304が、カメラ部20によって取得される画像について、ホワイトボードW上に直接に付された視覚要素に対応する領域を抽出する手段として機能する。
【0179】
なお、ここでは、書き込みMRに対応する領域を抽出する場合を例にとって説明したが、ホワイトボードWに紙の資料や写真等を直接貼付して視覚要素を与えた際にも同様な方法によって、撮影画像から資料や写真等に対応する領域を抽出することができる。
【0180】
図21は、ホワイトボードW上に投影するための投影原画像PPを例示する模式図である。なお、図21では、パソコン30の記憶部32に記憶される投影原画像PPを示しており、図19に示すホワイトボードW上に投影された投影画像に対応する投影原画像である。
【0181】
次に、画像合成機能305は、領域抽出機能304によって抽出された領域と、プロジェクター部10によって投影原画像PPとをデジタル情報としてデータ合成して画像データ(合成画像)を生成し、記憶部32に記憶する。図22は、投影原画像PPと書き込みMRとをデータ合成した画像(合成画像)CPを例示する模式図である。図22に示す合成画像CPは、図19に示すホワイトボードW上の状態を反映した画像となっている。即ち、画像合成機能305が、領域抽出機能304によって抽出した領域と、プロジェクター部10によってホワイトボードWに投影するための投影原画像とをデータ合成する手段として機能する。
【0182】
したがって、ここでは、単一色の光をホワイトボードWに照射して、ホワイトボードWを撮影して画像を取得する。そして、取得される画像から、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出する。そして抽出した領域とホワイトボードWに投影するための投影原画像とデータ合成する。その結果、ホワイトボードWに投影するための投影原画像と、ホワイトボードW上に直接書き込まれた文字や線や添付された資料等とをデータ合成した高品質な画像を作成することができる。即ち、ホワイトボードWに投影される情報と、ホワイトボードWに直接付加される視覚要素の情報とを併せた高品質の画像を取得可能な投影システムを提供することができる。
【0183】
以上、第1実施形態に係る投影システム1においては、外光や、ホワイトボードWの傾き等を勘案して、投影画像や撮影画像のホワイトバランスや階調特性や歪み等を補正する。また、ホワイトボードWに投影される情報と、ホワイトボードWに直接付加される情報とを併せた高品質の画像を取得する。よって、ホワイトボードW(投影面)の状況に応じた適正な画像を投影および撮影可能であるとともに、ホワイトボードW(投影面)の状況に応じた適正な画像を生成可能な投影システムを提供することができる。
【0184】
<(2) 第2実施形態>
<(2−1) 撮影画像の歪み補正>
上述したように、ホワイトボードWを斜め撮影した際に、ホワイトボードWの正面から撮影したような撮影画像を得るためには、撮影画像の歪み補正をしなければならない。また、ホワイトボードWに対して斜め投影している際に、ホワイトボードWへの書き込み等を撮影して得られた撮影画像と、投影するための投影原画像とをデータ合成するためには、投影原画像と整合するように撮影画像の歪み補正をしなければならない。
【0185】
このような撮影画像の歪み補正を行うために、第1実施形態に係る投影システム1では、焦点検出用パターンAFPを投影し、そのパターンを撮影して入力された画像に基づいて撮影画像の歪みを補正したが、第2実施形態に係る投影システム1Aでは、撮影画像の歪み補正を行うために、第1実施形態とは異なるパターンをホワイトボードWに投影する。
【0186】
したがって、第2実施形態に係る投影システム1Aでは、カメラ制御部200およびPC制御部300の機能が第1実施形態に係る投影システム1と異なる。具体的には、図23に示すように、第2実施形態に係るカメラ制御部200Aには、第1実施形態に係る各種機能に加えて、対応点抽出機能207が付加されている。また、図2に示すように、第2実施形態に係るPC制御部300Aでは、補正値算出機能302Aおよび画像補正機能303Aの機能が、第1実施形態に係る補正値算出機能302および画像補正機能303と異なる。
【0187】
以下、図2および図23等を適宜参照しつつ、第1実施形態に係る投影システム1と異なる部分のみについて説明し、その他の部分については、第1実施形態に係る投影システム1と同様となるため、同様な符号を付して説明を省略する。
【0188】
ここでは、上述した図10に示した場合と同様に、投影レンズ10Rおよび撮影レンズ20Rの光軸がほぼY軸と一致し、ホワイトボードWの投影面は、XZへ平面から角度θだけ傾いている場合を例に挙げて説明する。
【0189】
パソコン30において、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作すると、撮影画像の歪み補正動作が開始して、カメラ部20がホワイトボードWを撮影し、取得された撮影画像の歪みを補正したりする。
【0190】
撮影画像の歪み補正動作が開始すると、PC制御部300からカメラ制御部200Aに撮影画像の歪み補正用の撮影を実施すべく撮影信号が伝送される。そして、カメラ制御部200Aはプロジェクター部10にコマンドを送信し、垂直同期信号に同期して次のフィールドから、パソコン30からのアナログRGB信号の入力に拘わらず、フレームメモリ112に記憶されるデジタル画像データが、ROM10bに格納される歪みを補正するためのパターン(方眼パターン)となるように設定する。したがって、次の垂直同期信号に同期して、プロジェクター部10が、ホワイトボードWに、方眼パターンを投影する。
【0191】
図24は、プロジェクター部10からホワイトボードWに投影される方眼パターンGPSを例示する模式図である。方眼パターンGPSは、輪郭部分が白色の枠GPFと、縦横に伸びる白色の線分からなる方眼状のパターンGPとから構成されている。なお、方眼パターンGPSでは、縦横に伸びる白色の線分が交差する点(例えば、点A、点B、点C)が、方眼パターンGPS上の位置を特定するための特異点(他の点と識別可能な幾何学的特徴を有する点)となっている。即ち、プロジェクター部10が、ホワイトボードWに、複数の特異点を含む所定の方眼パターンを投影する手段として機能する。
【0192】
これに対して、カメラ制御部200が、撮像素子駆動回路214に撮影のトリガー信号を出し、次の垂直同期信号に同期して、カメラ部20が、ホワイトボードWに投影された所定の方眼パターンGPSを撮影することによって、画像を取得する。このとき、カメラ制御部200の制御の下で、露光量が撮像素子213の許容量を超過して、撮像素子213の出力が飽和しないように、レンズ駆動回路212が撮影レンズ20Rの絞り値を所定の絞り値に設定する。
【0193】
なお、ここでは、シャッタースピードが垂直同期信号によって決まり、プロジェクター部10からは方眼パターンGPSが投影され、発光量も決まるため、撮像素子213の出力が飽和しないように、所定の絞り値を容易に設定することができる。
【0194】
次に、プロジェクター部10から方眼パターンGPSをホワイトボードWに投影して撮影を行った際に、A/D変換器216から図23に示すカメラ制御部200の対応点抽出機能207に出力される。
【0195】
図25は、ホワイトボードWに投影された方眼パターンGPSをカメラ部20で撮影して取得される画像G2を例示する模式図である。図25では、枠GPF’が、プロジェクター部10から投影される方眼パターンGPSの枠GPFに対応し、方眼状のパターンGP’が方眼状のパターンGPに対応する。そして、ここでは、撮影レンズ20Rの光軸とホワイトボードWとは垂直の関係にないため、図25に示すように、方眼状のパターンGP’に台形歪みが発生している。
【0196】
対応点抽出機能207では、輝度の変化を検出することによって、図25に示す画像G2から、枠GPF’外の領域を輝度による判別で排除する。次に、残された方眼状のパターンGP’の縦方向と横方向への輝度変化を見ることにより、方眼状のパターンGP’の縦および横から何本目の線が何処にあるのかを検出することができる。よって、対応点抽出機能207は、図25に示すG2における、方眼状のパターンGP’の線分が交差する点の位置を特定することができる。その結果、例えば、図24における点A、点B、点Cに対応する点として、図25に示す画像G2における点A’、点B’、点C’をそれぞれ特定し、抽出することができる。即ち、対応点抽出機能207が、画像G2について、プロジェクター部10から投影される方眼パターンGPSに含まれる複数の特異点にそれぞれ対応する対応点を抽出する手段として機能する。
【0197】
次に、図2に示すPC制御部300Aの補正値算出機能302Aにおいて、図24に示す方眼パターンGPSにおける複数の特異点(例えば、点A、点B、点C)と、図25に示す画像G2における対応点(点A’、点B’、点C’)との位置関係から撮影画像の歪みを補正するための補正値を算出する。即ち、補正値算出機能302Aが、複数の特異点と、その対応点との位置関係から補正値を算出する手段として機能する。
【0198】
ここで、図26および図27を参照しつつ、補正値算出機能302Aにおける補正値を算出するための原理を簡単に説明する。
【0199】
図26および図27は、補正値を算出するための原理を説明するための図である。図26では、プロジェクターの光軸をz軸とし、光源を原点としてxyz直交座標系を設定した場合に、ライトバルブ(例えば、表示素子123)における画素と、投影面(ホワイトボードW)上に投影される画像との位置関係を模式的に示す。また、図27では、カメラの光軸をz’軸としたx’y’z’直交座標系を設定した場合において、投影面(ホワイトボードW)上の位置と、撮像素子213における画素との位置関係を模式的に示している。
【0200】
図26に示すように、プロジェクター部10から発せられるある光線(第1の光線)が、下式(2)の関係を有する場合、ライトバルブである第1の投影面P1をz=1で表される平面とすると、第1の光線と第1の投影面P1との交点の座標は点M(p,q,1)となる。
【0201】
x/p=y/q=z・・・(2)
【0202】
次に、この状態で、画像として第2の投影面P2(例えば、ホワイトボードW)に投影されることを前提に発せられる光線群と、第2の投影面P2との交点M’を求める。ここで、第2の投影面P2を下式(3)で表すと、第1の光線と第2の投影面P2との交点M’の座標は次式(4)〜(6)で表される。
【0203】
z=ax+by+c・・・(3)
x=cp/(1−ap−bq)・・・(4)
y=cq/(1−ap−bq)・・・(5)
z=c/(1−ap−bq)・・・(6)
【0204】
つまり、ここでは、第1の投影面P1の画像を第2の投影面P2に投影することで、3次元空間において、画像の一部を示す点Mが点M’に変換されたことになる。
【0205】
そして、図27に示すように、カメラの撮像素子に照射されるある光線(第2の光線)が、下式(7)の関係を有する場合、撮像素子の撮像面となる第3の投影面P3をz’=1で表される平面とすると、第2の光線と第3の投影面P3との交点の座標は点N(s,t,1)となる。
【0206】
x’/s=y’/t=z’・・・(7)
【0207】
この状態で、第3の投影面P3に画像を結像するために照射される光線群と、第3の投影面P3とは異なる第4の投影面P4(例えば、ホワイトボードW)との交点N’を求める。ここで、第4の投影面P4を下式(8)で表すと、第2の光線と第4の投影面P2との交点N’の座標は次式(9)〜(11)で表される。
【0208】
z’=dx’+ey’+f・・・(8)
x’=fs/(1−ds−et)・・・(9)
y’=ft/(1−ds−et)・・・(10)
z’=f/(1−ds−et)・・・(11)
【0209】
つまり、ここでは、第4の投影面P4の画像を第3の投影面P3に投影することで、3次元空間において、画像の一部を示す点N’が点Nに変換されたことになる。
【0210】
そして、プロジェクターによる投影画像を、プロジェクターとは異なる位置と姿勢を有するカメラで撮影した場合には、3次元空間において、投影画像を構成するある点の座標は、図26に示す投影過程における点Mから点M’への座標変換と、プロジェクターについてのxyz直交座標系からカメラについてのx’y’z’直交座標系への座標変換と、図27に示す撮影過程における点N’から点Nへの座標変換を受けることとなる。また、ここで、xyz直交座標系からx’y’z’直交座標系への座標変換を示す係数(座標変換係数)をr11,r12,r13,r21,r22,r23,r31,r32,r33として、下式(12)〜(14)の関係が成立するものとして説明を続ける。
【0211】
x’=r11x+r12y+r13z・・・(12)
y’=r21x+r22y+r23z・・・(13)
z’=r31x+r32y+r33z・・・(14)
【0212】
ここで、式(12)〜(14)に、式(4)〜(6)および式(9)〜(11)を代入すると、下式(15)〜(17)の関係式が求まる。
【0213】
【数2】
Figure 2004109246
【0214】
式(15)〜(17)の3つの式には、a〜f、r11〜r33の15個の未知である係数が含まれているが、以下の手順で整理すると未知数を9個まで減らすことができる。
【0215】
例えば、第2の投影面と第4の投影面は同一であるため、一方の投影面の式が決まれば、他方の投影面の式は、xyz直交座標系からx’y’z’直交座標系への座標変換係数を用いて表すことができる。つまり、未知数a,b,cまたは未知数d,e,fのうち一方を無くすことができ、未知数が3個減る。また、2つの座標系(xyz直交座標系とx’y’z’直交座標系)の間で、方位関係が傾いているのみで、拡大縮小を伴わないことを条件とすると、下式(18)〜(20)の関係を用いて、未知数である9個の座標変換係数r11〜r33を6個の未知数に減らすことができる。
【0216】
11 +r12 +r13 =1・・・(18)
21 +r22 +r23 =1・・・(19)
31 +r32 +r33 =1・・・(20)
【0217】
このように、式(15)〜(17)の3つの式における未知数は9個とすることができるため、第1の投影面P1上での点M(p,q,1)と第3の投影面P3上での点N(s,t,1)とを対応づける組合せが3組あれば、その3組の座標を式(15)〜(17)に代入すると、9つの式が得られ、残りの9個の未知数を求めることができる。よって、第1の投影面P1上の任意の点と、その点に対応する第3の投影面P3上の点とを相互に変換することができる式(変換式)を導出することができる。
【0218】
したがって、例えば、補正値算出機能302Aにおいて、図24に示す方眼パターンGPSにおける3点の特異点(例えば、点A、点B、点C)と、図25に示す画像G2における対応点(点A’、点B’、点C’)との位置関係から、変換式を求めることができる。なお、ここでは、この変換式が撮影画像の歪みを補正するための補正値にあたる。
【0219】
そして、画像補正機能303Aが、補正値算出機能302Aで算出された補正値に基づいて、カメラ部20によってホワイトボードWを撮影することにより得られる撮影画像の歪みを補正する。この結果、ホワイトボードWに投影される画像に合わせて書き込まれる文字や資料等をカメラ部20で撮影して画像を取得し、その画像を、投影画像と整合するように座標変換して画像を生成することができる。
【0220】
ところで、プロジェクター部10において、投影画像の歪み補正をしている場合には、第1の投影面P1における画像は、投影画像の歪み補正値に基づいて、投影原画像を変形させたものとなっている。しかし、第1の投影面P1における画像と、投影原画像との位置関係は、投影画像の歪み補正値によって規定されるため、カメラ部20で撮影した画像を、投影原画像と整合するように座標変換をすることは容易に可能である。なお、このような場合は、PC制御部300がプロジェクター制御部100から投影画像に対する歪み補正値を取得することによって、変換式を、投影画像に対する歪み補正値を加味した式とし、座標変換を実現する。
【0221】
したがって、プロジェクター部10において、投影画像の歪み補正をしている場合には、ホワイトボードWに投影される画像は、ホワイトボードWの正面から見ると、パソコン30の記憶部32に記憶される投影原画像をそのまま拡大したものとなっている。よって、カメラ部20で撮影した画像を、投影原画像と整合するように座標変換をすると、ホワイトボードW上の書き込み等をホワイトボードWの正面から撮影して取得された画像のように補正することができる。
【0222】
なお、上述したように、ここでは、投影するための画像における3点の特異点と、3点の特異点に対応する撮影画像における対応点との位置関係から、撮影画像の歪みを補正するための補正値を求めることができる。そして、この3点の特異点は直線状に並ばないことが必要である。しかし、投影レンズ10Rや撮影レンズ20Rの各種収差等の誤差要因を勘案すると、すべての画像の中心と4隅の計5箇所における特異点と、その対応点との位置関係から、撮影画像の歪み補正をするための補正値を求める方が好ましい。
【0223】
また、上述したように、撮影画像に対する歪み補正値は、撮影が行われる毎に行われるため、途中でホワイトボードWが動いた場合にも対応することができる。なお、ここでは、方眼パターンGPSを投影するタイミングと、撮影するタイミングとが同期しており、さらに、方眼パターンGPSを投影する時間はごく短時間であるため、投影画像を見ている人に気づかれず、投影画像が見づらくなることがない。
【0224】
以上のように、第2実施形態に係る投影システム1Aでは、複数の特異点(例えば、点A,B,C)を含む所定の方眼パターンGPSをホワイトボードWに投影する。そして、その投影された方眼パターンGPSを撮影して得られた画像G2から、複数の特異点にそれぞれ対応する対応点を抽出する。さらに、方眼パターンGPSにおける複数の特異点と、対応点との位置関係とから補正値を算出する。その補正値に基づいて、ホワイトボードWを撮影することにより得られる撮影画像の歪みを補正する。その結果、ホワイトボードW(投影面)とカメラ部20との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0225】
また、ここでは、ホワイトボードWを撮影することによって得られる撮影画像を、投影するための投影原画像と整合するように補正することができる。よって、上述したように、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を撮影画像から抽出して、ホワイトボードWに投影するための投影原画像とデータ合成する際に、ずれのない合成画像を生成することができる。
【0226】
<(3) 第3実施形態>
第3実施形態では、複数の会議室のパソコンをネットワークを介して接続し、同じ画像を各会議室において拡大投影しながら、遠隔地同士で会議を協同して進行させる電子会議システムについて示している。
【0227】
<(3−1) 電子会議システムの内部構成>
図28は、電子会議システムの内部構成を示すブロック図である。図28に示すように、電子会議システムでは、2つの会議室CR1,CR2にそれぞれ、ホワイトボードW1,W2に画像を投影するように、第1実施形態に係る投影システム1とほぼ同様な投影システム1Bが設置されている。両会議室CR1,CR2に設置される投影システム1Bの内部構成は、全く同様であるため、同様な部分については同様な符号を付しており、また、投影システム1Bは投影システム1に異なる機能が若干付加されたものであり、以下、主に、投影システム1と異なる点について説明する。なお、投影システム1Bの動作の制御は、パソコン30内に記憶されるプログラムがPC制御部300において実行されることによって実現されているものとする。
【0228】
投影システム1Bのパソコン30にはスピーカSPが設けられるとともに、マイクMCが接続され、両会議室CR1,CR2内の音声を入力して音声データを取得することができる。また、投影システム1Bは、それぞれパソコン30がネットワーク400に接続され、両会議室CR1,CR2に設置される投影システム1Bは相互にデータを送受信することができる。
【0229】
そして、パソコン30の記憶部32に記憶される画像データ(投影原画像)を送受信することによって、両会議室CR1,CR2において同様な投影画像をホワイトボードWに投影することができる。例えば、会議室CR1のパソコン30に記憶される画像データ(投影原画像)を会議室CR2のパソコン30に送信することによって、会議室CR1のパソコンに記憶される画像データに基づいて、両会議室CR1,CR2において同様な投影画像を投影することができる。
【0230】
また、両会議室CR1,CR2に設置される投影システム1Bは、パソコン30がネットワーク400を介して相互にデータを送受信することができるため、マイクMCを介して取得される音声データを相互に送受信して、スピーカSPから音声を出力することができる。
【0231】
ところで、上述した投影システム1では、会議内容の記録動作において、画像合成機能305が、領域抽出機能304によって抽出された領域と、プロジェクター部10によって投影するための投影原画像とをデータ合成して合成画像データを生成し、記憶部32に記憶した。これに対して、投影システム1Bでは、投影システム1における会議内容の記録動作と同様に、カメラ部20によってホワイトボードW1,W2の撮影を行い、その画像に基づいて、領域抽出機能304によって抽出した領域についての画像データをネットワーク400を介して他方の投影システム1Bに送信する。そして、他方の投影システム1Bにおいて、投影原画像とデータ合成して合成画像データを生成し、ホワイトボードWに投影する。なお、投影システム1Bにおける投影画像と撮影画像との合成処理のその他の動作については、投影システム1と同様となる。
【0232】
ここで、「ネットワーク」とは、データ通信を行う通信回線網であり、具体的には、インターネット、LAN、WAN、CATVなどの、電気通信回線(光通信回線を含む)により構成される各種の通信回線網である。ネットワークに対する接続形態は、専用回線などを利用した常時接続であってもよいし、アナログ回線あるいはデジタル回線(ISDN)などの電話回線を利用したダイアルアップ接続などの一時的な接続のいずれであってもよい。また、その伝送方式は、無線方式および有線方式のいずれであってもよい。
【0233】
<(3−2) 電子会議システムの使用例>
図29は、電子会議システムの使用例を示す模式図である。図29に示すように、複数の会議室CR1,CR2には、それぞれ、投影システム1Bが設置され、投影システム1に備えられたパソコン30が、ネットワーク等を介して、データを送受信し合うことによって、ホワイトボードW1,W2上に直接書き込まれた内容等も反映させながら、パソコン30に表示される同一の画像を、ホワイトボードW1,W2に投影している。また、パソコン30が図示を省略するマイクMCによって音声データを取得し、ネットワーク400を介して音声データを送信受信することによって、一方の会議室における音声を他方の会議室において、パソコン30に設けられたスピーカSPから出力することができる。
【0234】
そして、例えば、図29に示すように、会議室CR1の説明者PM1は、ホワイトボードW上に投影された画像中の重要な点に赤のマーカーでアンダーラインMR1を付し、会議の参加者に説明している。一方、会議室CR2の説明者PM2は、ホワイトボードW上に投影された画像中の重要な点に丸印MR2を付すとともに、「40万画素超」という文字MR3を書き込んで、会議の参加者に説明している。
【0235】
このとき、両会議室CR1,CR2においては、もう一方の会議室で書き込まれた内容等を反映させるため、一定間隔毎に、カメラ部20がホワイトボードW上の書き込み等を撮影し、その画像に基づいて、領域抽出機能304によって抽出した領域についての画像データをネットワーク400を介して他方の投影システム1Bに送信する。そして、他方の投影システム1Bにおいて、投影原画像とデータ合成して合成画像データを生成し、ホワイトボードWに投影する。
【0236】
その結果、図29に示すように、一方の会議室においてホワイトボードWに書き込まれたり、貼付された資料等の内容を他方の会議室のホワイトボードWに反映させることができる。
【0237】
なお、一方の会議室において、ホワイトボードに投影した投影画像に合わせてマーカー等で書き込みを行った場合に、そのままカメラ部20で撮影してその画像を他方の会議室にネットワーク400を介して伝達し、その画像に基づいて、他方の会議室において、ホワイトボードWに画像を投影しても、一方の会議室においてホワイトボードWに書き込まれたり、貼付された資料等の内容を他方の会議室のホワイトボードWに反映させることができる。しかし、そのままカメラ部20で撮影すると、投影した画像とマーカーの書き込みとが重なって撮影されるため、読みにくい画像になったり、ホワイトボードWに投影した画像をカメラで撮影した場合は、投影画像に対応する部分の画質が劣化してしまい、他方の会議室では、画像の作成者が意図した内容を会議に参加した人々に対して正確に伝達することができない。
【0238】
このような問題に対して、本実施形態に係る投影システム1Bでは、単一色(全面白色)の光をホワイトボードWに照射して、ホワイトボードWを撮影することによって画像を取得する。そして、取得された画像から、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出して、ホワイトボードWに投影するための投影原画像とデータ合成する。その結果、ホワイトボードWに投影するための投影画像と、ホワイトボードW上に直接書き込まれた文字や線や添付された資料等の視覚要素とをデータ合成した高品質な画像を作成することができる。
【0239】
なお、上述したように、カメラ部20による撮影時に、全面白色等の単一色の光をプロジェクター部10から照射する。よって、全面白色等の単一色の光をホワイトボードWに投影する時間が長いと、会議の参加者に違和感を与えたり、画像が見づらくなったりする。しかし、本実施形態に係る投影システム1Bにおいては、単一色の光を照射するタイミングと、撮影するタイミングとが同期しており、さらに、単一色の光を投影する時間は、1フレーム以内というごく短時間であるため、会議の参加者に違和感を与えたり、画像が見づらくなったりすることがない。
【0240】
また、ホワイトボードWへの書き込み等の撮影は、ユーザーがパソコン30のキーボード等を種々操作することによって行うことができるが、電子会議では、時間的なずれの低減が要求されるため、ホワイトボードW上の書き込み等を次々と撮影し、画像データをネットワーク400を介して伝送する場合もある。このような場合は、ユーザーがパソコン30において撮影間隔を短く設定し、撮影動作を繰り返し行って、書き込み等に係る撮影画像と投影原画像のデータ合成を短い周期で行うことが好ましい。
【0241】
ところで、ここでは、ホワイトボードW上の書き込みを撮影する際に、撮影画像の歪み補正をするか否かは、プロジェクター部10から投影される投影画像の歪み補正を行っているか否かに従う。
【0242】
例えば、投影画像の歪み補正を行っていない場合は、会議の説明者は特に台形歪み等を問題とせず、投影画像に合わせて、ホワイトボードWに書き込み等をしたものと考えられる。よって、この場合は、撮影画像に対する歪み補正は行わない。なお、投影画像の歪み補正を行っているか否かは、プロジェクター制御部100とカメラ制御部200間のデータの交信等によって情報を取得し、撮影画像に対する歪みを行うか否かについて、PC制御部300等によって制御および管理することができる。一方、投影画像の歪み補正を行っている場合は、上述した撮影画像の歪み補正を必ず行い、他方の会議室の投影システムに画像データを伝送する。
【0243】
以上のように、第3実施形態に係る電子会議システムでは、一方の投影システム1Bにおいて、単一色(全面白色)の光をホワイトボードWに照射して、ホワイトボードWを撮影することによって画像を取得する。そして、取得された画像から、ホワイトボードW上に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出して、他方の投影システムに伝送する。そして、他方の投影システムにおいて、抽出された領域と、ホワイトボードW上に投影するための投影原画像とをデータ合成して投影する。その結果、遠隔地等場所を違える会議室同士で、意志疎通を十分図ることができる。また、ホワイトボードWに投影される情報と、ホワイトボードWに直接付加される視覚要素の情報とを併せた高品質の画像を投影可能な投影システムを提供することができる。
【0244】
<(4) 変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0245】
◎例えば、上述した実施形態では、スケーラー113等は専用の電子回路となっているが、プロジェクター制御部100内のCPUにおいてプログラムを実行することにより、その機能を実現するようにしても良い。
【0246】
◎また、上述した実施形態では、プロジェクター制御部100、カメラ制御部200、およびPC制御部300を別々に設けているが、それらの機能のうちの一部、または全ての機能を、1箇所のCPUにおいてプログラムを実行することによって実現するようにしても良い。
【0247】
◎また、投影プログラムが実行されているときに、ユーザーがパソコン30のキーボード等を種々操作することによって、投影画像のWB補正、撮影画像のWB補正、投影画像の階調特性の補正、撮影画像の階調特性の補正、投影画像の歪み補正、および撮影画像の歪み補正のうちの全ての動作を実行しなかったり、いずれか1つの動作を実行したり、種々の組合せの動作を実行したり、全ての動作を実行するようにしても良い。
【0248】
◎また、上述した第2実施形態では、第2および第4等の投影面が平面の場合における撮影画像の歪み補正について例示したが、第2および第4の投影面が曲面である場合にも、曲面の式を規定することによって、第2実施形態と同様な手法によって、第1の投影面と第3の投影面との間の座標変換係数を求めることができる。したがって、プロジェクター部10から投影画像が投影される投影面が曲面の場合にも撮影画像の歪み補正を実施可能である。
【0249】
◎また、上述した実施形態では、WB補正値を求めるために、投影領域に全面無彩色の光を投影したが、投影領域の一部に無彩色の光を投影して、その部分に係る画像データに基づいてWB補正値を求めるようにしても良い。
【0250】
◎また、上述した実施形態では、プロジェクター制御部100、カメラ制御部200,200A、PC制御部300,300Aの間におけるデータの送受信は、USBI/F34とUSBI/F230の間、およびUSBI/F230とUSBI/F130の間をそれぞれケーブルによって接続することによって実現されていたが、接続の組合せや方式はこれに限られず、種々の組合せや方式で接続しても良い。
【0251】
◎また、上述した実施形態では、投影画像の歪み補正を自動で行う点を特徴とする動作以外の動作においては、投影画像の歪み補正の設定はユーザーが手動で行っても良い。
【0252】
◎また、上述した実施形態において例示した投影システム1,1A,1Bは、上述したように撮影画像の歪み補正を行うため、ホワイトボードW等の被写体に係る撮影画像の歪み補正を行う歪み補正装置として見ることもできる。
【0253】
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。
【0254】
(1)被写体に複数の焦点検出用の部分を含むパターンを投影する投影手段と、前記投影面に投影された前記パターンを撮影することによって、複数の画素で構成される前記パターンに係る画像を入力する撮影手段と、前記撮影手段における撮影レンズの合焦制御を行う合焦制御手段と、前記画像における前記複数の焦点検出用の部分に対応する領域について、それぞれ前記撮影レンズの合焦状態に関する評価値を算出する評価値算出手段と、前記評価値に基づいて、前記撮影手段によって前記被写体を撮影することにより得られる撮影画像について、歪みを補正する歪み補正手段とを備えることを特徴とする歪み補正装置。
【0255】
(1)の発明によれば、焦点検出用の領域を複数含むパターンを投影し、そのパターンを撮影して入力された画像における、複数の焦点検出用の部分に対応する領域について、それぞれ撮影レンズの合焦状態に関する評価値を求め、その評価値に基づいて、被写体を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、撮影手段と、被写体との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0256】
(2)被写体に複数の特異点を含む所定のパターンを投影する投影手段と、前記投影面に投影された前記所定のパターンを撮影することによって、画像を取得する撮影手段と、前記画像について、前記複数の特異点にそれぞれ対応する対応点を抽出する抽出手段と、前記複数の特異点と、前記対応点との位置関係から補正値を算出する算出手段と、前記補正値に基づいて、前記撮影手段によって前記被写体を撮影することにより得られる撮影画像の歪みを補正する歪み補正手段とを備えることを特徴とする歪み補正装置。
【0257】
(2)の発明によれば、複数の特異点を含む所定のパターンを被写体に投影し、その投影された所定のパターンを撮影して得られた画像から、複数の特異点にそれぞれ対応する対応点を抽出し、所定のパターンにおける複数の特異点と、対応点との位置関係から補正値を算出し、その補正値に基づいて、被写体を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、被写体と撮影手段との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0258】
(3)投影システムに含まれるコンピュータによって実行されることにより、前記投影システムを、請求項1から請求項5、(1)および(2)のうちいずれかに記載の投影システムとして機能させるプログラム。
【0259】
(3)の発明によれば、請求項1から請求項5、(1)および(2)のいずれかに記載の発明と同様な効果を得ることができる。
【0260】
【発明の効果】
以上説明したように、請求項1から請求項5の発明によれば、投影面の状況に応じた適正な画像処理が可能な投影システムを提供することができる。
【0261】
また、請求項1から請求項3の発明によれば、投影面の状況に応じた適正な画像を投影可能な投影システムを提供することができる。
【0262】
特に、請求項1の発明によれば、輝度が段階的に変化するパターンを投影面に投影し、そのパターンを撮影して得られた画像に基づいて、投影面に投影される投影画像や、投影面等を撮影することによって得られる撮影画像の階調特性を補正するような構成とすることによって、外光の影響や投影面の反射率等により投影画像や撮影画像の階調特性が変化するのを補正することができる。
【0263】
また、請求項2の発明によれば、無彩色の光を投影した投影面を撮影して得られた画像に基づいて、投影面に投影される投影画像や、投影面等を撮影することによって得られる撮影画像のホワイトバランスを補正するような構成とすることによって、投影面の色や、外光の色や、投影手段の光源の色等の影響により、投影画像や撮影画像の色調が変化するのを補正することができる。
【0264】
また、請求項3の発明によれば、焦点検出用の部分を複数含むパターンを投影し、そのパターンを撮影して入力された画像における複数の焦点検出用の部分に対応する領域について、それぞれ撮影レンズの合焦状態に関する評価値を求め、その評価値に基づいて、投影面に投影される投影画像や、投影面を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、投影手段や撮影手段と、投影面との相対的な位置関係等から生じる投影画像や撮影画像の歪みを補正することができる。
【0265】
また、請求項4の発明によれば、複数の特異点を含む所定のパターンを投影面に投影し、その投影された所定のパターンを撮影して得られた画像から、複数の特異点にそれぞれ対応する対応点を抽出し、所定のパターンにおける複数の特異点と、対応点との位置関係から補正値を算出し、その補正値に基づいて、投影面を撮影することにより得られる撮影画像の歪みを補正するような構成とすることによって、投影面と撮影手段との相対的な位置関係等から生じる撮影画像の歪みを補正することができる。
【0266】
また、請求項5の発明によれば、単一色の光を投影面に投影して投影面を撮影することによって取得される画像について、投影面に直接書き込まれたり、添付される等して直接に付された視覚要素に対応する領域を抽出して、投影面に投影するための画像とデータ合成するような構成とすることによって、投影面に投影される画像と、投影面に直接書き込まれた文字や線や添付された資料等の視覚要素とを合成した高品質な画像を作成することができる。即ち、投影面に投影される情報と、投影面に直接付加される情報とを併せた高品質の画像を取得可能な投影システムを提供することができる。
【図面の簡単な説明】
【図1】第1実施形態に係る投影システムの使用例を示す模式図である。
【図2】第1実施形態に係る投影システムの内部構成を示すブロック図である。
【図3】第1実施形態に係るカメラ制御部の機能を説明するためのブロック図である。
【図4】ホワイトバランス補正値の設定方法を説明するための図である。
【図5】階調特性補正用の撮影時に取得される画像を例示する模式図である。
【図6】グレースケールチャートに係る理想的な明るさの比を例示する模式図である。
【図7】外光の影響がある場合の明るさの比を例示する模式図である。
【図8】階調特性補正用の補正値の算出方法を説明するための図である。
【図9】外光の影響がある場合の階調変換特性を例示する図である。
【図10】ホワイトボードに対して斜めの方向から投影および撮影する場合を例示する模式図である。
【図11】ホワイトボードに対して斜め投影される画像を例示する模式図である。
【図12】歪み補正後の投影画像を示す模式図である。
【図13】斜め撮影時に取得される撮影画像を例示する模式図である。
【図14】歪み補正後の撮影画像を示す模式図である。
【図15】ホワイトボードに投影される焦点検出用パターンを例示する図である。
【図16】ホワイトボードに投影された焦点検出用パターンを撮影することによって取得される撮影画像を例示する模式図である。
【図17】評価値と撮影レンズの位置との関係を表す曲線を例示する模式図である。
【図18】撮影画像に対する歪み補正用の補正値の算出方法を説明するための図である。
【図19】ホワイトボード上の状態を例示する模式図である。
【図20】ホワイトボードの書き込みを撮影した撮影画像を例示する模式図である。
【図21】ホワイトボードに投影するための投影原画像を例示する模式図である。
【図22】投影原画像と書き込みとをデータ合成した合成画像を例示する模式図である。
【図23】第2実施形態に係るカメラ制御部の機能を説明するためのブロック図である。
【図24】ホワイトボードに投影される方眼パターンを例示する模式図である。
【図25】ホワイトボードに投影された方眼パターンを撮影して得られた画面を例示する模式図である。
【図26】撮影画像の歪み補正用を算出するための原理を説明するための図である。
【図27】撮影画像の歪み補正用を算出するための原理を説明するための図である。
【図28】電子会議システムの内部構成を示すブロック図である。
【図29】電子会議システムの使用例を示す模式図である。
【図30】会議における従来の投影システムの使用例を示す模式図である。
【符号の説明】
1,1A,1B 投影システム
2 カメラ付きプロジェクター
10 プロジェクター部(投影手段)
20 カメラ部(撮影手段)
30 パソコン
100 プロジェクター制御部
101 素子駆動制御機能(ホワイトバランス補正手段、階調補正手段)
113 スケーラー(歪み補正手段)
200,200A カメラ制御部
204 評価値演算機能(評価値算出手段)
205 合焦制御機能(合焦制御手段)
207 対応点抽出機能(抽出手段)
210 撮影機能部(撮影手段)
217 WB回路(ホワイトバランス補正手段)
218 γ補正回路(階調補正手段)
300 PC制御部
302A 補正値算出機能(算出手段)
303A 画像補正機能(歪み補正手段)
304 領域抽出機能(領域抽出手段)
305 画像合成機能(合成手段)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology of a projection system that projects an image on a projection surface.
[0002]
[Prior art]
An image displayed on a screen of a personal computer (hereinafter, abbreviated as “PC”) is projected by a projection device onto a projection surface such as a whiteboard to hold a meeting, for example, for use in meetings (for example, Non-Patent Documents). 1).
[0003]
FIG. 30 is a schematic diagram illustrating an example of use of the conventional projection system 500 in a conference. FIG. 30 is a top view of the conference room CR10 as viewed from above.
[0004]
As shown in FIG. 30, the conventional projection system 500 mainly includes a projection device 510 and a personal computer 520, and is installed on the conference desk CD10. Then, projection device 510 and personal computer 520 are connected by a cable, and projection device 510 enlarges and projects an image similar to the image displayed on the screen of personal computer 520 onto whiteboard W10.
[0005]
Here, since the presenter PM10 and the like can proceed with the conference while appropriately pointing to the image projected on the whiteboard W10, the contents of the conference and the like can be easily communicated to the people M11 to M15 who participated in the conference. Can be. Therefore, there is no need to distribute meeting materials, and the cost of creating materials can be significantly reduced.
[0006]
In such a meeting, it is common practice that the presenter PM10 or the like manually writes on the whiteboard W10 with the marker MK or the like in accordance with the image enlarged and projected on the whiteboard W10. Then, in order to record the content of the conference, the content written on the whiteboard W10 may be photographed by a camera (for example, see Non-Patent Document 2).
[0007]
Further, although not shown, the personal computers 520 in a plurality of conference rooms are connected via a network, and in a different conference room, a similar image is enlarged and projected onto the whiteboard W10 by the projection device 510, and a conference is held between remote locations. There is also a service of an electronic conferencing system that proceeds in cooperation.
[0008]
Prior art documents relating to such technology include the following.
[0009]
[Patent Document 1]
JP-A-9-289600
[Patent Document 2]
JP-A-9-289611
[Patent Document 3]
JP-A-2002-57879
[Patent Document 4]
Japanese Patent No. 2632520
[Patent Document 5]
Registered Utility Model No. 4-18308
[Non-patent document 1]
"DATA PROJECTOR (TLP-X20DJ / TLP-X21DJ) Catalog", Toshiba Digital Media Network Company, March 2002
[Non-patent document 2]
"New Release of White and White Sheet for Marker Pen Corresponding to Marker Pen A / B Sheet" [online], June 4, 1999, Fuji Photo Film Co., Ltd., [August 6, 2002] Day search], Internet <URL: http://www.fujifilm.co.jp/news_r/nrj458.html>.
[0010]
[Problems to be solved by the invention]
However, the color tone between the image displayed on the screen of the personal computer 520 and the image projected on the projection surface is affected by the color and reflectance of the projection surface, external light, and the deterioration of the light source of the projection device. And differences in tone characteristics and the like may occur. Further, when an image is projected by a projection device from a direction oblique to the projection surface, an image projected on the projection surface may be distorted due to a relative positional relationship between the projection surface and the projection device. In these cases, there arises a problem that the content intended by the creator of the image cannot be accurately transmitted to the people who participated in the conference.
[0011]
Furthermore, in the above-described electronic conferencing system in which a conference is cooperatively proceeded between remote locations, the contents written on the projection plane are not reflected on the projection planes of the other conference rooms. There is also a problem that it becomes difficult to understand the contents of the information.
[0012]
In addition, when the meeting materials are not distributed, the enlarged and projected images are combined with the contents written on the projection surface and the like to record as meeting contents. There is also a problem that it is difficult to take a clean image or the like.
[0013]
Further, when recording the contents written on the projection surface to record the contents of the meeting, the relative position between the projection surface and the camera may be required, such as when it is necessary to take an image from a direction oblique to the projection surface. Depending on the positional relationship, the captured image may be distorted. In order to address this problem, it is conceivable to apply the following conventional technology regarding cameras. For example, in the cameras disclosed in Patent Literatures 1 and 2, a user measures the angle between the longitudinal direction of the camera and the whiteboard with a measure, and inputs the angle to the camera to correct the trapezoidal distortion of the captured image. it can. However, this method has a problem that a complicated operation is required and the accuracy of correction is low. Further, the camera disclosed in Patent Document 3 can calculate a correction value for correcting distortion by extrapolating at least two pairs of opposed line segments from a character or figure written on a projection surface. However, this method is not effective unless writing or the like capable of extrapolating at least two sets of line segments, and the use case is limited.
[0014]
The present invention has been made in view of the above problems, and has as its basic object to provide a projection system capable of performing appropriate image processing according to the state of a projection surface.
[0015]
And there are the following specific purposes corresponding to this basic purpose.
[0016]
A first specific object is to provide a projection system that can “generate” an appropriate image according to the condition of the projection plane.
[0017]
A second specific object is to provide a projection system capable of “projecting” an appropriate image according to the condition of the projection plane.
[0018]
A third specific object is to provide a projection system capable of “taking” an appropriate image according to the state of the projection plane.
[0019]
Another object of the present invention is to provide a projection system capable of acquiring a high-quality image combining information projected on a projection plane and information directly added to the projection plane.
[0020]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, an invention according to claim 1 is a projection system, comprising: a projection unit configured to project a pattern whose luminance changes stepwise on a projection surface; and the pattern projected onto the projection surface. A photographing unit for acquiring an image by photographing the image, a projection image projected on the projection surface by the projection unit based on the image acquired by the photographing unit, and the projection surface by the photographing unit. The image processing apparatus further includes a gradation correcting unit that corrects a gradation characteristic of at least one of the captured images obtained by capturing the image.
[0021]
The invention according to claim 2 is a projection system, wherein a projection unit that projects achromatic light on a projection surface, and an image is obtained by photographing the projection surface on which the achromatic light is projected. A projection image projected on the projection surface by the projection unit based on the image acquired by the photography unit, and a captured image obtained by photographing the projection surface by the photography unit And white balance correction means for correcting the white balance of at least one of the images.
[0022]
The invention according to claim 3 is a projection system, comprising: a projection unit configured to project a pattern including a plurality of focus detection portions on a projection plane; and photographing the pattern projected on the projection plane. A photographing unit that inputs an image of the pattern composed of a plurality of pixels; a focus control unit that performs focusing control of a photographing lens in the photographing unit; and a plurality of focus detection portions in the image. Evaluation value calculation means for calculating an evaluation value for the in-focus state of the photographing lens for each corresponding area; a projection image projected on the projection surface by the projection means based on the evaluation value; Means for correcting distortion for at least one of the captured images obtained by capturing the projection plane by means. And butterflies.
[0023]
Further, the invention according to claim 4 is a projection system, wherein a projection means for projecting a predetermined pattern including a plurality of singular points on a projection surface, and photographing the predetermined pattern projected on the projection surface. By means of, a photographing unit for acquiring an image, an extracting unit for extracting corresponding points respectively corresponding to the plurality of singularities, and a correction value based on a positional relationship between the plurality of singularities and the corresponding points. It is characterized by comprising a calculating means for calculating, and a distortion correcting means for correcting distortion of a photographed image obtained by photographing the projection plane by the photographing means based on the correction value.
[0024]
Further, the invention according to claim 5 is a projection system, wherein a projection means for projecting a single color light on a projection surface, and an image is obtained by photographing the projection surface on which the single color light is projected. Imaging means to perform, for the image obtained by the imaging means, an area extraction means for extracting an area corresponding to a visual element directly attached to the projection plane, and the area extracted by the area extraction means, A synthesizing unit for synthesizing data with an image to be projected onto the projection plane by the projection unit.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0026]
<(1) First embodiment>
<(1-1) Overview of projection system>
FIG. 1 is a schematic diagram showing an example of use of a projection system 1 according to the first embodiment of the present invention. FIG. 1 is a top view of the conference room CR1 as viewed from above. In FIG. 1 and subsequent drawings, an XYZ orthogonal coordinate system is added as necessary to clarify the azimuth relationship.
[0027]
As shown in FIG. 1, a projection system 1 according to a first embodiment of the present invention mainly includes a projector 2 with a camera (digital camera) and a personal computer (hereinafter abbreviated as “PC”) 30. Is installed on the conference desk CD. Then, the camera-equipped projector 2 and the personal computer 30 are connected by a cable CB, and the camera-equipped projector 2 enlarges and projects an image similar to the image displayed on the screen of the personal computer 30 onto a whiteboard W as a projection surface. .
[0028]
Here, the presenter PM or the like appropriately proceeds with the meeting while pointing to an image (projected image) enlarged and projected on the whiteboard W or writing the whiteboard W with the marker MK or the like. Therefore, since the contents of the conference and the like can be easily communicated to the people M1 to M5 who have participated in the conference, there is no need to distribute the materials for the conference in particular, and the cost for preparing the materials can be greatly reduced. .
[0029]
The camera-equipped projector 2 mainly includes a projector unit 10 and a camera unit 20, and the camera unit 20 is fixed to a housing of the projector unit 10. For example, the projection lens 10R of the projector unit 10 and the photographing lens 20R of the camera unit 20 are arranged as close as possible, and the projection lens 10R and the photographing lens 20R are arranged so that the optical axis and the angle of view are close to each other. Is set.
[0030]
In FIG. 1, a solid line 10L schematically showing the angle of view of the projection lens 10R and a dotted line 20L schematically showing the angle of view of the photographing lens 20R are shown. As shown in FIG. 1, here, the entire area of the projection image projected on the whiteboard W (hereinafter, referred to as “projection area”) is set so as to fall within a range that can be photographed by the camera unit 20.
[0031]
<(1-2) Internal configuration of projection system>
FIG. 2 is a block diagram illustrating an internal configuration of the projection system 1. As described above, the projection system 1 mainly includes the projector unit 10, the camera unit 20, and the personal computer 30. Hereinafter, the three parts will be described in order.
[0032]
<(1-2-1) Internal configuration of projector unit>
In the present embodiment, a one-chip system using one general DMD (Digital Micromirror Device) (registered trademark) as a display element 123 described later will be described as an example.
[0033]
As shown in FIG. 2, the projector unit 10 mainly includes a projector control unit 100, an image generation function unit 110, a projection function unit 120, and a USB I / F 34, like a general projector.
[0034]
The projection function unit 120 includes a light source 121, a color wheel 122 for color separation, a display element 123, and a projection lens 10R.
[0035]
The light source 121 is a light source that generates white light, and the projection lens 10R is a general projection lens.
[0036]
The color wheel for color separation 122 has three primary color filters of RGB and rotates in synchronization with the driving of the display element 123. The white light emitted from the light source 121 is sequentially separated into R (red) light, G (green) light, and B (blue) light in a time-division manner, and the color-separated light is displayed. The light is emitted to the display element surface of the element 123.
[0037]
The display element 123 is configured by one DMD as described above. The DMD is configured by a minute mirror for each pixel, and the angle of the minute mirror is changed based on control by an electric signal emitted from the projector control unit 100. When the electric signal is emitted from the projector control unit 100, the angle of the minute mirror is set such that the light beam emitted from the color separation color wheel 122 is reflected by the minute mirror and passes through the projection lens 10R. Is configured. On the other hand, in a state where the electric signal is not emitted from the projector control unit 100, the angle of the minute mirror is set so that the light beam emitted from the color separation color wheel 122 is reflected by the minute mirror and does not pass through the projection lens 10R. Is configured.
[0038]
The image generation function unit 110 generates image data for projection based on the analog RGB signals input from the personal computer 30. Here, an example will be described in which the analog RGB signals input from the personal computer 30 are all in a moving image format so as to be compatible with moving images.
[0039]
The image generation function unit 110 includes an analog RGB decoder 111, a frame memory 112, a scaler 113, and an image memory 114.
[0040]
The analog RGB decoder 111 generates digital image data suitable for driving the projection function unit 120 from the analog RGB signals input from the personal computer 30. In other words, digital image data suitable for driving the color separation color wheel 122 and the display element 123 is generated. Although not shown, the analog RGB decoder 111 converts the analog image signal into a digital image signal (for example, an 8-bit digital image signal) and a PLL circuit that generates a sampling pulse for sampling the analog signal. And an A / D converter.
[0041]
The analog RGB decoder 111 separates a horizontal synchronizing signal and a vertical synchronizing signal from an analog RGB signal input from the personal computer 30. Then, the PLL circuit generates sampling pulses such as the horizontal synchronization signal and the vertical synchronization signal at three times the speed of the separated horizontal synchronization signal and the vertical synchronization signal indicating the start of one frame.
[0042]
For example, assuming that the number of pixels of a display element 123 described later corresponds to the S-VGA standard (800 × 600 pixels), the PLL circuit generates a horizontal synchronization signal and then generates the next horizontal synchronization signal. By then, a pulse for sampling data for 800 pixels is generated. In addition, sampling is performed so as to synchronize the vertical synchronization signal generated from the PLL circuit, the RGB switching timing of the color separation color wheel 122, and the vertical scanning of the display element 123, and digital image data is generated.
[0043]
More specifically, when the timing to emit R light from the color separation color wheel 122 to the display element 123 in synchronization with the vertical synchronization signal generated from the PLL circuit, the input of the A / D converter becomes analog. The signal is switched to the R signal, and sampling is started. When the sampling of 600 vertical lines is completed, the timing for irradiating the display element 123 with the G light from the color separation color wheel 122 is synchronized with the next vertical synchronization signal, and the input of the A / D converter is performed. Is switched to the G signal of the analog signals, and sampling is started. Further, when the sampling of 600 lines in the vertical direction is completed, the timing for irradiating the B light from the color separation color wheel 122 to the display element 123 is synchronized with the next vertical synchronization signal, and the input of the A / D converter is performed. Is switched to the G signal of the analog signals, and sampling is started.
[0044]
Thereafter, when the sampling of the vertical 600 lines is completed, the same sampling operation is further repeated, and digital image data suitable for driving the projection function unit 120 is generated from the analog RGB signals input from the personal computer 30. The digital image data generated as described above is stored in the frame memory 112 as needed.
[0045]
The scaler 113 corrects trapezoidal distortion or the like that occurs when the optical axis of the projection lens 10R is not perpendicular to the whiteboard W that is the projection plane. In a conventional projector, the scaler scans the pixel data stored in the frame memory 112 by, for example, measuring and inputting the relative angle between the lens surface of the projection lens and the projection surface with the amount of eye. Enlargement and reduction calculations were performed for each line. On the other hand, the scaler 113 according to the first embodiment of the present invention converts digital image data stored in the frame memory 112 based on a correction value for distortion correction calculated by the correction value calculation function 102 described later. The enlargement / reduction operation is performed for each scanning line or each pixel. Note that the number of pixels of the image data output from the scaler 113 corresponds to the number of pixels of the display element 123. Calculation of a correction value for distortion correction and distortion correction will be described later in detail.
[0046]
The image memory 114 is configured by a volatile or non-volatile storage medium, and stores digital image data on which scaling operation has been performed by the scaler 113. Then, the projector control unit 100 controls the driving of the projection function unit 120 based on the digital image data stored in the image memory 114, thereby synchronizing with the vertical synchronization signal, the R field, the G field, The field B is repeatedly optically projected. Therefore, the projector unit 10 functions as a unit that projects an image on the whiteboard W (projection plane).
[0047]
Here, an electric signal from the projector control unit 100 to the display element 123 is generated for a period corresponding to the digital value stored in the image memory 114 for each pixel. That is, the reflection angle of the minute mirror of the display element 123 is changed for each pixel during a period corresponding to the digital value stored in the image memory 114. Note that the relationship between the digital value for each pixel and the generation time of the electric signal from the projector control unit 100 to the display element 123 is determined by using an LUT (conversion table) stored in the projector control unit 100 for each of R, G, and B. ). The LUT can be changed in the projector control unit 100, and the white balance (hereinafter abbreviated as “WB”) and the gradation of the projected image are adjusted according to correction values for gradation characteristic correction and white balance correction, which will be described later. The characteristics can be set arbitrarily.
[0048]
The projector control unit 100 has a microcomputer (CPU), a RAM 10a, and a ROM 10b, and controls the operation of each of the above-described members of the projector unit 10 organically to control the operation of the projector unit 10 overall. Note that each function of the projector control unit 100 is realized by a program stored in the ROM 10b in the CPU.
[0049]
Further, the projector control unit 100 has an element drive control function 101 for generating an electric signal in order to change a reflection angle of a minute mirror of the display element 123, and further includes a correction value for correcting distortion of a projected image. Is provided. The correction value calculation function 102 calculates a correction value for correcting distortion of a projected image based on a photographing magnification ratio calculated by a camera control unit 200 described later.
[0050]
The USB I / F 130 is a communication interface conforming to the USB standard for enabling communication between the projector control unit 100 and the camera unit 20.
[0051]
<(1-2-2) Internal Configuration of Camera Unit>
As shown in FIG. 2, the camera unit 20 mainly includes a camera control unit 200, a photographing function unit 210, an image memory 220, and a USB I / F 230.
[0052]
The photographing function unit 210 performs image signal processing in order to acquire an image, and includes a photographing lens 20R, a lens driving circuit 212, an image sensor 213, an image sensor driving circuit 214, a signal processing circuit 215, an A / D converter. 216, a WB circuit 217, a gamma correction circuit 218, and a color conversion / color correction circuit 219.
[0053]
The image sensor 213 is a general CCD, and converts an optical image of a subject formed by the photographing lens 20R into image signals of R, G, and B color components (from a signal train of pixel signals received by each pixel). ) And output. The image sensor driving circuit 214 generates various timing pulses for controlling driving of the image sensor 213.
[0054]
The exposure control in the photographing function unit 210 is performed by adjusting the aperture of the photographing lens 20R by the lens driving circuit 212 and the exposure amount of the image sensor 213, that is, the charge accumulation time of the image sensor 213 corresponding to the shutter speed. Here, when an appropriate shutter speed cannot be set when the subject luminance is low, the improper exposure due to insufficient exposure is corrected by adjusting the level of the image signal output from the image sensor 213. That is, when the luminance is low, exposure control is performed by combining the aperture, the shutter speed, and the gain adjustment of the signal processing circuit 215.
[0055]
The image sensor drive circuit 214 generates a drive control signal for the image sensor 213 based on a reference clock transmitted from the camera control unit 200. The image sensor drive circuit 214 outputs clock signals such as integration start / end (exposure start / end) timing signals and readout control signals (horizontal synchronization signal, vertical synchronization signal, transfer signal, etc.) of the light receiving signal of each pixel. Generate and output to the image sensor 213.
[0056]
The signal processing circuit 215 performs predetermined analog signal processing on an image signal (analog signal) output from the image sensor 213. The signal processing circuit 215 has a CDS (correlated double sampling) circuit and an AGC (auto gain control) circuit, performs noise reduction processing of an image signal by the CDS circuit, and adjusts the gain by the AGC circuit. Adjust the signal level.
[0057]
The A / D converter 216 converts each pixel signal of the image signal output from the signal processing circuit 215 into a digital signal. The A / D converter 216 converts each pixel signal (analog signal) into a digital image signal (for example, an 8-bit digital image signal) based on an A / D conversion clock input from a timing generation circuit (not shown). Convert to
[0058]
A WB (white balance) circuit 217 converts the pixel values of the pixel data of each of the R, G, and B color components output from the A / D converter 216, thereby converting the image data (photographed image) into a WB image. The correction is performed. For example, the WB circuit 217 adjusts the pixel values of the R, G, and B color components based on the color component values (RGB values of all pixels) of the image data. This WB correction will be further described later.
[0059]
The γ correction circuit 218 corrects the gradation characteristics of the image data (captured image) input from the WB circuit 217. This gradation correction will be further described later.
[0060]
The color conversion / color correction circuit 219 converts the color space of the image data input from the γ correction circuit 218 into, for example, a YCrCb system, and performs color correction for improving color reproducibility.
[0061]
The image memory 220 is a memory that temporarily stores image data (captured image) obtained by the image sensor 213 and subjected to the above-described image processing. The image memory 220 has a storage capacity of at least several frames. That is, the image memory 220 has at least a storage capacity for several frames of pixel data corresponding to the number of pixels of the image sensor 213, and each pixel data is stored at a corresponding pixel position.
[0062]
The USB I / F 230 is a communication interface conforming to the USB standard for enabling communication with the projector unit 10 and the personal computer 30. The USB I / F 230 is connected to the USB I / F 130 of the projector unit 10 via a cable, and is connected to the projector control unit 100 and the camera control unit. Data transmission / reception with the unit 200 is possible.
[0063]
The camera control unit 200 has a microcomputer (CPU), a RAM 20a, and a ROM 20b, and controls the driving of each member of the camera unit 20 organically to control the operation of the camera unit 20 overall. Each function of the camera control unit 200 is realized by the CPU executing a program stored in the ROM 20b.
[0064]
In addition, the camera control unit 200 performs an image (projected image) optically projected on the whiteboard W by the projector unit 10 and an image (captured image) obtained by capturing the whiteboard W by the camera unit 20. It has various functions for correcting gradation characteristics, WB and distortion. Further, the camera control unit 200 also has a function of photographing the writing on the whiteboard W and recording the contents of the conference.
[0065]
FIG. 3 is a block diagram for explaining various functions of the camera control unit 200. FIG. 3 specifically illustrates functions realized by the CPU.
[0066]
As shown in FIG. 3, a camera control unit 200 includes a WB control function 201 for controlling WB correction for a projected image and a captured image, and a tone control function for correcting a tone characteristic for a projected image and a captured image. 202 is provided. In addition, the camera control unit 200 includes an AF area extraction function 203, an evaluation value calculation function 204, a focus control function 205, and a distance calculation function 206 for correcting distortion in the projected image and the captured image.
[0067]
Note that the various functions shown in FIG. 3 will be described in detail later when white balance (WB) correction, gradation characteristic correction, image distortion correction, and recording of conference contents are specifically described. I do.
[0068]
<(1-2-3) @ Internal configuration of personal computer>
As shown in FIG. 2, the personal computer 30 includes a storage unit 32, an output I / F 33, a USB I / F 34, an LCD 35, and a PC control unit 300.
[0069]
The storage unit 32 is composed of, for example, a hard disk or the like, and stores programs and image data described later. The image data stored in the storage unit 32 is image data that is a source of a projected image projected from the projector unit 10 onto the whiteboard W. In the following, the image data on which the projected image is based is referred to as a “projected original image”.
[0070]
The output I / F 33 is an interface for transmitting data to the projector unit 10. Specifically, an analog RGB signal output from the PC control unit 300 is transmitted to the analog RGB decoder 111 of the projector unit 10.
[0071]
The USB I / F 34 is a communication interface conforming to the USB standard for enabling communication with the camera unit 20. The USB I / F 34 is connected to a USB I / F 230 of the camera unit 20 by a cable, and is connected to the camera control unit 200 and the PC control unit 300. It is possible to transmit and receive data between.
[0072]
The LCD 35 is a display device for displaying an image based on image data or the like stored in the storage unit 32.
[0073]
The PC control unit 300 has a microcomputer (CPU), a RAM 30a, and a ROM 30b, and is a unit that integrally controls each unit of the personal computer 30. Then, a program stored in the storage unit 32 is loaded into the RAM 30a of the PC control unit 300 and executed by the CPU, thereby realizing various functions of the PC control unit 300. The functions of the PC control unit 300 include, for example, an analog RGB encoder function 301, a correction value calculation function 302, an image correction function 303, an area extraction function 304, and an image synthesis function 305.
[0074]
Further, the PC control unit 300 executes a program (projection program) for controlling the operation of the camera-equipped projector 2 stored in the storage unit 32, so that the camera-equipped projector 2 and the personal computer 30 operate as the projection system 1. Execute. That is, in the projection system 1, the projector unit 10 and the camera unit 20 are controlled by the personal computer 30 via the USBs 34, 130, and 230.
[0075]
For example, when the user operates a keyboard or the like (not shown) provided in the personal computer 30, the PC control unit 300 executes a projection program for controlling the operation of the projector with camera 2. When the user performs various operations on the keyboard and the like, operations such as WB correction, gradation characteristic correction, image distortion correction, and recording of meeting contents, which are characteristic parts of the present invention, are executed. Note that these operations will be described later in detail.
[0076]
When the user operates a keyboard or the like of the personal computer 30 to start projection of an image by the projector unit 10, the PC control unit 300 reads an original projection image from the storage unit 32. Then, an analog RGB signal is generated by the analog RGB encoder function 301 and transmitted to the projector unit 10 via the output I / F 33. Further, an image (projected original image) having the same contents is displayed on the LCD 35 in synchronization with the projection image projected on the whiteboard W by the projector unit 10.
[0077]
Further, the PC control unit 300 acquires image data (captured image) from the camera unit 20 via the USB I / F 34 by a user's operation of a keyboard or the like. Note that this photographed image is an image obtained by photographing the whiteboard W.
[0078]
The correction value calculation function 302 calculates a correction value for correcting a distortion of a captured image based on a shooting magnification ratio calculated by a camera control unit 200 described later. The image correction function 303 corrects the distortion of the captured image based on the distortion correction value calculated by the correction value calculation function 302. Further, the range that can be photographed by the camera unit 20 includes all the projection area where the image is projected on the whiteboard W, and also includes the surrounding area. The extraction and enlargement processing of the projection area is performed so that the area corresponding to the projection area occupies the entire captured image. The calculation of the correction value in the correction value calculation function 302, the distortion correction of the captured image in the image correction function 303, and the extraction and enlargement processing of the projection area will be described later in detail when describing the operation.
[0079]
By the way, when the PC control unit 300 obtains image data from the camera unit 20, the content of the meeting is simply determined by capturing the whiteboard W to obtain a captured image, or by capturing the whiteboard W and capturing it together with the projected image. May be recorded. If a captured image is simply obtained, the storage unit 32 stores the captured image on which the distortion correction of the captured image has been performed by the image correction function 303. On the other hand, if the contents of the meeting are recorded together with the projected image, the region extraction function 304 performs a distortion correction of the captured image by the image correction function 303, and a region extraction function 304 from the captured image subjected to the extraction / enlargement processing of the projection region. An area corresponding to a portion to which a color or the like is directly added by, for example, manually writing directly on the whiteboard W using the marker MK or the like is extracted. That is, the region extracting function 304 functions as a unit that extracts a region corresponding to a visual element directly attached to the whiteboard W (projection plane) from an image acquired by the camera unit 20.
[0080]
Then, the image synthesis function 305 performs data synthesis (specifically, as digital data) of the area extracted by the area extraction function 304 and a projection original image to be projected on the whiteboard W (projection plane) by the projector unit 10. (Compositing) to generate image data, and store it in the storage unit 32.
[0081]
The processing in the area extracting function 304 and the image synthesizing function 305 will be described later in detail when describing the operation.
[0082]
<(1-3) Description of operation of projection system>
<(1-3-1) WB correction of projected image>
In the personal computer 30, when the user performs various operations on the keyboard and the like of the personal computer 30 while the projection program is being executed, the operation of WB correction of the projected image is executed.
[0083]
Hereinafter, the operation of WB correction of a projected image will be described with reference to FIGS.
[0084]
When the operation of the WB correction of the projected image starts, a photographing signal is transmitted from the PC control unit 300 to the camera control unit 200 to perform photographing for the WB correction of the projected image. Then, the camera control unit 200 transmits a command to the projector unit 10 and synchronizes with the vertical synchronizing signal in the next field, regardless of the input of the analog RGB signal from the personal computer 30. The image data is set so as to be gray, which is an achromatic color, and to have a spatially uniform image level. That is, in synchronization with the next vertical synchronizing signal, the projector unit 10 projects achromatic gray light on the entire surface of the whiteboard W as the projection surface. For example, when the digital image data is 8-bit data, the entire gray light can be generated by setting each pixel value of each color of RGB to be 100/255 gradation.
[0085]
The achromatic color light projected from the projector unit 10 is not limited to the whole gray color in which each pixel value of each color of RGB is set to be 100/255 tones, but other colors. May be set as follows. However, from a human visual point of view, it is preferable that the light be an achromatic color light having a middle gradation such that each pixel value of each color of RGB is 100/255 gradation.
[0086]
On the other hand, the camera control unit 200 issues a trigger signal for photographing to the image sensor driving circuit 214, and the camera unit 20 projects achromatic gray light in the entire surface in synchronization with the next vertical synchronization signal. A digital image is obtained by photographing the whiteboard W (projection plane). At this time, under the control of the camera control unit 200, the lens drive circuit 212 adjusts the aperture value of the photographing lens 20R so that the exposure amount exceeds the allowable amount of the image sensor 213 and the output of the image sensor 213 does not saturate. Set to a predetermined aperture value. Here, since the shutter speed is determined by the vertical synchronizing signal, the entire gray light is projected from the projector unit 10 and the light emission amount is also determined, the predetermined aperture value is easily adjusted so that the output of the image sensor 213 is not saturated. Can be set to
[0087]
The WB control function 201 of the camera control unit 200 shown in FIG. 3 outputs the light from the A / D converter 216 when the projector unit 10 projects substantially uniform light of gray on the entire surface onto the whiteboard W for shooting. To obtain a digital image signal. Then, based on the obtained digital image signal, the ratio of R / G and B / G pixel values is calculated for each pixel, and the average value (Rs / Gs, Bs / Gs) for all pixels is calculated. It is determined (gr, gb). In order to increase the efficiency of the calculation, the image may be divided into a plurality of blocks having a predetermined area, and gr and gb may be obtained only from the pixels representative of each block. May be used to determine gr and gb.
[0088]
Next, the WB control function 201 sets a WB correction value for WB correction on the projection image based on the calculated (gr, gb).
[0089]
FIG. 4 is a diagram for explaining a method of setting a WB correction value in the WB control function 201. In FIG. 4, a point 510 is located at coordinates (gr, gb) in the XX-YY coordinate system. As the value of the XX coordinate of the coordinates (gr, gb) is larger and the value of the YY coordinate is smaller, Rs / Gs becomes larger than Bs / Gs, so that the original image is reddish. Conversely, as the value of the XX coordinate is smaller and the value of the YY coordinate is larger, Rs / Gs is smaller than Bs / Gs, so that the original image is bluish. Therefore, a point near the straight line Le extending at an angle of 45 ° from the origin is a point corresponding to an image in which WB is adjusted.
[0090]
As shown in FIG. 4, a predetermined region Ra is set in the XX-YY coordinate system according to a preset WB setting, and is affected by external light, the color of the projection surface, the deterioration of the light source 121, and the like. As shown in a point 510, when the coordinates (gr, gb) are not within the predetermined area Ra, the WB is changed so that the position of the point 510 is converted to the closest position (point 511) in the area Ra. Set the correction value. When the point 510 is included in the region Ra, the position of the point 510 is not converted, so that the WB correction value is not set. If the coordinates (gr, gb) are not within a certain range, it is regarded as abnormal data and no WB correction value is set.
[0091]
The WB correction value for the projection image set in the WB control function 201 is transmitted to the projector control unit 100. Then, the projector control unit 100 changes the LUT (conversion table) according to the received WB correction value, and changes the display color temperature of the image projected from the projector unit 10 by the element drive control function 101. That is, here, the element drive control function 101 is projected on the whiteboard W by the projector unit 10 based on the image obtained by photographing the whiteboard W on which the entire gray light is projected by the projector unit 10. Function as a means for correcting the white balance of the projected image.
[0092]
<(1-3-2) WB correction of captured image>
When the user performs various operations on the keyboard and the like of the personal computer 30 while the projection program is being executed on the personal computer 30, the WB correction operation of the captured image is executed.
[0093]
In the above-described WB correction operation on the projected image, the entire gray light is projected from the projector unit 10 onto the whiteboard W during the WB correction shooting. In the WB correction operation on the captured image, for example, the WB correction is performed. At the time of shooting, the projector unit 10 projects substantially uniform white light over the entire surface of the white board W as achromatic light. That is, in synchronization with the image capturing by the camera unit 20, the projector unit 10 projects achromatic white light on the entire whiteboard W, which is a projection surface. For example, when the digital image data is 8-bit data, the entire white light can be generated by setting each pixel value of each color of RGB to have the maximum luminance, that is, 255/255 gradations.
[0094]
Note that the color of the achromatic color light projected from the projector unit 10 is not limited to a white color in which the pixel values of each of the RGB colors are set to have 255/255 gradations. The color may be the same as the color of the light that is projected as illumination light for photographing from the projector unit 10 when the directly described or pasted material or the like is photographed by the camera unit 20.
[0095]
Until the setting of the WB correction value for the captured image, the light projected from the projector unit 10 to the whiteboard W during the shooting for the WB correction is different from the setting of the WB correction value for the projection image only. A function 201 sets a WB correction value for a captured image in the same manner as setting a WB correction value for a projection image.
[0096]
When the WB correction value is set, the set values of the R, G, and B gains in the WB circuit 217 are obtained. Then, the WB correction is performed on the captured image obtained by the camera unit 20 in the WB circuit 217 based on the obtained gain setting value. That is, here, the WB circuit 217 controls the whiteboard W by the camera unit 20 based on an image obtained by shooting the whiteboard W on which achromatic white light is projected by the projector unit 10. It functions as a means for correcting a white balance of a photographed image obtained by photographing.
[0097]
As described above, here, when the user operates the keyboard or the like of the personal computer 30 variously while the projection program is being executed on the personal computer 30, the whiteboard W (projection surface) on which the achromatic light is projected is photographed. To get an image. Then, based on the obtained image, the WB is corrected for at least one of a projection image projected on the whiteboard W and a captured image obtained by capturing the whiteboard W. As a result, it is possible to correct a change in the color tone of the projected image or the captured image due to the influence of the unique color of the surface of the whiteboard W, the color of the external light, the color of the light source 121, and the like.
[0098]
Note that the above-described WB correction operation may be performed at the start of use of the projection system 1 and every time a predetermined time elapses from the start of use. With such a configuration, it is possible to cope with a case where the influence of external light changes over time. Here, the timing for projecting the achromatic light and the timing for shooting are synchronized, and the time for projecting the achromatic light is very short. , And the projected image is not difficult to see.
[0099]
<(1-3-3) Correction of gradation characteristics>
In the personal computer 30, when the user executes various operations on the keyboard or the like of the personal computer 30 while the projection program is being executed, the operation of correcting the gradation characteristics of the projected image or the photographed image is executed.
[0100]
Hereinafter, the operation of correcting the gradation characteristic will be described with reference to FIGS.
[0101]
When the operation of correcting the gradation characteristic is started, a photographing signal is transmitted from the PC control unit 300 to the camera control unit 200 to perform photographing for gradation characteristic correction. Then, the camera control unit 200 transmits a command to the projector unit 10 and synchronizes with the vertical synchronization signal in the next field, regardless of the input of the analog RGB signal from the personal computer 30, regardless of the digital image stored in the frame memory 112. The data is set so as to be a gray scale chart which is a pattern in which the gradation stored in the ROM 10b changes stepwise. Therefore, in synchronization with the next vertical synchronizing signal, the projector unit 10 projects a pattern (gray scale chart) whose luminance changes stepwise on the whiteboard W. A specific example of the gray scale chart will be described later.
[0102]
In response to this, the camera control unit 200 issues a trigger signal for shooting to the image sensor driving circuit 214, and in synchronization with the next vertical synchronization signal, the camera unit 20 causes the brightness projected on the whiteboard W to change stepwise. An image is obtained by photographing a pattern that changes gradually (gradual gradation distribution pattern). At this time, under the control of the camera control unit 200, the lens drive circuit 212 adjusts the aperture value of the photographing lens 20R so that the exposure amount exceeds the allowable amount of the image sensor 213 and the output of the image sensor 213 does not saturate. Set to a predetermined aperture value. Here, since the shutter speed is determined by the vertical synchronization signal, the gray scale chart is projected from the projector unit 10 and the light emission amount is also determined, the predetermined aperture value is easily adjusted so that the output of the image sensor 213 is not saturated. Can be set.
[0103]
Next, in the gradation control function 202 of the camera control unit 200 shown in FIG. 3, when the gray scale chart is projected from the projector unit 10 onto the whiteboard W and the image is captured, the gray scale chart is output from the A / D converter 216. A correction value for gradation characteristic correction is calculated based on the digital image signal.
[0104]
Here, a method of calculating a correction value for gradation characteristic correction in the gradation control function 202 will be described.
[0105]
FIG. 5 is a schematic diagram illustrating an image G1 based on a digital image signal output from the A / D converter 216 at the time of photographing for gradation characteristic correction. In FIG. 5, the inside of the frame PS is a portion corresponding to the gray scale chart projected from the projector unit 10.
[0106]
The gray scale chart has achromatic regions S1 to S7 in which luminance changes at regular intervals and in steps. Here, the region S1 is white and the region S7 is black, and the brightness is set so as to gradually decrease in the order of the regions S1 to S7. Further, the gray scale chart is set so that portions other than the regions S1 to S7 have an achromatic color having the same luminance as that of the region S4.
[0107]
In addition, as shown in FIG. 5, the projection area projected on the whiteboard W by the projector unit 10 does not completely match the area on the whiteboard W captured by the camera unit 20. Therefore, the gradation control function 202 uses the image data on the broken line SL1 extending to the left and right at the center of the image G1, which is considered to surely include the regions S1 to S7 of the gray scale chart. If the number of pixels of the image sensor 213 is 1024 × 768, left and right data that do not correspond to the regions S1 to S7 are excluded from the data of 1024 pixels on the broken line SL1. For example, looking at the change in the luminance from the −X direction to the + X direction on the broken line SL1, the luminance (pixel value) increases significantly at the region S1 and significantly increases at the position exiting the region S7 (pixel value). ), The exclusion of left and right data can be easily achieved by detecting changes in brightness.
[0108]
Thereafter, the gradation control function 202 obtains an average value of the pixel values of each of the regions S1 to S7 from the pixel values of the obtained image data and the positional relationship between the regions S1 to S7. Then, the pixel value of the brightest area S1 of the gray scale chart is set to 1, and the pixel values of the areas S2 to S7 are converted based on the pixel value. That is, here, the ratio of the brightness of the regions S2 to S7 based on the brightness of the region S1 is obtained.
[0109]
FIG. 6 is a schematic diagram illustrating the ideal brightness ratio of the regions S1 to S7. In FIG. 6, the horizontal axis indicates the position in the X direction in the image G1, and the vertical axis indicates the brightness ratio. In addition, the brightness ratios corresponding to the regions S1 to S7 are shown as Step1 to Step7. As shown in FIG. 6, in an ideal case where there is no influence of external light, assuming that the brightness ratio of Step 1 is 1, the brightness ratio of Step 7 is 0.05.
[0110]
FIG. 7 is a schematic view illustrating a brightness ratio when there is an influence of external light. In FIG. 7, the solid line indicates the brightness ratio when there is the influence of external light, and the broken line indicates the ideal brightness ratio shown in FIG. 6 for reference.
[0111]
As shown in FIG. 7, when there is an influence of external light, the difference in brightness between Step 5 and Step 7 is significantly reduced. In such a case, a portion of the projection image projected on the whiteboard W having a low luminance has a blackout condition or the like, and an intended image cannot be projected. In order to solve such a problem, here, the gradation control function 202 calculates a correction value for gradation characteristic correction to correct the gradation characteristic.
[0112]
FIG. 8 is a diagram for explaining a method of calculating a correction value for gradation characteristic correction. In FIG. 8, the solid line shows the ideally corrected brightness ratio when there is an influence of external light shown in FIG. 7, and the broken line shows the ideal brightness ratio shown in FIG. Is shown for reference.
[0113]
As illustrated in FIG. 8, the gradation control function 202 determines that the brightness ratios of Step 1 to Step 7 are equally spaced and based on the brightness ratio of Step 1 and Step 7 when there is the influence of external light illustrated in FIG. 7. The brightness ratio is calculated so as to decrease in order. The calculated brightness ratio is obtained by ideally correcting the brightness ratio when there is an influence of external light shown in FIG. Note that the gradation control function 202 is configured such that the brightness ratio of Step 1 to Step 7 decreases at regular intervals and in order, but the present invention is not limited to this, and correction may be made so that specific brightness is emphasized. good.
[0114]
As shown in FIG. 8, the difference in brightness between Step 1 to Step 7 is smaller than the difference between ideal brightness between Step 1 and Step 7 shown in FIG. 6, but the difference between the brightness between Step 5 and Step 7 is smaller. The problem that the difference is significantly reduced has been solved. Therefore, the tone control function 202 calculates a tone conversion characteristic for ideally correcting the brightness ratio shown in FIG. 7 to the brightness ratio shown in FIG. 8 from the brightness ratio under the influence of external light. I do.
[0115]
FIG. 9 is a diagram illustrating a gradation conversion characteristic when there is an influence of external light. In FIG. 9, the horizontal axis indicates the gradation characteristics before the conversion, the vertical axis indicates the gradation characteristics after the conversion, and the curve 9C indicates the relationship between the gradation characteristics before and after the conversion (the gradation conversion). Characteristic). This gradation conversion characteristic is a correction value for gradation characteristic correction for ideally correcting the brightness ratio under the influence of external light shown in FIG. 7 to the brightness ratio shown in FIG. It becomes.
[0116]
The camera control unit 200 transmits the correction value (tone conversion characteristic) for the tone characteristic correction calculated by the tone control function 202 to the projector control unit 100 via the USB I / Fs 130 and 230. Then, the projector control unit 100 corrects the LUT (conversion table) stored in the ROM 10b according to the correction value for correcting the gradation characteristic. After the LUT is corrected, a projection image considering the influence of external light and the like is projected on the whiteboard W under the control of the element drive control function 101.
[0117]
Therefore, here, the element drive control function 101 performs the projector unit based on an image acquired by photographing the whiteboard W onto which the pattern in which the luminance changes stepwise by the projector unit 10 is captured by the camera unit 20. 10 functions as means for correcting the gradation characteristics of the projection image projected on the whiteboard W.
[0118]
Further, as described above, even when writing on a whiteboard W, or attaching a document or a photograph when photographing, the gradation characteristics of the photographed image may be affected by the influence of external light, the reflectance of the whiteboard W, and the like. May change. Therefore, here, in order to suppress such a change in the gradation characteristic of the captured image, the gradation control function 202 corrects the gradation characteristic correction value (gradation conversion characteristic) calculated by the above method. Is used. Specifically, the correction value calculated by the gradation control function 202 is set as a correction value in the γ correction circuit 218 in the projector control unit 100. When the correction value in the γ correction circuit 218 is set as described above, thereafter, the gradation characteristics of the captured image can be corrected in consideration of the influence of external light and the like.
[0119]
Therefore, here, the γ correction circuit 218 performs the camera unit 20 based on an image obtained by photographing the whiteboard W onto which the pattern in which the luminance changes stepwise by the projector unit 10 is captured by the camera unit 20. Functions as a means for correcting a gradation characteristic of a photographed image obtained by photographing the whiteboard W.
[0120]
As described above, here, the pattern in which the luminance changes stepwise is projected on the whiteboard W (projection surface), and the pattern is photographed to acquire an image. Then, based on the acquired image, the gradation of at least one of a projected image projected on the whiteboard W and a photographed image obtained by photographing the whiteboard W (projection surface) or the like is obtained. Correct the characteristics. As a result, it is possible to correct a change in the gradation characteristic of the projection image or the captured image due to the influence of external light, the optical reflectance on the surface of the whiteboard W, and the like.
[0121]
Note that the above-described calculation of the correction value for gradation characteristic correction may be performed at the start of use of the projection system 1 and every time a predetermined time elapses from the start of use. With such a configuration, it is possible to cope with a case where the influence of external light or the like changes over time. And here, the timing of projecting the grayscale chart and the timing of shooting are synchronized, and the time of projecting the grayscale chart is very short, so that a person who is watching the projected image notices. And the projected image is not difficult to see.
[0122]
Further, in the above-described correction of the gradation characteristics, the gray scale chart is projected on the white board W. However, the present invention is not limited to this. For example, three patterns in which the luminance of the three colors of RGB changes stepwise are used. The three patterns may be separately projected, the three patterns may be separately photographed, and the correction values for the gradation characteristic correction may be calculated for each of the three colors RGB. However, when the pattern in which the luminance changes stepwise is set to a pattern in which the achromatic luminance changes stepwise as in a gray scale chart, the correction value can be calculated only by photographing one pattern. It is possible to efficiently correct the gradation characteristics of a projected image or a captured image.
[0123]
As described above, a correction value for WB correction can be calculated and set based on an image obtained by photographing a gray scale chart. With such a configuration, WB correction and correction of gradation characteristics can be efficiently performed.
[0124]
<(1-3-4) Image distortion correction>
FIG. 10 is a schematic view exemplifying a case of projecting and photographing from an oblique direction with respect to the whiteboard W. FIG. 10 is a view of the whiteboard W and the projector with camera 2 as viewed from directly above. In FIG. 10, a solid line 10L schematically showing the angle of view of the projection lens 10R and the angle of view of the photographing lens 20R. A dotted line 20L is schematically shown. In the state shown in FIG. 10, the optical axes of the projection lens 10R and the photographing lens 20R substantially coincide with the Y axis, and the whiteboard W is rotated about the Z axis by an angle θ with respect to the XZ plane. Placed in the position.
[0125]
Hereinafter, distortion correction of a captured image and a projected image will be described by taking as an example a case where a whiteboard W and a projector with a camera 2 are arranged as shown in FIG.
[0126]
FIG. 11 shows a state in which the projection image Sm1 projected on the whiteboard W is projected from the projector unit 10 without correcting distortion of the projection image described later, in front of the whiteboard W (in the direction normal to the projection plane of the whiteboard W). FIG. At this time, as shown in FIG. 11, a trapezoidal distortion occurs in the projection image Sm1. That is, here, when performing oblique projection in which an image is projected from a diagonal direction on the whiteboard W due to the relative positional relationship between the whiteboard W and the projector unit 10, the projected image on the whiteboard W is Distorted.
[0127]
In such a case, there arises a problem that the content intended by the creator of the image cannot be accurately transmitted to the people who participated in the conference. Therefore, here, it is necessary to correct the trapezoidal distortion caused by the oblique projection as shown in FIG. 11 to obtain a projection image Sm1 ′ as projected from the front of the whiteboard W as shown in FIG. .
[0128]
FIG. 13 is a schematic diagram illustrating a photographed image obtained when the camera unit 20 performs oblique photographing in which the whiteboard W is photographed in an oblique direction without performing distortion correction of a photographed image described later. . Although the size of each character “ABCD” shown in FIG. 13 is substantially the same, trapezoidal distortion occurs in the photographed image by oblique photographing, and the right end dimension is smaller than the left end dimension.
[0129]
In such a case, when data and the like are difficult to read, or when a photographed image obtained by photographing writing on a whiteboard W described later and a projection original image for projection are combined with data, A deviation from the original projection image occurs. Therefore, here, as shown in FIG. 13, it is necessary to correct a trapezoidal distortion or the like caused by oblique photographing, and to obtain an image photographed from the front of the whiteboard W as shown in FIG.
[0130]
Hereinafter, the operation of correcting the distortion of the projected image and the captured image caused by the relative positional relationship between the camera-equipped projector 2 and the whiteboard W will be described with reference to FIGS.
[0131]
When the user performs various operations on the keyboard or the like of the personal computer 30 while the projection program is being executed in the personal computer 30, a distortion correction operation of the projection image is executed, or a distortion correction operation of the photographed image starts, and the camera unit is started. 20 photographs the whiteboard W and corrects the distortion of the acquired photographed image.
[0132]
When the distortion correction operation is started, an imaging signal is transmitted from the PC control unit 300 to the camera control unit 200 in order to execute imaging for distortion correction. Then, the camera control unit 200 transmits a command to the projector unit 10 and synchronizes with the vertical synchronization signal from the next field regardless of the input of the analog RGB signal from the personal computer 30, regardless of the input of the analog RGB signal. The image data is set so as to be a pattern (focus detection pattern) capable of detecting the distance between each position of the whiteboard W and the camera-equipped projector 2. Therefore, the projector unit 10 projects a pattern for focus detection on the whiteboard W in synchronization with the next vertical synchronization signal.
[0133]
FIG. 15 is a diagram illustrating a focus detection pattern AFP projected from the projector unit 10 onto the whiteboard W. For convenience of illustration, FIG. 15 is drawn with black and white inverted. However, the focus detection pattern AFP includes a bright white frame PF that is a rectangular outline portion, a plurality of focus detection portions A1 to A5, and black. Background BG. Each of the portions A1 to A5 is a striped region in which a plurality of white lines are arranged, and is distributed and arranged substantially at the center and four corners of the focus detection pattern AFP.
[0134]
In response to this, the camera control unit 200 issues a trigger signal for photographing to the image sensor driving circuit 214, and the camera unit 20 synchronizes with the next vertical synchronization signal to cause the camera unit 20 to detect the focus projected on the whiteboard W. By capturing a pattern, an image related to a focus detection pattern composed of a plurality of pixels is input. At this time, under the control of the camera control unit 200, the aperture of the photographing lens 20R is set close to the opening so that focus detection becomes easy. Therefore, the brightness of the focus detection pattern AFP projected from the projector unit 10 is set so that the exposure amount exceeds the allowable amount of the image sensor 213 and the output of the image sensor 213 does not saturate.
[0135]
Here, since the shutter speed is determined by the vertical synchronization signal and the aperture of the photographing lens 20R is almost opened, the brightness of the focus detection pattern AFP is easily set so that the output of the image sensor 213 does not saturate. be able to.
[0136]
Next, a digital image signal is output from the A / D converter 216 to the camera control unit 200 when the focus detection pattern AFP is projected from the projector unit 10 onto the whiteboard W and shooting is performed.
[0137]
FIG. 16 is a schematic diagram illustrating an image G3 obtained by photographing the whiteboard W onto which the focus detection pattern AFP is projected by the camera unit 20. In FIG. 16, the inside of the frame PF ′ is an area corresponding to the focus detection pattern AFP projected from the projector unit 10. As shown in FIG. 16, areas A1 'to A5' surrounded by dotted lines are areas for focus detection corresponding to portions A1 to A5 for focus detection. A portion where the focus detection pattern AFP is not projected from the projector section 10 is a dark area.
[0138]
Therefore, the AF area extraction function 203 shown in FIG. 3 extracts the outer edge of the bright white frame PF ′ by a change in color or gradation, etc., so that the boundary pixel of the area where the focus detection pattern AFP is projected is displayed. Can be detected. Then, the AF area extraction function 203 specifies the positions of the areas A1 'to A5' for focus detection, and extracts the image data of the areas A1 'to A5'. The positions of the regions A1 'to A5' for focus detection can be easily specified by, for example, a positional relationship with the frame PF 'or a change in luminance.
[0139]
The evaluation value calculation function 204 captures the image data of the areas A1 'to A5' from the AF area extraction function 203, and evaluates the contrast of each area. That is, the evaluation value calculation function 204 obtains the evaluation value as the sum of the contrast values between adjacent pixels in the areas A1 'to A5', similarly to the one performed in the contrast type autofocus operation.
[0140]
Then, the focus control function 205 sends a control signal to the lens drive circuit 212 to perform shooting several to several tens of times while gradually changing the focal position of the shooting lens 20R. As described above, the evaluation value calculation function At 204, the evaluation values for the areas A1 'to A5' are calculated. That is, the focus control function 205 functions as a unit that controls the focus of the photographing lens 20 </ b> R in the camera unit 20, and the evaluation value calculation function 204 performs the plurality of focus detections in the image G <b> 3 related to the focus detection pattern AFP. Each of the areas A1 ′ to A5 ′ corresponding to the parts A1 to A5 functions as a unit that calculates an evaluation value regarding the focusing state of the photographing lens 20R.
[0141]
FIG. 17 is a schematic diagram illustrating curves C14, C3, and C25 representing the relationship between the evaluation values calculated for the regions A1 'to A5' and the position of the imaging lens 20R in the optical axis direction. In FIG. 17, the horizontal axis indicates the lens position X and the vertical axis indicates the evaluation value C, and the curves C14, C3, and C25 are the evaluation values in the areas A1 'and A4', the area A3 ', and the areas A2' and A5 ', respectively. The relationship between C and the lens position X is shown.
[0142]
As shown in FIG. 17, the distance calculation function 206 determines the lens position X = X1 at which the evaluation value of the curve C14 becomes the maximum and the lens position at which the evaluation value of the curve C3 becomes the maximum in order from the retraction side to the retraction side. X = X2, the lens position X = X3 where the evaluation value of the curve C25 is maximum is detected. Then, the distance calculation function 206 calculates distances from the camera-equipped projector 2 to the portions A1 to A5 projected on the whiteboard W by calculating focal positions corresponding to the lens positions X = X1, X2, and X3. I do. Here, the distance to the parts A1 and A4 is calculated as L1, the distance to the part A3 is calculated as L2, and the distance to the parts A2 and A5 is calculated as L3.
[0143]
Here, when distortion correction of a captured image is performed, the camera unit 20 acquires a captured image to be subjected to distortion correction.
[0144]
Specifically, a photographing signal for photographing the whiteboard W is transmitted from the PC control unit 300 to the camera control unit 200. Then, the camera control unit 200 transmits a command to the projector unit 10, and in synchronization with the vertical synchronization signal, the next field stores the digital image stored in the frame memory 112 regardless of the input of the analog RGB signal from the personal computer 30. The data is set so as to be a bright white image. Accordingly, bright light of white color is projected on the entire whiteboard W.
[0145]
On the other hand, the camera control unit 200 outputs a trigger signal for shooting to the image sensor driving circuit 214, and the camera unit 20 synchronizes with the next vertical synchronizing signal to project a white board on which white bright light is projected. W is photographed. At this time, the lens drive circuit 212 sets the aperture value of the photographing lens 20R to a predetermined aperture value so that the exposure amount exceeds the allowable amount of the image sensor 213 and the output of the image sensor 213 does not saturate. Here, since the shutter speed is determined by the vertical synchronization signal, the light emission from the projector unit 10 is entirely white light, and the light emission amount is also determined, the predetermined aperture value is easily set so that the output of the image sensor 213 does not saturate. Can be set to
[0146]
The photographed image photographed and acquired by the camera unit 20 is subjected to processing of each unit of the photographing function unit 210, and is transferred to the PC control unit 300 under the control of the camera control unit 200.
[0147]
Here, a method of calculating a correction value for distortion correction will be briefly described.
[0148]
FIG. 18 is a diagram for explaining a method of calculating a correction value for distortion correction. FIG. 18 is a schematic diagram illustrating a positional relationship between the whiteboard W, the photographing lens 20R, and the image sensor 213 in a plan view. In FIG. 18, points P, F, and G are points on the whiteboard W, the point P corresponds to the position of the center of the portion A3 projected on the whiteboard W, and the point F is on the whiteboard W. The point G corresponds to the center position of the projected portions A1 and A4, and the point G corresponds to the center position of the projected portions A2 and A5 on the whiteboard W.
[0149]
In FIG. 18, L is the optical axis of the photographing lens 20R. Point A is the intersection of the imaging plane of the imaging element 213 and the optical axis L. N0, N1, and N2 are line segments parallel to the imaging surface of the imaging device 213 passing through the points P, F, and G on the whiteboard W, respectively, and N3 is a subject passing through a point A on the imaging surface of the imaging device 213. This is a line segment parallel to the plane (line segment FG). N5 is a line segment indicating the lens surface of the photographing lens 20R. Point O is the intersection of the lens surface of the taking lens 20R and the optical axis L. Point B is the intersection of the extension of the line segment OF and the imaging surface of the imaging element 213. Point C is the intersection of the extension of the line segment OG and the imaging surface of the imaging element 213. A point Q is an intersection between the line segment N1 and the optical axis L, a point R is an intersection between the line segment N2 and the optical axis L, and points D and E are an extension of the line segment N0 and the line segment BF and a line segment GC, respectively. Is the intersection with Points B 'and C' are the intersections of the line segment N3 and the extension lines of the line segment FB and the line segment GC, respectively.
[0150]
As shown in FIG. 18, the light image emitted from the FG on the whiteboard W forms an image on the imaging surface of the image sensor 213. However, since the imaging surface and the whiteboard W are inclined by the inclination angle θ, The light image BC formed on the surface is equivalent to the light image emitted from the DE projected on the imaging surface.
[0151]
The imaging magnifications at points A, B, and C on the imaging surface of the imaging element 213 are respectively Ma, Mb, and Mc, and the object distances are L2 (= OP), L1 (= OQ), and L3 (= OR). Then, since Mb = Ma · OP / OQ = Ma · L2 / L1 and Mc = Ma · OP / OR = Ma · L2 / L3, Mb> Ma> Mc, and the light image formed on the imaging surface is 13, an image distorted in a trapezoidal shape as shown in FIG. 13, and only the point A (intersection between the optical axis L and the imaging plane) is completely in focus in the optical image BC.
[0152]
The photographing magnification M is a constant determined by the photographing lens 20R, and is obtained by K (proportional constant) × f (focal length). Therefore, if the distances L1, L2, and L3 at the points P, F, and G on the whiteboard W are measured, the photographing magnification ratio for the point A can be obtained from L2 / L1 and L2 / L3, and this information is used. Then, a correction value for distortion correction can be calculated. Here, strictly speaking, L2 / L1 and L2 / L3 are different, but even if a correction value is calculated using any one of the values as a representative, the error is extremely small. The correction value may be calculated using the average value of L2 / L1 and L2 / L3.
[0153]
By the way, the distortion correction of the photographed image can be performed by the method disclosed in Patent Document 1, but in the present embodiment, the distortion correction is performed by the image correction function 303 of the personal computer 30.
[0154]
The distance calculation function 206 calculates the photographing magnification ratios L2 / L1, L2 / L3, and transfers them to the correction value calculation function 302 of the PC control unit 300. Then, the correction value calculation function 302 calculates a distortion correction value for correcting the distortion of the captured image based on the imaging magnification ratios L2 / L1 and L2 / L3.
[0155]
The correction value calculation function 302 calculates and sets the reduction magnification of each part of the image so that a high-magnification portion of the captured image can be matched with a low-magnification portion. Here, this reduction magnification is a distortion correction value.
[0156]
The reduction magnification Mb ′ at point B in FIG. 18 is Mc / Mb. Here, the reduction magnification at the pixel position Xi in the horizontal direction (X direction) on the imaging surface of the imaging element 213 is Mi, and points B and C Assuming that the pixel positions in the horizontal direction (X direction) on the imaging surface are Xb and Xc, the following equation (1) holds.
[0157]
(Equation 1)
Figure 2004109246
[0158]
Here, since Xb, Xc, Mb, and Mc are also known, the reduction magnification Mi at the pixel position Xi in the horizontal direction (X direction) on the imaging surface can be obtained from Expression (1). For example, when Mc = 0.9, Mb = 1.1, Xb = 1, and Xc = -1, if Xi = 0.5, the reduction magnification Mi = 0.8635 is calculated from the equation (1). You.
[0159]
As described above, the correction value calculation function 302 calculates the local reduction magnification Mi for all pixels in the X direction on the imaging surface of the imaging element 213. Then, based on the distortion correction value calculated by the correction value calculation function 302, the distortion of the captured image is corrected by the image correction function 303. Specifically, a pixel on the same vertical line at the pixel position Xi is subjected to a reduction process at a reduction ratio Mi. The reduction processing can be performed by general image processing such as a nearest neighbor method, a bilinear method, and a bicubic method. That is, the image correction function 303 functions as a unit that corrects distortion of a captured image obtained by capturing the whiteboard W by the camera unit 20 based on the evaluation value calculated by the evaluation value calculation function 204.
[0160]
By such a distortion correction of the photographed image, what is entirely represented in the image is reduced, but a photographed image without trapezoidal distortion can be obtained, and writing or the like on the whiteboard W can be stored in an easily viewable state. Printing can be performed.
[0161]
The correction value calculation function 102 of the projector control unit 100 calculates a correction value for correcting the trapezoidal distortion of the projection image based on the photographing magnification ratios L2 / L1 and L2 / L3 calculated by the distance calculation function 206. You can also. Since the projector unit 10 and the camera unit 20 are integrated, the distance from the image sensor 213 of the camera unit 20 to the whiteboard W and the distance from the display element 123 of the projector unit 10 to the whiteboard are different. , Which almost match. Here, the correction value can be calculated by the same method as the trapezoidal distortion correction widely used in the conventional projector.
[0162]
For example, in order to make the projection image as shown in FIG. 11 into the projection image as shown in FIG. 12, the projection image shown in FIG. Need to be In the correction value calculation function 102, the image stored in the frame memory 112 is calculated in the same manner as the distortion correction value calculation function 302 calculates the reduction ratio Mi for all pixels in the X direction on the imaging surface of the imaging element 213. With respect to the data, the reduction ratio Mi ′ can be calculated for all the pixels in the X direction. Here, in the projector control unit 100, the reduction magnification Mi 'is set as a distortion correction value.
[0163]
After that, the distortion of the projected image is corrected by the scaler 113 based on the distortion correction value set in the projector control unit 100. For example, a pixel on the same vertical line at the pixel position Xi 'is subjected to reduction processing at a reduction ratio Mi'. That is, the scaler 113 functions as a unit that corrects distortion of a projection image projected on the whiteboard W by the projector unit 10 based on the evaluation value calculated by the evaluation value calculation function 204.
[0164]
Here, in order to correctly correct the distortion of the photographed image and the projected image, it is necessary to obtain the distances of three points on the whiteboard W as shown in FIG. That is, the focus detection pattern projected from the projector unit 10 needs three focus detection portions in which not all portions are arranged in a straight line. Considering error factors such as various aberrations of the projection lens 10R and the photographing lens 20R, as shown in FIG. 15, the focus detection pattern includes a total of five focus detection portions at the center and four corners. Is preferred.
[0165]
In addition, here, as in the case of the contrast type autofocus operation, the evaluation value is obtained by calculating the evaluation value as the sum of contrast values between adjacent pixels in the focus detection areas A1 'to A5'. Is measured. Therefore, the pattern drawn on the focus detection portion may be any point or line as long as the evaluation value is changed by driving the photographing lens 20R. However, in order to more accurately measure the distance and better correct the distortion, it is preferable that the pattern drawn on the focus detection portion be such that the evaluation value is easily changed by driving the photographing lens 20R. Note that a pattern whose evaluation value is likely to change by driving the photographing lens 20R is, for example, a pattern in which many lines are arranged as shown in FIG.
[0166]
In the above description, as shown in FIG. 10, the whiteboard W has been described as an example in which the white board W is rotated by an angle θ with respect to the XZ plane with the Z axis as the rotation axis. Even in the state of being rotated by the angle θ with respect to the plane, the distortion of the captured image and the projection image can be similarly corrected. Therefore, here, both the vertical and horizontal trapezoidal distortion correction can be performed.
[0167]
Further, even when the whiteboard W is rotated by the angle θ with respect to the XY plane with the Z axis as the rotation axis, the distance calculation function The distances from the camera-equipped projector 2 to the portions A1 to A5 projected on the whiteboard W can be calculated, and the distortions of the captured image and the projected image can be corrected based on the calculated values. For example, if the distance to the portions A1 to A5 projected on the whiteboard W is known, the distance from the camera-equipped projector 2 to an arbitrary point on the projection image can be estimated by interpolation and extrapolation. Then, the distortion of the photographed image and the projected image can be corrected by obtaining the reduction ratio in the vertical direction and the horizontal direction for each pixel of the photographed image based on the distance. Therefore, here, it is possible to correct distortion in all directions of a projected image or a captured image, which is caused by a relative positional relationship between the projector unit 10 or the camera unit 20 and the whiteboard W.
[0168]
Note that the operation of setting the distortion correction value for the projection image as described above may be performed at the start of use of the projection system 1 and every time a predetermined time elapses from the start of use. By adopting such a configuration, it is possible to cope with a case where the whiteboard W moves halfway. Further, as described above, since the distortion correction value for the captured image is performed every time the image capturing is performed, it is possible to cope with a case where the whiteboard W is moved in the middle. Here, the timing of projecting the focus detection pattern and the timing of shooting are synchronized, and the time of projecting the focus detection pattern is very short. , And the projected image is not difficult to see.
[0169]
As described above, here, when the user performs various operations on the keyboard and the like of the personal computer 30 while the projection program is being executed on the personal computer 30, a pattern including a plurality of focus detection portions (portions A1 to A5) ( The focus detection pattern AFP) is projected on the whiteboard W. For the areas (areas A1 ′ to A5 ′) corresponding to a plurality of focus detection parts in the image input by capturing the pattern projected on the whiteboard W, the evaluation values related to the in-focus state of the photographing lens 20R are calculated. Ask. Further, based on the evaluation value, distortion is corrected for at least one of a projection image projected on the whiteboard W and a photographed image obtained by photographing the whiteboard W. As a result, it is possible to correct a distortion of a projected image or a captured image caused by a relative positional relationship between the projector unit 10 or the camera unit 20 and the whiteboard W.
[0170]
Further, here, one pattern (focus detection pattern AFP) is projected, and the correction value for correcting the distortion of both the projected image and the captured image is calculated based on the image captured and input. Since the calculation can be performed, it is possible to efficiently calculate the correction value for correcting the distortion of both the projected image and the captured image.
[0171]
<(1-3-5) Record of meeting contents>
FIG. 19 is a schematic view illustrating a state on the whiteboard W. As shown in FIG. 19, the inside of the frame PS2 is a projection area where the projection image is projected, and the writing MR using the marker MK is performed in accordance with the projection image.
[0172]
Then, when the projection program is executed on the personal computer 30 and a projection image as shown in FIG. 19 is projected, when the user variously operates a keyboard or the like of the personal computer 30, the projection image is projected on the whiteboard W. A recording operation is performed to record the projection image and the write MR together.
[0173]
When the recording operation is started, a photographing signal for performing photographing for recording is transmitted from the PC control unit 300 to the camera control unit 200. Then, the camera control unit 200 transmits a command to the projector unit 10 and synchronizes with the vertical synchronization signal from the next field regardless of the input of the analog RGB signal from the personal computer 30, regardless of the input of the analog RGB signal. The image data is set such that the entire surface is white, which is a substantially uniform single color. Therefore, in synchronization with the next vertical synchronizing signal, the projector unit 10 projects light of a single color on the whiteboard W.
[0174]
On the other hand, the camera control unit 200 issues a trigger signal for photographing to the image sensor drive circuit 214, and the camera unit 20 projects a single color of entirely white light in synchronization with the next vertical synchronization signal. An image is obtained by photographing the whiteboard W. At this time, under the control of the camera control unit 200, the lens drive circuit 212 adjusts the aperture value of the photographing lens 20R so that the exposure amount exceeds the allowable amount of the image sensor 213 and the output of the image sensor 213 does not saturate. Set to a predetermined aperture value. Note that, here, the shutter speed is determined by the vertical synchronization signal, and the light emission from the projector unit 10 is entirely white light, and the light emission amount is also determined. Therefore, the predetermined aperture value is set so that the output of the image sensor 213 does not saturate. It can be easily set.
[0175]
FIG. 20 is a schematic diagram illustrating a captured image PG obtained by capturing writing on a whiteboard. As shown in FIG. 20, the entire surface of the frame PS3 on the whiteboard W is illuminated with white light, so that the written MR can be clearly photographed.
[0176]
The captured image PG as shown in FIG. 20 is transmitted to the image correction function 303 of the PC control section 300 under the control of the camera control section 200.
[0177]
Next, in the image correction function 303, when data of the projection original image to be projected and the image related to the captured image PG are combined to generate a composite image with no shift, as described above, the captured image PG Is performed. After that, the projection area is extracted and enlarged so that the area corresponding to the projection area in the captured image PG occupies the entire captured image. For example, as shown in FIG. 20, a substantially uniform white light is applied to the entire projection area on the whiteboard W, and the surrounding area is sufficiently darker than the projection area. Among them, the boundary (frame PS3) between the projection area and its peripheral part can be easily detected. Therefore, the image correction function 303 extracts an image in the frame PS3 and performs enlargement processing on the extracted image so as to be the entire captured image.
[0178]
The region extraction function 304 is directly written on the whiteboard W manually using a marker MK or the like from a captured image on which distortion correction has been performed by the image correction function 303 and the projection region has been extracted and enlarged. The area corresponding to the visual element (characters, graphics, colors, etc.) displayed in is extracted. For example, as shown in FIG. 20, when the projection area on the whiteboard W is entirely illuminated with white light, the writing MR and the surrounding area have completely different colors. Can be easily extracted. That is, the region extracting function 304 functions as a unit that extracts a region corresponding to a visual element directly attached on the whiteboard W from an image acquired by the camera unit 20.
[0179]
Here, the case where the region corresponding to the writing MR is extracted has been described as an example. However, when a visual material is given by directly pasting a paper material or a photograph on the whiteboard W, a similar method is used. It is possible to extract an area corresponding to a material, a photograph, or the like from a captured image.
[0180]
FIG. 21 is a schematic view illustrating a projection original image PP for projecting on the whiteboard W. Note that FIG. 21 shows the projection original image PP stored in the storage unit 32 of the personal computer 30 and is a projection original image corresponding to the projection image projected on the whiteboard W shown in FIG.
[0181]
Next, the image synthesizing function 305 generates image data (synthesized image) by synthesizing the area extracted by the area extracting function 304 and the projection original image PP as digital information by the projector unit 10 to generate image data (synthesized image). To memorize. FIG. 22 is a schematic diagram illustrating an image (synthesized image) CP obtained by synthesizing data of the projection original image PP and the writing MR. The composite image CP shown in FIG. 22 is an image reflecting the state on the whiteboard W shown in FIG. That is, the image combining function 305 functions as a unit that combines data of the region extracted by the region extracting function 304 and a projection original image to be projected on the whiteboard W by the projector unit 10.
[0182]
Therefore, here, the white board W is irradiated with light of a single color, and the white board W is photographed to acquire an image. Then, from the acquired image, an area corresponding to a visual element directly written, for example, attached or attached to the whiteboard W is extracted. Then, data is synthesized with the extracted region and a projection original image to be projected on the whiteboard W. As a result, it is possible to create a high-quality image in which a projection original image to be projected on the whiteboard W and data such as characters, lines, and attached materials directly written on the whiteboard W are combined. That is, it is possible to provide a projection system capable of acquiring a high-quality image combining information projected on the whiteboard W and information on visual elements directly added to the whiteboard W.
[0183]
As described above, in the projection system 1 according to the first embodiment, the white balance, the gradation characteristics, the distortion, and the like of the projection image and the captured image are corrected in consideration of the external light, the inclination of the whiteboard W, and the like. Further, a high-quality image combining information projected on the whiteboard W and information directly added to the whiteboard W is acquired. Therefore, a projection system capable of projecting and photographing an appropriate image according to the state of the whiteboard W (projection plane) and generating an appropriate image according to the state of the whiteboard W (projection plane) is provided. be able to.
[0184]
<(2) Second embodiment>
<(2-1) Distortion correction of captured image>
As described above, when obliquely photographing the whiteboard W, in order to obtain a photographed image as if photographed from the front of the whiteboard W, the distortion of the photographed image must be corrected. In addition, when obliquely projecting onto the whiteboard W, in order to combine data of a captured image obtained by capturing a writing or the like on the whiteboard W and a projection original image for projection, The distortion of the photographed image must be corrected so as to match the original projected image.
[0185]
In order to perform such distortion correction of the captured image, the projection system 1 according to the first embodiment projects the focus detection pattern AFP, captures the pattern, and corrects the distortion of the captured image based on the input image. However, in the projection system 1A according to the second embodiment, a pattern different from that of the first embodiment is projected on the whiteboard W in order to correct distortion of a captured image.
[0186]
Therefore, in the projection system 1A according to the second embodiment, the functions of the camera control unit 200 and the PC control unit 300 are different from those of the projection system 1 according to the first embodiment. Specifically, as shown in FIG. 23, the camera control unit 200A according to the second embodiment is provided with a corresponding point extraction function 207 in addition to the various functions according to the first embodiment. As shown in FIG. 2, in the PC control unit 300A according to the second embodiment, the functions of the correction value calculation function 302A and the image correction function 303A are the same as the correction value calculation function 302 and the image correction function according to the first embodiment. 303.
[0187]
Hereinafter, only portions different from the projection system 1 according to the first embodiment will be described with reference to FIGS. 2 and 23 as appropriate, and the other portions will be the same as those of the projection system 1 according to the first embodiment. Therefore, the same reference numerals are given and the description is omitted.
[0188]
Here, as in the case shown in FIG. 10 described above, the optical axes of the projection lens 10R and the photographing lens 20R substantially coincide with the Y axis, and the projection surface of the whiteboard W is inclined from the plane to XZ by an angle θ. An example will be described.
[0189]
When the user performs various operations on the keyboard or the like of the personal computer 30 while the projection program is being executed in the personal computer 30, the distortion correction operation of the captured image starts, and the camera unit 20 captures the whiteboard W and acquires the whiteboard W. Or correct the distortion of the captured image.
[0190]
When the distortion correction operation of the photographed image is started, a photographing signal is transmitted from the PC control unit 300 to the camera control unit 200A to perform photographing for distortion correction of the photographed image. Then, the camera control unit 200A transmits a command to the projector unit 10 and synchronizes with the vertical synchronizing signal from the next field, regardless of the input of the analog RGB signal from the personal computer 30, regardless of the digital image stored in the frame memory 112. The data is set to be a pattern (square pattern) for correcting distortion stored in the ROM 10b. Therefore, the projector unit 10 projects the grid pattern on the whiteboard W in synchronization with the next vertical synchronization signal.
[0191]
FIG. 24 is a schematic view illustrating a grid pattern GPS projected from the projector unit 10 onto the whiteboard W. The grid pattern GPS is composed of a frame GPF having a white outline portion and a grid pattern GP composed of white line segments extending vertically and horizontally. Note that, in the grid pattern GPS, points where white lines extending in the vertical and horizontal directions intersect (for example, points A, B, and C) are singular points (specific points and other points) for specifying a position on the grid pattern GPS. Points with identifiable geometric features). That is, the projector unit 10 functions as a unit that projects a predetermined grid pattern including a plurality of singular points on the whiteboard W.
[0192]
In response to this, the camera control unit 200 outputs a trigger signal for shooting to the image sensor driving circuit 214, and in synchronization with the next vertical synchronizing signal, the camera unit 20 sets the predetermined grid pattern projected on the whiteboard W An image is acquired by photographing a GPS. At this time, under the control of the camera control unit 200, the lens drive circuit 212 adjusts the aperture value of the photographing lens 20R so that the exposure amount exceeds the allowable amount of the image sensor 213 and the output of the image sensor 213 does not saturate. Set to a predetermined aperture value.
[0193]
Here, since the shutter speed is determined by the vertical synchronization signal and the grid pattern GPS is projected from the projector unit 10 and the light emission amount is also determined, the predetermined aperture value is easily set so that the output of the image sensor 213 is not saturated. Can be set.
[0194]
Next, when the grid pattern GPS is projected from the projector unit 10 onto the whiteboard W and the image is captured, the image is output from the A / D converter 216 to the corresponding point extraction function 207 of the camera control unit 200 shown in FIG. .
[0195]
FIG. 25 is a schematic diagram illustrating an image G2 obtained by photographing the grid pattern GPS projected on the whiteboard W with the camera unit 20. In FIG. 25, the frame GPF 'corresponds to the frame GPF of the grid pattern GPS projected from the projector unit 10, and the grid pattern GP' corresponds to the grid pattern GP. Here, since the optical axis of the photographing lens 20R and the whiteboard W are not in a vertical relationship, trapezoidal distortion occurs in the grid pattern GP 'as shown in FIG.
[0196]
The corresponding point extraction function 207 detects a change in luminance, and excludes an area outside the frame GPF 'from the image G2 shown in FIG. Next, by observing the luminance changes in the vertical and horizontal directions of the remaining grid pattern GP ′, it is possible to detect where the vertical and horizontal lines of the grid pattern GP ′ are located. be able to. Therefore, the corresponding point extraction function 207 can specify the position of the point where the line segment of the grid pattern GP 'intersects in G2 shown in FIG. As a result, for example, points A ′, B ′, and C ′ in the image G2 illustrated in FIG. 25 can be specified and extracted as points corresponding to the points A, B, and C in FIG. . That is, the corresponding point extraction function 207 functions as a unit that extracts corresponding points respectively corresponding to a plurality of singular points included in the grid pattern GPS projected from the projector unit 10 for the image G2.
[0197]
Next, in the correction value calculation function 302A of the PC control unit 300A shown in FIG. 2, a plurality of singular points (for example, points A, B, and C) in the grid pattern GPS shown in FIG. A correction value for correcting the distortion of the captured image is calculated from the positional relationship with the corresponding points (point A ′, point B ′, point C ′) in G2. That is, the correction value calculation function 302A functions as a unit that calculates a correction value from the positional relationship between a plurality of singular points and their corresponding points.
[0198]
Here, the principle for calculating the correction value in the correction value calculation function 302A will be briefly described with reference to FIGS. 26 and 27.
[0199]
FIG. 26 and FIG. 27 are diagrams for explaining the principle for calculating the correction value. In FIG. 26, when the xyz orthogonal coordinate system is set with the optical axis of the projector as the z-axis and the light source as the origin, the pixel on the light valve (for example, the display element 123) and the projection on the projection surface (whiteboard W) Schematically shows the positional relationship with the image to be performed. In FIG. 27, when an x′y′z ′ orthogonal coordinate system with the optical axis of the camera as the z ′ axis is set, the position on the projection plane (whiteboard W) and the pixel on the image sensor 213 are different. The positional relationship is schematically shown.
[0200]
As shown in FIG. 26, when a certain light ray (first light ray) emitted from the projector unit 10 has the relationship of the following equation (2), the first projection plane P1 which is a light valve is represented by z = 1. Assuming that the plane is a coordinate plane, the coordinates of the intersection of the first ray and the first projection plane P1 are the point M (p, q, 1).
[0201]
x / p = y / q = z (2)
[0202]
Next, in this state, an intersection M 'between the light beam group that is emitted on the assumption that the image is projected on the second projection plane P2 (for example, the whiteboard W) and the second projection plane P2 is obtained. Here, when the second projection plane P2 is expressed by the following equation (3), the coordinates of the intersection M ′ between the first light ray and the second projection plane P2 are expressed by the following equations (4) to (6). You.
[0203]
z = ax + by + c (3)
x = cp / (1-ap-bq) (4)
y = cq / (1-ap-bq) (5)
z = c / (1-ap-bq) (6)
[0204]
That is, here, by projecting the image of the first projection plane P1 onto the second projection plane P2, the point M indicating a part of the image is converted into the point M ′ in the three-dimensional space. .
[0205]
Then, as shown in FIG. 27, when a certain light ray (second light ray) irradiated on the image pickup device of the camera has the relationship of the following expression (7), a third projection surface serving as an image pickup surface of the image pickup device Assuming that P3 is a plane represented by z ′ = 1, the coordinates of the intersection of the second light ray and the third projection plane P3 are points N (s, t, 1).
[0206]
x '/ s = y' / t = z '(7)
[0207]
In this state, an intersection of a light beam group irradiated to form an image on the third projection plane P3 and a fourth projection plane P4 (for example, a whiteboard W) different from the third projection plane P3. Find N '. Here, if the fourth projection plane P4 is represented by the following equation (8), the coordinates of the intersection N ′ between the second light ray and the fourth projection plane P2 are represented by the following equations (9) to (11). You.
[0208]
z '= dx' + ey '+ f (8)
x '= fs / (1-ds-et) (9)
y '= ft / (1-ds-et) (10)
z '= f / (1-ds-et) (11)
[0209]
That is, here, by projecting the image of the fourth projection plane P4 onto the third projection plane P3, the point N ′ indicating a part of the image is converted into the point N in the three-dimensional space. .
[0210]
When the image projected by the projector is captured by a camera having a position and orientation different from that of the projector, the coordinates of a point forming the projected image in the three-dimensional space are represented by a point M in the projection process shown in FIG. From the point N 'to the point N in the photographing process shown in FIG. 27, the coordinate conversion from the point x' to the point M ', the coordinate conversion from the xyz rectangular coordinate system for the projector to the x'y'z' rectangular coordinate system for the camera. Will be subjected to the coordinate transformation. Here, a coefficient (coordinate conversion coefficient) indicating a coordinate conversion from the xyz rectangular coordinate system to the x'y'z 'rectangular coordinate system is represented by r.11, R12, RThirteen, R21, R22, R23, R31, R32, R33The description will be continued assuming that the following equations (12) to (14) hold.
[0211]
x '= r11x + r12y + rThirteenz ... (12)
y '= r21x + r22y + r23z ... (13)
z '= r31x + r32y + r33z (14)
[0212]
Here, by substituting the equations (4) to (6) and the equations (9) to (11) into the equations (12) to (14), the following equations (15) to (17) are obtained.
[0213]
(Equation 2)
Figure 2004109246
[0214]
Equations (15) to (17) include a to f, r11~ R33Although the 15 unknown coefficients are included, the number of unknowns can be reduced to 9 by rearranging in the following procedure.
[0215]
For example, since the second projection plane and the fourth projection plane are the same, if the equation of one projection plane is determined, the equation of the other projection plane is calculated from the xyz orthogonal coordinate system to the x′y′z ′ orthogonal coordinate. It can be expressed using a coordinate conversion coefficient for the system. That is, one of the unknowns a, b, and c or the unknowns d, e, and f can be eliminated, and the number of unknowns is reduced by three. Further, if only the azimuth relationship is inclined between two coordinate systems (xyz rectangular coordinate system and x'y'z 'rectangular coordinate system) and no enlargement / reduction is involved, the following equation (18) is obtained. ) To (20), nine unknown coordinate transformation coefficients r11~ R33Can be reduced to six unknowns.
[0216]
r11 2+ R12 2+ RThirteen 2= 1 ... (18)
r21 2+ R22 2+ R23 2= 1 ... (19)
r31 2+ R32 2+ R33 2= 1 ... (20)
[0219]
As described above, since the number of unknowns in the three equations (15) to (17) can be nine, the point M (p, q, 1) on the first projection plane P1 and the third If there are three sets of combinations for associating points N (s, t, 1) on the projection plane P3, substituting the three sets of coordinates into equations (15) to (17) yields nine equations. , The remaining nine unknowns can be obtained. Therefore, it is possible to derive an equation (conversion equation) that can mutually convert an arbitrary point on the first projection plane P1 and a point on the third projection plane P3 corresponding to the point.
[0218]
Therefore, for example, in the correction value calculation function 302A, three singular points (for example, point A, point B, and point C) in the grid pattern GPS illustrated in FIG. 24 and corresponding points (point A) in the image G2 illustrated in FIG. , Point B ′, point C ′), a conversion equation can be obtained. Here, this conversion formula corresponds to a correction value for correcting the distortion of the captured image.
[0219]
Then, the image correction function 303A corrects the distortion of the captured image obtained by capturing the whiteboard W by the camera unit 20 based on the correction value calculated by the correction value calculation function 302A. As a result, characters and materials written in accordance with the image projected on the whiteboard W are captured by the camera unit 20 to obtain an image, and the image is subjected to coordinate transformation so as to match the projected image, and the image is transformed. Can be generated.
[0220]
By the way, when the projector section 10 corrects the distortion of the projection image, the image on the first projection plane P1 is obtained by deforming the original projection image based on the distortion correction value of the projection image. ing. However, since the positional relationship between the image on the first projection plane P1 and the original projection image is defined by the distortion correction value of the projection image, the image captured by the camera unit 20 is matched with the original projection image. It is easily possible to perform coordinate transformation. In such a case, the PC control unit 300 obtains a distortion correction value for the projection image from the projector control unit 100, and the coordinate conversion is realized by using the conversion formula as an expression taking into account the distortion correction value for the projection image. I do.
[0221]
Therefore, when distortion of the projection image is corrected in the projector unit 10, the image projected on the whiteboard W, when viewed from the front of the whiteboard W, is stored in the storage unit 32 of the personal computer 30. The original image is enlarged as it is. Therefore, when the image captured by the camera unit 20 is subjected to coordinate transformation so as to match the original projection image, writing on the whiteboard W is corrected like an image obtained by capturing from the front of the whiteboard W. be able to.
[0222]
Note that, as described above, in order to correct the distortion of the captured image from the positional relationship between the three singular points in the image to be projected and the corresponding points in the captured image corresponding to the three singular points. Can be obtained. Then, it is necessary that these three singular points are not arranged in a straight line. However, when error factors such as various aberrations of the projection lens 10R and the photographing lens 20R are taken into consideration, the distortion of the photographed image is determined due to the positional relationship between the singular points at the center and all four corners of all the images and the corresponding points. It is preferable to obtain a correction value for performing the correction.
[0223]
Further, as described above, since the distortion correction value for the captured image is performed every time the image capturing is performed, it is possible to cope with a case where the whiteboard W is moved in the middle. In this case, the timing for projecting the grid pattern GPS and the timing for capturing are synchronized, and the time for projecting the grid pattern GPS is very short, so that a person watching the projected image notices. And the projected image is not difficult to see.
[0224]
As described above, in the projection system 1A according to the second embodiment, a predetermined grid pattern GPS including a plurality of singular points (for example, points A, B, and C) is projected on the whiteboard W. Then, corresponding points respectively corresponding to a plurality of singular points are extracted from an image G2 obtained by photographing the projected grid pattern GPS. Further, a correction value is calculated from a plurality of singular points in the grid pattern GPS and a positional relationship between the corresponding points. Based on the correction value, distortion of a captured image obtained by capturing the whiteboard W is corrected. As a result, it is possible to correct the distortion of the captured image caused by the relative positional relationship between the whiteboard W (projection plane) and the camera unit 20 and the like.
[0225]
Further, here, the captured image obtained by capturing the whiteboard W can be corrected so as to match the original image to be projected. Therefore, as described above, an area corresponding to a visual element directly written on or attached to the whiteboard W is extracted from the captured image and projected onto the whiteboard W, as described above. When synthesizing data with the projection original image, it is possible to generate a synthesized image without deviation.
[0226]
<(3) Third Embodiment>
In the third embodiment, an electronic conferencing system in which personal computers in a plurality of conference rooms are connected via a network, and the same image is enlarged and projected in each conference room and a conference is performed in a cooperative manner between remote locations is shown. .
[0227]
<(3-1) Internal configuration of the electronic conference system>
FIG. 28 is a block diagram showing an internal configuration of the electronic conference system. As shown in FIG. 28, in the electronic conference system, a projection system substantially similar to the projection system 1 according to the first embodiment is configured to project an image on the whiteboards W1 and W2 in the two conference rooms CR1 and CR2, respectively. 1B is installed. Since the internal configurations of the projection systems 1B installed in both the conference rooms CR1 and CR2 are completely the same, the same parts are denoted by the same reference numerals, and the projection system 1B has different functions from the projection system 1. Are added a little, and different points from the projection system 1 will be mainly described below. The operation of the projection system 1B is controlled by executing a program stored in the personal computer 30 in the PC control unit 300.
[0228]
The personal computer 30 of the projection system 1B is provided with a speaker SP and a microphone MC, and can input audio in both conference rooms CR1 and CR2 to acquire audio data. In the projection system 1B, the personal computer 30 is connected to the network 400, and the projection systems 1B installed in the conference rooms CR1 and CR2 can mutually transmit and receive data.
[0229]
Then, by transmitting and receiving the image data (projected original image) stored in the storage unit 32 of the personal computer 30, a similar projected image can be projected on the whiteboard W in both the conference rooms CR1 and CR2. For example, by transmitting image data (projected original image) stored in the personal computer 30 of the conference room CR1 to the personal computer 30 of the conference room CR2, the two conference rooms are stored based on the image data stored in the personal computer of the conference room CR1. Similar projection images can be projected in CR1 and CR2.
[0230]
The projection systems 1B installed in both conference rooms CR1 and CR2 can transmit and receive audio data obtained through the microphone MC to and from the personal computer 30 because the personal computer 30 can transmit and receive data to and from each other via the network 400. Thus, sound can be output from the speaker SP.
[0231]
By the way, in the projection system 1 described above, in the recording operation of the meeting contents, the image synthesizing function 305 performs data synthesis of the area extracted by the area extracting function 304 and the original projection image to be projected by the projector unit 10. The composite image data was generated and stored in the storage unit 32. On the other hand, in the projection system 1B, as in the recording operation of the meeting contents in the projection system 1, the whiteboards W1 and W2 are photographed by the camera unit 20 and extracted by the region extraction function 304 based on the images. The image data for the area is transmitted to the other projection system 1B via the network 400. Then, the other projection system 1 </ b> B combines the data with the original projection image to generate composite image data, and projects the composite image data on the whiteboard W. The other operations of the combining process of the projection image and the captured image in the projection system 1B are the same as those in the projection system 1.
[0232]
Here, the “network” is a communication line network for performing data communication, and specifically, various types of electric communication lines (including optical communication lines) such as the Internet, a LAN, a WAN, and a CATV. It is a communication network. The connection form to the network may be a permanent connection using a dedicated line or a temporary connection such as a dial-up connection using a telephone line such as an analog line or a digital line (ISDN). Good. The transmission method may be any of a wireless method and a wired method.
[0233]
<(3-2) Example of using electronic conference system>
FIG. 29 is a schematic diagram showing a usage example of the electronic conference system. As shown in FIG. 29, a projection system 1B is installed in each of the plurality of conference rooms CR1 and CR2, and a personal computer 30 provided in the projection system 1 transmits and receives data via a network or the like. The same image displayed on the personal computer 30 is projected onto the whiteboards W1 and W2 while reflecting the contents written directly on the whiteboards W1 and W2. Also, the personal computer 30 obtains audio data with a microphone MC (not shown) and transmits and receives the audio data via the network 400, so that the audio in one conference room is provided in the personal computer 30 in the other conference room. Output from the speaker SP.
[0234]
Then, for example, as shown in FIG. 29, the presenter PM1 of the conference room CR1 attaches an underline MR1 to important points in the image projected on the whiteboard W with a red marker, and the participants of the conference Has been described. On the other hand, the explainer PM2 of the conference room CR2 attaches a circle MR2 to an important point in the image projected on the whiteboard W and writes a character MR3 of “exceeding 400,000 pixels”, and Has been described.
[0235]
At this time, in each of the conference rooms CR1 and CR2, the camera unit 20 captures images and the like on the whiteboard W at regular intervals in order to reflect the contents and the like written in the other conference room. , The image data of the area extracted by the area extracting function 304 is transmitted to the other projection system 1B via the network 400. Then, the other projection system 1 </ b> B combines the data with the original projection image to generate composite image data, and projects the composite image data on the whiteboard W.
[0236]
As a result, as shown in FIG. 29, the contents of materials and the like written on or attached to the whiteboard W in one conference room can be reflected on the whiteboard W in the other conference room.
[0237]
When writing is performed with a marker or the like in accordance with the projected image projected on the whiteboard in one conference room, the image is directly taken by the camera unit 20 and transmitted to the other conference room via the network 400. Then, even if the image is projected on the whiteboard W in the other conference room based on the image, the contents of the materials and the like written or affixed to the whiteboard W in the one conference room are copied to the other conference room. On the whiteboard W. However, if the image is taken by the camera unit 20 as it is, the projected image and the writing of the marker overlap and the image is taken, so that the image becomes difficult to read, or when the image projected on the whiteboard W is taken by the camera, the projected image In the other conference room, the content intended by the creator of the image cannot be accurately transmitted to the people who participated in the conference.
[0238]
In order to solve such a problem, the projection system 1B according to the present embodiment irradiates the whiteboard W with light of a single color (entirely white) to capture an image by photographing the whiteboard W. Then, a projection source for extracting a region corresponding to a visual element directly written, attached, or the like directly onto the whiteboard W from the acquired image and projecting the region on the whiteboard W is extracted. Synthesize data with the image. As a result, it is possible to create a high-quality image in which a projection image to be projected on the whiteboard W and visual elements such as characters, lines, and attached materials directly written on the whiteboard W are synthesized. it can.
[0239]
As described above, the projector unit 10 irradiates light of a single color such as white on the entire surface at the time of shooting by the camera unit 20. Therefore, if the time of projecting the light of a single color such as white on the whiteboard W is long, the participants of the conference may feel uncomfortable or the image may be difficult to see. However, in the projection system 1B according to the present embodiment, the timing of irradiating the light of a single color and the timing of capturing are synchronized, and the time of projecting the light of a single color is as short as one frame or less. Since the time is short, the participants of the conference do not feel uncomfortable, and the image is not difficult to see.
[0240]
In addition, the user can perform various operations such as writing on the whiteboard W by variously operating the keyboard and the like of the personal computer 30. However, in an electronic conference, a reduction in time lag is required. In some cases, writing on the W or the like is photographed one after another, and image data is transmitted via the network 400. In such a case, it is preferable that the user sets a short photographing interval on the personal computer 30 and repeats the photographing operation so that the data synthesis of the photographed image and the original projection image related to writing or the like is performed in a short cycle.
[0241]
By the way, here, whether or not to correct the distortion of the photographed image when photographing the writing on the whiteboard W depends on whether or not the distortion of the projection image projected from the projector unit 10 is being performed.
[0242]
For example, when the distortion correction of the projection image is not performed, it is considered that the presenter of the conference wrote the whiteboard W or the like in accordance with the projection image without particularly considering the trapezoidal distortion or the like. Therefore, in this case, no distortion correction is performed on the captured image. Whether the distortion correction of the projection image is performed or not is determined by acquiring information by data exchange between the projector control unit 100 and the camera control unit 200 and performing the distortion on the captured image by the PC control unit. 300 and the like. On the other hand, when the distortion correction of the projection image is performed, the distortion correction of the captured image described above is always performed, and the image data is transmitted to the projection system of the other conference room.
[0243]
As described above, in the electronic conference system according to the third embodiment, one projection system 1B irradiates whiteboard W with light of a single color (entirely white) to capture an image by photographing whiteboard W. get. Then, from the acquired image, an area corresponding to the visual element directly written or attached to the whiteboard W is extracted and transmitted to the other projection system. Then, in the other projection system, the extracted area is combined with a projection original image to be projected on the whiteboard W, and projected. As a result, communication can be sufficiently achieved between conference rooms located in different places such as remote places. Further, it is possible to provide a projection system capable of projecting a high-quality image in which information projected on the whiteboard W and information of a visual element directly added to the whiteboard W are combined.
[0244]
<(4) Modification>
The embodiments of the present invention have been described above, but the present invention is not limited to the above-described contents.
[0245]
For example, in the above-described embodiment, the scaler 113 and the like are dedicated electronic circuits. However, the functions may be realized by executing a program in the CPU in the projector control unit 100.
[0246]
Also, in the above-described embodiment, the projector control unit 100, the camera control unit 200, and the PC control unit 300 are separately provided, but some or all of these functions are provided in one place. It may be realized by executing a program in the CPU.
[0247]
◎ Further, when the projection program is being executed, the user operates the keyboard of the personal computer 30 in various ways, so that the WB correction of the projected image, the WB correction of the captured image, the correction of the gradation characteristics of the projected image, the Of all of the gradation characteristic correction, distortion correction of the projected image, and distortion correction of the photographed image are not performed, any one of the operations is performed, or various combinations of operations are performed. , All the operations may be executed.
[0248]
Also, in the above-described second embodiment, the distortion correction of the captured image in the case where the second and fourth projection planes are planes has been described as an example. However, even when the second and fourth projection planes are curved planes, By defining the equation of the curved surface, a coordinate conversion coefficient between the first projection surface and the third projection surface can be obtained by the same method as in the second embodiment. Therefore, even when the projection surface onto which the projection image is projected from the projector unit 10 is a curved surface, distortion correction of the captured image can be performed.
[0249]
Also, in the above-described embodiment, in order to obtain a WB correction value, achromatic light is projected on the entire projection area, but achromatic light is projected on a part of the projection area, and an image related to the part is projected. The WB correction value may be obtained based on the data.
[0250]
In the above-described embodiment, data transmission and reception between the projector control unit 100, the camera control units 200 and 200A, and the PC control units 300 and 300A are performed between the USB I / F 34 and the USB I / F 230, and between the USB I / F 230 Although the USB I / Fs 130 are realized by connecting each with a cable, the connection combinations and methods are not limited to these, and the connections may be made in various combinations and methods.
[0251]
In the above-described embodiment, the user may manually set the distortion correction of the projection image in an operation other than the operation characterized in that the distortion correction of the projection image is performed automatically.
[0252]
In addition, the projection systems 1, 1A, and 1B exemplified in the above-described embodiment perform distortion correction of a captured image as described above, and therefore, a distortion correction device that performs distortion correction of a captured image of a subject such as a whiteboard W. Can also be seen as
[0253]
The specific embodiments described above include inventions having the following configurations.
[0254]
(1) Projection means for projecting a pattern including a plurality of focus detection portions onto a subject, and photographing the pattern projected on the projection surface to form an image related to the pattern including a plurality of pixels. The photographing means to be input, the focus control means for controlling the focusing of the photographing lens in the photographing means, and the in-focus state of the photographing lens with respect to regions corresponding to the plurality of focus detection portions in the image. An evaluation value calculation unit configured to calculate an evaluation value; and a distortion correction unit configured to correct a distortion of a captured image obtained by capturing the subject by the imaging unit based on the evaluation value. Distortion correction device.
[0255]
According to the invention of (1), a pattern including a plurality of regions for focus detection is projected, and the imaging lens is used for each of regions corresponding to a plurality of portions for focus detection in an image input by capturing the pattern. An evaluation value relating to the in-focus state is obtained, and distortion of a captured image obtained by imaging the subject is corrected based on the evaluation value. It is possible to correct distortion of a captured image caused by a positional relationship or the like.
[0256]
(2) projecting means for projecting a predetermined pattern including a plurality of singular points on a subject; photographing means for acquiring an image by photographing the predetermined pattern projected on the projection surface; Extracting means for extracting corresponding points respectively corresponding to the plurality of singular points, calculating means for calculating a correction value from a positional relationship between the plurality of singular points and the corresponding point, and, based on the correction value, A distortion correction unit that corrects a distortion of a captured image obtained by capturing the subject with a capturing unit.
[0257]
According to the invention of (2), a predetermined pattern including a plurality of singular points is projected on a subject, and a corresponding image corresponding to the plurality of singular points is obtained from an image obtained by photographing the projected predetermined pattern. A point is extracted, a correction value is calculated from a positional relationship between a plurality of singular points in a predetermined pattern and a corresponding point, and distortion of a captured image obtained by capturing an object is corrected based on the correction value. With such a configuration, it is possible to correct the distortion of the captured image caused by the relative positional relationship between the subject and the imaging unit.
[0258]
(3) A program which, when executed by a computer included in the projection system, causes the projection system to function as the projection system according to any one of claims 1 to 5, (1) and (2).
[0259]
According to the invention of (3), the same effect as the invention described in any one of claims 1 to 5, (1) and (2) can be obtained.
[0260]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, it is possible to provide a projection system capable of performing appropriate image processing according to the state of the projection plane.
[0261]
Further, according to the first to third aspects of the present invention, it is possible to provide a projection system capable of projecting an appropriate image according to the situation of the projection plane.
[0262]
In particular, according to the first aspect of the present invention, a projected image projected onto a projection surface based on an image obtained by projecting a pattern whose luminance changes stepwise on a projection surface and photographing the pattern, By adopting a configuration that corrects the gradation characteristics of the photographed image obtained by photographing the projection surface, etc., the gradation characteristics of the projection image and the photographed image change due to the influence of external light, the reflectance of the projection surface, and the like. Can be corrected.
[0263]
According to the second aspect of the present invention, a projection image projected on the projection surface, a projection surface, or the like is photographed based on an image obtained by photographing the projection surface on which achromatic light is projected. By adopting a configuration that corrects the white balance of the obtained captured image, the color tone of the projected image or the captured image changes due to the influence of the color of the projection surface, the color of the external light, the color of the light source of the projection unit, and the like. Can be corrected.
[0264]
According to the third aspect of the present invention, a pattern including a plurality of focus detection portions is projected, and the pattern is photographed, and an image corresponding to the plurality of focus detection portions in an input image is captured. An evaluation value relating to the in-focus state of the lens is obtained, and based on the evaluation value, distortion of a projection image projected on the projection surface or a captured image obtained by photographing the projection surface is corrected. This makes it possible to correct distortion of a projected image or a captured image caused by a relative positional relationship between the projection unit or the imaging unit and the projection surface.
[0265]
According to the invention of claim 4, a predetermined pattern including a plurality of singular points is projected on a projection surface, and an image obtained by photographing the projected predetermined pattern is converted into a plurality of singular points. A corresponding corresponding point is extracted, a plurality of singular points in a predetermined pattern, and a correction value is calculated from a positional relationship between the corresponding point, and based on the correction value, a photographed image obtained by photographing the projection plane is obtained. By adopting a configuration that corrects the distortion, it is possible to correct the distortion of the captured image caused by the relative positional relationship between the projection plane and the imaging unit.
[0266]
According to the fifth aspect of the present invention, an image obtained by projecting a single color light on the projection surface and photographing the projection surface is directly written on the projection surface or directly attached thereto. By extracting a region corresponding to the visual element attached to the image and combining the data with an image to be projected on the projection surface, the image projected on the projection surface and the image directly written on the projection surface are written. It is possible to create a high-quality image by combining characters, lines, and visual elements such as attached materials. That is, it is possible to provide a projection system capable of acquiring a high-quality image combining information projected on the projection surface and information directly added to the projection surface.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating an example of use of a projection system according to a first embodiment.
FIG. 2 is a block diagram illustrating an internal configuration of the projection system according to the first embodiment.
FIG. 3 is a block diagram for explaining functions of a camera control unit according to the first embodiment.
FIG. 4 is a diagram for explaining a method of setting a white balance correction value.
FIG. 5 is a schematic view exemplifying an image acquired at the time of photographing for gradation characteristic correction.
FIG. 6 is a schematic diagram illustrating an ideal brightness ratio according to the gray scale chart.
FIG. 7 is a schematic diagram illustrating a brightness ratio when there is an influence of external light;
FIG. 8 is a diagram for explaining a method of calculating a correction value for gradation characteristic correction.
FIG. 9 is a diagram exemplifying gradation conversion characteristics when there is an influence of external light;
FIG. 10 is a schematic view exemplifying a case of projecting and photographing from an oblique direction with respect to a whiteboard.
FIG. 11 is a schematic view illustrating an image obliquely projected on a whiteboard.
FIG. 12 is a schematic diagram showing a projected image after distortion correction.
FIG. 13 is a schematic view illustrating a photographed image acquired at the time of oblique photographing.
FIG. 14 is a schematic diagram illustrating a captured image after distortion correction.
FIG. 15 is a diagram illustrating a focus detection pattern projected on a whiteboard.
FIG. 16 is a schematic view illustrating a captured image obtained by capturing a focus detection pattern projected on a whiteboard.
FIG. 17 is a schematic diagram illustrating a curve representing a relationship between an evaluation value and a position of a photographing lens.
FIG. 18 is a diagram illustrating a method of calculating a correction value for correcting a distortion of a captured image.
FIG. 19 is a schematic view illustrating a state on a whiteboard.
FIG. 20 is a schematic diagram illustrating a captured image of a whiteboard written;
FIG. 21 is a schematic diagram illustrating a projection original image for projecting on a whiteboard.
FIG. 22 is a schematic view illustrating a combined image obtained by combining data of a projection original image and writing.
FIG. 23 is a block diagram for explaining functions of a camera control unit according to the second embodiment.
FIG. 24 is a schematic view illustrating a grid pattern projected on a whiteboard.
FIG. 25 is a schematic view illustrating a screen obtained by photographing a grid pattern projected on a whiteboard;
FIG. 26 is a diagram for explaining a principle for calculating a distortion correction of a captured image.
FIG. 27 is a diagram for explaining a principle for calculating a distortion correction of a captured image.
FIG. 28 is a block diagram showing an internal configuration of the electronic conference system.
FIG. 29 is a schematic diagram showing a usage example of the electronic conference system.
FIG. 30 is a schematic diagram showing an example of use of a conventional projection system in a conference.
[Explanation of symbols]
1,1A, 1B projection system
2 Projector with camera
10 Projector unit (projection means)
20 Camera unit (photographing means)
30 PC
100 Projector control unit
101 element drive control function (white balance correction means, gradation correction means)
113 scaler (distortion correction means)
200, 200A Camera control unit
204 Evaluation value calculation function (evaluation value calculation means)
205 Focus control function (focus control means)
207 Corresponding point extraction function (extraction means)
210 photography function unit (photography means)
217 WB circuit (white balance correction means)
218 γ correction circuit (gradation correction means)
300 PC control unit
302A Correction value calculation function (calculation means)
303A Image correction function (distortion correction means)
304 area extraction function (area extraction means)
305 Image composition function (composition means)

Claims (5)

投影システムであって、
投影面に、輝度が段階的に変化するパターンを投影する投影手段と、
前記投影面に投影された前記パターンを撮影することによって画像を取得する撮影手段と、
前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、階調特性を補正する階調補正手段と、
を備えることを特徴とする投影システム。
A projection system,
Projection means for projecting a pattern whose luminance changes stepwise on a projection surface,
A photographing unit that acquires an image by photographing the pattern projected on the projection surface,
Based on the image acquired by the photographing unit, a projection image projected on the projection surface by the projection unit, and at least one of a photographed image obtained by photographing the projection surface by the photographing unit Gradation correction means for correcting gradation characteristics of an image;
A projection system comprising:
投影システムであって、
投影面に、無彩色の光を投影する投影手段と、
前記無彩色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、
前記撮影手段によって取得される前記画像に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、ホワイトバランスを補正するホワイトバランス補正手段と、
を備えることを特徴とする投影システム。
A projection system,
Projecting means for projecting achromatic light on the projection surface;
A photographing unit that acquires an image by photographing the projection surface on which the achromatic light is projected,
Based on the image acquired by the photographing unit, a projection image projected on the projection surface by the projection unit, and at least one of a photographed image obtained by photographing the projection surface by the photographing unit White balance correction means for correcting the white balance of the image;
A projection system comprising:
投影システムであって、
投影面に、複数の焦点検出用の部分を含むパターンを投影する投影手段と、
前記投影面に投影された前記パターンを撮影することによって、複数の画素で構成される前記パターンに係る画像を入力する撮影手段と、
前記撮影手段における撮影レンズの合焦制御を行う合焦制御手段と、
前記画像における前記複数の焦点検出用の部分に対応する領域について、それぞれ前記撮影レンズの合焦状態に関する評価値を算出する評価値算出手段と、
前記評価値に基づいて、前記投影手段によって前記投影面に投影される投影画像、および、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像のうち少なくとも一方の画像について、歪みを補正する歪み補正手段と、を備えることを特徴とする投影システム。
A projection system,
Projection means for projecting a pattern including a plurality of focus detection portions on a projection surface,
By photographing the pattern projected on the projection surface, photographing means for inputting an image of the pattern composed of a plurality of pixels,
Focusing control means for performing focusing control of a photographing lens in the photographing means;
An evaluation value calculation unit configured to calculate an evaluation value regarding an in-focus state of the photographing lens for an area corresponding to the plurality of focus detection portions in the image,
Based on the evaluation value, distortion is corrected for at least one of a projection image projected on the projection surface by the projection unit and a photographed image obtained by photographing the projection surface by the photographing unit. And a distortion correction unit.
投影システムであって、
投影面に、複数の特異点を含む所定のパターンを投影する投影手段と、
前記投影面に投影された前記所定のパターンを撮影することによって、画像を取得する撮影手段と、
前記画像について、前記複数の特異点にそれぞれ対応する対応点を抽出する抽出手段と、
前記複数の特異点と、前記対応点との位置関係から補正値を算出する算出手段と、
前記補正値に基づいて、前記撮影手段によって前記投影面を撮影することにより得られる撮影画像の歪みを補正する歪み補正手段と、
を備えることを特徴とする投影システム。
A projection system,
Projection means for projecting a predetermined pattern including a plurality of singularities on a projection surface,
By photographing the predetermined pattern projected on the projection surface, a photographing means for acquiring an image,
For the image, extraction means for extracting corresponding points respectively corresponding to the plurality of singularities,
Calculation means for calculating a correction value from the positional relationship between the plurality of singular points and the corresponding point,
Distortion correction means for correcting distortion of a captured image obtained by imaging the projection surface by the imaging means based on the correction value;
A projection system comprising:
投影システムであって、
投影面に、単一色の光を投影する投影手段と、
前記単一色の光が投影された前記投影面を撮影することによって画像を取得する撮影手段と、
前記撮影手段によって取得される前記画像について、前記投影面に直接に付された視覚要素に対応する領域を抽出する領域抽出手段と、
前記領域抽出手段によって抽出した前記領域と、前記投影手段によって前記投影面に投影するための画像とをデータ合成する合成手段と、
を備えることを特徴とする投影システム。
A projection system,
Projecting means for projecting a single color light onto a projection surface;
A photographing unit that acquires an image by photographing the projection surface on which the single color light is projected,
For the image obtained by the photographing unit, an area extracting unit that extracts an area corresponding to a visual element directly attached to the projection plane,
Combining means for combining the area extracted by the area extracting means and an image to be projected onto the projection surface by the projecting means;
A projection system comprising:
JP2002268950A 2002-09-13 2002-09-13 Projection system Pending JP2004109246A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002268950A JP2004109246A (en) 2002-09-13 2002-09-13 Projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002268950A JP2004109246A (en) 2002-09-13 2002-09-13 Projection system

Publications (1)

Publication Number Publication Date
JP2004109246A true JP2004109246A (en) 2004-04-08

Family

ID=32267025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002268950A Pending JP2004109246A (en) 2002-09-13 2002-09-13 Projection system

Country Status (1)

Country Link
JP (1) JP2004109246A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208089A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Projector, imaging device, and program for trapezoid correction
JP2005354171A (en) * 2004-06-08 2005-12-22 Ricoh Co Ltd Image display apparatus
WO2006011192A1 (en) * 2004-07-26 2006-02-02 Mitsubishi Denki Kabushiki Kaisha Conference system
JP2006053313A (en) * 2004-08-11 2006-02-23 Sharp Corp Image projection apparatus with photographing function and data management system using the apparatus
JP2006093823A (en) * 2004-09-21 2006-04-06 Nikon Corp Projector apparatus, mobile phone, and camera
JP2006094445A (en) * 2004-09-27 2006-04-06 Casio Comput Co Ltd Projector, method of photographing projection image, and program
JP2006186723A (en) * 2004-12-28 2006-07-13 Casio Comput Co Ltd Imaging apparatus, imaging method, program, and projector system
JP2007017543A (en) * 2005-07-05 2007-01-25 Ricoh Elemex Corp Device, system, method and program for presentation
JP2007079003A (en) * 2005-09-13 2007-03-29 Canon Inc Image projecting apparatus
JP2007206619A (en) * 2006-02-06 2007-08-16 Olympus Corp Information presentation apparatus and method
JP2008079070A (en) * 2006-09-22 2008-04-03 Seiko Epson Corp Digital camera, image display system, and parameter adjustment method
JP2008306264A (en) * 2007-06-05 2008-12-18 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method, program, and recording medium
JP2009115984A (en) * 2007-11-05 2009-05-28 Casio Comput Co Ltd Projection device, projection method and program
JP2009239598A (en) * 2008-03-27 2009-10-15 Casio Comput Co Ltd Camera built-in projector
US7719596B2 (en) 2006-03-27 2010-05-18 Funai Electric Co., Ltd. Display apparatus, burn-in correction system and burn-in correction method
US7911500B2 (en) 2007-06-28 2011-03-22 Fuji Xerox Co., Ltd. Image processing device, computer readable recording medium, and image processing method
JP2011141600A (en) * 2010-01-05 2011-07-21 Canon Inc Image processing apparatus, method, and program
US8123363B2 (en) 2004-09-21 2012-02-28 Nikon Corporation Projector device, portable telephone and camera
JP2012095249A (en) * 2010-10-29 2012-05-17 Casio Comput Co Ltd Imaging device, imaging processing method, and program
WO2012111121A1 (en) * 2011-02-17 2012-08-23 Necディスプレイソリューションズ株式会社 Projector and minute information generating method
JP2013070218A (en) * 2011-09-22 2013-04-18 Sharp Corp Projection apparatus
JP2013513807A (en) * 2009-12-15 2013-04-22 テスト アクチエンゲゼルシャフト Method for visualizing position-resolved measurement results and corresponding measuring device
JP2013137368A (en) * 2011-12-28 2013-07-11 Hitachi Consumer Electronics Co Ltd Projector and method for controlling image display of the same
JP2014197739A (en) * 2013-03-29 2014-10-16 セイコーエプソン株式会社 Projector and adjustment method
JP2015019401A (en) * 2014-09-05 2015-01-29 カシオ計算機株式会社 Imaging controlling device, imaging controlling method, and program
US8964070B2 (en) 2007-06-21 2015-02-24 Nikon Corporation Image processing method, image processing program, image processing device, image processing system, electronic camera and electronic apparatus
WO2018142586A1 (en) * 2017-02-03 2018-08-09 マクセル株式会社 Projection-type video display device
WO2018155269A1 (en) * 2017-02-27 2018-08-30 ソニー株式会社 Image processing device and method, and program
CN113709429A (en) * 2020-05-20 2021-11-26 中强光电股份有限公司 Color correction method and color correction system
US11323673B2 (en) 2019-12-24 2022-05-03 Seiko Epson Corporation Method for operating control apparatus, and projector
CN114630089A (en) * 2020-12-10 2022-06-14 精工爱普生株式会社 Projection method, projection system, and recording medium

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208089A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Projector, imaging device, and program for trapezoid correction
JP4588366B2 (en) * 2004-06-08 2010-12-01 株式会社リコー Image display device
JP2005354171A (en) * 2004-06-08 2005-12-22 Ricoh Co Ltd Image display apparatus
WO2006011192A1 (en) * 2004-07-26 2006-02-02 Mitsubishi Denki Kabushiki Kaisha Conference system
JP2006053313A (en) * 2004-08-11 2006-02-23 Sharp Corp Image projection apparatus with photographing function and data management system using the apparatus
JP2006093823A (en) * 2004-09-21 2006-04-06 Nikon Corp Projector apparatus, mobile phone, and camera
US8123363B2 (en) 2004-09-21 2012-02-28 Nikon Corporation Projector device, portable telephone and camera
JP2006094445A (en) * 2004-09-27 2006-04-06 Casio Comput Co Ltd Projector, method of photographing projection image, and program
JP2006186723A (en) * 2004-12-28 2006-07-13 Casio Comput Co Ltd Imaging apparatus, imaging method, program, and projector system
JP2007017543A (en) * 2005-07-05 2007-01-25 Ricoh Elemex Corp Device, system, method and program for presentation
JP2007079003A (en) * 2005-09-13 2007-03-29 Canon Inc Image projecting apparatus
JP2007206619A (en) * 2006-02-06 2007-08-16 Olympus Corp Information presentation apparatus and method
US7719596B2 (en) 2006-03-27 2010-05-18 Funai Electric Co., Ltd. Display apparatus, burn-in correction system and burn-in correction method
JP2008079070A (en) * 2006-09-22 2008-04-03 Seiko Epson Corp Digital camera, image display system, and parameter adjustment method
JP2008306264A (en) * 2007-06-05 2008-12-18 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method, program, and recording medium
US8964070B2 (en) 2007-06-21 2015-02-24 Nikon Corporation Image processing method, image processing program, image processing device, image processing system, electronic camera and electronic apparatus
US7911500B2 (en) 2007-06-28 2011-03-22 Fuji Xerox Co., Ltd. Image processing device, computer readable recording medium, and image processing method
JP2009115984A (en) * 2007-11-05 2009-05-28 Casio Comput Co Ltd Projection device, projection method and program
JP2009239598A (en) * 2008-03-27 2009-10-15 Casio Comput Co Ltd Camera built-in projector
JP2013513807A (en) * 2009-12-15 2013-04-22 テスト アクチエンゲゼルシャフト Method for visualizing position-resolved measurement results and corresponding measuring device
JP2011141600A (en) * 2010-01-05 2011-07-21 Canon Inc Image processing apparatus, method, and program
JP2012095249A (en) * 2010-10-29 2012-05-17 Casio Comput Co Ltd Imaging device, imaging processing method, and program
WO2012111121A1 (en) * 2011-02-17 2012-08-23 Necディスプレイソリューションズ株式会社 Projector and minute information generating method
JP2013070218A (en) * 2011-09-22 2013-04-18 Sharp Corp Projection apparatus
JP2013137368A (en) * 2011-12-28 2013-07-11 Hitachi Consumer Electronics Co Ltd Projector and method for controlling image display of the same
JP2014197739A (en) * 2013-03-29 2014-10-16 セイコーエプソン株式会社 Projector and adjustment method
JP2015019401A (en) * 2014-09-05 2015-01-29 カシオ計算機株式会社 Imaging controlling device, imaging controlling method, and program
WO2018142586A1 (en) * 2017-02-03 2018-08-09 マクセル株式会社 Projection-type video display device
JPWO2018142586A1 (en) * 2017-02-03 2019-11-07 マクセル株式会社 Projection-type image display device
US11146766B2 (en) 2017-02-03 2021-10-12 Maxell, Ltd. Projection-type video display device
WO2018155269A1 (en) * 2017-02-27 2018-08-30 ソニー株式会社 Image processing device and method, and program
CN110313176A (en) * 2017-02-27 2019-10-08 索尼公司 Image processing apparatus, method and program
US11323673B2 (en) 2019-12-24 2022-05-03 Seiko Epson Corporation Method for operating control apparatus, and projector
CN113709429A (en) * 2020-05-20 2021-11-26 中强光电股份有限公司 Color correction method and color correction system
CN114630089A (en) * 2020-12-10 2022-06-14 精工爱普生株式会社 Projection method, projection system, and recording medium
CN114630089B (en) * 2020-12-10 2023-06-06 精工爱普生株式会社 Projection method, projection system, and recording medium

Similar Documents

Publication Publication Date Title
JP2004109246A (en) Projection system
EP3356887B1 (en) Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama
US11368604B2 (en) Combined HDR/LDR video streaming
TWI242381B (en) Image processing system, projector, information storage medium, and picture processing method
US7433089B2 (en) Image processor
JP3908255B2 (en) Image projection system
US10924718B2 (en) Image processing device and method
JP2010009417A (en) Image processing apparatus, image processing method, program and recording medium
JPH10187929A (en) Image processor
Klein et al. Simulating low-cost cameras for augmented reality compositing
JP2004228824A (en) Stack projection device and its adjusting method
JPH11242737A (en) Method for processing picture and device therefor and information recording medium
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
KR101626447B1 (en) An apparatus, a method, a computer-readable medium storing a computer program of removing lens distortion and chromatic aberration
JP2006074805A (en) Multi-projection video display device
JP5363872B2 (en) Image correction apparatus and program thereof
WO2013190645A1 (en) Automatic image compositing device
JP2005039849A (en) Video display system
JP4168024B2 (en) Stack projection apparatus and adjustment method thereof
JP2004265185A (en) Image projecting device with camera/with digitizer
JP2004032665A (en) Image projection system
JP2009253553A (en) Image data output device and image data output method
JP4701774B2 (en) Image capturing apparatus, image capturing method, and image capturing program
JP2006313965A (en) Photographic apparatus, and photographed image processing method, and program
JP2006053313A (en) Image projection apparatus with photographing function and data management system using the apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050622