JP3821194B2 - Pointing position detecting device and method, presentation system, information storage medium - Google Patents

Pointing position detecting device and method, presentation system, information storage medium Download PDF

Info

Publication number
JP3821194B2
JP3821194B2 JP08902599A JP8902599A JP3821194B2 JP 3821194 B2 JP3821194 B2 JP 3821194B2 JP 08902599 A JP08902599 A JP 08902599A JP 8902599 A JP8902599 A JP 8902599A JP 3821194 B2 JP3821194 B2 JP 3821194B2
Authority
JP
Japan
Prior art keywords
image
area
reference value
instruction
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08902599A
Other languages
Japanese (ja)
Other versions
JPH11345085A (en
Inventor
和憲 平松
武志 降幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP08902599A priority Critical patent/JP3821194B2/en
Publication of JPH11345085A publication Critical patent/JPH11345085A/en
Application granted granted Critical
Publication of JP3821194B2 publication Critical patent/JP3821194B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はディスプレイ領域のポインティング位置を、自動的に検出するポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
プレゼンターが、例えばディスプレイ領域上に映し出された画面を見ながらプレゼンテーションを行う場合を想定する。プレゼンターはポインティングディバイスを用いてディスプレイ領域の任意のポイントを指し示しながら、プレゼンテーションを進めていく。
【0003】
この場合に、プレゼンターがディスプレイ領域上の任意のポイントを簡単に指し示すことができ、しかもこのポインティング位置を、システムが確実に認識し、これを画像処理に反映することが重要となる。
【0004】
しかし、従来のシステムでは、プレゼンターがディスプレイ領域上の所望のポイントを指示する場合に、特殊なポインティングディバイスを用いなければならないため、ユーザにとって極めて使い勝手が悪いという問題があった。
【0005】
例えば、レーザポインターを用いて、ディスプレイ領域上の任意の点を指し示す場合には、ディスプレイ領域の周囲がある程度暗くないとそのポインティング位置がわかりにい。また、ポイント位置が小さな点として表示されるため、この面からもポインティング位置がわかりにくいという問題があった。
【0006】
また、マウス等のポインティングディバイスを用いて、ディスプレイ領域上に表示されるカーソル位置を移動しながらプレゼンテーションを行う場合には、プレゼンターがその都度プレゼンテーションを中断しマウス操作を行わなければならない。このため、プレゼンテーションをスムーズに行うことができず、極めて使い勝手が悪いという問題があった。
【0007】
本発明は、このような課題に鑑みて成されたものであり、その目的は、ポイント指示具として、特別なものを用いることなく、しかもディスプレイ領域におけるポインティング位置を自動的にかつ正確に認識することができるポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体を提供することにある。
【0008】
【課題を解決するための手段】
前記目的を達成するため、本発明のポインティング位置検出装置は、
画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
を含み、
前記基準値設定手段は、前記基準値を変更可能に構成されたことを特徴とする。
【0009】
また、本発明のポインティング位置検出方法は、
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、前記撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
を含み、
前記位置検出工程は、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含むことを特徴とする。
【0010】
本発明は、画像が表示されるディスプレイ領域において、操作者の動作により発生する指示画像の画像領域を、撮像手段の撮像画像から抽出し、ポインティング位置を自動検出する。
【0011】
ここにおいて、撮像手段から出力される撮像信号が、例えば白黒の画像である場合には、この撮像信号から指示画像の画像領域を切り出すため二値化しきい値を基準値として設定すればよい。
【0012】
この基準値は、基本的には撮像手段で撮像される画像の黒レベルの輝度の値以下に設定する。画面上において一番輝度が低い色が黒であり、前記指示画像の画像領域の輝度は、黒の輝度レベル以下になるからである。
【0013】
このとき、ディスプレイ領域上に表示される画像の黒レベルと、二値化のための基準値とのマージンを大きく取りすぎると、指示画像の画像領域の輝度レベルが前記基準値以下まで下がらずに、指示画像の画像領域を検出できないという問題が生ずる。
【0014】
逆に基準値のマージンを小さくしすぎると、指示画像の画像領域でない画像対象を、指示画像の画像領域として誤って認識してしまう。例えば、周囲の環境条件によってディスプレイ領域中の輝度が多少変化した場合に、それを誤って指示画像の画像領域として認識するという問題が生ずる。
【0015】
従って、このようなシステムでは、使用環境に応じて適切な値に、前記基準値の値を設定しないと、適切な指示画像の画像領域を検出することが難しいという問題が生ずる。
【0016】
本発明では、撮像信号から指示画像の画像領域を分離するための基準値が変更可能に構成されている。これにより、前述した問題を解決し、ディスプレイ領域上に形成される指示画像の画像領域を正確に抽出し、ポインティング位置を自動検出することができる。
【0017】
また本発明のプレゼンテーションシステムは、
画像を表示する画像表示手段と、
画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御手段と、
を含み、
前記基準値設定手段は、前記基準値を変更可能に構成されたことを特徴とする。
【0018】
また、本発明は、
プレゼンテーション用システムを制御するためのプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体であって、
前記プログラムは、
撮像手段の撮像信号から、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出するための位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段から表示される画像に含まれるカーソルの位置制御を行うためのカーソル制御手段としてコンピュータを機能させ、
前記基準値設定手段は、
前記基準値を変更するとを特徴とする。
【0019】
また、本発明は、プレゼンテーションでのポインティング位置を検出する方法において、
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、前記撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
検出された前記ポインティング位置に基づき、前記画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御工程と、
を含み、
前記位置検出工程は、
撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含むことを特徴とする。
【0020】
本発明によれば、プレゼンターが所定の指示具、例えば棒状に形成された指示具や、指などでディスプレイ領域上の所望のポインティング位置を差し示す。そして、撮像手段の撮像信号から前記ポインティング位置が検出され、カーソルの位置制御が行われる。このため、ユーザー及びプレゼンテーションを聴く第三者にとって、極めて使い勝手のよいプレゼンテーションシステムを実現することが可能となる。
【0021】
特に本発明では、撮像信号から指示画像の画像領域を分離するための基準値が変更可能に構成されている。これにより、ディスプレイ領域上に形成される指示画像の画像領域を正確に抽出でき、この結果、ポインティング位置を自動検出及びカーソルの位置制御を良好に行うことができる。
【0022】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる指示画像の影領域の所定位置をポインティング位置として検出するように形成してもよい。
【0023】
これにより、例えばプレゼンターが指し示したディスプレイ領域の所望のポインティング位置を、ディスプレイ領域上の影領域として検出することが出来る。
【0024】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる指示画像の実像領域の所定位置をポインティング位置として検出するように形成してもよい。
【0025】
これにより、例えば、プレゼンターが指し示したディスプレイ領域の所望のポインティング位置を、ディスプレイ領域上の実像領域として検出することもできる。
【0026】
このように、本発明によれば、プレゼンターが、棒のような指示具で所定位置を指し示した場合に、そのポインティング位置を、ディスプレイ領域上の指示具の影の領域、または実像領域として検出し、カーソルの位置制御を良好に行うことができる。
【0027】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる棒状の画像領域を指示画像の画像領域として捉え、その先端位置をポインティング位置として検出するように形成することが好ましい。
【0028】
これにより、あらゆる検出対象の中から、棒状の画像領域以外の検出対象は、ノイズとして判断され、指示画像として認識されることが無い。このため、ノイズや環境条件等に影響されることなく、正確なポインティング位置検出が可能になる。
【0029】
更に、棒状の指示画像の画像領域の先端がポインティング位置として検出されるため、あたかもユーザが、指や棒で黒板等を差し示しながらプレゼンテーションを行う場合と同様な感覚で、プレゼンテーションを進めることができる。
【0030】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる画像領域の連続性から棒状の画像領域を指示画像の画像領域として捉えるように形成することが好ましい。
【0031】
このようにすることにより、撮像画像に含まれるノイズである他の画像と、指示画像とをより確実に分離認識できるため、ポインティング位置の検出をさらに確実に行うことが可能となる。
【0032】
また、本発明の装置及びシステムは、
前記画像表示手段から所定の較正パターン画像を前記ディスプレイ領域に表示させる較正パターン画像生成手段を含み、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定するように形成することが好ましい。
【0033】
さらに、本発明の情報記憶媒体に記憶される情報は、
前記画像表示手段から所定の較正パターン画像を前記ディスプレイ領域に表示させるための較正パターン用制御情報を含み、
前記基準値設定情報は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定するための情報を含むことが好ましい。
【0034】
具体的には、画像表示手段の立ち上げ時または途中の更新時に、前記較正パターン画像を画像表示手段から前記ディスプレイ領域に向け表示する。
【0035】
このとき、前記基準値設定手段は、表示された較正パターンを撮像した撮像信号と、前記較正パターン画像の輝度データとに基づき、撮像画像から指示画像の画像領域を抽出するための基準値を自動設定する。例えば撮像信号が白黒画像信号の場合には、黒の輝度レベルに対して、最適なマージンをもつ基準値を自動設定する。
【0036】
このとき、本発明の装置及びシステムは、
基準値設定用の指示手段を含み、
前記指示手段により基準値設定の命令が入力された場合に、
前記較正パターン画像生成手段は、
較正パターン画像を前記画像表示手段からディスプレイ領域に表示させ、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定するように形成することが好ましい。
【0037】
同一の場所で使用されるプレゼンテーションシステムであっても、使用する時刻や、周囲の環境によって、最適な基準値が変化する場合も多い。例えば、昼に使用する場合と、夜に使用する場合とでは最適基準値が異なる。また、同一の時間帯に使用する場合でも、晴れの日と曇りの日では、最適基準値が異なる場合も多い。
【0038】
また、プレゼンテーションが長時間にわたる場合には、プレゼンテーションの開始時と、所定の時間を経過した時点とでは、周囲の明るさが異なり、最適基準値も変動することも多い。
【0039】
このような場合にも、本発明によれば、指示手段を用いて基準値の再設定を指示することにより、画像表示手段から較正パターン画像がディスプレイ領域に表示すればよい。これにより、基準値設定手段は、この較正パターンの撮像信号と、較正パターンデータとに基づき、最適基準値を自動的に再設定する。
【0040】
また、前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を設定するように形成することが好ましい。
【0041】
このとき、前記較正パターン画像生成手段は、前記各分割領域毎の較正パターンをもつ所定の較正パターン画像を前記ディスプレイ領域に表示させるように形成することが好ましい。
【0042】
また、前記ディスプレイ領域を、比較的暗くなりやすいコーナ領域と、相対的に明るくなりやすい中央領域とに分割し、各分割領域毎に固有の基準値を設定することが好ましい。
【0043】
また、本発明の情報記憶媒体において、
前記基準値設定情報は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を自動設定するための情報を含むことが好ましい。
【0044】
例えば、前記画像表示手段に投射型プロジェクタを用いたる際、ディスプレイ領域が湾曲している場合や投射画像の輝度むらによって、画面の黒レベルの輝度が均一でない場合には、各領域に合わせて最適な基準値を設定する必要がある。
【0045】
本発明によれば、ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を設定することにより、ディスプレイ領域上に輝度のムラが存在する場合でも、撮像画像から確実に指示画像の画像領域を抽出し、ポインティング位置の検出を行うことが可能となる。
【0046】
また、前記較正パターン画像生成手段は、
輝度の異なる複数の領域を組み合わせて形成された所定の較正パターン画像を前記ディスプレイ領域に表示するように形成することが好ましい。
【0047】
すなわち、基準値の設定時に、画像表示手段から表示する較正パターンは、例えば輝度レベルが一番低い黒を基準として設定される場合が多いため、較正パターン画像の全領域をすべて黒レベルに設定してもよい。しかし、同じ黒でも、これがディスプレイ領域に画像として表示される場合には、その周囲がすべて黒の場合と、その周囲に黒以外の領域が存在する場合とでは、撮像手段が同じ黒を撮像してもその輝度レベルが若干異なってものとなる。
【0048】
本発明では、このような場合でも、確実にかつ最適な値に基準値の値を設定できるように、輝度の異なる複数の領域を組み合わせて形成された較正パターン画像を表示し、この較正パターン画像から前記基準値の設定を行うように構成されている。これにより、撮像信号から指示画像の画像領域をより正確に抽出し、ポインティング位置の検出を行うことが可能となる。
【0049】
特に、このような輝度が異なる複数の領域を組み合わせたパターンを、各分割領域毎に設定した較正パターン画像として前記ディスプレイ領域に表示するように構成することにより、各分割領域毎の基準値の設定をより適切な値に設定することができる。
【0050】
【発明の実施の形態】
次に、本発明が適用されたプレゼンテーションシステムの好適な実施の形態を図面に基づき詳細に説明する。
【0051】
(1)全体の説明
図1には、画像表示装置としてフロント型投射装置を用いた場合のプレゼンテーションシステムの一例が示されている。スクリーンの略正面に設けられたプロジェクタ10から、所定のプレゼンテーション用の画像が投射される。プレゼンター30は、スクリーン上の画像が表示されている領域すなわちディスプレイ領域12の画像の所望の位置を指示棒40で指し示しながら、第三者に対するプレゼンテーションを行なう。
【0052】
図4には、プレゼンター30がプレゼンテーションを行っている場合の一例が示されている。
【0053】
図4(A)に示すように、プレゼンター30が指示棒40を用いてスクリーン上のディスプレイ領域12の所望の位置を指示すると、図4(B)に示すようにディスプレイ領域12と、プレゼンター30の一部、及び指示棒40が、ディスプレイ領域12の略正面に設けられ、撮像手段として機能するCCDカメラ14により、撮像画像20として撮像される。
【0054】
ここで、プロジェクタ10の出射光が指示棒40により遮蔽されて出来る棒状の細長い影を指示画像の影領域300という。また、撮像画像20内に写されているプレゼンター30の一部と指示棒40その物の実画像を指示画像の実像領域302といい、ポインティング位置の検出処理に用いられるこれらの情報(対象)を合わせて検出対象304という。
【0055】
そして、プレゼンター30が指示棒40の影領域300を用いて指示するディスプレイ領域12上のポインティング位置は、撮像画像20におけるディスプレイ領域12上に映し出される指示画像の影領域300の先端位置310として検出される。すなわち、棒状の指示画像の影領域300の先端位置310が、ポインティング位置として自動的に検出され、所定のデータ処理が行われる。
【0056】
同様に、プレゼンター30が指示棒40の実像領域302を用いて指示するディスプレイ領域12上のポインティング位置は、撮像画像20におけるディスプレイ領域12上に映し出される指示画像の実像領域302の先端位置として検出される。
【0057】
本実施の形態によれば、プロジェクタ10から投射されるカーソル200が認識されたポインティング位置を示すように、データ処理が行われる。すなわち、ディスプレイ領域12上に投射される表示画像において、この画像に含まれるカーソル200は、指示棒40のポインティング位置に追従して移動することになる。これにより、プレゼンター30のプレゼンテーションを聴く第三者は、ディスプレイ領域12上に表示されるカーソル200の位置から、そのポインティング位置を正確にかつわかりやすく認識することができる。
【0058】
なお、後述するように、ディスプレイ領域12のコーナ部、特に4つのコーナ部は、その中央部に比べて比較的輝度レベルが低くなる。このような領域においても、指示棒40の影や実像を正確に検出できるように、実施の形態のシステムは、光源16を用いて、ディスプレイ領域12のコーナ部を補助照明するように構成されている。
【0059】
図2(A)には、リアタイプのプレゼンテーションシステムの一例が示されている。このプレゼンテーションシステムは、ディスプレイ領域12の後方から、プロジェクタ10の画像を投射し、該投射画像をディスプレイ領域12の後方に設けられ撮像手段として機能するCCDカメラ14を用いて撮像する。プロジェクタ10の投射画像は、反射板18−1,18−2を介してディスプレイ領域12上に投射される。
【0060】
図2(B)は、リアタイプのプレゼンテーションシステムの他の一例を示し、このシステムは、ディスプレイ領域12の画像をその略正面外側に設けたCCDカメラ14により撮像する。
【0061】
このようなリア型のシステムにおいても、プレゼンター30が、指示棒40でディスプレイ領域12上の所望の位置を指し示すことにより、この指示棒40の影や実像が撮像画像20内に映し出される。そして、この映し出された影を指示画像の影領域300、実像を指示画像の実像領域302としてCCDカメラ14で撮像することができる。
【0062】
そして、該指示画像の影領域300、または指示画像の実像領域302の先端位置310が、ポインティング位置として自動的に認識され、前述したデータ処理が行なわれる。
【0063】
尚、本発明が適用されるリア型システムの画像表示手段としては、前述したような投射型の表示装置であるプロジェクタ10以外にも、例えば直視型のCRT、直視型の液晶表示パネル、PDP(プラズマ ディスプレイ パネル)、その他の表示装置を用いてもよい。
【0064】
図3には、前記指示棒40の具体例が示されている。本実施の形態に用いられる指示棒40は、この棒状部の先端に幅広のポインティング部42が設けられている。このポインティング部42は、反射率が低い材料で構成されている。このようにすることにより、指示棒の先端で光が反射されないため、撮像領域中において明確な指示画像の検出対象304が形成でき、この結果、CCDカメラ14の撮像信号から、より確実にポインティング位置を検出することができる。
【0065】
なお、図1に示すフロントタイプのシステムでは、プレゼンター30は、指示棒40をプロジェクタ10とディスプレイ領域12の光路上に位置させることにより、指示棒40を直接ディスプレイ領域12に接触させることなく、CCDカメラ14の撮像画像20内に指示画像の影領域300を形成することができる。同様に、ディスプレイ領域12とCCDカメラ14の光路上に指示棒40を位置させることにより、指示棒40を直接ディスプレイ領域12に接触させることなく、撮像画像20内に指示画像の実像領域302を形成することができる。従って、プレゼンター30は、ディスプレイ領域12から比較的離れた位置からでも、ディスプレイ領域12上の所望の位置を指し示しながらプレゼンテーションを行うことができる。
【0066】
図5には、実施の形態のシステムの機能ブロック図が概略的に示されている。
【0067】
本実施の形態のシステムは、プロジェクタ10へ画像を供給する入力源100と、CCDカメラ14の撮像画像からポインティング位置の自動検出を行う処理部110とを含んで構成される。なお、前記処理部110の詳細な構成は後述する。
【0068】
また、本実施の形態において、プロジェクタ10とCCDカメラ14とは一体的なユニットとして形成されているが、分離して配置されていても構わない。このように分離配置されている場合、特に専用の大会議室またはホールにおいて大画面に拡大しながらプレゼンテーションを行う時には、予め会場内に準備されている既存機材と併用することで、装置の種類や設置場所、周辺環境に応じて自由な形に変形しながら使用できるため、汎用性、使い勝手が向上する。
【0069】
そして、プロジェクタ10は、その投射サイズや方向が任意に設定できるように構成され、前記CCDカメラ14も、その撮像領域を任意に設定できるように構成されている。
【0070】
さらに、CCDカメラ14が、プレゼンター30の指示棒40が形成する指示画像の検出対象304を明確な画像として捉えることができるように、プロジェクタ10及びCCDカメラ14の各光路には、それぞれ偏光板10a,14aが設けられている。これら各偏光板10a,14aは、その偏光方向がそれぞれ異なる方向となるように設定されている。これにより、CCDカメラ14は、プロジェクタ10から出射された光の影響をさほど受けることなく、撮像した画像情報の中から指示画像の検出対象304を確実に撮像することができる。
【0071】
また、前記CCDカメラ14は、撮像領域を拡大、縮小できるズーム機能を有し、ディスプレイ領域12より広い領域を撮像領域とし、またこれよりも狭い領域を撮像領域として任意に設定できるように構成されている。
【0072】
これにより、その使用環境や撮像内容によって撮像領域を任意に設定できるので、システムの使い勝手が極めてよくなる。撮像領域をディスプレイ領域より広く設定した場合にあっては、撮像領域とディスプレイ領域との位置合わせが不要となる。
【0073】
特に、プレゼンター30を含むような撮像領域を設定することにより、プレゼンター30の位置を考慮して、より適切なポインティング位置の検出を行うことが可能となる。
【0074】
さらに、撮像範囲を狭く設定することにより、CCDカメラ14の解像度を実質的に上げることができるため、ディスプレイ領域12上に表示される特定の領域を、高解像度で撮像し、所望の画像処理を行うことも可能となる。
【0075】
(2)ポインティング位置の検出
図6には、前記処理部110の具体的な機能ブロック図が示されている。
【0076】
本実施の形態において、処理部110は、2値化処理部112、ポインティング座標検出部116、演算処理部118を含んで構成される。このような処理部110は、具体的にはCPU、各種プログラム、データ等を記憶する情報記憶媒体であるROM、ワーク領域として機能するRAMなどを用いて実現される。
【0077】
前記CCDカメラ14から出力される画像信号は、2値化処理部112へ入力される。本実施の形態において、CCDカメラ14は白黒の撮像信号を出力するものとする。
【0078】
本実施の形態において、2値化処理部112は、撮像信号と基準値Vrefとを比較し、指示画像の影や実像等の検出対象304を撮像画像から抽出し、前記ポインティング座標検出部はポインティング位置を検出する位置検出手段として機能する。
【0079】
そして、2値化処理部112は、CCDカメラ14から出力される撮像信号の輝度データと2値化のための基準値Vrefとを比較し、CCDカメラ14で撮像された画像の中から指示画像の検出対象304を抽出する処理を行い、処理データを2値化画像データとしてポインティング座標検出部116へ出力する。
【0080】
ポインティング座標検出部116は、2値化処理部112から出力された2値化画像データから検出対象304の固まりを抽出し、この検出対象304の先端部を指示棒40が指し示すポインティング座標として検出し、その検出結果を演算処理部118へ出力する。
【0081】
本実施の形態において、前記ポインティング座標検出部116は、棒状に延びる検出対象304の画像の連続性に基づき指示画像を特定し、その先端部をポインティング座標として検出するように構成されている。そのため、単に検出対象304の画像の角をポインティング座標として検出する場合に比べ、ポインティング位置の検出精度を高めることができる。
【0082】
以下にその詳細を説明する。
【0083】
図7(A)には、ポインティング座標検出部116のポインティング座標検出処理の概略を説明するためのフローチャートが示されている。尚、本実施の形態において、指示画像の検出対象304として、特に指示画像の影領域300を用いた検出処理について説明するが、指示画像の実像領域302についても、撮像画像20内の低輝度な領域を抽出することで、同様な処理方法が適用できる。
【0084】
まず、2値化処理部112から出力される2値化画像データから、棒状の指示画像の影領域300を特定する処理を行う。すなわち、図7(B)の▲1▼に示すように、2値化処理部112から出力される2値化画像データには、プレゼンターの影30aと、指示棒40の影である指示画像の影領域300とが含まれている。
【0085】
ステップS10において、ポインティング座標検出部116は、図7(B)の▲2▼に示すように、この2値化画像データから指示画像の影領域300のみを抽出する処理を行う。この抽出処理は、図7(B)の▲1▼に示す2値化画像の中から、棒状に連続する影の画像部分を抽出することにより行われる。
【0086】
次に、ポインティング座標検出部116は、ステップS12のポインティング位置検出処理を行う。すなわち、図7(B)の▲2▼で抽出された棒状の指示画像の影領域300のどこがポインティング位置であるかを特定する処理を行う。すなわち、図7(B)の▲3▼に示すように、棒状の指示画像の影領域300の両端の点A、Bのどちらがポインティング位置かを判定する処理を行う。
【0087】
ここでは、図7(B)の▲1▼に示すように、2値化処理部112から入力された2値化画像データに、指示画像の影領域300のB側と連続するプレゼンターの影30aが含まれている。このため、このプレゼンターの影30aと接していないA点側がポインティング位置として特定される。よって、図7(B)の▲4▼に示すように、この棒状の指示画像の影領域300の先端、すなわちA点の座標が、ポインティング位置として検出され、演算処理部118へ向け出力される。
【0088】
このように、本実施の形態においては、2値化処理部112で図7(B)に示すような影の領域を表す2値化画像データが得られると、まずステップS10で棒状の影の画像部分を指示画像の影領域300として抽出し、次にステップS12で、抽出された指示画像の影領域300の両端のどちら側がポインティング位置であるかを特定し、そのポインティング位置の座標を検出する処理を行う。このようにすることにより、2値化処理部112から出力される2値化画像データから、単純な影の角の部分をポインティング位置として特定する場合に比べ、ポインティング位置の検出精度を高めることができる。
【0089】
以下、前記ステップS10、ステップS12の処理をより詳細に説明する。
【0090】
(2−1)ステップS10の詳細
図8には、前記ステップS10の処理の具体例、すなわち2値化処理部112から出力される2値化画像データから指示画像の影領域300を抽出するアルゴリズムの具体例が示されている。
【0091】
ここでは、棒状の指示画像の影領域300の抽出は、細長い形状の抽出と等価であると考えて、その処理を行っている。
【0092】
まず、細長い影を検出し、次に該細長い影の面積を検出する。そして、面積が大きな領域は、連続性があると認識し、これを指示画像の影領域300として抽出する。以下、その詳細を説明する。
【0093】
まず、2値化処理部112から図8Bに示す2値化画像データ400が入力されると、ポインティング座標検出部116は、指示画像の影領域300の抽出動作を開始する(ステップS20)。
【0094】
この2値化画像データ400には、先に説明したようにプレゼンターの影30aと、指示棒40の影である指示画像の影領域300とが含まれている。
【0095】
この入力画像データ400に対し、ステップS22、S24で、それぞれ水平方向及び垂直方向にHPF処理を施す。ここでHPF処理とは、水平及び垂直の各ライン方向に一定以上の長さが連続している影の部分を取り除く処理をいう。
【0096】
次に、ステップS22、S24の処理により得られた画像を、ステップS26で合成し、プレゼンターの影30aが除去された2値画像データ402を得る。すなわち、水平方向もしくは垂直方向に細い部分をもつ影の画像のみが残り、これ以外の影の画像は除去されることになる。
【0097】
そして、得られた2値画像データ402に、一定の長さ以下の影を取り除くLPF処理をステップ28で施してラベリング対象2値画像データ404とする。これにより、細かなノイズ440は全て除去される。
【0098】
更に、ステップS30、S32、S34において、ステップ28で取り除けなかった指示画像の影領域300以外の検出ノイズ450の除去を行う。該検出ノイズ450の除去処理は、まずステップS30でラベリング処理を行い、ステップS32でラベル毎の面積算出を行い、ステップS34である面積以上の影を抽出することにより行われる。
【0099】
すなわち、ラベリング処理対象2値画像データ404に含まれる各検出ノイズ450の固まりを個々の領域に分け、同図に示すようにA、B…Eとラベリングを行い、ラベリング処理データ406を得る。
【0100】
次に、各ラベル(領域)毎の画素数を数える。実際の処理はラベリング処理と同時に行っても良い。これにより、各ラベルA、B …E毎の影の領域の面積が算出される。そして、面積の小さいラベルは、これをノイズと判定してラベリング処理データ406から除去し、指示画像の影領域300のみが含まれる2値画像データ408を得る。なお、ステップS34では、最大面積をもつラベルを抽出するようにしても良く、後述するような複数のポインティング位置を検出する場合には、最大面積のラベルとその次に面積の大きなラベルを抽出するようにしても良い。
【0101】
また、S32における面積算出以外の抽出方法として、連続した棒状のラベルから指示画像の影領域300を抽出しても良い。この場合、抽出されたラベリング処理データ406の形状が棒状でかつ連続している場合には、指示棒40により発生した影として判断できるが、小さくて連続でない検出ノイズ450の場合には、S22、S24、S28の各フィルタ処理において除去しきれなかった2値画像データの検出ノイズと判断される。
【0102】
このようなステップS20〜S36の一連の処理により、2値化処理部112から出力される2値画像データ400からプレゼンターの影30aやノイズを除去し、細長い指示画像の影領域300のみを抽出した2値画像データ408を得ることができる。
【0103】
なお、HPF処理された2値画像データ402に含まれるノイズが少ない場合には、ステップS28の処理は行う必要がない。
【0104】
(2−2)ステップS12の詳細
図9には、前記処理ステップS20〜S30によって得られた2値画像データ408に含まれる指示画像の影領域300から、ポインティング位置を決定するための具体的なアルゴリズムが示されている。
【0105】
この処理では、指示画像の影領域300の最も角の位置をポインティング座標として求める。又、指示画像の影領域300の先端がある程度面積をもっている場合でも、その最も角の座標を、ポインティング座標として特定する。
【0106】
この処理を開始すると(ステップS40)、まずステップS42で、図9(B)の▲1▼に示す2値画像データ408に含まれる指示画像の影領域300の長手方向両端の点A、Bを検出する。この検出処理の具体例は、図10を用いて後で説明する。
【0107】
次にステップS44で、指示画像の影領域300以外の影の画像とB点が接しているか否か、又は近接しているか否かが判断される。
【0108】
ここでYESと判断されると、図9(B)の▲2▼に示すように、2値化処理部112から出力された2値画像データ400(ステップS22〜S34の処理がなされる前の2値画像データ)は、B点がプレゼンターの影30aと接している。従って、この場合には、その反対側の点Aがポインティング座標として求められる。
【0109】
又、ステップS44でNOと判断された場合には、次にステップS46で、B点が図9(B)の▲3▼に示す2値画像データ410のように、画面の縁もしくはその近くに存在するか否かが判断される。図9(B)の▲2▼は、プレゼンター30が、画面410の外から、長い指示棒でディスプレイ領域上の所望の位置をポインティングする場合を想定したものである。このような場合には、指示画像の影領域300のB点は、画面410の縁に存在することになるため、その反対側の点Aがポインティング座標Aとして求められる。
【0110】
又、ステップS46でNOと判断された場合には、次にステップS48で、指示画像の影領域300以外の影とA点が接しているか、又は近接しているかが判断される。ここで、YESと判断された場合には、B点がポインティング位置として求められる。
【0111】
又、ステップS48でNOと判断された場合には、次のステップS50で、A点が、画面の縁上の点か、もしくは近接する点か否かが判断される。ここでYESと判断された場合にはB点がポインティング位置として求められ、NOと判断された場合には、検出エラー出力される。
【0112】
以上説明したように、本実施の形態ではステップS44,S46の処理により、ディスプレイ領域12に向かってプレゼンター30が左側に立った場合でもポインティング位置を正確に検出でき、またS48,S50の処理により、ディスプレイ領域12に向かってプレゼンター30が右側に立った場合でもポインティング位置を正確に検出できる。このようにして、指示画像の影領域300の両端のA点、B点のいずれがポインティング位置であるかを判断し、このポインティング位置を(x、y)の2次元座標として検出する。
【0113】
(2−3)ステップS42の詳細
図10には、図9のステップS42の処理の具体例が示されている。ここでは、指示画像の影領域300を含む3つの2値画像データが示されている。図10(A)は、影領域300が真横方向、図10(B)は縦方向、図10(C)は斜め方向に向いている場合をそれぞれ示している。尚、指示画像の影領域300の形状や大きさは、使用した指示棒40の形態により変わる。例えば、指示画像の影領域300の形状は、丸形や四角形、または多角形の何れでも良く、本実施の形態においては細長い楕円状の形状の場合を例に取り説明する。
【0114】
このような指示画像の影領域300の両端の座標を求めるためには、まず図10に示すように、ディスプレイ領域12の左上の座標を原点(X,Y)=(0,0)として、画像内における指示画像の影領域300のx、yがそれぞれ最小、最大の4点(座標上で最も端の点、つまり、どの方向に対してもそれ以降に検出座標が存在しない点)をa、b、c、dとして求める。
a (Xmin,Ya)
b (Xmax,Yb)
c (Xc,Ymin)
d (Xd,Ymax)
そして、a,b,c,dが、
(Xmax−Xmin)>(Ymax−Ymin)
の条件を満足した場合には、aとbの点を、ステップS42の指示画像の影領域300の両端の点A、Bとして特定し、またa,b,c,dが、
(Xmax−Xmin)<(Xmax−Ymin)
の条件を満足した場合には、c、dの点を指示画像の影領域300の両端の点A、Bとして特定する。
【0115】
従って、図10に示した指示画像の影領域300を例にとると、図10(A)、図10(C)はa,b座標が長手方向の端点、図10(B)はc,d座標が長手方向の端点として検出される。
【0116】
なお、本実施の形態のポインティング座標検出部116は、指示棒40を用いた指示の時系列データを元に、常に後から指示した位置をポインティング位置として検出し、その検出位置データを出力するように構成されている。
【0117】
このようにして本実施の形態のポインティング座標検出部116は、指示画像の影領域300の先端の座標をポインティング位置として検出し、この検出位置データを演算処理部118へ向け出力する。
【0118】
なお、本実施の形態では、指示棒40がディスプレイ領域12上の撮像画像20を遮蔽してできた部分を指示画像の影領域300として抽出し、ポインティング位置の検出を行ったが、これ以外の指示部、例えばプレゼンター30の指でできる影を指示画像の影領域300として認識し、指の先端位置をポインティング位置として自動認識してもよい。
【0119】
又、本実施の形態では、CCDカメラ14から白黒の画像信号を出力し、2値化処理部112、ポインティング座標検出部116を用い、この画像信号から指示画像の影領域300を分離し、ポインティング位置を検出しているが、CCDカメラ14からカラーの撮像信号が出力される場合でも、前記実施の形態の同様な手法を用いて、撮像信号の輝度レベルと基準値Vrefとを比較して指示画像の影を抽出し、ポインティング位置を検出してもよい。
【0120】
(2−4)シェーディング対策
プレゼンテーションシステムの使用環境によっては、例えば図13(A)に示すように、ディスプレイ領域12上に投射される画像の一部、特にコーナー部は、輝度レベルが他の領域より低い低輝度領域320aが発生することがある。このような場合に、これをCCDカメラ14で撮像し、2値化処理部112で2値化処理をすると、図13(B)に示すように低輝度領域320bが影として抽出されてしまう。特に、指示画像の影領域300が、この低輝度領域320bに重なる場合には、ポインティング位置を正確に検出することが困難となる。
【0121】
このような問題を解決するために、本実施の形態のシステムでは、ライトまたはLEDアレイ等の照明手段16を用いて、ディスプレイ領域12上の輝度レベルの低い低輝度領域320aを集中照射する。このようにすることにより、2値化処理部112で処理された2値化画像には前記低輝度領域320aに該当する部分がなくなるため、この2値化画像データから指示画像の影領域300を良好に抽出し、ポインティング位置の検出を行うことが可能となる。
【0122】
(3)検出位置データに基づくデータ処理
上述した図6における演算処理部118は、このようにして入力されるポインティング位置の検出データに基づき各種のデータ処理や画像処理を行う。
【0123】
本実施の形態において、この演算処理部118は、カメラ制御部122、カーソル制御部120及び基準値自動設定部114として機能する。
【0124】
(3−1)カメラ制御部122の詳細
前記カメラ制御部122は、オペレータ操作部130、もしくはプロジェクタ10のPJ(プロジェクタ)光学制御部150から入力される情報に基づき、CCDカメラ14の各種光学制御、例えばフォーカスの制御を行う。ここでは、特に後者のプロジェクタ10のPJ光学制御部150から入力された情報に基づく光学制御について、説明する。
【0125】
図22は、プロジェクタ10の投射レンズにおけるフォーカスやズーム調整等の各種調整操作に連動して、CCDカメラ14の撮像レンズの光学調整を自動的に行う方法について説明する図である。
【0126】
図22(A)は、全体の構成を説明するためのブロック図である。
【0127】
通常、プレゼンター30は、プロジェクタ10から投射される表示画像のフォーカスを最適に合わせ込むために、プロジェクタ10の投射レンズの光学調整機構であるPJレンズ調整機構152の調整を、マニュアルで行ったり、自動調整機構を用いて自動的に行わせたりする。このPJレンズ調整機構152の調整量をセンサー154で検出し、カメラ制御部122に入力する。
【0128】
カメラ制御部122は、センサー154の検出データを基に、CCDレンズの光学調整量を制御するために予め組み込まれたレンズ制御プログラム126を実行する。その実行結果は、CCDカメラ14内のCCD光学制御部22に供給され、このCCD光学制御部22が、撮像レンズの光学調整を行うCCDレンズ調整機構24を制御する。このようにして、プロジェクタ10の投射レンズの制御に連動してCCDカメラ14の撮像レンズの調整が可能になる。
【0129】
これにより、従来はプロジェクタ10とCCDカメラ14のそれぞれのレンズを個々に調整する必要があったが、本実施の形態によれば、プロジェクタ10の投射レンズ152をプレゼンター30がマニュアル調整するか、もしくは自動的に調整する操作で、CCDカメラ14の細かな光学調整が自動的に行われるため、CCDカメラ14の細かな光学調整をする煩わしさや手間が省け、操作性や使い勝手が向上できる。
【0130】
図22(B)は、図22(A)の処理のアルゴリズムである。
まず、ステップS202で、PJレンズ調整機構152が使用者により操作され、その調整(可変)量をセンサー154で検出する(ステップS204)。次に、センサー154で検出された可変量を基に、CCDレンズ調整機構24における制御量をレンズ制御プログラム126で求め(ステップS206)、ステップS208でCCDレンズの調整機構が自動的に制御される。
【0131】
前記カーソル制御部120は、検出されたポインティング位置を指し示すように、カーソル200の位置制御を行う。すなわち、プロジェクタ10から投射される画像に含まれるカーソル200が、指示棒40のポインティング位置に追従して移動するように、入力源100を制御する。
【0132】
基準値自動設定部114は、2値化処理部112で使用する2値化のための基準値Vrefを最適値に自動設定するための処理を行う。
【0133】
次に、カーソル制御部120の詳細を説明する。
【0134】
(3−2)カーソル制御部120の詳細
前記カーソル制御部120は、前記指示画像の影領域300と重ならない位置で、かつ検出されたポインティング位置を指し示すようにカーソル200の位置制御を行う。
【0135】
図11(A)には、カーソル200の位置制御の一例が示されている。この一例では、指示画像の影領域300の延長線上で一定距離離れた位置に、カーソル200の表示位置を制御している。具体的には、指示棒40の影である指示画像の影領域300の連続性を認識し、その延長線上にカーソル200が位置するように位置制御を行う。
【0136】
この時、指示棒40とカーソル200とが重ならない位置、例えば指示棒40の先端に対し、カーソル1個分だけ離してカーソル200を表示する。
【0137】
これにより、カーソル200が指示棒40の影に隠れてしまうことがなく、プレゼンター30のポインティング位置をカーソル200によって確実にかつ分かり易く表示することができる。
【0138】
また、カーソル制御部120は、指示画像の影領域300の先端の太さに応じて表示するカーソル200の大きさや形状、色等を制御するように構成してもよい。例えば、指示画像の影領域300が細い場合にあっては、その先端位置の正確な位置が識別しずらいため、カーソル200を大きく表示することにより、ディスプレイ領域12を見ている視聴者にとってポインティング位置がより分かり易いものとなる。
【0139】
ここで、図11(A)に示すように、指示棒40の延長線上にカーソル200を表示すると、ディスプレイ領域12の周縁部では、カーソル200が隠れたり、表示できない領域が現れる可能性がある。
【0140】
この為、図11(B)に示すように、ポインティング位置が表示画面の周縁部に近づき(同図▲2▼)、指示画像の影領域300の延長線上で一定距離=dが保てなくなった場合にのみ、カーソル200をポインティング位置の近く(同図▲3▼)、または重ねて(同図▲4▼)表示するようにしてもよい。また、指示画像の影領域300の先端とカーソル200との距離や重なる面積に応じて、カーソル200のサイズや色、または形状(矢印の向き)等を制御するようにしてもよい。同図において、▲3▼はカーソルサイズ及び形状が変形した例で、▲4▼はカーソルの色が変わった事を表している。このようにすることにより、表示画面の周縁部においても、カーソル200が指示棒40の影になり視聴者から見えなくなる事がなく、かつそのポインティング位置もより分かり易いものとなる。
【0141】
図21は、上記のカーソルサイズを変えた場合に用いられるアルゴリズムについて説明した図である。
【0142】
まず、ステップS162において、図8のステップS32における面積算出処理として、長さ=d、幅=tを算出する。ここで、本実施の形態では、指示棒40の枝の部分の形状と異なる先端形状の部分を持っている場合について示したが、指示棒40の枝の部分と同じ形状の先端部を持っていても良い。この場合には、指示棒40の先端部分の長さ=d’だけを切り出し、先端形状が長さ=d’、幅=tとして考えればよい。
【0143】
次に、検出された指示画像の検出対象304の長手方向の長さ=dと、あらかじめ任意に設定可能な長さ=Lとを比較し(ステップS164)、d<Lの場合には、先端形状が設定よりも小さいと判断できるため、カーソル200のサイズを大きく変更する。一方、d>Lの場合には、十分大きな先端として判断できる。
【0144】
次に、ステップS166では、検出された指示画像の検出対象304の幅=tと、あらかじめ任意に設定可能な幅の値=kとを比較する。t<kの場合には、長さの比較と同様に、先端形状が設定よりも小さいと判断され、カーソル200のサイズを大きく変更する。一方、t>kの場合には、十分大きな先端として判断される。
【0145】
このような処理をステップS34が行われる度に行うことで、リアルタイムなカーソルの制御が可能になる。
【0146】
また、カーソル制御部120は、図12(A)に示すようにカーソル200の表示位置を制御してもよい。
【0147】
例えば、プレゼンター30が、ディスプレイ領域12に向かって左側に立ってプレゼンテーションを行う場合には、ディスプレイ領域12を、右端の狭い領域220と、それ以外の領域230とに分け、さらに右端の領域220を、上側の領域220aとそれ以外の下側の領域220bとに分ける。そして、ポインティング位置が右端以外の領域230にある場合には、ポインティング位置の真横に水平左向きにカーソル200を表示し、ポインティング位置が右端の上側領域220aにある場合には、ポインティング位置の下側で上向きにカーソル200を表示し、ポインティング位置が右端の上側以外の下側領域220bにある場合には、ポインティング位置の上側で下向きにカーソル200を表示する。これにより、プレゼンターはディスプレイ領域12の左側に立ってプレゼンテーションを行う場合に、画面右端にカーソル200が隠れてしまうという事態の発生を防止することができる。
【0148】
また、プレゼンターがディスプレイ領域12の右端に立ってプレゼンテーションを行う場合には、投射領域の左端に、前記領域220a、220bを設け、カーソル200を同様に表示すれば良い。この場合、主たる領域230上においては、ポインティング位置の真横に水平右向きにカーソル200を表示することが好ましい。
【0149】
カーソル200を図12(A)に示すように表示制御する場合には、オペレータ操作部130からの入力操作により、カーソル制御部120は、前述したようにプレゼンター30がディスプレイ領域12の右側に立ってプレゼンテーションを行う場合と、左側に立ってプレゼンテーションを行う場合とで、カーソルの表示向きが切り替わるように構成してもよい。
【0150】
このようにすることにより、ユーザーにとってより使いやすいプレゼンテーションシステムを実現することができる。
【0151】
図12(B)には、図12(A)の▲1▼に示すように、指示画像の影領域300の先端座標から水平方向に一定距離離れた位置にカーソルを表示するアルゴリズムの具体例が示されている。
【0152】
ステップS100でカーソルを表示するためのアルゴリズムが開始され、ステップS102でポインティング位置の先端座標(x,y)が検出される。
【0153】
次に、ステップS104において、検出された座標(x,y)を基に、カーソルの先端座標(x‘,y’)が計算され、カーソル座標(x‘,y’)が決定される(S106)。
【0154】
次に、ステップS108で、該カーソル座標(x‘,y’)にカーソル位置を制御して表示するための処理が行われ、表示画面上の所望の位置にカーソルを表示する事が出来る。
【0155】
図19は、複数のポインティング位置を検出した場合、該複数のポインティング位置に対応した複数のカーソルを独立に表示制御する方法について説明した図である。
【0156】
まず、ステップS122で、図8のステップS34における指示画像の検出対象304の抽出処理を行い、ステップS124で、抽出されたラベルの数を調べる。ここで、抽出ラベルの数が1つの場合には、通常処理されるようにカーソルを1つ表示すればよい。ステップS124で複数の指示画像の検出対象304を抽出した場合、ステップS126でその数を算出し、ステップS128でその数に応じたカーソルを表示する処理を行う。
【0157】
このような一連の処理を繰り返し行い、指示画像位置にカーソルを表示する。
【0158】
図20は、上記のような方法で複数のカーソルを表示する際に、その中の一つのカーソルの表示位置を固定し、別のカーソルのみを自由に位置制御する場合の具体的なアルゴリズムを示す。
【0159】
図20の▲1▼に示すように、プレゼンター30は、指示棒40を用いてディスプレイ領域12上の所望の位置を指示し、該ポインティング位置に第一のカーソル202を表示させる(ステップS142、144)。
【0160】
本実施の形態のプレゼンテーションシステムには、後述する所定の機能が割り付けられたファンクションスイッチ140が設けられている。そして、このファンクションスイッチ140を操作することにより、第一カーソル202の移動を一時的に停止させておく命令を送り(ステップS146)、図20の▲2▼に示すように、第一カーソル202の表示位置を固定する(ステップS148)。
【0161】
次に、図20の▲3▼に示すように、上記以外のディスプレイ領域12上を指し示し、新しいポインティング位置に第二のカーソル204を表示させる(ステップS150,152)。
【0162】
これにより、新旧2つのポインティング位置を同時に、かつ別々に指し示すことができる。特に、後から表示された第二カーソル204には、色や形状を第一カーソル202と異にしたり、点滅表示等、先に表示されている第一カーソル202と区別するための処理を施すことが好ましい。
【0163】
尚、固定表示されている第一カーソル202は、ステップS154でプレゼンター30がファンクションスイッチ140を再び操作するまで表示位置を固定するように形成してもよく、または一定時間経過すると固定表示が解除されるように形成しても良い。このようにして固定表示が解除された第一カーソル202は、ディスプレイ領域12上の指示画像として検出される訳ではないため、図20の▲4▼に示すように、画面上からは消えてしまう。一方、指示され続けている第二カーソル204は、画面上の指示に追従してそのまま表示され、これ以降第二カーソル204があたかも第一カーソル202のように扱われる。
【0164】
また、上述した機能以外に、ファンクションスイッチ140には、マウスの左クリック、右クリック等と同様な操作を行うことができる機能が割り付けられている。
【0165】
このファンクションスイッチ140は、前記指示棒40と一体的に設けてもよく、また別体にしてプレゼンター30が持ち運び自在に形成してもよい。
【0166】
以上の構成とすることにより、プレゼンター30が、指示棒40を用いてカーソル200を所定の位置まで導き、ここでファンクションスイッチ140を操作することにより、カーソル制御部120に、いわゆるマウスの左クリックや右クリックがされた場合と同様な処理を行わせることができる。
【0167】
さらにこのファンクションスイッチ140にアンダーライン機能や手書き文字入力を割り付けることにより、ディスプレイ領域12上に表示されている画像の所定位置にアンダーラインを引いたり、ポインティング位置を動かすことにより手書き文字入力を行うこともできる。
【0168】
また、このファンクションスイッチ140に、カーソル200の移動を一時的に停止させる機能を割り付けておくことにより、プレゼンター30が指示棒40を用いてカーソルを所定位置まで移動した状態で、ファンクションスイッチ140を操作すれば、カーソル200の表示位置を次にファンクションスイッチ140を操作するまで固定することができる。
【0169】
(4)基準値Vrefの自動設定
次に、基準値自動設定部114の設定する基準値Vrefの詳細について説明する。
【0170】
CCDカメラ14から出力される撮像信号から、指示画像の影領域300を確実に抽出するためには、2値化閾値の基準値Vrefの値を最適な値に設定する必要がある。
【0171】
この基準値は、ディスプレイ領域12上に投射した画像を、CCDカメラ14が撮像した場合に、この撮像信号に含まれる最も低い輝度レベルの値以下に設定する必要がある。例えば、本実施の形態のように白黒の撮像信号がCCDカメラ14から出力される場合には、黒の輝度レベル以下の値に基準値を設定する必要がある。これは、画面上で一番輝度レベルの低いのが黒色であるのに対して、前記指示画像の影領域300の輝度レベルは、黒色の輝度レベル以下になるからである。
【0172】
図14(A)には、画像をCCDカメラ14で撮像することにより得られた各領域の輝度レベルが示されている。
【0173】
ここでは、プロジェクタからディスプレイ領域12上に真っ白な画像(表示白領域、同図▲1▼)と、真っ黒な画像(表示黒領域、同図▲2▼)を投射し、更にディスプレイ領域12上の一部を遮蔽しディスプレイ領域12の一部に投射画像が表示されない状態(本当の黒領域、同図▲3▼)を形成した。図14(A)は、この画像をCCDカメラ14で撮像することにより得られた各領域の輝度レベルである。指示棒40によりできる影(検出黒領域、同図▲4▼)は、映像の黒の輝度レベル(VLC)と本当の黒の輝度レベル(VB)との間の輝度レベル(300a)となるため、指示画像の影領域300を確実に抽出するためには、2値化のための基準値Vrefを、映像の黒の輝度レベル(VLC)より小さく、本当の黒の輝度レベル(VB)より大きな値に設定してやる必要がある。尚、同図の輝度レベルは、CCDカメラ14の1本分の水平走査ラインの輝度レベルを表している。
【0174】
ところで、図14(A)は、理想的なディスプレイ領域環境を想定し、このディスプレイ領域12上に画像を投射した場合に得られる各領域の輝度レベルを示しているが、実際のディスプレイ領域12上に投射した画像をCCDカメラ14で撮像したときの輝度レベルは、例えば図14(B)のようになる。図14(B)は、ディスプレイ領域12上に投射される画像の輝度レベルが、ディスプレイ領域の中央(同図▲5▼)においてやや高く、ディスプレイ領域の端(同図▲6▼)に行くに従って小さい場合の輝度レベルである。ディスプレイ領域12の近くに窓があったり、室内の照明環境が偏っている場合にも、状態こそ違うものの同様な事が起こる。
【0175】
従って、指示画像の影領域300の黒レベル300aと、基準値Vrefとのレベル差△V(以下マージンという)を小さく設定しすぎると、中央の指示画像の影領域300を確実に検出できないという事態が生ずる。すなわち、図14(B)の2値化処理出力に示すように、中央の指示画像の影領域300(同図▲5▼)の輝度レベル300aの変動が大きいと、その影領域300の輝度レベル300aが基準値Vref以下まで下がらないことがある。この場合には、この影領域300を確実に抽出することができない。
【0176】
この為、本実施の形態の基準値自動設定部114は、基準値Vrefを、最適な値に自動設定できるように構成されている。
【0177】
以下にその詳細を説明する。
【0178】
図15(A)には、ディスプレイ領域12上に投射される画像を複数のエリアに分割した状態が示され、ここでは9個のエリアに分割している。
【0179】
そして、実施の形態の基準値自動設定部114は、各分割エリア毎に固有の基準値Vrefを設定できる。
【0180】
例えば、分割エリア1、2、3においては、それぞれ図14(C)に示すように、基準値をVref1、Vref2、Vref3に設定する。
【0181】
これにより、輝度レベルの高い画面中央部(図14(B)の▲5▼部分)においても、指示画像の影領域300を確実に検出することができる。
【0182】
また、各分割エリア毎に固有の基準値Vrefを設定するために、本実施の形態の較正パターン画像生成部124は、所定の較正パターン画像をプロジェクタ10からスクリーン上のディスプレイ領域12に投射させる。この時、基準値自動設定部114は、投射された較正パターン画像のデータと、CCDカメラ14から得られる撮像信号とを照合し、各分割エリア毎に最適な基準値Vrefを設定する。
【0183】
ここでは、図15(B)に示す較正パターン画像を、ディスプレイ領域12上に投射するように構成されている。この較正パターン画像500は、前記分割エリアに対応して9つのエリア500−1、500−2、・・・500−9を含み、各エリアは、その中央に黒領域510、その周囲に白領域512が配置されている。このように、各エリア500−1、500−2、・・・500−9に、白及び黒という輝度レベルの異なる領域510、512を組合わせたパターンを配置することにより、この較正パターン画像500から、各分割エリア毎の基準レベルを最適値に設定することができる。
【0184】
なお、基準値の設定時に、プロジェクタから投射する較正パターン画像は、その輝度レベルが一番低い黒を基準として形成してもよい。例えば、較正パターン画像の全領域を、全て黒レベルとした較正パターン画像を投射してもよい。
【0185】
しかし、同じ黒でも、これがディスプレイ領域12上に投射される画像が、その周囲が全て黒の場合と周囲に白の領域が存在する場合とでは、CCDカメラ14の撮像する黒の輝度レベルが若干異なったものとなってしまう。
【0186】
本実施の形態では、このような場合でも、確実各最適な値に基準値を設定できるように、輝度レベルの異なる黒領域510と白領域512とを組合せた較正パターンを、各領域500−1、500−2、・・・500−9にそれぞれ設定し、この組合せ画像を較正パターン画像500としてディスプレイ領域12上に投射している。これにより、各分割エリア毎に、2値化のための基準値を最適な値に自動設定することができる。
【0187】
図16には、プレゼンテーションシステムの立ち上げ時の基準値自動設定動作のフローチャートが示されている。
【0188】
基準値自動設定部114は、システム立ち上げ時に基準値の自動設定を開始する(ステップS60)。まず、プロジェクタ10の映像投射スイッチがオンされたことを検出し(ステップS62)、図15(B)に示す較正パターン画像をプロジェクタ10からディスプレイ領域12上に投射させる(ステップS64)。
【0189】
そして、この基準値自動設定部114は、予め判明している較正パターン画像の輝度レベルデータと、CCDカメラ14から出力される撮像信号の対応する位置の輝度レベルとを照合し、各分割エリア毎に最適の基準値Vrefを設定する(ステップS66)。
【0190】
ここでは、各エリア毎に、撮像信号から、較正パターン画像の黒エリア510に対応する信号の輝度レベルを読み取り、この輝度レベルに対し所定のマージンをもって基準値Vrefを、各分割エリア毎に設定する。
【0191】
このような設定終了後、基準値自動設定部114は、較正パターン画像の投射を終了し、プロジェクタ10の画像入力を通常の画像入力モードへ切り替え(ステップS68)、基準値自動設定動作を終了する(ステップS70)。
【0192】
このように、本実施の形態によれば、システムを立ち上げ時に、2値化処理のための閾値Vrefを各分割領域毎に最適な値に自動設定することができる。
【0193】
図17には、システム立ち上げ後に、基準値Vrefを再設定する場合のフローチャートが示されている。
【0194】
ユーザーが基準値再設定スイッチ132を操作すると、基準値自動設定部114はこの再設定スイッチ132の操作を検出し(ステップS82)、ステップS84〜S90の基準値再設定動作を開始する。
【0195】
なお、ステップS84〜S88は、前記図16に示すS64〜68と同様な処理であるため、ここではその詳細な説明は省略する。
【0196】
このように、本実施の形態によれば、システム立ち上げ後においても基準値を最適値に自動設定することができるため、例えば、プレゼンテーションの途中で、使用環境が変わったような場合(例えば、窓の外が明るくなったり暗くなったりして、ディスプレイ領域12上の輝度レベルが変化するような場合)、ユーザは基準値再設定スイッチ132を操作することにより、2値化処理のための基準値Vrefを、その時の使用環境に応じた最適な値に自動設定することができる。
【0197】
図18には、図16のステップS64とS66、及び図17のステップS84とS86の詳細な処理を説明するための具体的なアルゴリズムが示されている。
【0198】
まず、ステップS182で、基準値Vrefの値をプリセットするか、以前使われていた基準値Vrefの値をそのまま使用するかどうかを選択する。
【0199】
前回の使用環境と全く同じか、もしくはそれと同等な環境である時には、Noを選択して前回使用した基準値Vrefを用いればよい。この場合には、基準値の設定を省略できるため便利である。
【0200】
一方、ステップS182でYesを選択し基準値Vrefの値をプリセットする場合には、基準値を設定する領域の数を指定し(ステップS184)、かつそのサイズを指定する(ステップS186)。これにより、図15(A)に示すような領域が決定できる。次に、ステップS188で、上述した図15(B)に示すような校正パターンの種類を選択する。
【0201】
次に、各分割エリア毎の輝度データを検出し(ステップS190)、該検出輝度データと予め記憶されている輝度データとをステップS192で比較する。比較した結果を基に、基準値Vrefの値を所望の値に制御し(ステップS194)、その値を記憶する(ステップS196)。次に、ステップ198で、図16のステップS64とS66、及び図17のステップS84とS86の処理を終了する。
【0202】
このようにして、本実施の形態によれば、基準値Vrefを最適な値に自動設定し、撮像信号から指示画像の影領域300を正確に抽出することが可能となる。
【0203】
また、本実施の形態では、各領域毎に異なる基準値を自動設定する場合を例に取り説明したが、必要に応じ、全領域に対し単一の基準値を自動設定するように構成してもよい。
【0204】
(5)前記処理部のハードウェアの構成
次に、前記処理部110を実現できるハードウェアの構成の一例を、図23を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、画像生成IC1010、I/Oポート1020−1、1020−2…が、システムバス1016により相互にデータ送受信可能に接続されている。そして、I/Oポート1020−1、1020−2…を介してCCDカメラ14、ファンクションスイッチ140、オペレータ操作部130、プロジェクタ150、その他の機器に接続されている。
【0205】
情報記憶媒体1006は、プログラム、画像データ、が主に格納されるものである。
【0206】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるプログラム等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。
【0207】
そして図1〜図7、図10、図11、図13〜15、で説明した種々の処理は、図8、図9、図12、図16〜22のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010等によって実現される。なお画像生成IC1010等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0208】
なお、本発明は、前述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で各種の変形実施が可能である。
【0209】
例えば、撮像手段として、画像をカラー画像として撮像するCCDカメラ等を必要に応じ用いていてもよい。
【0210】
また、指示画像の実像領域302の抽出方法については、上記のような撮像信号に基づく輝度レベルを検出する以外に、プレゼンター30の腕や指示棒40の動きから検出しても良い。
【図面の簡単な説明】
【図1】本発明が適用されたフロントタイプのプレゼンテーションシステムの概略説明図である。
【図2】本発明が適用されたリアタイプのプレゼンテーションシステムの概略説明図で、同図(A)はCCDカメラが内蔵されている場合の説明図であり、同図(B)は外付けされている場合の説明図である。
【図3】本実施の形態で使用される指示棒の一例を示す説明図である。
【図4】同図(A)は、プレゼンテーション動作の説明図であり、同図(B)はこの時の撮像画像におけるプレゼンター及び指示棒の影、指示棒の実像の説明図である。
【図5】本実施の形態のシステムの機能ブロック図である。
【図6】本実施の形態のシステムの詳細な機能ブロック図である。
【図7】CCDカメラの撮像信号から指示ポイントの影を抽出し、ポインティング位置を検出する処理の説明図である。
【図8】CCDカメラの撮像信号から指示ポイントの影を抽出するための具体的な処理の説明図である。
【図9】抽出された指示ポイントの影からポインティング位置を検出する具体的な処理の説明図である。
【図10】指示ポイントの影の両端の座標を検出する処理の説明図である。
【図11】ポインティング位置に基づくカーソル表示の一例を示す説明図で、同図(A)はカーソルが指示棒の延長線上にある場合の説明図であり、同図(B)はディスプレイ領域周辺でのカーソル表示の方法を説明するための説明図である。
【図12】ポインティング位置に基づくカーソル表示の他の一例を示す説明図で、同図(A)はカーソルの向きを変更する場合の説明図であり、同図(B)は水平方向横向きのカーソルを表示する為のアルゴリズムの説明図である。
【図13】本実施の形態におけるシェーディング対策の一例を示す説明図である。
【図14】撮像信号から指示ポイントの影を抽出するための2値化しきい値Vrefの設定処理の説明図で、同図(A)は理想状態での説明図あり、同図(B)はディスプレイ領域内で輝度差がある場合での説明図、同図(C)は基準値を変更して輝度差を改善した場合の説明図である。
【図15】同図(A)は、ディスプレイ領域を複数の領域に分割し、各領域毎に固有の基準値を設定するための処理の説明図であり、同図(B)は、前記基準値を設定する際に使用する較正パターン画像の一例を示す説明図である。
【図16】システム立ち上げ時における基準値の自動設定動作のフローチャートである。
【図17】システム立ち上げ後における、基準値の再設定動作のフローチャートである。
【図18】本実施の形態における基準値の自動設定動作の詳細を説明するフローチャートである。
【図19】本実施の形態における複数の指示ポイントに対応したカーソル表示動作の詳細を説明するフローチャートである。
【図20】本実施の形態におけるカーソル位置の固定表示動作の詳細を説明するフローチャートである。
【図21】本実施の形態におけるカーソルサイズ変更動作を説明するフローチャートである。
【図22】本実施の形態におけるCCDカメラの光学制御部の自動設定動作を説明するためのブロック図とフローチャートである。
【図23】本実施の形態における処理部のハードウエア構成の説明図である。
【符号の説明】
10 プロジェクタ
10a、14a 偏光板
12 ディスプレイ領域
14 CCDカメラ
20 撮像画像
22 CCDレンズ
24 CCDレンズ調整機構
40 指示棒
42 ポインティング部
110 処理部
112 2値化処理部
114 基準値自動設定部
116 ポインティング座標検出部
118 演算制御部
120 カーソル制御部
124 較正パターン画像生成部
126 レンズ制御プログラム
132 基準値再設定スイッチ
140 ファンクションスイッチ
150 PJ光学制御部
152 PJレンズ
154 PJレンズ調整機構
156 センサー
200 カーソル
202 第一カーソル
204 第二カーソル
230 ディスプレイ領域の右端以外の領域
220 ディスプレイ領域の右端の下側
300 指示画像の影
302 指示画像の実像
304 検出対象
320 低輝度領域
400 2値画像データ
440 ノイズ
450 検出ノイズ
500 較正パターン画像
510 黒領域
512 白領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pointing position detection apparatus and method for automatically detecting a pointing position in a display area, a presentation system, and an information storage medium.
[0002]
[Background Art and Problems to be Solved by the Invention]
Assume that a presenter makes a presentation while watching a screen displayed on a display area, for example. The presenter proceeds with the presentation while pointing to any point in the display area using the pointing device.
[0003]
In this case, it is important that the presenter can easily point to an arbitrary point on the display area, and the pointing position is surely recognized by the system and reflected in the image processing.
[0004]
However, the conventional system has a problem that it is extremely inconvenient for the user because a special pointing device must be used when the presenter indicates a desired point on the display area.
[0005]
For example, when a laser pointer is used to point to an arbitrary point on the display area, the pointing position is difficult to understand unless the periphery of the display area is dark to some extent. Further, since the point position is displayed as a small point, there is a problem that the pointing position is difficult to understand from this surface.
[0006]
In addition, when a presentation is performed using a pointing device such as a mouse while moving the cursor position displayed on the display area, the presenter must interrupt the presentation and perform a mouse operation each time. For this reason, there was a problem that presentation could not be performed smoothly and it was extremely inconvenient.
[0007]
The present invention has been made in view of such problems, and its object is to automatically and accurately recognize the pointing position in the display area without using a special point pointing tool. An object of the present invention is to provide a pointing position detection apparatus and method, a presentation system, and an information storage medium.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a pointing position detection device of the present invention includes:
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Including
The reference value setting means is configured to be able to change the reference value.
[0009]
The pointing position detection method of the present invention includes
An imaging process for imaging a display area in which an image is displayed;
A position detection step of comparing the imaging signal with a reference value for separating an image area of the instruction image and extracting the image area of the instruction image, and detecting a pointing position from the image area of the instruction image;
Including
The position detection step includes
The method includes a step of changing a reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means.
[0010]
According to the present invention, in the display area where an image is displayed, the image area of the instruction image generated by the operation of the operator is extracted from the captured image of the imaging means, and the pointing position is automatically detected.
[0011]
Here, when the imaging signal output from the imaging means is a monochrome image, for example, a binarization threshold value may be set as a reference value in order to cut out the image area of the instruction image from the imaging signal.
[0012]
This reference value is basically set to a value equal to or less than the value of the black level luminance of the image picked up by the image pickup means. This is because the color with the lowest luminance on the screen is black, and the luminance of the image area of the instruction image is below the luminance level of black.
[0013]
At this time, if the margin between the black level of the image displayed on the display area and the reference value for binarization is set too large, the luminance level of the image area of the instruction image does not decrease below the reference value. This causes a problem that the image area of the instruction image cannot be detected.
[0014]
Conversely, if the margin of the reference value is too small, an image target that is not an image area of the instruction image is erroneously recognized as an image area of the instruction image. For example, when the luminance in the display area slightly changes depending on the surrounding environmental conditions, there arises a problem that it is erroneously recognized as the image area of the instruction image.
[0015]
Therefore, in such a system, there is a problem that it is difficult to detect an image area of an appropriate instruction image unless the reference value is set to an appropriate value according to the use environment.
[0016]
In the present invention, the reference value for separating the image area of the instruction image from the imaging signal can be changed. As a result, the above-described problems can be solved, the image area of the instruction image formed on the display area can be accurately extracted, and the pointing position can be automatically detected.
[0017]
The presentation system of the present invention
Image display means for displaying an image;
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Cursor control means for controlling the position of the cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The reference value setting means is configured to be able to change the reference value.
[0018]
  The present invention also provides:
  For controlling the presentation systemprogramIs a computer-readable information storage medium in which is stored,
  SaidprogramIs
  Reference value setting for setting a reference value for separating the image area of the instruction image from the captured image from the image pickup signal of the image pickup meansmeansWhen,
  Position detection for comparing the imaging signal with the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction imagemeansWhen,
  Cursor control for controlling the position of the cursor included in the image displayed from the image display means based on the detected pointing positionLet the computer function as a means,
  Reference value settingmeansIs
  Change the reference valueThisIt is characterized by.
[0019]
The present invention also provides a method for detecting a pointing position in a presentation.
An imaging process for imaging a display area in which an image is displayed;
A position detection step of comparing the imaging signal with a reference value for separating an image area of the instruction image and extracting the image area of the instruction image, and detecting a pointing position from the image area of the instruction image;
A cursor control step for controlling the position of a cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The position detection step includes
The method includes a step of changing a reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means.
[0020]
According to the present invention, the presenter indicates a desired pointing position on the display area with a predetermined pointing tool, such as a bar-shaped pointing tool or a finger. Then, the pointing position is detected from the imaging signal of the imaging means, and the cursor position is controlled. Therefore, it is possible to realize a presentation system that is extremely convenient for users and third parties who listen to presentations.
[0021]
In particular, in the present invention, the reference value for separating the image area of the instruction image from the imaging signal is configured to be changeable. As a result, the image area of the instruction image formed on the display area can be accurately extracted, and as a result, the pointing position can be automatically detected and the cursor position can be controlled satisfactorily.
[0022]
Further, the position detection means, information or process includes
A predetermined position in the shadow area of the instruction image included in the display area may be detected as a pointing position.
[0023]
Thereby, for example, a desired pointing position in the display area indicated by the presenter can be detected as a shadow area on the display area.
[0024]
Further, the position detection means, information or process includes
You may form so that the predetermined position of the real image area | region of the instruction | indication image contained in the said display area may be detected as a pointing position.
[0025]
Thereby, for example, a desired pointing position of the display area pointed to by the presenter can be detected as a real image area on the display area.
[0026]
Thus, according to the present invention, when the presenter points to a predetermined position with an indicator such as a stick, the pointing position is detected as a shadow area or a real image area of the indicator on the display area. The cursor position can be controlled well.
[0027]
Further, the position detection means, information or process includes
It is preferable that a bar-shaped image area included in the display area is captured as an image area of the instruction image, and a tip position thereof is detected as a pointing position.
[0028]
As a result, detection targets other than the bar-shaped image region are determined as noise from all detection targets and are not recognized as instruction images. Therefore, accurate pointing position detection can be performed without being affected by noise, environmental conditions, and the like.
[0029]
Furthermore, since the tip of the image area of the stick-shaped instruction image is detected as the pointing position, the user can proceed with the presentation as if he / she made a presentation while pointing a blackboard or the like with a finger or a stick. .
[0030]
Further, the position detection means, information or process includes
It is preferable to form the bar-shaped image area as the image area of the instruction image because of the continuity of the image areas included in the display area.
[0031]
By doing in this way, since the other image which is noise contained in the captured image and the instruction image can be separated and recognized more reliably, it is possible to more reliably detect the pointing position.
[0032]
The apparatus and system of the present invention are
Calibration pattern image generating means for displaying a predetermined calibration pattern image on the display area from the image display means,
The reference value setting means includes
It is preferable that a reference value for extracting an image area of the instruction image is automatically set based on the calibration pattern image data and the imaging signal.
[0033]
Furthermore, information stored in the information storage medium of the present invention is:
Including calibration pattern control information for displaying a predetermined calibration pattern image on the display area from the image display means;
The reference value setting information is
It is preferable that information for automatically setting a reference value for extracting an image area of the instruction image is included based on the data of the calibration pattern image and the imaging signal.
[0034]
Specifically, the calibration pattern image is displayed from the image display unit toward the display area when the image display unit is started up or updated during the process.
[0035]
At this time, the reference value setting means automatically calculates a reference value for extracting the image area of the instruction image from the captured image based on the imaging signal obtained by imaging the displayed calibration pattern and the luminance data of the calibration pattern image. Set. For example, when the imaging signal is a monochrome image signal, a reference value having an optimum margin is automatically set for the black luminance level.
[0036]
At this time, the apparatus and system of the present invention
Including instruction means for setting a reference value,
When a command for setting a reference value is input by the instruction means,
The calibration pattern image generating means includes
A calibration pattern image is displayed on the display area from the image display means;
The reference value setting means includes
It is preferable that a reference value for extracting an image area of the instruction image is automatically set based on the calibration pattern image data and the imaging signal.
[0037]
Even in a presentation system used in the same place, the optimum reference value often changes depending on the time of use and the surrounding environment. For example, the optimum reference value is different between when used in the daytime and when used at night. Even when used in the same time zone, the optimum reference value is often different between a sunny day and a cloudy day.
[0038]
In addition, when the presentation takes a long time, the ambient brightness differs between the start of the presentation and the time when a predetermined time elapses, and the optimum reference value often varies.
[0039]
Even in such a case, according to the present invention, the calibration pattern image may be displayed on the display area from the image display unit by instructing the resetting of the reference value using the instruction unit. Thereby, the reference value setting means automatically resets the optimum reference value based on the imaging signal of the calibration pattern and the calibration pattern data.
[0040]
The reference value setting means includes
Preferably, the display area is divided into a plurality of areas, and a unique reference value is set for each of the divided areas.
[0041]
At this time, it is preferable that the calibration pattern image generating unit is configured to display a predetermined calibration pattern image having a calibration pattern for each of the divided areas on the display area.
[0042]
Further, it is preferable that the display area is divided into a corner area that is relatively dark and a central area that is relatively bright, and a unique reference value is set for each of the divided areas.
[0043]
In the information storage medium of the present invention,
The reference value setting information is
It is preferable that the display area is divided into a plurality of areas and includes information for automatically setting a unique reference value for each divided area.
[0044]
For example, when a projection projector is used as the image display means, if the display area is curved or the brightness of the black level of the screen is not uniform due to uneven brightness of the projected image, it is optimal for each area. It is necessary to set a proper reference value.
[0045]
According to the present invention, the display area is divided into a plurality of areas, and a unique reference value is set for each of the divided areas, so that even if there is uneven brightness on the display area, it is reliably indicated from the captured image. It is possible to extract the image area of the image and detect the pointing position.
[0046]
The calibration pattern image generation means includes
It is preferable that a predetermined calibration pattern image formed by combining a plurality of areas having different luminances is displayed on the display area.
[0047]
That is, at the time of setting the reference value, the calibration pattern displayed from the image display means is often set based on, for example, black having the lowest luminance level, so all the areas of the calibration pattern image are set to the black level. May be. However, even if the same black is displayed as an image in the display area, the imaging means picks up the same black when the surrounding area is all black and when there is a non-black area around it. However, the brightness level is slightly different.
[0048]
In the present invention, even in such a case, a calibration pattern image formed by combining a plurality of regions having different luminances is displayed so that the reference value can be reliably and optimally set. From this, the reference value is set. As a result, the image area of the instruction image can be more accurately extracted from the imaging signal, and the pointing position can be detected.
[0049]
In particular, it is possible to set a reference value for each divided region by configuring such a combination of a plurality of regions having different luminances to be displayed on the display region as a calibration pattern image set for each divided region. Can be set to a more appropriate value.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Next, a preferred embodiment of a presentation system to which the present invention is applied will be described in detail with reference to the drawings.
[0051]
(1) Overall description
FIG. 1 shows an example of a presentation system when a front projection device is used as an image display device. A predetermined presentation image is projected from a projector 10 provided substantially in front of the screen. The presenter 30 makes a presentation to a third party while pointing the desired position of the image on the screen, that is, the image in the display area 12 with the pointing bar 40.
[0052]
FIG. 4 shows an example in which the presenter 30 is giving a presentation.
[0053]
As shown in FIG. 4A, when the presenter 30 indicates the desired position of the display area 12 on the screen using the indicator bar 40, the display area 12 and the presenter 30 are shown in FIG. A part of the display bar 40 and the indicator bar 40 are provided substantially in front of the display area 12 and are picked up as a picked-up image 20 by the CCD camera 14 functioning as image pickup means.
[0054]
Here, a bar-like long shadow formed by the light emitted from the projector 10 being shielded by the pointer 40 is referred to as a shadow area 300 of the pointer image. In addition, a part of the presenter 30 and the actual image of the pointing bar 40 itself shown in the captured image 20 are referred to as a real image area 302 of the instruction image, and these pieces of information (objects) used for pointing position detection processing are used. These are collectively referred to as a detection target 304.
[0055]
The pointing position on the display area 12 indicated by the presenter 30 using the shadow area 300 of the pointing bar 40 is detected as the tip position 310 of the shadow area 300 of the instruction image displayed on the display area 12 in the captured image 20. The That is, the tip position 310 of the shadow area 300 of the bar-shaped instruction image is automatically detected as the pointing position, and predetermined data processing is performed.
[0056]
Similarly, the pointing position on the display area 12 indicated by the presenter 30 using the real image area 302 of the pointing bar 40 is detected as the tip position of the real image area 302 of the instruction image displayed on the display area 12 in the captured image 20. The
[0057]
According to the present embodiment, data processing is performed so that the cursor 200 projected from the projector 10 indicates the recognized pointing position. That is, in the display image projected on the display area 12, the cursor 200 included in the image moves following the pointing position of the pointer 40. Thereby, a third party who listens to the presentation of the presenter 30 can recognize the pointing position accurately and easily from the position of the cursor 200 displayed on the display area 12.
[0058]
As will be described later, the corner portion of the display area 12, particularly the four corner portions, has a relatively low luminance level compared to the central portion thereof. Even in such an area, the system of the embodiment is configured to use the light source 16 to illuminate the corner portion of the display area 12 so that the shadow and the real image of the pointer 40 can be accurately detected. Yes.
[0059]
FIG. 2A shows an example of a rear type presentation system. This presentation system projects an image of the projector 10 from the rear of the display area 12, and images the projected image using a CCD camera 14 provided behind the display area 12 and functioning as an imaging means. The projection image of the projector 10 is projected on the display area 12 via the reflectors 18-1 and 18-2.
[0060]
FIG. 2B shows another example of a rear type presentation system. This system captures an image of the display area 12 by a CCD camera 14 provided substantially outside the front thereof.
[0061]
Also in such a rear type system, when the presenter 30 indicates a desired position on the display area 12 with the pointing bar 40, a shadow or a real image of the pointing bar 40 is displayed in the captured image 20. The projected shadow can be captured by the CCD camera 14 as the shadow area 300 of the instruction image and the real image as the real image area 302 of the instruction image.
[0062]
Then, the shadow area 300 of the instruction image or the tip position 310 of the instruction image real image area 302 is automatically recognized as the pointing position, and the above-described data processing is performed.
[0063]
As the image display means of the rear type system to which the present invention is applied, in addition to the projector 10 which is a projection type display device as described above, for example, a direct view type CRT, a direct view type liquid crystal display panel, a PDP ( Plasma display panels) and other display devices may be used.
[0064]
FIG. 3 shows a specific example of the indicator bar 40. The pointing rod 40 used in the present embodiment is provided with a wide pointing portion 42 at the tip of the rod-shaped portion. The pointing unit 42 is made of a material having a low reflectance. By doing so, since no light is reflected at the tip of the pointing rod, a clear indication image detection target 304 can be formed in the imaging region. As a result, the pointing position can be more reliably determined from the imaging signal of the CCD camera 14. Can be detected.
[0065]
In the front type system shown in FIG. 1, the presenter 30 moves the indicator bar 40 on the optical path between the projector 10 and the display area 12 so that the indicator bar 40 does not directly contact the display area 12. A shadow area 300 of the instruction image can be formed in the captured image 20 of the camera 14. Similarly, by positioning the pointer 40 on the optical path between the display area 12 and the CCD camera 14, the real image area 302 of the pointer image is formed in the captured image 20 without the pointer 40 being in direct contact with the display area 12. can do. Therefore, the presenter 30 can make a presentation while pointing to a desired position on the display area 12 even from a position relatively distant from the display area 12.
[0066]
FIG. 5 schematically shows a functional block diagram of the system according to the embodiment.
[0067]
The system according to the present embodiment includes an input source 100 that supplies an image to the projector 10 and a processing unit 110 that automatically detects a pointing position from an image captured by the CCD camera 14. The detailed configuration of the processing unit 110 will be described later.
[0068]
In the present embodiment, the projector 10 and the CCD camera 14 are formed as an integral unit, but they may be arranged separately. When separated in this way, especially when performing presentations while enlarging a large screen in a dedicated large conference room or hall, it can be used in combination with existing equipment prepared in advance in the venue. Because it can be used while being transformed into a free shape according to the installation location and surrounding environment, versatility and usability are improved.
[0069]
The projector 10 is configured such that the projection size and direction can be arbitrarily set, and the CCD camera 14 is also configured so that the imaging region can be arbitrarily set.
[0070]
Further, the polarizing plate 10a is provided in each optical path of the projector 10 and the CCD camera 14 so that the CCD camera 14 can capture the detection target 304 of the instruction image formed by the instruction bar 40 of the presenter 30 as a clear image. , 14a are provided. These polarizing plates 10a and 14a are set so that the polarization directions thereof are different from each other. Accordingly, the CCD camera 14 can reliably capture the detection target 304 of the instruction image from the captured image information without being significantly affected by the light emitted from the projector 10.
[0071]
Further, the CCD camera 14 has a zoom function capable of enlarging and reducing the imaging area, and is configured so that an area wider than the display area 12 can be set as an imaging area, and an area narrower than this can be arbitrarily set as the imaging area. ing.
[0072]
As a result, the imaging area can be arbitrarily set according to the use environment and the imaging content, and the usability of the system is extremely improved. When the imaging area is set wider than the display area, alignment between the imaging area and the display area becomes unnecessary.
[0073]
In particular, by setting an imaging region that includes the presenter 30, it is possible to detect a more appropriate pointing position in consideration of the position of the presenter 30.
[0074]
Furthermore, since the resolution of the CCD camera 14 can be substantially increased by setting the imaging range narrow, a specific area displayed on the display area 12 is imaged at a high resolution, and desired image processing is performed. It is also possible to do this.
[0075]
(2) Pointing position detection
FIG. 6 shows a specific functional block diagram of the processing unit 110.
[0076]
In the present embodiment, the processing unit 110 includes a binarization processing unit 112, a pointing coordinate detection unit 116, and an arithmetic processing unit 118. Specifically, the processing unit 110 is realized using a CPU, a ROM that is an information storage medium that stores various programs, data, and the like, a RAM that functions as a work area, and the like.
[0077]
The image signal output from the CCD camera 14 is input to the binarization processing unit 112. In the present embodiment, it is assumed that the CCD camera 14 outputs a monochrome imaging signal.
[0078]
In the present embodiment, the binarization processing unit 112 compares the imaging signal with the reference value Vref, extracts a detection target 304 such as a shadow or a real image of the instruction image from the captured image, and the pointing coordinate detection unit performs the pointing operation. It functions as position detecting means for detecting the position.
[0079]
Then, the binarization processing unit 112 compares the luminance data of the imaging signal output from the CCD camera 14 with the reference value Vref for binarization, and designates an instruction image from the images captured by the CCD camera 14. The detection target 304 is extracted, and the processing data is output to the pointing coordinate detection unit 116 as binary image data.
[0080]
The pointing coordinate detection unit 116 extracts a mass of the detection target 304 from the binarized image data output from the binarization processing unit 112, and detects the tip of the detection target 304 as the pointing coordinate indicated by the pointing rod 40. The detection result is output to the arithmetic processing unit 118.
[0081]
In the present embodiment, the pointing coordinate detection unit 116 is configured to identify an instruction image based on the continuity of the image of the detection target 304 extending in a bar shape and detect the tip as a pointing coordinate. Therefore, the detection accuracy of the pointing position can be improved as compared with the case where the corner of the image of the detection target 304 is simply detected as the pointing coordinates.
[0082]
Details will be described below.
[0083]
FIG. 7A shows a flowchart for explaining the outline of the pointing coordinate detection process of the pointing coordinate detection unit 116. In the present embodiment, detection processing using the shadow area 300 of the instruction image as the instruction image detection target 304 will be described in particular. However, the actual image area 302 of the instruction image also has a low luminance in the captured image 20. A similar processing method can be applied by extracting the region.
[0084]
First, processing for specifying the shadow region 300 of the bar-shaped instruction image from the binarized image data output from the binarization processing unit 112 is performed. That is, as indicated by (1) in FIG. 7B, the binarized image data output from the binarization processing unit 112 includes the presenter's shadow 30a and the instruction image that is the shadow of the pointing bar 40. A shadow region 300 is included.
[0085]
In step S10, the pointing coordinate detection unit 116 performs a process of extracting only the shadow area 300 of the instruction image from the binarized image data, as indicated by (2) in FIG. This extraction process is performed by extracting a shadow image portion continuous in a bar shape from the binarized image shown in (1) in FIG.
[0086]
Next, the pointing coordinate detection unit 116 performs the pointing position detection process in step S12. That is, processing for specifying where in the shadow area 300 of the bar-shaped instruction image extracted in (2) of FIG. 7B is the pointing position is performed. That is, as shown by (3) in FIG. 7B, processing is performed to determine which of the points A and B at both ends of the shadow area 300 of the bar-shaped instruction image is the pointing position.
[0087]
Here, as indicated by (1) in FIG. 7B, the presenter's shadow 30a continuous with the B side of the shadow area 300 of the instruction image is added to the binarized image data input from the binarization processing unit 112. It is included. Therefore, the point A side that is not in contact with the shadow 30a of the presenter is specified as the pointing position. Therefore, as indicated by (4) in FIG. 7B, the tip of the shadow area 300 of the bar-shaped instruction image, that is, the coordinates of the point A is detected as the pointing position and output to the arithmetic processing unit 118. .
[0088]
As described above, in the present embodiment, when the binarization processing unit 112 obtains the binarized image data representing the shadow area as shown in FIG. 7B, first, in step S10, the bar-shaped shadow data is displayed. The image portion is extracted as the shadow area 300 of the instruction image, and then in step S12, which side of both ends of the shadow area 300 of the extracted instruction image is specified is the pointing position, and the coordinates of the pointing position are detected. Process. By doing so, the detection accuracy of the pointing position can be improved as compared with the case where the simple shadow corner portion is specified as the pointing position from the binarized image data output from the binarization processing unit 112. it can.
[0089]
Hereinafter, the processing of Step S10 and Step S12 will be described in more detail.
[0090]
(2-1) Details of Step S10
FIG. 8 shows a specific example of the processing in step S10, that is, a specific example of an algorithm for extracting the shadow area 300 of the instruction image from the binarized image data output from the binarization processing unit 112.
[0091]
Here, the extraction of the shadow region 300 of the bar-shaped instruction image is considered to be equivalent to the extraction of the elongated shape, and the processing is performed.
[0092]
First, an elongated shadow is detected, and then the area of the elongated shadow is detected. A region having a large area is recognized as having continuity, and is extracted as a shadow region 300 of the instruction image. Details will be described below.
[0093]
First, when the binarized image data 400 shown in FIG. 8B is input from the binarization processing unit 112, the pointing coordinate detection unit 116 starts an operation of extracting the shadow region 300 of the instruction image (step S20).
[0094]
As described above, the binarized image data 400 includes the presenter shadow 30a and the shadow area 300 of the instruction image which is the shadow of the instruction bar 40.
[0095]
The input image data 400 is subjected to HPF processing in steps S22 and S24 in the horizontal and vertical directions, respectively. Here, the HPF process refers to a process of removing a shadow portion having a certain length or more continuous in the horizontal and vertical line directions.
[0096]
Next, the images obtained by the processes in steps S22 and S24 are combined in step S26 to obtain binary image data 402 from which the presenter shadow 30a has been removed. That is, only a shadow image having a thin portion in the horizontal direction or the vertical direction remains, and other shadow images are removed.
[0097]
Then, the obtained binary image data 402 is subjected to LPF processing for removing shadows of a certain length or less in step 28 to obtain labeling target binary image data 404. Thereby, all the fine noises 440 are removed.
[0098]
Further, in steps S30, S32, and S34, detection noise 450 other than the shadow area 300 of the instruction image that could not be removed in step 28 is removed. The detection noise 450 is removed by first performing a labeling process in step S30, calculating an area for each label in step S32, and extracting a shadow having an area larger than the area in step S34.
[0099]
That is, each cluster of detected noises 450 included in the labeling process target binary image data 404 is divided into individual regions, and labeled with A, B... E, as shown in FIG.
[0100]
Next, the number of pixels for each label (area) is counted. The actual process may be performed simultaneously with the labeling process. Thereby, the area of the shadow area for each label A, B... E is calculated. Then, the label having a small area is determined as noise and removed from the labeling processing data 406 to obtain binary image data 408 including only the shadow region 300 of the instruction image. In step S34, a label having the maximum area may be extracted. When detecting a plurality of pointing positions as described later, a label having the maximum area and a label having the next largest area are extracted. You may do it.
[0101]
Further, as an extraction method other than the area calculation in S32, the shadow region 300 of the instruction image may be extracted from a continuous bar-shaped label. In this case, when the shape of the extracted labeling processing data 406 is rod-like and continuous, it can be determined as a shadow generated by the indicator rod 40, but in the case of a small and non-continuous detection noise 450, S22, It is determined as the detection noise of the binary image data that could not be removed in the filter processes of S24 and S28.
[0102]
Through the series of processes in steps S20 to S36, the presenter's shadow 30a and noise are removed from the binary image data 400 output from the binarization processing unit 112, and only the shadow area 300 of the elongated instruction image is extracted. Binary image data 408 can be obtained.
[0103]
If the noise included in the binary image data 402 subjected to HPF processing is small, the processing in step S28 need not be performed.
[0104]
(2-2) Details of Step S12
FIG. 9 shows a specific algorithm for determining the pointing position from the shadow area 300 of the instruction image included in the binary image data 408 obtained by the processing steps S20 to S30.
[0105]
In this process, the position of the corner of the shadow area 300 of the instruction image is obtained as pointing coordinates. Further, even when the tip of the shadow area 300 of the instruction image has a certain area, the coordinate of the corner is specified as the pointing coordinate.
[0106]
When this process is started (step S40), first, in step S42, the points A and B at both ends in the longitudinal direction of the shadow area 300 of the instruction image included in the binary image data 408 indicated by (1) in FIG. To detect. A specific example of this detection process will be described later with reference to FIG.
[0107]
Next, in step S44, it is determined whether or not the shadow image other than the shadow area 300 of the instruction image is in contact with or close to point B.
[0108]
If YES is determined here, as indicated by (2) in FIG. 9B, the binary image data 400 output from the binarization processing unit 112 (before the processing of steps S22 to S34 is performed). In the binary image data, point B is in contact with the shadow 30a of the presenter. Therefore, in this case, the point A on the opposite side is obtained as the pointing coordinate.
[0109]
If NO is determined in step S44, then in step S46, the point B is at or near the edge of the screen as in the binary image data 410 shown in (3) of FIG. 9B. It is determined whether or not it exists. 9B assumes that the presenter 30 points from the outside of the screen 410 to a desired position on the display area with a long pointer. In such a case, the point B of the shadow area 300 of the instruction image exists at the edge of the screen 410, and therefore the point A on the opposite side is obtained as the pointing coordinate A.
[0110]
If NO is determined in step S46, it is then determined in step S48 whether a shadow other than the shadow area 300 of the instruction image is in contact with or close to point A. If YES is determined here, the point B is obtained as the pointing position.
[0111]
If NO is determined in step S48, it is determined in next step S50 whether the point A is a point on the edge of the screen or a close point. If YES is determined here, the point B is obtained as the pointing position, and if NO is determined, a detection error is output.
[0112]
As described above, in the present embodiment, the processing of steps S44 and S46 can accurately detect the pointing position even when the presenter 30 stands on the left side toward the display area 12, and the processing of S48 and S50 can also be performed. Even when the presenter 30 stands on the right side toward the display area 12, the pointing position can be accurately detected. In this way, it is determined which point A or point B at both ends of the shadow area 300 of the instruction image is the pointing position, and this pointing position is detected as a two-dimensional coordinate (x, y).
[0113]
(2-3) Details of step S42
FIG. 10 shows a specific example of the process of step S42 of FIG. Here, three binary image data including the shadow area 300 of the instruction image are shown. FIG. 10A shows a case where the shadow region 300 is oriented in the lateral direction, FIG. 10B is oriented in the longitudinal direction, and FIG. 10C is oriented in the oblique direction. The shape and size of the shadow area 300 of the instruction image varies depending on the form of the instruction bar 40 used. For example, the shape of the shadow area 300 of the instruction image may be any of a round shape, a quadrangular shape, and a polygonal shape. In the present embodiment, the case of an elongated elliptical shape will be described as an example.
[0114]
In order to obtain the coordinates of both ends of the shadow area 300 of such an instruction image, as shown in FIG. 10, the upper left coordinate of the display area 12 is set to the origin (X, Y) = (0, 0). X, y of the shadow area 300 of the instruction image in the inside are the minimum and maximum four points (the end point on the coordinates, that is, the point where no detected coordinate exists in any direction thereafter) a, Obtained as b, c, d.
a (Xmin, Ya)
b (Xmax, Yb)
c (Xc, Ymin)
d (Xd, Ymax)
And a, b, c, d
(Xmax-Xmin)> (Ymax-Ymin)
If the above condition is satisfied, the points a and b are specified as the points A and B at both ends of the shadow area 300 of the instruction image in step S42, and a, b, c and d are
(Xmax−Xmin) <(Xmax−Ymin)
When the above condition is satisfied, the points c and d are specified as the points A and B at both ends of the shadow area 300 of the instruction image.
[0115]
Therefore, taking the shadow area 300 of the instruction image shown in FIG. 10 as an example, FIGS. 10A and 10C show the a and b coordinates as longitudinal end points, and FIG. 10B shows the c and d. Coordinates are detected as end points in the longitudinal direction.
[0116]
Note that the pointing coordinate detection unit 116 of the present embodiment always detects the position pointed later as the pointing position based on the time-series data of the instruction using the pointing bar 40, and outputs the detected position data. It is configured.
[0117]
In this way, the pointing coordinate detection unit 116 according to the present embodiment detects the coordinates of the tip of the shadow area 300 of the instruction image as the pointing position, and outputs the detected position data to the arithmetic processing unit 118.
[0118]
In the present embodiment, the part formed by the pointer 40 shielding the captured image 20 on the display area 12 is extracted as the shadow area 300 of the instruction image and the pointing position is detected. A shadow formed by the finger of the instruction unit, for example, the presenter 30 may be recognized as the shadow region 300 of the instruction image, and the tip position of the finger may be automatically recognized as the pointing position.
[0119]
In the present embodiment, a black and white image signal is output from the CCD camera 14, and the binarization processing unit 112 and the pointing coordinate detection unit 116 are used to separate the shadow area 300 of the instruction image from the image signal, and the pointing is performed. Although the position is detected, even when a color imaging signal is output from the CCD camera 14, the same method as in the above embodiment is used to compare the luminance level of the imaging signal with the reference value Vref and specify A shadow of the image may be extracted to detect the pointing position.
[0120]
(2-4) Shading measures
Depending on the usage environment of the presentation system, for example, as shown in FIG. 13A, a part of an image projected on the display area 12, particularly a corner portion, has a low luminance area 320a whose luminance level is lower than other areas. May occur. In such a case, when this is imaged by the CCD camera 14 and binarized by the binarization processing unit 112, the low luminance region 320b is extracted as a shadow as shown in FIG. 13B. In particular, when the shadow area 300 of the instruction image overlaps the low luminance area 320b, it is difficult to accurately detect the pointing position.
[0121]
In order to solve such a problem, in the system according to the present embodiment, the illumination means 16 such as a light or an LED array is used to concentrate and irradiate the low-luminance area 320a having a low luminance level on the display area 12. By doing so, the binarized image processed by the binarization processing unit 112 does not have a portion corresponding to the low luminance region 320a. Therefore, the shadow region 300 of the instruction image is removed from the binarized image data. It is possible to extract well and detect the pointing position.
[0122]
(3) Data processing based on detected position data
The arithmetic processing unit 118 in FIG. 6 described above performs various types of data processing and image processing based on the pointing position detection data input in this way.
[0123]
In the present embodiment, the arithmetic processing unit 118 functions as the camera control unit 122, the cursor control unit 120, and the reference value automatic setting unit 114.
[0124]
(3-1) Details of the camera control unit 122
The camera control unit 122 performs various types of optical control of the CCD camera 14, for example, focus control, based on information input from the operator operation unit 130 or the PJ (projector) optical control unit 150 of the projector 10. Here, in particular, optical control based on information input from the PJ optical control unit 150 of the latter projector 10 will be described.
[0125]
FIG. 22 is a diagram illustrating a method for automatically performing optical adjustment of the imaging lens of the CCD camera 14 in conjunction with various adjustment operations such as focus and zoom adjustment on the projection lens of the projector 10.
[0126]
FIG. 22A is a block diagram for explaining the entire configuration.
[0127]
In general, the presenter 30 manually adjusts the PJ lens adjustment mechanism 152 that is an optical adjustment mechanism of the projection lens of the projector 10 or automatically adjusts the focus of the display image projected from the projector 10. Or automatically using an adjustment mechanism. The adjustment amount of the PJ lens adjustment mechanism 152 is detected by the sensor 154 and input to the camera control unit 122.
[0128]
The camera control unit 122 executes a lens control program 126 incorporated in advance to control the optical adjustment amount of the CCD lens based on the detection data of the sensor 154. The execution result is supplied to the CCD optical control unit 22 in the CCD camera 14, and the CCD optical control unit 22 controls a CCD lens adjustment mechanism 24 that performs optical adjustment of the imaging lens. In this way, the imaging lens of the CCD camera 14 can be adjusted in conjunction with the control of the projection lens of the projector 10.
[0129]
Thus, conventionally, it has been necessary to individually adjust the lenses of the projector 10 and the CCD camera 14, but according to the present embodiment, the presenter 30 manually adjusts the projection lens 152 of the projector 10, or Since the fine adjustment of the CCD camera 14 is automatically performed by the automatic adjustment operation, the troublesome and troublesome fine adjustment of the CCD camera 14 can be omitted, and the operability and usability can be improved.
[0130]
FIG. 22B shows an algorithm of the processing of FIG.
First, in step S202, the PJ lens adjustment mechanism 152 is operated by the user, and the adjustment (variable) amount is detected by the sensor 154 (step S204). Next, based on the variable amount detected by the sensor 154, the control amount in the CCD lens adjustment mechanism 24 is obtained by the lens control program 126 (step S206), and the CCD lens adjustment mechanism is automatically controlled in step S208. .
[0131]
The cursor control unit 120 controls the position of the cursor 200 so as to indicate the detected pointing position. That is, the input source 100 is controlled so that the cursor 200 included in the image projected from the projector 10 moves following the pointing position of the pointing bar 40.
[0132]
The reference value automatic setting unit 114 performs processing for automatically setting the reference value Vref for binarization used in the binarization processing unit 112 to an optimum value.
[0133]
Next, details of the cursor control unit 120 will be described.
[0134]
(3-2) Details of cursor control unit 120
The cursor control unit 120 controls the position of the cursor 200 so as to point to the detected pointing position at a position that does not overlap with the shadow area 300 of the instruction image.
[0135]
FIG. 11A shows an example of position control of the cursor 200. In this example, the display position of the cursor 200 is controlled at a position separated by a certain distance on the extension line of the shadow area 300 of the instruction image. Specifically, the continuity of the shadow area 300 of the instruction image, which is the shadow of the instruction bar 40, is recognized, and position control is performed so that the cursor 200 is positioned on the extension line.
[0136]
At this time, the cursor 200 is displayed at a position where the pointer 40 and the cursor 200 do not overlap, for example, one cursor away from the tip of the pointer 40.
[0137]
Thereby, the cursor 200 is not hidden by the shadow of the pointing bar 40, and the pointing position of the presenter 30 can be displayed reliably and easily by the cursor 200.
[0138]
The cursor control unit 120 may be configured to control the size, shape, color, and the like of the cursor 200 to be displayed according to the thickness of the tip of the shadow area 300 of the instruction image. For example, when the shadow area 300 of the instruction image is thin, the accurate position of the tip position is difficult to identify. Therefore, the cursor 200 is displayed in a large size so that the viewer who is looking at the display area 12 can view the pointing position. Becomes easier to understand.
[0139]
Here, as shown in FIG. 11A, when the cursor 200 is displayed on the extension line of the pointing bar 40, there is a possibility that the cursor 200 may be hidden or an area that cannot be displayed appears at the periphery of the display area 12.
[0140]
For this reason, as shown in FIG. 11B, the pointing position approaches the peripheral edge of the display screen ((2) in the figure), and the constant distance = d cannot be maintained on the extension line of the shadow area 300 of the instruction image. Only in such a case, the cursor 200 may be displayed near the pointing position ((3) in the figure) or superimposed ((4) in the figure). Further, the size, color, or shape (the direction of the arrow) of the cursor 200 may be controlled in accordance with the distance between the tip of the shadow region 300 of the instruction image and the cursor 200 or the overlapping area. In the figure, (3) is an example in which the cursor size and shape are deformed, and (4) indicates that the color of the cursor has changed. By doing so, the cursor 200 does not become a shadow of the pointing bar 40 even at the peripheral edge of the display screen and is not visible to the viewer, and the pointing position becomes easier to understand.
[0141]
FIG. 21 is a diagram for explaining an algorithm used when the cursor size is changed.
[0142]
First, in step S162, length = d and width = t are calculated as the area calculation processing in step S32 of FIG. Here, in the present embodiment, the case of having a tip-shaped portion different from the shape of the branch portion of the indicator rod 40 is shown, but the tip portion having the same shape as the branch portion of the indicator rod 40 is provided. May be. In this case, only the length = d ′ of the tip portion of the indicator rod 40 may be cut out and the tip shape may be considered as length = d ′ and width = t.
[0143]
Next, the length of the detected indication image 304 in the longitudinal direction = d is compared with a length L that can be arbitrarily set in advance (step S164). Since it can be determined that the shape is smaller than the setting, the size of the cursor 200 is greatly changed. On the other hand, when d> L, it can be determined as a sufficiently large tip.
[0144]
Next, in step S166, the width of the detection target 304 of the detected instruction image = t is compared with a width value = k that can be arbitrarily set in advance. If t <k, it is determined that the tip shape is smaller than the setting, as in the length comparison, and the size of the cursor 200 is changed greatly. On the other hand, when t> k, it is determined as a sufficiently large tip.
[0145]
By performing such processing every time step S34 is performed, it is possible to control the cursor in real time.
[0146]
Further, the cursor control unit 120 may control the display position of the cursor 200 as shown in FIG.
[0147]
For example, when the presenter 30 makes a presentation while standing on the left side toward the display area 12, the display area 12 is divided into a narrow area 220 at the right end and an area 230 other than that, and the right end area 220 is further divided. The upper region 220a is divided into the lower region 220b. When the pointing position is in the area 230 other than the right end, the cursor 200 is displayed horizontally to the left next to the pointing position. When the pointing position is in the upper end area 220a at the right end, the cursor 200 is displayed below the pointing position. When the cursor 200 is displayed upward and the pointing position is in the lower area 220b other than the upper right end, the cursor 200 is displayed downward above the pointing position. Accordingly, when the presenter makes a presentation while standing on the left side of the display area 12, it is possible to prevent a situation in which the cursor 200 is hidden at the right end of the screen.
[0148]
When the presenter makes a presentation while standing at the right end of the display area 12, the areas 220a and 220b are provided at the left end of the projection area, and the cursor 200 may be displayed in the same manner. In this case, on the main area 230, it is preferable to display the cursor 200 horizontally rightward next to the pointing position.
[0149]
When the display control of the cursor 200 is performed as shown in FIG. 12A, the cursor control unit 120 causes the presenter 30 to stand on the right side of the display area 12 by the input operation from the operator operation unit 130 as described above. You may comprise so that the display direction of a cursor may be switched by the case where a presentation is performed and the case where a presentation is performed while standing on the left side.
[0150]
By doing so, it is possible to realize a presentation system that is easier to use for the user.
[0151]
FIG. 12B shows a specific example of an algorithm for displaying a cursor at a position that is a certain distance in the horizontal direction from the tip coordinates of the shadow area 300 of the instruction image, as indicated by (1) in FIG. It is shown.
[0152]
In step S100, an algorithm for displaying a cursor is started. In step S102, the tip coordinates (x, y) of the pointing position are detected.
[0153]
Next, in step S104, the tip coordinates (x ′, y ′) of the cursor are calculated based on the detected coordinates (x, y), and the cursor coordinates (x ′, y ′) are determined (S106). ).
[0154]
Next, in step S108, a process for controlling and displaying the cursor position at the cursor coordinates (x ', y') is performed, and the cursor can be displayed at a desired position on the display screen.
[0155]
FIG. 19 is a diagram illustrating a method for independently controlling display of a plurality of cursors corresponding to a plurality of pointing positions when a plurality of pointing positions are detected.
[0156]
First, in step S122, the instruction image detection target 304 in step S34 of FIG. 8 is extracted, and in step S124, the number of extracted labels is checked. Here, when the number of extracted labels is one, it is sufficient to display one cursor so that normal processing is performed. When the detection targets 304 of a plurality of instruction images are extracted in step S124, the number is calculated in step S126, and a cursor corresponding to the number is displayed in step S128.
[0157]
Such a series of processing is repeated to display a cursor at the designated image position.
[0158]
FIG. 20 shows a specific algorithm in the case where a plurality of cursors are displayed by the above-described method, in which the display position of one cursor is fixed and only another cursor is freely controlled. .
[0159]
As shown in (1) of FIG. 20, the presenter 30 indicates a desired position on the display area 12 using the pointing bar 40, and displays the first cursor 202 at the pointing position (steps S142, 144). ).
[0160]
The presentation system of the present embodiment is provided with a function switch 140 to which a predetermined function to be described later is assigned. Then, by operating this function switch 140, a command for temporarily stopping the movement of the first cursor 202 is sent (step S146), and as shown in (2) of FIG. The display position is fixed (step S148).
[0161]
Next, as indicated by (3) in FIG. 20, the second cursor 204 is displayed at a new pointing position by pointing on the display area 12 other than the above (steps S150 and 152).
[0162]
Thereby, the old and new pointing positions can be pointed simultaneously and separately. In particular, the second cursor 204 displayed later is subjected to processing for making it different from the first cursor 202 displayed earlier, such as making the color and shape different from those of the first cursor 202 or blinking display. Is preferred.
[0163]
It should be noted that the fixedly displayed first cursor 202 may be formed so that the display position is fixed until the presenter 30 operates the function switch 140 again in step S154, or the fixed display is released after a certain period of time. You may form so that. Since the first cursor 202 released from the fixed display in this way is not detected as an instruction image on the display area 12, it disappears from the screen as indicated by (4) in FIG. . On the other hand, the second cursor 204 that has been instructed continues to be displayed as it follows the instruction on the screen, and thereafter, the second cursor 204 is treated as if it were the first cursor 202.
[0164]
In addition to the functions described above, the function switch 140 is assigned a function capable of performing the same operation as a left click or right click of the mouse.
[0165]
The function switch 140 may be provided integrally with the indicator rod 40, or may be formed separately so that the presenter 30 can carry it.
[0166]
With the above configuration, the presenter 30 guides the cursor 200 to a predetermined position using the pointing bar 40 and operates the function switch 140 here, so that the cursor control unit 120 can be referred to as a so-called left mouse click or The same processing as when the right click is performed can be performed.
[0167]
Further, by assigning an underline function or handwritten character input to the function switch 140, an underline is drawn at a predetermined position of the image displayed on the display area 12, or a handwritten character input is performed by moving the pointing position. You can also.
[0168]
Further, by assigning a function for temporarily stopping the movement of the cursor 200 to the function switch 140, the function switch 140 is operated in a state where the presenter 30 has moved the cursor to a predetermined position by using the pointing bar 40. Then, the display position of the cursor 200 can be fixed until the function switch 140 is operated next time.
[0169]
(4) Automatic setting of the reference value Vref
Next, details of the reference value Vref set by the reference value automatic setting unit 114 will be described.
[0170]
In order to reliably extract the shadow area 300 of the instruction image from the imaging signal output from the CCD camera 14, it is necessary to set the binarization threshold reference value Vref to an optimum value.
[0171]
This reference value needs to be set to a value equal to or lower than the lowest luminance level included in the image signal when the image projected on the display area 12 is imaged by the CCD camera 14. For example, when a monochrome imaging signal is output from the CCD camera 14 as in the present embodiment, it is necessary to set the reference value to a value equal to or lower than the black luminance level. This is because the lowest luminance level on the screen is black, whereas the luminance level of the shadow area 300 of the instruction image is equal to or lower than the black luminance level.
[0172]
FIG. 14A shows the brightness level of each region obtained by capturing an image with the CCD camera 14.
[0173]
Here, a pure white image (display white area, (1) in the figure) and a black image (display black area, (2) in the figure) are projected on the display area 12 from the projector. Part of the display area 12 was shielded and a projection image was not displayed (real black area, (3) in the figure). FIG. 14A shows the luminance level of each region obtained by capturing this image with the CCD camera 14. The shadow (detected black area, (4) in the figure) formed by the indicator bar 40 is a luminance level (300a) between the black luminance level (VLC) and the true black luminance level (VB) of the image. In order to reliably extract the shadow region 300 of the instruction image, the reference value Vref for binarization is smaller than the black luminance level (VLC) of the video and larger than the true black luminance level (VB). It needs to be set to a value. Note that the luminance level in the figure represents the luminance level of one horizontal scanning line of the CCD camera 14.
[0174]
FIG. 14A shows an ideal display area environment, and shows the luminance level of each area obtained when an image is projected on the display area 12. However, FIG. The brightness level when the image projected onto the camera is picked up by the CCD camera 14 is, for example, as shown in FIG. In FIG. 14B, the brightness level of the image projected on the display area 12 is slightly higher in the center of the display area ((5) in the figure), and as it goes to the end of the display area ((6) in the figure). This is the brightness level when it is small. Even if there is a window near the display area 12 or the lighting environment in the room is biased, the same thing occurs although the state is different.
[0175]
Therefore, if the level difference ΔV (hereinafter referred to as margin) between the black level 300a of the shadow area 300 of the instruction image and the reference value Vref is set too small, the shadow area 300 of the center instruction image cannot be reliably detected. Will occur. That is, as shown in the binarization processing output of FIG. 14B, when the variation in the luminance level 300a of the shadow area 300 ((5) in the figure) of the central instruction image is large, the luminance level of the shadow area 300 is increased. 300a may not fall below the reference value Vref. In this case, this shadow region 300 cannot be extracted reliably.
[0176]
For this reason, the reference value automatic setting unit 114 of the present embodiment is configured to automatically set the reference value Vref to an optimum value.
[0177]
Details will be described below.
[0178]
FIG. 15A shows a state where an image projected on the display area 12 is divided into a plurality of areas, and here, the image is divided into nine areas.
[0179]
The reference value automatic setting unit 114 of the embodiment can set a unique reference value Vref for each divided area.
[0180]
For example, in the divided areas 1, 2, and 3, the reference values are set to Vref1, Vref2, and Vref3, respectively, as shown in FIG.
[0181]
As a result, the shadow area 300 of the instruction image can be reliably detected even in the central portion of the screen having a high luminance level (the portion (5) in FIG. 14B).
[0182]
In order to set a unique reference value Vref for each divided area, the calibration pattern image generation unit 124 of the present embodiment projects a predetermined calibration pattern image from the projector 10 onto the display area 12 on the screen. At this time, the reference value automatic setting unit 114 collates the data of the projected calibration pattern image with the image pickup signal obtained from the CCD camera 14, and sets the optimum reference value Vref for each divided area.
[0183]
Here, the calibration pattern image shown in FIG. 15B is configured to be projected onto the display area 12. The calibration pattern image 500 includes nine areas 500-1, 500-2,..., 500-9 corresponding to the divided areas, and each area has a black region 510 at the center and a white region around it. 512 is arranged. As described above, by arranging a pattern in which the areas 510 and 512 having different luminance levels of white and black are combined in each of the areas 500-1, 500-2,... Thus, the reference level for each divided area can be set to an optimum value.
[0184]
Note that when setting the reference value, the calibration pattern image projected from the projector may be formed with reference to black having the lowest luminance level. For example, a calibration pattern image in which the entire area of the calibration pattern image is entirely black level may be projected.
[0185]
However, even if the same black image is projected onto the display area 12, the brightness level of black captured by the CCD camera 14 is slightly different depending on whether the surrounding area is all black or a white area is present. It will be different.
[0186]
In the present embodiment, even in such a case, a calibration pattern combining a black region 510 and a white region 512 having different luminance levels is used for each region 500-1 so that the reference value can be reliably set to each optimum value. , 500-2,..., 500-9, and this combined image is projected onto the display area 12 as a calibration pattern image 500. Thereby, the reference value for binarization can be automatically set to an optimum value for each divided area.
[0187]
FIG. 16 shows a flowchart of the reference value automatic setting operation when starting up the presentation system.
[0188]
The reference value automatic setting unit 114 starts automatic setting of the reference value when the system is started up (step S60). First, it is detected that the video projection switch of the projector 10 is turned on (step S62), and the calibration pattern image shown in FIG. 15B is projected from the projector 10 onto the display area 12 (step S64).
[0189]
Then, the reference value automatic setting unit 114 collates the brightness level data of the calibration pattern image that has been determined in advance with the brightness level at the corresponding position of the imaging signal output from the CCD camera 14, and for each divided area. Is set to the optimum reference value Vref (step S66).
[0190]
Here, the luminance level of the signal corresponding to the black area 510 of the calibration pattern image is read from the imaging signal for each area, and the reference value Vref is set for each divided area with a predetermined margin with respect to this luminance level. .
[0191]
After completion of such setting, the reference value automatic setting unit 114 ends the projection of the calibration pattern image, switches the image input of the projector 10 to the normal image input mode (step S68), and ends the reference value automatic setting operation. (Step S70).
[0192]
Thus, according to the present embodiment, the threshold value Vref for binarization processing can be automatically set to an optimum value for each divided area when the system is started up.
[0193]
FIG. 17 shows a flowchart when the reference value Vref is reset after the system is started up.
[0194]
When the user operates the reference value reset switch 132, the reference value automatic setting unit 114 detects the operation of the reset switch 132 (step S82), and starts the reference value reset operation in steps S84 to S90.
[0195]
Note that steps S84 to S88 are the same processes as S64 to 68 shown in FIG. 16, and therefore detailed description thereof is omitted here.
[0196]
As described above, according to the present embodiment, the reference value can be automatically set to the optimum value even after the system is started up. For example, when the usage environment changes during the presentation (for example, When the brightness level on the display area 12 changes as the outside of the window becomes brighter or darker), the user operates the reference value resetting switch 132 to change the reference for binarization processing. The value Vref can be automatically set to an optimum value according to the use environment at that time.
[0197]
FIG. 18 shows a specific algorithm for explaining detailed processing of steps S64 and S66 of FIG. 16 and steps S84 and S86 of FIG.
[0198]
First, in step S182, it is selected whether to preset the value of the reference value Vref or whether to use the value of the reference value Vref that has been used before.
[0199]
When the environment is exactly the same as or equivalent to the previous use environment, No may be selected and the reference value Vref used last time may be used. This is convenient because the setting of the reference value can be omitted.
[0200]
On the other hand, when Yes is selected in step S182 and the value of the reference value Vref is preset, the number of areas where the reference value is set is specified (step S184) and the size is specified (step S186). Thereby, an area as shown in FIG. 15A can be determined. Next, in step S188, the type of calibration pattern as shown in FIG. 15B is selected.
[0201]
Next, luminance data for each divided area is detected (step S190), and the detected luminance data is compared with previously stored luminance data in step S192. Based on the comparison result, the reference value Vref is controlled to a desired value (step S194), and the value is stored (step S196). Next, in step 198, the processes in steps S64 and S66 in FIG. 16 and steps S84 and S86 in FIG. 17 are terminated.
[0202]
In this way, according to the present embodiment, it is possible to automatically set the reference value Vref to an optimum value and accurately extract the shadow region 300 of the instruction image from the imaging signal.
[0203]
In the present embodiment, the case where different reference values are automatically set for each region has been described as an example. However, if necessary, a single reference value is automatically set for all regions. Also good.
[0204]
(5) Hardware configuration of the processing unit
Next, an example of a hardware configuration capable of realizing the processing unit 110 will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, ROM 1002, RAM 1004, information storage medium 1006, image generation IC 1010, I / O ports 1020-1, 1020-2,... . Are connected to the CCD camera 14, the function switch 140, the operator operation unit 130, the projector 150, and other devices via the I / O ports 1020-1, 1020-2.
[0205]
The information storage medium 1006 mainly stores programs and image data.
[0206]
In accordance with a program stored in the information storage medium 1006, a program stored in the ROM 1002, and the like, the CPU 1000 controls the entire apparatus and performs various data processing. The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. A data structure having a logical configuration for realizing the present embodiment is constructed on the RAM or the information storage medium.
[0207]
The various processes described with reference to FIGS. 1 to 7, 10, 11, and 13 to 15 are programs that perform the processes shown in the flowcharts of FIGS. 8, 9, 12, and 16 to 22. The information storage medium 1006 is stored, the CPU 1000 that operates according to the program, the image generation IC 1010, and the like. Note that the processing performed by the image generation IC 1010 or the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0208]
The present invention is not limited to the embodiment described above, and various modifications can be made within the scope of the gist of the present invention.
[0209]
For example, a CCD camera or the like that captures an image as a color image may be used as the imaging unit as necessary.
[0210]
The method for extracting the real image area 302 of the instruction image may be detected from the movement of the arm of the presenter 30 or the instruction bar 40 in addition to detecting the luminance level based on the imaging signal as described above.
[Brief description of the drawings]
FIG. 1 is a schematic explanatory diagram of a front type presentation system to which the present invention is applied.
FIG. 2 is a schematic explanatory diagram of a rear type presentation system to which the present invention is applied. FIG. 2 (A) is an explanatory diagram when a CCD camera is built in, and FIG. 2 (B) is externally attached. It is explanatory drawing in the case of having.
FIG. 3 is an explanatory diagram showing an example of an indicator bar used in the present embodiment.
FIG. 4A is an explanatory diagram of a presentation operation, and FIG. 4B is an explanatory diagram of a presenter, a shadow of a pointer, and a real image of a pointer in a captured image at this time.
FIG. 5 is a functional block diagram of a system according to the present embodiment.
FIG. 6 is a detailed functional block diagram of the system according to the present embodiment.
FIG. 7 is an explanatory diagram of processing for extracting a shadow of an instruction point from an imaging signal of a CCD camera and detecting a pointing position.
FIG. 8 is an explanatory diagram of specific processing for extracting a shadow of an instruction point from an imaging signal of a CCD camera.
FIG. 9 is an explanatory diagram of a specific process for detecting a pointing position from the shadow of an instruction point extracted.
FIG. 10 is an explanatory diagram of processing for detecting the coordinates of both ends of the shadow of the indication point.
11A and 11B are explanatory diagrams showing an example of a cursor display based on a pointing position. FIG. 11A is an explanatory diagram when the cursor is on an extension line of a pointing bar, and FIG. It is explanatory drawing for demonstrating the method of cursor display.
12A and 12B are explanatory diagrams showing another example of cursor display based on the pointing position. FIG. 12A is an explanatory diagram when changing the direction of the cursor, and FIG. 12B is a horizontal sideways cursor. It is explanatory drawing of the algorithm for displaying.
FIG. 13 is an explanatory diagram showing an example of a shading countermeasure in the present embodiment.
14A and 14B are explanatory diagrams of a setting process of a binarized threshold value Vref for extracting a shadow of an instruction point from an imaging signal. FIG. 14A is an explanatory diagram in an ideal state, and FIG. An explanatory diagram in the case where there is a luminance difference in the display area, FIG. 10C is an explanatory diagram in a case where the luminance difference is improved by changing the reference value.
FIG. 15A is an explanatory diagram of processing for dividing a display region into a plurality of regions and setting a unique reference value for each region; FIG. It is explanatory drawing which shows an example of the calibration pattern image used when setting a value.
FIG. 16 is a flowchart of a reference value automatic setting operation when the system is started up;
FIG. 17 is a flowchart of a reference value resetting operation after system startup.
FIG. 18 is a flowchart for explaining the details of the reference value automatic setting operation in the present embodiment;
FIG. 19 is a flowchart illustrating details of a cursor display operation corresponding to a plurality of instruction points in the present embodiment.
FIG. 20 is a flowchart illustrating details of a cursor position fixed display operation according to the present embodiment.
FIG. 21 is a flowchart illustrating a cursor size changing operation in the present embodiment.
FIGS. 22A and 22B are a block diagram and a flowchart for explaining an automatic setting operation of the optical control unit of the CCD camera according to the present embodiment. FIGS.
FIG. 23 is an explanatory diagram of a hardware configuration of a processing unit in the present embodiment.
[Explanation of symbols]
10 Projector
10a, 14a Polarizing plate
12 Display area
14 CCD camera
20 Captured image
22 CCD lens
24 CCD lens adjustment mechanism
40 indicator
42 Pointing part
110 processor
112 Binarization processing unit
114 Reference value automatic setting section
116 Pointing coordinate detector
118 Arithmetic control unit
120 Cursor control unit
124 Calibration pattern image generator
126 Lens control program
132 Reference value reset switch
140 Function switch
150 PJ optical controller
152 PJ lens
154 PJ lens adjustment mechanism
156 sensor
200 cursors
202 First cursor
204 Second cursor
230 Area other than right edge of display area
220 Below the right edge of the display area
300 Shadow of instruction image
302 Real image of instruction image
304 Detection target
320 Low brightness area
400 Binary image data
440 noise
450 detection noise
500 Calibration pattern image
510 black area
512 white area

Claims (8)

画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
を含み、
前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に構成されたことを特徴とするポインティング位置検出装置。
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Including
The reference value setting means includes
A pointing position detection apparatus configured to divide the display area into a plurality of areas and to change a unique reference value for each of the divided areas.
画像を表示する画像表示手段と、
画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御手段と、
を含み、
前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とするプレゼンテーションシステム。
Image display means for displaying an image;
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Cursor control means for controlling the position of the cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The reference value setting means includes
A presentation system, wherein the display area is divided into a plurality of areas, and a unique reference value is set to be changeable for each divided area.
請求項2において、
前記画像表示手段から所定の較正パターン画像を前記ディスプレイ領域の各分割領域毎に表示させる較正パターン画像生成手段を含み、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定することを特徴とするプレゼンテーションシステム。
In claim 2,
Calibration pattern image generating means for displaying a predetermined calibration pattern image from the image display means for each divided area of the display area,
The reference value setting means includes
A presentation system that automatically sets a reference value for extracting an image area of the instruction image based on the data of the calibration pattern image and the imaging signal.
請求項3において、
前記較正パターン画像生成手段は、
輝度の異なる複数の領域を組み合わせて形成された所定の較正パターン画像を前記ディスプレイ領域の各分割領域毎に表示させることを特徴とするプレゼンテーションシステム。
In claim 3,
The calibration pattern image generating means includes
A presentation system, wherein a predetermined calibration pattern image formed by combining a plurality of areas having different luminances is displayed for each divided area of the display area.
請求項3、請求項4のいずれかにおいて、
基準値設定用の指示手段を含み、
前記指示手段により基準値設定の命令が入力された場合に、
前記較正パターン画像生成手段は、
較正パターン画像を前記画像表示手段からディスプレイ領域に表示させ、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定することを特徴とするプレゼンテーションシステム。
In any one of Claim 3 and Claim 4,
Including instruction means for setting a reference value,
When a command for setting a reference value is input by the instruction means,
The calibration pattern image generating means includes
A calibration pattern image is displayed on the display area from the image display means;
The reference value setting means includes
A presentation system that automatically sets a reference value for extracting an image area of the instruction image based on the data of the calibration pattern image and the imaging signal.
プレゼンテーション用システムを制御するためのプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体であって、
前記プログラムは、
撮像手段の撮像信号から、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出するための位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段から表示される画像に含まれるカーソルの位置制御を行うためのカーソル制御手段としてコンピュータを機能させ、
前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とする情報記憶媒体。
A computer-readable information storage medium storing a program for controlling a presentation system,
The program is
A reference value setting means for setting a reference value for separating the image area of the instruction image from the captured image from the imaging signal of the imaging means;
A position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Based on the detected pointing position, the computer functions as a cursor control means for controlling the position of the cursor included in the image displayed from the image display means,
The reference value setting means includes
An information storage medium, wherein the display area is divided into a plurality of areas, and a unique reference value is set to be changeable for each divided area.
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
を含み、
前記位置検出工程は、
撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含み、
前記基準値を変更する工程では、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とするポインティング位置検出方法。
An imaging process for imaging a display area in which an image is displayed;
A reference value for separating an image area of the instruction image and an imaging signal to extract an image area of the instruction image, and a position detection step of detecting a pointing position from the image area of the instruction image;
Including
The position detection step includes
Changing the reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means;
In the step of changing the reference value,
A pointing position detecting method, wherein the display area is divided into a plurality of areas, and a unique reference value is set to be changeable for each divided area.
プレゼンテーションでのポインティング位置を検出する方法において、
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
検出された前記ポインティング位置に基づき、画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御工程と、
を含み、
前記位置検出工程は、
撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含み、
前記基準値を変更する工程では、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とするプレゼンテーションでのポインティング位置検出方法。
In a method for detecting a pointing position in a presentation,
An imaging process for imaging a display area in which an image is displayed;
A reference value for separating an image area of the instruction image and an imaging signal to extract an image area of the instruction image, and a position detection step of detecting a pointing position from the image area of the instruction image;
A cursor control step for controlling the position of the cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The position detection step includes
Changing the reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means;
In the step of changing the reference value,
A method for detecting a pointing position in a presentation, wherein the display area is divided into a plurality of areas and a unique reference value is set to be changeable for each divided area.
JP08902599A 1998-03-31 1999-03-30 Pointing position detecting device and method, presentation system, information storage medium Expired - Fee Related JP3821194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08902599A JP3821194B2 (en) 1998-03-31 1999-03-30 Pointing position detecting device and method, presentation system, information storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10384398 1998-03-31
JP10-103843 1998-03-31
JP08902599A JP3821194B2 (en) 1998-03-31 1999-03-30 Pointing position detecting device and method, presentation system, information storage medium

Publications (2)

Publication Number Publication Date
JPH11345085A JPH11345085A (en) 1999-12-14
JP3821194B2 true JP3821194B2 (en) 2006-09-13

Family

ID=26430469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08902599A Expired - Fee Related JP3821194B2 (en) 1998-03-31 1999-03-30 Pointing position detecting device and method, presentation system, information storage medium

Country Status (1)

Country Link
JP (1) JP3821194B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109375793A (en) * 2012-04-05 2019-02-22 精工爱普生株式会社 Input unit, display system and input method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222375A (en) 2000-02-08 2001-08-17 Seiko Epson Corp Indicated position detection system and method, presentation system and information storage medium
JP3640156B2 (en) 2000-02-22 2005-04-20 セイコーエプソン株式会社 Pointed position detection system and method, presentation system, and information storage medium
JP2001236179A (en) 2000-02-22 2001-08-31 Seiko Epson Corp System and method for detecting indication position, presentation system and information storage medium
US7559656B2 (en) 2003-03-03 2009-07-14 Panasonic Corporation Projector system
JP5445321B2 (en) 2010-05-13 2014-03-19 セイコーエプソン株式会社 Optical detection device, display device, and electronic apparatus
JP5589547B2 (en) 2010-05-13 2014-09-17 セイコーエプソン株式会社 Optical detection device, display device, and electronic apparatus
JP2011248041A (en) 2010-05-26 2011-12-08 Seiko Epson Corp Mounting device and projection type display apparatus
JP5494261B2 (en) 2010-06-11 2014-05-14 セイコーエプソン株式会社 Processing device, optical detection device, display device, and electronic apparatus
JP5516145B2 (en) 2010-06-30 2014-06-11 セイコーエプソン株式会社 Optical detection device, display device, and electronic apparatus
JP5668416B2 (en) 2010-11-05 2015-02-12 セイコーエプソン株式会社 Optical detection apparatus, electronic apparatus, and optical detection method
JP2012103938A (en) 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
JP5672031B2 (en) * 2011-02-01 2015-02-18 セイコーエプソン株式会社 Optical detection device, electronic device, and projection display device
JP5742379B2 (en) * 2011-03-30 2015-07-01 カシオ計算機株式会社 Projection system and projection method
JP6145963B2 (en) * 2012-04-05 2017-06-14 セイコーエプソン株式会社 Projector, display system, and projector control method
CN102999241B (en) * 2012-12-31 2016-03-30 南京方瑞科技有限公司 Adopt the touch-screen that capacitance touch detects and realtime graphic is located

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109375793A (en) * 2012-04-05 2019-02-22 精工爱普生株式会社 Input unit, display system and input method

Also Published As

Publication number Publication date
JPH11345085A (en) 1999-12-14

Similar Documents

Publication Publication Date Title
EP0947948B1 (en) Pointing position detection device, presentation system and method
JP3821194B2 (en) Pointing position detecting device and method, presentation system, information storage medium
US10191594B2 (en) Projection-type video display device
JP3640156B2 (en) Pointed position detection system and method, presentation system, and information storage medium
US6788289B2 (en) System and method of pointed position detection system, projector and program
JP4422851B2 (en) Coordinate input apparatus and method
US7176881B2 (en) Presentation system, material presenting device, and photographing device for presentation
US10321106B2 (en) Position detection apparatus and contrast adjustment method used with the same
JPH11345087A (en) Presentation system and position detecting method
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
US8654103B2 (en) Interactive display
JPH11345086A (en) Pointing position detecting device and method, cursor position control method, presentation system and information storage medium
JP2002229726A (en) Coordinate input device
JP2020160808A (en) Position detection method, position detection device, and interactive projector
JP6314177B2 (en) Projection-type image display device
TWI543046B (en) Optical touch-control system
JP2005339269A (en) Image display device
US11997435B2 (en) Display method and display system
KR20190027081A (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
JP3620397B2 (en) Pointed position detection system, presentation system, and information storage medium
JP6197163B1 (en) INPUT / OUTPUT SYSTEM, INPUT PROCESSING DEVICE, INPUT / OUTPUT METHOD, AND PROGRAM
JP2013050622A (en) Projection type video display device
TW201305853A (en) Hybrid pointing device
JPH05150753A (en) Light beam projection type image display device
JP2007257152A (en) Detection device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060613

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110630

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110630

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120630

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130630

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130630

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees