JP3821194B2 - Pointing position detecting device and method, presentation system, information storage medium - Google Patents
Pointing position detecting device and method, presentation system, information storage medium Download PDFInfo
- Publication number
- JP3821194B2 JP3821194B2 JP08902599A JP8902599A JP3821194B2 JP 3821194 B2 JP3821194 B2 JP 3821194B2 JP 08902599 A JP08902599 A JP 08902599A JP 8902599 A JP8902599 A JP 8902599A JP 3821194 B2 JP3821194 B2 JP 3821194B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- reference value
- instruction
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はディスプレイ領域のポインティング位置を、自動的に検出するポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
プレゼンターが、例えばディスプレイ領域上に映し出された画面を見ながらプレゼンテーションを行う場合を想定する。プレゼンターはポインティングディバイスを用いてディスプレイ領域の任意のポイントを指し示しながら、プレゼンテーションを進めていく。
【0003】
この場合に、プレゼンターがディスプレイ領域上の任意のポイントを簡単に指し示すことができ、しかもこのポインティング位置を、システムが確実に認識し、これを画像処理に反映することが重要となる。
【0004】
しかし、従来のシステムでは、プレゼンターがディスプレイ領域上の所望のポイントを指示する場合に、特殊なポインティングディバイスを用いなければならないため、ユーザにとって極めて使い勝手が悪いという問題があった。
【0005】
例えば、レーザポインターを用いて、ディスプレイ領域上の任意の点を指し示す場合には、ディスプレイ領域の周囲がある程度暗くないとそのポインティング位置がわかりにい。また、ポイント位置が小さな点として表示されるため、この面からもポインティング位置がわかりにくいという問題があった。
【0006】
また、マウス等のポインティングディバイスを用いて、ディスプレイ領域上に表示されるカーソル位置を移動しながらプレゼンテーションを行う場合には、プレゼンターがその都度プレゼンテーションを中断しマウス操作を行わなければならない。このため、プレゼンテーションをスムーズに行うことができず、極めて使い勝手が悪いという問題があった。
【0007】
本発明は、このような課題に鑑みて成されたものであり、その目的は、ポイント指示具として、特別なものを用いることなく、しかもディスプレイ領域におけるポインティング位置を自動的にかつ正確に認識することができるポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体を提供することにある。
【0008】
【課題を解決するための手段】
前記目的を達成するため、本発明のポインティング位置検出装置は、
画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
を含み、
前記基準値設定手段は、前記基準値を変更可能に構成されたことを特徴とする。
【0009】
また、本発明のポインティング位置検出方法は、
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、前記撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
を含み、
前記位置検出工程は、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含むことを特徴とする。
【0010】
本発明は、画像が表示されるディスプレイ領域において、操作者の動作により発生する指示画像の画像領域を、撮像手段の撮像画像から抽出し、ポインティング位置を自動検出する。
【0011】
ここにおいて、撮像手段から出力される撮像信号が、例えば白黒の画像である場合には、この撮像信号から指示画像の画像領域を切り出すため二値化しきい値を基準値として設定すればよい。
【0012】
この基準値は、基本的には撮像手段で撮像される画像の黒レベルの輝度の値以下に設定する。画面上において一番輝度が低い色が黒であり、前記指示画像の画像領域の輝度は、黒の輝度レベル以下になるからである。
【0013】
このとき、ディスプレイ領域上に表示される画像の黒レベルと、二値化のための基準値とのマージンを大きく取りすぎると、指示画像の画像領域の輝度レベルが前記基準値以下まで下がらずに、指示画像の画像領域を検出できないという問題が生ずる。
【0014】
逆に基準値のマージンを小さくしすぎると、指示画像の画像領域でない画像対象を、指示画像の画像領域として誤って認識してしまう。例えば、周囲の環境条件によってディスプレイ領域中の輝度が多少変化した場合に、それを誤って指示画像の画像領域として認識するという問題が生ずる。
【0015】
従って、このようなシステムでは、使用環境に応じて適切な値に、前記基準値の値を設定しないと、適切な指示画像の画像領域を検出することが難しいという問題が生ずる。
【0016】
本発明では、撮像信号から指示画像の画像領域を分離するための基準値が変更可能に構成されている。これにより、前述した問題を解決し、ディスプレイ領域上に形成される指示画像の画像領域を正確に抽出し、ポインティング位置を自動検出することができる。
【0017】
また本発明のプレゼンテーションシステムは、
画像を表示する画像表示手段と、
画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御手段と、
を含み、
前記基準値設定手段は、前記基準値を変更可能に構成されたことを特徴とする。
【0018】
また、本発明は、
プレゼンテーション用システムを制御するためのプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体であって、
前記プログラムは、
撮像手段の撮像信号から、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出するための位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段から表示される画像に含まれるカーソルの位置制御を行うためのカーソル制御手段としてコンピュータを機能させ、
前記基準値設定手段は、
前記基準値を変更することを特徴とする。
【0019】
また、本発明は、プレゼンテーションでのポインティング位置を検出する方法において、
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、前記撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
検出された前記ポインティング位置に基づき、前記画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御工程と、
を含み、
前記位置検出工程は、
撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含むことを特徴とする。
【0020】
本発明によれば、プレゼンターが所定の指示具、例えば棒状に形成された指示具や、指などでディスプレイ領域上の所望のポインティング位置を差し示す。そして、撮像手段の撮像信号から前記ポインティング位置が検出され、カーソルの位置制御が行われる。このため、ユーザー及びプレゼンテーションを聴く第三者にとって、極めて使い勝手のよいプレゼンテーションシステムを実現することが可能となる。
【0021】
特に本発明では、撮像信号から指示画像の画像領域を分離するための基準値が変更可能に構成されている。これにより、ディスプレイ領域上に形成される指示画像の画像領域を正確に抽出でき、この結果、ポインティング位置を自動検出及びカーソルの位置制御を良好に行うことができる。
【0022】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる指示画像の影領域の所定位置をポインティング位置として検出するように形成してもよい。
【0023】
これにより、例えばプレゼンターが指し示したディスプレイ領域の所望のポインティング位置を、ディスプレイ領域上の影領域として検出することが出来る。
【0024】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる指示画像の実像領域の所定位置をポインティング位置として検出するように形成してもよい。
【0025】
これにより、例えば、プレゼンターが指し示したディスプレイ領域の所望のポインティング位置を、ディスプレイ領域上の実像領域として検出することもできる。
【0026】
このように、本発明によれば、プレゼンターが、棒のような指示具で所定位置を指し示した場合に、そのポインティング位置を、ディスプレイ領域上の指示具の影の領域、または実像領域として検出し、カーソルの位置制御を良好に行うことができる。
【0027】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる棒状の画像領域を指示画像の画像領域として捉え、その先端位置をポインティング位置として検出するように形成することが好ましい。
【0028】
これにより、あらゆる検出対象の中から、棒状の画像領域以外の検出対象は、ノイズとして判断され、指示画像として認識されることが無い。このため、ノイズや環境条件等に影響されることなく、正確なポインティング位置検出が可能になる。
【0029】
更に、棒状の指示画像の画像領域の先端がポインティング位置として検出されるため、あたかもユーザが、指や棒で黒板等を差し示しながらプレゼンテーションを行う場合と同様な感覚で、プレゼンテーションを進めることができる。
【0030】
また、前記位置検出手段、情報または工程は、
前記ディスプレイ領域に含まれる画像領域の連続性から棒状の画像領域を指示画像の画像領域として捉えるように形成することが好ましい。
【0031】
このようにすることにより、撮像画像に含まれるノイズである他の画像と、指示画像とをより確実に分離認識できるため、ポインティング位置の検出をさらに確実に行うことが可能となる。
【0032】
また、本発明の装置及びシステムは、
前記画像表示手段から所定の較正パターン画像を前記ディスプレイ領域に表示させる較正パターン画像生成手段を含み、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定するように形成することが好ましい。
【0033】
さらに、本発明の情報記憶媒体に記憶される情報は、
前記画像表示手段から所定の較正パターン画像を前記ディスプレイ領域に表示させるための較正パターン用制御情報を含み、
前記基準値設定情報は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定するための情報を含むことが好ましい。
【0034】
具体的には、画像表示手段の立ち上げ時または途中の更新時に、前記較正パターン画像を画像表示手段から前記ディスプレイ領域に向け表示する。
【0035】
このとき、前記基準値設定手段は、表示された較正パターンを撮像した撮像信号と、前記較正パターン画像の輝度データとに基づき、撮像画像から指示画像の画像領域を抽出するための基準値を自動設定する。例えば撮像信号が白黒画像信号の場合には、黒の輝度レベルに対して、最適なマージンをもつ基準値を自動設定する。
【0036】
このとき、本発明の装置及びシステムは、
基準値設定用の指示手段を含み、
前記指示手段により基準値設定の命令が入力された場合に、
前記較正パターン画像生成手段は、
較正パターン画像を前記画像表示手段からディスプレイ領域に表示させ、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定するように形成することが好ましい。
【0037】
同一の場所で使用されるプレゼンテーションシステムであっても、使用する時刻や、周囲の環境によって、最適な基準値が変化する場合も多い。例えば、昼に使用する場合と、夜に使用する場合とでは最適基準値が異なる。また、同一の時間帯に使用する場合でも、晴れの日と曇りの日では、最適基準値が異なる場合も多い。
【0038】
また、プレゼンテーションが長時間にわたる場合には、プレゼンテーションの開始時と、所定の時間を経過した時点とでは、周囲の明るさが異なり、最適基準値も変動することも多い。
【0039】
このような場合にも、本発明によれば、指示手段を用いて基準値の再設定を指示することにより、画像表示手段から較正パターン画像がディスプレイ領域に表示すればよい。これにより、基準値設定手段は、この較正パターンの撮像信号と、較正パターンデータとに基づき、最適基準値を自動的に再設定する。
【0040】
また、前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を設定するように形成することが好ましい。
【0041】
このとき、前記較正パターン画像生成手段は、前記各分割領域毎の較正パターンをもつ所定の較正パターン画像を前記ディスプレイ領域に表示させるように形成することが好ましい。
【0042】
また、前記ディスプレイ領域を、比較的暗くなりやすいコーナ領域と、相対的に明るくなりやすい中央領域とに分割し、各分割領域毎に固有の基準値を設定することが好ましい。
【0043】
また、本発明の情報記憶媒体において、
前記基準値設定情報は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を自動設定するための情報を含むことが好ましい。
【0044】
例えば、前記画像表示手段に投射型プロジェクタを用いたる際、ディスプレイ領域が湾曲している場合や投射画像の輝度むらによって、画面の黒レベルの輝度が均一でない場合には、各領域に合わせて最適な基準値を設定する必要がある。
【0045】
本発明によれば、ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を設定することにより、ディスプレイ領域上に輝度のムラが存在する場合でも、撮像画像から確実に指示画像の画像領域を抽出し、ポインティング位置の検出を行うことが可能となる。
【0046】
また、前記較正パターン画像生成手段は、
輝度の異なる複数の領域を組み合わせて形成された所定の較正パターン画像を前記ディスプレイ領域に表示するように形成することが好ましい。
【0047】
すなわち、基準値の設定時に、画像表示手段から表示する較正パターンは、例えば輝度レベルが一番低い黒を基準として設定される場合が多いため、較正パターン画像の全領域をすべて黒レベルに設定してもよい。しかし、同じ黒でも、これがディスプレイ領域に画像として表示される場合には、その周囲がすべて黒の場合と、その周囲に黒以外の領域が存在する場合とでは、撮像手段が同じ黒を撮像してもその輝度レベルが若干異なってものとなる。
【0048】
本発明では、このような場合でも、確実にかつ最適な値に基準値の値を設定できるように、輝度の異なる複数の領域を組み合わせて形成された較正パターン画像を表示し、この較正パターン画像から前記基準値の設定を行うように構成されている。これにより、撮像信号から指示画像の画像領域をより正確に抽出し、ポインティング位置の検出を行うことが可能となる。
【0049】
特に、このような輝度が異なる複数の領域を組み合わせたパターンを、各分割領域毎に設定した較正パターン画像として前記ディスプレイ領域に表示するように構成することにより、各分割領域毎の基準値の設定をより適切な値に設定することができる。
【0050】
【発明の実施の形態】
次に、本発明が適用されたプレゼンテーションシステムの好適な実施の形態を図面に基づき詳細に説明する。
【0051】
(1)全体の説明
図1には、画像表示装置としてフロント型投射装置を用いた場合のプレゼンテーションシステムの一例が示されている。スクリーンの略正面に設けられたプロジェクタ10から、所定のプレゼンテーション用の画像が投射される。プレゼンター30は、スクリーン上の画像が表示されている領域すなわちディスプレイ領域12の画像の所望の位置を指示棒40で指し示しながら、第三者に対するプレゼンテーションを行なう。
【0052】
図4には、プレゼンター30がプレゼンテーションを行っている場合の一例が示されている。
【0053】
図4(A)に示すように、プレゼンター30が指示棒40を用いてスクリーン上のディスプレイ領域12の所望の位置を指示すると、図4(B)に示すようにディスプレイ領域12と、プレゼンター30の一部、及び指示棒40が、ディスプレイ領域12の略正面に設けられ、撮像手段として機能するCCDカメラ14により、撮像画像20として撮像される。
【0054】
ここで、プロジェクタ10の出射光が指示棒40により遮蔽されて出来る棒状の細長い影を指示画像の影領域300という。また、撮像画像20内に写されているプレゼンター30の一部と指示棒40その物の実画像を指示画像の実像領域302といい、ポインティング位置の検出処理に用いられるこれらの情報(対象)を合わせて検出対象304という。
【0055】
そして、プレゼンター30が指示棒40の影領域300を用いて指示するディスプレイ領域12上のポインティング位置は、撮像画像20におけるディスプレイ領域12上に映し出される指示画像の影領域300の先端位置310として検出される。すなわち、棒状の指示画像の影領域300の先端位置310が、ポインティング位置として自動的に検出され、所定のデータ処理が行われる。
【0056】
同様に、プレゼンター30が指示棒40の実像領域302を用いて指示するディスプレイ領域12上のポインティング位置は、撮像画像20におけるディスプレイ領域12上に映し出される指示画像の実像領域302の先端位置として検出される。
【0057】
本実施の形態によれば、プロジェクタ10から投射されるカーソル200が認識されたポインティング位置を示すように、データ処理が行われる。すなわち、ディスプレイ領域12上に投射される表示画像において、この画像に含まれるカーソル200は、指示棒40のポインティング位置に追従して移動することになる。これにより、プレゼンター30のプレゼンテーションを聴く第三者は、ディスプレイ領域12上に表示されるカーソル200の位置から、そのポインティング位置を正確にかつわかりやすく認識することができる。
【0058】
なお、後述するように、ディスプレイ領域12のコーナ部、特に4つのコーナ部は、その中央部に比べて比較的輝度レベルが低くなる。このような領域においても、指示棒40の影や実像を正確に検出できるように、実施の形態のシステムは、光源16を用いて、ディスプレイ領域12のコーナ部を補助照明するように構成されている。
【0059】
図2(A)には、リアタイプのプレゼンテーションシステムの一例が示されている。このプレゼンテーションシステムは、ディスプレイ領域12の後方から、プロジェクタ10の画像を投射し、該投射画像をディスプレイ領域12の後方に設けられ撮像手段として機能するCCDカメラ14を用いて撮像する。プロジェクタ10の投射画像は、反射板18−1,18−2を介してディスプレイ領域12上に投射される。
【0060】
図2(B)は、リアタイプのプレゼンテーションシステムの他の一例を示し、このシステムは、ディスプレイ領域12の画像をその略正面外側に設けたCCDカメラ14により撮像する。
【0061】
このようなリア型のシステムにおいても、プレゼンター30が、指示棒40でディスプレイ領域12上の所望の位置を指し示すことにより、この指示棒40の影や実像が撮像画像20内に映し出される。そして、この映し出された影を指示画像の影領域300、実像を指示画像の実像領域302としてCCDカメラ14で撮像することができる。
【0062】
そして、該指示画像の影領域300、または指示画像の実像領域302の先端位置310が、ポインティング位置として自動的に認識され、前述したデータ処理が行なわれる。
【0063】
尚、本発明が適用されるリア型システムの画像表示手段としては、前述したような投射型の表示装置であるプロジェクタ10以外にも、例えば直視型のCRT、直視型の液晶表示パネル、PDP(プラズマ ディスプレイ パネル)、その他の表示装置を用いてもよい。
【0064】
図3には、前記指示棒40の具体例が示されている。本実施の形態に用いられる指示棒40は、この棒状部の先端に幅広のポインティング部42が設けられている。このポインティング部42は、反射率が低い材料で構成されている。このようにすることにより、指示棒の先端で光が反射されないため、撮像領域中において明確な指示画像の検出対象304が形成でき、この結果、CCDカメラ14の撮像信号から、より確実にポインティング位置を検出することができる。
【0065】
なお、図1に示すフロントタイプのシステムでは、プレゼンター30は、指示棒40をプロジェクタ10とディスプレイ領域12の光路上に位置させることにより、指示棒40を直接ディスプレイ領域12に接触させることなく、CCDカメラ14の撮像画像20内に指示画像の影領域300を形成することができる。同様に、ディスプレイ領域12とCCDカメラ14の光路上に指示棒40を位置させることにより、指示棒40を直接ディスプレイ領域12に接触させることなく、撮像画像20内に指示画像の実像領域302を形成することができる。従って、プレゼンター30は、ディスプレイ領域12から比較的離れた位置からでも、ディスプレイ領域12上の所望の位置を指し示しながらプレゼンテーションを行うことができる。
【0066】
図5には、実施の形態のシステムの機能ブロック図が概略的に示されている。
【0067】
本実施の形態のシステムは、プロジェクタ10へ画像を供給する入力源100と、CCDカメラ14の撮像画像からポインティング位置の自動検出を行う処理部110とを含んで構成される。なお、前記処理部110の詳細な構成は後述する。
【0068】
また、本実施の形態において、プロジェクタ10とCCDカメラ14とは一体的なユニットとして形成されているが、分離して配置されていても構わない。このように分離配置されている場合、特に専用の大会議室またはホールにおいて大画面に拡大しながらプレゼンテーションを行う時には、予め会場内に準備されている既存機材と併用することで、装置の種類や設置場所、周辺環境に応じて自由な形に変形しながら使用できるため、汎用性、使い勝手が向上する。
【0069】
そして、プロジェクタ10は、その投射サイズや方向が任意に設定できるように構成され、前記CCDカメラ14も、その撮像領域を任意に設定できるように構成されている。
【0070】
さらに、CCDカメラ14が、プレゼンター30の指示棒40が形成する指示画像の検出対象304を明確な画像として捉えることができるように、プロジェクタ10及びCCDカメラ14の各光路には、それぞれ偏光板10a,14aが設けられている。これら各偏光板10a,14aは、その偏光方向がそれぞれ異なる方向となるように設定されている。これにより、CCDカメラ14は、プロジェクタ10から出射された光の影響をさほど受けることなく、撮像した画像情報の中から指示画像の検出対象304を確実に撮像することができる。
【0071】
また、前記CCDカメラ14は、撮像領域を拡大、縮小できるズーム機能を有し、ディスプレイ領域12より広い領域を撮像領域とし、またこれよりも狭い領域を撮像領域として任意に設定できるように構成されている。
【0072】
これにより、その使用環境や撮像内容によって撮像領域を任意に設定できるので、システムの使い勝手が極めてよくなる。撮像領域をディスプレイ領域より広く設定した場合にあっては、撮像領域とディスプレイ領域との位置合わせが不要となる。
【0073】
特に、プレゼンター30を含むような撮像領域を設定することにより、プレゼンター30の位置を考慮して、より適切なポインティング位置の検出を行うことが可能となる。
【0074】
さらに、撮像範囲を狭く設定することにより、CCDカメラ14の解像度を実質的に上げることができるため、ディスプレイ領域12上に表示される特定の領域を、高解像度で撮像し、所望の画像処理を行うことも可能となる。
【0075】
(2)ポインティング位置の検出
図6には、前記処理部110の具体的な機能ブロック図が示されている。
【0076】
本実施の形態において、処理部110は、2値化処理部112、ポインティング座標検出部116、演算処理部118を含んで構成される。このような処理部110は、具体的にはCPU、各種プログラム、データ等を記憶する情報記憶媒体であるROM、ワーク領域として機能するRAMなどを用いて実現される。
【0077】
前記CCDカメラ14から出力される画像信号は、2値化処理部112へ入力される。本実施の形態において、CCDカメラ14は白黒の撮像信号を出力するものとする。
【0078】
本実施の形態において、2値化処理部112は、撮像信号と基準値Vrefとを比較し、指示画像の影や実像等の検出対象304を撮像画像から抽出し、前記ポインティング座標検出部はポインティング位置を検出する位置検出手段として機能する。
【0079】
そして、2値化処理部112は、CCDカメラ14から出力される撮像信号の輝度データと2値化のための基準値Vrefとを比較し、CCDカメラ14で撮像された画像の中から指示画像の検出対象304を抽出する処理を行い、処理データを2値化画像データとしてポインティング座標検出部116へ出力する。
【0080】
ポインティング座標検出部116は、2値化処理部112から出力された2値化画像データから検出対象304の固まりを抽出し、この検出対象304の先端部を指示棒40が指し示すポインティング座標として検出し、その検出結果を演算処理部118へ出力する。
【0081】
本実施の形態において、前記ポインティング座標検出部116は、棒状に延びる検出対象304の画像の連続性に基づき指示画像を特定し、その先端部をポインティング座標として検出するように構成されている。そのため、単に検出対象304の画像の角をポインティング座標として検出する場合に比べ、ポインティング位置の検出精度を高めることができる。
【0082】
以下にその詳細を説明する。
【0083】
図7(A)には、ポインティング座標検出部116のポインティング座標検出処理の概略を説明するためのフローチャートが示されている。尚、本実施の形態において、指示画像の検出対象304として、特に指示画像の影領域300を用いた検出処理について説明するが、指示画像の実像領域302についても、撮像画像20内の低輝度な領域を抽出することで、同様な処理方法が適用できる。
【0084】
まず、2値化処理部112から出力される2値化画像データから、棒状の指示画像の影領域300を特定する処理を行う。すなわち、図7(B)の▲1▼に示すように、2値化処理部112から出力される2値化画像データには、プレゼンターの影30aと、指示棒40の影である指示画像の影領域300とが含まれている。
【0085】
ステップS10において、ポインティング座標検出部116は、図7(B)の▲2▼に示すように、この2値化画像データから指示画像の影領域300のみを抽出する処理を行う。この抽出処理は、図7(B)の▲1▼に示す2値化画像の中から、棒状に連続する影の画像部分を抽出することにより行われる。
【0086】
次に、ポインティング座標検出部116は、ステップS12のポインティング位置検出処理を行う。すなわち、図7(B)の▲2▼で抽出された棒状の指示画像の影領域300のどこがポインティング位置であるかを特定する処理を行う。すなわち、図7(B)の▲3▼に示すように、棒状の指示画像の影領域300の両端の点A、Bのどちらがポインティング位置かを判定する処理を行う。
【0087】
ここでは、図7(B)の▲1▼に示すように、2値化処理部112から入力された2値化画像データに、指示画像の影領域300のB側と連続するプレゼンターの影30aが含まれている。このため、このプレゼンターの影30aと接していないA点側がポインティング位置として特定される。よって、図7(B)の▲4▼に示すように、この棒状の指示画像の影領域300の先端、すなわちA点の座標が、ポインティング位置として検出され、演算処理部118へ向け出力される。
【0088】
このように、本実施の形態においては、2値化処理部112で図7(B)に示すような影の領域を表す2値化画像データが得られると、まずステップS10で棒状の影の画像部分を指示画像の影領域300として抽出し、次にステップS12で、抽出された指示画像の影領域300の両端のどちら側がポインティング位置であるかを特定し、そのポインティング位置の座標を検出する処理を行う。このようにすることにより、2値化処理部112から出力される2値化画像データから、単純な影の角の部分をポインティング位置として特定する場合に比べ、ポインティング位置の検出精度を高めることができる。
【0089】
以下、前記ステップS10、ステップS12の処理をより詳細に説明する。
【0090】
(2−1)ステップS10の詳細
図8には、前記ステップS10の処理の具体例、すなわち2値化処理部112から出力される2値化画像データから指示画像の影領域300を抽出するアルゴリズムの具体例が示されている。
【0091】
ここでは、棒状の指示画像の影領域300の抽出は、細長い形状の抽出と等価であると考えて、その処理を行っている。
【0092】
まず、細長い影を検出し、次に該細長い影の面積を検出する。そして、面積が大きな領域は、連続性があると認識し、これを指示画像の影領域300として抽出する。以下、その詳細を説明する。
【0093】
まず、2値化処理部112から図8Bに示す2値化画像データ400が入力されると、ポインティング座標検出部116は、指示画像の影領域300の抽出動作を開始する(ステップS20)。
【0094】
この2値化画像データ400には、先に説明したようにプレゼンターの影30aと、指示棒40の影である指示画像の影領域300とが含まれている。
【0095】
この入力画像データ400に対し、ステップS22、S24で、それぞれ水平方向及び垂直方向にHPF処理を施す。ここでHPF処理とは、水平及び垂直の各ライン方向に一定以上の長さが連続している影の部分を取り除く処理をいう。
【0096】
次に、ステップS22、S24の処理により得られた画像を、ステップS26で合成し、プレゼンターの影30aが除去された2値画像データ402を得る。すなわち、水平方向もしくは垂直方向に細い部分をもつ影の画像のみが残り、これ以外の影の画像は除去されることになる。
【0097】
そして、得られた2値画像データ402に、一定の長さ以下の影を取り除くLPF処理をステップ28で施してラベリング対象2値画像データ404とする。これにより、細かなノイズ440は全て除去される。
【0098】
更に、ステップS30、S32、S34において、ステップ28で取り除けなかった指示画像の影領域300以外の検出ノイズ450の除去を行う。該検出ノイズ450の除去処理は、まずステップS30でラベリング処理を行い、ステップS32でラベル毎の面積算出を行い、ステップS34である面積以上の影を抽出することにより行われる。
【0099】
すなわち、ラベリング処理対象2値画像データ404に含まれる各検出ノイズ450の固まりを個々の領域に分け、同図に示すようにA、B…Eとラベリングを行い、ラベリング処理データ406を得る。
【0100】
次に、各ラベル(領域)毎の画素数を数える。実際の処理はラベリング処理と同時に行っても良い。これにより、各ラベルA、B …E毎の影の領域の面積が算出される。そして、面積の小さいラベルは、これをノイズと判定してラベリング処理データ406から除去し、指示画像の影領域300のみが含まれる2値画像データ408を得る。なお、ステップS34では、最大面積をもつラベルを抽出するようにしても良く、後述するような複数のポインティング位置を検出する場合には、最大面積のラベルとその次に面積の大きなラベルを抽出するようにしても良い。
【0101】
また、S32における面積算出以外の抽出方法として、連続した棒状のラベルから指示画像の影領域300を抽出しても良い。この場合、抽出されたラベリング処理データ406の形状が棒状でかつ連続している場合には、指示棒40により発生した影として判断できるが、小さくて連続でない検出ノイズ450の場合には、S22、S24、S28の各フィルタ処理において除去しきれなかった2値画像データの検出ノイズと判断される。
【0102】
このようなステップS20〜S36の一連の処理により、2値化処理部112から出力される2値画像データ400からプレゼンターの影30aやノイズを除去し、細長い指示画像の影領域300のみを抽出した2値画像データ408を得ることができる。
【0103】
なお、HPF処理された2値画像データ402に含まれるノイズが少ない場合には、ステップS28の処理は行う必要がない。
【0104】
(2−2)ステップS12の詳細
図9には、前記処理ステップS20〜S30によって得られた2値画像データ408に含まれる指示画像の影領域300から、ポインティング位置を決定するための具体的なアルゴリズムが示されている。
【0105】
この処理では、指示画像の影領域300の最も角の位置をポインティング座標として求める。又、指示画像の影領域300の先端がある程度面積をもっている場合でも、その最も角の座標を、ポインティング座標として特定する。
【0106】
この処理を開始すると(ステップS40)、まずステップS42で、図9(B)の▲1▼に示す2値画像データ408に含まれる指示画像の影領域300の長手方向両端の点A、Bを検出する。この検出処理の具体例は、図10を用いて後で説明する。
【0107】
次にステップS44で、指示画像の影領域300以外の影の画像とB点が接しているか否か、又は近接しているか否かが判断される。
【0108】
ここでYESと判断されると、図9(B)の▲2▼に示すように、2値化処理部112から出力された2値画像データ400(ステップS22〜S34の処理がなされる前の2値画像データ)は、B点がプレゼンターの影30aと接している。従って、この場合には、その反対側の点Aがポインティング座標として求められる。
【0109】
又、ステップS44でNOと判断された場合には、次にステップS46で、B点が図9(B)の▲3▼に示す2値画像データ410のように、画面の縁もしくはその近くに存在するか否かが判断される。図9(B)の▲2▼は、プレゼンター30が、画面410の外から、長い指示棒でディスプレイ領域上の所望の位置をポインティングする場合を想定したものである。このような場合には、指示画像の影領域300のB点は、画面410の縁に存在することになるため、その反対側の点Aがポインティング座標Aとして求められる。
【0110】
又、ステップS46でNOと判断された場合には、次にステップS48で、指示画像の影領域300以外の影とA点が接しているか、又は近接しているかが判断される。ここで、YESと判断された場合には、B点がポインティング位置として求められる。
【0111】
又、ステップS48でNOと判断された場合には、次のステップS50で、A点が、画面の縁上の点か、もしくは近接する点か否かが判断される。ここでYESと判断された場合にはB点がポインティング位置として求められ、NOと判断された場合には、検出エラー出力される。
【0112】
以上説明したように、本実施の形態ではステップS44,S46の処理により、ディスプレイ領域12に向かってプレゼンター30が左側に立った場合でもポインティング位置を正確に検出でき、またS48,S50の処理により、ディスプレイ領域12に向かってプレゼンター30が右側に立った場合でもポインティング位置を正確に検出できる。このようにして、指示画像の影領域300の両端のA点、B点のいずれがポインティング位置であるかを判断し、このポインティング位置を(x、y)の2次元座標として検出する。
【0113】
(2−3)ステップS42の詳細
図10には、図9のステップS42の処理の具体例が示されている。ここでは、指示画像の影領域300を含む3つの2値画像データが示されている。図10(A)は、影領域300が真横方向、図10(B)は縦方向、図10(C)は斜め方向に向いている場合をそれぞれ示している。尚、指示画像の影領域300の形状や大きさは、使用した指示棒40の形態により変わる。例えば、指示画像の影領域300の形状は、丸形や四角形、または多角形の何れでも良く、本実施の形態においては細長い楕円状の形状の場合を例に取り説明する。
【0114】
このような指示画像の影領域300の両端の座標を求めるためには、まず図10に示すように、ディスプレイ領域12の左上の座標を原点(X,Y)=(0,0)として、画像内における指示画像の影領域300のx、yがそれぞれ最小、最大の4点(座標上で最も端の点、つまり、どの方向に対してもそれ以降に検出座標が存在しない点)をa、b、c、dとして求める。
a (Xmin,Ya)
b (Xmax,Yb)
c (Xc,Ymin)
d (Xd,Ymax)
そして、a,b,c,dが、
(Xmax−Xmin)>(Ymax−Ymin)
の条件を満足した場合には、aとbの点を、ステップS42の指示画像の影領域300の両端の点A、Bとして特定し、またa,b,c,dが、
(Xmax−Xmin)<(Xmax−Ymin)
の条件を満足した場合には、c、dの点を指示画像の影領域300の両端の点A、Bとして特定する。
【0115】
従って、図10に示した指示画像の影領域300を例にとると、図10(A)、図10(C)はa,b座標が長手方向の端点、図10(B)はc,d座標が長手方向の端点として検出される。
【0116】
なお、本実施の形態のポインティング座標検出部116は、指示棒40を用いた指示の時系列データを元に、常に後から指示した位置をポインティング位置として検出し、その検出位置データを出力するように構成されている。
【0117】
このようにして本実施の形態のポインティング座標検出部116は、指示画像の影領域300の先端の座標をポインティング位置として検出し、この検出位置データを演算処理部118へ向け出力する。
【0118】
なお、本実施の形態では、指示棒40がディスプレイ領域12上の撮像画像20を遮蔽してできた部分を指示画像の影領域300として抽出し、ポインティング位置の検出を行ったが、これ以外の指示部、例えばプレゼンター30の指でできる影を指示画像の影領域300として認識し、指の先端位置をポインティング位置として自動認識してもよい。
【0119】
又、本実施の形態では、CCDカメラ14から白黒の画像信号を出力し、2値化処理部112、ポインティング座標検出部116を用い、この画像信号から指示画像の影領域300を分離し、ポインティング位置を検出しているが、CCDカメラ14からカラーの撮像信号が出力される場合でも、前記実施の形態の同様な手法を用いて、撮像信号の輝度レベルと基準値Vrefとを比較して指示画像の影を抽出し、ポインティング位置を検出してもよい。
【0120】
(2−4)シェーディング対策
プレゼンテーションシステムの使用環境によっては、例えば図13(A)に示すように、ディスプレイ領域12上に投射される画像の一部、特にコーナー部は、輝度レベルが他の領域より低い低輝度領域320aが発生することがある。このような場合に、これをCCDカメラ14で撮像し、2値化処理部112で2値化処理をすると、図13(B)に示すように低輝度領域320bが影として抽出されてしまう。特に、指示画像の影領域300が、この低輝度領域320bに重なる場合には、ポインティング位置を正確に検出することが困難となる。
【0121】
このような問題を解決するために、本実施の形態のシステムでは、ライトまたはLEDアレイ等の照明手段16を用いて、ディスプレイ領域12上の輝度レベルの低い低輝度領域320aを集中照射する。このようにすることにより、2値化処理部112で処理された2値化画像には前記低輝度領域320aに該当する部分がなくなるため、この2値化画像データから指示画像の影領域300を良好に抽出し、ポインティング位置の検出を行うことが可能となる。
【0122】
(3)検出位置データに基づくデータ処理
上述した図6における演算処理部118は、このようにして入力されるポインティング位置の検出データに基づき各種のデータ処理や画像処理を行う。
【0123】
本実施の形態において、この演算処理部118は、カメラ制御部122、カーソル制御部120及び基準値自動設定部114として機能する。
【0124】
(3−1)カメラ制御部122の詳細
前記カメラ制御部122は、オペレータ操作部130、もしくはプロジェクタ10のPJ(プロジェクタ)光学制御部150から入力される情報に基づき、CCDカメラ14の各種光学制御、例えばフォーカスの制御を行う。ここでは、特に後者のプロジェクタ10のPJ光学制御部150から入力された情報に基づく光学制御について、説明する。
【0125】
図22は、プロジェクタ10の投射レンズにおけるフォーカスやズーム調整等の各種調整操作に連動して、CCDカメラ14の撮像レンズの光学調整を自動的に行う方法について説明する図である。
【0126】
図22(A)は、全体の構成を説明するためのブロック図である。
【0127】
通常、プレゼンター30は、プロジェクタ10から投射される表示画像のフォーカスを最適に合わせ込むために、プロジェクタ10の投射レンズの光学調整機構であるPJレンズ調整機構152の調整を、マニュアルで行ったり、自動調整機構を用いて自動的に行わせたりする。このPJレンズ調整機構152の調整量をセンサー154で検出し、カメラ制御部122に入力する。
【0128】
カメラ制御部122は、センサー154の検出データを基に、CCDレンズの光学調整量を制御するために予め組み込まれたレンズ制御プログラム126を実行する。その実行結果は、CCDカメラ14内のCCD光学制御部22に供給され、このCCD光学制御部22が、撮像レンズの光学調整を行うCCDレンズ調整機構24を制御する。このようにして、プロジェクタ10の投射レンズの制御に連動してCCDカメラ14の撮像レンズの調整が可能になる。
【0129】
これにより、従来はプロジェクタ10とCCDカメラ14のそれぞれのレンズを個々に調整する必要があったが、本実施の形態によれば、プロジェクタ10の投射レンズ152をプレゼンター30がマニュアル調整するか、もしくは自動的に調整する操作で、CCDカメラ14の細かな光学調整が自動的に行われるため、CCDカメラ14の細かな光学調整をする煩わしさや手間が省け、操作性や使い勝手が向上できる。
【0130】
図22(B)は、図22(A)の処理のアルゴリズムである。
まず、ステップS202で、PJレンズ調整機構152が使用者により操作され、その調整(可変)量をセンサー154で検出する(ステップS204)。次に、センサー154で検出された可変量を基に、CCDレンズ調整機構24における制御量をレンズ制御プログラム126で求め(ステップS206)、ステップS208でCCDレンズの調整機構が自動的に制御される。
【0131】
前記カーソル制御部120は、検出されたポインティング位置を指し示すように、カーソル200の位置制御を行う。すなわち、プロジェクタ10から投射される画像に含まれるカーソル200が、指示棒40のポインティング位置に追従して移動するように、入力源100を制御する。
【0132】
基準値自動設定部114は、2値化処理部112で使用する2値化のための基準値Vrefを最適値に自動設定するための処理を行う。
【0133】
次に、カーソル制御部120の詳細を説明する。
【0134】
(3−2)カーソル制御部120の詳細
前記カーソル制御部120は、前記指示画像の影領域300と重ならない位置で、かつ検出されたポインティング位置を指し示すようにカーソル200の位置制御を行う。
【0135】
図11(A)には、カーソル200の位置制御の一例が示されている。この一例では、指示画像の影領域300の延長線上で一定距離離れた位置に、カーソル200の表示位置を制御している。具体的には、指示棒40の影である指示画像の影領域300の連続性を認識し、その延長線上にカーソル200が位置するように位置制御を行う。
【0136】
この時、指示棒40とカーソル200とが重ならない位置、例えば指示棒40の先端に対し、カーソル1個分だけ離してカーソル200を表示する。
【0137】
これにより、カーソル200が指示棒40の影に隠れてしまうことがなく、プレゼンター30のポインティング位置をカーソル200によって確実にかつ分かり易く表示することができる。
【0138】
また、カーソル制御部120は、指示画像の影領域300の先端の太さに応じて表示するカーソル200の大きさや形状、色等を制御するように構成してもよい。例えば、指示画像の影領域300が細い場合にあっては、その先端位置の正確な位置が識別しずらいため、カーソル200を大きく表示することにより、ディスプレイ領域12を見ている視聴者にとってポインティング位置がより分かり易いものとなる。
【0139】
ここで、図11(A)に示すように、指示棒40の延長線上にカーソル200を表示すると、ディスプレイ領域12の周縁部では、カーソル200が隠れたり、表示できない領域が現れる可能性がある。
【0140】
この為、図11(B)に示すように、ポインティング位置が表示画面の周縁部に近づき(同図▲2▼)、指示画像の影領域300の延長線上で一定距離=dが保てなくなった場合にのみ、カーソル200をポインティング位置の近く(同図▲3▼)、または重ねて(同図▲4▼)表示するようにしてもよい。また、指示画像の影領域300の先端とカーソル200との距離や重なる面積に応じて、カーソル200のサイズや色、または形状(矢印の向き)等を制御するようにしてもよい。同図において、▲3▼はカーソルサイズ及び形状が変形した例で、▲4▼はカーソルの色が変わった事を表している。このようにすることにより、表示画面の周縁部においても、カーソル200が指示棒40の影になり視聴者から見えなくなる事がなく、かつそのポインティング位置もより分かり易いものとなる。
【0141】
図21は、上記のカーソルサイズを変えた場合に用いられるアルゴリズムについて説明した図である。
【0142】
まず、ステップS162において、図8のステップS32における面積算出処理として、長さ=d、幅=tを算出する。ここで、本実施の形態では、指示棒40の枝の部分の形状と異なる先端形状の部分を持っている場合について示したが、指示棒40の枝の部分と同じ形状の先端部を持っていても良い。この場合には、指示棒40の先端部分の長さ=d’だけを切り出し、先端形状が長さ=d’、幅=tとして考えればよい。
【0143】
次に、検出された指示画像の検出対象304の長手方向の長さ=dと、あらかじめ任意に設定可能な長さ=Lとを比較し(ステップS164)、d<Lの場合には、先端形状が設定よりも小さいと判断できるため、カーソル200のサイズを大きく変更する。一方、d>Lの場合には、十分大きな先端として判断できる。
【0144】
次に、ステップS166では、検出された指示画像の検出対象304の幅=tと、あらかじめ任意に設定可能な幅の値=kとを比較する。t<kの場合には、長さの比較と同様に、先端形状が設定よりも小さいと判断され、カーソル200のサイズを大きく変更する。一方、t>kの場合には、十分大きな先端として判断される。
【0145】
このような処理をステップS34が行われる度に行うことで、リアルタイムなカーソルの制御が可能になる。
【0146】
また、カーソル制御部120は、図12(A)に示すようにカーソル200の表示位置を制御してもよい。
【0147】
例えば、プレゼンター30が、ディスプレイ領域12に向かって左側に立ってプレゼンテーションを行う場合には、ディスプレイ領域12を、右端の狭い領域220と、それ以外の領域230とに分け、さらに右端の領域220を、上側の領域220aとそれ以外の下側の領域220bとに分ける。そして、ポインティング位置が右端以外の領域230にある場合には、ポインティング位置の真横に水平左向きにカーソル200を表示し、ポインティング位置が右端の上側領域220aにある場合には、ポインティング位置の下側で上向きにカーソル200を表示し、ポインティング位置が右端の上側以外の下側領域220bにある場合には、ポインティング位置の上側で下向きにカーソル200を表示する。これにより、プレゼンターはディスプレイ領域12の左側に立ってプレゼンテーションを行う場合に、画面右端にカーソル200が隠れてしまうという事態の発生を防止することができる。
【0148】
また、プレゼンターがディスプレイ領域12の右端に立ってプレゼンテーションを行う場合には、投射領域の左端に、前記領域220a、220bを設け、カーソル200を同様に表示すれば良い。この場合、主たる領域230上においては、ポインティング位置の真横に水平右向きにカーソル200を表示することが好ましい。
【0149】
カーソル200を図12(A)に示すように表示制御する場合には、オペレータ操作部130からの入力操作により、カーソル制御部120は、前述したようにプレゼンター30がディスプレイ領域12の右側に立ってプレゼンテーションを行う場合と、左側に立ってプレゼンテーションを行う場合とで、カーソルの表示向きが切り替わるように構成してもよい。
【0150】
このようにすることにより、ユーザーにとってより使いやすいプレゼンテーションシステムを実現することができる。
【0151】
図12(B)には、図12(A)の▲1▼に示すように、指示画像の影領域300の先端座標から水平方向に一定距離離れた位置にカーソルを表示するアルゴリズムの具体例が示されている。
【0152】
ステップS100でカーソルを表示するためのアルゴリズムが開始され、ステップS102でポインティング位置の先端座標(x,y)が検出される。
【0153】
次に、ステップS104において、検出された座標(x,y)を基に、カーソルの先端座標(x‘,y’)が計算され、カーソル座標(x‘,y’)が決定される(S106)。
【0154】
次に、ステップS108で、該カーソル座標(x‘,y’)にカーソル位置を制御して表示するための処理が行われ、表示画面上の所望の位置にカーソルを表示する事が出来る。
【0155】
図19は、複数のポインティング位置を検出した場合、該複数のポインティング位置に対応した複数のカーソルを独立に表示制御する方法について説明した図である。
【0156】
まず、ステップS122で、図8のステップS34における指示画像の検出対象304の抽出処理を行い、ステップS124で、抽出されたラベルの数を調べる。ここで、抽出ラベルの数が1つの場合には、通常処理されるようにカーソルを1つ表示すればよい。ステップS124で複数の指示画像の検出対象304を抽出した場合、ステップS126でその数を算出し、ステップS128でその数に応じたカーソルを表示する処理を行う。
【0157】
このような一連の処理を繰り返し行い、指示画像位置にカーソルを表示する。
【0158】
図20は、上記のような方法で複数のカーソルを表示する際に、その中の一つのカーソルの表示位置を固定し、別のカーソルのみを自由に位置制御する場合の具体的なアルゴリズムを示す。
【0159】
図20の▲1▼に示すように、プレゼンター30は、指示棒40を用いてディスプレイ領域12上の所望の位置を指示し、該ポインティング位置に第一のカーソル202を表示させる(ステップS142、144)。
【0160】
本実施の形態のプレゼンテーションシステムには、後述する所定の機能が割り付けられたファンクションスイッチ140が設けられている。そして、このファンクションスイッチ140を操作することにより、第一カーソル202の移動を一時的に停止させておく命令を送り(ステップS146)、図20の▲2▼に示すように、第一カーソル202の表示位置を固定する(ステップS148)。
【0161】
次に、図20の▲3▼に示すように、上記以外のディスプレイ領域12上を指し示し、新しいポインティング位置に第二のカーソル204を表示させる(ステップS150,152)。
【0162】
これにより、新旧2つのポインティング位置を同時に、かつ別々に指し示すことができる。特に、後から表示された第二カーソル204には、色や形状を第一カーソル202と異にしたり、点滅表示等、先に表示されている第一カーソル202と区別するための処理を施すことが好ましい。
【0163】
尚、固定表示されている第一カーソル202は、ステップS154でプレゼンター30がファンクションスイッチ140を再び操作するまで表示位置を固定するように形成してもよく、または一定時間経過すると固定表示が解除されるように形成しても良い。このようにして固定表示が解除された第一カーソル202は、ディスプレイ領域12上の指示画像として検出される訳ではないため、図20の▲4▼に示すように、画面上からは消えてしまう。一方、指示され続けている第二カーソル204は、画面上の指示に追従してそのまま表示され、これ以降第二カーソル204があたかも第一カーソル202のように扱われる。
【0164】
また、上述した機能以外に、ファンクションスイッチ140には、マウスの左クリック、右クリック等と同様な操作を行うことができる機能が割り付けられている。
【0165】
このファンクションスイッチ140は、前記指示棒40と一体的に設けてもよく、また別体にしてプレゼンター30が持ち運び自在に形成してもよい。
【0166】
以上の構成とすることにより、プレゼンター30が、指示棒40を用いてカーソル200を所定の位置まで導き、ここでファンクションスイッチ140を操作することにより、カーソル制御部120に、いわゆるマウスの左クリックや右クリックがされた場合と同様な処理を行わせることができる。
【0167】
さらにこのファンクションスイッチ140にアンダーライン機能や手書き文字入力を割り付けることにより、ディスプレイ領域12上に表示されている画像の所定位置にアンダーラインを引いたり、ポインティング位置を動かすことにより手書き文字入力を行うこともできる。
【0168】
また、このファンクションスイッチ140に、カーソル200の移動を一時的に停止させる機能を割り付けておくことにより、プレゼンター30が指示棒40を用いてカーソルを所定位置まで移動した状態で、ファンクションスイッチ140を操作すれば、カーソル200の表示位置を次にファンクションスイッチ140を操作するまで固定することができる。
【0169】
(4)基準値Vrefの自動設定
次に、基準値自動設定部114の設定する基準値Vrefの詳細について説明する。
【0170】
CCDカメラ14から出力される撮像信号から、指示画像の影領域300を確実に抽出するためには、2値化閾値の基準値Vrefの値を最適な値に設定する必要がある。
【0171】
この基準値は、ディスプレイ領域12上に投射した画像を、CCDカメラ14が撮像した場合に、この撮像信号に含まれる最も低い輝度レベルの値以下に設定する必要がある。例えば、本実施の形態のように白黒の撮像信号がCCDカメラ14から出力される場合には、黒の輝度レベル以下の値に基準値を設定する必要がある。これは、画面上で一番輝度レベルの低いのが黒色であるのに対して、前記指示画像の影領域300の輝度レベルは、黒色の輝度レベル以下になるからである。
【0172】
図14(A)には、画像をCCDカメラ14で撮像することにより得られた各領域の輝度レベルが示されている。
【0173】
ここでは、プロジェクタからディスプレイ領域12上に真っ白な画像(表示白領域、同図▲1▼)と、真っ黒な画像(表示黒領域、同図▲2▼)を投射し、更にディスプレイ領域12上の一部を遮蔽しディスプレイ領域12の一部に投射画像が表示されない状態(本当の黒領域、同図▲3▼)を形成した。図14(A)は、この画像をCCDカメラ14で撮像することにより得られた各領域の輝度レベルである。指示棒40によりできる影(検出黒領域、同図▲4▼)は、映像の黒の輝度レベル(VLC)と本当の黒の輝度レベル(VB)との間の輝度レベル(300a)となるため、指示画像の影領域300を確実に抽出するためには、2値化のための基準値Vrefを、映像の黒の輝度レベル(VLC)より小さく、本当の黒の輝度レベル(VB)より大きな値に設定してやる必要がある。尚、同図の輝度レベルは、CCDカメラ14の1本分の水平走査ラインの輝度レベルを表している。
【0174】
ところで、図14(A)は、理想的なディスプレイ領域環境を想定し、このディスプレイ領域12上に画像を投射した場合に得られる各領域の輝度レベルを示しているが、実際のディスプレイ領域12上に投射した画像をCCDカメラ14で撮像したときの輝度レベルは、例えば図14(B)のようになる。図14(B)は、ディスプレイ領域12上に投射される画像の輝度レベルが、ディスプレイ領域の中央(同図▲5▼)においてやや高く、ディスプレイ領域の端(同図▲6▼)に行くに従って小さい場合の輝度レベルである。ディスプレイ領域12の近くに窓があったり、室内の照明環境が偏っている場合にも、状態こそ違うものの同様な事が起こる。
【0175】
従って、指示画像の影領域300の黒レベル300aと、基準値Vrefとのレベル差△V(以下マージンという)を小さく設定しすぎると、中央の指示画像の影領域300を確実に検出できないという事態が生ずる。すなわち、図14(B)の2値化処理出力に示すように、中央の指示画像の影領域300(同図▲5▼)の輝度レベル300aの変動が大きいと、その影領域300の輝度レベル300aが基準値Vref以下まで下がらないことがある。この場合には、この影領域300を確実に抽出することができない。
【0176】
この為、本実施の形態の基準値自動設定部114は、基準値Vrefを、最適な値に自動設定できるように構成されている。
【0177】
以下にその詳細を説明する。
【0178】
図15(A)には、ディスプレイ領域12上に投射される画像を複数のエリアに分割した状態が示され、ここでは9個のエリアに分割している。
【0179】
そして、実施の形態の基準値自動設定部114は、各分割エリア毎に固有の基準値Vrefを設定できる。
【0180】
例えば、分割エリア1、2、3においては、それぞれ図14(C)に示すように、基準値をVref1、Vref2、Vref3に設定する。
【0181】
これにより、輝度レベルの高い画面中央部(図14(B)の▲5▼部分)においても、指示画像の影領域300を確実に検出することができる。
【0182】
また、各分割エリア毎に固有の基準値Vrefを設定するために、本実施の形態の較正パターン画像生成部124は、所定の較正パターン画像をプロジェクタ10からスクリーン上のディスプレイ領域12に投射させる。この時、基準値自動設定部114は、投射された較正パターン画像のデータと、CCDカメラ14から得られる撮像信号とを照合し、各分割エリア毎に最適な基準値Vrefを設定する。
【0183】
ここでは、図15(B)に示す較正パターン画像を、ディスプレイ領域12上に投射するように構成されている。この較正パターン画像500は、前記分割エリアに対応して9つのエリア500−1、500−2、・・・500−9を含み、各エリアは、その中央に黒領域510、その周囲に白領域512が配置されている。このように、各エリア500−1、500−2、・・・500−9に、白及び黒という輝度レベルの異なる領域510、512を組合わせたパターンを配置することにより、この較正パターン画像500から、各分割エリア毎の基準レベルを最適値に設定することができる。
【0184】
なお、基準値の設定時に、プロジェクタから投射する較正パターン画像は、その輝度レベルが一番低い黒を基準として形成してもよい。例えば、較正パターン画像の全領域を、全て黒レベルとした較正パターン画像を投射してもよい。
【0185】
しかし、同じ黒でも、これがディスプレイ領域12上に投射される画像が、その周囲が全て黒の場合と周囲に白の領域が存在する場合とでは、CCDカメラ14の撮像する黒の輝度レベルが若干異なったものとなってしまう。
【0186】
本実施の形態では、このような場合でも、確実各最適な値に基準値を設定できるように、輝度レベルの異なる黒領域510と白領域512とを組合せた較正パターンを、各領域500−1、500−2、・・・500−9にそれぞれ設定し、この組合せ画像を較正パターン画像500としてディスプレイ領域12上に投射している。これにより、各分割エリア毎に、2値化のための基準値を最適な値に自動設定することができる。
【0187】
図16には、プレゼンテーションシステムの立ち上げ時の基準値自動設定動作のフローチャートが示されている。
【0188】
基準値自動設定部114は、システム立ち上げ時に基準値の自動設定を開始する(ステップS60)。まず、プロジェクタ10の映像投射スイッチがオンされたことを検出し(ステップS62)、図15(B)に示す較正パターン画像をプロジェクタ10からディスプレイ領域12上に投射させる(ステップS64)。
【0189】
そして、この基準値自動設定部114は、予め判明している較正パターン画像の輝度レベルデータと、CCDカメラ14から出力される撮像信号の対応する位置の輝度レベルとを照合し、各分割エリア毎に最適の基準値Vrefを設定する(ステップS66)。
【0190】
ここでは、各エリア毎に、撮像信号から、較正パターン画像の黒エリア510に対応する信号の輝度レベルを読み取り、この輝度レベルに対し所定のマージンをもって基準値Vrefを、各分割エリア毎に設定する。
【0191】
このような設定終了後、基準値自動設定部114は、較正パターン画像の投射を終了し、プロジェクタ10の画像入力を通常の画像入力モードへ切り替え(ステップS68)、基準値自動設定動作を終了する(ステップS70)。
【0192】
このように、本実施の形態によれば、システムを立ち上げ時に、2値化処理のための閾値Vrefを各分割領域毎に最適な値に自動設定することができる。
【0193】
図17には、システム立ち上げ後に、基準値Vrefを再設定する場合のフローチャートが示されている。
【0194】
ユーザーが基準値再設定スイッチ132を操作すると、基準値自動設定部114はこの再設定スイッチ132の操作を検出し(ステップS82)、ステップS84〜S90の基準値再設定動作を開始する。
【0195】
なお、ステップS84〜S88は、前記図16に示すS64〜68と同様な処理であるため、ここではその詳細な説明は省略する。
【0196】
このように、本実施の形態によれば、システム立ち上げ後においても基準値を最適値に自動設定することができるため、例えば、プレゼンテーションの途中で、使用環境が変わったような場合(例えば、窓の外が明るくなったり暗くなったりして、ディスプレイ領域12上の輝度レベルが変化するような場合)、ユーザは基準値再設定スイッチ132を操作することにより、2値化処理のための基準値Vrefを、その時の使用環境に応じた最適な値に自動設定することができる。
【0197】
図18には、図16のステップS64とS66、及び図17のステップS84とS86の詳細な処理を説明するための具体的なアルゴリズムが示されている。
【0198】
まず、ステップS182で、基準値Vrefの値をプリセットするか、以前使われていた基準値Vrefの値をそのまま使用するかどうかを選択する。
【0199】
前回の使用環境と全く同じか、もしくはそれと同等な環境である時には、Noを選択して前回使用した基準値Vrefを用いればよい。この場合には、基準値の設定を省略できるため便利である。
【0200】
一方、ステップS182でYesを選択し基準値Vrefの値をプリセットする場合には、基準値を設定する領域の数を指定し(ステップS184)、かつそのサイズを指定する(ステップS186)。これにより、図15(A)に示すような領域が決定できる。次に、ステップS188で、上述した図15(B)に示すような校正パターンの種類を選択する。
【0201】
次に、各分割エリア毎の輝度データを検出し(ステップS190)、該検出輝度データと予め記憶されている輝度データとをステップS192で比較する。比較した結果を基に、基準値Vrefの値を所望の値に制御し(ステップS194)、その値を記憶する(ステップS196)。次に、ステップ198で、図16のステップS64とS66、及び図17のステップS84とS86の処理を終了する。
【0202】
このようにして、本実施の形態によれば、基準値Vrefを最適な値に自動設定し、撮像信号から指示画像の影領域300を正確に抽出することが可能となる。
【0203】
また、本実施の形態では、各領域毎に異なる基準値を自動設定する場合を例に取り説明したが、必要に応じ、全領域に対し単一の基準値を自動設定するように構成してもよい。
【0204】
(5)前記処理部のハードウェアの構成
次に、前記処理部110を実現できるハードウェアの構成の一例を、図23を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、画像生成IC1010、I/Oポート1020−1、1020−2…が、システムバス1016により相互にデータ送受信可能に接続されている。そして、I/Oポート1020−1、1020−2…を介してCCDカメラ14、ファンクションスイッチ140、オペレータ操作部130、プロジェクタ150、その他の機器に接続されている。
【0205】
情報記憶媒体1006は、プログラム、画像データ、が主に格納されるものである。
【0206】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるプログラム等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。
【0207】
そして図1〜図7、図10、図11、図13〜15、で説明した種々の処理は、図8、図9、図12、図16〜22のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010等によって実現される。なお画像生成IC1010等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0208】
なお、本発明は、前述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で各種の変形実施が可能である。
【0209】
例えば、撮像手段として、画像をカラー画像として撮像するCCDカメラ等を必要に応じ用いていてもよい。
【0210】
また、指示画像の実像領域302の抽出方法については、上記のような撮像信号に基づく輝度レベルを検出する以外に、プレゼンター30の腕や指示棒40の動きから検出しても良い。
【図面の簡単な説明】
【図1】本発明が適用されたフロントタイプのプレゼンテーションシステムの概略説明図である。
【図2】本発明が適用されたリアタイプのプレゼンテーションシステムの概略説明図で、同図(A)はCCDカメラが内蔵されている場合の説明図であり、同図(B)は外付けされている場合の説明図である。
【図3】本実施の形態で使用される指示棒の一例を示す説明図である。
【図4】同図(A)は、プレゼンテーション動作の説明図であり、同図(B)はこの時の撮像画像におけるプレゼンター及び指示棒の影、指示棒の実像の説明図である。
【図5】本実施の形態のシステムの機能ブロック図である。
【図6】本実施の形態のシステムの詳細な機能ブロック図である。
【図7】CCDカメラの撮像信号から指示ポイントの影を抽出し、ポインティング位置を検出する処理の説明図である。
【図8】CCDカメラの撮像信号から指示ポイントの影を抽出するための具体的な処理の説明図である。
【図9】抽出された指示ポイントの影からポインティング位置を検出する具体的な処理の説明図である。
【図10】指示ポイントの影の両端の座標を検出する処理の説明図である。
【図11】ポインティング位置に基づくカーソル表示の一例を示す説明図で、同図(A)はカーソルが指示棒の延長線上にある場合の説明図であり、同図(B)はディスプレイ領域周辺でのカーソル表示の方法を説明するための説明図である。
【図12】ポインティング位置に基づくカーソル表示の他の一例を示す説明図で、同図(A)はカーソルの向きを変更する場合の説明図であり、同図(B)は水平方向横向きのカーソルを表示する為のアルゴリズムの説明図である。
【図13】本実施の形態におけるシェーディング対策の一例を示す説明図である。
【図14】撮像信号から指示ポイントの影を抽出するための2値化しきい値Vrefの設定処理の説明図で、同図(A)は理想状態での説明図あり、同図(B)はディスプレイ領域内で輝度差がある場合での説明図、同図(C)は基準値を変更して輝度差を改善した場合の説明図である。
【図15】同図(A)は、ディスプレイ領域を複数の領域に分割し、各領域毎に固有の基準値を設定するための処理の説明図であり、同図(B)は、前記基準値を設定する際に使用する較正パターン画像の一例を示す説明図である。
【図16】システム立ち上げ時における基準値の自動設定動作のフローチャートである。
【図17】システム立ち上げ後における、基準値の再設定動作のフローチャートである。
【図18】本実施の形態における基準値の自動設定動作の詳細を説明するフローチャートである。
【図19】本実施の形態における複数の指示ポイントに対応したカーソル表示動作の詳細を説明するフローチャートである。
【図20】本実施の形態におけるカーソル位置の固定表示動作の詳細を説明するフローチャートである。
【図21】本実施の形態におけるカーソルサイズ変更動作を説明するフローチャートである。
【図22】本実施の形態におけるCCDカメラの光学制御部の自動設定動作を説明するためのブロック図とフローチャートである。
【図23】本実施の形態における処理部のハードウエア構成の説明図である。
【符号の説明】
10 プロジェクタ
10a、14a 偏光板
12 ディスプレイ領域
14 CCDカメラ
20 撮像画像
22 CCDレンズ
24 CCDレンズ調整機構
40 指示棒
42 ポインティング部
110 処理部
112 2値化処理部
114 基準値自動設定部
116 ポインティング座標検出部
118 演算制御部
120 カーソル制御部
124 較正パターン画像生成部
126 レンズ制御プログラム
132 基準値再設定スイッチ
140 ファンクションスイッチ
150 PJ光学制御部
152 PJレンズ
154 PJレンズ調整機構
156 センサー
200 カーソル
202 第一カーソル
204 第二カーソル
230 ディスプレイ領域の右端以外の領域
220 ディスプレイ領域の右端の下側
300 指示画像の影
302 指示画像の実像
304 検出対象
320 低輝度領域
400 2値画像データ
440 ノイズ
450 検出ノイズ
500 較正パターン画像
510 黒領域
512 白領域[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pointing position detection apparatus and method for automatically detecting a pointing position in a display area, a presentation system, and an information storage medium.
[0002]
[Background Art and Problems to be Solved by the Invention]
Assume that a presenter makes a presentation while watching a screen displayed on a display area, for example. The presenter proceeds with the presentation while pointing to any point in the display area using the pointing device.
[0003]
In this case, it is important that the presenter can easily point to an arbitrary point on the display area, and the pointing position is surely recognized by the system and reflected in the image processing.
[0004]
However, the conventional system has a problem that it is extremely inconvenient for the user because a special pointing device must be used when the presenter indicates a desired point on the display area.
[0005]
For example, when a laser pointer is used to point to an arbitrary point on the display area, the pointing position is difficult to understand unless the periphery of the display area is dark to some extent. Further, since the point position is displayed as a small point, there is a problem that the pointing position is difficult to understand from this surface.
[0006]
In addition, when a presentation is performed using a pointing device such as a mouse while moving the cursor position displayed on the display area, the presenter must interrupt the presentation and perform a mouse operation each time. For this reason, there was a problem that presentation could not be performed smoothly and it was extremely inconvenient.
[0007]
The present invention has been made in view of such problems, and its object is to automatically and accurately recognize the pointing position in the display area without using a special point pointing tool. An object of the present invention is to provide a pointing position detection apparatus and method, a presentation system, and an information storage medium.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a pointing position detection device of the present invention includes:
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Including
The reference value setting means is configured to be able to change the reference value.
[0009]
The pointing position detection method of the present invention includes
An imaging process for imaging a display area in which an image is displayed;
A position detection step of comparing the imaging signal with a reference value for separating an image area of the instruction image and extracting the image area of the instruction image, and detecting a pointing position from the image area of the instruction image;
Including
The position detection step includes
The method includes a step of changing a reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means.
[0010]
According to the present invention, in the display area where an image is displayed, the image area of the instruction image generated by the operation of the operator is extracted from the captured image of the imaging means, and the pointing position is automatically detected.
[0011]
Here, when the imaging signal output from the imaging means is a monochrome image, for example, a binarization threshold value may be set as a reference value in order to cut out the image area of the instruction image from the imaging signal.
[0012]
This reference value is basically set to a value equal to or less than the value of the black level luminance of the image picked up by the image pickup means. This is because the color with the lowest luminance on the screen is black, and the luminance of the image area of the instruction image is below the luminance level of black.
[0013]
At this time, if the margin between the black level of the image displayed on the display area and the reference value for binarization is set too large, the luminance level of the image area of the instruction image does not decrease below the reference value. This causes a problem that the image area of the instruction image cannot be detected.
[0014]
Conversely, if the margin of the reference value is too small, an image target that is not an image area of the instruction image is erroneously recognized as an image area of the instruction image. For example, when the luminance in the display area slightly changes depending on the surrounding environmental conditions, there arises a problem that it is erroneously recognized as the image area of the instruction image.
[0015]
Therefore, in such a system, there is a problem that it is difficult to detect an image area of an appropriate instruction image unless the reference value is set to an appropriate value according to the use environment.
[0016]
In the present invention, the reference value for separating the image area of the instruction image from the imaging signal can be changed. As a result, the above-described problems can be solved, the image area of the instruction image formed on the display area can be accurately extracted, and the pointing position can be automatically detected.
[0017]
The presentation system of the present invention
Image display means for displaying an image;
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Cursor control means for controlling the position of the cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The reference value setting means is configured to be able to change the reference value.
[0018]
The present invention also provides:
For controlling the presentation systemprogramIs a computer-readable information storage medium in which is stored,
SaidprogramIs
Reference value setting for setting a reference value for separating the image area of the instruction image from the captured image from the image pickup signal of the image pickup meansmeansWhen,
Position detection for comparing the imaging signal with the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction imagemeansWhen,
Cursor control for controlling the position of the cursor included in the image displayed from the image display means based on the detected pointing positionLet the computer function as a means,
Reference value settingmeansIs
Change the reference valueThisIt is characterized by.
[0019]
The present invention also provides a method for detecting a pointing position in a presentation.
An imaging process for imaging a display area in which an image is displayed;
A position detection step of comparing the imaging signal with a reference value for separating an image area of the instruction image and extracting the image area of the instruction image, and detecting a pointing position from the image area of the instruction image;
A cursor control step for controlling the position of a cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The position detection step includes
The method includes a step of changing a reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means.
[0020]
According to the present invention, the presenter indicates a desired pointing position on the display area with a predetermined pointing tool, such as a bar-shaped pointing tool or a finger. Then, the pointing position is detected from the imaging signal of the imaging means, and the cursor position is controlled. Therefore, it is possible to realize a presentation system that is extremely convenient for users and third parties who listen to presentations.
[0021]
In particular, in the present invention, the reference value for separating the image area of the instruction image from the imaging signal is configured to be changeable. As a result, the image area of the instruction image formed on the display area can be accurately extracted, and as a result, the pointing position can be automatically detected and the cursor position can be controlled satisfactorily.
[0022]
Further, the position detection means, information or process includes
A predetermined position in the shadow area of the instruction image included in the display area may be detected as a pointing position.
[0023]
Thereby, for example, a desired pointing position in the display area indicated by the presenter can be detected as a shadow area on the display area.
[0024]
Further, the position detection means, information or process includes
You may form so that the predetermined position of the real image area | region of the instruction | indication image contained in the said display area may be detected as a pointing position.
[0025]
Thereby, for example, a desired pointing position of the display area pointed to by the presenter can be detected as a real image area on the display area.
[0026]
Thus, according to the present invention, when the presenter points to a predetermined position with an indicator such as a stick, the pointing position is detected as a shadow area or a real image area of the indicator on the display area. The cursor position can be controlled well.
[0027]
Further, the position detection means, information or process includes
It is preferable that a bar-shaped image area included in the display area is captured as an image area of the instruction image, and a tip position thereof is detected as a pointing position.
[0028]
As a result, detection targets other than the bar-shaped image region are determined as noise from all detection targets and are not recognized as instruction images. Therefore, accurate pointing position detection can be performed without being affected by noise, environmental conditions, and the like.
[0029]
Furthermore, since the tip of the image area of the stick-shaped instruction image is detected as the pointing position, the user can proceed with the presentation as if he / she made a presentation while pointing a blackboard or the like with a finger or a stick. .
[0030]
Further, the position detection means, information or process includes
It is preferable to form the bar-shaped image area as the image area of the instruction image because of the continuity of the image areas included in the display area.
[0031]
By doing in this way, since the other image which is noise contained in the captured image and the instruction image can be separated and recognized more reliably, it is possible to more reliably detect the pointing position.
[0032]
The apparatus and system of the present invention are
Calibration pattern image generating means for displaying a predetermined calibration pattern image on the display area from the image display means,
The reference value setting means includes
It is preferable that a reference value for extracting an image area of the instruction image is automatically set based on the calibration pattern image data and the imaging signal.
[0033]
Furthermore, information stored in the information storage medium of the present invention is:
Including calibration pattern control information for displaying a predetermined calibration pattern image on the display area from the image display means;
The reference value setting information is
It is preferable that information for automatically setting a reference value for extracting an image area of the instruction image is included based on the data of the calibration pattern image and the imaging signal.
[0034]
Specifically, the calibration pattern image is displayed from the image display unit toward the display area when the image display unit is started up or updated during the process.
[0035]
At this time, the reference value setting means automatically calculates a reference value for extracting the image area of the instruction image from the captured image based on the imaging signal obtained by imaging the displayed calibration pattern and the luminance data of the calibration pattern image. Set. For example, when the imaging signal is a monochrome image signal, a reference value having an optimum margin is automatically set for the black luminance level.
[0036]
At this time, the apparatus and system of the present invention
Including instruction means for setting a reference value,
When a command for setting a reference value is input by the instruction means,
The calibration pattern image generating means includes
A calibration pattern image is displayed on the display area from the image display means;
The reference value setting means includes
It is preferable that a reference value for extracting an image area of the instruction image is automatically set based on the calibration pattern image data and the imaging signal.
[0037]
Even in a presentation system used in the same place, the optimum reference value often changes depending on the time of use and the surrounding environment. For example, the optimum reference value is different between when used in the daytime and when used at night. Even when used in the same time zone, the optimum reference value is often different between a sunny day and a cloudy day.
[0038]
In addition, when the presentation takes a long time, the ambient brightness differs between the start of the presentation and the time when a predetermined time elapses, and the optimum reference value often varies.
[0039]
Even in such a case, according to the present invention, the calibration pattern image may be displayed on the display area from the image display unit by instructing the resetting of the reference value using the instruction unit. Thereby, the reference value setting means automatically resets the optimum reference value based on the imaging signal of the calibration pattern and the calibration pattern data.
[0040]
The reference value setting means includes
Preferably, the display area is divided into a plurality of areas, and a unique reference value is set for each of the divided areas.
[0041]
At this time, it is preferable that the calibration pattern image generating unit is configured to display a predetermined calibration pattern image having a calibration pattern for each of the divided areas on the display area.
[0042]
Further, it is preferable that the display area is divided into a corner area that is relatively dark and a central area that is relatively bright, and a unique reference value is set for each of the divided areas.
[0043]
In the information storage medium of the present invention,
The reference value setting information is
It is preferable that the display area is divided into a plurality of areas and includes information for automatically setting a unique reference value for each divided area.
[0044]
For example, when a projection projector is used as the image display means, if the display area is curved or the brightness of the black level of the screen is not uniform due to uneven brightness of the projected image, it is optimal for each area. It is necessary to set a proper reference value.
[0045]
According to the present invention, the display area is divided into a plurality of areas, and a unique reference value is set for each of the divided areas, so that even if there is uneven brightness on the display area, it is reliably indicated from the captured image. It is possible to extract the image area of the image and detect the pointing position.
[0046]
The calibration pattern image generation means includes
It is preferable that a predetermined calibration pattern image formed by combining a plurality of areas having different luminances is displayed on the display area.
[0047]
That is, at the time of setting the reference value, the calibration pattern displayed from the image display means is often set based on, for example, black having the lowest luminance level, so all the areas of the calibration pattern image are set to the black level. May be. However, even if the same black is displayed as an image in the display area, the imaging means picks up the same black when the surrounding area is all black and when there is a non-black area around it. However, the brightness level is slightly different.
[0048]
In the present invention, even in such a case, a calibration pattern image formed by combining a plurality of regions having different luminances is displayed so that the reference value can be reliably and optimally set. From this, the reference value is set. As a result, the image area of the instruction image can be more accurately extracted from the imaging signal, and the pointing position can be detected.
[0049]
In particular, it is possible to set a reference value for each divided region by configuring such a combination of a plurality of regions having different luminances to be displayed on the display region as a calibration pattern image set for each divided region. Can be set to a more appropriate value.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Next, a preferred embodiment of a presentation system to which the present invention is applied will be described in detail with reference to the drawings.
[0051]
(1) Overall description
FIG. 1 shows an example of a presentation system when a front projection device is used as an image display device. A predetermined presentation image is projected from a
[0052]
FIG. 4 shows an example in which the
[0053]
As shown in FIG. 4A, when the
[0054]
Here, a bar-like long shadow formed by the light emitted from the
[0055]
The pointing position on the
[0056]
Similarly, the pointing position on the
[0057]
According to the present embodiment, data processing is performed so that the
[0058]
As will be described later, the corner portion of the
[0059]
FIG. 2A shows an example of a rear type presentation system. This presentation system projects an image of the
[0060]
FIG. 2B shows another example of a rear type presentation system. This system captures an image of the
[0061]
Also in such a rear type system, when the
[0062]
Then, the
[0063]
As the image display means of the rear type system to which the present invention is applied, in addition to the
[0064]
FIG. 3 shows a specific example of the
[0065]
In the front type system shown in FIG. 1, the
[0066]
FIG. 5 schematically shows a functional block diagram of the system according to the embodiment.
[0067]
The system according to the present embodiment includes an
[0068]
In the present embodiment, the
[0069]
The
[0070]
Further, the polarizing plate 10a is provided in each optical path of the
[0071]
Further, the
[0072]
As a result, the imaging area can be arbitrarily set according to the use environment and the imaging content, and the usability of the system is extremely improved. When the imaging area is set wider than the display area, alignment between the imaging area and the display area becomes unnecessary.
[0073]
In particular, by setting an imaging region that includes the
[0074]
Furthermore, since the resolution of the
[0075]
(2) Pointing position detection
FIG. 6 shows a specific functional block diagram of the
[0076]
In the present embodiment, the
[0077]
The image signal output from the
[0078]
In the present embodiment, the
[0079]
Then, the
[0080]
The pointing coordinate
[0081]
In the present embodiment, the pointing coordinate
[0082]
Details will be described below.
[0083]
FIG. 7A shows a flowchart for explaining the outline of the pointing coordinate detection process of the pointing coordinate
[0084]
First, processing for specifying the
[0085]
In step S10, the pointing coordinate
[0086]
Next, the pointing coordinate
[0087]
Here, as indicated by (1) in FIG. 7B, the presenter's
[0088]
As described above, in the present embodiment, when the
[0089]
Hereinafter, the processing of Step S10 and Step S12 will be described in more detail.
[0090]
(2-1) Details of Step S10
FIG. 8 shows a specific example of the processing in step S10, that is, a specific example of an algorithm for extracting the
[0091]
Here, the extraction of the
[0092]
First, an elongated shadow is detected, and then the area of the elongated shadow is detected. A region having a large area is recognized as having continuity, and is extracted as a
[0093]
First, when the
[0094]
As described above, the
[0095]
The
[0096]
Next, the images obtained by the processes in steps S22 and S24 are combined in step S26 to obtain
[0097]
Then, the obtained
[0098]
Further, in steps S30, S32, and S34,
[0099]
That is, each cluster of detected
[0100]
Next, the number of pixels for each label (area) is counted. The actual process may be performed simultaneously with the labeling process. Thereby, the area of the shadow area for each label A, B... E is calculated. Then, the label having a small area is determined as noise and removed from the labeling processing data 406 to obtain
[0101]
Further, as an extraction method other than the area calculation in S32, the
[0102]
Through the series of processes in steps S20 to S36, the presenter's
[0103]
If the noise included in the
[0104]
(2-2) Details of Step S12
FIG. 9 shows a specific algorithm for determining the pointing position from the
[0105]
In this process, the position of the corner of the
[0106]
When this process is started (step S40), first, in step S42, the points A and B at both ends in the longitudinal direction of the
[0107]
Next, in step S44, it is determined whether or not the shadow image other than the
[0108]
If YES is determined here, as indicated by (2) in FIG. 9B, the
[0109]
If NO is determined in step S44, then in step S46, the point B is at or near the edge of the screen as in the
[0110]
If NO is determined in step S46, it is then determined in step S48 whether a shadow other than the
[0111]
If NO is determined in step S48, it is determined in next step S50 whether the point A is a point on the edge of the screen or a close point. If YES is determined here, the point B is obtained as the pointing position, and if NO is determined, a detection error is output.
[0112]
As described above, in the present embodiment, the processing of steps S44 and S46 can accurately detect the pointing position even when the
[0113]
(2-3) Details of step S42
FIG. 10 shows a specific example of the process of step S42 of FIG. Here, three binary image data including the
[0114]
In order to obtain the coordinates of both ends of the
a (Xmin, Ya)
b (Xmax, Yb)
c (Xc, Ymin)
d (Xd, Ymax)
And a, b, c, d
(Xmax-Xmin)> (Ymax-Ymin)
If the above condition is satisfied, the points a and b are specified as the points A and B at both ends of the
(Xmax−Xmin) <(Xmax−Ymin)
When the above condition is satisfied, the points c and d are specified as the points A and B at both ends of the
[0115]
Therefore, taking the
[0116]
Note that the pointing coordinate
[0117]
In this way, the pointing coordinate
[0118]
In the present embodiment, the part formed by the
[0119]
In the present embodiment, a black and white image signal is output from the
[0120]
(2-4) Shading measures
Depending on the usage environment of the presentation system, for example, as shown in FIG. 13A, a part of an image projected on the
[0121]
In order to solve such a problem, in the system according to the present embodiment, the illumination means 16 such as a light or an LED array is used to concentrate and irradiate the low-luminance area 320a having a low luminance level on the
[0122]
(3) Data processing based on detected position data
The
[0123]
In the present embodiment, the
[0124]
(3-1) Details of the
The
[0125]
FIG. 22 is a diagram illustrating a method for automatically performing optical adjustment of the imaging lens of the
[0126]
FIG. 22A is a block diagram for explaining the entire configuration.
[0127]
In general, the
[0128]
The
[0129]
Thus, conventionally, it has been necessary to individually adjust the lenses of the
[0130]
FIG. 22B shows an algorithm of the processing of FIG.
First, in step S202, the PJ
[0131]
The cursor control unit 120 controls the position of the
[0132]
The reference value
[0133]
Next, details of the cursor control unit 120 will be described.
[0134]
(3-2) Details of cursor control unit 120
The cursor control unit 120 controls the position of the
[0135]
FIG. 11A shows an example of position control of the
[0136]
At this time, the
[0137]
Thereby, the
[0138]
The cursor control unit 120 may be configured to control the size, shape, color, and the like of the
[0139]
Here, as shown in FIG. 11A, when the
[0140]
For this reason, as shown in FIG. 11B, the pointing position approaches the peripheral edge of the display screen ((2) in the figure), and the constant distance = d cannot be maintained on the extension line of the
[0141]
FIG. 21 is a diagram for explaining an algorithm used when the cursor size is changed.
[0142]
First, in step S162, length = d and width = t are calculated as the area calculation processing in step S32 of FIG. Here, in the present embodiment, the case of having a tip-shaped portion different from the shape of the branch portion of the
[0143]
Next, the length of the detected indication image 304 in the longitudinal direction = d is compared with a length L that can be arbitrarily set in advance (step S164). Since it can be determined that the shape is smaller than the setting, the size of the
[0144]
Next, in step S166, the width of the detection target 304 of the detected instruction image = t is compared with a width value = k that can be arbitrarily set in advance. If t <k, it is determined that the tip shape is smaller than the setting, as in the length comparison, and the size of the
[0145]
By performing such processing every time step S34 is performed, it is possible to control the cursor in real time.
[0146]
Further, the cursor control unit 120 may control the display position of the
[0147]
For example, when the
[0148]
When the presenter makes a presentation while standing at the right end of the
[0149]
When the display control of the
[0150]
By doing so, it is possible to realize a presentation system that is easier to use for the user.
[0151]
FIG. 12B shows a specific example of an algorithm for displaying a cursor at a position that is a certain distance in the horizontal direction from the tip coordinates of the
[0152]
In step S100, an algorithm for displaying a cursor is started. In step S102, the tip coordinates (x, y) of the pointing position are detected.
[0153]
Next, in step S104, the tip coordinates (x ′, y ′) of the cursor are calculated based on the detected coordinates (x, y), and the cursor coordinates (x ′, y ′) are determined (S106). ).
[0154]
Next, in step S108, a process for controlling and displaying the cursor position at the cursor coordinates (x ', y') is performed, and the cursor can be displayed at a desired position on the display screen.
[0155]
FIG. 19 is a diagram illustrating a method for independently controlling display of a plurality of cursors corresponding to a plurality of pointing positions when a plurality of pointing positions are detected.
[0156]
First, in step S122, the instruction image detection target 304 in step S34 of FIG. 8 is extracted, and in step S124, the number of extracted labels is checked. Here, when the number of extracted labels is one, it is sufficient to display one cursor so that normal processing is performed. When the detection targets 304 of a plurality of instruction images are extracted in step S124, the number is calculated in step S126, and a cursor corresponding to the number is displayed in step S128.
[0157]
Such a series of processing is repeated to display a cursor at the designated image position.
[0158]
FIG. 20 shows a specific algorithm in the case where a plurality of cursors are displayed by the above-described method, in which the display position of one cursor is fixed and only another cursor is freely controlled. .
[0159]
As shown in (1) of FIG. 20, the
[0160]
The presentation system of the present embodiment is provided with a
[0161]
Next, as indicated by (3) in FIG. 20, the
[0162]
Thereby, the old and new pointing positions can be pointed simultaneously and separately. In particular, the
[0163]
It should be noted that the fixedly displayed
[0164]
In addition to the functions described above, the
[0165]
The
[0166]
With the above configuration, the
[0167]
Further, by assigning an underline function or handwritten character input to the
[0168]
Further, by assigning a function for temporarily stopping the movement of the
[0169]
(4) Automatic setting of the reference value Vref
Next, details of the reference value Vref set by the reference value
[0170]
In order to reliably extract the
[0171]
This reference value needs to be set to a value equal to or lower than the lowest luminance level included in the image signal when the image projected on the
[0172]
FIG. 14A shows the brightness level of each region obtained by capturing an image with the
[0173]
Here, a pure white image (display white area, (1) in the figure) and a black image (display black area, (2) in the figure) are projected on the
[0174]
FIG. 14A shows an ideal display area environment, and shows the luminance level of each area obtained when an image is projected on the
[0175]
Therefore, if the level difference ΔV (hereinafter referred to as margin) between the
[0176]
For this reason, the reference value
[0177]
Details will be described below.
[0178]
FIG. 15A shows a state where an image projected on the
[0179]
The reference value
[0180]
For example, in the divided
[0181]
As a result, the
[0182]
In order to set a unique reference value Vref for each divided area, the calibration pattern
[0183]
Here, the calibration pattern image shown in FIG. 15B is configured to be projected onto the
[0184]
Note that when setting the reference value, the calibration pattern image projected from the projector may be formed with reference to black having the lowest luminance level. For example, a calibration pattern image in which the entire area of the calibration pattern image is entirely black level may be projected.
[0185]
However, even if the same black image is projected onto the
[0186]
In the present embodiment, even in such a case, a calibration pattern combining a
[0187]
FIG. 16 shows a flowchart of the reference value automatic setting operation when starting up the presentation system.
[0188]
The reference value
[0189]
Then, the reference value
[0190]
Here, the luminance level of the signal corresponding to the
[0191]
After completion of such setting, the reference value
[0192]
Thus, according to the present embodiment, the threshold value Vref for binarization processing can be automatically set to an optimum value for each divided area when the system is started up.
[0193]
FIG. 17 shows a flowchart when the reference value Vref is reset after the system is started up.
[0194]
When the user operates the reference value reset switch 132, the reference value
[0195]
Note that steps S84 to S88 are the same processes as S64 to 68 shown in FIG. 16, and therefore detailed description thereof is omitted here.
[0196]
As described above, according to the present embodiment, the reference value can be automatically set to the optimum value even after the system is started up. For example, when the usage environment changes during the presentation (for example, When the brightness level on the
[0197]
FIG. 18 shows a specific algorithm for explaining detailed processing of steps S64 and S66 of FIG. 16 and steps S84 and S86 of FIG.
[0198]
First, in step S182, it is selected whether to preset the value of the reference value Vref or whether to use the value of the reference value Vref that has been used before.
[0199]
When the environment is exactly the same as or equivalent to the previous use environment, No may be selected and the reference value Vref used last time may be used. This is convenient because the setting of the reference value can be omitted.
[0200]
On the other hand, when Yes is selected in step S182 and the value of the reference value Vref is preset, the number of areas where the reference value is set is specified (step S184) and the size is specified (step S186). Thereby, an area as shown in FIG. 15A can be determined. Next, in step S188, the type of calibration pattern as shown in FIG. 15B is selected.
[0201]
Next, luminance data for each divided area is detected (step S190), and the detected luminance data is compared with previously stored luminance data in step S192. Based on the comparison result, the reference value Vref is controlled to a desired value (step S194), and the value is stored (step S196). Next, in step 198, the processes in steps S64 and S66 in FIG. 16 and steps S84 and S86 in FIG. 17 are terminated.
[0202]
In this way, according to the present embodiment, it is possible to automatically set the reference value Vref to an optimum value and accurately extract the
[0203]
In the present embodiment, the case where different reference values are automatically set for each region has been described as an example. However, if necessary, a single reference value is automatically set for all regions. Also good.
[0204]
(5) Hardware configuration of the processing unit
Next, an example of a hardware configuration capable of realizing the
[0205]
The
[0206]
In accordance with a program stored in the
[0207]
The various processes described with reference to FIGS. 1 to 7, 10, 11, and 13 to 15 are programs that perform the processes shown in the flowcharts of FIGS. 8, 9, 12, and 16 to 22. The
[0208]
The present invention is not limited to the embodiment described above, and various modifications can be made within the scope of the gist of the present invention.
[0209]
For example, a CCD camera or the like that captures an image as a color image may be used as the imaging unit as necessary.
[0210]
The method for extracting the
[Brief description of the drawings]
FIG. 1 is a schematic explanatory diagram of a front type presentation system to which the present invention is applied.
FIG. 2 is a schematic explanatory diagram of a rear type presentation system to which the present invention is applied. FIG. 2 (A) is an explanatory diagram when a CCD camera is built in, and FIG. 2 (B) is externally attached. It is explanatory drawing in the case of having.
FIG. 3 is an explanatory diagram showing an example of an indicator bar used in the present embodiment.
FIG. 4A is an explanatory diagram of a presentation operation, and FIG. 4B is an explanatory diagram of a presenter, a shadow of a pointer, and a real image of a pointer in a captured image at this time.
FIG. 5 is a functional block diagram of a system according to the present embodiment.
FIG. 6 is a detailed functional block diagram of the system according to the present embodiment.
FIG. 7 is an explanatory diagram of processing for extracting a shadow of an instruction point from an imaging signal of a CCD camera and detecting a pointing position.
FIG. 8 is an explanatory diagram of specific processing for extracting a shadow of an instruction point from an imaging signal of a CCD camera.
FIG. 9 is an explanatory diagram of a specific process for detecting a pointing position from the shadow of an instruction point extracted.
FIG. 10 is an explanatory diagram of processing for detecting the coordinates of both ends of the shadow of the indication point.
11A and 11B are explanatory diagrams showing an example of a cursor display based on a pointing position. FIG. 11A is an explanatory diagram when the cursor is on an extension line of a pointing bar, and FIG. It is explanatory drawing for demonstrating the method of cursor display.
12A and 12B are explanatory diagrams showing another example of cursor display based on the pointing position. FIG. 12A is an explanatory diagram when changing the direction of the cursor, and FIG. 12B is a horizontal sideways cursor. It is explanatory drawing of the algorithm for displaying.
FIG. 13 is an explanatory diagram showing an example of a shading countermeasure in the present embodiment.
14A and 14B are explanatory diagrams of a setting process of a binarized threshold value Vref for extracting a shadow of an instruction point from an imaging signal. FIG. 14A is an explanatory diagram in an ideal state, and FIG. An explanatory diagram in the case where there is a luminance difference in the display area, FIG. 10C is an explanatory diagram in a case where the luminance difference is improved by changing the reference value.
FIG. 15A is an explanatory diagram of processing for dividing a display region into a plurality of regions and setting a unique reference value for each region; FIG. It is explanatory drawing which shows an example of the calibration pattern image used when setting a value.
FIG. 16 is a flowchart of a reference value automatic setting operation when the system is started up;
FIG. 17 is a flowchart of a reference value resetting operation after system startup.
FIG. 18 is a flowchart for explaining the details of the reference value automatic setting operation in the present embodiment;
FIG. 19 is a flowchart illustrating details of a cursor display operation corresponding to a plurality of instruction points in the present embodiment.
FIG. 20 is a flowchart illustrating details of a cursor position fixed display operation according to the present embodiment.
FIG. 21 is a flowchart illustrating a cursor size changing operation in the present embodiment.
FIGS. 22A and 22B are a block diagram and a flowchart for explaining an automatic setting operation of the optical control unit of the CCD camera according to the present embodiment. FIGS.
FIG. 23 is an explanatory diagram of a hardware configuration of a processing unit in the present embodiment.
[Explanation of symbols]
10 Projector
10a, 14a Polarizing plate
12 Display area
14 CCD camera
20 Captured image
22 CCD lens
24 CCD lens adjustment mechanism
40 indicator
42 Pointing part
110 processor
112 Binarization processing unit
114 Reference value automatic setting section
116 Pointing coordinate detector
118 Arithmetic control unit
120 Cursor control unit
124 Calibration pattern image generator
126 Lens control program
132 Reference value reset switch
140 Function switch
150 PJ optical controller
152 PJ lens
154 PJ lens adjustment mechanism
156 sensor
200 cursors
202 First cursor
204 Second cursor
230 Area other than right edge of display area
220 Below the right edge of the display area
300 Shadow of instruction image
302 Real image of instruction image
304 Detection target
320 Low brightness area
400 Binary image data
440 noise
450 detection noise
500 Calibration pattern image
510 black area
512 white area
Claims (8)
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
を含み、
前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に構成されたことを特徴とするポインティング位置検出装置。Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Including
The reference value setting means includes
A pointing position detection apparatus configured to divide the display area into a plurality of areas and to change a unique reference value for each of the divided areas.
画像が表示されるディスプレイ領域を撮像する撮像手段と、
前記撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御手段と、
を含み、
前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とするプレゼンテーションシステム。Image display means for displaying an image;
Imaging means for imaging a display area in which an image is displayed;
A reference value setting means for setting a reference value for separating the image area of the instruction image from the picked-up image based on the image pickup signal of the image pickup means;
Position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Cursor control means for controlling the position of the cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The reference value setting means includes
A presentation system, wherein the display area is divided into a plurality of areas, and a unique reference value is set to be changeable for each divided area.
前記画像表示手段から所定の較正パターン画像を前記ディスプレイ領域の各分割領域毎に表示させる較正パターン画像生成手段を含み、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定することを特徴とするプレゼンテーションシステム。In claim 2,
Calibration pattern image generating means for displaying a predetermined calibration pattern image from the image display means for each divided area of the display area,
The reference value setting means includes
A presentation system that automatically sets a reference value for extracting an image area of the instruction image based on the data of the calibration pattern image and the imaging signal.
前記較正パターン画像生成手段は、
輝度の異なる複数の領域を組み合わせて形成された所定の較正パターン画像を前記ディスプレイ領域の各分割領域毎に表示させることを特徴とするプレゼンテーションシステム。In claim 3,
The calibration pattern image generating means includes
A presentation system, wherein a predetermined calibration pattern image formed by combining a plurality of areas having different luminances is displayed for each divided area of the display area.
基準値設定用の指示手段を含み、
前記指示手段により基準値設定の命令が入力された場合に、
前記較正パターン画像生成手段は、
較正パターン画像を前記画像表示手段からディスプレイ領域に表示させ、
前記基準値設定手段は、
前記較正パターン画像のデータと前記撮像信号とに基づき、前記指示画像の画像領域を抽出するための基準値を自動設定することを特徴とするプレゼンテーションシステム。In any one of Claim 3 and Claim 4,
Including instruction means for setting a reference value,
When a command for setting a reference value is input by the instruction means,
The calibration pattern image generating means includes
A calibration pattern image is displayed on the display area from the image display means;
The reference value setting means includes
A presentation system that automatically sets a reference value for extracting an image area of the instruction image based on the data of the calibration pattern image and the imaging signal.
前記プログラムは、
撮像手段の撮像信号から、撮像画像から指示画像の画像領域を分離するための基準値を設定する基準値設定手段と、
前記撮像信号と前記基準値とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出するための位置検出手段と、
検出された前記ポインティング位置に基づき、前記画像表示手段から表示される画像に含まれるカーソルの位置制御を行うためのカーソル制御手段としてコンピュータを機能させ、
前記基準値設定手段は、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とする情報記憶媒体。A computer-readable information storage medium storing a program for controlling a presentation system,
The program is
A reference value setting means for setting a reference value for separating the image area of the instruction image from the captured image from the imaging signal of the imaging means;
A position detection means for comparing the imaging signal and the reference value to extract an image area of the instruction image and detecting a pointing position from the image area of the instruction image;
Based on the detected pointing position, the computer functions as a cursor control means for controlling the position of the cursor included in the image displayed from the image display means,
The reference value setting means includes
An information storage medium, wherein the display area is divided into a plurality of areas, and a unique reference value is set to be changeable for each divided area.
指示画像の画像領域を分離するための基準値と、撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
を含み、
前記位置検出工程は、
撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含み、
前記基準値を変更する工程では、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とするポインティング位置検出方法。An imaging process for imaging a display area in which an image is displayed;
A reference value for separating an image area of the instruction image and an imaging signal to extract an image area of the instruction image, and a position detection step of detecting a pointing position from the image area of the instruction image;
Including
The position detection step includes
Changing the reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means;
In the step of changing the reference value,
A pointing position detecting method, wherein the display area is divided into a plurality of areas, and a unique reference value is set to be changeable for each divided area.
画像が表示されるディスプレイ領域を撮像する撮像工程と、
指示画像の画像領域を分離するための基準値と、撮像信号とを比較して前記指示画像の画像領域を抽出し、該指示画像の画像領域からポインティング位置を検出する位置検出工程と、
検出された前記ポインティング位置に基づき、画像表示手段により表示される画像に含まれるカーソルの位置制御を行うカーソル制御工程と、
を含み、
前記位置検出工程は、
撮像手段の撮像信号に基づき、撮像画像から指示画像の画像領域を分離するための基準値を変更する工程を含み、
前記基準値を変更する工程では、
前記ディスプレイ領域を複数の領域に分割し、各分割領域毎に固有の基準値を変更可能に設定することを特徴とするプレゼンテーションでのポインティング位置検出方法。In a method for detecting a pointing position in a presentation,
An imaging process for imaging a display area in which an image is displayed;
A reference value for separating an image area of the instruction image and an imaging signal to extract an image area of the instruction image, and a position detection step of detecting a pointing position from the image area of the instruction image;
A cursor control step for controlling the position of the cursor included in the image displayed by the image display means based on the detected pointing position;
Including
The position detection step includes
Changing the reference value for separating the image area of the instruction image from the captured image based on the imaging signal of the imaging means;
In the step of changing the reference value,
A method for detecting a pointing position in a presentation, wherein the display area is divided into a plurality of areas and a unique reference value is set to be changeable for each divided area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08902599A JP3821194B2 (en) | 1998-03-31 | 1999-03-30 | Pointing position detecting device and method, presentation system, information storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10384398 | 1998-03-31 | ||
JP10-103843 | 1998-03-31 | ||
JP08902599A JP3821194B2 (en) | 1998-03-31 | 1999-03-30 | Pointing position detecting device and method, presentation system, information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11345085A JPH11345085A (en) | 1999-12-14 |
JP3821194B2 true JP3821194B2 (en) | 2006-09-13 |
Family
ID=26430469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08902599A Expired - Fee Related JP3821194B2 (en) | 1998-03-31 | 1999-03-30 | Pointing position detecting device and method, presentation system, information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3821194B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109375793A (en) * | 2012-04-05 | 2019-02-22 | 精工爱普生株式会社 | Input unit, display system and input method |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001222375A (en) | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | Indicated position detection system and method, presentation system and information storage medium |
JP3640156B2 (en) | 2000-02-22 | 2005-04-20 | セイコーエプソン株式会社 | Pointed position detection system and method, presentation system, and information storage medium |
JP2001236179A (en) | 2000-02-22 | 2001-08-31 | Seiko Epson Corp | System and method for detecting indication position, presentation system and information storage medium |
US7559656B2 (en) | 2003-03-03 | 2009-07-14 | Panasonic Corporation | Projector system |
JP5445321B2 (en) | 2010-05-13 | 2014-03-19 | セイコーエプソン株式会社 | Optical detection device, display device, and electronic apparatus |
JP5589547B2 (en) | 2010-05-13 | 2014-09-17 | セイコーエプソン株式会社 | Optical detection device, display device, and electronic apparatus |
JP2011248041A (en) | 2010-05-26 | 2011-12-08 | Seiko Epson Corp | Mounting device and projection type display apparatus |
JP5494261B2 (en) | 2010-06-11 | 2014-05-14 | セイコーエプソン株式会社 | Processing device, optical detection device, display device, and electronic apparatus |
JP5516145B2 (en) | 2010-06-30 | 2014-06-11 | セイコーエプソン株式会社 | Optical detection device, display device, and electronic apparatus |
JP5668416B2 (en) | 2010-11-05 | 2015-02-12 | セイコーエプソン株式会社 | Optical detection apparatus, electronic apparatus, and optical detection method |
JP2012103938A (en) | 2010-11-11 | 2012-05-31 | Seiko Epson Corp | Optical detection system and program |
JP5672031B2 (en) * | 2011-02-01 | 2015-02-18 | セイコーエプソン株式会社 | Optical detection device, electronic device, and projection display device |
JP5742379B2 (en) * | 2011-03-30 | 2015-07-01 | カシオ計算機株式会社 | Projection system and projection method |
JP6145963B2 (en) * | 2012-04-05 | 2017-06-14 | セイコーエプソン株式会社 | Projector, display system, and projector control method |
CN102999241B (en) * | 2012-12-31 | 2016-03-30 | 南京方瑞科技有限公司 | Adopt the touch-screen that capacitance touch detects and realtime graphic is located |
-
1999
- 1999-03-30 JP JP08902599A patent/JP3821194B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109375793A (en) * | 2012-04-05 | 2019-02-22 | 精工爱普生株式会社 | Input unit, display system and input method |
Also Published As
Publication number | Publication date |
---|---|
JPH11345085A (en) | 1999-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0947948B1 (en) | Pointing position detection device, presentation system and method | |
JP3821194B2 (en) | Pointing position detecting device and method, presentation system, information storage medium | |
US10191594B2 (en) | Projection-type video display device | |
JP3640156B2 (en) | Pointed position detection system and method, presentation system, and information storage medium | |
US6788289B2 (en) | System and method of pointed position detection system, projector and program | |
JP4422851B2 (en) | Coordinate input apparatus and method | |
US7176881B2 (en) | Presentation system, material presenting device, and photographing device for presentation | |
US10321106B2 (en) | Position detection apparatus and contrast adjustment method used with the same | |
JPH11345087A (en) | Presentation system and position detecting method | |
WO2012124730A1 (en) | Detection device, input device, projector, and electronic apparatus | |
US8654103B2 (en) | Interactive display | |
JPH11345086A (en) | Pointing position detecting device and method, cursor position control method, presentation system and information storage medium | |
JP2002229726A (en) | Coordinate input device | |
JP2020160808A (en) | Position detection method, position detection device, and interactive projector | |
JP6314177B2 (en) | Projection-type image display device | |
TWI543046B (en) | Optical touch-control system | |
JP2005339269A (en) | Image display device | |
US11997435B2 (en) | Display method and display system | |
KR20190027081A (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
JP3620397B2 (en) | Pointed position detection system, presentation system, and information storage medium | |
JP6197163B1 (en) | INPUT / OUTPUT SYSTEM, INPUT PROCESSING DEVICE, INPUT / OUTPUT METHOD, AND PROGRAM | |
JP2013050622A (en) | Projection type video display device | |
TW201305853A (en) | Hybrid pointing device | |
JPH05150753A (en) | Light beam projection type image display device | |
JP2007257152A (en) | Detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20051220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060613 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110630 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110630 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120630 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130630 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130630 Year of fee payment: 7 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |