JPH11345086A - Pointing position detecting device and method, cursor position control method, presentation system and information storage medium - Google Patents

Pointing position detecting device and method, cursor position control method, presentation system and information storage medium

Info

Publication number
JPH11345086A
JPH11345086A JP8902699A JP8902699A JPH11345086A JP H11345086 A JPH11345086 A JP H11345086A JP 8902699 A JP8902699 A JP 8902699A JP 8902699 A JP8902699 A JP 8902699A JP H11345086 A JPH11345086 A JP H11345086A
Authority
JP
Japan
Prior art keywords
image
pointing
area
cursor
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8902699A
Other languages
Japanese (ja)
Inventor
Kazunori Hiramatsu
和憲 平松
Takeshi Kohata
武志 降幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP8902699A priority Critical patent/JPH11345086A/en
Publication of JPH11345086A publication Critical patent/JPH11345086A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a pointing position detector capable of automatically and accurately recognizing a pointing position in a display area without using anything special as a point indicator. SOLUTION: This pointing position detector is provided with a CCD camera 14 for picking up the image of the display area 12 where images are displayed and a binarization processing part 112 and a pointing coordinate detection part 116 for position detection for detecting the prescribed position of the area of the real image of an indication and a shadow area which is the image area of an indication image included in an image pickup area as the pointing position based on the image pickup signals of the CCD camera 14.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はディスプレイ領域の
ポインティング位置を、自動的に検出するポインティン
グ位置検出装置及び方法、カーソル位置制御方法、プレ
ゼンテーションシステム、情報記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pointing position detecting device and method for automatically detecting a pointing position in a display area, a cursor position controlling method, a presentation system, and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】プレゼン
ターが、例えばスクリーン上に映し出された画面を見な
がらプレゼンテーションを行う場合を想定する。このよ
うな場合に、プレゼンターはポインティングディバイス
を用いてスクリーンの任意のポイントを指し示しなが
ら、プレゼンテーションを進めていく。
2. Description of the Related Art It is assumed that a presenter gives a presentation while looking at a screen projected on a screen, for example. In such a case, the presenter proceeds with the presentation while pointing to an arbitrary point on the screen using the pointing device.

【0003】この場合に、プレゼンターがスクリーン上
の任意のポイントを簡単に指し示すことができ、しかも
このポインティング位置を、システムが確実に認識し、
これを画像処理に反映することが重要となる。
In this case, the presenter can easily point to an arbitrary point on the screen, and the pointing position can be reliably recognized by the system.
It is important to reflect this in image processing.

【0004】しかし、従来のシステムでは、プレゼンタ
ーがスクリーン上の所望のポイントを指示する場合に、
特殊なポインティングディバイスを用いなければなら
ず、これがユーザにとって極めて使い勝手が悪いという
問題があった。
However, in the conventional system, when the presenter points to a desired point on the screen,
A special pointing device must be used, which is extremely inconvenient for the user.

【0005】例えば、レーザポインターを用いて、スク
リーン上の任意の点を指し示す場合には、スクリーンの
周囲がある程度暗くないとそのポインティング位置がわ
かりにくい。また、ポイント位置が小さな点として表示
されるため、この面からもポインティング位置がわかり
にくいという問題があった。
For example, when a laser pointer is used to point to an arbitrary point on the screen, it is difficult to recognize the pointing position unless the periphery of the screen is dark to some extent. In addition, since the point position is displayed as a small point, there is a problem that the pointing position is difficult to understand from this plane.

【0006】また、マウス等のポインティングディバイ
スを用いて、スクリーン上に表示されるカーソル位置を
移動しながらプレゼンテーションを行う場合には、プレ
ゼンターがその都度プレゼンテーションを中断しマウス
操作を行わなければならない。このため、プレゼンテー
ションをスムーズに行うことができず、極めて使い勝手
が悪いという問題があった。
When a presentation is performed using a pointing device such as a mouse while moving the position of a cursor displayed on a screen, the presenter must interrupt the presentation and operate the mouse each time. For this reason, there was a problem that the presentation could not be performed smoothly and the usability was extremely poor.

【0007】本発明は、このような課題に鑑みて成され
たものであり、その目的は、ポイント指示具として、特
別なものを用いることなく、しかもディスプレイ領域に
おけるポインティング位置を自動的にかつ正確に認識す
ることができるポインティング位置検出装置及び方法、
カーソル位置制御方法、プレゼンテーションシステム、
情報記憶媒体を提供することにある。
The present invention has been made in view of such problems, and has as its object to automatically and accurately determine a pointing position in a display area without using a special pointing device. Pointing position detection device and method that can be recognized
Cursor position control method, presentation system,
An object of the present invention is to provide an information storage medium.

【0008】[0008]

【課題を解決するための手段】前記目的を達成するた
め、本発明のポインティング位置検出装置は、画像が表
示されたディスプレイ領域を撮像する撮像手段と、前記
撮像されたディスプレイ領域に含まれる指示画像の画像
領域からポインティング位置を検出する位置検出手段
と、を含むことを特徴とする。
In order to achieve the above object, a pointing position detecting device according to the present invention comprises: an image pickup means for picking up a display area on which an image is displayed; and a pointing image included in the picked up display area. And a position detecting means for detecting a pointing position from the image area.

【0009】本発明の方法は、画像が表示されたディス
プレイ領域を撮像する撮像工程と、前記撮像されたディ
スプレイ領域に含まれる指示画像の画像領域からポイン
ティング位置を検出する位置検出工程と、を含むことを
特徴とする。
[0009] The method of the present invention includes an imaging step of imaging a display area on which an image is displayed, and a position detection step of detecting a pointing position from an image area of a pointing image included in the imaged display area. It is characterized by the following.

【0010】ここにおいて、前記位置検出手段または工
程は、前記ディスプレイ領域に含まれる指示画像の影領
域の所定位置をポインティング位置として検出するよう
に形成してもよい。
Here, the position detecting means or step may be formed so as to detect a predetermined position of a shadow area of the pointing image included in the display area as a pointing position.

【0011】また、前記位置検出手段または工程は、前
記ディスプレイ領域に含まれる指示画像の実像領域の所
定位置をポインティング位置として検出するように形成
してもよい。
Further, the position detecting means or step may be formed so as to detect a predetermined position of a real image area of the pointing image included in the display area as a pointing position.

【0012】これにより、例えばプレゼンターが所定の
指示具、例えば、棒のような指示具で所定位置を指し示
した場合に、そのポインティング位置を、撮像画像に含
まれている指示画像の影領域または実像領域に基づき検
出することができる。
Thus, for example, when the presenter points to a predetermined position with a predetermined pointing tool, for example, a pointing tool such as a stick, the pointing position is changed to a shadow area or a real image of the pointing image included in the captured image. It can be detected based on the area.

【0013】このため、極めて使い勝手のよいポインテ
ィング位置検出装置を実現することが可能となる。
Therefore, it is possible to realize a pointing position detecting device which is extremely easy to use.

【0014】また、本発明のプレゼンテーションシステ
ムは、画像を表示する画像表示手段と、画像が表示され
たディスプレイ領域を撮像する撮像手段と、前記撮像手
段の撮像信号に基づき、指示画像の画像領域からポイン
ティング位置を検出する位置検出手段と、検出された前
記ポインティング位置に基づき、画像表示手段が表示す
る画像に含まれるカーソルの位置制御を行うカーソル制
御手段と、を含むことを特徴とする。
Further, the presentation system of the present invention comprises: an image display means for displaying an image; an image pickup means for picking up an image of a display area on which the image is displayed; It is characterized by including position detecting means for detecting a pointing position, and cursor control means for controlling the position of a cursor included in an image displayed by the image display means based on the detected pointing position.

【0015】また、本発明の情報記憶媒体は、ディスプ
レイ領域の撮像信号に基づき、前記ディスプレイ領域に
含まれる指示画像の画像領域の所定位置をポインティン
グ位置として検出するための情報と、検出された前記ポ
インティング位置に基づき、画像表示手段が表示する画
像に含まれるカーソルの位置制御を行うための情報と、
を含む情報を記憶することを特徴とする。
Further, the information storage medium of the present invention, based on an image pickup signal of a display area, information for detecting a predetermined position of an image area of a pointing image included in the display area as a pointing position, and Information for controlling the position of a cursor included in the image displayed by the image display means based on the pointing position;
Is stored.

【0016】また、本発明の方法は、画像を表示する画
像表示工程と、画像が表示されたディスプレイ領域を撮
像する撮像工程と、前記撮像されたディスプレイ領域に
含まれる指示画像の画像領域からポインティング位置を
検出する位置検出処理工程と、検出された前記ポインテ
ィング位置に基づき、前記画像表示手段により表示され
る画像に含まれるカーソルの位置制御を行うカーソル制
御工程と、を含むことを特徴とする。
Also, the method of the present invention includes an image display step of displaying an image, an imaging step of capturing an image of a display area on which the image is displayed, and pointing from an image area of the designated image included in the captured display area. A position detection processing step of detecting a position; and a cursor control step of controlling a position of a cursor included in an image displayed by the image display means based on the detected pointing position.

【0017】本発明によれば、プレゼンターが所定の指
示具、例えば棒状に形成された指示具や、指などでディ
スプレイ領域上の所望のポインティング位置を差し示す
ことにより、そのポインティング位置が検出されて、カ
ーソルの位置制御が行われる。これにより、プレゼンテ
ーションをスムーズに進めることができる。
According to the present invention, when the presenter indicates a desired pointing position on the display area with a predetermined pointing device, for example, a bar-shaped pointing device, a finger, or the like, the pointing position is detected. , The cursor position is controlled. This allows the presentation to proceed smoothly.

【0018】なお、本発明においては、指示画像の影や
実像を作る指示具、例えば棒状の指示具の先端に、少し
大きめにポインティング部を形成しておき、このポイン
ティング部を非反射部材を用いて形成することが好まし
い。このようにすることにより、撮像画像中で指示棒の
先端部が確実に影や実像ができるため、ポインティング
位置の検出をより正確に行うことが可能となる。
In the present invention, a slightly larger pointing portion is formed at the tip of a pointing tool for forming a shadow or a real image of the pointing image, for example, a bar-shaped pointing tool, and this pointing section is formed by using a non-reflective member. It is preferable to form it. By doing so, the tip of the pointing rod can reliably form a shadow or a real image in the captured image, so that the pointing position can be detected more accurately.

【0019】また、本発明のプレゼンテーションシステ
ムによれば、検出されたポインティング位置に基づき、
ディスプレイ領域上に表示されるカーソルの位置制御が
行われる。このようにすることにより、プレゼンターの
指し示す位置に追従してカーソルが移動することになる
ため、プレゼンターのみならず、このプレゼンテーショ
ンの視聴者に対しても、ポインティング位置を視覚的に
極めてわかり易く表示することができる。その結果、プ
レゼンター及び視聴者の双方にとって、自然な形でプレ
ゼンテーションを進められることができるため、使い勝
手がよく、かつわかりやすいプレゼンテーションシステ
ムを実現することができる。
Further, according to the presentation system of the present invention, based on the detected pointing position,
The position of the cursor displayed on the display area is controlled. By doing so, the cursor moves following the position indicated by the presenter, so that the pointing position can be displayed in a very easy-to-understand manner not only for the presenter but also for the viewer of this presentation. Can be. As a result, the presentation can proceed in a natural manner for both the presenter and the viewer, so that a presentation system that is easy to use and easy to understand can be realized.

【0020】また、前記位置検出手段、情報または工程
は、前記ディスプレイ領域に含まれる指示画像の影領域
の所定位置をポインティング位置として検出するように
形成してもよい。
Further, the position detecting means, information or step may be formed so as to detect a predetermined position of a shadow area of the pointing image included in the display area as a pointing position.

【0021】これにより、例えばプレゼンターが指し示
したディスプレイ領域の所望のポインティング位置を、
ディスプレイ領域上の影領域として検出することが出来
る。
Thus, for example, a desired pointing position of the display area pointed by the presenter is
It can be detected as a shadow area on the display area.

【0022】また、前記位置検出手段、情報または工程
は、前記ディスプレイ領域に含まれる指示画像の実像領
域の所定位置をポインティング位置として検出するよう
に形成してもよい。
Further, the position detecting means, information or step may be formed so as to detect a predetermined position of a real image area of the pointing image included in the display area as a pointing position.

【0023】これにより、例えば、プレゼンターが指し
示したディスプレイ領域の所望のポインティング位置
を、ディスプレイ領域上の実像領域として検出すること
もできる。
Thus, for example, a desired pointing position in the display area indicated by the presenter can be detected as a real image area on the display area.

【0024】このように、本発明によれば、プレゼンタ
ーが、棒のような指示具で所定位置を指し示した場合
に、そのポインティング位置を、ディスプレイ領域上の
指示具の影の領域、または実像領域として検出すること
ができる。
As described above, according to the present invention, when the presenter points to a predetermined position with the pointing tool such as a bar, the pointing position is changed to the shadow area of the pointing tool on the display area or the real image area. Can be detected as

【0025】また、前記位置検出手段、情報または工程
は、前記ディスプレイ領域に含まれる棒状の画像領域を
指示画像の画像領域として捉え、その先端位置をポイン
ティング位置として検出するように形成することが好ま
しい。
It is preferable that the position detecting means, the information or the step is formed such that a bar-shaped image area included in the display area is regarded as an image area of the pointing image, and a tip position thereof is detected as a pointing position. .

【0026】これにより、あらゆる検出対象の中から、
棒状の画像領域以外の検出対象は、ノイズとして判断さ
れ、指示画像として認識されることが無い。このため、
ノイズや環境条件等に影響されることなく、正確なポイ
ンティング位置検出が可能になる。
Thus, from among all the detection targets,
A detection target other than the bar-shaped image area is determined as noise and is not recognized as an instruction image. For this reason,
An accurate pointing position can be detected without being affected by noise, environmental conditions, and the like.

【0027】更に、棒状の指示画像の画像領域の先端が
ポインティング位置として検出されるため、あたかもユ
ーザが、指や棒で黒板等を差し示しながらプレゼンテー
ションを行う場合と同様な感覚で、プレゼンテーション
を進めることができる。
Furthermore, since the tip of the image area of the bar-shaped pointing image is detected as the pointing position, the presentation proceeds as if the user were presenting while pointing at a blackboard or the like with a finger or a stick. be able to.

【0028】また、前記位置検出手段、情報または工程
は、前記ディスプレイ領域に含まれる画像領域の連続性
から棒状の画像領域を指示画像の画像領域として捉える
ように形成することが好ましい。
It is preferable that the position detecting means, the information or the step is formed so as to capture a bar-shaped image area as an image area of the pointing image from the continuity of the image area included in the display area.

【0029】このようにすることにより、撮像画像に含
まれるノイズ画像と、指示画像とをより確実に分離認識
できるため、ポインティング位置の検出をさらに確実に
行うことが可能となる。
By doing so, the noise image included in the captured image and the designated image can be more reliably separated and recognized, so that the pointing position can be detected more reliably.

【0030】また、前記カーソル制御手段、情報または
工程は、前記ディスプレイ領域内に複数のカーソルを同
時に表示し、かつ各々のカーソル位置を独立に制御する
ことが好ましい。
[0030] It is preferable that the cursor control means, information or process displays a plurality of cursors simultaneously in the display area and independently controls the position of each cursor.

【0031】また、前記カーソル制御手段、情報または
工程は、前記カーソルを前記ディスプレイ領域内の所望
な位置に固定表示させるための手段、情報または工程を
含むことを特徴とする。
Further, the cursor control means, information or step includes means, information or step for fixing and displaying the cursor at a desired position in the display area.

【0032】このようにすることにより、プレゼンター
の指し示す位置に追従してカーソルが移動することにな
るため、視聴者は、プレゼンターの指し示す位置をカー
ソルの位置としてわかりやすく認識することができる。
By doing so, the cursor moves following the position indicated by the presenter, so that the viewer can easily recognize the position indicated by the presenter as the cursor position.

【0033】また、複数の指示画像に対するカーソル制
御を行う場合として以下の例がある。例えばプレゼンタ
ーと参加者の二人によるポインティング位置の指示を個
別に行う場合、プレゼンターが指示した場所にカーソル
位置を制御する事に加えて、参加者(聞き手)からの指
示画像の位置にもカーソルを制御できれば、お互いが説
明したい場所や質問したい場所が一目でわかる。このた
め、自然なディスカッションや話し合いが実現でき、理
解度が高いプレゼンテーションが実現できる。
Further, there is the following example as a case of performing cursor control for a plurality of designated images. For example, when the presenter and the participant individually indicate the pointing position, in addition to controlling the cursor position at the position indicated by the presenter, the cursor is also moved to the position of the instruction image from the participant (listener). If you can control, you can see at a glance where each other wants to explain or ask a question. For this reason, natural discussion and discussion can be realized, and a presentation with a high degree of understanding can be realized.

【0034】更に、プレゼンターが表示画面上の2つ内
容について比較説明をする場合、最初の説明箇所を直接
指し示す事でその位置に一つ目のカーソルを配置した
後、その位置にカーソルを固定表示させておき、次に比
較説明したい箇所を再び直接指し示す事で、視聴者は2
つの指示箇所を同時に見ることが出来るため、視聴者は
2つの指示箇所を簡単に探す事ができる。
Further, when the presenter gives a comparative explanation of two contents on the display screen, the first cursor is directly positioned at the first explanation point, and the first cursor is arranged at that position, and the cursor is fixedly displayed at that position. By pointing directly back to the point you want to compare and explain next,
The viewer can easily find the two designated portions because the two designated portions can be viewed at the same time.

【0035】また、プレゼンターが資料を探す為にディ
スプレイ領域から離れ指示できない状態にあっても、カ
ーソル位置を留めておく事で、説明へのスムーズな復帰
が可能となる。このため、参加者の注意も散漫にならず
効果的なプレゼンテーションが実現できる。
Even if the presenter is in a state where he cannot leave the display area to search for the material and cannot give an instruction, the cursor position is kept, so that it is possible to smoothly return to the explanation. Therefore, an effective presentation can be realized without distracting the attention of the participants.

【0036】また、前記カーソル制御手段、情報または
工程は、前記指示画像の画像領域と重ならない位置で、
かつ検出されたポインティング位置を指示するようにカ
ーソルの位置制御を行うことが好ましい。
The cursor control means, the information or the step may be provided at a position which does not overlap the image area of the designated image.
In addition, it is preferable to control the position of the cursor so as to indicate the detected pointing position.

【0037】このように、カーソルの表示位置を、ディ
スプレイ領域上でプレゼンターが指し示めした位置と重
ならない場所に表示することにより、プレゼンテーショ
ンを聴く第三者に対し、そのポインティング位置をわか
りやすくかつ正確に伝えることができる。
As described above, by displaying the display position of the cursor at a position on the display area that does not overlap with the position pointed by the presenter, the pointing position can be easily understood by a third party listening to the presentation. Can be conveyed accurately.

【0038】また、前記カーソル制御手段、情報または
工程は、棒状の前記指示画像の画像領域の先端の大きさ
に応じて、表示するカーソルの大きさを制御してもよ
い。
[0038] The cursor control means, information or process may control the size of the cursor to be displayed according to the size of the tip of the image area of the bar-shaped pointing image.

【0039】例えば、指示画像遮蔽領域の先端が小さい
場合にはカーソルを大きく表示することにより、ディス
プレイ領域を見ている視聴者にとって、ポインティング
位置、もしくはカーソルが認識し易いものとなる。
For example, when the tip of the designated image shielding area is small, the cursor is displayed large, so that the viewer looking at the display area can easily recognize the pointing position or the cursor.

【0040】また、本発明の装置またはシステムは、前
記ディスプレイ領域を有するスクリーンを含み、前記画
像表示手段は、前記ディスプレイ領域に画像を投射する
画像投射手段から成り、前記撮像手段の光学手段は、前
記画像投射手段の光学手段に連動して撮像条件を制御す
るように構成してもよい。
Further, the apparatus or system of the present invention includes a screen having the display area, the image display means comprises image projection means for projecting an image on the display area, and the optical means of the imaging means comprises: The imaging conditions may be controlled in conjunction with the optical means of the image projection means.

【0041】また、本発明の情報記憶媒体において、前
記撮像手段の光学手段の制御を行うための情報は、前記
ディスプレイ領域に画像を投射する画像投射手段を構成
する光学手段に連動して撮像条件を制御するための情報
を含むことが好ましい。
Further, in the information storage medium of the present invention, the information for controlling the optical means of the image pickup means includes an image pickup condition which is linked with the optical means constituting the image projection means for projecting an image on the display area. It is preferable to include information for controlling

【0042】通常、プレゼンターは、ディスプレイ領域
上の表示画面を見ながら画像投射手段のレンズ等の光学
手段のフォーカス、及びズーム調整をマニュアルもしく
は自動で行う。一方、撮像手段の光学調整は、プレゼン
ターが撮像画像を見ながら調整することが多い。本発明
によれば、撮像手段の光学調整を画像投射手段の光学調
整と連動して制御する事により、プレゼンターは両者の
煩わしい調整作業(操作)から解放され、システムの使
い勝手が向上する。
Usually, the presenter manually or automatically adjusts the focus and zoom of the optical means such as the lens of the image projection means while watching the display screen on the display area. On the other hand, the optical adjustment of the imaging means is often performed by the presenter while viewing the captured image. According to the present invention, by controlling the optical adjustment of the image pickup means in conjunction with the optical adjustment of the image projection means, the presenter is free from bothersome adjustment work (operation), and the usability of the system is improved.

【0043】また、本発明の装置またはプレゼンテーシ
ョンシステムは、前記ディスプレイ領域を有するスクリ
ーンを含み、前記画像投射手段は、前記スクリーンの前
方又は後方から画像を投射するように配置されることが
好ましい。
Preferably, the apparatus or the presentation system of the present invention includes a screen having the display area, and the image projecting means is arranged to project an image from the front or the rear of the screen.

【0044】このとき、ディスプレイ領域であるスクリ
ーンの前方から画像を投射するフロント型のプレゼンテ
ーションシステムは、画像表示手段からスクリーン上に
プレゼンテーション用の大画面を投射しながらプレゼン
テーションを進めることができる。しかし、このような
場合には、画面に直接タッチして、その位置を指し示す
ことは難しいことも多い。このような場合でも、本発明
によれば、プレゼンターは撮像手段とスクリーンとの間
に位置し、投射手段の光路の一部を遮蔽するようにして
スクリーン上に影を作るか、または撮像手段の光路の一
部を遮蔽するようにして撮像画像中に指示手段の実像を
作ることにより、画面に直接タッチすることなく、所望
の位置をポインティング位置として認識させることがで
きる。
At this time, the front type presentation system that projects an image from the front of the screen, which is a display area, can proceed with the presentation while projecting a large screen for presentation on the screen from the image display means. However, in such a case, it is often difficult to directly touch the screen to indicate the position. Even in such a case, according to the present invention, the presenter is located between the imaging means and the screen, and creates a shadow on the screen so as to block a part of the optical path of the projection means, or to reduce the shadow of the imaging means. A desired position can be recognized as a pointing position without directly touching the screen by forming a real image of the pointing means in the captured image so as to block a part of the optical path.

【0045】また、ディスプレイ領域の後方から画像を
投射するリア型のプレゼンテーションシステムであって
も、プレゼンターがディスプレイ領域を指し示した位置
に指示画像の影領域または実像領域が現れる。このた
め、この影、または実像から、そのポインティング位置
を検出することができる。
Further, even in a rear-type presentation system that projects an image from behind the display area, a shadow area or a real image area of the designated image appears at a position where the presenter points to the display area. Therefore, the pointing position can be detected from the shadow or the real image.

【0046】[0046]

【発明の実施の形態】次に、本発明が適用されたプレゼ
ンテーションシステムの好適な実施の形態を図面に基づ
き詳細に説明する。
Next, a preferred embodiment of a presentation system to which the present invention is applied will be described in detail with reference to the drawings.

【0047】(1)全体の説明 図1には、画像表示装置としてフロント型投射装置を用
いた場合のプレゼンテーションシステムの一例が示され
ている。スクリーンの略正面に設けられたプロジェクタ
10から、所定のプレゼンテーション用の画像が投射さ
れる。プレゼンター30は、スクリーン上の画像が表示
されている領域すなわちディスプレイ領域12の画像の
所望の位置を指示棒40で指し示しながら、第三者に対
するプレゼンテーションを行なう。
(1) Overall Description FIG. 1 shows an example of a presentation system when a front projection device is used as an image display device. An image for a predetermined presentation is projected from a projector 10 provided substantially in front of the screen. The presenter 30 gives a presentation to a third party while pointing the area on the screen where the image is displayed on the screen, that is, the desired position of the image in the display area 12 with the pointing stick 40.

【0048】図4には、プレゼンター30がプレゼンテ
ーションを行っている場合の一例が示されている。
FIG. 4 shows an example where the presenter 30 is giving a presentation.

【0049】図4(A)に示すように、プレゼンター3
0が指示棒40を用いてスクリーン上のディスプレイ領
域12の所望の位置を指示すると、図4(B)に示すよ
うにディスプレイ領域12と、プレゼンター30の一
部、及び指示棒40が、ディスプレイ領域12の略正面
に設けられ、撮像手段として機能するCCDカメラ14
により、撮像画像20として撮像される。
As shown in FIG. 4A, the presenter 3
When 0 indicates a desired position of the display area 12 on the screen using the pointing rod 40, as shown in FIG. 4B, the display area 12, a part of the presenter 30, and the pointing rod 40 are moved to the display area. CCD camera 14 which is provided substantially in front of 12 and functions as an imaging means
Is captured as a captured image 20.

【0050】ここで、プロジェクタ10の出射光が指示
棒40により遮蔽されて出来る棒状の細長い影を指示画
像の影領域300という。また、撮像画像20内に写さ
れているプレゼンター30の一部と指示棒40その物の
実画像を指示画像の実像領域302といい、ポインティ
ング位置の検出処理に用いられるこれらの情報(対象)
を合わせて検出対象304という。
Here, an elongated rod-like shadow formed by blocking the light emitted from the projector 10 by the pointing rod 40 is referred to as a shadow area 300 of the pointing image. In addition, a part of the presenter 30 and the actual image of the pointing stick 40 that are captured in the captured image 20 are referred to as a real image area 302 of the pointing image, and these pieces of information (target) used in the pointing position detection processing.
Are referred to as a detection target 304.

【0051】そして、プレゼンター30が指示棒40の
影領域300を用いて指示するディスプレイ領域12上
のポインティング位置は、撮像画像20におけるディス
プレイ領域12上に映し出される指示画像の影領域30
0の先端位置310として検出される。すなわち、棒状
の指示画像の影領域300の先端位置310が、ポイン
ティング位置として自動的に検出され、所定のデータ処
理が行われる。
The pointing position on the display area 12 indicated by the presenter 30 using the shadow area 300 of the pointing stick 40 is determined by the shadow area 30 of the pointing image projected on the display area 12 in the captured image 20.
It is detected as a leading end position 310 of zero. That is, the tip position 310 of the shadow area 300 of the bar-shaped instruction image is automatically detected as the pointing position, and predetermined data processing is performed.

【0052】同様に、プレゼンター30が指示棒40の
実像領域302を用いて指示するディスプレイ領域12
上のポインティング位置は、撮像画像20におけるディ
スプレイ領域12上に映し出される指示画像の実像領域
302の先端位置として検出される。
Similarly, the display area 12 to which the presenter 30 designates using the real image area 302 of the pointing stick 40 is designated.
The upper pointing position is detected as the leading end position of the real image area 302 of the instruction image projected on the display area 12 in the captured image 20.

【0053】本実施の形態によれば、プロジェクタ10
から投射されるカーソル200が認識されたポインティ
ング位置を示すように、データ処理が行われる。すなわ
ち、ディスプレイ領域12上に投射される表示画像にお
いて、この画像に含まれるカーソル200は、指示棒4
0のポインティング位置に追従して移動することにな
る。これにより、プレゼンター30のプレゼンテーショ
ンを聴く第三者は、ディスプレイ領域12上に表示され
るカーソル200の位置から、そのポインティング位置
を正確にかつわかりやすく認識することができる。
According to the present embodiment, the projector 10
The data processing is performed so that the cursor 200 projected from is displayed at the recognized pointing position. That is, in the display image projected on the display area 12, the cursor 200 included in this image
It moves following the zero pointing position. Thus, a third party listening to the presentation of the presenter 30 can recognize the pointing position accurately and easily from the position of the cursor 200 displayed on the display area 12.

【0054】なお、後述するように、ディスプレイ領域
12のコーナ部、特に4つのコーナ部は、その中央部に
比べて比較的輝度レベルが低くなる。このような領域に
おいても、指示棒40の影や実像を正確に検出できるよ
うに、実施の形態のシステムは、光源16を用いて、デ
ィスプレイ領域12のコーナ部を補助照明するように構
成されている。
As will be described later, the corners of the display area 12, particularly the four corners, have a comparatively lower luminance level than the central part. In such an area, the system according to the embodiment is configured to supplementarily illuminate the corner portion of the display area 12 using the light source 16 so that the shadow or the real image of the indicator rod 40 can be accurately detected. I have.

【0055】図2(A)には、リアタイプのプレゼンテ
ーションシステムの一例が示されている。このプレゼン
テーションシステムは、ディスプレイ領域12の後方か
ら、プロジェクタ10の画像を投射し、該投射画像をデ
ィスプレイ領域12の後方に設けられ撮像手段として機
能するCCDカメラ14を用いて撮像する。プロジェク
タ10の投射画像は、反射板18−1,18−2を介し
てディスプレイ領域12上に投射される。
FIG. 2A shows an example of a rear type presentation system. This presentation system projects an image of the projector 10 from behind the display area 12 and captures the projected image using a CCD camera 14 provided behind the display area 12 and functioning as an imaging unit. An image projected by the projector 10 is projected onto the display area 12 via the reflection plates 18-1 and 18-2.

【0056】図2(B)は、リアタイプのプレゼンテー
ションシステムの他の一例を示し、このシステムは、デ
ィスプレイ領域12の画像をその略正面外側に設けたC
CDカメラ14により撮像する。
FIG. 2B shows another example of a rear-type presentation system. This system is a C-type display system in which an image of a display area 12 is provided substantially outside the front.
Images are taken by the CD camera 14.

【0057】このようなリア型のシステムにおいても、
プレゼンター30が、指示棒40でディスプレイ領域1
2上の所望の位置を指し示すことにより、この指示棒4
0の影や実像が撮像画像20内に映し出される。そし
て、この映し出された影を指示画像の影領域300、実
像を指示画像の実像領域302としてCCDカメラ14
で撮像することができる。
In such a rear type system,
The presenter 30 moves the display area 1 with the pointing stick 40.
2 by pointing to a desired position on
The shadow of 0 and the real image appear in the captured image 20. The projected shadow is defined as a shadow area 300 of the designated image, and the real image is defined as a real image area 302 of the designated image.
Can be imaged.

【0058】そして、該指示画像の影領域300、また
は指示画像の実像領域302の先端位置310が、ポイ
ンティング位置として自動的に認識され、前述したデー
タ処理が行なわれる。
Then, the shadow area 300 of the designated image or the leading end position 310 of the real image area 302 of the designated image is automatically recognized as the pointing position, and the above-described data processing is performed.

【0059】尚、本発明が適用されるリア型システムの
画像表示手段としては、前述したような投射型の表示装
置であるプロジェクタ10以外にも、例えば直視型のC
RT、直視型の液晶表示パネル、PDP(プラズマ デ
ィスプレイ パネル)、その他の表示装置を用いてもよ
い。
The image display means of the rear type system to which the present invention is applied is not limited to the projector 10 which is a projection type display device as described above.
An RT, a direct-view liquid crystal display panel, a PDP (plasma display panel), or another display device may be used.

【0060】図3には、前記指示棒40の具体例が示さ
れている。本実施の形態に用いられる指示棒40は、こ
の棒状部の先端に幅広のポインティング部42が設けら
れている。このポインティング部42は、反射率が低い
材料で構成されている。このようにすることにより、指
示棒の先端で光が反射されないため、撮像領域中におい
て明確な指示画像の検出対象304が形成でき、この結
果、CCDカメラ14の撮像信号から、より確実にポイ
ンティング位置を検出することができる。
FIG. 3 shows a specific example of the pointing rod 40. The pointing rod 40 used in the present embodiment has a wide pointing portion 42 provided at the tip of the rod portion. The pointing unit 42 is made of a material having a low reflectance. By doing so, since the light is not reflected at the tip of the pointing rod, a clear indication object 304 of the pointing image can be formed in the imaging area. Can be detected.

【0061】なお、図1に示すフロントタイプのシステ
ムでは、プレゼンター30は、指示棒40をプロジェク
タ10とディスプレイ領域12の光路上に位置させるこ
とにより、指示棒40を直接ディスプレイ領域12に接
触させることなく、CCDカメラ14の撮像画像20内
に指示画像の影領域300を形成することができる。同
様に、ディスプレイ領域12とCCDカメラ14の光路
上に指示棒40を位置させることにより、指示棒40を
直接ディスプレイ領域12に接触させることなく、撮像
画像20内に指示画像の実像領域302を形成すること
ができる。従って、プレゼンター30は、ディスプレイ
領域12から比較的離れた位置からでも、ディスプレイ
領域12上の所望の位置を指し示しながらプレゼンテー
ションを行うことができる。
In the front type system shown in FIG. 1, the presenter 30 makes the pointing rod 40 contact the display area 12 directly by positioning the pointing rod 40 on the optical path between the projector 10 and the display area 12. Instead, the shadow area 300 of the designated image can be formed in the captured image 20 of the CCD camera 14. Similarly, by positioning the pointing rod 40 on the optical path between the display area 12 and the CCD camera 14, the real image area 302 of the pointing image is formed in the captured image 20 without bringing the pointing rod 40 into direct contact with the display area 12. can do. Therefore, the presenter 30 can give a presentation while pointing to a desired position on the display area 12 even from a position relatively distant from the display area 12.

【0062】図5には、実施の形態のシステムの機能ブ
ロック図が概略的に示されている。
FIG. 5 schematically shows a functional block diagram of the system according to the embodiment.

【0063】本実施の形態のシステムは、プロジェクタ
10へ画像を供給する入力源100と、CCDカメラ1
4の撮像画像からポインティング位置の自動検出を行う
処理部110とを含んで構成される。なお、前記処理部
110の詳細な構成は後述する。
The system according to the present embodiment includes an input source 100 for supplying an image to the projector 10 and a CCD camera 1
And a processing unit 110 for automatically detecting a pointing position from the captured image of No. 4. The detailed configuration of the processing unit 110 will be described later.

【0064】また、本実施の形態において、プロジェク
タ10とCCDカメラ14とは一体的なユニットとして
形成されているが、分離して配置されていても構わな
い。このように分離配置されている場合、特に専用の大
会議室またはホールにおいて大画面に拡大しながらプレ
ゼンテーションを行う時には、予め会場内に準備されて
いる既存機材と併用することで、装置の種類や設置場
所、周辺環境に応じて自由な形に変形しながら使用でき
るため、汎用性、使い勝手が向上する。
Further, in the present embodiment, the projector 10 and the CCD camera 14 are formed as an integrated unit, but they may be arranged separately. In the case of such separate arrangement, particularly when performing a presentation while enlarging to a large screen in a dedicated large conference room or hall, by using together with the existing equipment prepared in the venue in advance, the type of equipment and Since it can be used while being deformed freely according to the installation location and surrounding environment, versatility and usability are improved.

【0065】そして、プロジェクタ10は、その投射サ
イズや方向が任意に設定できるように構成され、前記C
CDカメラ14も、その撮像領域を任意に設定できるよ
うに構成されている。
The projector 10 is configured so that the projection size and direction can be set arbitrarily.
The CD camera 14 is also configured so that its imaging area can be set arbitrarily.

【0066】さらに、CCDカメラ14が、プレゼンタ
ー30の指示棒40が形成する指示画像の検出対象30
4を明確な画像として捉えることができるように、プロ
ジェクタ10及びCCDカメラ14の各光路には、それ
ぞれ偏光板10a,14aが設けられている。これら各
偏光板10a,14aは、その偏光方向がそれぞれ異な
る方向となるように設定されている。これにより、CC
Dカメラ14は、プロジェクタ10から出射された光の
影響をさほど受けることなく、撮像した画像情報の中か
ら指示画像の検出対象304を確実に撮像することがで
きる。
Further, the CCD camera 14 detects the target image 30 to be detected by the pointing rod 40 of the presenter 30.
Polarizing plates 10a and 14a are provided in each optical path of the projector 10 and the CCD camera 14, respectively, so that the image 4 can be captured as a clear image. These polarizing plates 10a and 14a are set so that the polarization directions thereof are different from each other. This allows CC
The D camera 14 can reliably capture the detection target 304 of the designated image from the captured image information without being significantly affected by the light emitted from the projector 10.

【0067】また、前記CCDカメラ14は、撮像領域
を拡大、縮小できるズーム機能を有し、ディスプレイ領
域12より広い領域を撮像領域とし、またこれよりも狭
い領域を撮像領域として任意に設定できるように構成さ
れている。
The CCD camera 14 has a zoom function for enlarging and reducing the image pickup area, so that an area larger than the display area 12 can be set as an image pickup area and an area smaller than the display area 12 can be set as an image pickup area. Is configured.

【0068】これにより、その使用環境や撮像内容によ
って撮像領域を任意に設定できるので、システムの使い
勝手が極めてよくなる。撮像領域をディスプレイ領域よ
り広く設定した場合にあっては、撮像領域とディスプレ
イ領域との位置合わせが不要となる。
As a result, the imaging area can be arbitrarily set according to the usage environment and the imaging content, so that the usability of the system is extremely improved. When the imaging region is set wider than the display region, it is not necessary to align the imaging region with the display region.

【0069】特に、プレゼンター30を含むような撮像
領域を設定することにより、プレゼンター30の位置を
考慮して、より適切なポインティング位置の検出を行う
ことが可能となる。
In particular, by setting an imaging area that includes the presenter 30, it is possible to detect a more appropriate pointing position in consideration of the position of the presenter 30.

【0070】さらに、撮像範囲を狭く設定することによ
り、CCDカメラ14の解像度を実質的に上げることが
できるため、ディスプレイ領域12上に表示される特定
の領域を、高解像度で撮像し、所望の画像処理を行うこ
とも可能となる。
Further, the resolution of the CCD camera 14 can be substantially increased by setting the imaging range narrow, so that a specific area displayed on the display area 12 is imaged at a high resolution and a desired image is obtained. Image processing can also be performed.

【0071】(2)ポインティング位置の検出 図6には、前記処理部110の具体的な機能ブロック図
が示されている。
(2) Detection of Pointing Position FIG. 6 shows a specific functional block diagram of the processing section 110.

【0072】本実施の形態において、処理部110は、
2値化処理部112、ポインティング座標検出部11
6、演算処理部118を含んで構成される。このような
処理部110は、具体的にはCPU、各種プログラム、
データ等を記憶する情報記憶媒体であるROM、ワーク
領域として機能するRAMなどを用いて実現される。
In the present embodiment, the processing section 110
Binarization processing unit 112, pointing coordinate detection unit 11
6. It is configured to include the arithmetic processing unit 118. Such a processing unit 110 is, specifically, a CPU, various programs,
This is realized using a ROM as an information storage medium for storing data and the like, a RAM functioning as a work area, and the like.

【0073】前記CCDカメラ14から出力される画像
信号は、2値化処理部112へ入力される。本実施の形
態において、CCDカメラ14は白黒の撮像信号を出力
するものとする。
The image signal output from the CCD camera 14 is input to a binarization processing unit 112. In the present embodiment, the CCD camera 14 outputs a monochrome image signal.

【0074】本実施の形態において、2値化処理部11
2は、撮像信号と基準値Vrefとを比較し、指示画像
の影や実像等の検出対象304を撮像画像から抽出し、
前記ポインティング座標検出部はポインティング位置を
検出する位置検出手段として機能する。
In this embodiment, the binarization processing section 11
2 compares the imaging signal with a reference value Vref, extracts a detection target 304 such as a shadow or a real image of the designated image from the captured image,
The pointing coordinate detector functions as a position detector that detects a pointing position.

【0075】そして、2値化処理部112は、CCDカ
メラ14から出力される撮像信号の輝度データと2値化
のための基準値Vrefとを比較し、CCDカメラ14
で撮像された画像の中から指示画像の検出対象304を
抽出する処理を行い、処理データを2値化画像データと
してポインティング座標検出部116へ出力する。
Then, the binarization processing section 112 compares the luminance data of the image pickup signal output from the CCD camera 14 with the reference value Vref for binarization.
A process for extracting a detection target 304 of the designated image from among the images captured in the step is performed, and the processed data is output to the pointing coordinate detection unit as binary image data.

【0076】ポインティング座標検出部116は、2値
化処理部112から出力された2値化画像データから検
出対象304の固まりを抽出し、この検出対象304の
先端部を指示棒40が指し示すポインティング座標とし
て検出し、その検出結果を演算処理部118へ出力す
る。
The pointing coordinate detection unit 116 extracts a block of the detection target 304 from the binarized image data output from the binarization processing unit 112, and points the pointing end of the detection target 304 by the pointing rod 40. And outputs the detection result to the arithmetic processing unit 118.

【0077】本実施の形態において、前記ポインティン
グ座標検出部116は、棒状に延びる検出対象304の
画像の連続性に基づき指示画像を特定し、その先端部を
ポインティング座標として検出するように構成されてい
る。そのため、単に検出対象304の画像の角をポイン
ティング座標として検出する場合に比べ、ポインティン
グ位置の検出精度を高めることができる。
In the present embodiment, the pointing coordinate detecting unit 116 is configured to specify the pointing image based on the continuity of the image of the detection object 304 extending in a bar shape, and to detect the leading end as the pointing coordinates. I have. Therefore, the detection accuracy of the pointing position can be improved as compared with the case where the corner of the image of the detection target 304 is simply detected as the pointing coordinates.

【0078】以下にその詳細を説明する。The details will be described below.

【0079】図7(A)には、ポインティング座標検出
部116のポインティング座標検出処理の概略を説明す
るためのフローチャートが示されている。尚、本実施の
形態において、指示画像の検出対象304として、特に
指示画像の影領域300を用いた検出処理について説明
するが、指示画像の実像領域302についても、撮像画
像20内の低輝度な領域を抽出することで、同様な処理
方法が適用できる。
FIG. 7A is a flowchart for explaining the outline of the pointing coordinate detecting process of the pointing coordinate detecting section 116. In the present embodiment, a detection process using the shadow area 300 of the instruction image as the detection target 304 of the instruction image will be particularly described. However, the real image area 302 of the instruction image also has a low luminance in the captured image 20. By extracting a region, a similar processing method can be applied.

【0080】まず、2値化処理部112から出力される
2値化画像データから、棒状の指示画像の影領域300
を特定する処理を行う。すなわち、図7(B)のに示
すように、2値化処理部112から出力される2値化画
像データには、プレゼンターの影30aと、指示棒40
の影である指示画像の影領域300とが含まれている。
First, from the binarized image data output from the binarization processing unit 112, the shadow area 300
Is performed. That is, as shown in FIG. 7B, the binarized image data output from the binarization processing unit 112 includes the presenter's shadow 30a and the pointing stick 40.
And a shadow area 300 of the instruction image, which is a shadow of the instruction image.

【0081】ステップS10において、ポインティング
座標検出部116は、図7(B)のに示すように、こ
の2値化画像データから指示画像の影領域300のみを
抽出する処理を行う。この抽出処理は、図7(B)の
に示す2値化画像の中から、棒状に連続する影の画像部
分を抽出することにより行われる。
In step S10, the pointing coordinate detecting section 116 performs a process of extracting only the shadow area 300 of the designated image from the binarized image data as shown in FIG. 7B. This extraction process is performed by extracting an image portion of a rod-shaped continuous shadow from the binary image shown in FIG. 7B.

【0082】次に、ポインティング座標検出部116
は、ステップS12のポインティング位置検出処理を行
う。すなわち、図7(B)ので抽出された棒状の指示
画像の影領域300のどこがポインティング位置である
かを特定する処理を行う。すなわち、図7(B)のに
示すように、棒状の指示画像の影領域300の両端の点
A、Bのどちらがポインティング位置かを判定する処理
を行う。
Next, the pointing coordinate detecting section 116
Performs the pointing position detection process in step S12. That is, a process is performed to specify where the pointing position is in the shadow area 300 of the bar-shaped instruction image extracted in FIG. 7B. That is, as shown in FIG. 7B, a process of determining which of the points A and B at both ends of the shadow area 300 of the bar-shaped pointing image is the pointing position is performed.

【0083】ここでは、図7(B)のに示すように、
2値化処理部112から入力された2値化画像データ
に、指示画像の影領域300のB側と連続するプレゼン
ターの影30aが含まれている。このため、このプレゼ
ンターの影30aと接していないA点側がポインティン
グ位置として特定される。よって、図7(B)のに示
すように、この棒状の指示画像の影領域300の先端、
すなわちA点の座標が、ポインティング位置として検出
され、演算処理部118へ向け出力される。
Here, as shown in FIG. 7B,
The binarized image data input from the binarization processing unit 112 includes the presenter's shadow 30a that is continuous with the B side of the shadow area 300 of the designated image. Therefore, the point A side not in contact with the shadow 30a of the presenter is specified as the pointing position. Therefore, as shown in FIG. 7B, the tip of the shadow area 300 of the bar-shaped instruction image
That is, the coordinates of the point A are detected as the pointing position and output to the arithmetic processing unit 118.

【0084】このように、本実施の形態においては、2
値化処理部112で図7(B)に示すような影の領域を
表す2値化画像データが得られると、まずステップS1
0で棒状の影の画像部分を指示画像の影領域300とし
て抽出し、次にステップS12で、抽出された指示画像
の影領域300の両端のどちら側がポインティング位置
であるかを特定し、そのポインティング位置の座標を検
出する処理を行う。このようにすることにより、2値化
処理部112から出力される2値化画像データから、単
純な影の角の部分をポインティング位置として特定する
場合に比べ、ポインティング位置の検出精度を高めるこ
とができる。
As described above, in the present embodiment, 2
When the binarization processing unit 112 obtains binarized image data representing a shadow area as shown in FIG.
At 0, a bar-shaped shadow image portion is extracted as the shadow area 300 of the pointing image. Next, at step S12, which side of both ends of the shadow area 300 of the extracted pointing image is the pointing position is specified. A process for detecting the coordinates of the position is performed. By doing so, it is possible to increase the pointing position detection accuracy as compared with the case where a simple corner portion of a shadow is specified as a pointing position from the binarized image data output from the binarization processing unit 112. it can.

【0085】以下、前記ステップS10、ステップS1
2の処理をより詳細に説明する。
Hereinafter, steps S10 and S1 will be described.
The process 2 will be described in more detail.

【0086】(2−1)ステップS10の詳細 図8には、前記ステップS10の処理の具体例、すなわ
ち2値化処理部112から出力される2値化画像データ
から指示画像の影領域300を抽出するアルゴリズムの
具体例が示されている。
(2-1) Details of Step S10 FIG. 8 shows a specific example of the process of step S10, that is, the process of extracting the shadow area 300 of the designated image from the binarized image data output from the binarization processing unit 112. A specific example of the algorithm to be extracted is shown.

【0087】ここでは、棒状の指示画像の影領域300
の抽出は、細長い形状の抽出と等価であると考えて、そ
の処理を行っている。
Here, the shadow area 300 of the bar-shaped pointing image is shown.
Is considered to be equivalent to the extraction of an elongated shape, and the processing is performed.

【0088】まず、細長い影を検出し、次に該細長い影
の面積を検出する。そして、面積が大きな領域は、連続
性があると認識し、これを指示画像の影領域300とし
て抽出する。以下、その詳細を説明する。
First, an elongated shadow is detected, and then the area of the elongated shadow is detected. Then, a region having a large area is recognized as having continuity, and is extracted as a shadow region 300 of the designated image. Hereinafter, the details will be described.

【0089】まず、2値化処理部112から図8Bに示
す2値化画像データ400が入力されると、ポインティ
ング座標検出部116は、指示画像の影領域300の抽
出動作を開始する(ステップS20)。
First, when the binarized image data 400 shown in FIG. 8B is input from the binarization processing unit 112, the pointing coordinate detection unit 116 starts the operation of extracting the shadow area 300 of the designated image (step S20). ).

【0090】この2値化画像データ400には、先に説
明したようにプレゼンターの影30aと、指示棒40の
影である指示画像の影領域300とが含まれている。
As described above, the binarized image data 400 includes the shadow 30a of the presenter and the shadow area 300 of the pointing image which is the shadow of the pointing stick 40.

【0091】この入力画像データ400に対し、ステッ
プS22、S24で、それぞれ水平方向及び垂直方向に
HPF処理を施す。ここでHPF処理とは、水平及び垂
直の各ライン方向に一定以上の長さが連続している影の
部分を取り除く処理をいう。
At steps S22 and S24, the input image data 400 is subjected to horizontal and vertical HPF processing, respectively. Here, the HPF process refers to a process of removing a shadow portion having a continuous length of a predetermined length or more in each of the horizontal and vertical line directions.

【0092】次に、ステップS22、S24の処理によ
り得られた画像を、ステップS26で合成し、プレゼン
ターの影30aが除去された2値画像データ402を得
る。すなわち、水平方向もしくは垂直方向に細い部分を
もつ影の画像のみが残り、これ以外の影の画像は除去さ
れることになる。
Next, the images obtained by the processing in steps S22 and S24 are combined in step S26 to obtain binary image data 402 from which the presenter's shadow 30a has been removed. That is, only the shadow image having a thin portion in the horizontal or vertical direction remains, and the other shadow images are removed.

【0093】そして、得られた2値画像データ402
に、一定の長さ以下の影を取り除くLPF処理をステッ
プ28で施してラベリング対象2値画像データ404と
する。これにより、細かなノイズ440は全て除去され
る。
Then, the obtained binary image data 402
Then, LPF processing for removing a shadow having a certain length or less is performed in step 28 to obtain the binary image data 404 to be labeled. Thereby, all the fine noises 440 are removed.

【0094】更に、ステップS30、S32、S34に
おいて、ステップ28で取り除けなかった指示画像の影
領域300以外の検出ノイズ450の除去を行う。該検
出ノイズ450の除去処理は、まずステップS30でラ
ベリング処理を行い、ステップS32でラベル毎の面積
算出を行い、ステップS34である面積以上の影を抽出
することにより行われる。
Further, in steps S30, S32, and S34, detection noise 450 other than the shadow area 300 of the designated image that cannot be removed in step 28 is removed. The process of removing the detection noise 450 is performed by first performing a labeling process in step S30, calculating an area for each label in step S32, and extracting a shadow having an area greater than or equal to a certain value in step S34.

【0095】すなわち、ラベリング処理対象2値画像デ
ータ404に含まれる各検出ノイズ450の固まりを個
々の領域に分け、同図に示すようにA、B…Eとラベリ
ングを行い、ラベリング処理データ406を得る。
That is, the lump of each detection noise 450 included in the binary image data 404 to be labeled is divided into individual regions, and A, B... E are labeled as shown in FIG. obtain.

【0096】次に、各ラベル(領域)毎の画素数を数え
る。実際の処理はラベリング処理と同時に行っても良
い。これにより、各ラベルA、B …E毎の影の領域の
面積が算出される。そして、面積の小さいラベルは、こ
れをノイズと判定してラベリング処理データ406から
除去し、指示画像の影領域300のみが含まれる2値画
像データ408を得る。なお、ステップS34では、最
大面積をもつラベルを抽出するようにしても良く、後述
するような複数のポインティング位置を検出する場合に
は、最大面積のラベルとその次に面積の大きなラベルを
抽出するようにしても良い。
Next, the number of pixels for each label (region) is counted. The actual processing may be performed simultaneously with the labeling processing. Thus, the area of the shadow area for each of the labels A, B,... E is calculated. Then, the label having a small area is determined as noise and removed from the labeling processing data 406 to obtain binary image data 408 including only the shadow area 300 of the designated image. In step S34, the label having the maximum area may be extracted. When detecting a plurality of pointing positions as described later, the label having the maximum area and the label having the next largest area are extracted. You may do it.

【0097】また、S32における面積算出以外の抽出
方法として、連続した棒状のラベルから指示画像の影領
域300を抽出しても良い。この場合、抽出されたラベ
リング処理データ406の形状が棒状でかつ連続してい
る場合には、指示棒40により発生した影として判断で
きるが、小さくて連続でない検出ノイズ450の場合に
は、S22、S24、S28の各フィルタ処理において
除去しきれなかった2値画像データの検出ノイズと判断
される。
As an extraction method other than the area calculation in S32, the shadow area 300 of the designated image may be extracted from a continuous bar-shaped label. In this case, if the shape of the extracted labeling processing data 406 is rod-shaped and continuous, it can be determined as a shadow generated by the pointing rod 40, but if the detection noise 450 is small and not continuous, S22, It is determined as the detection noise of the binary image data that cannot be completely removed in each of the filtering processes in S24 and S28.

【0098】このようなステップS20〜S36の一連
の処理により、2値化処理部112から出力される2値
画像データ400からプレゼンターの影30aやノイズ
を除去し、細長い指示画像の影領域300のみを抽出し
た2値画像データ408を得ることができる。
By the series of processes in steps S20 to S36, the presenter's shadow 30a and noise are removed from the binary image data 400 output from the binarization processing unit 112, and only the shadow region 300 of the elongated pointing image is removed. Can be obtained as binary image data 408.

【0099】なお、HPF処理された2値画像データ4
02に含まれるノイズが少ない場合には、ステップS2
8の処理は行う必要がない。
The binary image data 4 subjected to the HPF processing
02, if the noise included is small, step S2
Step 8 does not need to be performed.

【0100】(2−2)ステップS12の詳細 図9には、前記処理ステップS20〜S30によって得
られた2値画像データ408に含まれる指示画像の影領
域300から、ポインティング位置を決定するための具
体的なアルゴリズムが示されている。
(2-2) Details of Step S12 FIG. 9 shows a flowchart for determining a pointing position from the shadow area 300 of the designated image included in the binary image data 408 obtained in the processing steps S20 to S30. A specific algorithm is shown.

【0101】この処理では、指示画像の影領域300の
最も角の位置をポインティング座標として求める。又、
指示画像の影領域300の先端がある程度面積をもって
いる場合でも、その最も角の座標を、ポインティング座
標として特定する。
In this process, the position of the most corner of the shadow area 300 of the designated image is obtained as pointing coordinates. or,
Even when the tip of the shadow area 300 of the designated image has a certain area, the coordinates of the corners are specified as pointing coordinates.

【0102】この処理を開始すると(ステップS4
0)、まずステップS42で、図9(B)のに示す2
値画像データ408に含まれる指示画像の影領域300
の長手方向両端の点A、Bを検出する。この検出処理の
具体例は、図10を用いて後で説明する。
When this processing is started (step S4)
0), first, in step S42, 2 shown in FIG.
Shadow area 300 of the instruction image included in value image data 408
Are detected at both ends A and B in the longitudinal direction. A specific example of this detection processing will be described later with reference to FIG.

【0103】次にステップS44で、指示画像の影領域
300以外の影の画像とB点が接しているか否か、又は
近接しているか否かが判断される。
Next, in step S44, it is determined whether or not point B and the shadow image other than the shadow area 300 of the designated image are in contact or close to each other.

【0104】ここでYESと判断されると、図9(B)
のに示すように、2値化処理部112から出力された
2値画像データ400(ステップS22〜S34の処理
がなされる前の2値画像データ)は、B点がプレゼンタ
ーの影30aと接している。従って、この場合には、そ
の反対側の点Aがポインティング座標として求められ
る。
If YES is determined here, FIG.
As shown in (b), in the binary image data 400 (the binary image data before the processes of steps S22 to S34 are performed) output from the binarization processing unit 112, the point B is in contact with the shadow 30a of the presenter. I have. Therefore, in this case, the point A on the opposite side is obtained as the pointing coordinates.

【0105】又、ステップS44でNOと判断された場
合には、次にステップS46で、B点が図9(B)の
に示す2値画像データ410のように、画面の縁もしく
はその近くに存在するか否かが判断される。図9(B)
のは、プレゼンター30が、画面410の外から、長
い指示棒でディスプレイ領域上の所望の位置をポインテ
ィングする場合を想定したものである。このような場合
には、指示画像の影領域300のB点は、画面410の
縁に存在することになるため、その反対側の点Aがポイ
ンティング座標Aとして求められる。
If NO is determined in the step S44, then in a step S46, the point B is moved to or near the edge of the screen as in the binary image data 410 shown in FIG. 9B. It is determined whether it exists. FIG. 9 (B)
This is based on the assumption that the presenter 30 points a desired position on the display area with a long pointing stick from outside the screen 410. In such a case, the point B in the shadow area 300 of the designated image exists at the edge of the screen 410, and the point A on the opposite side is obtained as the pointing coordinate A.

【0106】又、ステップS46でNOと判断された場
合には、次にステップS48で、指示画像の影領域30
0以外の影とA点が接しているか、又は近接しているか
が判断される。ここで、YESと判断された場合には、
B点がポインティング位置として求められる。
If NO is determined in the step S46, then in a step S48, the shadow area 30 of the designated image is determined.
It is determined whether the shadow other than 0 is in contact with or close to the point A. Here, if it is determined as YES,
Point B is obtained as the pointing position.

【0107】又、ステップS48でNOと判断された場
合には、次のステップS50で、A点が、画面の縁上の
点か、もしくは近接する点か否かが判断される。ここで
YESと判断された場合にはB点がポインティング位置
として求められ、NOと判断された場合には、検出エラ
ー出力される。
If NO is determined in the step S48, it is determined in a next step S50 whether the point A is a point on the edge of the screen or a point close thereto. If the determination is YES here, the point B is obtained as the pointing position, and if the determination is NO, a detection error is output.

【0108】以上説明したように、本実施の形態ではス
テップS44,S46の処理により、ディスプレイ領域
12に向かってプレゼンター30が左側に立った場合で
もポインティング位置を正確に検出でき、またS48,
S50の処理により、ディスプレイ領域12に向かって
プレゼンター30が右側に立った場合でもポインティン
グ位置を正確に検出できる。このようにして、指示画像
の影領域300の両端のA点、B点のいずれがポインテ
ィング位置であるかを判断し、このポインティング位置
を(x、y)の2次元座標として検出する。
As described above, in the present embodiment, by the processing of steps S44 and S46, the pointing position can be accurately detected even when the presenter 30 stands on the left side toward the display area 12, and the processing of S48 and S46 can be performed.
By the processing in S50, the pointing position can be accurately detected even when the presenter 30 stands on the right side toward the display area 12. In this way, it is determined which of the points A and B at both ends of the shadow area 300 of the designated image is the pointing position, and this pointing position is detected as the (x, y) two-dimensional coordinates.

【0109】(2−3)ステップS42の詳細 図10には、図9のステップS42の処理の具体例が示
されている。ここでは、指示画像の影領域300を含む
3つの2値画像データが示されている。図10(A)
は、影領域300が真横方向、図10(B)は縦方向、
図10(C)は斜め方向に向いている場合をそれぞれ示
している。尚、指示画像の影領域300の形状や大きさ
は、使用した指示棒40の形態により変わる。例えば、
指示画像の影領域300の形状は、丸形や四角形、また
は多角形の何れでも良く、本実施の形態においては細長
い楕円状の形状の場合を例に取り説明する。
(2-3) Details of Step S42 FIG. 10 shows a specific example of the process of step S42 in FIG. Here, three binary image data including the shadow area 300 of the instruction image are shown. FIG. 10 (A)
Indicates that the shadow area 300 is in the horizontal direction, FIG. 10B is the vertical direction,
FIG. 10 (C) shows a case in which it is directed obliquely. The shape and size of the shadow area 300 of the pointing image change depending on the shape of the pointing rod 40 used. For example,
The shape of the shadow area 300 of the pointing image may be any of a round shape, a square shape, and a polygonal shape. In the present embodiment, a case of a long and thin elliptical shape will be described as an example.

【0110】このような指示画像の影領域300の両端
の座標を求めるためには、まず図10に示すように、デ
ィスプレイ領域12の左上の座標を原点(X,Y)=
(0,0)として、画像内における指示画像の影領域3
00のx、yがそれぞれ最小、最大の4点(座標上で最
も端の点、つまり、どの方向に対してもそれ以降に検出
座標が存在しない点)をa、b、c、dとして求める。 a (Xmin,Ya) b (Xmax,Yb) c (Xc,Ymin) d (Xd,Ymax) そして、a,b,c,dが、 (Xmax−Xmin)>(Ymax−Ymin) の条件を満足した場合には、aとbの点を、ステップS
42の指示画像の影領域300の両端の点A、Bとして
特定し、またa,b,c,dが、 (Xmax−Xmin)<(Xmax−Ymin) の条件を満足した場合には、c、dの点を指示画像の影
領域300の両端の点A、Bとして特定する。
In order to obtain the coordinates of both ends of the shadow area 300 of such an instruction image, first, as shown in FIG. 10, the upper left coordinates of the display area 12 are set to the origin (X, Y) =
As (0,0), the shadow area 3 of the designated image in the image
The four points where x and y of 00 are minimum and maximum (the end points on the coordinates, that is, the points where no detected coordinates exist afterwards in any direction) are obtained as a, b, c, and d. . a (Xmin, Ya) b (Xmax, Yb) c (Xc, Ymin) d (Xd, Ymax) And a, b, c, and d satisfy the condition of (Xmax−Xmin)> (Ymax−Ymin). If so, the points a and b are
42, the points A and B at both ends of the shadow area 300 of the designated image are specified. When a, b, c, and d satisfy the condition of (Xmax−Xmin) <(Xmax−Ymin), c , D are specified as points A and B at both ends of the shadow area 300 of the designated image.

【0111】従って、図10に示した指示画像の影領域
300を例にとると、図10(A)、図10(C)は
a,b座標が長手方向の端点、図10(B)はc,d座
標が長手方向の端点として検出される。
Therefore, taking the shadow area 300 of the pointing image shown in FIG. 10 as an example, FIGS. 10A and 10C show a and b coordinates at the end points in the longitudinal direction, and FIG. The c and d coordinates are detected as longitudinal end points.

【0112】なお、本実施の形態のポインティング座標
検出部116は、指示棒40を用いた指示の時系列デー
タを元に、常に後から指示した位置をポインティング位
置として検出し、その検出位置データを出力するように
構成されている。
The pointing coordinate detecting section 116 according to the present embodiment always detects a position specified later as a pointing position based on the time-series data of the instruction using the pointing rod 40, and converts the detected position data. It is configured to output.

【0113】このようにして本実施の形態のポインティ
ング座標検出部116は、指示画像の影領域300の先
端の座標をポインティング位置として検出し、この検出
位置データを演算処理部118へ向け出力する。
Thus, pointing coordinate detecting section 116 of the present embodiment detects the coordinates of the tip of shadow area 300 of the designated image as the pointing position, and outputs the detected position data to arithmetic processing section 118.

【0114】なお、本実施の形態では、指示棒40がデ
ィスプレイ領域12上の撮像画像20を遮蔽してできた
部分を指示画像の影領域300として抽出し、ポインテ
ィング位置の検出を行ったが、これ以外の指示部、例え
ばプレゼンター30の指でできる影を指示画像の影領域
300として認識し、指の先端位置をポインティング位
置として自動認識してもよい。
In the present embodiment, a portion formed by blocking the captured image 20 on the display area 12 with the pointing rod 40 is extracted as the shadow area 300 of the pointing image, and the pointing position is detected. A pointing part other than this, for example, a shadow formed by the finger of the presenter 30 may be recognized as the shadow area 300 of the pointing image, and the tip position of the finger may be automatically recognized as the pointing position.

【0115】又、本実施の形態では、CCDカメラ14
から白黒の画像信号を出力し、2値化処理部112、ポ
インティング座標検出部116を用い、この画像信号か
ら指示画像の影領域300を分離し、ポインティング位
置を検出しているが、CCDカメラ14からカラーの撮
像信号が出力される場合でも、前記実施の形態の同様な
手法を用いて、撮像信号の輝度レベルと基準値Vref
とを比較して指示画像の影を抽出し、ポインティング位
置を検出してもよい。
In this embodiment, the CCD camera 14
Output a black and white image signal from the image signal, and use the binarization processing unit 112 and the pointing coordinate detection unit 116 to separate the shadow area 300 of the designated image from this image signal and detect the pointing position. Even when a color image signal is output from the image pickup device, the luminance level of the image signal and the reference value Vref are obtained by using the same method as in the above-described embodiment.
May be compared to extract the shadow of the pointing image to detect the pointing position.

【0116】(2−4)シェーディング対策 プレゼンテーションシステムの使用環境によっては、例
えば図13(A)に示すように、ディスプレイ領域12
上に投射される画像の一部、特にコーナー部は、輝度レ
ベルが他の領域より低い低輝度領域320aが発生する
ことがある。このような場合に、これをCCDカメラ1
4で撮像し、2値化処理部112で2値化処理をする
と、図13(B)に示すように低輝度領域320bが影
として抽出されてしまう。特に、指示画像の影領域30
0が、この低輝度領域320bに重なる場合には、ポイ
ンティング位置を正確に検出することが困難となる。
(2-4) Shading Countermeasures Depending on the use environment of the presentation system, for example, as shown in FIG.
A part of the image projected above, in particular, a corner part, may have a low-luminance area 320a whose luminance level is lower than other areas. In such a case, the CCD camera 1
When the image is picked up at step 4 and binarization processing is performed by the binarization processing unit 112, the low-luminance area 320b is extracted as a shadow as shown in FIG. In particular, the shadow area 30 of the instruction image
When 0 overlaps with the low luminance area 320b, it is difficult to accurately detect the pointing position.

【0117】このような問題を解決するために、本実施
の形態のシステムでは、ライトまたはLEDアレイ等の
照明手段16を用いて、ディスプレイ領域12上の輝度
レベルの低い低輝度領域320aを集中照射する。この
ようにすることにより、2値化処理部112で処理され
た2値化画像には前記低輝度領域320aに該当する部
分がなくなるため、この2値化画像データから指示画像
の影領域300を良好に抽出し、ポインティング位置の
検出を行うことが可能となる。
In order to solve such a problem, in the system according to the present embodiment, the illuminating means 16 such as a light or an LED array is used to intensively illuminate the low-luminance area 320a having a low luminance level on the display area 12. I do. By doing so, since the binarized image processed by the binarization processing unit 112 has no portion corresponding to the low-luminance region 320a, the shadow region 300 of the instruction image is converted from the binarized image data. Extraction can be performed well, and the pointing position can be detected.

【0118】(3)検出位置データに基づくデータ処理 上述した図6における演算処理部118は、このように
して入力されるポインティング位置の検出データに基づ
き各種のデータ処理や画像処理を行う。
(3) Data Processing Based on Detected Position Data The arithmetic processing unit 118 in FIG. 6 performs various data processing and image processing based on the pointing position detected data thus input.

【0119】本実施の形態において、この演算処理部1
18は、カメラ制御部122、カーソル制御部120及
び基準値自動設定部114として機能する。
In this embodiment, the arithmetic processing unit 1
Reference numeral 18 functions as the camera control unit 122, the cursor control unit 120, and the automatic reference value setting unit 114.

【0120】(3−1)カメラ制御部122の詳細 前記カメラ制御部122は、オペレータ操作部130、
もしくはプロジェクタ10のPJ(プロジェクタ)光学
制御部150から入力される情報に基づき、CCDカメ
ラ14の各種光学制御、例えばフォーカスの制御を行
う。ここでは、特に後者のプロジェクタ10のPJ光学
制御部150から入力された情報に基づく光学制御につ
いて、説明する。
(3-1) Details of Camera Control Unit 122 The camera control unit 122 includes an operator operation unit 130,
Alternatively, based on information input from a PJ (projector) optical control unit 150 of the projector 10, various optical controls of the CCD camera 14, such as focus control, are performed. Here, particularly, the latter optical control based on information input from the PJ optical control unit 150 of the projector 10 will be described.

【0121】図22は、プロジェクタ10の投射レンズ
におけるフォーカスやズーム調整等の各種調整操作に連
動して、CCDカメラ14の撮像レンズの光学調整を自
動的に行う方法について説明する図である。
FIG. 22 is a diagram for explaining a method of automatically performing the optical adjustment of the imaging lens of the CCD camera 14 in conjunction with various adjustment operations such as focus and zoom adjustment of the projection lens of the projector 10.

【0122】図22(A)は、全体の構成を説明するた
めのブロック図である。
FIG. 22A is a block diagram for explaining the overall configuration.

【0123】通常、プレゼンター30は、プロジェクタ
10から投射される表示画像のフォーカスを最適に合わ
せ込むために、プロジェクタ10の投射レンズの光学調
整機構であるPJレンズ調整機構152の調整を、マニ
ュアルで行ったり、自動調整機構を用いて自動的に行わ
せたりする。このPJレンズ調整機構152の調整量を
センサー154で検出し、カメラ制御部122に入力す
る。
Normally, the presenter 30 manually adjusts the PJ lens adjustment mechanism 152, which is the optical adjustment mechanism of the projection lens of the projector 10, in order to optimally focus the display image projected from the projector 10. Or automatically by using an automatic adjustment mechanism. The adjustment amount of the PJ lens adjustment mechanism 152 is detected by the sensor 154 and input to the camera control unit 122.

【0124】カメラ制御部122は、センサー154の
検出データを基に、CCDレンズの光学調整量を制御す
るために予め組み込まれたレンズ制御プログラム126
を実行する。その実行結果は、CCDカメラ14内のC
CD光学制御部22に供給され、このCCD光学制御部
22が、撮像レンズの光学調整を行うCCDレンズ調整
機構24を制御する。このようにして、プロジェクタ1
0の投射レンズの制御に連動してCCDカメラ14の撮
像レンズの調整が可能になる。
The camera control section 122 has a lens control program 126 incorporated in advance to control the optical adjustment amount of the CCD lens based on the detection data of the sensor 154.
Execute The execution result is the C
The CCD optical control unit 22 is supplied to the CD optical control unit 22 and controls the CCD lens adjustment mechanism 24 that performs optical adjustment of the imaging lens. Thus, the projector 1
The imaging lens of the CCD camera 14 can be adjusted in conjunction with the control of the 0 projection lens.

【0125】これにより、従来はプロジェクタ10とC
CDカメラ14のそれぞれのレンズを個々に調整する必
要があったが、本実施の形態によれば、プロジェクタ1
0の投射レンズ152をプレゼンター30がマニュアル
調整するか、もしくは自動的に調整する操作で、CCD
カメラ14の細かな光学調整が自動的に行われるため、
CCDカメラ14の細かな光学調整をする煩わしさや手
間が省け、操作性や使い勝手が向上できる。
As a result, the projector 10 and the C
Although it was necessary to adjust each lens of the CD camera 14 individually, according to the present embodiment, the projector 1
When the presenter 30 manually adjusts the projection lens 152 of 0 or automatically adjusts it,
Since the fine optical adjustment of the camera 14 is performed automatically,
The troublesome and troublesome work of fine optical adjustment of the CCD camera 14 can be omitted, and the operability and usability can be improved.

【0126】図22(B)は、図22(A)の処理のア
ルゴリズムである。まず、ステップS202で、PJレ
ンズ調整機構152が使用者により操作され、その調整
(可変)量をセンサー154で検出する(ステップS2
04)。次に、センサー154で検出された可変量を基
に、CCDレンズ調整機構24における制御量をレンズ
制御プログラム126で求め(ステップS206)、ス
テップS208でCCDレンズの調整機構が自動的に制
御される。
FIG. 22B is an algorithm for the processing of FIG. First, in step S202, the PJ lens adjustment mechanism 152 is operated by the user, and the adjustment (variable) amount is detected by the sensor 154 (step S2).
04). Next, based on the variable amount detected by the sensor 154, a control amount in the CCD lens adjustment mechanism 24 is obtained by the lens control program 126 (step S206), and the adjustment mechanism of the CCD lens is automatically controlled in step S208. .

【0127】前記カーソル制御部120は、検出された
ポインティング位置を指し示すように、カーソル200
の位置制御を行う。すなわち、プロジェクタ10から投
射される画像に含まれるカーソル200が、指示棒40
のポインティング位置に追従して移動するように、入力
源100を制御する。
The cursor control unit 120 operates the cursor 200 so as to indicate the detected pointing position.
Is performed. That is, the cursor 200 included in the image projected from the projector 10 is
The input source 100 is controlled so as to move following the pointing position of the input.

【0128】基準値自動設定部114は、2値化処理部
112で使用する2値化のための基準値Vrefを最適
値に自動設定するための処理を行う。
The automatic reference value setting section 114 performs processing for automatically setting the reference value Vref for binarization used in the binarization processing section 112 to an optimum value.

【0129】次に、カーソル制御部120の詳細を説明
する。
Next, details of the cursor control unit 120 will be described.

【0130】(3−2)カーソル制御部120の詳細 前記カーソル制御部120は、前記指示画像の影領域3
00と重ならない位置で、かつ検出されたポインティン
グ位置を指し示すようにカーソル200の位置制御を行
う。
(3-2) Details of the Cursor Control Unit 120 The cursor control unit 120 determines whether the shadow area 3
The position of the cursor 200 is controlled so as not to overlap with 00 and to indicate the detected pointing position.

【0131】図11(A)には、カーソル200の位置
制御の一例が示されている。この一例では、指示画像の
影領域300の延長線上で一定距離離れた位置に、カー
ソル200の表示位置を制御している。具体的には、指
示棒40の影である指示画像の影領域300の連続性を
認識し、その延長線上にカーソル200が位置するよう
に位置制御を行う。
FIG. 11A shows an example of position control of the cursor 200. In this example, the display position of the cursor 200 is controlled at a position separated by a certain distance on the extension of the shadow area 300 of the instruction image. Specifically, the continuity of the shadow area 300 of the pointing image, which is the shadow of the pointing rod 40, is recognized, and the position control is performed so that the cursor 200 is positioned on an extension of the pointing area.

【0132】この時、指示棒40とカーソル200とが
重ならない位置、例えば指示棒40の先端に対し、カー
ソル1個分だけ離してカーソル200を表示する。
At this time, the cursor 200 is displayed one cursor away from the position where the pointing rod 40 and the cursor 200 do not overlap, for example, the tip of the pointing rod 40.

【0133】これにより、カーソル200が指示棒40
の影に隠れてしまうことがなく、プレゼンター30のポ
インティング位置をカーソル200によって確実にかつ
分かり易く表示することができる。
As a result, the cursor 200 moves to the pointing rod 40.
The pointing position of the presenter 30 can be reliably and easily displayed by the cursor 200 without being hidden by the shadow of.

【0134】また、カーソル制御部120は、指示画像
の影領域300の先端の太さに応じて表示するカーソル
200の大きさや形状、色等を制御するように構成して
もよい。例えば、指示画像の影領域300が細い場合に
あっては、その先端位置の正確な位置が識別しずらいた
め、カーソル200を大きく表示することにより、ディ
スプレイ領域12を見ている視聴者にとってポインティ
ング位置がより分かり易いものとなる。
Further, the cursor control unit 120 may be configured to control the size, shape, color, and the like of the cursor 200 displayed according to the thickness of the tip of the shadow area 300 of the designated image. For example, when the shadow area 300 of the instruction image is thin, it is difficult to identify the exact position of the tip end position. Therefore, by displaying the cursor 200 in a large size, the viewer viewing the display area 12 can point to the pointing position. Will be easier to understand.

【0135】ここで、図11(A)に示すように、指示
棒40の延長線上にカーソル200を表示すると、ディ
スプレイ領域12の周縁部では、カーソル200が隠れ
たり、表示できない領域が現れる可能性がある。
Here, as shown in FIG. 11A, when the cursor 200 is displayed on the extension of the pointing rod 40, there is a possibility that the cursor 200 is hidden or an area that cannot be displayed appears at the periphery of the display area 12. There is.

【0136】この為、図11(B)に示すように、ポイ
ンティング位置が表示画面の周縁部に近づき(同図
)、指示画像の影領域300の延長線上で一定距離=
dが保てなくなった場合にのみ、カーソル200をポイ
ンティング位置の近く(同図)、または重ねて(同図
)表示するようにしてもよい。また、指示画像の影領
域300の先端とカーソル200との距離や重なる面積
に応じて、カーソル200のサイズや色、または形状
(矢印の向き)等を制御するようにしてもよい。同図に
おいて、はカーソルサイズ及び形状が変形した例で、
はカーソルの色が変わった事を表している。このよう
にすることにより、表示画面の周縁部においても、カー
ソル200が指示棒40の影になり視聴者から見えなく
なる事がなく、かつそのポインティング位置もより分か
り易いものとなる。
For this reason, as shown in FIG. 11B, the pointing position approaches the peripheral portion of the display screen (FIG. 11B), and a fixed distance =
Only when d cannot be maintained, the cursor 200 may be displayed near the pointing position (shown in the figure) or overlapped (shown in the figure). Further, the size, color, shape (direction of the arrow), and the like of the cursor 200 may be controlled according to the distance between the tip of the shadow area 300 of the instruction image and the cursor 200 and the overlapping area. In the figure, is an example in which the cursor size and shape are modified,
Indicates that the color of the cursor has changed. By doing so, the cursor 200 does not become a shadow of the pointing rod 40 even at the peripheral portion of the display screen and does not become invisible to the viewer, and the pointing position is more easily understood.

【0137】図21は、上記のカーソルサイズを変えた
場合に用いられるアルゴリズムについて説明した図であ
る。
FIG. 21 is a diagram for explaining an algorithm used when the cursor size is changed.

【0138】まず、ステップS162において、図8の
ステップS32における面積算出処理として、長さ=
d、幅=tを算出する。ここで、本実施の形態では、指
示棒40の枝の部分の形状と異なる先端形状の部分を持
っている場合について示したが、指示棒40の枝の部分
と同じ形状の先端部を持っていても良い。この場合に
は、指示棒40の先端部分の長さ=d’だけを切り出
し、先端形状が長さ=d’、幅=tとして考えればよ
い。
First, in step S162, as the area calculation processing in step S32 in FIG.
d, width = t is calculated. Here, in the present embodiment, a case where the end portion has a shape different from the shape of the branch portion of the indicator rod 40 has been described, but the tip portion has the same shape as the branch portion of the indicator rod 40. May be. In this case, only the length = d 'of the tip portion of the pointing rod 40 is cut out, and the tip shape may be considered as length = d' and width = t.

【0139】次に、検出された指示画像の検出対象30
4の長手方向の長さ=dと、あらかじめ任意に設定可能
な長さ=Lとを比較し(ステップS164)、d<Lの
場合には、先端形状が設定よりも小さいと判断できるた
め、カーソル200のサイズを大きく変更する。一方、
d>Lの場合には、十分大きな先端として判断できる。
Next, the detection target 30 of the detected pointing image is detected.
4 is compared with the length = L which can be set arbitrarily in advance (step S164). If d <L, it can be determined that the tip shape is smaller than the setting. The size of the cursor 200 is largely changed. on the other hand,
If d> L, it can be determined that the tip is sufficiently large.

【0140】次に、ステップS166では、検出された
指示画像の検出対象304の幅=tと、あらかじめ任意
に設定可能な幅の値=kとを比較する。t<kの場合に
は、長さの比較と同様に、先端形状が設定よりも小さい
と判断され、カーソル200のサイズを大きく変更す
る。一方、t>kの場合には、十分大きな先端として判
断される。
Next, in step S166, the width = t of the detection target 304 of the detected pointing image is compared with the width value k that can be arbitrarily set in advance. When t <k, similarly to the comparison of the lengths, it is determined that the tip shape is smaller than the setting, and the size of the cursor 200 is greatly changed. On the other hand, if t> k, it is determined that the tip is sufficiently large.

【0141】このような処理をステップS34が行われ
る度に行うことで、リアルタイムなカーソルの制御が可
能になる。
By performing such a process each time step S34 is performed, real-time cursor control becomes possible.

【0142】また、カーソル制御部120は、図12
(A)に示すようにカーソル200の表示位置を制御し
てもよい。
Further, the cursor control unit 120 operates as shown in FIG.
The display position of the cursor 200 may be controlled as shown in FIG.

【0143】例えば、プレゼンター30が、ディスプレ
イ領域12に向かって左側に立ってプレゼンテーション
を行う場合には、ディスプレイ領域12を、右端の狭い
領域220と、それ以外の領域230とに分け、さらに
右端の領域220を、上側の領域220aとそれ以外の
下側の領域220bとに分ける。そして、ポインティン
グ位置が右端以外の領域230にある場合には、ポイン
ティング位置の真横に水平左向きにカーソル200を表
示し、ポインティング位置が右端の上側領域220aに
ある場合には、ポインティング位置の下側で上向きにカ
ーソル200を表示し、ポインティング位置が右端の上
側以外の下側領域220bにある場合には、ポインティ
ング位置の上側で下向きにカーソル200を表示する。
これにより、プレゼンターはディスプレイ領域12の左
側に立ってプレゼンテーションを行う場合に、画面右端
にカーソル200が隠れてしまうという事態の発生を防
止することができる。
For example, when the presenter 30 gives a presentation while standing on the left side toward the display area 12, the display area 12 is divided into a narrow area 220 at the right end and an area 230 other than the right end, and furthermore, the display area 12 at the right end is further divided. The area 220 is divided into an upper area 220a and another lower area 220b. Then, when the pointing position is in the area 230 other than the right end, the cursor 200 is displayed to the horizontal left just beside the pointing position, and when the pointing position is in the upper right area 220a, the cursor 200 is displayed below the pointing position. When the cursor 200 is displayed upward, and the pointing position is in the lower area 220b other than the upper right end, the cursor 200 is displayed downward above the pointing position.
Thereby, when the presenter stands on the left side of the display area 12 and makes a presentation, it is possible to prevent a situation in which the cursor 200 is hidden at the right end of the screen.

【0144】また、プレゼンターがディスプレイ領域1
2の右端に立ってプレゼンテーションを行う場合には、
投射領域の左端に、前記領域220a、220bを設
け、カーソル200を同様に表示すれば良い。この場
合、主たる領域230上においては、ポインティング位
置の真横に水平右向きにカーソル200を表示すること
が好ましい。
[0144] Also, if the presenter is in the display area 1
If you stand on the right end of 2 and give a presentation,
The regions 220a and 220b may be provided at the left end of the projection region, and the cursor 200 may be displayed in the same manner. In this case, it is preferable that the cursor 200 be displayed rightward horizontally on the main area 230 right beside the pointing position.

【0145】カーソル200を図12(A)に示すよう
に表示制御する場合には、オペレータ操作部130から
の入力操作により、カーソル制御部120は、前述した
ようにプレゼンター30がディスプレイ領域12の右側
に立ってプレゼンテーションを行う場合と、左側に立っ
てプレゼンテーションを行う場合とで、カーソルの表示
向きが切り替わるように構成してもよい。
When the display of the cursor 200 is controlled as shown in FIG. 12A, the cursor control unit 120 causes the presenter 30 to move the cursor 200 to the right side of the display area 12 by the input operation from the operator operation unit 130 as described above. The display direction of the cursor may be switched between a case where the presentation is performed while standing and a case where the presentation is performed while standing on the left side.

【0146】このようにすることにより、ユーザーにと
ってより使いやすいプレゼンテーションシステムを実現
することができる。
By doing so, a presentation system that is easier for the user to use can be realized.

【0147】図12(B)には、図12(A)のに示
すように、指示画像の影領域300の先端座標から水平
方向に一定距離離れた位置にカーソルを表示するアルゴ
リズムの具体例が示されている。
FIG. 12 (B) shows a specific example of an algorithm for displaying a cursor at a position horizontally separated by a certain distance from the tip coordinates of the shadow area 300 of the designated image, as shown in FIG. 12 (A). It is shown.

【0148】ステップS100でカーソルを表示するた
めのアルゴリズムが開始され、ステップS102でポイ
ンティング位置の先端座標(x,y)が検出される。
In step S100, the algorithm for displaying the cursor is started, and in step S102, the coordinates (x, y) of the tip of the pointing position are detected.

【0149】次に、ステップS104において、検出さ
れた座標(x,y)を基に、カーソルの先端座標
(x‘,y’)が計算され、カーソル座標(x‘,
y’)が決定される(S106)。
Next, in step S104, the tip coordinates (x ', y') of the cursor are calculated based on the detected coordinates (x, y), and the cursor coordinates (x ', y') are calculated.
y ′) is determined (S106).

【0150】次に、ステップS108で、該カーソル座
標(x‘,y’)にカーソル位置を制御して表示するた
めの処理が行われ、表示画面上の所望の位置にカーソル
を表示する事が出来る。
Next, in step S108, processing for controlling and displaying the cursor position at the cursor coordinates (x ', y') is performed, and it is possible to display the cursor at a desired position on the display screen. I can do it.

【0151】図19は、複数のポインティング位置を検
出した場合、該複数のポインティング位置に対応した複
数のカーソルを独立に表示制御する方法について説明し
た図である。
FIG. 19 is a diagram for explaining a method of independently controlling the display of a plurality of cursors corresponding to a plurality of pointing positions when a plurality of pointing positions are detected.

【0152】まず、ステップS122で、図8のステッ
プS34における指示画像の検出対象304の抽出処理
を行い、ステップS124で、抽出されたラベルの数を
調べる。ここで、抽出ラベルの数が1つの場合には、通
常処理されるようにカーソルを1つ表示すればよい。ス
テップS124で複数の指示画像の検出対象304を抽
出した場合、ステップS126でその数を算出し、ステ
ップS128でその数に応じたカーソルを表示する処理
を行う。
First, in step S122, the process of extracting the indication image detection target 304 in step S34 of FIG. 8 is performed, and in step S124, the number of extracted labels is checked. Here, when the number of extracted labels is one, one cursor may be displayed so as to be processed normally. When the detection targets 304 of the plurality of designated images are extracted in step S124, the number is calculated in step S126, and processing for displaying a cursor corresponding to the number is performed in step S128.

【0153】このような一連の処理を繰り返し行い、指
示画像位置にカーソルを表示する。
A series of such processes are repeated to display a cursor at the position of the designated image.

【0154】図20は、上記のような方法で複数のカー
ソルを表示する際に、その中の一つのカーソルの表示位
置を固定し、別のカーソルのみを自由に位置制御する場
合の具体的なアルゴリズムを示す。
FIG. 20 shows a specific example in which a plurality of cursors are displayed by the above-described method, and the display position of one of the cursors is fixed, and the position of only another cursor is freely controlled. Here is the algorithm.

【0155】図20のに示すように、プレゼンター3
0は、指示棒40を用いてディスプレイ領域12上の所
望の位置を指示し、該ポインティング位置に第一のカー
ソル202を表示させる(ステップS142、14
4)。
As shown in FIG. 20, the presenter 3
0 indicates a desired position on the display area 12 using the pointing rod 40, and displays the first cursor 202 at the pointing position (steps S142 and S14).
4).

【0156】本実施の形態のプレゼンテーションシステ
ムには、後述する所定の機能が割り付けられたファンク
ションスイッチ140が設けられている。そして、この
ファンクションスイッチ140を操作することにより、
第一カーソル202の移動を一時的に停止させておく命
令を送り(ステップS146)、図20のに示すよう
に、第一カーソル202の表示位置を固定する(ステッ
プS148)。
The presentation system according to the present embodiment is provided with a function switch 140 to which predetermined functions described later are assigned. By operating this function switch 140,
A command to temporarily stop the movement of the first cursor 202 is sent (step S146), and the display position of the first cursor 202 is fixed as shown in FIG. 20 (step S148).

【0157】次に、図20のに示すように、上記以外
のディスプレイ領域12上を指し示し、新しいポインテ
ィング位置に第二のカーソル204を表示させる(ステ
ップS150,152)。
Next, as shown in FIG. 20, the user points on the display area 12 other than the above, and the second cursor 204 is displayed at the new pointing position (steps S150 and S152).

【0158】これにより、新旧2つのポインティング位
置を同時に、かつ別々に指し示すことができる。特に、
後から表示された第二カーソル204には、色や形状を
第一カーソル202と異にしたり、点滅表示等、先に表
示されている第一カーソル202と区別するための処理
を施すことが好ましい。
As a result, two new and old pointing positions can be indicated simultaneously and separately. Especially,
It is preferable that the second cursor 204 displayed later is subjected to a process for distinguishing the second cursor 204 from the first cursor 202 displayed earlier, such as changing the color and shape from the first cursor 202 or blinking. .

【0159】尚、固定表示されている第一カーソル20
2は、ステップS154でプレゼンター30がファンク
ションスイッチ140を再び操作するまで表示位置を固
定するように形成してもよく、または一定時間経過する
と固定表示が解除されるように形成しても良い。このよ
うにして固定表示が解除された第一カーソル202は、
ディスプレイ領域12上の指示画像として検出される訳
ではないため、図20のに示すように、画面上からは
消えてしまう。一方、指示され続けている第二カーソル
204は、画面上の指示に追従してそのまま表示され、
これ以降第二カーソル204があたかも第一カーソル2
02のように扱われる。
The first cursor 20 fixedly displayed
2 may be formed so that the display position is fixed until the presenter 30 operates the function switch 140 again in step S154, or the fixed display may be released after a certain time has elapsed. The first cursor 202 whose fixed display has been released in this way is
Since it is not detected as the pointing image on the display area 12, it disappears from the screen as shown in FIG. On the other hand, the second cursor 204 that is continuously instructed is displayed as it is following the instruction on the screen,
After this, the second cursor 204 is as if the first cursor 2
02.

【0160】また、上述した機能以外に、ファンクショ
ンスイッチ140には、マウスの左クリック、右クリッ
ク等と同様な操作を行うことができる機能が割り付けら
れている。
In addition to the functions described above, the function switch 140 is assigned a function capable of performing operations similar to mouse left click, right click, and the like.

【0161】このファンクションスイッチ140は、前
記指示棒40と一体的に設けてもよく、また別体にして
プレゼンター30が持ち運び自在に形成してもよい。
The function switch 140 may be provided integrally with the pointing rod 40, or may be formed separately so that the presenter 30 can be carried around.

【0162】以上の構成とすることにより、プレゼンタ
ー30が、指示棒40を用いてカーソル200を所定の
位置まで導き、ここでファンクションスイッチ140を
操作することにより、カーソル制御部120に、いわゆ
るマウスの左クリックや右クリックがされた場合と同様
な処理を行わせることができる。
With the above configuration, the presenter 30 guides the cursor 200 to a predetermined position using the pointing rod 40, and operates the function switch 140 here. The same processing as when a left click or a right click is performed can be performed.

【0163】さらにこのファンクションスイッチ140
にアンダーライン機能や手書き文字入力を割り付けるこ
とにより、ディスプレイ領域12上に表示されている画
像の所定位置にアンダーラインを引いたり、ポインティ
ング位置を動かすことにより手書き文字入力を行うこと
もできる。
Further, the function switch 140
By assigning an underline function or handwritten character input to the image, the user can also input a handwritten character by drawing an underline at a predetermined position of the image displayed on the display area 12 or moving the pointing position.

【0164】また、このファンクションスイッチ140
に、カーソル200の移動を一時的に停止させる機能を
割り付けておくことにより、プレゼンター30が指示棒
40を用いてカーソルを所定位置まで移動した状態で、
ファンクションスイッチ140を操作すれば、カーソル
200の表示位置を次にファンクションスイッチ140
を操作するまで固定することができる。
The function switch 140
By assigning a function for temporarily stopping the movement of the cursor 200 to the presenter, in a state where the presenter 30 has moved the cursor to a predetermined position using the pointing rod 40,
By operating the function switch 140, the display position of the cursor 200 is changed to the function switch 140 next.
Can be fixed until is operated.

【0165】(4)基準値Vrefの自動設定 次に、基準値自動設定部114の設定する基準値Vre
fの詳細について説明する。
(4) Automatic setting of reference value Vref Next, the reference value Vre set by the reference value automatic setting section 114
Details of f will be described.

【0166】CCDカメラ14から出力される撮像信号
から、指示画像の影領域300を確実に抽出するために
は、2値化閾値の基準値Vrefの値を最適な値に設定
する必要がある。
In order to reliably extract the shadow area 300 of the designated image from the image pickup signal output from the CCD camera 14, it is necessary to set the reference value Vref of the binarization threshold to an optimum value.

【0167】この基準値は、ディスプレイ領域12上に
投射した画像を、CCDカメラ14が撮像した場合に、
この撮像信号に含まれる最も低い輝度レベルの値以下に
設定する必要がある。例えば、本実施の形態のように白
黒の撮像信号がCCDカメラ14から出力される場合に
は、黒の輝度レベル以下の値に基準値を設定する必要が
ある。これは、画面上で一番輝度レベルの低いのが黒色
であるのに対して、前記指示画像の影領域300の輝度
レベルは、黒色の輝度レベル以下になるからである。
This reference value is determined when the image projected on the display area 12 is captured by the CCD camera 14.
It is necessary to set the value to be equal to or less than the value of the lowest luminance level included in the image signal. For example, when a monochrome imaging signal is output from the CCD camera 14 as in the present embodiment, it is necessary to set the reference value to a value equal to or lower than the black luminance level. This is because the lowest luminance level on the screen is black, whereas the luminance level of the shadow area 300 of the designated image is lower than the black luminance level.

【0168】図14(A)には、画像をCCDカメラ1
4で撮像することにより得られた各領域の輝度レベルが
示されている。
FIG. 14 (A) shows an image captured by the CCD camera 1.
4 shows the luminance level of each area obtained by imaging.

【0169】ここでは、プロジェクタからディスプレイ
領域12上に真っ白な画像(表示白領域、同図)と、
真っ黒な画像(表示黒領域、同図)を投射し、更にデ
ィスプレイ領域12上の一部を遮蔽しディスプレイ領域
12の一部に投射画像が表示されない状態(本当の黒領
域、同図)を形成した。図14(A)は、この画像を
CCDカメラ14で撮像することにより得られた各領域
の輝度レベルである。指示棒40によりできる影(検出
黒領域、同図)は、映像の黒の輝度レベル(VLC)
と本当の黒の輝度レベル(VB)との間の輝度レベル
(300a)となるため、指示画像の影領域300を確
実に抽出するためには、2値化のための基準値Vref
を、映像の黒の輝度レベル(VLC)より小さく、本当
の黒の輝度レベル(VB)より大きな値に設定してやる
必要がある。尚、同図の輝度レベルは、CCDカメラ1
4の1本分の水平走査ラインの輝度レベルを表してい
る。
Here, a pure white image (display white area, the same figure) is displayed on the display area 12 from the projector.
A black image (displayed black area, same figure) is projected, and a part of the display area 12 is shielded to form a state where the projected image is not displayed on a part of the display area 12 (real black area, same figure). did. FIG. 14A shows the luminance level of each region obtained by capturing this image with the CCD camera 14. The shadow (detected black area, same figure) formed by the pointing rod 40 is the black luminance level (VLC) of the video.
And the true black luminance level (VB), so that the shadow area 300 of the designated image is reliably extracted, so that the reference value Vref for binarization is used.
Must be set to a value smaller than the black luminance level (VLC) of the video and larger than the true black luminance level (VB). It should be noted that the brightness level in FIG.
4 represents the luminance level of one horizontal scanning line.

【0170】ところで、図14(A)は、理想的なディ
スプレイ領域環境を想定し、このディスプレイ領域12
上に画像を投射した場合に得られる各領域の輝度レベル
を示しているが、実際のディスプレイ領域12上に投射
した画像をCCDカメラ14で撮像したときの輝度レベ
ルは、例えば図14(B)のようになる。図14(B)
は、ディスプレイ領域12上に投射される画像の輝度レ
ベルが、ディスプレイ領域の中央(同図)においてや
や高く、ディスプレイ領域の端(同図)に行くに従っ
て小さい場合の輝度レベルである。ディスプレイ領域1
2の近くに窓があったり、室内の照明環境が偏っている
場合にも、状態こそ違うものの同様な事が起こる。
FIG. 14 (A) shows an ideal display area environment.
The brightness level of each area obtained when an image is projected on the upper side is shown. The brightness level when the image projected on the actual display area 12 is captured by the CCD camera 14 is, for example, as shown in FIG. become that way. FIG. 14 (B)
Is a luminance level when the luminance level of the image projected on the display area 12 is slightly higher in the center of the display area (shown in the figure) and becomes lower toward the edge of the display area (shown in the figure). Display area 1
A similar situation occurs in a different situation if there is a window near 2 or the indoor lighting environment is uneven.

【0171】従って、指示画像の影領域300の黒レベ
ル300aと、基準値Vrefとのレベル差△V(以下
マージンという)を小さく設定しすぎると、中央の指示
画像の影領域300を確実に検出できないという事態が
生ずる。すなわち、図14(B)の2値化処理出力に示
すように、中央の指示画像の影領域300(同図)の
輝度レベル300aの変動が大きいと、その影領域30
0の輝度レベル300aが基準値Vref以下まで下が
らないことがある。この場合には、この影領域300を
確実に抽出することができない。
Therefore, if the level difference ΔV (hereinafter referred to as a margin) between the black level 300a of the shadow area 300 of the designated image and the reference value Vref is set too small, the shadow area 300 of the center designated image is reliably detected. The situation that cannot be done arises. That is, as shown in the binarization processing output of FIG. 14B, when the luminance level 300a of the shadow area 300 (shown in the figure) of the center instruction image greatly varies, the shadow area 30
The luminance level 300a of 0 may not fall below the reference value Vref. In this case, the shadow area 300 cannot be reliably extracted.

【0172】この為、本実施の形態の基準値自動設定部
114は、基準値Vrefを、最適な値に自動設定でき
るように構成されている。
For this reason, the reference value automatic setting section 114 of this embodiment is configured so that the reference value Vref can be automatically set to an optimum value.

【0173】以下にその詳細を説明する。The details will be described below.

【0174】図15(A)には、ディスプレイ領域12
上に投射される画像を複数のエリアに分割した状態が示
され、ここでは9個のエリアに分割している。
FIG. 15A shows the display area 12.
A state in which the image to be projected is divided into a plurality of areas is shown above, and here, the image is divided into nine areas.

【0175】そして、実施の形態の基準値自動設定部1
14は、各分割エリア毎に固有の基準値Vrefを設定
できる。
Then, the reference value automatic setting unit 1 of the embodiment
Reference numeral 14 can set a unique reference value Vref for each divided area.

【0176】例えば、分割エリア1、2、3において
は、それぞれ図14(C)に示すように、基準値をVr
ef1、Vref2、Vref3に設定する。
For example, in divided areas 1, 2, and 3, the reference value is set to Vr as shown in FIG.
ef1, Vref2, and Vref3 are set.

【0177】これにより、輝度レベルの高い画面中央部
(図14(B)の部分)においても、指示画像の影領
域300を確実に検出することができる。
As a result, the shadow area 300 of the designated image can be reliably detected even in the central portion of the screen having a high luminance level (portion shown in FIG. 14B).

【0178】また、各分割エリア毎に固有の基準値Vr
efを設定するために、本実施の形態の較正パターン画
像生成部124は、所定の較正パターン画像をプロジェ
クタ10からスクリーン上のディスプレイ領域12に投
射させる。この時、基準値自動設定部114は、投射さ
れた較正パターン画像のデータと、CCDカメラ14か
ら得られる撮像信号とを照合し、各分割エリア毎に最適
な基準値Vrefを設定する。
Also, a reference value Vr unique to each divided area
In order to set ef, the calibration pattern image generation unit 124 according to the present embodiment causes the projector 10 to project a predetermined calibration pattern image onto the display area 12 on the screen. At this time, the reference value automatic setting unit 114 collates the data of the projected calibration pattern image with the image pickup signal obtained from the CCD camera 14 and sets an optimum reference value Vref for each divided area.

【0179】ここでは、図15(B)に示す較正パター
ン画像を、ディスプレイ領域12上に投射するように構
成されている。この較正パターン画像500は、前記分
割エリアに対応して9つのエリア500−1、500−
2、・・・500−9を含み、各エリアは、その中央に
黒領域510、その周囲に白領域512が配置されてい
る。このように、各エリア500−1、500−2、・
・・500−9に、白及び黒という輝度レベルの異なる
領域510、512を組合わせたパターンを配置するこ
とにより、この較正パターン画像500から、各分割エ
リア毎の基準レベルを最適値に設定することができる。
Here, the calibration pattern image shown in FIG. 15B is projected onto the display area 12. The calibration pattern image 500 includes nine areas 500-1, 500- corresponding to the divided areas.
Each area includes a black region 510 at the center and a white region 512 around the black region 510. Thus, each area 500-1, 500-2,.
.. By arranging a pattern in which regions 510 and 512 having different luminance levels of white and black are arranged in 500-9, the reference level of each divided area is set to the optimum value from the calibration pattern image 500. be able to.

【0180】なお、基準値の設定時に、プロジェクタか
ら投射する較正パターン画像は、その輝度レベルが一番
低い黒を基準として形成してもよい。例えば、較正パタ
ーン画像の全領域を、全て黒レベルとした較正パターン
画像を投射してもよい。
When the reference value is set, the calibration pattern image projected from the projector may be formed based on black having the lowest luminance level. For example, a calibration pattern image in which all regions of the calibration pattern image are all set to the black level may be projected.

【0181】しかし、同じ黒でも、これがディスプレイ
領域12上に投射される画像が、その周囲が全て黒の場
合と周囲に白の領域が存在する場合とでは、CCDカメ
ラ14の撮像する黒の輝度レベルが若干異なったものと
なってしまう。
However, even when the same black is projected on the display area 12, the brightness of the black image picked up by the CCD camera 14 differs depending on whether the image is entirely black or a white area exists around the image. The levels will be slightly different.

【0182】本実施の形態では、このような場合でも、
確実各最適な値に基準値を設定できるように、輝度レベ
ルの異なる黒領域510と白領域512とを組合せた較
正パターンを、各領域500−1、500−2、・・・
500−9にそれぞれ設定し、この組合せ画像を較正パ
ターン画像500としてディスプレイ領域12上に投射
している。これにより、各分割エリア毎に、2値化のた
めの基準値を最適な値に自動設定することができる。
In this embodiment, even in such a case,
In order to ensure that a reference value can be set to each optimal value, a calibration pattern combining black areas 510 and white areas 512 having different luminance levels is set in each area 500-1, 500-2,.
500-9, and the combined image is projected on the display area 12 as the calibration pattern image 500. Thereby, the reference value for binarization can be automatically set to an optimum value for each divided area.

【0183】図16には、プレゼンテーションシステム
の立ち上げ時の基準値自動設定動作のフローチャートが
示されている。
FIG. 16 is a flowchart of the reference value automatic setting operation when the presentation system is started.

【0184】基準値自動設定部114は、システム立ち
上げ時に基準値の自動設定を開始する(ステップS6
0)。まず、プロジェクタ10の映像投射スイッチがオ
ンされたことを検出し(ステップS62)、図15
(B)に示す較正パターン画像をプロジェクタ10から
ディスプレイ領域12上に投射させる(ステップS6
4)。
The reference value automatic setting section 114 starts automatic setting of the reference value when the system is started (step S6).
0). First, it is detected that the video projection switch of the projector 10 has been turned on (step S62), and FIG.
The calibration pattern image shown in (B) is projected from the projector 10 onto the display area 12 (step S6).
4).

【0185】そして、この基準値自動設定部114は、
予め判明している較正パターン画像の輝度レベルデータ
と、CCDカメラ14から出力される撮像信号の対応す
る位置の輝度レベルとを照合し、各分割エリア毎に最適
の基準値Vrefを設定する(ステップS66)。
Then, the reference value automatic setting unit 114
The brightness level data of the calibration pattern image that is known in advance is compared with the brightness level of the corresponding position of the imaging signal output from the CCD camera 14, and the optimum reference value Vref is set for each divided area (step). S66).

【0186】ここでは、各エリア毎に、撮像信号から、
較正パターン画像の黒エリア510に対応する信号の輝
度レベルを読み取り、この輝度レベルに対し所定のマー
ジンをもって基準値Vrefを、各分割エリア毎に設定
する。
Here, for each area, from the image pickup signal,
The luminance level of the signal corresponding to the black area 510 of the calibration pattern image is read, and a reference value Vref is set for each divided area with a predetermined margin for the luminance level.

【0187】このような設定終了後、基準値自動設定部
114は、較正パターン画像の投射を終了し、プロジェ
クタ10の画像入力を通常の画像入力モードへ切り替え
(ステップS68)、基準値自動設定動作を終了する
(ステップS70)。
After the completion of the setting, the reference value automatic setting unit 114 terminates the projection of the calibration pattern image, switches the image input of the projector 10 to the normal image input mode (step S68), and performs the reference value automatic setting operation. Is ended (step S70).

【0188】このように、本実施の形態によれば、シス
テムを立ち上げ時に、2値化処理のための閾値Vref
を各分割領域毎に最適な値に自動設定することができ
る。
As described above, according to the present embodiment, when starting up the system, the threshold value Vref for the binarization processing is set.
Can be automatically set to an optimal value for each divided region.

【0189】図17には、システム立ち上げ後に、基準
値Vrefを再設定する場合のフローチャートが示され
ている。
FIG. 17 shows a flowchart in the case where the reference value Vref is reset after the system is started.

【0190】ユーザーが基準値再設定スイッチ132を
操作すると、基準値自動設定部114はこの再設定スイ
ッチ132の操作を検出し(ステップS82)、ステッ
プS84〜S90の基準値再設定動作を開始する。
When the user operates the reference value reset switch 132, the reference value automatic setting unit 114 detects the operation of the reset switch 132 (step S82), and starts the reference value reset operation of steps S84 to S90. .

【0191】なお、ステップS84〜S88は、前記図
16に示すS64〜68と同様な処理であるため、ここ
ではその詳細な説明は省略する。
Steps S84 to S88 are the same as steps S64 to S68 shown in FIG. 16, and a detailed description thereof will be omitted.

【0192】このように、本実施の形態によれば、シス
テム立ち上げ後においても基準値を最適値に自動設定す
ることができるため、例えば、プレゼンテーションの途
中で、使用環境が変わったような場合(例えば、窓の外
が明るくなったり暗くなったりして、ディスプレイ領域
12上の輝度レベルが変化するような場合)、ユーザは
基準値再設定スイッチ132を操作することにより、2
値化処理のための基準値Vrefを、その時の使用環境
に応じた最適な値に自動設定することができる。
As described above, according to the present embodiment, the reference value can be automatically set to the optimum value even after the system is started up. For example, when the use environment changes during the presentation. (For example, when the outside of the window becomes brighter or darker, and the brightness level on the display area 12 changes), the user operates the reference value reset switch 132 to
The reference value Vref for the value conversion process can be automatically set to an optimum value according to the usage environment at that time.

【0193】図18には、図16のステップS64とS
66、及び図17のステップS84とS86の詳細な処
理を説明するための具体的なアルゴリズムが示されてい
る。
FIG. 18 shows steps S64 and S64 in FIG.
66 and a specific algorithm for explaining the detailed processing of steps S84 and S86 in FIG.

【0194】まず、ステップS182で、基準値Vre
fの値をプリセットするか、以前使われていた基準値V
refの値をそのまま使用するかどうかを選択する。
First, in step S182, the reference value Vre
Preset the value of f or use the previously used reference value V
Select whether to use the value of ref as it is.

【0195】前回の使用環境と全く同じか、もしくはそ
れと同等な環境である時には、Noを選択して前回使用
した基準値Vrefを用いればよい。この場合には、基
準値の設定を省略できるため便利である。
When the environment is completely the same as or equivalent to the previous use environment, No may be selected and the reference value Vref used last time may be used. In this case, the setting of the reference value can be omitted, which is convenient.

【0196】一方、ステップS182でYesを選択し
基準値Vrefの値をプリセットする場合には、基準値
を設定する領域の数を指定し(ステップS184)、か
つそのサイズを指定する(ステップS186)。これに
より、図15(A)に示すような領域が決定できる。次
に、ステップS188で、上述した図15(B)に示す
ような校正パターンの種類を選択する。
On the other hand, when Yes is selected in step S182 to preset the value of the reference value Vref, the number of regions for setting the reference value is specified (step S184), and its size is specified (step S186). . Thus, an area as shown in FIG. 15A can be determined. Next, in step S188, the type of the calibration pattern as shown in FIG. 15B is selected.

【0197】次に、各分割エリア毎の輝度データを検出
し(ステップS190)、該検出輝度データと予め記憶
されている輝度データとをステップS192で比較す
る。比較した結果を基に、基準値Vrefの値を所望の
値に制御し(ステップS194)、その値を記憶する
(ステップS196)。次に、ステップ198で、図1
6のステップS64とS66、及び図17のステップS
84とS86の処理を終了する。
Next, luminance data for each divided area is detected (step S190), and the detected luminance data is compared with luminance data stored in advance in step S192. Based on the comparison result, the value of the reference value Vref is controlled to a desired value (step S194), and the value is stored (step S196). Next, in step 198, FIG.
6, steps S64 and S66, and step S of FIG.
The processing of 84 and S86 ends.

【0198】このようにして、本実施の形態によれば、
基準値Vrefを最適な値に自動設定し、撮像信号から
指示画像の影領域300を正確に抽出することが可能と
なる。
As described above, according to the present embodiment,
It is possible to automatically set the reference value Vref to an optimum value, and to accurately extract the shadow area 300 of the designated image from the imaging signal.

【0199】また、本実施の形態では、各領域毎に異な
る基準値を自動設定する場合を例に取り説明したが、必
要に応じ、全領域に対し単一の基準値を自動設定するよ
うに構成してもよい。
Further, in the present embodiment, a case where a different reference value is automatically set for each area has been described as an example. However, if necessary, a single reference value may be automatically set for all areas. You may comprise.

【0200】(5)前記処理部のハードウェアの構成 次に、前記処理部110を実現できるハードウェアの構
成の一例を、図23を用いて説明する。同図に示す装置
では、CPU1000、ROM1002、RAM100
4、情報記憶媒体1006、画像生成IC1010、I
/Oポート1020−1、1020−2…が、システム
バス1016により相互にデータ送受信可能に接続され
ている。そして、I/Oポート1020−1、1020
−2…を介してCCDカメラ14、ファンクションスイ
ッチ140、オペレータ操作部130、プロジェクタ1
50、その他の機器に接続されている。
(5) Hardware Configuration of the Processing Unit Next, an example of a hardware configuration capable of realizing the processing unit 110 will be described with reference to FIG. In the device shown in the figure, a CPU 1000, a ROM 1002, a RAM 100
4, information storage medium 1006, image generation IC 1010, I
Are connected via a system bus 1016 so as to be able to transmit and receive data to and from each other. And I / O ports 1020-1 and 1020
-2,..., CCD camera 14, function switch 140, operator operation unit 130, projector 1
50, connected to other devices.

【0201】情報記憶媒体1006は、プログラム、画
像データ、が主に格納されるものである。
The information storage medium 1006 mainly stores programs and image data.

【0202】情報記憶媒体1006に格納されるプログ
ラム、ROM1002に格納されるプログラム等に従っ
て、CPU1000は装置全体の制御や各種データ処理
を行う。RAM1004はこのCPU1000の作業領
域等として用いられる記憶手段であり、情報記憶媒体1
006やROM1002の所与の内容、あるいはCPU
1000の演算結果等が格納される。また本実施形態を
実現するための論理的な構成を持つデータ構造は、この
RAM又は情報記憶媒体上に構築されることになる。
The CPU 1000 controls the entire apparatus and performs various data processing according to programs stored in the information storage medium 1006, programs stored in the ROM 1002, and the like. The RAM 1004 is storage means used as a work area or the like of the CPU 1000.
006 or given contents of ROM 1002 or CPU
1000 calculation results and the like are stored. A data structure having a logical configuration for realizing the present embodiment is constructed on the RAM or the information storage medium.

【0203】そして図1〜図7、図10、図11、図1
3〜15、で説明した種々の処理は、図8、図9、図1
2、図16〜22のフローチャートに示した処理等を行
うプログラムを格納した情報記憶媒体1006と、該プ
ログラムに従って動作するCPU1000、画像生成I
C1010等によって実現される。なお画像生成IC1
010等で行われる処理は、CPU1000あるいは汎
用のDSP等によりソフトウェア的に行ってもよい。
1 to 7, FIG. 10, FIG. 11, FIG.
The various processes described in 3 to 15 are described in FIGS.
2. an information storage medium 1006 storing a program for performing the processing shown in the flowcharts of FIGS. 16 to 22, a CPU 1000 operating according to the program, and an image generation I
This is realized by C1010 or the like. The image generation IC1
The processing performed in step 010 or the like may be performed by software using the CPU 1000 or a general-purpose DSP.

【0204】なお、本発明は、前述した実施の形態に限
定されるものではなく、本発明の要旨の範囲内で各種の
変形実施が可能である。
[0204] The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the present invention.

【0205】例えば、撮像手段として、画像をカラー画
像として撮像するCCDカメラ等を必要に応じ用いてい
てもよい。
[0205] For example, a CCD camera or the like that captures an image as a color image may be used as the imaging means as necessary.

【0206】また、指示画像の実像領域302の抽出方
法については、上記のような撮像信号に基づく輝度レベ
ルを検出する以外に、プレゼンター30の腕や指示棒4
0の動きから検出しても良い。
As for the method of extracting the real image area 302 of the pointing image, in addition to the detection of the luminance level based on the image pickup signal as described above, the present embodiment uses the arm of the presenter 30 or the pointing rod 4.
It may be detected from the movement of 0.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用されたフロントタイプのプレゼン
テーションシステムの概略説明図である。
FIG. 1 is a schematic explanatory diagram of a front type presentation system to which the present invention is applied.

【図2】本発明が適用されたリアタイプのプレゼンテー
ションシステムの概略説明図で、同図(A)はCCDカ
メラが内蔵されている場合の説明図であり、同図(B)
は外付けされている場合の説明図である。
FIG. 2 is a schematic explanatory diagram of a rear-type presentation system to which the present invention is applied. FIG. 2A is an explanatory diagram in the case where a CCD camera is built in, and FIG.
FIG. 4 is an explanatory diagram in the case where it is attached externally.

【図3】本実施の形態で使用される指示棒の一例を示す
説明図である。
FIG. 3 is an explanatory diagram showing an example of a pointing rod used in the present embodiment.

【図4】同図(A)は、プレゼンテーション動作の説明
図であり、同図(B)はこの時の撮像画像におけるプレ
ゼンター及び指示棒の影、指示棒の実像の説明図であ
る。
FIG. 4A is an explanatory view of a presentation operation, and FIG. 4B is an explanatory view of a shadow of a presenter and a pointing stick and a real image of the pointing stick in a captured image at this time.

【図5】本実施の形態のシステムの機能ブロック図であ
る。
FIG. 5 is a functional block diagram of the system according to the embodiment.

【図6】本実施の形態のシステムの詳細な機能ブロック
図である。
FIG. 6 is a detailed functional block diagram of a system according to the present embodiment.

【図7】CCDカメラの撮像信号から指示ポイントの影
を抽出し、ポインティング位置を検出する処理の説明図
である。
FIG. 7 is an explanatory diagram of a process of extracting a shadow of a designated point from an imaging signal of a CCD camera and detecting a pointing position.

【図8】CCDカメラの撮像信号から指示ポイントの影
を抽出するための具体的な処理の説明図である。
FIG. 8 is an explanatory diagram of a specific process for extracting a shadow of a designated point from an imaging signal of a CCD camera.

【図9】抽出された指示ポイントの影からポインティン
グ位置を検出する具体的な処理の説明図である。
FIG. 9 is an explanatory diagram of specific processing for detecting a pointing position from a shadow of an extracted designated point.

【図10】指示ポイントの影の両端の座標を検出する処
理の説明図である。
FIG. 10 is an explanatory diagram of a process of detecting the coordinates of both ends of the shadow of the designated point.

【図11】ポインティング位置に基づくカーソル表示の
一例を示す説明図で、同図(A)はカーソルが指示棒の
延長線上にある場合の説明図であり、同図(B)はディ
スプレイ領域周辺でのカーソル表示の方法を説明するた
めの説明図である。
FIGS. 11A and 11B are explanatory diagrams showing an example of cursor display based on a pointing position. FIG. 11A is an explanatory diagram in a case where the cursor is on an extension of the pointing rod, and FIG. FIG. 5 is an explanatory diagram for describing a method of displaying a cursor.

【図12】ポインティング位置に基づくカーソル表示の
他の一例を示す説明図で、同図(A)はカーソルの向き
を変更する場合の説明図であり、同図(B)は水平方向
横向きのカーソルを表示する為のアルゴリズムの説明図
である。
12A and 12B are explanatory diagrams showing another example of cursor display based on a pointing position. FIG. 12A is an explanatory diagram in a case where the direction of the cursor is changed, and FIG. 12B is a diagram showing a horizontal cursor. FIG. 5 is an explanatory diagram of an algorithm for displaying.

【図13】本実施の形態におけるシェーディング対策の
一例を示す説明図である。
FIG. 13 is an explanatory diagram showing an example of a countermeasure for shading in the present embodiment.

【図14】撮像信号から指示ポイントの影を抽出するた
めの2値化しきい値Vrefの設定処理の説明図で、同図
(A)は理想状態での説明図あり、同図(B)はディス
プレイ領域内で輝度差がある場合での説明図、同図
(C)は基準値を変更して輝度差を改善した場合の説明
図である。
14A and 14B are explanatory diagrams of a setting process of a binarization threshold value Vref for extracting a shadow of a designated point from an image pickup signal. FIG. 14A is an explanatory diagram in an ideal state, and FIG. FIG. 3C is an explanatory diagram in a case where there is a luminance difference in the display area, and FIG. 3C is an explanatory diagram in a case where the reference value is changed to improve the luminance difference.

【図15】同図(A)は、ディスプレイ領域を複数の領
域に分割し、各領域毎に固有の基準値を設定するための
処理の説明図であり、同図(B)は、前記基準値を設定
する際に使用する較正パターン画像の一例を示す説明図
である。
FIG. 15A is an explanatory diagram of a process for dividing a display region into a plurality of regions and setting a unique reference value for each region; FIG. FIG. 9 is an explanatory diagram illustrating an example of a calibration pattern image used when setting a value.

【図16】システム立ち上げ時における基準値の自動設
定動作のフローチャートである。
FIG. 16 is a flowchart of an operation of automatically setting a reference value when the system is started.

【図17】システム立ち上げ後における、基準値の再設
定動作のフローチャートである。
FIG. 17 is a flowchart of a reference value resetting operation after the system is started.

【図18】本実施の形態における基準値の自動設定動作
の詳細を説明するフローチャートである。
FIG. 18 is a flowchart illustrating details of an operation of automatically setting a reference value in the present embodiment.

【図19】本実施の形態における複数の指示ポイントに
対応したカーソル表示動作の詳細を説明するフローチャ
ートである。
FIG. 19 is a flowchart illustrating details of a cursor display operation corresponding to a plurality of designated points in the present embodiment.

【図20】本実施の形態におけるカーソル位置の固定表
示動作の詳細を説明するフローチャートである。
FIG. 20 is a flowchart illustrating details of a cursor position fixed display operation according to the present embodiment.

【図21】本実施の形態におけるカーソルサイズ変更動
作を説明するフローチャートである。
FIG. 21 is a flowchart illustrating a cursor size changing operation according to the present embodiment.

【図22】本実施の形態におけるCCDカメラの光学制
御部の自動設定動作を説明するためのブロック図とフロ
ーチャートである。
FIG. 22 is a block diagram and a flowchart for explaining an automatic setting operation of the optical control unit of the CCD camera in the present embodiment.

【図23】本実施の形態における処理部のハードウエア
構成の説明図である。
FIG. 23 is an explanatory diagram of a hardware configuration of a processing unit according to the present embodiment.

【符号の説明】[Explanation of symbols]

10 プロジェクタ 10a、14a 偏光板 12 ディスプレイ領域 14 CCDカメラ 20 撮像画像 22 CCDレンズ 24 CCDレンズ調整機構 40 指示棒 42 ポインティング部 110 処理部 112 2値化処理部 114 基準値自動設定部 116 ポインティング座標検出部 118 演算制御部 120 カーソル制御部 124 較正パターン画像生成部 126 レンズ制御プログラム 132 基準値再設定スイッチ 140 ファンクションスイッチ 150 PJ光学制御部 152 PJレンズ 154 PJレンズ調整機構 156 センサー 200 カーソル 202 第一カーソル 204 第二カーソル 230 ディスプレイ領域の右端以外の領域 220 ディスプレイ領域の右端の下側 300 指示画像の影 302 指示画像の実像 304 検出対象 320 低輝度領域 400 2値画像データ 440 ノイズ 450 検出ノイズ 500 較正パターン画像 510 黒領域 512 白領域 DESCRIPTION OF SYMBOLS 10 Projector 10a, 14a Polarizer 12 Display area 14 CCD camera 20 Captured image 22 CCD lens 24 CCD lens adjustment mechanism 40 Pointer 42 Pointing unit 110 Processing unit 112 Binarization processing unit 114 Automatic reference value setting unit 116 Pointing coordinate detecting unit 118 arithmetic control unit 120 cursor control unit 124 calibration pattern image generation unit 126 lens control program 132 reference value reset switch 140 function switch 150 PJ optical control unit 152 PJ lens 154 PJ lens adjustment mechanism 156 sensor 200 cursor 202 first cursor 204 first Two cursor 230 Area other than right end of display area 220 Lower right end of display area 300 Shadow of designated image 302 Real image of designated image 304 Detection pair Elephant 320 Low brightness area 400 Binary image data 440 Noise 450 Detection noise 500 Calibration pattern image 510 Black area 512 White area

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 画像が表示されたディスプレイ領域を撮
像する撮像手段と、 前記撮像されたディスプレイ領域に含まれる指示画像の
画像領域からポインティング位置を検出する位置検出手
段と、 を含むことを特徴とするポインティング位置検出装置。
1. An image pickup means for picking up an image of a display area on which an image is displayed, and a position detecting means for detecting a pointing position from an image area of an instruction image included in the picked up display area. Pointing position detection device.
【請求項2】 請求項1において、 前記位置検出手段は、 前記ディスプレイ領域に含まれる指示画像の影領域の所
定位置をポインティング位置として検出することを特徴
とするポインティング位置検出装置。
2. The pointing position detection device according to claim 1, wherein the position detection unit detects a predetermined position of a shadow area of the pointing image included in the display area as a pointing position.
【請求項3】 請求項1において、 前記位置検出手段は、 前記ディスプレイ領域に含まれる指示画像の実像領域の
所定位置をポインティング位置として検出することを特
徴とするポインティング位置検出装置。
3. The pointing position detecting device according to claim 1, wherein the position detecting means detects a predetermined position of a real image area of the pointing image included in the display area as a pointing position.
【請求項4】 請求項1〜3のいずれかにおいて、 前記位置検出手段は、 前記ディスプレイ領域に含まれる棒状の指示画像の画像
領域からポインティング位置を検出することを特徴とす
るプレゼンテーションシステム。
4. The presentation system according to claim 1, wherein the position detection unit detects a pointing position from an image area of a bar-shaped pointing image included in the display area.
【請求項5】 請求項1〜4のいずれかにおいて、 前記位置検出手段は、 前記ディスプレイ領域に含まれる画像領域の連続性から
棒状の画像領域を指示画像の画像領域として捉え、その
先端位置をポインティング位置として検出することを特
徴とするポインティング位置検出装置。
5. The method according to claim 1, wherein the position detection unit captures a bar-shaped image region as an image region of the pointing image from the continuity of the image region included in the display region, and determines a position of a tip end thereof. A pointing position detecting device for detecting a pointing position.
【請求項6】 画像を表示する画像表示手段と、 画像が表示されたディスプレイ領域を撮像する撮像手段
と、 前記撮像されたディスプレイ領域に含まれる指示画像の
画像領域からポインティング位置を検出する位置検出手
段と、 検出された前記ポインティング位置に基づき、前記画像
表示手段により表示される画像に含まれるカーソルの位
置制御を行うカーソル制御手段と、 を含むことを特徴とするプレゼンテーションシステム。
6. An image display means for displaying an image, an image pickup means for taking an image of a display area on which an image is displayed, and a position detection for detecting a pointing position from an image area of a designated image included in the taken display area. And a cursor control means for controlling a position of a cursor included in an image displayed by the image display means based on the detected pointing position.
【請求項7】 請求項6において、 前記位置検出手段は、 前記ディスプレイ領域に含まれる指示画像の影領域の所
定位置をポインティング位置として検出することを特徴
とするプレゼンテーションシステム。
7. The presentation system according to claim 6, wherein the position detecting means detects a predetermined position of a shadow area of the pointing image included in the display area as a pointing position.
【請求項8】 請求項6において、 前記位置検出手段は、 前記ディスプレイ領域に含まれる指示画像の実像領域の
所定位置をポインティング位置として検出することを特
徴とするプレゼンテーションシステム。
8. The presentation system according to claim 6, wherein the position detecting means detects a predetermined position of a real image area of the pointing image included in the display area as a pointing position.
【請求項9】 請求項6〜8のいずれかにおいて、 前記位置検出手段は、 前記ディスプレイ領域に含まれる棒状の指示画像の画像
領域からポインティング位置を検出することを特徴とす
るプレゼンテーションシステム。
9. The presentation system according to claim 6, wherein the position detection unit detects a pointing position from an image area of a bar-shaped pointing image included in the display area.
【請求項10】 請求項6〜9において、 前記位置検出手段は、 前記ディスプレイ領域に含まれる画像領域の連続性から
棒状の画像領域を指示画像の画像領域として捉え、その
先位置をポインティング位置として検出することを特徴
とするプレゼンテーションシステム。
10. The position detection unit according to claim 6, wherein the position detection unit captures a rod-shaped image region as an image region of the pointing image from the continuity of the image region included in the display region, and sets a preceding position as a pointing position. A presentation system characterized by detecting.
【請求項11】 請求項6において、 前記カーソル制御手段は、 前記ディスプレイ領域内に複数のカーソルを同時に表示
し、かつ各々のカーソル位置を独立に制御することを特
徴とするプレゼンテーションシステム。
11. The presentation system according to claim 6, wherein said cursor control means simultaneously displays a plurality of cursors in said display area and independently controls the position of each cursor.
【請求項12】 請求項6、11のいずれかにおいて、 前記カーソル制御手段は、 前記指示画像の画像領域と重ならない位置で、かつ検出
されたポインティング位置を指示するようにカーソルの
位置制御を行うことを特徴とするプレゼンテーションシ
ステム。
12. The cursor control unit according to claim 6, wherein the cursor control unit performs cursor position control so as to indicate a detected pointing position at a position that does not overlap an image area of the pointing image. A presentation system characterized by the following.
【請求項13】 請求項6,11、12のいずれかにお
いて、 前記カーソル制御手段は、 棒状の前記指示画像の画像領域の先端の大きさに応じ
て、表示するカーソルの大きさを制御することを特徴と
するプレゼンテーションシステム。
13. The cursor control unit according to claim 6, wherein the cursor control unit controls a size of a cursor to be displayed according to a size of a tip of an image area of the bar-shaped instruction image. Presentation system characterized by the following.
【請求項14】 請求項6、11〜13のいずれかにお
いて、 前記カーソル制御手段は、 前記カーソルを前記ディスプレイ領域内の所望の位置に
固定表示させるための位置固定手段を含むことを特徴と
するプレゼンテーションシステム。
14. The cursor control device according to claim 6, wherein the cursor control device includes a position fixing device for fixing and displaying the cursor at a desired position in the display area. Presentation system.
【請求項15】 請求項1〜14のいずれかにおいて、 前記ディスプレイ領域を有するスクリーンを含み、 前記画像表示手段は、前記ディスプレイ領域に画像を投
射する画像投射手段から成り、 前記撮像手段の光学手段は、前記画像投射手段の光学手
段に連動して撮像条件を制御することを特徴とするプレ
ゼンテーションシステム。
15. The imaging device according to claim 1, further comprising a screen having the display area, wherein the image display means comprises image projection means for projecting an image on the display area, and the optical means of the imaging means. Is a system for controlling imaging conditions in conjunction with optical means of said image projection means.
【請求項16】 請求項1〜15のいずれかにおいて、 前記ディスプレイ領域を有するスクリーンを含み、 前記画像投射手段は、 前記スクリーンの前方又は後方から画像を投射するよう
に配置されたことを特徴とするプレゼンテーションシス
テム。
16. The display device according to claim 1, further comprising a screen having the display area, wherein the image projection unit is arranged to project an image from the front or the rear of the screen. Presentation system.
【請求項17】 ディスプレイ領域の撮像信号に基づ
き、前記ディスプレイ領域に含まれる指示画像の画像領
域の所定位置をポインティング位置として検出するため
の情報と、 検出された前記ポインティング位置に基づき、画像表示
手段が表示する画像に含まれるカーソルの位置制御を行
うための情報と、 を記憶したコンピュータ読みとり可能な情報記憶媒体。
17. An image display means based on information for detecting a predetermined position of an image area of an instruction image included in the display area as a pointing position based on an image pickup signal of the display area, and based on the detected pointing position. And a computer-readable information storage medium storing information for controlling the position of a cursor included in an image displayed by the computer.
【請求項18】 請求項17において、 前記位置検出のための情報は、 前記ディスプレイ領域に含まれる棒状の指示画像の画像
領域からプレゼンターのポインティング位置を検出する
情報を含むことを特徴とする情報記憶媒体。
18. The information storage according to claim 17, wherein the information for position detection includes information for detecting a pointing position of a presenter from an image area of a bar-shaped pointing image included in the display area. Medium.
【請求項19】 請求項17において、 前記位置検出のための情報は、 前記ディスプレイ領域に含まれる画像領域の連続性から
棒状の画像領域を指示画像の画像領域として捉え、その
先端位置をポインティング位置として検出する情報を含
むことを特徴とする情報記憶媒体。
19. The information according to claim 17, wherein the information for position detection is such that a rod-shaped image area is regarded as an image area of the pointing image from the continuity of the image area included in the display area, and a tip position thereof is a pointing position. An information storage medium characterized by including information to be detected as an information.
【請求項20】 請求項17において、 前記カーソル制御を行うための情報は、 前記ディスプレイ領域内に複数のカーソルを同時に表示
し、かつ各々のカーソルの位置を独立に制御する情報を
含むことを特徴とする情報記憶媒体。
20. The information processing apparatus according to claim 17, wherein the information for controlling the cursor includes information for simultaneously displaying a plurality of cursors in the display area and independently controlling the position of each cursor. Information storage medium.
【請求項21】 請求項17、20のいずれかにおい
て、 前記カーソルの制御を行うための情報は、前記指示画像
の画像領域と重ならない位置で、かつ検出されたポイン
ティング位置を指示するようにカーソルの位置制御を行
う情報を含むことを特徴とする情報記憶媒体。
21. The cursor according to claim 17, wherein the information for controlling the cursor is a position that does not overlap with the image area of the pointing image and that indicates a detected pointing position. An information storage medium containing information for controlling the position of the information storage medium.
【請求項22】 請求項17、20、21のいずれかに
おいて、 前記カーソル制御を行うための情報は、 棒状の前記指示画像の画像領域の先端の大きさに応じ
て、表示するカーソルの大きさを制御するための情報を
含むことを特徴とする情報記憶媒体。
22. The cursor according to claim 17, wherein the information for controlling the cursor is a size of a cursor to be displayed according to a size of a tip of an image area of the bar-shaped pointing image. An information storage medium including information for controlling the information storage.
【請求項23】 請求項17、20〜22のいずれかに
おいて、 前記カーソル制御を行うための情報は、 前記カーソルを前記ディスプレイ領域内の所望の位置に
固定表示させるための位置固定情報を含むことを特徴と
する情報記憶媒体。
23. The information according to claim 17, wherein the information for controlling the cursor includes position fixing information for fixing and displaying the cursor at a desired position in the display area. An information storage medium characterized by the following.
【請求項24】 請求項17〜23のいずれかにおい
て、 前記撮像手段の光学手段の制御を行うための情報は、 前記ディスプレイ領域に画像を投射する画像投射手段を
構成する光学手段に連動して撮像条件を制御するための
情報を含むことを特徴とする情報記憶媒体。
24. The information processing apparatus according to claim 17, wherein the information for controlling the optical unit of the imaging unit is linked to an optical unit constituting an image projecting unit that projects an image on the display area. An information storage medium including information for controlling an imaging condition.
【請求項25】 画像が表示されたディスプレイ領域を
撮像する撮像工程と、 前記撮像されたディスプレイ領域に含まれる指示画像の
画像領域からポインティング位置を検出する位置検出工
程と、 を含むことを特徴とするポインティング位置検出方法。
25. An imaging step of imaging a display area on which an image is displayed, and a position detection step of detecting a pointing position from an image area of an instruction image included in the imaged display area. Pointing position detection method.
【請求項26】 画像を表示する画像表示工程と、 画像が表示されたディスプレイ領域を撮像する撮像工程
と、 前記撮像されたディスプレイ領域に含まれる指示画像の
画像領域からポインティング位置を検出する位置検出処
理工程と、 検出された前記ポインティング位置に基づき、前記画像
表示手段により表示される画像に含まれるカーソルの位
置制御を行うカーソル制御工程と、 を含むことを特徴とするカーソル位置制御方法。
26. An image display step of displaying an image, an imaging step of capturing an image of a display area on which the image is displayed, and a position detection of detecting a pointing position from an image area of a pointing image included in the captured display area. A cursor position control method, comprising: a processing step; and a cursor control step of controlling a position of a cursor included in an image displayed by the image display means based on the detected pointing position.
JP8902699A 1998-03-31 1999-03-30 Pointing position detecting device and method, cursor position control method, presentation system and information storage medium Withdrawn JPH11345086A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8902699A JPH11345086A (en) 1998-03-31 1999-03-30 Pointing position detecting device and method, cursor position control method, presentation system and information storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10384298 1998-03-31
JP10-103842 1998-03-31
JP8902699A JPH11345086A (en) 1998-03-31 1999-03-30 Pointing position detecting device and method, cursor position control method, presentation system and information storage medium

Publications (1)

Publication Number Publication Date
JPH11345086A true JPH11345086A (en) 1999-12-14

Family

ID=26430470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8902699A Withdrawn JPH11345086A (en) 1998-03-31 1999-03-30 Pointing position detecting device and method, cursor position control method, presentation system and information storage medium

Country Status (1)

Country Link
JP (1) JPH11345086A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6641269B2 (en) 2000-03-24 2003-11-04 Seiko Epson Corporation Indicated position detection by multiple resolution image analysis
US6829394B2 (en) 2000-02-22 2004-12-07 Seiko Epson Corporation System and method of pointed position detection, presentation system, and program
JP2005242603A (en) * 2004-02-26 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for detecting screen display area
JP2005339444A (en) * 2004-05-31 2005-12-08 Toshiba Matsushita Display Technology Co Ltd Display device
JP2007025295A (en) * 2005-07-15 2007-02-01 Nec Viewtechnology Ltd Projection type display apparatus
JP2012113736A (en) * 2007-02-15 2012-06-14 Qualcomm Inc Input using flashing electromagnetic radiation
US9513720B2 (en) 2012-08-30 2016-12-06 Panasonic Intellectual Property Corporation Of America Stylus detecting device and stylus detecting method
US9841847B2 (en) 2014-12-25 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829394B2 (en) 2000-02-22 2004-12-07 Seiko Epson Corporation System and method of pointed position detection, presentation system, and program
US6641269B2 (en) 2000-03-24 2003-11-04 Seiko Epson Corporation Indicated position detection by multiple resolution image analysis
JP2005242603A (en) * 2004-02-26 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for detecting screen display area
JP2005339444A (en) * 2004-05-31 2005-12-08 Toshiba Matsushita Display Technology Co Ltd Display device
JP2007025295A (en) * 2005-07-15 2007-02-01 Nec Viewtechnology Ltd Projection type display apparatus
JP4502896B2 (en) * 2005-07-15 2010-07-14 Necディスプレイソリューションズ株式会社 Projection display
JP2012113736A (en) * 2007-02-15 2012-06-14 Qualcomm Inc Input using flashing electromagnetic radiation
US8818040B2 (en) 2007-02-15 2014-08-26 Qualcomm Incorporated Enhanced input using flashing electromagnetic radiation
US9513720B2 (en) 2012-08-30 2016-12-06 Panasonic Intellectual Property Corporation Of America Stylus detecting device and stylus detecting method
US9841847B2 (en) 2014-12-25 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position

Similar Documents

Publication Publication Date Title
EP0947948B1 (en) Pointing position detection device, presentation system and method
US10191594B2 (en) Projection-type video display device
JP3640156B2 (en) Pointed position detection system and method, presentation system, and information storage medium
JP3821194B2 (en) Pointing position detecting device and method, presentation system, information storage medium
US6788289B2 (en) System and method of pointed position detection system, projector and program
JP5680976B2 (en) Electronic blackboard system and program
JP4768143B2 (en) Information input / output device, information input / output control method, and program
JPH11345087A (en) Presentation system and position detecting method
US20050168448A1 (en) Interactive touch-screen using infrared illuminators
US20030210229A1 (en) Presentation system, material presenting device, and photographing device for presentation
JP2005353071A (en) Pointing input system and method using array sensors
JP2011043876A (en) Image display device
JP2012053584A (en) Information display system and program
JP2012185631A (en) Projection device
JPH11345086A (en) Pointing position detecting device and method, cursor position control method, presentation system and information storage medium
US20110095989A1 (en) Interactive input system and bezel therefor
JP2000276297A (en) Device and method for detecting pointing position, presentation system, and information storage medium
US10410323B2 (en) Display apparatus, information processing apparatus, and information processing method for displaying a second image that includes options for manipulating a first image
JP2002116878A (en) Picture generation system and presentation system and information storage medium
JP6314177B2 (en) Projection-type image display device
JP2020160808A (en) Position detection method, position detection device, and interactive projector
JP2017227972A (en) Projection imaging system and projection imaging method
JP2005339269A (en) Image display device
JP2000056925A (en) Device for changing data on screen in presentation system
JP2023183998A (en) Display method and display system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606