JP2000200149A - Display system, pointing control method and recording medium - Google Patents

Display system, pointing control method and recording medium

Info

Publication number
JP2000200149A
JP2000200149A JP43299A JP43299A JP2000200149A JP 2000200149 A JP2000200149 A JP 2000200149A JP 43299 A JP43299 A JP 43299A JP 43299 A JP43299 A JP 43299A JP 2000200149 A JP2000200149 A JP 2000200149A
Authority
JP
Japan
Prior art keywords
image
display system
computer
screen
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP43299A
Other languages
Japanese (ja)
Inventor
Sachiyuki Koyama
幸行 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP43299A priority Critical patent/JP2000200149A/en
Publication of JP2000200149A publication Critical patent/JP2000200149A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an interactive presentation environment just by adding an image pickup device by fetching the image of a correction pattern projected from a projector onto a screen to a computer and executing an image processing to the fetched image. SOLUTION: This system is provided with a means for projecting and displaying the output image of the computer onto the screen, a fetch means for fetching a projected image displayed on the screen to the computer by the image pickup device and the means for fetching a pattern for correction projected on the screen to the computer by the fetch means and performing correction work by using the fetched image. The system is provided with a computer main body 20, the image pickup device 14, the projector 16 and the screen 10, etc. Then, by an image processing routine operated inside the computer main body 20 to image data transferred to a RAM, the image processing for performing a tip detection processing by a pointing address calculation program is executed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、コンピュータ、
プロジェクター、スクリーンおよび撮像装置を用いた表
示システム、およびポインティング制御方法、並びに、
そのための撮像装置の取り込み条件設定、画像処理、ポ
インティングアドレス計算を行うためのコンピュータプ
ログラムを記録した記録媒体に関する。
The present invention relates to a computer,
Projector, display system using screen and imaging device, and pointing control method, and
The present invention relates to a recording medium on which a computer program for performing setting of capture conditions of an imaging device, image processing, and calculation of a pointing address for that purpose is recorded.

【0002】[0002]

【従来の技術】一般に、プロジェクターをコンピュータ
につないで、コンピュータで作成したデータをプロジェ
クターを用いてホワイトボードあるいはスクリーンに投
射しプレゼンテーションを行う時、投射している映像に
対して差し棒等を用いて指し示した個所にマウスポイン
タを移動したり、ホワイトボード上に手書きにより入力
された文字情報、あるいは、アンダーラインなどのプロ
ジェクターからの投射情報の要点を示す情報をコンピュ
ータが取り込む際には、スクリーンの周囲に何らかの光
学系を設置したり、あるいは、スクリーンおよびホワイ
トボード上に抵抗膜やインダクタンスなどを内蔵したス
クリーン等の特殊なハードウェアを用いて行われる。
2. Description of the Related Art Generally, when a projector is connected to a computer and data created by the computer is projected on a whiteboard or a screen using the projector and a presentation is made, a projected image is projected using a stick or the like. When the computer moves the mouse pointer to the pointed position, or the character information entered by handwriting on the whiteboard, or the computer captures the information indicating the gist of the projection information from the projector, such as underlining, the area around the screen This is done by installing some kind of optical system on the screen, or by using special hardware such as a screen having a built-in resistive film or inductance on a screen or a white board.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、前記従
来の技術でも、ポインティングおよび手書き入力情報の
取り込みは行うことができるが、例えば、手書き入力の
際に用いるペンのペン先付近に光学系がペンの種類を判
断できるようなパターンを印刷したペンを用いたり、あ
るいは抵抗膜やインダクタンスを内蔵したスクリーンあ
るいはホワイトボードを用いるため、通常のスクリーン
やホワイトボード、通常のホワイトボード書き込み用ペ
ンが利用できなかった。したがって、従来の技術では、
通常のスクリーンあるいは通常のホワイトボードを用い
たインタラクティブプレゼンテーションを行うことが事
実上不可能であった。
However, in the above-mentioned conventional technique, pointing and handwriting input information can be captured. For example, an optical system is provided near the pen tip of a pen used for handwriting input. Since a pen printed with a pattern that can determine the type is used, or a screen or whiteboard with a built-in resistive film or inductance is used, a normal screen, whiteboard, or a normal whiteboard writing pen could not be used . Therefore, in the prior art,
It was virtually impossible to make an interactive presentation using a normal screen or a normal whiteboard.

【0004】この発明は、従来技術における上述の課題
を解決するものであり、従来からあるスクリーンおよび
ホワイトボード、コンピュータ、プロジェクターに、撮
像装置を追加するだけで、インタラクティブプレゼンテ
ーション環境を実現することを目的とする。
An object of the present invention is to solve the above-mentioned problems in the prior art, and to realize an interactive presentation environment simply by adding an imaging device to a conventional screen, whiteboard, computer, and projector. And

【0005】[0005]

【課題を解決するための手段】このような課題を解決す
るため、第1の発明は、コンピュータの出力画像をスク
リーン上に投射し表示させる表示手段と、前記スクリー
ン上に表示される投射像を撮像装置により前記コンピュ
ータに取り込む取込手段と、前記スクリーン上に投射さ
れた校正用パターンを前記取込手段により前記コンピュ
ータに取り込み、取り込んだ画像を用いて校正作業を行
う校正手段と、を備えることを特徴とする。
According to a first aspect of the present invention, there is provided a display device for projecting an image output from a computer onto a screen and displaying the image on the screen, and displaying a projected image displayed on the screen. Capturing means for capturing into the computer by an imaging device; and calibrating means for capturing the calibration pattern projected on the screen by the capturing means into the computer, and performing calibration using the captured image. It is characterized by.

【0006】この構成によれば、プロジェクターからス
クリーン上に投射された校正パターンの画像をコンピュ
ータに取り込み、取り込んだ画像に対し二値化、パター
ン抽出といった画像処理を施すことで、自動的に校正作
業が行われる。
According to this configuration, the image of the calibration pattern projected on the screen from the projector is taken into the computer, and the taken image is subjected to image processing such as binarization and pattern extraction, thereby automatically performing calibration work. Is performed.

【0007】また、本発明は、前記校正手段は、取り込
んだ画像を二値化する際に、該画像を複数の領域に分け
て、該領域ごとに閾値を設定し二値化を行う処理を含む
ことを特徴とする。
In the present invention, when the calibration means binarizes the captured image, the calibration means divides the image into a plurality of regions, sets a threshold value for each region, and performs binarization. It is characterized by including.

【0008】この構成によれば、取り込み画像を二値化
する際に、画像全体に対して同一の閾値を用いて二値化
を行うよりも、取り込み画像を複数の領域に分割し二値
化することにより、表示したパターンが正確に二値化さ
れ正しく校正作業を行うことができる。
According to this configuration, when the captured image is binarized, the captured image is divided into a plurality of regions and binarized rather than performing binarization using the same threshold value for the entire image. By doing so, the displayed pattern can be accurately binarized, and correct calibration can be performed.

【0009】さらに、前記校正手段は、取り込んだ画像
から前記表示手段の投射領域を抽出する処理を含むこと
を特徴とする。
Further, the calibration means includes a process for extracting a projection area of the display means from the captured image.

【0010】この構成によれば、全取り込みから実際に
作業を行う領域を抽出することにより作業領域が縮小さ
れ、処理の高速化が可能となる。
[0010] According to this configuration, the work area is reduced by extracting the area where the work is actually performed from the entire capture, and the processing can be speeded up.

【0011】さらには、前記撮像装置は、校正作業終了
後は、当該撮像装置の焦点、絞りおよびゲインを固定す
ることを特徴とする。
Further, the image pickup apparatus is characterized in that after completion of the calibration work, the focus, aperture and gain of the image pickup apparatus are fixed.

【0012】この構成によれば、校正終了後の取り込み
画像中の投射像の位置が安定して得られる。例えば、前
記撮像装置が自動焦点制御機能および自動絞り制御機能
を有する場合に、校正作業終了後、これらの機能を有効
にした状態で使用を続けると、スクリーン前方に人およ
び何らかの物体が通過した場合、これらの機能により撮
像装置の焦点および絞りが制御され、この結果スクリー
ン上の像がぼやけ、投射像が安定して得られなくなると
いう問題が生じるが、本発明によれば、前述のように、
校正終了後の取り込み画像中の投射像の位置を安定して
得ることができる。
According to this configuration, the position of the projected image in the captured image after the calibration is completed can be obtained stably. For example, if the image pickup apparatus has an automatic focus control function and an automatic aperture control function, after the calibration operation is completed, if these functions are enabled and continued to be used, if a person or any object passes in front of the screen, The focus and aperture of the imaging device are controlled by these functions. As a result, a problem occurs in that the image on the screen is blurred, and a projected image cannot be stably obtained. According to the present invention, as described above,
The position of the projection image in the captured image after the calibration is completed can be obtained stably.

【0013】また、本発明によれば、前記校正手段は、
取り込んだ画像から前記校正用パターンを抽出する際
に、領域を複数に分けて、領域ごとに前記校正用パター
ンを抽出することを特徴とする。
Further, according to the present invention, the calibration means includes:
When the calibration pattern is extracted from the captured image, a region is divided into a plurality of regions, and the calibration pattern is extracted for each region.

【0014】この構成によれば、コンピュータに取り込
まれた校正用画像から、校正用パターンを抽出する方法
が簡便化され、高速かつ正確に校正作業が行うことがで
きる。
According to this configuration, the method of extracting the calibration pattern from the calibration image taken into the computer is simplified, and the calibration operation can be performed quickly and accurately.

【0015】また、第2の発明は、プロジェクターを用
いてコンピュータの出力画像をスクリーン上に投射し表
示させる表示手段と、前記スクリーン上に表示される前
記プロジェクターからの投射像を撮像装置により前記コ
ンピュータに取り込む取込手段と、前記取込手段により
取り込んだ画像に対してフレーム間の差分像を計算し、
さらにその画像を二値化し二値化差分像を生成する画像
生成手段と、前記二値化差分像中に何らかの指示手段で
指し示された個所があれば、前記二値化差分像を用いて
その個所を検出する検出手段とを備えることを特徴とす
る。
According to a second aspect of the present invention, there is provided a display means for projecting an output image of a computer on a screen by using a projector and displaying the image, and an imaging device for projecting an image from the projector displayed on the screen by the imaging device. Calculating a difference image between frames for the image captured by the capturing means,
Further, an image generating means for binarizing the image to generate a binarized difference image, and if there is a point indicated by some instruction means in the binarized difference image, using the binarized difference image And a detecting means for detecting the location.

【0016】この構成によれば、スクリーン上の投射像
に対し、人の指、差し棒、あるいは、レーザポインタ等
で指し示した映像を撮像素子によって取り込むことによ
り、スクリーン上の情報が画像情報としてコンピュータ
に取り込まれ、その取り込まれた画像情報をコンピュー
タによって処理することで、指し示された箇所が特定で
きる。したがって、スクリーンに抵抗膜やインダクタン
スを内蔵することなく、プロジェクターからスクリーン
上に投射された投射像に対し、人の指、差し棒、あるい
は、レーザポインタ等で指し示した箇所を特定すること
ができる。
According to this configuration, an image pointed by a human finger, a stick, a laser pointer, or the like is captured by the image pickup device with respect to the projected image on the screen, so that the information on the screen is converted into image information by the computer. The captured image information is processed by a computer, so that the pointed location can be specified. Therefore, it is possible to specify a portion pointed by a human finger, a stick, a laser pointer, or the like with respect to a projection image projected from the projector onto the screen without incorporating a resistive film or an inductance in the screen.

【0017】また、本発明は、上記第2の発明におい
て、前記撮像装置は、画像を取り込む際に、当該撮像装
置の焦点、絞りおよびゲインを固定することを特徴とす
る。
Further, according to the second aspect of the present invention, when the image pickup device captures an image, the image pickup device fixes the focus, the aperture, and the gain of the image pickup device.

【0018】この構成によれば、焦点および絞りを常に
スクリーン上の像を撮像するための状態になっているた
め、スクリーン上の像を安定して得ることができる。
According to this configuration, since the focus and the aperture are always in a state for capturing an image on the screen, an image on the screen can be stably obtained.

【0019】さらに、本発明は、前記画像生成手段は、
差分像を二値化する際に、差分像を計算する際に用いた
2つの元画像から各画素に対する閾値を設定し、画像を
二値化する処理を含むことを特徴とする。
Further, according to the present invention, the image generating means includes:
When binarizing the difference image, the method includes a process of setting a threshold value for each pixel from the two original images used for calculating the difference image and binarizing the image.

【0020】この構成によれば、通常、差分像に対して
一つの閾値を用いて二値化を行なうと、安定した二値化
差分像が得られないが、背景が変化しても安定した差分
像を得ることができる。
According to this configuration, normally, when binarization is performed on a differential image using one threshold value, a stable binary differential image cannot be obtained. A difference image can be obtained.

【0021】さらには、本発明は、前記検出手段は、矩
形上にスキャン領域を設定し、設定された該スキャン領
域の四辺の内側の近傍に存在する点の数を比較し、最も
点の数が多い辺をスキャン開始位置とし、スキャン開始
位置から領域の内側に向かって順次スキャンを行い、ス
キャンした線と以前にスキャンした線上に存在する点と
の距離を比較し、有効な点と判定された点のみを抽出し
先端検出を行い、先端が検出された結果と、一つ前の先
端検出時に検出された検出結果とを比較して、検出結果
を決定する処理を含むことを特徴とする。
Further, according to the present invention, the detecting means sets a scan area on a rectangle, compares the number of points near the inside of the four sides of the set scan area, and determines the most The side with the largest number is set as the scan start position, scanning is performed sequentially from the scan start position toward the inside of the area, the distance between the scanned line and the point existing on the previously scanned line is compared, and it is determined that it is a valid point. Extracting only the detected points and detecting the tip, comparing the result of the detected tip with the detection result detected at the time of the preceding tip detection, and determining the detection result. .

【0022】この構成によれば、無駄な点情報は取り除
かれるため、先端の検出精度および検出速度が向上す
る。
According to this configuration, since unnecessary point information is removed, the detection accuracy and the detection speed of the leading end are improved.

【0023】また、本発明は、前記検出手段は、前回の
先端検出時に先端が検出された場合には、先端検出の際
の先端検出領域を前回の先端検出時に検出された場所の
周辺のみとする処置を含むことを特徴とする。
Further, according to the present invention, when the tip is detected at the time of the previous tip detection, the detecting means sets the tip detection area at the time of the tip detection only to the vicinity of the location detected at the time of the previous tip detection. It is characterized by including a treatment to perform.

【0024】この構成によれば、通常、スクリーン上の
物体を何らかの指示手段で指し示している時には、その
指し示している位置を大きく動かすことは少ないので、
先端が検出されている時に、次回の先端検出の際のスキ
ャン領域を検出された先端の周囲のみに限定することに
より、先端の検出精度および検出速度が向上する。
According to this configuration, normally, when an object on the screen is pointed by some pointing means, the pointed position is rarely greatly moved.
When the leading edge is detected, by limiting the scan area for the next leading edge detection to only around the detected leading edge, the leading edge detection accuracy and the detection speed are improved.

【0025】さらに、本発明は、前記検出手段は、先端
が検出されている状態と先端が検出されていない状態と
で異なる先端検出後の処理方法を有し、その先端が検出
されているか否かの判断は前回までの先端検出の結果に
より行われる処理を含むことを特徴とする。
Further, in the present invention, the detecting means has a processing method after the detection of the front end which differs depending on whether the front end is detected or not, and whether the front end is detected. The determination is characterized by including a process performed based on the result of the previous tip detection.

【0026】この構成によれば、先端が検出されていな
い状態の時には常にプロジェクター投射像領域全体をス
キャン領域として設定し、先端が検出されている状態の
時に、ある時点で先端検出に失敗しても、前回の検出結
果、先端が検出されていれば、その結果からスキャン領
域を設定し、あるいは検出失敗が連続して起こるようで
あれば、先端が画面上に存在しないと判断し、先端が検
出されていない状態に移行し、スキャン領域を画面全体
に設定するといったように、その状態により適切な先端
検出領域を設定することで、先端の検出精度が向上す
る。
According to this configuration, the entire projected image area of the projector is always set as the scan area when the leading end is not detected, and when the leading end is detected, the leading end detection fails at some point. Also, if the tip is detected as a result of the previous detection, a scan area is set from the result, or if detection failures occur continuously, it is determined that the tip does not exist on the screen, and By shifting to a non-detected state and setting an appropriate tip detection area depending on the state, such as setting a scan area on the entire screen, the tip detection accuracy is improved.

【0027】また、第3の発明は、コンピュータ、プロ
ジェクター、スクリーン、および、撮像装置からなる表
示システムにおけるポインティング制御方法であって、
(a)前記撮像装置の画像取り込み条件を設定する工程
と、(b)前記工程(a)によって設定が完了した撮像
装置から取り込んだ画像に対し画像処理を行う工程と、
(c)前記工程(b)によって画像処理が施された画像
に対し、ポインティングアドレスを計算する工程とを備
えるものである。
A third invention is a pointing control method in a display system including a computer, a projector, a screen, and an imaging device,
(A) a step of setting an image capturing condition of the image capturing apparatus; and (b) a step of performing image processing on an image captured from the image capturing apparatus that has been set in the step (a).
(C) calculating a pointing address for the image subjected to the image processing in the step (b).

【0028】第3の発明によっても、第1の発明および
第2の発明と同様に、プロジェクターからスクリーン上
に投射された校正画像をコンピュータに取り込み、取り
込んだ画像に対し二値化、パターン抽出といった画像処
理を施すことで、自動的に校正作業が行われ、また、プ
ロジェクターからスクリーン上に投射された投射像に対
し、何らかの指示手段により指し示された箇所を特定す
ることができる。
According to the third aspect of the invention, similarly to the first and second aspects of the invention, a calibration image projected from a projector onto a screen is taken into a computer, and the taken image is subjected to binarization and pattern extraction. By performing the image processing, the calibration work is automatically performed, and a portion pointed by some instruction means can be specified with respect to the projection image projected from the projector onto the screen.

【0029】さらに、第4の発明は、プロジェクター、
コンピュータ、スクリーン、および撮像装置を用いた表
示システムにおけるポインティング制御のためのコンピ
ュータプログラムを記録した記録媒体であって、(a)
前記撮像装置の画像取り込み条件を設定する工程と、
(b)前記工程(a)によって設定が完了した撮像装置
から取り込んだ画像に対し画像処理を行う工程と、
(c)前記工程(b)によって画像処理が施された画像
に対し、ポインティングアドレスを計算する工程とをコ
ンピュータに実行させるためのコンピュータプログラム
を記録した記録媒体である。
Further, a fourth invention is a projector,
A recording medium recording a computer program for pointing control in a display system using a computer, a screen, and an imaging device, comprising:
Setting an image capture condition of the imaging device;
(B) performing image processing on an image captured from the imaging device whose settings have been completed in step (a);
And (c) a step of calculating a pointing address for the image that has been subjected to the image processing in the step (b).

【0030】第4の発明によっても、第1の発明および
第2の発明と同様に、プロジェクターからスクリーン上
に投射された校正画像をコンピュータに取り込み、取り
込んだ画像に対し二値化、パターン抽出といった画像処
理を施すことで、自動的に校正作業が行われ、また、プ
ロジェクターからスクリーン上に投射された投射像に対
し、何らかの指示手段により指し示された箇所を特定す
ることができる。
According to the fourth invention, as in the first invention and the second invention, a calibration image projected from a projector onto a screen is taken into a computer, and the taken image is subjected to binarization and pattern extraction. By performing the image processing, the calibration work is automatically performed, and a portion pointed by some instruction means can be specified with respect to the projection image projected from the projector onto the screen.

【0031】[0031]

【発明の実施の形態】以上説明したこの発明の構成・作
用を一層明らかにするために、以下この発明の実施の形
態を実施例に基づき説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to further clarify the configuration and operation of the present invention described above, embodiments of the present invention will be described below based on examples.

【0032】図1は、この発明の一実施例を適用するシ
ステムの外観図である。このシステムは、コンピュータ
本体20と、周辺機器としてのCRTディスプレイ18
およびキーボード22、マウス24、撮像装置14、液
晶プロジェクター16、スクリーン10を備える。な
お、このコンピュータには、フロッピーディスクの内容
を読み取るフロッピーディスクドライブ28が搭載され
ている。
FIG. 1 is an external view of a system to which one embodiment of the present invention is applied. This system comprises a computer body 20 and a CRT display 18 as a peripheral device.
And a keyboard 22, a mouse 24, an imaging device 14, a liquid crystal projector 16, and a screen 10. The computer is equipped with a floppy disk drive 28 for reading the contents of a floppy disk.

【0033】図2は、コンピュータシステムのハードウ
ェアの概略構成を示すブロック図である。図示するよう
に、このコンピュータ本体20は、中央演算処理装置と
してのCPU40を中心にバスにより相互に接続された
RAM42、ROM44、マウスインターフェイス5
6、キーボードインターフェイス58、FDC60、H
DC62,CRTC64、IEEE1394インターフ
ェイス66、ビデオキャプチャデバイス46、パラレル
インターフェイス48、USBインターフェイス50、
ネットワークインターフェイス52、シリアルインター
フェイス54を備える。
FIG. 2 is a block diagram showing a schematic configuration of hardware of the computer system. As shown in the figure, the computer main body 20 comprises a RAM 42, a ROM 44, and a mouse interface 5 interconnected by a bus around a CPU 40 as a central processing unit.
6, keyboard interface 58, FDC60, H
DC 62, CRTC 64, IEEE 1394 interface 66, video capture device 46, parallel interface 48, USB interface 50,
A network interface 52 and a serial interface 54 are provided.

【0034】ROM44は、内蔵されている各種プログ
ラム等を記憶する読み出し専用メモリである。RAM4
2は、各種データ等を読み出し、書き込み可能なメモリ
である。マウスインターフェイス56は、マウス24と
のデータのやり取りを司るインターフェイスである。F
DC60は、フロッピーディスクドライブ28を制御す
るフロッピーディスクコントローラである。HDC62
は、ハードディスクドライブ30(HDD)を制御する
ハードディスクコントローラである。CRTCは、必要
なデータ等を表示するCRTおよび液晶プロジェクター
への信号出力を制御するコントローラである。IEEE
1394インターフェイス66はCRT18および液晶
プロジェクター16への出力信号、ならびに、撮像装置
14からの入力信号を制御するインターフェイスであ
る。ビデオキャプチャデバイス46は、撮像装置14か
ら送られてくる画像データをコンピュータ本体20の内
部のRAM42の所定のメモリ領域に転送する装置であ
る。パラレルインターフェイス48、ならびに、USB
インターフェース50は撮像装置14からの入力信号の
制御、ならびに、プリンタへのデータ出力を制御するイ
ンターフェイスである。ネットワークインターフェイス
52は外部ネットワーク34に接続されており、外部コ
ンピュータ36との接続が可能となっている。シリアル
インターフェース54は、モデム32が接続されてお
り、コンピュータ本体20はこのモデム32を介して、
外部ネットワーク34と接続されており、外部のンピュ
ータ36との接続が可能となっている。
The ROM 44 is a read-only memory for storing various built-in programs and the like. RAM4
Reference numeral 2 denotes a memory that can read and write various data. The mouse interface 56 is an interface that controls data exchange with the mouse 24. F
The DC 60 is a floppy disk controller that controls the floppy disk drive 28. HDC62
Is a hard disk controller that controls the hard disk drive 30 (HDD). The CRTC is a controller that controls a CRT that displays necessary data and the like and a signal output to a liquid crystal projector. IEEE
The 1394 interface 66 is an interface that controls output signals to the CRT 18 and the liquid crystal projector 16 and input signals from the imaging device 14. The video capture device 46 is a device that transfers image data sent from the imaging device 14 to a predetermined memory area of the RAM 42 inside the computer main body 20. Parallel interface 48 and USB
The interface 50 is an interface that controls input signals from the imaging device 14 and controls data output to a printer. The network interface 52 is connected to the external network 34 and can be connected to the external computer 36. The serial interface 54 is connected to the modem 32, and the computer main body 20 communicates through the modem 32
It is connected to an external network 34 and can be connected to an external computer 36.

【0035】このコンピュータシステムでは、オペレー
ティングシステムはHDD30に記憶されており、HD
D30のブートブロックに書き込まれたローダに従っ
て、コンピュータ本体20に電源を投入すると、RAM
42の所定の領域にロードされる。また、撮像装置取り
込み条件設定プログラム、ポインティングプログラム
は、フロッピーディスクに予め格納されており、所定の
インストールプログラムを起動することで、フロッピー
ディスクドライブ28からコンピュータ本体20にイン
ストールされる。このインストールされたプログラム
は、HDD30に記憶されており、コンピュータ本体2
0に電源を投入した時に、オペレーティングシステムと
ともに、RAM42の所定の領域にロードされる。
In this computer system, the operating system is stored in the HDD 30,
When the power of the computer main body 20 is turned on in accordance with the loader written in the boot block of D30, the RAM
42 is loaded into a predetermined area. In addition, the imaging device capturing condition setting program and the pointing program are stored in the floppy disk in advance, and are installed from the floppy disk drive 28 to the computer main body 20 by activating a predetermined installation program. The installed program is stored in the HDD 30 and is stored in the computer main unit 2.
When the power is turned on, the memory is loaded into a predetermined area of the RAM together with the operating system.

【0036】この撮像装置取り込み条件設定プログラム
および画像処理プログラム、ポインティングプログラム
をCPU40が実行することによって本発明の各種構成
要件は実現される。なお、これらのソフトウェアプログ
ラムは、前述したように、フロッピディスク26に格納
されたものであるが、これに替えて、CD−ROM、光
磁気ディスク、ICカード等の他の携帯型記録媒体(可
搬型記録媒体)に格納された構成としても良い。また、
前述したソフトウェアプログラムは、外部ネットワーク
34に接続される外部のコンピュータ36から、外部ネ
ットワーク34を介して提供されるプログラムデータを
ダウンロードして、RAM42またはHDD30に転送
することにより得ることもできる。
The various constituent elements of the present invention are realized by the CPU 40 executing the imaging device fetching condition setting program, the image processing program, and the pointing program. Note that these software programs are stored on the floppy disk 26 as described above, but may be replaced by another portable recording medium (such as a CD-ROM, a magneto-optical disk, an IC card). (A portable recording medium). Also,
The above-described software program can also be obtained by downloading program data provided via the external network 34 from an external computer 36 connected to the external network 34 and transferring the program data to the RAM 42 or the HDD 30.

【0037】図3は、撮像装置14のハードウェアの概
略構成を示す構成図である。図示するように、撮像装置
14は、焦点制御装置100、撮像素子102、絞り制
御装置104、絞り106、ゲイン制御装置108、増
幅器110から構成されている。
FIG. 3 is a configuration diagram showing a schematic configuration of the hardware of the image pickup apparatus 14. As illustrated, the imaging device 14 includes a focus control device 100, an imaging element 102, an aperture control device 104, an aperture 106, a gain control device 108, and an amplifier 110.

【0038】焦点制御装置100は、自動制御、手動制
御、焦点固定の切り替えは撮像装置本体のスイッチで行
うことができるが、コンピュータ本体20からの命令で
切り替えることも可能である。同様に、絞り制御装置1
04も、自動制御、手動制御、絞り固定の切り替えは撮
像装置本体のスイッチで行うことができるが、コンピュ
ータ本体20からの命令で切り替えることも可能であ
る。また同様に、ゲイン制御装置110も、自動制御、
手動制御、ゲイン固定の切り替えは撮像装置本体のスイ
ッチで行うことができるが、コンピュータ本体20から
の命令で切り替えることも可能である。
In the focus control device 100, switching between automatic control, manual control, and fixed focus can be performed by a switch of the imaging device main body, but can also be switched by a command from the computer main body 20. Similarly, the aperture control device 1
In the case of the camera 04 as well, switching between automatic control, manual control, and fixed aperture can be performed by a switch of the imaging apparatus main body. Similarly, the gain control device 110 also performs automatic control,
The switching between the manual control and the fixed gain can be performed by a switch of the imaging apparatus main body, but can also be performed by a command from the computer main body 20.

【0039】また、この撮像装置14は、撮像装置14
の接続インターフェースの形態により、コンピュータ本
体20に内蔵されているビデオキャプチャデバイス4
6、パラレルインターフェイス48、USBインターフ
ェイス50、IEEE1394インターフェイス66の
いずれに接続しても良い。
Further, the imaging device 14 is
Of the video capture device 4 built in the computer body 20 depending on the form of the connection interface of
6, the parallel interface 48, the USB interface 50, and the IEEE 1394 interface 66.

【0040】以上説明したハードウェア構成を有するコ
ンピュータシステムによる撮像からポインティングアド
レスの算出までの様子について説明する。
A description will be given of how the computer system having the above-described hardware configuration performs from imaging to calculation of a pointing address.

【0041】図4は、撮像装置14から画像を取り込ん
で、コンピュータ本体20で画像処理およびポインティ
ング処理が行われて、液晶プロジェクター16によって
映像が投射されるまでの処理の様子を説明する図であ
る。
FIG. 4 is a diagram for explaining the state of processing from capturing an image from the imaging device 14, performing image processing and pointing processing in the computer main body 20, and projecting an image by the liquid crystal projector 16. .

【0042】図示するように、撮像素子14から送られ
てくる画像データは、図2に示したコンピュータ本体の
内部で動作しているビデオキャプチャデバイス46を制
御するビデオキャプチャドライバ120により、図2に
示したRAM42の所定の領域に転送される。このRA
M42に転送された画像データに対して、コンピュータ
本体20の内部で動作している画像処理ルーチン122
によって、ポインティングアドレス計算プログラム12
4による先端検出処理を行うための画像処理が施され
る。画像処理ルーチン122によって画像処理が施され
た画像データは、ポインティングアドレス計算プログラ
ム124に送られ、指あるいは差し棒等で指し示してい
る座標が特定される。ポインティングアドレス計算プロ
グラム124によって計算され出力された座標データ
は、コンピュータ本体20の内部で動作しているマウス
ドライバ126に渡され、画面上のマウスポインタが書
き換えられる。その後の処理はアプリケーション128
側に委ねられ、最終的にはビデオドライバ130から液
晶プロジェクター18にデータが送られ、液晶プロジェ
クター18からスクリーン12に映像が投射され、ポイ
ンティングの結果が表示される。
As shown in the figure, the image data sent from the image sensor 14 is converted into a video signal by the video capture driver 120 for controlling the video capture device 46 operating inside the computer shown in FIG. The data is transferred to a predetermined area of the RAM 42 shown. This RA
An image processing routine 122 operating inside the computer main body 20 for the image data transferred to M42
The pointing address calculation program 12
The image processing for performing the leading edge detection processing by step 4 is performed. The image data that has been subjected to the image processing by the image processing routine 122 is sent to the pointing address calculation program 124, and the coordinates indicated by the finger or the stick are specified. The coordinate data calculated and output by the pointing address calculation program 124 is passed to a mouse driver 126 operating inside the computer main body 20, and the mouse pointer on the screen is rewritten. Subsequent processing is performed by the application 128
The data is finally sent from the video driver 130 to the liquid crystal projector 18, the video is projected from the liquid crystal projector 18 onto the screen 12, and the result of the pointing is displayed.

【0043】図5は、撮像装置14から画像を取り込
み、液晶プロジェクター16によって映像が投射される
までの処理の様子を説明する図である。図4に示された
処理形態は、図5に示した処理形態でも実現可能であ
る。図示するように、撮像素子14から送られてくる画
像データは、コンピュータ本体に内蔵されているビデオ
キャプチャデバイス46によりコンピュータ本体20の
内部にあるRAM42の所定の領域に転送される。この
転送された画像データに対して、画像処理およびポイン
ティング処理チップ150により画像処理および先端検
出処理が行なわれ、座標データが出力される。画像処理
およびポインティング処理チップ150によって計算さ
れ出力された座標データは、コンピュータ本体20の内
部で動作しているマウスドライバ126に渡され、画面
上のマウスポインタが書き換えられる。その後の処理は
アプリケーション128側に委ねられ、最終的にはビデ
オドライバ130から液晶プロジェクター18にデータ
が送られ、液晶プロジェクター18からスクリーン12
に映像が投射され、ポインティングの結果が表示され
る。
FIG. 5 is a diagram for explaining the state of processing from capturing an image from the imaging device 14 to projecting an image by the liquid crystal projector 16. The processing mode shown in FIG. 4 can also be realized by the processing mode shown in FIG. As shown in the figure, image data sent from the image pickup device 14 is transferred to a predetermined area of the RAM 42 inside the computer main body 20 by a video capture device 46 built in the computer main body. The image processing and the pointing processing chip 150 perform image processing and leading end detection processing on the transferred image data, and output coordinate data. The coordinate data calculated and output by the image processing and pointing processing chip 150 is passed to a mouse driver 126 operating inside the computer main body 20, and the mouse pointer on the screen is rewritten. Subsequent processing is entrusted to the application 128 side, and finally data is sent from the video driver 130 to the liquid crystal projector 18, and the data is sent from the liquid crystal projector 18 to the screen 12
Is projected on the screen, and the result of the pointing is displayed.

【0044】図6は、CPU40で実行される画面設定
からポインティング処理を行うまでの一連の処理の流れ
を示したフローチャートである。図示するように、CP
U40は処理が開始されると、まず画面設定サブルーチ
ンの処理を開始する(ステップS10)。後に行われる
ポインティング処理の際には、一つ前にポインティング
処理を行った時の情報を必要とするので、ポインティン
グ処理を行う前にポインティング処理の際に必要な情報
を初期化する必要がある(ステップS12)。情報の初
期化が終了した後にポインティング処理サブルーチンが
実行され(ステップS14)、処理が終了する。
FIG. 6 is a flowchart showing a flow of a series of processing from the screen setting executed by the CPU 40 to the execution of the pointing processing. As shown, CP
When the process is started, the U40 first starts a process of a screen setting subroutine (step S10). At the time of the pointing processing performed later, information at the time of performing the preceding pointing processing is required, so it is necessary to initialize information required at the time of the pointing processing before performing the pointing processing ( Step S12). After the information has been initialized, the pointing process subroutine is executed (step S14), and the process ends.

【0045】図7は、図6の図中で示されている画面設
定サブルーチンのフローチャートである。図示するよう
に、CPU40は処理が開始されると、白パターン表示
サブルーチンが実行され、図8に示すパターンpic1
が表示される(ステップS40)。
FIG. 7 is a flowchart of the screen setting subroutine shown in FIG. As shown, when the processing is started, the CPU 40 executes a white pattern display subroutine, and the pattern pic1 shown in FIG.
Is displayed (step S40).

【0046】続いて、画像取り込みサブルーチンが実行
され、コンピュータ本体20の内部のRAM42の所定
の領域に転送される(ステップS42)。続いて、プロ
ジェクター投射像枠抽出サブルーチンが実行され、取り
込み画像内における液晶プロジェクター投射像の領域を
検出する(ステップS44)。プロジェクター投射像枠
抽出サブルーチンから処理が戻ってくると、プロジェク
ター投射像枠抽出サブルーチンから処理が正常に終了し
たか否かの情報も同時に送られてくるので、その情報を
判定し(ステップS46)、正しく処理が行われていな
かった場合には、エラー処理ルーチンを呼び出してエラ
ー処理を行い(ステップS56)、エラー処理終了後リ
ターンに抜けて処理を終了する。
Subsequently, an image capturing subroutine is executed and transferred to a predetermined area of the RAM 42 inside the computer main body 20 (step S42). Subsequently, a projector projection image frame extraction subroutine is executed to detect a region of the liquid crystal projector projection image in the captured image (step S44). When the process returns from the projector projection image frame extraction subroutine, information indicating whether or not the process has been normally completed is also sent from the projector projection image frame extraction subroutine. Therefore, the information is determined (step S46). If the processing has not been correctly performed, the error processing routine is called to perform error processing (step S56), and after the error processing is completed, the process returns to the end and ends.

【0047】一方、正常にプロジェクター投射像枠抽出
サブルーチンが正常に処理が行われたと判断された場合
には、続いて位置校正用パターン表示サブルーチンが呼
び出され、図11に示すパターンpic2が表示される
(ステップS48)。続いて、画像取り込みサブルーチ
ンが実行され、コンピュータ本体20の内部のRAM4
2の所定の領域に転送される(ステップS50)。
On the other hand, if it is determined that the projector projected image frame extraction subroutine has been normally processed, the position calibration pattern display subroutine is called and the pattern pic2 shown in FIG. 11 is displayed. (Step S48). Subsequently, an image capturing subroutine is executed, and the RAM 4 in the computer main body 20 is read.
2 is transferred to a predetermined area (step S50).

【0048】続いて、校正用ドット座標抽出サブルーチ
ンが実行され、ステップS50において取り込まれた画
像内にある4点の校正用ドットの中心座標を計算する
(ステップS52)。校正用ドット座標抽出サブルーチ
ンから処理が戻ってくると、校正用ドット座標抽出サブ
ルーチンから処理が正常に終了したか否かの情報も同時
に送られてくるので、その情報を判定し(ステップS5
4)、正しく処理が行われていなかった場合には、エラ
ー処理ルーチンを呼び出してエラー処理を行い(ステッ
プS56)、エラー処理終了後リターンに抜けて処理を
終了する。一方、正常に校正用ドット座標抽出サブルー
チンが正常に処理が行われたと判断された場合には、取
り込み画像内における液晶プロジェクター投射像領域の
情報と取り込み画像内における校正用ドットの座標を出
力し(ステップS58)、リターンに抜けて処理を終了
する。
Subsequently, a calibration dot coordinate extraction subroutine is executed to calculate the center coordinates of four calibration dots in the image captured in step S50 (step S52). When the process returns from the calibration dot coordinate extraction subroutine, information as to whether or not the process has been completed normally is also sent from the calibration dot coordinate extraction subroutine, and the information is determined (step S5).
4) If the processing has not been performed correctly, the error processing routine is called to perform error processing (step S56), and after the error processing is completed, the process returns to the end and ends the processing. On the other hand, when it is determined that the calibration dot coordinate extraction subroutine has been normally performed, the information of the liquid crystal projector projection image area in the captured image and the coordinates of the calibration dot in the captured image are output ( In step S58), the process ends with returning to the end.

【0049】図8は、図7の図中で示されている白パタ
ーンpic1表示サブルーチンが実行された時に表示さ
れるパターンを示した説明図である。
FIG. 8 is an explanatory diagram showing a pattern displayed when the white pattern pic1 display subroutine shown in FIG. 7 is executed.

【0050】図9は、図7および図14の図中で示され
ている画像取り込みサブルーチンのフローチャートであ
る。図示するように、CPU40は処理が開始される
と、指定された画像フォーマットを転送するように設定
し(ステップS60)、続いて指定された転送先アドレ
スにデータを転送するように設定し(ステップS6
2)、続いて画像データを指定されたアドレスから順番
に転送を開始する(ステップS64)。転送が終了する
とリターンに抜けて処理を終了する。
FIG. 9 is a flowchart of the image capturing subroutine shown in FIGS. 7 and 14. As shown, when the processing is started, the CPU 40 sets to transfer the specified image format (step S60), and then sets to transfer data to the specified transfer destination address (step S60). S6
2) Subsequently, transfer of the image data is started in order from the designated address (step S64). When the transfer is completed, the process exits from the return and ends the process.

【0051】図10は、図7の図中で示されているプロ
ジェクター投射像枠抽出サブルーチンのフローチャート
である。まず、取り込み画像から液晶プロジェクター投
射領域と周辺領域を分離するために、取り込み画像の二
値化を行なう。図示するように、CPU40は処理が開
始されると、指定領域二値化サブルーチンを呼び出し、
既にコンピュータ本体20のRAM42に転送された画
像データに対して、取り込んだ画像の上方の1/3の領
域(上段領域)に対して二値化処理を行い(ステップS
70)、続いて取り込んだ画像の中程の1/3の領域
(中段領域)に対して二値化処理を行い(ステップS7
2)、続いて取り込んだ画像の下方の1/3の領域(下
段領域)に対して二値化処理を行う。指定領域二値化サ
ブルーチンから処理戻ってくると、指定された領域が正
常に二値化できたか否かの情報も送られてくるので、こ
の情報をもとに正常に二値化が行なわれたか否かの判定
を行なう(ステップS78)。二値化処理が正常に行わ
れなかった場合には、エラー処理ルーチンを呼び出して
エラー処理を行い(ステップS82)、エラー処理終了
後リターンに抜けて処理を終了する。
FIG. 10 is a flowchart of the projector image frame extraction subroutine shown in FIG. First, the captured image is binarized in order to separate the projection area and the peripheral area of the liquid crystal projector from the captured image. As shown, when the processing is started, the CPU 40 calls a designated area binarization subroutine,
For the image data that has already been transferred to the RAM 42 of the computer body 20, a binarization process is performed on the upper third area (upper area) of the captured image (step S
70) Then, a binarization process is performed on a region (middle region) of the middle of the captured image (step S7).
2) Then, a binarization process is performed on a lower third region (lower region) of the captured image. When the process returns from the designated area binarization subroutine, information as to whether or not the designated area has been properly binarized is also sent. Therefore, binarization is normally performed based on this information. It is determined whether or not it has occurred (step S78). If the binarization processing has not been performed normally, an error processing routine is called to perform error processing (step S82), and after the error processing ends, the process returns to the end and ends.

【0052】一方、処理が正常に行なわれたと判定され
た場合には、全取り込み画像に対して、液晶プロジェク
ター投射像領域がどれくらいの割合を占めているか計算
する(ステップS80)。
On the other hand, if it is determined that the processing has been performed normally, it is calculated how much the liquid crystal projector projection image area occupies the entire captured image (step S80).

【0053】続いて、全取り込み画像に対して液晶プロ
ジェクター投射像領域が小さすぎるか否かの判定を行な
う(ステップS84)。全取り込み画像に対する液晶プ
ロジェクター投射像領域の割合がある任意の割合(この
任意の割合は、全取り込み画像に対して液晶プロジェク
ター投射像領域が小さすぎるか否かの判定を判定する値
であり、本実施例においては45%とするが、本発明に
おいてはこの数に何ら限定されるものではない)より小
さいと判定された場合には、液晶プロジェクターの投射
領域が小さいと判断し、エラー処理ルーチンを呼び出し
てエラー処理を行い(ステップS98)、エラー処理終
了後リターンに抜けて処理を終了する。
Next, it is determined whether or not the projected image area of the liquid crystal projector is too small for all the captured images (step S84). An arbitrary ratio having a ratio of the liquid crystal projector projection image area to the entire captured image (the arbitrary ratio is a value for determining whether the liquid crystal projector projection image region is too small for the entire captured image. In the embodiment, the number is set to 45%, but the present invention is not limited to this number.) When it is determined that the projection area of the liquid crystal projector is small, the error processing routine is executed. The error processing is performed by calling (step S98). After the error processing is completed, the process returns to the return and ends.

【0054】一方、全取り込み画像に対する液晶プロジ
ェクター投射像領域の割合が45%以上と判定された場
合には、液晶プロジェクターの投射領域は座標計算を行
なうために十分な大きさであると判定し、コンピュータ
本体20の解像度とそのアスペクト比および全取り込み
画像に対する液晶プロジェクター投射像領域の割合か
ら、取り込み画像中における液晶プロジェクター投射像
領域の縦横の解像度の概算値を計算し(ステップS8
8)、それら縦横解像度を判定値として設定し(ステッ
プS90)、左右上下の順番で、取り込み画像の端から
一ラインづつ外周から内側に向かってスキャンし、初め
て存在したスキャンしたライン上に存在するドット数が
判定値に十分近いラインを液晶プロジェクター投射像の
枠とし、そのx座標およびy座標を出力する(ステップ
S90、S92、S94,S96)。それらの処理終了
後、リターンに抜けて処理が終了する。
On the other hand, if it is determined that the ratio of the projected image area of the liquid crystal projector to all the captured images is 45% or more, it is determined that the projected area of the liquid crystal projector is large enough to perform the coordinate calculation. An approximate value of the vertical and horizontal resolution of the liquid crystal projector projection image area in the captured image is calculated from the resolution of the computer main unit 20, its aspect ratio, and the ratio of the liquid crystal projector projection image area to the entire captured image (step S8).
8) The vertical and horizontal resolutions are set as determination values (step S90), and the line is scanned from the end of the captured image line by line from the end of the captured image in the order of left, right, up and down, and exists on the first scanned line. A line whose number of dots is sufficiently close to the determination value is set as a frame of the liquid crystal projector projected image, and its x coordinate and y coordinate are output (steps S90, S92, S94, S96). After these processes are completed, the process returns to the end and the process ends.

【0055】図11は、図7の図中で示されている位置
校正用パターン表示サブルーチンが実行された時に表示
されるパターンを示した説明図である。
FIG. 11 is an explanatory diagram showing a pattern displayed when the position calibration pattern display subroutine shown in FIG. 7 is executed.

【0056】図12は、図6の図中で示されている校正
用ドット座標抽出サブルーチンのフローチャートであ
る。図示するように、CPU40は処理が開始される
と、既にコンピュータ本体20のRAM42に転送され
た画像データに対して、取り込んだ画像の上方の1/3
の領域(上段領域)に対して二値化処理を行い(ステッ
プS70)、続いて取り込んだ画像の中程の1/3の領
域(中段領域)に対して二値化処理を行い(ステップS
72)、続いて取り込んだ画像の下方の1/3の領域
(下段領域)に対して二値化処理を行う。
FIG. 12 is a flowchart of the calibration dot coordinate extraction subroutine shown in FIG. As shown in the figure, when the processing is started, the CPU 40 adds one third of the image data already transferred to the RAM 42 of the computer body 20 to the upper part of the captured image.
(Step S70), and then a one-third (middle) region of the captured image is processed (step S70).
72) Then, a binarization process is performed on the lower third region (lower region) of the captured image.

【0057】次に、CPU40がプロジェクター投射像
枠抽出サブルーチンを実行した際に得られたプロジェク
ター投射像枠を孤立点除去を行う領域として設定し(ス
テップS116)、その設定された領域に対し孤立点除
去処理を行う(ステップS118)。続いて、孤立点除
去を行った領域を左上、右上、左下、右下の4つの領域
に分割し(ステップS120)、各領域において黒い点
の数およびその座標を記録する(ステップS122)。
Next, a projector projection image frame obtained when the CPU 40 executes the projector projection image frame extraction subroutine is set as an area for removing an isolated point (step S116), and an isolated point is set for the set area. A removal process is performed (step S118). Subsequently, the area from which the isolated points have been removed is divided into four areas of upper left, upper right, lower left, and lower right (step S120), and the number of black points and their coordinates are recorded in each area (step S122).

【0058】続いて、各領域における黒い点の数から、
位置校正用ドットが正しく抽出されているかどうかを判
定する(ステップS124)。明らかに黒い点の数が多
い場合には、投射条件および取り込み条件が悪く、校正
用ドットが正しく検出されていないと判断し、エラー処
理サブルーチンに処理を移し(ステップS128)、エ
ラー処理終了後リターンに抜けて処理を終了する。
Subsequently, from the number of black points in each area,
It is determined whether or not the position calibration dots have been correctly extracted (step S124). If the number of black dots is clearly large, it is determined that the projection condition and the capture condition are bad, and that the calibration dot has not been correctly detected, and the process proceeds to an error processing subroutine (step S128). To end the processing.

【0059】一方、黒い点の数が適切であると判定され
た場合には、各領域において、検出された座標のx座標
の平均値、および、y座標の平均値を計算し、その座標
を取り込み画像上における校正用ドットの座標として出
力し(ステップS126)、リターンに抜けて処理を終
了する。
On the other hand, when it is determined that the number of black points is appropriate, the average value of the x coordinate and the average value of the y coordinate of the detected coordinates are calculated in each region, and the coordinates are calculated. The coordinates are output as the coordinates of the calibration dots on the captured image (step S126), and the process exits from the return.

【0060】図13は、指定領域二値化サブルーチンの
フローチャートである。図示するように、CPU40は
処理が開始されると、このサブルーチンが呼び出された
時に指定された画像領域を作業領域として設定する(ス
テップS350)。続いて、作業領域のヒストグラムを
計算する(ステップS352)。続いて、得られたヒス
トグラムの微分値を計算し(ステップS354)、ヒス
トグラムおよび作業領域の画素数から最低輝度値から最
高輝度値にかけてのヒストグラムの累積値の面積比を計
算する(ステップS356)。
FIG. 13 is a flowchart of the designated area binarization subroutine. As shown, when the processing is started, the CPU 40 sets an image area designated when this subroutine is called as a work area (step S350). Subsequently, a histogram of the work area is calculated (step S352). Subsequently, the differential value of the obtained histogram is calculated (step S354), and the area ratio of the cumulative value of the histogram from the lowest luminance value to the highest luminance value from the number of pixels in the histogram and the work area is calculated (step S356).

【0061】続いて、条件に合った領域が存在したかど
うかを判定し(ステップS360)、もし条件に合った
領域が存在しなかった場合には、取り込み画像において
スクリーンあるいはホワイトボード10と液晶プロジェ
クター投射像12のコントラスト比が低く、閾値が設定
できなかったと判断し、エラー処理サブルーチンを呼び
出し(ステップS366)、エラー処理終了後リターン
に抜けて処理が終了する。
Subsequently, it is determined whether or not there is an area that meets the conditions (step S360). If there is no area that meets the conditions, the screen or whiteboard 10 and the liquid crystal projector It is determined that the contrast ratio of the projection image 12 is low and the threshold value could not be set, and the error processing subroutine is called (step S366).

【0062】一方、条件に合った領域が存在した場合に
は、閾値が正しく設定できたと判断し、ステップS35
8の結果から閾値を決定し(ステップS362)、得ら
れた閾値から作業領域を二値化する(ステップS36
4)。二値化処理終了後、リターンに抜けて処理が終了
する。
On the other hand, if there is an area that satisfies the condition, it is determined that the threshold value has been correctly set, and step S35 is performed.
8 is determined (step S362), and the work area is binarized from the obtained threshold (step S36).
4). After the binarization process is completed, the process returns to the end and the process ends.

【0063】図14は、図6の図中で示されているポイ
ンティング処理サブルーチンのフローチャートである。
このルーチンは所定時間毎に繰り返し実行される。図示
するように、CPU40は処理が開始されると、まず画
像を取り込み(ステップS20)、取り込んだ背景が静
止画かあるいは動画を含むかを判定する(ステップS2
2)。
FIG. 14 is a flowchart of the pointing processing subroutine shown in FIG.
This routine is repeatedly executed at predetermined time intervals. As shown, when the processing is started, the CPU 40 first captures an image (step S20), and determines whether the captured background includes a still image or a moving image (step S2).
2).

【0064】背景が静止画であると判定された場合は、
その後静止画用画像処理ルーチンを実行しポインティン
グに適した画像が生成され(ステップS24)、続いて
座標出力サブルーチンが実行され、何らかの指示手段で
指し示されている箇所の座標が出力され(ステップS2
8)、リターンに抜けて処理が終了する。
If it is determined that the background is a still image,
Thereafter, the image processing routine for a still image is executed to generate an image suitable for pointing (step S24). Subsequently, a coordinate output subroutine is executed, and the coordinates of the position pointed by some instruction means are output (step S2).
8), the process ends with return.

【0065】一方、背景が動画である、あるいは、背景
の一部に動画が含まれると判定された場合には、動画用
画像処理ルーチンが実行されポインティングに不要な像
が除去され(ステップS26)、続いて座標出力サブル
ーチンが実行され、何らかの指示手段で指し示されてい
る箇所の座標が出力され(ステップS28)、処理終了
後リターンに抜けて処理が終了する。
On the other hand, if it is determined that the background is a moving image or that a part of the background contains a moving image, a moving image processing routine is executed to remove an image unnecessary for pointing (step S26). Subsequently, a coordinate output subroutine is executed to output the coordinates of the location pointed by some instruction means (step S28), and after the processing is completed, the process returns to the end and the processing ends.

【0066】図15は、図14の図中で示されている静
止画用画像処理サブルーチンのフローチャートである。
図示するように、CPU40は処理が開始されると、差
分像計算サブルーチンを呼び出し、フレーム間の差分像
の計算を行う(ステップS140)。
FIG. 15 is a flowchart of the still image processing subroutine shown in FIG.
As shown, when the processing is started, the CPU 40 calls a difference image calculation subroutine and calculates a difference image between frames (step S140).

【0067】続いて、差分像二値化サブルーチンを呼び
出し、差分像を二値化する(ステップS142)。差分
像二値化サブルーチンにおける処理が終了した後は、処
理の結果得られた画像データを出力し(ステップS14
4)、リターンに抜けて処理が終了する。
Subsequently, a difference image binarization subroutine is called to binarize the difference image (step S142). After the processing in the differential image binarization subroutine is completed, image data obtained as a result of the processing is output (step S14).
4), the process ends with return.

【0068】図16は、図14の図中で示されている動
画用画像処理サブルーチンのフローチャートである。図
示するように、CPU40は処理が開始されると、差分
像計算サブルーチンを呼び出し、フレーム間の差分像の
計算を行う(ステップS240)。
FIG. 16 is a flowchart of a moving image processing subroutine shown in FIG. As shown, when the processing is started, the CPU 40 calls a difference image calculation subroutine and calculates a difference image between frames (step S240).

【0069】続いて、差分像二値化サブルーチンを呼び
出し、差分像を二値化する(ステップS242)。差分
像二値化サブルーチンにおける処理が終了した後は、差
分像の中に存在する動画領域を検出し(ステップS24
4)する。動画領域が存在する画像に対して画像差分処
理を行うと、動画領域内において不要な差分像が出現す
るので、不要な差分像を除去する必要がある。その処理
を行うため、動画領域不要点除去サブルーチンを呼び出
し、動画領域内の不要な差分像を除去する(ステップS
246)。その結果得られた画像を出力し(ステップS
248)、リターンに抜けて処理が終了する。
Subsequently, a difference image binarization subroutine is called to binarize the difference image (step S242). After the processing in the difference image binarization subroutine is completed, a moving image area existing in the difference image is detected (step S24).
4) Yes. When the image difference processing is performed on an image having a moving image area, an unnecessary difference image appears in the moving image area. Therefore, it is necessary to remove the unnecessary difference image. In order to perform the processing, a moving image area unnecessary point removal subroutine is called to remove unnecessary difference images in the moving image area (step S
246). The resulting image is output (step S
248), the process ends with return.

【0070】図17は、図15および図16の図中で示
されている差分像二値化サブルーチンのフローチャート
である。なお、本実施例においては画像はグレースケー
ル256階調の場合について説明するが、本発明におい
てはカラーあるいはグレースケールおよび階調数につい
て何ら限定されるものではない。図示するように、CP
U40は処理が開始されると、差分像を生成する際に用
いた2枚の取り込み画像の各画素において、輝度値の大
きいほうの画素の値を選択し(ステップS380)、選
択した値を2で割った値を各画素の閾値として設定する
(ステップS382)。
FIG. 17 is a flowchart of the difference image binarization subroutine shown in FIGS. 15 and 16. In the present embodiment, the case where the image has 256 gray scales will be described. However, the present invention is not limited to color or gray scale and the number of gray scales. As shown, CP
When the processing is started, U40 selects the value of the pixel having the larger luminance value among the pixels of the two captured images used when generating the difference image (step S380), and sets the selected value to 2 Is set as the threshold value of each pixel (step S382).

【0071】続いて、各画素に対して設定された閾値が
25以上(この閾値については、ある画素がもともと暗
い表示領域であるか否かを判定するための値であり、本
実施例においては25とするが、本発明においてはこの
数に何ら限定されるものではない)であるかどうか判定
する(ステップS384)。
Subsequently, the threshold value set for each pixel is 25 or more (this threshold value is a value for determining whether or not a certain pixel is originally a dark display area, and in this embodiment, 25, but is not limited to this number in the present invention) (step S384).

【0072】閾値が25以上であると判定された場合に
は、閾値はそのままの値とする。
If it is determined that the threshold value is 25 or more, the threshold value remains unchanged.

【0073】一方、閾値が25以下であると判定された
場合には、閾値は25に設定される。(ステップS38
6) その後、設定された閾値を用いて各画素は二値化され
(ステップS388)、リターンに抜けて処理が終了す
る。
On the other hand, if it is determined that the threshold value is 25 or less, the threshold value is set to 25. (Step S38
6) Thereafter, each pixel is binarized using the set threshold value (step S388), and the process exits from the return.

【0074】図18は、図14の図中で示されている先
端座標出力サブルーチンのフローチャートである。図示
するように、CPU40は処理が開始されると、先端検
出サブルーチンを呼び出し実行する(ステップS16
0)。
FIG. 18 is a flowchart of the tip coordinate output subroutine shown in FIG. As shown in the figure, when the processing is started, the CPU 40 calls and executes a tip detection subroutine (step S16).
0).

【0075】続いて、前回の先端検出結果を参照して、
現在、先端検出状態にあるか、あるいは、待機状態にあ
るかを判定する(ステップS161)。先端検出状態と
は前回のスキャンの時に先端が検出されている状態のこ
とであり、待機状態とは先端検出を開始してからまだ先
端が一度も検出されていない状態、あるいは、先端は検
出されていたが、先端検出の失敗が数多く続いたため、
先端が領域内には無いと判断され再び初期状態に遷移し
た状態を指す。
Subsequently, referring to the previous tip detection result,
It is determined whether the current state is the leading end detection state or the standby state (step S161). The leading edge detection state is a state in which the leading edge has been detected at the time of the previous scan, and the waiting state is a state in which the leading edge has not yet been detected since the start of leading edge detection, or the leading edge has been detected. However, many failures in tip detection continued,
This indicates a state in which the leading end is determined to be out of the area and the state has returned to the initial state.

【0076】ステップS161で先端検出状態にあると
判定された場合には、今回の先端検出の結果、先端が検
出されたか否かの判定を行う(ステップS162)。
If it is determined in step S161 that the leading edge is detected, it is determined whether or not the leading edge has been detected as a result of this leading edge detection (step S162).

【0077】ステップS162で先端が検出されたと判
定された場合には、続いて、前回の座標検出結果と今回
の座標検出結果との距離を計算し、この距離について判
定を行う(ステップS163)。計算された距離がある
任意の画素数以内(この任意の画素数は、前回の座標検
出結果と今回の座標検出結果の距離が十分離れているた
め無効であるか否かを判定する値であり、本実施例にお
いては30画素とするが、本発明においてはこの数に何
ら限定されるものではない)であると判定された場合
は、今回の検出結果が有効であると判断し、今回検出し
た結果を座標を出力し(ステップS164)、検出失敗
回数を0に、次回の先端検出の際のスキャン領域として
今回検出した座標の周囲を設定し(ステップS16
5)、先端検出状態を保持する(ステップS167)。
If it is determined in step S162 that the leading end has been detected, then the distance between the previous coordinate detection result and the current coordinate detection result is calculated, and this distance is determined (step S163). The calculated distance is within an arbitrary number of pixels (this arbitrary number of pixels is a value for determining whether the distance between the previous coordinate detection result and the current coordinate detection result is sufficiently large and invalid. In the present embodiment, the number is 30 pixels, but the present invention is not limited to this number.) If it is determined that the number of pixels is 30 pixels, it is determined that the current detection result is valid. The result is output as coordinates (step S164), the number of detection failures is set to 0, and the periphery of the coordinates detected this time is set as the scan area for the next leading edge detection (step S16).
5) The tip detection state is held (step S167).

【0078】一方、ステップS162で先端が検出され
なかった、あるいは、ステップS163で前回検出され
た座標と今回検出された座標の距離が30画素以上であ
ると判定された場合は、今回のアドレス検出結果は前回
のスキャン結果と同じ座標を出力し(ステップS17
0)、連続失敗回数に1を加え、次回の先端検出の際の
スキャン領域として今回検出した座標の周囲を設定する
(ステップS172)。
On the other hand, if the tip is not detected in step S162, or if it is determined in step S163 that the distance between the previously detected coordinates and the currently detected coordinates is 30 pixels or more, the current address detection is performed. As the result, the same coordinates as the previous scan result are output (step S17).
0), 1 is added to the number of consecutive failures, and the area around the coordinates detected this time is set as the scan area for the next leading edge detection (step S172).

【0079】続いて、検出失敗回数について判定を行う
(ステップS174)。検出失敗回数がある任意の回数
以下(この任意の回数は、先端検出の失敗が連続して起
こるような場合に、現在出力されているスキャン結果が
適正なものであるか否かを判定する値であり、本実施例
においては20回とするが、本発明においてはこの数に
何ら限定されるものではない)であると判定された時
は、先端検出状態を保持したままとする(ステップS1
67)。
Subsequently, the number of detection failures is determined (step S174). The number of detection failures is equal to or less than an arbitrary number (this arbitrary number is a value for determining whether or not the currently output scan result is appropriate in the case where the failure of the tip detection occurs continuously. In the present embodiment, the number is set to 20, but the number is not limited to this number in the present invention. When it is determined that the number is 20), the state of detecting the leading end is maintained (step S1).
67).

【0080】一方、ステップS174において検出失敗
回数が20回より多いと判定された場合は、先端検出状
態から待機状態に移行し(ステップS176)、検出失
敗回数を0回に、次回の先端検出の際のスキャン領域と
して液晶プロジェクター投射像枠全体を設定する(ステ
ップ178)。
On the other hand, if it is determined in step S174 that the number of detection failures is more than 20, the state is shifted from the leading edge detection state to the standby state (step S176), the number of detection failures is reduced to zero, and the next leading edge detection is performed. The entire projected image frame of the liquid crystal projector is set as the scan area at this time (step 178).

【0081】一方、ステップS161で待機状態にある
と判定された場合には、今回の先端検出の結果、先端が
検出されたか否かの判定を行う(ステップS180)。
On the other hand, when it is determined in step S161 that the apparatus is in the standby state, it is determined whether or not the leading end is detected as a result of the present leading end detection (step S180).

【0082】ステップS180で先端が検出されたと判
定された場合には、今回の検出結果が有効であると判断
し、今回検出した結果を座標を出力し(ステップS18
2)、検出失敗回数を0に、次回の先端検出の際のスキ
ャン領域として液晶プロジェクター投射像枠全体を設定
し(ステップS184)、先端検出状態に移行する(ス
テップS186)。
If it is determined in step S180 that the leading end has been detected, it is determined that the current detection result is valid, and the current detection result is output as coordinates (step S18).
2) The number of detection failures is set to 0, the entire liquid crystal projector projection image frame is set as a scan area for the next leading edge detection (step S184), and the state shifts to the leading edge detection state (step S186).

【0083】一方、ステップS180で先端が検出され
なかったと判定された場合は、今回のアドレス検出結果
は前回のスキャン結果と同じ座標を出力し(ステップS
190)、検出失敗回数を0に、次回の先端検出の際の
スキャン領域として液晶プロジェクター投射像枠全体を
設定し(ステップ192)、待機状態を保持する(ステ
ップS194)。
On the other hand, if it is determined in step S180 that the leading end has not been detected, the current address detection result outputs the same coordinates as the previous scan result (step S180).
190), the number of detection failures is set to 0, and the entire liquid crystal projector projection image frame is set as a scan area for the next leading edge detection (step 192), and the standby state is maintained (step S194).

【0084】ステップS164、ステップS170、ス
テップS182あるいはステップS190で出力された
座標は取り込み画像内における座標であるため、取り込
み画像における座標からコンピュータ本体20における
座標に変換する必要があるため、座標変換サブルーチン
を呼び出し座標変換を行い(ステップS200)、変換
された座標を出力し(ステップS202)、リターンに
抜けて処理を終了する。
Since the coordinates output in step S164, step S170, step S182 or step S190 are the coordinates in the captured image, it is necessary to convert the coordinates in the captured image into the coordinates in the computer main body 20. Is performed to convert the coordinates (step S200), the converted coordinates are output (step S202), and the process exits from the return.

【0085】図19は、図18の図中で示されている先
端検出サブルーチンのフローチャートである。図示する
ように、CPU40は処理が開始されると、指定された
領域をスキャンするための情報の初期化を行う(ステッ
プS210)。続いて、指定された領域の内側の上下左
右の端線上に存在する点の数および点の座標を記録する
(ステップS212)。
FIG. 19 is a flowchart of the leading edge detection subroutine shown in FIG. As shown, when the processing is started, the CPU 40 initializes information for scanning a designated area (step S210). Subsequently, the number and coordinates of points existing on the upper, lower, left, and right end lines inside the designated area are recorded (step S212).

【0086】続いて、スキャンした結果、点が存在した
か否かを判定する(ステップS214)。
Subsequently, it is determined whether or not a point exists as a result of the scanning (step S214).

【0087】もし、点が存在しなかった場合には、差分
像が存在しない、つまり、先端検出の対象物がスキャン
領域内部に存在しないか、あるいは、対象物は存在する
が静止していると判断し、スキャン不可と判断し(S2
36)、リターンに抜けて処理を終了する。
If the point does not exist, the difference image does not exist, that is, it is determined that the object for which the leading edge detection does not exist in the scan area, or that the object exists but is stationary. It is determined that scanning is not possible (S2
36), return to the end of the process.

【0088】一方、外周に点が存在した場合には、各端
線に存在した点の数を比較し、点の数が最も多かった端
線をスキャン開始線とする(ステップS216)。続い
て、一本隣の線をスキャンし、存在した点の数および点
の座標を記録する(ステップS218)。
On the other hand, if there are points on the outer circumference, the number of points existing on each end line is compared, and the end line having the largest number of points is set as the scan start line (step S216). Subsequently, the next adjacent line is scanned, and the number of existing points and the coordinates of the points are recorded (step S218).

【0089】続いて、今回スキャンした線の全部の点に
ついて、現在スキャンしている線の1つ前の線から数ラ
イン前までの線に存在する全ての有効なドットとの距離
を計算し、距離がある任意の画素数以下(この任意の画
素数は、現在スキャンしておるラインに存在するドット
が有効なドットであるか否かを判定する値であり、本実
施例においては5とするが、本発明においてはこの数に
何ら限定されるものではない)のものが存在しない点は
無効な点として除去し、有効な点のみを抽出する(ステ
ップS220)。そして、5つ前の線のドット情報を破
棄し、ドット情報を入れ替える(ステップS222)。
Subsequently, for all the points of the line scanned this time, the distances from all the valid dots existing on the line from the line immediately before the line currently being scanned to several lines before are calculated, The distance is equal to or less than an arbitrary number of pixels (the arbitrary number of pixels is a value for determining whether or not a dot present on the line currently being scanned is a valid dot, and is set to 5 in this embodiment. However, the present invention is not limited to this number. The points that do not exist are removed as invalid points, and only valid points are extracted (step S220). Then, the dot information of the line five lines before is discarded, and the dot information is replaced (step S222).

【0090】続いて、有効な点を抽出した結果、スキャ
ンしたラインの点情報が存在するか否かの判定を行う
(ステップS224)。有効な点が存在すると判定され
た場合、無効距離を0に設定する(ステップS22
8)。一方、有効な点が存在しなかったと判定された場
合には、現在スキャンした線は無効であるとして、無効
距離の値に1を加える(ステップS226)。
Subsequently, as a result of extracting valid points, it is determined whether or not point information of the scanned line exists (step S224). If it is determined that a valid point exists, the invalid distance is set to 0 (step S22).
8). On the other hand, when it is determined that there is no valid point, it is determined that the currently scanned line is invalid, and 1 is added to the value of the invalid distance (step S226).

【0091】次に、先端が検出されたか否かの判定を行
う(ステップS230)。
Next, it is determined whether or not the leading end has been detected (step S230).

【0092】無効距離の値がある任意のライン数以上
(この任意のライン数は、現在スキャンしておる線より
先に有効な点が存在するか否かを判定する値であり、本
実施例においては5とするが、本発明においてはこの数
に何ら限定されるものではない)と判定された場合に
は、それより先には点が存在しないと判断し、最後に有
効な点が存在した線の平均座標を検出結果として出力し
(ステップS236)、リターンに抜けて処理が終了す
る。
The value of the invalid distance is equal to or more than an arbitrary number of lines (the number of arbitrary lines is a value for determining whether or not an effective point exists before the line currently being scanned. In the present invention, the number is set to 5, but the present invention is not limited to this number at all). The average coordinates of the detected line are output as a detection result (step S236), and the process ends with returning.

【0093】一方、無効距離の値が5未満と判定された
場合には、現在スキャンした線が、開始した端と反対側
の端であるかどうか判定する(ステップS232)。ス
キャンした線が、開始した端と反対側の端であると判定
された場合には、最後に有効な点が存在した線の平均座
標を検出結果として出力し(ステップS236)、リタ
ーンに抜けて処理が終了する。
On the other hand, if it is determined that the value of the invalid distance is less than 5, it is determined whether or not the currently scanned line is the end opposite to the start end (step S232). If it is determined that the scanned line is the end opposite to the start end, the average coordinates of the line on which the last valid point was present are output as a detection result (step S236), and the process returns to the return. The process ends.

【0094】一方、現在スキャンした線が、開始した端
と反対側の端ではないと判定された場合には、ステップ
S218に戻り、一つ内側の線のスキャンを開始する。
On the other hand, if it is determined that the currently scanned line is not the end opposite to the start end, the process returns to step S218 to start scanning the next inner line.

【0095】上記実施例は、プロジェクターとして液晶
方式のプロジェクターが用いられているが、画像データ
に応じて微少なミラーの角度を制御することにより変調
を行う反射型光変調素子を用いた方式のプロジェクター
を適用する構成としてもよい。また、図1ではコンピュ
ータ本体20にデスクトップ型コンピュータが用いられ
ているが、これに替えて、ノート型コンピュータに適用
する構成としてもよい。また、図1ではスクリーン10
上にに液晶プロジェクター16からの投射像を投影して
いるが、これに替えて、ホワイトボードに適用する構成
としてもよい。
In the above embodiment, a liquid crystal projector is used as the projector, but a projector using a reflection type light modulation element that performs modulation by controlling the angle of a minute mirror in accordance with image data. May be applied. Although a desktop computer is used for the computer main body 20 in FIG. 1, the configuration may be applied to a notebook computer instead. Also, in FIG.
Although the projection image from the liquid crystal projector 16 is projected above, a configuration in which the projection image is applied to a whiteboard may be used instead.

【0096】以上、本発明の一実施例を詳述してきた
が、本発明は、こうした実施例にのみ限定されるもので
はなく、本発明の要旨を逸脱しない範囲において種々な
る様態にて実施できるのは勿論のことである。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and can be carried out in various modes without departing from the gist of the present invention. Of course it is.

【0097】[0097]

【発明の効果】以上説明したように、本発明のポインテ
ィング装置ならびにポインティング制御方法ならびに記
録媒体は、コンピュータ、プロジェクター、通常のスク
リーンあるいはホワイトボードに撮像手段を加えること
で、校正作業の自動化、また、特殊なスクリーンあるい
は特殊なペンを用いること無く、ポインティング動作を
行うことができるという効果を有している。
As described above, the pointing device, the pointing control method, and the recording medium of the present invention can automate a calibration work by adding an image pickup means to a computer, a projector, a normal screen or a whiteboard. There is an effect that the pointing operation can be performed without using a special screen or a special pen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例を適用するコンピューター
システム、液晶プロジェクター、撮像素子、スクリーン
あるいはホワイトボード、発表者の概観図である。
FIG. 1 is a schematic view of a computer system, a liquid crystal projector, an image sensor, a screen or whiteboard, and a presenter to which an embodiment of the present invention is applied.

【図2】コンピュータシステムのハードウェアの概略構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of hardware of a computer system.

【図3】撮像装置14のハードウェアの概略構成を示す
構成図である。
FIG. 3 is a configuration diagram illustrating a schematic configuration of hardware of the imaging device.

【図4】撮像装置14が取り込んだ画像に対してコンピ
ュータ本体20で行われる処理の様子を示すブロック図
である。
FIG. 4 is a block diagram illustrating a state of processing performed by a computer main body 20 on an image captured by an imaging device 14.

【図5】撮像装置14が取り込んだ画像に対してコンピ
ュータ本体20で行われる処理の様子を示すブロック図
である。
FIG. 5 is a block diagram illustrating a state of processing performed by a computer main body 20 on an image captured by an imaging device 14.

【図6】CPU40で実行される画面設定からポインテ
ィング処理を行うまでの一連の処理の流れを示したフロ
ーチャートである。
FIG. 6 is a flowchart showing a flow of a series of processes from a screen setting to a pointing process executed by a CPU 40.

【図7】CPU40で実行される画面設定サブルーチン
のフローチャートである。
FIG. 7 is a flowchart of a screen setting subroutine executed by a CPU 40;

【図8】CPU40で実行される白パターン表示サブル
ーチンが実行された時に表示されるパターンを示した説
明図である。
FIG. 8 is an explanatory diagram showing a pattern displayed when a white pattern display subroutine executed by a CPU 40 is executed.

【図9】CPU40で実行される画像取り込みサブルー
チンのフローチャートである。
FIG. 9 is a flowchart of an image capturing subroutine executed by the CPU 40;

【図10】CPU40で実行されるプロジェクター投射
像枠抽出サブルーチンのフローチャートである。
FIG. 10 is a flowchart of a projector projection image frame extraction subroutine executed by a CPU 40;

【図11】CPU40で実行される位置校正用パターン
表示サブルーチンが実行された時に表示されるパターン
を示した説明図である。
FIG. 11 is an explanatory diagram showing a pattern displayed when a position calibration pattern display subroutine executed by the CPU 40 is executed.

【図12】CPU40で実行される校正用ドット座標抽
出サブルーチンのフローチャートである。
FIG. 12 is a flowchart of a calibration dot coordinate extraction subroutine executed by the CPU 40;

【図13】CPU40で実行される指定領域二値化サブ
ルーチンのフローチャートである。
FIG. 13 is a flowchart of a designated area binarization subroutine executed by the CPU 40;

【図14】CPU40で実行されるポインティング処理
サブルーチンのフローチャートである。
FIG. 14 is a flowchart of a pointing processing subroutine executed by the CPU 40;

【図15】CPU40で実行される静止画用画像処理サ
ブルーチンのフローチャートである。
FIG. 15 is a flowchart of a still image processing subroutine executed by the CPU 40;

【図16】CPU40で実行される動画用画像処理サブ
ルーチンのフローチャートである。
16 is a flowchart of a moving image processing subroutine executed by the CPU 40. FIG.

【図17】CPU40で実行される差分像二値化サブル
ーチンのフローチャートである。
FIG. 17 is a flowchart of a differential image binarization subroutine executed by the CPU 40;

【図18】CPU40で実行される先端座標出力サブル
ーチンのフローチャートである。
FIG. 18 is a flowchart of a tip coordinate output subroutine executed by the CPU 40.

【図19】CPU40で実行される先端検出サブルーチ
ンのフローチャートである。
FIG. 19 is a flowchart of a leading edge detection subroutine executed by the CPU 40.

【符号の説明】[Explanation of symbols]

10…スクリーンまたはホワイトボード 12…液晶プロジェクター投射像 14…撮像装置 16…液晶プロジェクター 18…CRTディスプレイ 20…コンピュータ本体 22…キーボード 24…マウス 26…フロッピーディスク 28…フロッピーディスクドライブ 30…HDD 32…モデム 34…外部ネットワーク回線 36…外部コンピュータ 40…CPU 42…RAM 44…ROM 46…ビデオキャプチャデバイス 48…パラレルインターフェイス 50…USBインターフェイス 52…ネットワークインターフェイス 54…シリアルインターフェイス 56…マウスインターフェイス 58…キーボードインターフェイス 60…FDC 62…HDC 64…CRTC 66…IEEE1394インターフェイス 80…発表者 82…差し棒 100…焦点制御装置 102…撮像素子 104…絞り制御装置 106…絞り 108…ゲイン制御装置 110…増幅器 120…ビデオキャプチャドライバ 122…画像処理ルーチン 124…ポインティングアドレス計算ルーチン 126…マウスドライバ 128…アプリケーション 130…ビデオドライバ 150…画像処理およびポインティング処理チップ DESCRIPTION OF SYMBOLS 10 ... Screen or white board 12 ... Liquid crystal projector projection image 14 ... Imaging device 16 ... Liquid crystal projector 18 ... CRT display 20 ... Computer body 22 ... Keyboard 24 ... Mouse 26 ... Floppy disk 28 ... Floppy disk drive 30 ... HDD 32 ... Modem 34 ... External network line 36 ... External computer 40 ... CPU 42 ... RAM 44 ... ROM 46 ... Video capture device 48 ... Parallel interface 50 ... USB interface 52 ... Network interface 54 ... Serial interface 56 ... Mouse interface 58 ... Keyboard interface 60 ... FDC 62 ... HDC 64 ... CRTC 66 ... IEEE 1394 interface 80 ... Presenter 82 Stick 100 Focus control device 102 Image sensor 104 Aperture control device 106 Aperture 108 Gain control device 110 Amplifier 120 Video capture driver 122 Image processing routine 124 Pointing address calculation routine 126 Mouse driver 128 Application 130: video driver 150: image processing and pointing processing chip

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】コンピュータの出力画像をスクリーン上に
投射し表示させる表示手段と、 前記スクリーン上に表示される投射像を撮像装置により
前記コンピュータに取り込む取込手段と、 前記スクリーン上に投射された校正用パターンを前記取
込手段により前記コンピュータに取り込み、取り込んだ
画像を用いて校正作業を行う校正手段と、 を備えることを特徴とする表示システム。
A display means for projecting and displaying an output image of a computer on a screen; a capturing means for capturing a projection image displayed on the screen into the computer by an imaging device; and a projection means for projecting the image on the screen. A display system comprising: a calibration unit that captures a calibration pattern into the computer by the capturing unit, and performs a calibration operation using the captured image.
【請求項2】請求項1記載の表示システムであって、 前記校正手段は、 取り込んだ画像を二値化する際に、該画像を複数の領域
に分けて、該領域ごとに閾値を設定し二値化を行う処理
を含むことを特徴とする表示システム。
2. The display system according to claim 1, wherein said calibration means divides the captured image into a plurality of regions and sets a threshold value for each region when binarizing the captured image. A display system including a process of performing binarization.
【請求項3】請求項1または2記載の表示システムであ
って、 前記校正手段は、 取り込んだ画像から前記表示手段の投射領域を抽出する
処理を含むことを特徴とする表示システム。
3. The display system according to claim 1, wherein said calibration means includes a process of extracting a projection area of said display means from a captured image.
【請求項4】請求項1乃至請求項3のいずれかに記載の
表示システムであって、 前記撮像装置は、 校正作業終了後は、当該撮像装置の焦点、絞りおよびゲ
インを固定することを特徴とする表示システム。
4. The display system according to claim 1, wherein the image pickup device fixes a focus, an aperture, and a gain of the image pickup device after completion of a calibration operation. And display system.
【請求項5】請求項1乃至請求項4のいずれかに記載の
表示システムであって、 前記校正手段は、 取り込んだ画像から前記校正用パターンを抽出する際
に、領域を複数に分けて、領域ごとに前記校正用パター
ンを抽出することを特徴とする表示システム。
5. The display system according to claim 1, wherein the calibration unit divides an area into a plurality of areas when extracting the calibration pattern from the captured image. A display system for extracting the calibration pattern for each area.
【請求項6】 プロジェクターを用いてコンピュータの
出力画像をスクリーン上に投射し表示させる表示手段
と、 前記スクリーン上に表示される前記プロジェクターから
の投射像を撮像装置により前記コンピュータに取り込む
取込手段と、 前記取込手段により取り込んだ画像に対してフレーム間
の差分像を計算し、さらにその画像を二値化し二値化差
分像を生成する画像生成手段と、 前記二値化差分像中に何らかの指示手段で指し示された
個所があれば、前記二値化差分像を用いてその個所を検
出する検出手段とを備えることを特徴とする表示システ
ム。
6. A display means for projecting and displaying an output image of a computer on a screen by using a projector, and a capture means for capturing a projection image displayed on the screen from the projector by the imaging device into the computer. An image generating unit that calculates a difference image between frames for the image captured by the capturing unit, and further binarizes the image to generate a binary difference image; A display system comprising: a detection unit that detects a location indicated by the instruction unit using the binarized difference image if the location is indicated by the instruction unit.
【請求項7】請求項6記載の表示システムであって、 前記撮像装置は、 画像を取り込む際に、当該撮像装置の焦点、絞りおよび
ゲインを固定することを特徴とする表示システム。
7. The display system according to claim 6, wherein, when capturing an image, the imaging device fixes a focus, an aperture, and a gain of the imaging device.
【請求項8】請求項6または請求項7記載の表示システ
ムであって、 前記画像生成手段は、 差分像を二値化する際に、差分像を計算する際に用いた
2つの元画像から各画素に対する閾値を設定し、画像を
二値化する処理を含むことを特徴とする表示システム。
8. The display system according to claim 6, wherein said image generating means is configured to convert the difference image from two original images used to calculate the difference image when binarizing the difference image. A display system comprising a process of setting a threshold value for each pixel and binarizing an image.
【請求項9】請求項6乃至請求項8のいずれかに記載の
表示システムであって、 前記検出手段は、 矩形上にスキャン領域を設定し、設定された該スキャン
領域の四辺の内側の近傍に存在する点の数を比較し、最
も点の数が多い辺をスキャン開始位置とし、スキャン開
始位置から領域の内側に向かって順次スキャンを行い、
スキャンした線と以前にスキャンした線上に存在する点
との距離を比較し、有効な点と判定された点のみを抽出
し先端検出を行い、先端が検出された結果と、一つ前の
先端検出時に検出された検出結果とを比較して、検出結
果を決定する処理を含むことを特徴とする表示システ
ム。
9. The display system according to claim 6, wherein said detecting means sets a scan area on a rectangle, and sets a scan area near four sides of the set scan area. Compare the number of points present in the, the scan start position is the side with the largest number of points, scan sequentially from the scan start position toward the inside of the area,
Compare the distance between the scanned line and the point on the previously scanned line, extract only the points that are determined to be valid points and perform tip detection.The result of the tip detection and the previous tip A display system comprising a process of comparing a detection result detected at the time of detection and determining a detection result.
【請求項10】請求項6乃至請求項9のいずれかに記載
の表示システムであって、 前記検出手段は、 前回の先端検出時に先端が検出された場合には、先端検
出の際の先端検出領域を前回の先端検出時に検出された
場所の周辺のみとする処置を含むことを特徴とする表示
システム。
10. The display system according to claim 6, wherein the detecting means detects a leading end when the leading end is detected at a previous leading end detection. A display system characterized by including a process of setting an area only around a location detected at the time of a previous tip detection.
【請求項11】請求項6乃至請求項10のいずれかに記
載の表示システムであって、 前記検出手段は、 先端が検出されている状態と先端が検出されていない状
態とで異なる先端検出後の処理方法を有し、その先端が
検出されているか否かの判断は前回までの先端検出の結
果により行われる処理を含むことを特徴とする表示シス
テム。
11. The display system according to claim 6, wherein said detecting means is configured to detect a state in which the tip is detected and a state in which the tip is not detected after detecting the tip. Wherein the determination as to whether or not the tip is detected includes a process performed based on the results of the previous tip detection.
【請求項12】コンピュータ、プロジェクター、スクリ
ーン、および、撮像装置からなる表示システムにおける
ポインティング制御方法であって、 (a)前記撮像装置の画像取り込み条件を設定する工程
と、 (b)前記工程(a)によって設定が完了した撮像装置
から取り込んだ画像に対し画像処理を行う工程と、 (c)前記工程(b)によって画像処理が施された画像
に対し、ポインティングアドレスを計算する工程とを備
えるポインティング制御方法。
12. A pointing control method in a display system including a computer, a projector, a screen, and an imaging device, comprising: (a) a step of setting an image capturing condition of the imaging device; and (b) the step (a). A) a step of performing image processing on an image captured from the imaging device whose settings have been completed according to step (b); and (c) a step of calculating a pointing address for the image subjected to image processing in step (b). Control method.
【請求項13】プロジェクター、コンピュータ、スクリ
ーン、および撮像装置を用いた表示システムにおけるポ
インティング制御のためのコンピュータプログラムを記
録した記録媒体であって、 (a)前記撮像装置の画像取り込み条件を設定する工程
と、 (b)前記工程(a)によって設定が完了した撮像装置
から取り込んだ画像に対し画像処理を行う工程と、 (c)前記工程(b)によって画像処理が施された画像
に対し、ポインティングアドレスを計算する工程とをコ
ンピュータに実行させるためのコンピュータプログラム
を記録した記録媒体。
13. A recording medium recording a computer program for pointing control in a display system using a projector, a computer, a screen, and an imaging device, wherein: (a) a step of setting an image capturing condition of the imaging device (B) performing image processing on the image captured from the imaging device that has been set in step (a); and (c) pointing the image that has been subjected to image processing in step (b). A recording medium recording a computer program for causing a computer to execute the step of calculating an address.
JP43299A 1999-01-05 1999-01-05 Display system, pointing control method and recording medium Withdrawn JP2000200149A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP43299A JP2000200149A (en) 1999-01-05 1999-01-05 Display system, pointing control method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP43299A JP2000200149A (en) 1999-01-05 1999-01-05 Display system, pointing control method and recording medium

Publications (1)

Publication Number Publication Date
JP2000200149A true JP2000200149A (en) 2000-07-18

Family

ID=11473664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP43299A Withdrawn JP2000200149A (en) 1999-01-05 1999-01-05 Display system, pointing control method and recording medium

Country Status (1)

Country Link
JP (1) JP2000200149A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006011192A1 (en) * 2004-07-26 2006-02-02 Mitsubishi Denki Kabushiki Kaisha Conference system
JP2010217760A (en) * 2009-03-18 2010-09-30 Konica Minolta Business Technologies Inc Method and device for generating projection assistant image, and image forming apparatus
JP2013070368A (en) * 2011-09-05 2013-04-18 Panasonic Corp Television interactive system, terminal, and method
US9535538B2 (en) 2013-03-05 2017-01-03 Ricoh Company, Ltd. System, information processing apparatus, and information processing method
JPWO2016129489A1 (en) * 2015-02-10 2018-01-18 シャープ株式会社 Display device, display device control method, control program, and recording medium
US11402927B2 (en) 2004-05-28 2022-08-02 UltimatePointer, L.L.C. Pointing device
US11841997B2 (en) 2005-07-13 2023-12-12 UltimatePointer, L.L.C. Apparatus for controlling contents of a computer-generated image using 3D measurements

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11402927B2 (en) 2004-05-28 2022-08-02 UltimatePointer, L.L.C. Pointing device
US11409376B2 (en) 2004-05-28 2022-08-09 UltimatePointer, L.L.C. Multi-sensor device with an accelerometer for enabling user interaction through sound or image
US11416084B2 (en) 2004-05-28 2022-08-16 UltimatePointer, L.L.C. Multi-sensor device with an accelerometer for enabling user interaction through sound or image
US11755127B2 (en) 2004-05-28 2023-09-12 UltimatePointer, L.L.C. Multi-sensor device with an accelerometer for enabling user interaction through sound or image
WO2006011192A1 (en) * 2004-07-26 2006-02-02 Mitsubishi Denki Kabushiki Kaisha Conference system
US11841997B2 (en) 2005-07-13 2023-12-12 UltimatePointer, L.L.C. Apparatus for controlling contents of a computer-generated image using 3D measurements
JP2010217760A (en) * 2009-03-18 2010-09-30 Konica Minolta Business Technologies Inc Method and device for generating projection assistant image, and image forming apparatus
JP2013070368A (en) * 2011-09-05 2013-04-18 Panasonic Corp Television interactive system, terminal, and method
US9535538B2 (en) 2013-03-05 2017-01-03 Ricoh Company, Ltd. System, information processing apparatus, and information processing method
JPWO2016129489A1 (en) * 2015-02-10 2018-01-18 シャープ株式会社 Display device, display device control method, control program, and recording medium

Similar Documents

Publication Publication Date Title
US9092868B2 (en) Apparatus for detecting object from image and method therefor
US7860310B2 (en) Image processing apparatus and method, computer program, and storage medium
JP2002133426A (en) Ruled line extracting device for extracting ruled line from multiple image
CN110849909A (en) Inspection apparatus, image forming apparatus, and inspection method
CN110647882A (en) Image correction method, device, equipment and storage medium
CN103428511A (en) Pattern processing device, pattern processing method
JP2010160640A (en) Image processor, printer, image processing method and image processing program
JP2000200149A (en) Display system, pointing control method and recording medium
US8254693B2 (en) Image processing apparatus, image processing method and program
JP2002015280A (en) Device and method for image recognition, and computer- readable recording medium with recorded image recognizing program
CN112419207A (en) Image correction method, device and system
US20230326035A1 (en) Target object segmentation method and related device
JP2017161969A (en) Character recognition device, method, and program
US20240104919A1 (en) Information processing apparatus and information processing method
JP2010186268A (en) Image processor, printer, image processing method and image processing program
JP2007219899A (en) Personal identification device, personal identification method, and personal identification program
JP3698867B2 (en) Circular pattern determination method, apparatus and recording medium
JP3814334B2 (en) Image processing apparatus and method
JPH10162102A (en) Character recognition device
JP2008269131A (en) Image processor and image processing program
US11316995B2 (en) Bending detection device and image processing apparatus
JP3019897B2 (en) Line segmentation method
JP2000333022A (en) Method and device for binarizing picture and storage medium
JP2003317107A (en) Method and device for ruled-line detection
JP3000480B2 (en) Character area break detection method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060309