JP2003036142A - System and method for presentation - Google Patents

System and method for presentation

Info

Publication number
JP2003036142A
JP2003036142A JP2001222687A JP2001222687A JP2003036142A JP 2003036142 A JP2003036142 A JP 2003036142A JP 2001222687 A JP2001222687 A JP 2001222687A JP 2001222687 A JP2001222687 A JP 2001222687A JP 2003036142 A JP2003036142 A JP 2003036142A
Authority
JP
Japan
Prior art keywords
image
screen
light spot
information
pointing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001222687A
Other languages
Japanese (ja)
Inventor
Chigiri Utsugi
契 宇都木
Toshio Moriya
俊夫 守屋
Haruo Takeda
晴夫 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001222687A priority Critical patent/JP2003036142A/en
Publication of JP2003036142A publication Critical patent/JP2003036142A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide presentation technology for indicating a reference place and obtaining natural operability even when a large-sized screen is used. SOLUTION: A presentation system displays an image on a screen and indicates a point in the image with a light spot by using a pointing device. An image recognizing means extracts the light spot indicated by the pointing device from the image picked up by an imaging means and detects the position indicated by the pointing device. An image generating means generates an image having a symbol added at the position. The image with the added symbol is displayed on the screen by an image display means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、スクリーン上に画
像を表示し、該スクリーン上に表示された画像を指し示
しながら説明を進めるためのプレゼンテーション技術に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a presentation technique for displaying an image on a screen and pointing to the image displayed on the screen to proceed with the explanation.

【0002】[0002]

【従来の技術】従来から、プレゼンテーションを行う際
には、聴衆の前に要旨の記載された大きな掲示物を提示
し、講話で語っている文脈に対応する位置や参照すべき
図を指し示しながら話を進めていくのが慣例とされてき
た。
2. Description of the Related Art Conventionally, when giving a presentation, a large bulletin board having a brief description is presented in front of an audience, and a position is shown corresponding to a context or a figure to be referred in a lecture. It has been customary to proceed with.

【0003】近年、パーソナルコンピュータが普及し
て、電子プレゼンテーションが一般的になるにつれて、
従来からのプレゼンテーションで用いられてきた参照位
置の指示方法と、電子プレゼンテーションの進め方との
齟齬が問題とされるようになってきた。
With the widespread use of personal computers in recent years and the generalization of electronic presentations,
The discrepancy between the method of indicating the reference position, which has been used in conventional presentations, and the way in which electronic presentations proceed has become a problem.

【0004】プレゼンテーション用ソフトウエア(アプ
リケーション)を用いて表示した画面上の参照個所を指
示する方法として、現在ではおもに2種類の方法があ
る。一つは、マウスなどのパーソナルコンピュータに固
有の位置指示装置を用いて位置指示用アイコンを操作
し、パーソナルコンピュータ画面内での指示を行うもの
である。もう一つは、物理的な指示棒や、またはレーザ
ポインタの光点によって、直接にプレゼンテーションの
投影画面に向けて指定を行うものである。これらのどち
らかを選択する、または両方を使用する方法が一般的で
ある。
At present, there are mainly two types of methods for instructing a reference point on a screen displayed by using presentation software (application). One is to operate a position indicating icon by using a position indicating device such as a mouse, which is unique to a personal computer, to give an instruction on the screen of the personal computer. The other is to directly specify the projection screen of the presentation by using a physical pointer or a light spot of a laser pointer. A method of selecting one of these or using both is general.

【0005】しかし、前者の場合は、従来からのプレゼ
ンテーションの方法にそぐわないため、聴衆との対話的
な印象を与えつつ自然な操作感を得ることは難しい。一
方、後者の場合には、プレゼンテーション用アプリケー
ションの操作を、別の手段によって行う必要がある。ま
た、大画面スクリーンを用いたプレゼンテーションなど
においては、後者の方法では参照個所が判然としない場
合や、指示が物理的に困難になる場合がある。このよう
に、より自然な操作感と、コンピュータのインタラクテ
ィブ的機能の活用を共存させる手法が模索されている。
この問題に対し、さまざまな発明が考案されている。
However, in the former case, it is not suitable for the conventional presentation method, and it is difficult to obtain a natural operation feeling while giving an interactive impression with the audience. On the other hand, in the latter case, the operation of the presentation application needs to be performed by another means. In the case of a presentation using a large screen, the latter method may make the reference point unclear or may make the instruction physically difficult. As described above, a method for coexisting a more natural operation feeling and utilization of the interactive function of the computer is being sought.
Various inventions have been devised for this problem.

【0006】特開平6-308879号公報においては、表示画
面(またはその周辺付近)から発せられる光による情報
を指示器に取り込み、指示器の位置と軸方向を算出し
て、画面上にポイントマークを示す方法が提案されてい
る。
In Japanese Patent Laid-Open No. 6-308879, information on light emitted from a display screen (or the vicinity thereof) is taken into an indicator, the position and axial direction of the indicator are calculated, and a point mark is displayed on the screen. Has been proposed.

【0007】特開平8-95707号公報においては、赤外線
カメラでスクリーンを撮影し、指示棒の落とす影の先端
位置を検出して指示者が示している位置を算出する方法
が提唱されている。
Japanese Patent Laid-Open No. 8-95707 proposes a method of photographing the screen with an infrared camera, detecting the tip position of the shadow cast by the pointer, and calculating the position indicated by the pointer.

【0008】特開平10-39994号公報においては、説明者
の位置、傾き、注視点を、説明者が身に付けた器具で随
時計測することにより、指示されている位置を算出する
方法が示されている。
Japanese Unexamined Patent Publication No. 10-39994 discloses a method of calculating the instructed position by measuring the position, inclination, and gazing point of the explainer at any time with an instrument worn by the explainer. Has been done.

【0009】特開平9-120340号公報においては、使用者
がレーザビームポインタで画像上を指示した位置を、フ
ォーカシングを調整して、スポット中心を固定したまま
でスポット径を拡大させてセンサに入射させ、各センサ
への入射タイミングを検出して求める方法が提唱されて
いる。
In Japanese Patent Laid-Open No. 9-120340, a user adjusts the focusing at a position pointed on the image with a laser beam pointer to increase the spot diameter while keeping the spot center fixed and incident on the sensor. Then, a method has been proposed in which the timing of incidence on each sensor is detected and obtained.

【0010】また、近年においては、特開2000-81950号
公報において、スクリーン上の画像に指示棒で指示され
た輝点をカメラで撮像し、この輝点の位置および点滅パ
ターンを検出する技術が提唱されている。
Further, in recent years, in Japanese Patent Laid-Open No. 2000-81950, there is a technique in which a camera captures an image of a bright spot pointed by a pointing rod and the position of this bright spot and a blinking pattern are detected. Proposed.

【0011】[0011]

【発明が解決しようとする課題】上述の特開2000-81950
号公報で提唱された技術においては、指示棒で直接スク
リーン上を指示しなければならず、大画面スクリーンを
用いたプレゼンテーションなどにおいては、指示が物理
的に困難になる場合がある。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
In the technique proposed in Japanese Patent Laid-Open Publication, it is necessary to directly point on the screen with a pointer, and in a presentation using a large screen, the instruction may be physically difficult.

【0012】また、上述の特開2000-81950号公報で提唱
された技術においては、カメラで常時スクリーンを撮像
し、画像処理によってスクリーンに映った輝点(参照個
所)を検出する。この操作には、多大な計算負荷がかか
る。この負荷を実時間処理で行うためには、高速な計算
処理を必要とする。さらに、大画面スクリーンを用い
て、レーザーポインタのような光学的なポインティング
デバイスでスクリーンに光点を投影して位置指示を行う
場合には、ポインティングデバイスの出力性能や、指示
者との距離にも依存するが、さらに高い解像度でスクリ
ーンを撮像しなければ、参照個所の検出が出来ない場合
がしばしば発生することが想定される。この場合には、
カメラにより高い性能が必要とされ、それに伴い計算負
荷もより増大する。
Further, in the technique proposed in the above-mentioned Japanese Patent Laid-Open No. 2000-81950, the camera constantly captures an image of the screen, and the bright points (reference points) reflected on the screen are detected by image processing. This operation requires a large calculation load. To perform this load in real-time processing, high-speed calculation processing is required. Furthermore, when a large screen is used and an optical pointing device such as a laser pointer is used to project a light spot on the screen to indicate a position, the output performance of the pointing device and the distance to the instructor are also affected. Depending on the situation, it is assumed that the reference point cannot often be detected unless the screen is imaged at a higher resolution. In this case,
Higher performance is required for the camera, and the computational load increases accordingly.

【0013】そこで、本発明の目的は、大画面スクリー
ンを用いたプレゼンテーションなどにおいても、参照個
所の指示が可能であり、自然な操作性を得ることができ
るプレゼンテーション技術を提供することである。
[0013] Therefore, an object of the present invention is to provide a presentation technique capable of indicating a reference point even in a presentation using a large-screen screen and obtaining natural operability.

【0014】また、本発明の目的は、カメラによる高解
像度の撮像が可能となり、多大な計算負荷を実時間処理
で行うために、画像認識処理を高速に、効率良く、高い
精度で行うことができるプレゼンテーション技術を提供
することである。
Another object of the present invention is to enable high-resolution image capturing by a camera and to carry out a large calculation load in real-time processing, so that image recognition processing can be performed at high speed, efficiency, and high accuracy. It is to provide a presentation technology that can be done.

【0015】[0015]

【課題を解決するための手段】前記第一の課題を解決す
るために、本発明においては、レーザポインタを代表と
する光学的な指示器をもちいて、スクリーン上の参照位
置に光点を投影する。そのスクリーンをカメラにより撮
像した画像から、画像認識装置により画像処理を用いて
光点を抽出し、同装置によりこの光点の形状を認識して
参照位置を計算し、計算機により参照位置に分かりやす
いシンボルを合成する。そして、このシンボルを合成さ
れた画像をスクリーン上に投影する。
To solve the first problem, the present invention uses an optical indicator typified by a laser pointer to project a light spot at a reference position on a screen. To do. From the image of the screen captured by the camera, a light spot is extracted using image processing by an image recognition device, the shape of this light spot is recognized by the device to calculate the reference position, and the reference position can be easily understood by a computer. Combine symbols. Then, the image combined with this symbol is projected on the screen.

【0016】また、前記第二の課題を解決するために、
複数のカメラを用いてスクリーンを撮像することにより
高解像度の撮像が可能になる。さらに、その各カメラの
画像を、別々の画像認識装置を用いて画像処理と認識処
理を行うことにより、これらの処理の全工程を効率的に
分散処理する。
In order to solve the second problem,
A high resolution image can be obtained by capturing an image of the screen using a plurality of cameras. Further, the images of the respective cameras are subjected to image processing and recognition processing by using different image recognition devices, so that all steps of these processing are efficiently distributed.

【0017】[0017]

【発明の実施の形態】以下、本発明の一実施の形態を説
明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below.

【0018】図1は、本発明を利用したプレゼンテーシ
ョンシステムの一実施の形態を示す構成図である。
FIG. 1 is a block diagram showing an embodiment of a presentation system using the present invention.

【0019】スクリーン100は、プレゼンテーション内
容を、画像として表示するスクリーンを示している。こ
の画面が投影されるスクリーン面は、平面、非平面のい
ずれでもありうる。このスクリーンが特殊な形式のもの
であっても、本発明は対応が可能となっている。
The screen 100 is a screen for displaying the content of the presentation as an image. The screen surface onto which this screen is projected can be either flat or non-planar. Even if this screen is of a special type, the present invention can be applied.

【0020】指示者105は、プレゼンテーションの講話
の最中、参照するべき内容が表示されているスクリーン
100上の個所に向けて、光学的ポインティングデバイス1
04の投射光を投影する。102は、指示者105が保持するポ
インティングデバイス104で投射された光点を示してい
る。また、103は、ポインティングデバイス104で指示さ
れたスクリーン画面上の指示位置を示すための視覚的イ
メージ(シンボル)を表す。このイメージ104は、光学
的ポインティングデバイスの指示位置を強調するために
描かれたものであり、計算機114上で動作するプレゼン
テーション用アプリケーション、もしくはその補助アプ
リケーションによって作成され、画像表示装置108内の
プロジェクタ106によって、プレゼンテーション内容と
ともに表示されるものである。以下では、これを指示ア
イコンと表記する。図1における106はスクリーンに画面
を投影するプロジェクタを表す。このプロジェクタ106
は、画像表示装置108内の歪み補正装置115の処理によっ
て送られてきたスクリーン用補正後の画像データを、ス
クリーン100に投影する。このプロジェクタ106は、複数
存在する場合もある。
The instructor 105 is a screen displaying the contents to be referred during the lecture of the presentation.
Optical pointing device towards 100 spots 1
Projects the 04 projection light. Reference numeral 102 denotes a light spot projected by the pointing device 104 held by the instructor 105. Further, 103 represents a visual image (symbol) for indicating a designated position on the screen screen designated by the pointing device 104. This image 104 is drawn in order to emphasize the pointing position of the optical pointing device, is created by a presentation application running on the computer 114 or its auxiliary application, and is projected by the projector 106 in the image display device 108. Is displayed together with the presentation content. Below, this is described as an instruction icon. Reference numeral 106 in FIG. 1 denotes a projector that projects a screen on a screen. This projector 106
Projects the screen-corrected image data sent by the processing of the distortion correction device 115 in the image display device 108 onto the screen 100. There may be a plurality of projectors 106.

【0021】非平面スクリーンに画像を投影する際に
は、この歪み補正装置115は、プレゼンーテンション用
アプリケーションが動作している計算機114が出力する
プレゼンテーションの画像(以下においては、この画像
を原画像と表記する)を入力として受け取り、スクリー
ン100の歪みに合わせて補正した画像をプロジェクタ106
に出力する。この歪み補正装置115には、以上の機能を
保有する既存の製品を使用するものとする。プレゼンテ
ーションの動作中、スクリーン100の観測を続ける計測
カメラ107‐1,107‐2が存在する。図1にはこのようなカ
メラが2台のみ図示されているが、これはカメラの台数
を2台のみに限定するものではない。後述するように、
このカメラは一台以上、任意の台数だけ設置することが
出来る。
When projecting an image on a non-flat screen, the distortion correcting device 115 uses the image of the presentation output by the computer 114 in which the presentation tension application is operating (hereinafter, this image is the original image). Is input as an input, and an image corrected in accordance with the distortion of the screen 100 is projected by the projector 106.
Output to. For this distortion correction device 115, an existing product having the above functions is used. There are measurement cameras 107-1 and 107-2 that keep observing the screen 100 during the operation of the presentation. Although only two such cameras are shown in FIG. 1, this does not limit the number of cameras to only two. As described below,
This camera can be installed more than one, and any number can be installed.

【0022】図2は4台のカメラで平面スクリーンを撮
像するときの状況を示したものである。301はスクリー
ンを、107‐1〜107‐4は301を撮像しているカメラをそ
れぞれ示している。これらのカメラはスクリーンの表示
画面が撮像できる表面に設置される。または透過式スク
リーンの場合には、スクリーンの裏面が撮像できる場所
でも良い。図2のように、カメラが複数存在する場合に
は、各々のカメラはスクリーンの一部分を撮像している
が、全撮像領域を統合すると、画像表示領域全体を余す
ことなく撮像できるような位置に設置されている。もち
ろんこれらのカメラが撮像する領域は互いに重複してい
ても良い。
FIG. 2 shows a situation in which a flat screen is imaged by four cameras. Reference numeral 301 denotes a screen, and 107-1 to 107-4 denote cameras capturing 301. These cameras are installed on the surface of the screen where the display screen can be imaged. Alternatively, in the case of a transmissive screen, the back side of the screen may be a place where an image can be taken. As shown in FIG. 2, when there are a plurality of cameras, each camera takes an image of a part of the screen. However, when all the imaging areas are integrated, the position where the entire image display area can be taken can be taken. is set up. Of course, the areas captured by these cameras may overlap each other.

【0023】図1に戻り、画像認識装置110‐1,110‐2
は、カメラ107‐1,107‐2の送ってくる画像から、スク
リーン100に映っている、ポインティングデバイス104で
投射された光点の位置と形状を読み取る。画像認識装置
110‐1,110‐2には、基本的に同種類の実装がなされた
装置を複数用い、並列処理を行わせる。図1には、画像
認識装置は2台のみ図示されているが、これは画像認識
装置の台数を2台のみに限定するものではない。
Returning to FIG. 1, image recognition devices 110-1 and 110-2
Reads the position and shape of the light spot projected on the screen 100 by the pointing device 104 from the images sent by the cameras 107-1 and 107-2. Image recognition device
For 110-1 and 110-2, basically, a plurality of devices with the same type of implementation are used to perform parallel processing. Although only two image recognition devices are shown in FIG. 1, this does not limit the number of image recognition devices to only two.

【0024】本実施の形態においては、上記のカメラと
画像認識装置は同一の台数だけ用いている。ただし、こ
の発明において、画像認識装置の台数がカメラの台数に
よって制限されるわけではない。カメラ数台分の画像を
単一の画像認識装置で処理する、またはカメラ一台分の
画像を数台の画像認識装置で処理することも想定する。
In the present embodiment, the same number of cameras and image recognition devices are used. However, in the present invention, the number of image recognition devices is not limited by the number of cameras. It is also assumed that images for several cameras are processed by a single image recognition device, or images for one camera are processed by several image recognition devices.

【0025】情報統合用装置113では、画像認識装置110
‐1,110‐2が送ってきた、互いに矛盾する可能性のある
データから、もっとも蓋然性の高い候補を採択する。ま
た、採択された位置情報を、プレゼンテーション用のア
プリケーションが動作する計算機114に送る。
In the information integration device 113, the image recognition device 110
The most probable candidate is selected from the data that -1,110-2 sent that may conflict with each other. Also, the adopted position information is sent to the computer 114 on which the application for presentation operates.

【0026】プレゼンテーション用アプリケーションは
計算機114によって動作し、表示画像を生成する。これ
らのアプリケーションは、指示アイコン、すなわち指示
位置を強調する視覚イメージ103を、情報統合用装置113
で採択された位置に作成する。この指示アイコンは、画
像表示装置108内のプロジェクタ106によって、プレゼン
テーション内容とともに表示されるものである。
The presentation application is operated by the computer 114 to generate a display image. These applications display a pointing icon, that is, a visual image 103 that emphasizes the pointing position, on the information integration device 113.
Create in the position adopted in. This instruction icon is displayed by the projector 106 in the image display device 108 together with the content of the presentation.

【0027】上記カメラ107、画像認識装置110、情報統
合用装置113、計算機114、および画像表示装置108の接
続状況を示したものが図3である。ここで図示されてい
る画像認識装置110‐1,110‐2,…,110‐nは、カメラ10
7‐1,107‐2,…,107‐nが撮像したプレゼンテーション
画面の画像を入力として受け取り、参照位置指示の発光
点と判断された画像の特徴量を、出力として情報統合用
装置113に送る。このときに送られる特徴量は、一組で
あるとは限らない。カメラ107‐1,107‐2,…,107‐nの
撮像した画像範囲内に参照位置指示の発光点の候補が複
数発見された場合には、画像認識装置110‐1,110‐2,
…,110‐nは、複数の位置について情報を送る。もし、
範囲内に候補が発見できなかった場合には、発見できな
かったという情報を送信する。また、これらの情報には
ノイズによって判断された誤情報が含まれることも考え
られる。
FIG. 3 shows the connection status of the camera 107, the image recognition device 110, the information integration device 113, the computer 114, and the image display device 108. The image recognition devices 110-1, 110-2, ..., 110-n shown in FIG.
The image of the presentation screen captured by 7-1, 107-2, ..., 107-n is received as an input, and the feature amount of the image determined to be the light emitting point of the reference position indication is sent to the information integration device 113 as an output. The feature amount sent at this time is not always one set. When a plurality of light emitting point candidates for reference position indication are found within the image range captured by the cameras 107-1, 107-2, ..., 107-n, the image recognition devices 110-1, 110-2,
..., 110-n send information about multiple locations. if,
If no candidate is found within the range, information that the candidate cannot be found is transmitted. In addition, it is possible that these pieces of information include erroneous information determined by noise.

【0028】情報統合用装置113では、画像認識装置110
‐1,110‐2,…,110‐nが送ってきた、互いに矛盾する
可能性のあるデータから、もっとも蓋然性の高い候補を
採択する。また、採択された位置情報を、プレゼンテー
ション用のアプリケーションが動作する計算機114に送
る。
In the information integration device 113, the image recognition device 110
The most probable candidate is selected from the data sent by -1,110-2, ..., 110-n that may conflict with each other. Also, the adopted position information is sent to the computer 114 on which the application for presentation operates.

【0029】プレゼンテーション用アプリケーションは
計算機114によって動作し、表示画像を生成する。この
装置は、通常の汎用計算機をこのシステムに動的に接続
することで代用することも出来る。またはシステムに固
有な専用の計算機を利用しても良い。以下では、これを
プレゼンテーション用計算機と呼ぶ。情報統合用装置11
3から送られてきた情報は、計算機114上で動作している
プレゼンテーション用のアプリケーション、またはその
補助アプリケーションに受信される。これらのアプリケ
ーションは、情報統合用装置113から送られてきた情報
に基づいて、指示アイコン、すなわち指示位置を強調す
る視覚イメージ103の作成をおこなう。そして、視覚イ
メージ103を含む表示画像データを、画像表示装置108に
送る。
The presentation application is operated by the computer 114 to generate a display image. The device can be replaced by dynamically connecting a general purpose computer to the system. Alternatively, a dedicated computer unique to the system may be used. Hereinafter, this is referred to as a presentation computer. Information integration device 11
The information sent from 3 is received by the presentation application running on the computer 114 or its auxiliary application. These applications create the pointing icon, that is, the visual image 103 that emphasizes the pointing position, based on the information sent from the information integration device 113. Then, the display image data including the visual image 103 is sent to the image display device 108.

【0030】画像表示装置108は、計算機114から送られ
た視覚イメージ103を含む表示画像データに基づいて、
スクリーン100に画像を表示する。
The image display device 108, based on the display image data including the visual image 103 sent from the computer 114,
Display an image on screen 100.

【0031】以下、本実施の形態の動作について説明す
る。
The operation of this embodiment will be described below.

【0032】図4では、本発明を利用したプレゼンテー
ションシステムの一実施の形態の処理の流れが示されて
いる。スクリーン100上には、プレゼンテーション用計
算機114の出力画面が映し出されているものとする。ま
た、同スクリーン上には、指示者105が保持する光学的
ポインティング装置104によって、発光点が投影されて
いる。
FIG. 4 shows a processing flow of an embodiment of the presentation system using the present invention. It is assumed that the output screen of the presentation computer 114 is displayed on the screen 100. Further, a light emitting point is projected on the screen by the optical pointing device 104 held by the instructor 105.

【0033】カメラ107における処理210では、上記のス
クリーン100をカメラ107によって撮像する。このときに
使用されるカメラ107は、デジタル画像の出力機能を持
つ既存のカメラを利用することが出来る。本実施の形態
において、カメラは一台以上、任意の台数だけ存在す
る。図2において、107-1〜107-4は、スクリーン301を
撮像しているカメラをそれぞれ示している。これらのカ
メラはスクリーンの表面、または透過式スクリーンの場
合にはスクリーンの裏面が撮像できる場所に設置されて
いる。図2で図示されるように、カメラが複数存在する
場合を想定する。各々のカメラ107-1〜107-4はスクリ
ーン301の一部分を撮像しているが、全撮像領域を統合
すると画面表示領域全体が余さず撮像できるような位置
に設置されている必要がある。これらのカメラが撮像す
る領域は互いに重複していても良い。各カメラは決めら
れた周期毎にプレゼンテーションの行われているスクリ
ーンを撮像する。これらは、本システムが作動を続ける
期間にわたって、撮像を続けるものとする。
In the process 210 in the camera 107, the screen 100 is captured by the camera 107. As the camera 107 used at this time, an existing camera having a digital image output function can be used. In the present embodiment, there is one or more cameras, and an arbitrary number of cameras. In FIG. 2, reference numerals 107-1 to 107-4 denote cameras that capture the screen 301, respectively. These cameras are installed in a place where the front surface of the screen or, in the case of a transmissive screen, the back surface of the screen can capture images. As shown in FIG. 2, it is assumed that there are a plurality of cameras. Each of the cameras 107-1 to 107-4 captures an image of a part of the screen 301, but it is necessary that the cameras 107-1 to 107-4 be installed at a position where the entire screen display area can be fully captured when the entire imaging areas are integrated. The areas captured by these cameras may overlap each other. Each camera takes an image of the screen on which the presentation is being carried out, every predetermined period. These shall continue to be imaged for the period of time the system continues to operate.

【0034】図5および図6で図示されるように、スク
リーンが平面ではない場合にも、上記の条件は変わらな
い。図5は、没入型の仮想空間を提供する装置に対し
て、本発明を適用した例である。3面の大画面スクリー
ン401,402,403が、利用者400の周囲を取り囲むように設
置されている。このとき、カメラ107-1,107-2はスクリ
ーン401,402,403の全てを撮像することができる適切な
位置に設置される。この場合、カメラの台数をスクリー
ンの枚数に合わせる必要はない。また、図6は、本発明
を球面スクリーンに適用した場合の図である。球面スク
リーン501の全ての範囲を撮像するために、適切な台数
のカメラを設置する必要がある。
As shown in FIGS. 5 and 6, the above conditions do not change when the screen is not flat. FIG. 5 is an example in which the present invention is applied to a device that provides an immersive virtual space. Three large screens 401, 402, 403 are installed so as to surround the user 400. At this time, the cameras 107-1 and 107-2 are installed at appropriate positions capable of capturing images of all the screens 401, 402, and 403. In this case, it is not necessary to match the number of cameras to the number of screens. Further, FIG. 6 is a diagram when the present invention is applied to a spherical screen. It is necessary to install an appropriate number of cameras in order to capture the entire area of the spherical screen 501.

【0035】このように、複数のカメラを用いてスクリ
ーンを撮像することにより高解像度の撮像が可能にな
る。さらに、その各カメラの画像を、別々の機器を用い
て画像処理と認識処理を行うことにより、これらの処理
の全工程を効率的に分散処理することができる。また、
このようにカメラを複数用いる手法により、スクリーン
が曲面である場合にも、スクリーンの各部分に対して認
識性能が向上する角度からの撮像が可能となる。
As described above, high-resolution imaging can be performed by imaging the screen using a plurality of cameras. Further, by performing the image processing and the recognition processing on the images of the respective cameras by using different devices, all the steps of these processings can be efficiently distributed and processed. Also,
In this way, by using a plurality of cameras, even when the screen is a curved surface, it is possible to image each part of the screen from an angle at which the recognition performance is improved.

【0036】システム全体の中での、カメラの関係は図
3で示されるような接続構造となっている。図4の処理
211においては、カメラ107-1〜107-nによって撮像さ
れた画像は、並列に画像認識装置110-1〜110-nに送信
される。カメラ107-1〜107-nから画像認識装置110-1
〜110-nに送信される出力データは、各画素の色情報を
RGB形式で収めた二次元配列、すなわちデジタル画像で
あるものとする。ただし機器間でデータを転送する際に
は、RGB値の配列で出力送信されることに限定されるも
のではない。既存の方法をもちいて適宜、適切な圧縮処
理を行って転送することも想定する。
The relationship among the cameras in the entire system has a connection structure as shown in FIG. Processing of FIG.
In 211, the images captured by the cameras 107-1 to 107-n are transmitted in parallel to the image recognition devices 110-1 to 110-n. Image recognition device 110-1 from cameras 107-1 to 107-n
The output data sent to ~ 110-n contains the color information of each pixel.
It is assumed to be a two-dimensional array stored in RGB format, that is, a digital image. However, when data is transferred between devices, it is not limited to output and transmission in an array of RGB values. It is also assumed that appropriate compression processing is appropriately performed using the existing method and then the data is transferred.

【0037】本実施の形態においては、各カメラはそれ
ぞれ対応する画像認識装置を一台のみ持つ。ただし、こ
の発明において、画像認識装置の台数がカメラの台数に
よって制限されるわけではない。カメラ数台分の画像を
単一の画像認識装置で処理する、またはカメラ一台分の
画像を数台の画像認識装置で処理することも想定する。
In the present embodiment, each camera has only one corresponding image recognition device. However, in the present invention, the number of image recognition devices is not limited by the number of cameras. It is also assumed that images for several cameras are processed by a single image recognition device, or images for one camera are processed by several image recognition devices.

【0038】画像認識装置110-1〜110-nでは、上記カ
メラ107-1〜107-nから周期的に送られて来るデジタル
画像を、図4の処理212において、入力として受け取
る。次に、処理213、処理214により、その画像内からス
クリーン100に投影された発光点102と推測される個所を
検出し、その個所に関する座標、形状の情報などが含ま
れた構造体のリストを作成する。そして、処理215によ
り、上記構造体のリストを出力として情報統合用装置11
3に送信する。この出力データ(構造体のリスト)の形
式については後述する。
In the image recognition devices 110-1 to 110-n, the digital images periodically sent from the cameras 107-1 to 107-n are received as inputs in the process 212 of FIG. Next, by processing 213 and processing 214, a position estimated to be the light emitting point 102 projected on the screen 100 is detected from the image, and a list of structures including coordinates, shape information, etc. regarding the position is detected. create. Then, in processing 215, the information integration device 11 outputs the list of the structures as an output.
Send to 3. The format of this output data (list of structures) will be described later.

【0039】処理213、処理214は画像認識装置110-1〜
110-nによって並列に実行される。画像認識装置110-1
〜110-nには同一の装置を用いるものとする。
Processing 213 and processing 214 are performed by the image recognition devices 110-1 to 110-1.
110-n executed in parallel. Image recognition device 110-1
The same device is used for ~ 110-n.

【0040】情報統合用装置113は、画像認識装置110-
1〜110-nから送られてきたデータを、処理216により
受信する。処理217においては、画像認識装置110-1〜1
10-nから送られてきたデータでは2つの画像に分かれ
ているが、もともと1つの発光点による画像であったも
のを探し出し、このような2つの画像の構造体のリスト
を合成する。次に、処理218においては、処理217を経た
データの中から、ポインティングデバイスによる参照位
置である蓋然性が高い画像の構造体のリストを選定す
る。次に、処理219においては、処理218において選定さ
れた構造体のリストを、計算機114に送信する。
The information integration device 113 is an image recognition device 110-
The data sent from 1-110-n is received by the process 216. In the process 217, the image recognition devices 110-1 to 110-1
Although the data sent from 10-n is divided into two images, the image originally having one light emitting point is searched for and a list of structures of such two images is synthesized. Next, in process 218, a list of image structure structures having a high probability of being a reference position by the pointing device is selected from the data subjected to process 217. Next, in process 219, the list of structures selected in process 218 is transmitted to the computer 114.

【0041】計算機114は、処理221により、情報統合用
装置113から送られてきたデータを、受信する。次に、
処理222により、情報統合用装置113から送られてきたデ
ータに基づいて、ポインティングデバイスによる参照位
置である蓋然性が高い位置に、参照位置を強調するため
の画像(矢印等)を配置する。次に、処理223により、
参照位置を強調するための画像を配置した画像データ
を、画像表示装置108に送信する。
The computer 114 receives the data sent from the information integration device 113 by the process 221. next,
By the process 222, an image (arrow or the like) for emphasizing the reference position is arranged at a position with high probability that is the reference position by the pointing device, based on the data sent from the information integration device 113. Next, by the process 223,
Image data in which an image for emphasizing the reference position is arranged is transmitted to the image display device 108.

【0042】画像表示装置108は、処理224により、計算
機114から送信された画像データを受信する。次に、処
理225により、画像データに、歪み補正装置115により、
スクリーンの歪みに合わせて、歪みを与える。最後に、
処理226により、プロジェクタ106で、画像データをスク
リーン100に表示する。
The image display device 108 receives the image data transmitted from the computer 114 by the process 224. Next, in process 225, the image data is processed by the distortion correction device 115,
Adds distortion according to the screen distortion. Finally,
By the process 226, the projector 106 displays the image data on the screen 100.

【0043】画像認識装置110-1〜110-nによる処理21
3、処理214の処理のより詳細な流れを図7に示す。以下
では、図7に基づいて、画像認識装置110-1〜110-nの
なす処理を解説する。
Processing 21 by the image recognition devices 110-1 to 110-n
A more detailed flow of the processing of 3 and processing 214 is shown in FIG. The processing performed by the image recognition devices 110-1 to 110-n will be described below with reference to FIG.

【0044】これに先立ち、図8に、この処理を実現す
ることの出来る装置の一構成例を表したブロック図を挙
げる。図8に示す装置においては、バス707に、CPU7
01と、主記憶装置702と、入出力I/F部703と、外部記憶
装置704とが接続されている。入出力I/F部703には、出
力機器705と、入力機器706とが接続されている。CPU
701は、主記憶装置702に記録されているプログラムに従
い各種の処理を実行する。主記憶装置702と外部記憶装
置704には処理を実行するに当たって必要なプログラム
やデータが記憶される。外部記憶装置704としては、ハ
ードディスク装置等のほかに、可搬型記録媒体であるフ
ロッピー(登録商標)ディスク等を使用することもでき
る。入出力インターフェイス部(入出力I/F部)703で
は、カメラからの入力データ、情報統合装置へのへの出
力データ等をやり取りするために必要なデータの転送手
段を備えているものとする。本実施の形態においては、
以下の処理はCPU701によって実行されるものとす
る。ただし、このことは本処理を汎用のCPUによって
動作することに限定するものではない。以下に述べる各
種処理と同等の機能を有する専用ハードウェアを使用す
ることもできる。
Prior to this, FIG. 8 is a block diagram showing a structural example of an apparatus capable of realizing this processing. In the device shown in FIG. 8, the CPU 707 is connected to the bus 707.
01, the main storage device 702, the input / output I / F unit 703, and the external storage device 704 are connected. An output device 705 and an input device 706 are connected to the input / output I / F unit 703. CPU
The 701 executes various processes according to the program recorded in the main storage device 702. The main storage device 702 and the external storage device 704 store programs and data necessary for executing processing. As the external storage device 704, in addition to a hard disk device or the like, a floppy (registered trademark) disk or the like which is a portable recording medium can be used. The input / output interface unit (input / output I / F unit) 703 is provided with a data transfer means necessary for exchanging input data from the camera, output data to the information integration device, and the like. In the present embodiment,
The following processing is executed by the CPU 701. However, this does not limit the present processing to be operated by a general-purpose CPU. It is also possible to use dedicated hardware having functions equivalent to the various processes described below.

【0045】図4の処理212においては、上記のカメラ
から送られてきた画像情報を、入出力I/F部703を介して
受信し、必要があれば既存の方法によって圧縮画像の展
開作業を行う。この展開処理はCPU701によって行わ
れ、復元された画像は主記憶装置702に記憶される。
In the process 212 of FIG. 4, the image information sent from the above-mentioned camera is received via the input / output I / F unit 703, and if necessary, the expansion process of the compressed image is performed by the existing method. To do. This expansion processing is performed by the CPU 701, and the restored image is stored in the main storage device 702.

【0046】処理213では、上記の方法でカメラから受
信した画像に対して、幾何変換を行う。本実施の形態に
おいては、この処理213はCPU701によって実行される
ものとする。ただし、このことは処理213を汎用のCP
Uによって動作することに限定するものではない。処理
213と同等の機能を有する専用ハードウェアを用いるこ
とも想定するものである。
In process 213, geometric transformation is performed on the image received from the camera by the above method. In the present embodiment, this processing 213 is executed by the CPU 701. However, this means that the process 213 is performed by a general-purpose CP.
It is not limited to operate by U. processing
It is also assumed that dedicated hardware having the same function as 213 is used.

【0047】処理213は、図7に示す処理801と処理802
とからなる。処理801では、カメラで撮像した画像の歪
みを補正することを目的とした幾何変換を行う。この処
理の入力と出力は、ともにデジタル画像情報である。出
力される画像は、入力画像に対して幾何的な歪みを与え
た画像となる。図9と図10を用いてこの幾何変換の様
子を示す。図9の901はある角度から撮像したスクリー
ン100の全体の像を示したものである。あるカメラによ
って撮像される範囲902には、このスクリーンの像の一
部分のみが含まれている。処理801では、この画像か
ら、図10に示されるような原画像(計算機114で生成
された平面スクリーンデータ)における画素の位置に対
応した画像を再構成する。図10の1002は原画像の画像
範囲を示している。画素位置905と画素位置1005、画素
位置906と画素位置1006、画素位置907と画素位置1007、
画素位置908と画素位置1008は、それぞれ対応した画素
となっている。
Processing 213 is processing 801 and processing 802 shown in FIG.
Consists of. In process 801, geometric transformation for the purpose of correcting the distortion of the image captured by the camera is performed. The input and output of this process are both digital image information. The output image is an image in which the input image is geometrically distorted. The state of this geometric conversion will be described with reference to FIGS. 9 and 10. Reference numeral 901 in FIG. 9 shows the entire image of the screen 100 taken from a certain angle. The range 902 imaged by a camera contains only a portion of the image on this screen. In process 801, an image corresponding to the pixel position in the original image (planar screen data generated by the computer 114) as shown in FIG. 10 is reconstructed from this image. Reference numeral 1002 in FIG. 10 indicates the image range of the original image. Pixel position 905 and pixel position 1005, pixel position 906 and pixel position 1006, pixel position 907 and pixel position 1007,
The pixel position 908 and the pixel position 1008 are corresponding pixels.

【0048】この幾何変換を行うための処理過程を示し
たフローチャートが図11に示されている。以下ではこ
の図11を元に幾何変換の過程を説明する。この処理に
おいて、入力に用いられるのは前述の画像である。出力
される画像は、RGB方式などのデジタル形式で表現され
た、色情報の2次元配列データである。この出力画像
は、スクリーンに表示した元画像と同様の大きさと画像
範囲を持つデジタル画像とする。入力データ、出力デー
タ共に主記憶装置702上に置かれている。原画像が複数
の画像に分割されている場合には、それらの画像の数と
同数の出力画像が存在する。
FIG. 11 is a flowchart showing the processing steps for performing this geometric transformation. The process of geometric conversion will be described below with reference to FIG. In this process, the above-mentioned image is used for input. The output image is two-dimensional array data of color information expressed in a digital format such as RGB system. This output image is a digital image having the same size and image range as the original image displayed on the screen. Both input data and output data are stored in the main storage device 702. When the original image is divided into a plurality of images, there are the same number of output images as those images.

【0049】出力画像の各画素は、色情報の他にも補助
情報として一ビットのフラグを持つ。このフラグには、
入力として得られた撮影画像に、その画素に対応する画
像情報が含まれていたかどうかの判定が書き込まれる。
以下、このフラグを未定義フラグと呼ぶ。未定義フラグ
の状態について、再び図10に描かれている参照図をも
ちいて解説する。図9はスクリーン全体と、その状態を
撮像するカメラの撮像状況を示している。プレゼンテー
ションに用いられたスクリーン901全体のうち、このカ
メラによって撮像された部分902の画像情報が、本処理8
01の入力画像として定義されたものである。一方、処理
801の出力画像1001は、スクリーン901の全面が画像範囲
の領域となっている。この範囲は図10で示される。10
05,1006,1007,1008によって囲まれる領域は、スクリー
ン全体のうち、この画像認識装置に対応づけられたカメ
ラによって撮像された場所である。この領域に対応する
画素については前述の未定義フラグが真として定義され
る。それ以外の領域については、未定義フラグは偽と定
義される。
Each pixel of the output image has a 1-bit flag as auxiliary information in addition to color information. This flag includes
The determination as to whether or not the captured image obtained as an input includes image information corresponding to the pixel is written.
Hereinafter, this flag is called an undefined flag. The state of the undefined flag will be described again with reference to the reference diagram shown in FIG. FIG. 9 shows the entire screen and the image capturing state of the camera that captures the state. Of the entire screen 901 used for the presentation, the image information of the portion 902 imaged by this camera is the main processing 8
It is defined as the input image of 01. Meanwhile, processing
In the output image 1001 of 801, the entire surface of the screen 901 is the area of the image range. This range is shown in FIG. Ten
The area surrounded by 05, 1006, 1007, and 1008 is a place in the entire screen, which is imaged by the camera associated with the image recognition device. For the pixels corresponding to this area, the above-mentioned undefined flag is defined as true. For other areas, the undefined flag is defined as false.

【0050】処理801を行うに先立って、入力画素と出
力画素の対応を記憶させたテーブルが2種類用意されて
いる。2次元位置座標値情報のテーブルと、真偽値(未
定義フラグ)テーブルである。これらのテーブルでは、
スクリーン上の画素の2次元位置座標値を入力として用
いられ、対応する原画像上の2次元位置座標値情報と一
ビットのデータ(未定義フラグ)が出力として得られ
る。これらのテーブルの実装例を図12に挙げる。この
実装例では、主記憶のN番地からN+nm-1番地を位置座標
値情報のテーブルとして使用し、M番地からM+nm-1番地
を一ビットのフラグデータのテーブルとして利用する。
入力座標(a,b)に対応した出力のx座標、出力のy座標、
未定義フラグの各データは、N+2nb+2a番地、N+2nb+2a+1
番地、M+nb+a番地に対してメモリ読み込みを行うことで
得ることが出来る。この2次元位置座標値情報のテーブ
ルに組み込むデータの作成の仕方は後述する。真偽値
(未定義フラグ)テーブルは、カメラで撮像された画素
の位置座標に対応する番地に対しては真、カメラで撮像
されなかった画素の位置座標に対応する番地に対しては
偽が格納される。
Prior to the processing 801, two types of tables are prepared which store the correspondence between input pixels and output pixels. A two-dimensional position coordinate value information table and a true / false value (undefined flag) table. In these tables,
The two-dimensional position coordinate value of the pixel on the screen is used as an input, and the corresponding two-dimensional position coordinate value information on the original image and 1-bit data (undefined flag) are obtained as an output. An example of implementation of these tables is given in FIG. In this implementation example, addresses N to N + nm-1 of the main memory are used as a table of position coordinate value information, and addresses M to M + nm-1 are used as a table of 1-bit flag data.
Output x coordinate corresponding to input coordinate (a, b), output y coordinate,
Each data of undefined flag is N + 2nb + 2a address, N + 2nb + 2a + 1
It can be obtained by reading the memory at address M + nb + a. A method of creating data to be incorporated in the table of the two-dimensional position coordinate value information will be described later. The true / false value (undefined flag) table is true for the addresses corresponding to the position coordinates of the pixels imaged by the camera, and false for the addresses corresponding to the position coordinates of the pixels not imaged by the camera. Is stored.

【0051】図12に示した2次元位置座標値情報のテ
ーブルについての説明図を図13に示す。図12に示し
た2次元位置座標値情報のテーブルは、図13に示すよ
うに、歪んだスクリーン上の各座標位置は、平面スクリ
ーン上のどの座標位置に対応するかを示している。
FIG. 13 shows an explanatory view of the table of the two-dimensional position coordinate value information shown in FIG. As shown in FIG. 13, the table of the two-dimensional position coordinate information shown in FIG. 12 shows which coordinate position on the distorted screen corresponds to which coordinate position on the flat screen.

【0052】では、図11に示した幾何変換の過程を説
明する。
Now, the process of the geometric conversion shown in FIG. 11 will be described.

【0053】まず、画像認識装置からの出力画像の各画
素の色情報データとフラグを0に初期化する(ステップ1
101)。
First, the color information data and flag of each pixel of the output image from the image recognition device are initialized to 0 (step 1
101).

【0054】次に、画像認識装置からの出力画素の一つ
を選択し、その画素の位置情報をキーとして真偽値テー
ブルの値を読む(ステップ1102)。このとき真偽値テー
ブルから読み込まれるのは、その出力画素に対応してい
る画像認識装置への入力画素の存在を表す1ビットのデ
ータである。このデータは、該当する出力画素が、カメ
ラの撮像範囲に含まれていたかどうかを表す。
Next, one of the output pixels from the image recognition device is selected, and the value in the true / false value table is read using the position information of that pixel as a key (step 1102). At this time, what is read from the true / false value table is 1-bit data representing the presence of an input pixel to the image recognition device corresponding to the output pixel. This data represents whether or not the corresponding output pixel was included in the imaging range of the camera.

【0055】次に、ステップ1102で読み込まれた真偽値
テーブルの値が、真であるか偽であるかを判定する(ス
テップ1103)。
Next, it is determined whether the value of the true / false value table read in step 1102 is true or false (step 1103).

【0056】もし、ステップ1103において偽と判定さ
れ、出力画像に対応する画素が、入力画像の範囲に含ま
れていなかった場合には、真偽値テーブルの返す1ビッ
トの情報は偽となる。その場合には、出力画素の未定義
フラグに偽を書き込み、2次元位置座標値情報のテーブ
ルから読み込んだ位置座標の方は使用しない。そして、
ステップ1107へ進む(ステップ1104)。
If it is determined to be false in step 1103 and the pixel corresponding to the output image is not included in the range of the input image, the 1-bit information returned by the true / false value table is false. In that case, false is written in the undefined flag of the output pixel, and the position coordinates read from the two-dimensional position coordinate value information table are not used. And
Proceed to step 1107 (step 1104).

【0057】ステップ1103において真と判定され、画像
認識装置からの出力画像に対応する画素が、画像認識装
置への入力画像の範囲に含まれていた場合には、真偽値
テーブルの返す1ビットの情報は真となっている。この
場合には、2次元位置座標値情報のテーブルから読み込
まれた座標値に基づいて対応する入力画素を参照する
(ステップ1105)。
When it is determined to be true in step 1103 and the pixel corresponding to the output image from the image recognition device is included in the range of the input image to the image recognition device, 1 bit returned by the true / false value table. Information is true. In this case, the corresponding input pixel is referred to based on the coordinate value read from the table of the two-dimensional position coordinate value information (step 1105).

【0058】次に、画像認識装置からの出力画素の未定
義フラグにも真を書き込む。また、2次元位置座標値情
報のテーブルから読み込まれた座標値に基づいて参照し
た入力画素の色情報を、出力画素の色情報に複写する
(ステップ1106)。この際に、入力画像から、その周辺
数画素分の色情報を読み込み、それらの色情報の間で補
間を行い、出力画素の色情報とする手法を採用すること
もできる。
Next, true is also written in the undefined flag of the output pixel from the image recognition device. Further, the color information of the input pixel referred to based on the coordinate value read from the table of the two-dimensional position coordinate value information is copied to the color information of the output pixel (step 1106). At this time, it is also possible to adopt a method in which color information of several pixels around the input image is read from the input image and interpolation is performed between the color information to obtain the color information of the output pixel.

【0059】次に、ステップ1107において、全出力画素
の処理が終了したか否かを判定する。まだ処理を行って
いない出力画素があるならば、ステップ1102へ戻り、そ
の画素を選択して、上記の処理を再度行う。全出力画素
に対して、以上の処理が終了したならば、そのフレーム
に対しての処理801の処理は終了する(ステップ110
8)。この操作はカメラの画像周期に合わせて実時間作
業で行われる。
Next, in step 1107, it is determined whether or not the processing of all output pixels has been completed. If there is an output pixel that has not been processed, the process returns to step 1102, the pixel is selected, and the above process is performed again. When the above process is completed for all output pixels, the process 801 for that frame is completed (step 110).
8). This operation is performed in real time according to the image cycle of the camera.

【0060】前述の幾何変換のための2次元位置座標値
情報のテーブルは以下のようにして作成される。このテ
ーブル作成には、あらかじめ用意されたテストパターン
画像を用いる。この画像の様子を図14に示す。テスト
パターン画像を、プロジェクタ106からスクリーン100に
投影し、同スクリーンを、固定カメラによって撮影す
る。ここで用いるテストパターンの画像は、スクリーン
画面を撮影した画像上の画素の位置と、計算機114から
送られる原画像上の画素位置とを容易に対応付けること
ができる画像となっている。そのような画像の一例とし
て、本実施例では白黒のモザイク状の画像を用いること
が出来る。画像のモザイクのサイズが、1,2,4,8,16,32,
…画素のように、一辺の長さが2倍ずつ大きくなってい
る複数枚の画像を用意し、仮想記憶装置、または主記憶
装置に記憶してあるものとする。テストパターン画像が
スクリーン画面に表示された様子を1401に示す。また、
テストパターン画像の原画像の様子を1402に示す。
The table of the two-dimensional position coordinate value information for the above-mentioned geometric transformation is created as follows. A test pattern image prepared in advance is used for creating the table. The state of this image is shown in FIG. A test pattern image is projected from the projector 106 onto the screen 100, and the screen is photographed by a fixed camera. The image of the test pattern used here is an image in which the positions of the pixels on the image captured on the screen screen and the pixel positions on the original image sent from the computer 114 can be easily associated with each other. As an example of such an image, a black and white mosaic image can be used in this embodiment. The size of the image mosaic is 1,2,4,8,16,32,
It is assumed that a plurality of images each having a side length twice as long as pixels are prepared and stored in the virtual storage device or the main storage device. A state in which the test pattern image is displayed on the screen screen is shown at 1401. Also,
The state of the original image of the test pattern image is shown at 1402.

【0061】図15に、上記テストパターン画像を使用
して、幾何変換のための2次元位置座標値情報のテーブ
ルを作成する処理の流れのフローチャートを示す。
FIG. 15 is a flowchart showing the flow of processing for creating a table of two-dimensional position coordinate value information for geometric transformation using the test pattern image.

【0062】まず、もっとも大きなモザイクのテストパ
ターン画像を読み込む(ステップ1300)。このモザイクの
画像を歪んだスクリーンに投影して、カメラで撮像する
(ステップ1301)。続いて、各モザイクの白と黒が交差す
る端点を検出する(ステップ1302)。次に、この検出され
た端点と、原画像の端点位置を対応付ける(ステップ130
3)。このとき、画像内に含まれるモザイクの数が少数で
あれば、他のモザイクの端点と間違えることなく対応付
けることが可能になる。この対応をテーブルに保存する
(ステップ1304)。続いて、全てのモザイク画像を使用し
たか否かを判定する(ステップ1305)。前のモザイクよ
りも一段階小さなモザイクの画像が存在するならば、そ
の画像を読み込み(ステップ1307)、ステップ1301へ戻
る。この際、先の画像による認識点を元にして作業する
ことで、異なる座標値を対応付けることがなくなる。上
記の方法によって、カメラで撮像した画像1401内の画素
位置と、出力前の画像1402内の画素位置の組み合わせが
判明するので、その情報をテーブルに保存する。テスト
パターン画像だけでは対応が取れなかった画素位置の対
応情報は、上記方法によって対応付けられた画像座標値
の間を補間することで求めて、全出力画素の対応位置を
テーブルに保存する(ステップ1306)。この2次元位置座
標値情報のテーブルは、スクリーンの位置および歪み、
カメラの位置と角度、その他の設定条件が変更されるた
びに改めて求められるものとする。
First, the largest mosaic test pattern image is read (step 1300). Project this mosaic image onto a distorted screen and capture it with a camera
(Step 1301). Then, the end points where the white and black of each mosaic intersect are detected (step 1302). Next, the detected end points are associated with the end point positions of the original image (step 130).
3). At this time, if the number of mosaics included in the image is small, it can be associated with the end points of other mosaics without mistake. Save this correspondence in a table
(Step 1304). Subsequently, it is determined whether or not all mosaic images have been used (step 1305). If there is an image of a mosaic one step smaller than the previous mosaic, that image is read (step 1307) and the process returns to step 1301. At this time, by performing the work based on the recognition point of the previous image, it becomes unnecessary to associate different coordinate values. By the above method, the combination of the pixel position in the image 1401 captured by the camera and the pixel position in the image 1402 before output is found, and the information is stored in the table. Correspondence information of pixel positions that could not be matched only by the test pattern image is obtained by interpolating between the image coordinate values matched by the above method, and the corresponding positions of all output pixels are stored in the table (step 1306). The table of the two-dimensional position coordinate value information includes the position and distortion of the screen,
It shall be required again each time the position and angle of the camera and other setting conditions are changed.

【0063】上述の特開2000-81950号公報で提唱された
技術等の従来の技術においては、スクリーンが平面であ
ることが想定されている。しかし現実には、スクリーン
が歪みを持っている場合や、あらかじめ曲面であること
が想定された上でプレゼンテーションシステムが設計さ
れている場合がある。このようなシステムでは、スクリ
ーンに投影する画像の歪み補正を行うことによって、よ
り自然な画像が表示されるようにする配慮がなされてい
る。この場合には、スクリーン上の画像に指示された光
点の位置情報を取得するにあたっても、上記の歪み補正
による影響を考慮する必要性が生まれてくる。また、平
面として設計されたスクリーンにも、経年変化により歪
みが生じてくることがある。このようなときには、スク
リーン上の画像に指示された輝点の位置の検出の精度を
維持するために、スクリーン自身を物理的に修復しなけ
ればならなくなる。
In the conventional techniques such as the technique proposed in the above-mentioned Japanese Patent Laid-Open No. 2000-81950, it is assumed that the screen is flat. However, in reality, the screen may be distorted or the presentation system may be designed on the assumption that the screen is a curved surface. In such a system, consideration is given to display a more natural image by correcting the distortion of the image projected on the screen. In this case, it is necessary to consider the influence of the above-mentioned distortion correction also when acquiring the position information of the light spot designated by the image on the screen. Also, a screen designed as a flat surface may be distorted due to aging. In such a case, the screen itself has to be physically repaired in order to maintain the accuracy of detecting the position of the bright spot indicated by the image on the screen.

【0064】本実施の形態のように、デジタル化された
撮像画像の画素位置と、プロジェクタに投影した原画像
の画素位置が対応する関係を記録した2次元位置座標情
報のテーブルを使用して幾何変換を行えば、指示位置の
算出計算に当たって、非平面スクリーンやスクリーンの
投影歪みを補正することができる。この歪み補正よっ
て、より正確な指示位置の読み取りと指示内容の認識が
可能となる。このことで、平面スクリーンのみならず、
曲面スクリーンや、表示時に発生するプロジェクタの歪
みにも柔軟に対応できるようになる。また、スクリーン
に経年変化による歪みが生じたときにも、ソフトウェア
的に対応し、補正することが可能となる。これにより、
スクリーンが歪みを持っている場合や曲面である場合に
も、参照個所の位置の検出を精度良く行うことができる
プレゼンテーション技術を提供することができる。
As in the present embodiment, the geometrical information is calculated using a table of two-dimensional position coordinate information in which the relationship between the pixel positions of the digitized picked-up image and the pixel positions of the original image projected on the projector is recorded. By performing the conversion, it is possible to correct the non-planar screen or the projection distortion of the screen in the calculation of the designated position. By this distortion correction, it becomes possible to more accurately read the designated position and recognize the designated content. With this, not only the flat screen,
It is possible to flexibly cope with the distortion of the curved screen and the projector that occurs during display. Further, even when the screen is distorted due to aging, it can be corrected and corrected by software. This allows
It is possible to provide a presentation technique capable of accurately detecting the position of a reference point even when the screen has a distortion or a curved surface.

【0065】続いて、色の補正処理802を行う。この処
理802は、前述の処理801によって得られた画像と、原画
像との間に発生した色成分の差を減少させることを目的
とする。この処理の手順は図16においてフローチャー
トとして示されている。以下このフローチャートに基づ
いて色補正処理802の動作を説明する。
Subsequently, color correction processing 802 is performed. This process 802 is intended to reduce the difference in color components generated between the image obtained by the process 801 and the original image. The procedure of this process is shown as a flowchart in FIG. The operation of the color correction processing 802 will be described below based on this flowchart.

【0066】色補正処理802において、入力画像は、カ
メラから画像が送信されてくる周期に合わせて、前述の
計算機114から送信される原画像である。この画像は、
入出力I/F 部703を通じて受信され、主記憶装置702上に
保存される。色情報の2次元配列データ構造、すなわち
デジタル画像として定義される。色補正処理802におい
て、出力画像は、色情報を2次元配列で収めたデジタル
画像として構成される。入力画像と出力画像は、同じサ
イズの画像データとなっているものとする。また、入力
色と出力色の対応を記憶させた色補正テーブルが用意さ
れている。この色補正テーブルに登録される情報の作成
方法に関しては後述する。
In the color correction processing 802, the input image is the original image transmitted from the computer 114 in synchronization with the period in which the image is transmitted from the camera. This image is
It is received through the input / output I / F unit 703 and stored in the main storage device 702. It is defined as a two-dimensional array data structure of color information, that is, a digital image. In the color correction processing 802, the output image is formed as a digital image in which color information is stored in a two-dimensional array. It is assumed that the input image and the output image have the same size image data. In addition, a color correction table that stores the correspondence between input colors and output colors is prepared. The method of creating the information registered in this color correction table will be described later.

【0067】この色補正テーブルの実装方法の一例を図
17にあげる。色情報のRGB値が、各成分毎に8bitのデ
ータを持つものとする。テーブルは、赤成分、緑成分、
青成分それぞれに対して256個の配列データ1701〜1703
が用意されており、各配列要素には変換後の数値が入っ
ている。この数値は、0から255の値をとる整数である。
FIG. 17 shows an example of the mounting method of this color correction table. The RGB value of the color information has 8-bit data for each component. The table has a red component, a green component,
256 array data 1701-1703 for each blue component
Is prepared, and each array element contains the converted numerical value. This number is an integer between 0 and 255.

【0068】図16に示すフローチャートにおいては、
色補正処理802の出力画像のメモリを初期化した後(ス
テップ1501)、各入力画素を選択し(ステップ1502)、
選択された各入力画素について以下の処理を行う。画素
の色情報を、赤成分、緑成分、青成分の3つに分割す
る。それぞれの成分は0から255の値をとる整数データと
なっている。それぞれの成分に対応するデータを色補正
テーブルから読み込む(ステップ1503〜ステップ1505)。
読み込んだ成分を再び合成して、出力用の色情報を作成
する(ステップ1506)。この色情報を出力画像の対応する
画素の色情報として書き込む(ステップ1509)。そして、
全ての画素について上記の処理が終了したか否かを判定
する(ステップ1510)。まだ処理されていない画素が有
ると判定された場合には、次の画素を選択し(ステップ
1512)、ステップ1503へ戻る。全ての画素について上記
の処理が終了すると、出力画像を主記憶装置に保存して
(ステップ1511)、処理802は終了する。
In the flowchart shown in FIG. 16,
After initializing the memory of the output image of the color correction processing 802 (step 1501), each input pixel is selected (step 1502),
The following processing is performed for each selected input pixel. The color information of a pixel is divided into three components, a red component, a green component, and a blue component. Each component is integer data with a value from 0 to 255. The data corresponding to each component is read from the color correction table (step 1503 to step 1505).
The read components are combined again to create output color information (step 1506). This color information is written as the color information of the corresponding pixel of the output image (step 1509). And
It is determined whether the above processing has been completed for all pixels (step 1510). If it is determined that some pixels have not yet been processed, the next pixel is selected (step
1512) and returns to step 1503. When the above process is completed for all the pixels, the output image is stored in the main storage device (step 1511), and the process 802 ends.

【0069】上記処理802で使用される色補正テーブル
は、図18に示すフローチャートの手順により、以下の
ようにして作成される。まず、赤色成分についてのテー
ブルを作成する。3色の成分が50%である色(50%グレー)
を作成する(ステップ1601)。そのうちの赤色成分を0%に
設定する(ステップ1602)。プロジェクタに送る画面にこ
の色を投影し、それを計測カメラによって撮影する(ス
テップ1603)。この処理で得られた色情報を、原画像の
色情報に対応させてテーブルに記録する(ステップ160
4)。赤色成分を1単位だけ増加させて(ステップ160
7)、ステップ1603へ戻り、同様の操作を行う。赤色の
全色成分について処理が終了したか否かを判定し(ステ
ップ1605)、赤色の全色成分について処理が終了したな
らば、赤色成分に関するテーブルは完成となる。続い
て、全ての色成分を選んだか否かを判定し(ステップ16
06)、まだ選んでいない色成分がある場合には、ステッ
プ1601へ戻る。このようにして、青色成分、緑色成分に
関する色補正テーブルを作成する。この色補正テーブル
は、部屋の輝度、光量などの条件が変更されるたびに改
めて求められるものとする。また、スクリーン内でも場
所による色の変化が考えられるため、スクリーンをいく
つかの領域に分けて、それぞれ別の色補正テーブルを用
いると精度を向上させることが出来る。
The color correction table used in the process 802 is created as follows by the procedure of the flowchart shown in FIG. First, a table for the red component is created. A color with 50% of three color components (50% gray)
Is created (step 1601). The red component of them is set to 0% (step 1602). This color is projected on the screen sent to the projector, and the color is photographed by the measurement camera (step 1603). The color information obtained by this processing is recorded in the table in association with the color information of the original image (step 160
Four). Increase the red component by one unit (step 160
7) returns to step 1603 and performs the same operation. It is determined whether or not the processing has been completed for all the red color components (step 1605), and if the processing has been completed for all the red color components, the table regarding the red color components is completed. Then, it is determined whether or not all color components have been selected (step 16
06) If there is any color component that has not been selected yet, return to step 1601. In this way, the color correction table for the blue component and the green component is created. It is assumed that the color correction table is required again each time conditions such as the brightness and the light amount of the room are changed. In addition, since it is possible that the color changes depending on the location within the screen, the accuracy can be improved by dividing the screen into some areas and using different color correction tables for each area.

【0070】次に、ポインティングデバイスの特徴量の
抽出手順例を述べる。ここでは例として、色情報を用い
た特徴量の登録方法を述べる。
Next, an example of a procedure for extracting the characteristic amount of the pointing device will be described. Here, as an example, a method of registering a feature amount using color information will be described.

【0071】スクリーンを指示する発表者が立つ平均的
な位置を定め、基本位置と定める。プロジェクタによっ
て50%のグレーが表示されたスクリーンに対して、その
中央に向け、ポインティングデバイスの光を基本位置か
ら当て、その時のスクリーンを撮像する。この画像に、
幾何変換処理801を行い、50%グレーのみが写っていたと
きの原画像との差分を取る。色情報が、ある閾値以上に
変化していたすべての画素について、変化量の平均を取
る。この平均値をポインティングデバイスの色情報とし
て保持する。後で詳述する画像認識処理214の際には、
この色情報との比較を行う。以後、この色情報を登録色
と呼ぶ。また、その図形の半径を求め、登録する。
An average position where the presenter who points the screen stands is defined as a basic position. The projector displays 50% gray on the screen and directs the light from the pointing device from the basic position toward the center of the screen to image the screen at that time. In this image,
The geometric transformation process 801 is performed to obtain the difference from the original image when only 50% gray is captured. The average of the amounts of change is calculated for all the pixels whose color information has changed by a certain threshold value or more. This average value is held as color information of the pointing device. During the image recognition processing 214, which will be described in detail later,
A comparison is made with this color information. Hereinafter, this color information is referred to as a registered color. Also, the radius of the figure is obtained and registered.

【0072】このようにして、ポインティングデバイス
毎に特徴量を登録することが出来る。これにより、画像
認識処理において、汎用性の高い判別を行うことが出来
る。
In this way, the feature quantity can be registered for each pointing device. As a result, it is possible to perform highly versatile discrimination in the image recognition processing.

【0073】次に、図7に示した処理803について説明
する。画像認識をし易くするために2値画像を生成する
工程が処理803である。この工程の処理手順の一実施例
を表したフローチャートが図19に示されている。以
下、このフローチャートにしたがって処理803の手順を
記す。この処理803の入力は、2種類の画像データであ
る。処理801によって作成された出力画像を入力画像A
とする。また、処理802によって作成された出力画像を
入力画像Bとする。また、この処理803の出力は画像
A,画像Bと同一のサイズをもった2値画像であるとす
る。主記憶装置702上に、あらかじめポインティング
デバイスを画面に投射した時の登録色が登録されてい
る。複数のポインティングデバイスに対応しているなら
ば、この登録色も複数登録されている。この登録色の登
録方法については上述した。ここでは、登録色ごとに以
下の動作を行う。
Next, the process 803 shown in FIG. 7 will be described. The process of generating a binary image for facilitating image recognition is process 803. FIG. 19 is a flowchart showing an example of the processing procedure of this step. The procedure of the process 803 will be described below according to this flowchart. The input of this processing 803 is two types of image data. The output image created by processing 801 is the input image A
And Further, the output image created by the process 802 is referred to as the input image B. The output of this process 803 is assumed to be a binary image having the same size as the images A and B. Registered colors when the pointing device is projected on the screen are registered in the main storage device 702 in advance. If it is compatible with a plurality of pointing devices, a plurality of these registration colors are also registered. The registration method of this registered color has been described above. Here, the following operation is performed for each registered color.

【0074】まず、一つの登録色を選択する(ステップ
1801)。次に、画素の座標Pを一つ選択する(ステップ
1802)。画像A,画像Bの色情報においては、各成分が
0から255の整数値を取っているものとする。その座標P
における画像Aの画素の色の赤成分と、同座標における
画像Bの画素の色の赤成分との間で差を取り、結果に50
%の成分、すなわち128を足す。結果が0以下になった場
合には、その足りない成分を切り捨てて0とし、結果が
最大値、つまり255以上になった場合には、その超えた
成分を切り捨てて最大値を与える。この場合には255と
する。同様の作業を、青、緑の成分についても行う。こ
の結果として得られた色情報Cを、現在選択されている
登録色と比較する。色情報Cの赤成分と登録色の赤成分
との差の絶対値を取る。同様の作業を、青、緑の成分に
ついても行い、総和を取る。この総和がある定められた
基準値(閾値)よりも大きいか否かを判定する(ステッ
プ1803)。ステップ1803において、基準値(閾値)より
も大きいと判定された場合には、出力画像の座標Pの位
置に0を書き込み(ステップ1805)、ステップ1806へ進
む。基準値(閾値)よりも小さいと判定された場合に
は、出力画像の座標Pの位置に1を書き込み(ステップ1
804)、ステップ1806へ進む。出力画像の座標Pの位置
に書きこまれた値は、ポインティングデバイスによって
投影された発光点と類似しているか否かを示している。
First, one registered color is selected (step
1801). Next, one pixel coordinate P is selected (step
1802). In the color information of image A and image B, each component is
Assume that it takes an integer value from 0 to 255. Its coordinates P
The difference is calculated between the red component of the color of the pixel of image A in the image and the red component of the color of the pixel of image B in the same coordinate,
Add% component, ie 128. When the result is 0 or less, the missing component is truncated to 0, and when the result is the maximum value, that is, 255 or more, the excess component is truncated to give the maximum value. In this case, it is set to 255. Do the same for the blue and green components. The color information C obtained as a result of this is compared with the currently selected registered color. The absolute value of the difference between the red component of the color information C and the red component of the registered color is taken. Do the same for the blue and green components and take the sum. It is determined whether or not this total sum is larger than a predetermined reference value (threshold value) (step 1803). When it is determined in step 1803 that the value is larger than the reference value (threshold value), 0 is written in the position of the coordinate P of the output image (step 1805) and the process proceeds to step 1806. If it is determined that the value is smaller than the reference value (threshold value), 1 is written in the position of the coordinate P of the output image (step 1
804), and proceeds to step 1806. The value written at the position of the coordinate P of the output image indicates whether or not the value is similar to the light emitting point projected by the pointing device.

【0075】ステップ1806においては、全ての出力画素
について、処理が終了したか否かを判定する。ステップ
1806において、まだ処理が終了していない画素があると
判定された場合には、ステップ1807へ進む。ステップ18
07においては、次の画素を選択して、処理1803へ戻る。
ステップ1806において、全ての出力画素について、処理
が終了したと判定された場合には、ステップ1808へ進
む。全ての画素について以上の作業を行うと、ポインテ
ィングデバイスによって投影された発光点と色成分が近
い点のみ1が書き込まれた2値画像が得られる。ステッ
プ1808においては、得られた2値画像を、選択された登
録色と対にして主記憶装置に保存し、処理804の入力画
像とする。次に、ステップ1809において、全ての登録色
を選択したか否かを判定する。選択していない登録色が
あると判定された場合には、ステップ1810において次の
登録色を選択し、ステップ1802へ戻る。全ての登録色を
選択したと判定された場合、すなわち、全登録色につい
て、上記の2値画像が作成された時点で、処理803の作
業は終了する。
In step 1806, it is determined whether the processing has been completed for all output pixels. Step
If it is determined in 1806 that there is a pixel that has not been processed, the process proceeds to step 1807. Step 18
In 07, the next pixel is selected, and the process 1803 is returned to.
If it is determined in step 1806 that the processing has been completed for all output pixels, the process advances to step 1808. When the above operation is performed for all the pixels, a binary image in which 1s are written only at the points where the color components are close to the light emitting points projected by the pointing device is obtained. In step 1808, the obtained binary image is paired with the selected registered color and stored in the main storage device as the input image of the process 804. Next, in step 1809, it is determined whether all registered colors have been selected. If it is determined that there is a registered color that has not been selected, the next registered color is selected in step 1810, and the process returns to step 1802. When it is determined that all the registered colors have been selected, that is, when the above binary image is created for all the registered colors, the work of the process 803 ends.

【0076】図7に示した処理804は、処理803で作成さ
れた2値画像情報に対して、ポインティングデバイスの
投影図とその位置を認識する処理を示す。このような認
識技術については様々な手法が提案、研究されている。
この処理804の入力は処理803で作成された2値画像と登
録色との組み合わせのリストである。出力は図20に図
示される構造体1900を要素としたリストである。この処
理804では、上記の2値画像から抽出されたひとつなが
りの画像に対して、その中心点、長軸のなす角度とその
長さ、前記の角度と直交する方向の長さ(短軸の長
さ)、画素数を測定し、対応する登録色を含めてデータ
構造体1900に書き込む。これらの構造体が0個以上、不
定数だけ得られるので、構造体のリストを作成し、それ
を出力とする。
The process 804 shown in FIG. 7 is a process for recognizing the projection view of the pointing device and its position with respect to the binary image information created in the process 803. Various techniques have been proposed and studied for such recognition technology.
The input of this process 804 is a list of combinations of binary images created in process 803 and registered colors. The output is a list whose elements are the structure 1900 shown in FIG. In this processing 804, with respect to the continuous image extracted from the binary image, the center point, the angle formed by the long axis and the length thereof, and the length in the direction orthogonal to the angle (short axis Length) and the number of pixels are measured and written to the data structure 1900 including the corresponding registered color. Since we can get 0 or more of these structures and an infinite number of them, we will create a list of structures and use it as the output.

【0077】ここで、構造体1900を得るための処理804
について説明する。なお、以下の説明は、処理803で作
成された2値画像情報において、1が書きこまれている
部分の画像が楕円形であるものと仮定して行う場合の処
理である。
Here, the process 804 for obtaining the structure 1900
Will be described. Note that the following description is a process performed assuming that the image of the part in which 1 is written in the binary image information created in process 803 is an ellipse.

【0078】まず、処理803で作成された2値画像情報
に対し、1が書きこまれている部分の画像を、連結部分
にしたがって分割する。この処理は、連結している画像
の1つ1つに対してIDを振ることで実現できる。図2
1(a)に、2値画像情報の例を示す。図21(b)
に、IDを振られた2値画像情報の例を示す。この処理
に必要となるデータ構造は、図21(c)および図21
(d)のようになっている。
First, in the binary image information created in the process 803, the image of the portion in which 1 is written is divided according to the connected portion. This processing can be realized by assigning an ID to each of the connected images. Figure 2
An example of binary image information is shown in 1 (a). FIG. 21 (b)
An example of the binary image information assigned an ID is shown in FIG. The data structure required for this processing is shown in FIGS.
It looks like (d).

【0079】図21(c)は、画素毎にIDを持つ構造
体データである。図21(c)において、IDは、1か
ら順に振られる整数の番号とする。また、0番は、どこ
にも属していない、すなわち像で無い場合の値として固
定する。
FIG. 21C shows structure data having an ID for each pixel. In FIG. 21C, the ID is an integer number sequentially assigned from 1. In addition, 0 is fixed as a value when it does not belong to anywhere, that is, when it is not an image.

【0080】また、図21(d)は、ID番号に対し
て、このIDを有する画素の座標値を格納するものであ
る。1つのID番号に対する画素の座標値は、数百個に
上る場合もある。
Further, FIG. 21 (d) stores the coordinate value of the pixel having this ID for the ID number. The pixel coordinate value for one ID number may reach several hundreds.

【0081】ここで、上記図21(c)および図21
(d)に示したデータの生成方法について説明する。図
21(a)に示すような2値画像情報から、画素を1つ
選択し、次の処理を行う。 (1)もし、選択された画素の画素値が0であるなら
ば、図21(c)に示したような画素毎にIDを持つ構
造体データに、0を与えて次の画素を選択する。 (2)もし、選択された画素の画素値が1であるなら
ば、 その画素の周囲の8画素に、既にIDがふられている
画素が存在しているか否か検索を行う。 上記その画素の周囲の8画素に、既にIDが振られて
いるならば、そのIDと同じID番号を与え、上記図2
1(c)および図21(d)に示した2種類のデータ
に、登録を行う。 その画素の周囲の8画素に、既にIDがふられている
画素が存在していないならば、図21(c)に示したよ
うな画素毎にIDを持つ構造体データに、次のID(こ
れをNとする)を書き込む。また、図21(d)に示し
たような連結像について保持する構造体データのN番目
に、その画素の座標を与え、画素数に1を加える。 次の画素を選択し、上記処理を繰り返す。このように
して、全画素について、上記処理を行う。
Here, FIG. 21 (c) and FIG.
A method of generating the data shown in (d) will be described. One pixel is selected from the binary image information as shown in FIG. 21A, and the following process is performed. (1) If the pixel value of the selected pixel is 0, 0 is given to the structure data having the ID for each pixel as shown in FIG. 21C to select the next pixel. . (2) If the pixel value of the selected pixel is 1, it is searched whether or not there is a pixel to which the ID is already attached in the 8 pixels around the pixel. If IDs have already been assigned to the 8 pixels around the pixel, the same ID number as that ID is given, and
Registration is performed on the two types of data shown in 1 (c) and FIG. 21 (d). If there is no pixel to which the ID is already assigned in the 8 pixels around the pixel, the next ID (in the structure data having the ID for each pixel as shown in FIG. Write N). Further, the coordinates of the pixel are given to the Nth structure data held for the connected image as shown in FIG. 21D, and 1 is added to the number of pixels. The next pixel is selected and the above process is repeated. In this way, the above processing is performed for all pixels.

【0082】以上のようにして、2値画像が写っている
像を単位として分割された。すなわち、図21(a)に
示すような2値画像情報について、図21(b)に示す
ようなIDを振られた2値画像情報が得られた。
As described above, the image in which the binary image is captured is divided as a unit. That is, with respect to the binary image information shown in FIG. 21A, the ID image-assigned binary image information shown in FIG. 21B was obtained.

【0083】次に、この各像に対して、中心の位置、長
軸のなす角度、長軸の長さ、および短軸の長さを求め
る。以下の処理を、各像の構造体データに対して行う。
Next, for each of these images, the center position, the angle formed by the long axis, the length of the long axis, and the length of the short axis are obtained. The following processing is performed on the structure data of each image.

【0084】まず、連結像について保持する構造体デー
タに対して、中心の位置を求める。これは、連結像につ
いて保持する構造体データに登録された座標値の平均値
を求め、この平均値を中心の位置として採用する。この
平均値は、登録された座標値を(xi,yi)i=0,
…,n-1とすると、次の数式(数1)により示され
る。
First, the center position of the structure data held for the connected image is obtained. For this, the average value of the coordinate values registered in the structure data held for the connected image is obtained, and this average value is adopted as the center position. For this average value, the registered coordinate values are (x i , y i ) i = 0,
, N-1 is represented by the following mathematical expression (Equation 1).

【0085】[0085]

【数1】 また、上記処理により求められる中心の位置の例は、例
えば,図22(a)で示される。
[Equation 1] An example of the center position obtained by the above processing is shown in FIG. 22 (a), for example.

【0086】次に、長軸の傾きを求める。長軸の傾きを
aとし、連結像について保持する構造体データに登録さ
れた座標値を(xi,yi)i=0,…,n-1とし、中
心の位置を(xc,yc)とすると、傾きaを、次の数式
(数2)で求める。
Next, the inclination of the long axis is obtained. The inclination of the major axis is a, the coordinate values registered in the structure data held for the connected image are (x i , y i ) i = 0, ..., N−1, and the center position is (x c , y c ), the slope a is calculated by the following mathematical expression (Equation 2).

【0087】[0087]

【数2】 また、上記処理により求められる傾きの例は、例えば、
図22(b)で示される。
[Equation 2] An example of the tilt obtained by the above process is, for example,
It is shown in FIG.

【0088】次に、長軸のなす角度θを求める。角度θ
は、上記傾きaから、次の数式(数3)で求める。
Next, the angle θ formed by the major axis is obtained. Angle θ
Is calculated by the following mathematical expression (Equation 3) from the inclination a.

【0089】[0089]

【数3】 そして、図22(c)で示すように、画像を回転させ
る。図22(c)は、傾きaの場合に、角度θだけ画像
を回転させた状態を示している。
[Equation 3] Then, as shown in FIG. 22C, the image is rotated. FIG. 22C shows a state in which the image is rotated by the angle θ when the inclination is a.

【0090】次に、図22(c)のように回転させた画
像に対して、長軸の長さと短軸の長さを求める。この画
像についての構造体データに登録されている座標値のう
ち、もっともy座標の値が大きいものと、もっともy座
標の値が小さいものとの差を取り、この長さを長軸の長
さと定める。また、もっともx座標の値が大きいもの
と、もっともx座標の値が小さいものとの差を取り、こ
の長さを短軸の長さと定める。画像の長軸と短軸の様子
を、図22(d)に示す。
Next, the major axis length and the minor axis length of the image rotated as shown in FIG. 22C are obtained. Of the coordinate values registered in the structure data for this image, the difference between the one with the largest y coordinate value and the one with the smallest y coordinate value is taken, and this length is taken as the length of the long axis. Establish. Also, the difference between the one with the largest x-coordinate value and the one with the smallest x-coordinate value is taken, and this length is defined as the length of the minor axis. The appearance of the long axis and the short axis of the image is shown in FIG.

【0091】以上のようにして、図20に図示される構
造体1900を要素としたリストを生成する。
As described above, the list having the structure 1900 shown in FIG. 20 as an element is generated.

【0092】次に、情報統合用装置113の動作を説明す
る。情報統合用装置113は、画像認識装置110から送られ
てくるデータを総合して、ポインティングデバイスによ
って示されている指示個所を推測し、その結果をプレゼ
ンテーション用計算機114に出力する。
Next, the operation of the information integration device 113 will be described. The information integration device 113 synthesizes the data sent from the image recognition device 110, infers the pointing portion indicated by the pointing device, and outputs the result to the presentation computer 114.

【0093】図23に、この処理を実現することの出来
る装置の一構成例を表したブロック図を挙げる。図23
に示す装置においては、バス2007に、CPU2001と、主
記憶装置2002と、入出力I/F部2003と、外部記憶装置200
4とが接続されている。入出力I/F部2003には、出力機器
2005と、入力機器2006とが接続されている。CPU2001
は、主記憶装置2002に記録されているプログラムに従い
各種の処理を実行する。主記憶装置2002と外部記憶装置
2004には処理を実行するに当たって必要なプログラムや
データが記憶される。外部記憶装置2004としては、ハー
ドディスク装置の他に、可搬型の記録媒体であるフロッ
ピーディスク等を用いることができる。入出力インター
フェイス部(入出力I/F部)2003では、画像認識装置110
からの入力データ、プレゼンテーション用計算機114へ
の出力データ等をやり取りするために必要なデータの転
送手段を備えているものとする。本実施の形態において
は、以下の処理はCPU2001によって実行されるものと
する。ただし、このことは、本装置が汎用のCPUによ
って動作することに限定するものではない。以下に述べ
る各種処理と同等の機能を有する専用ハードウェアを使
用することもできる。
FIG. 23 is a block diagram showing a structural example of an apparatus capable of realizing this processing. FIG. 23
In the device shown in FIG. 1, a bus 2007, a CPU 2001, a main storage device 2002, an input / output I / F unit 2003, and an external storage device 200 are provided.
4 and are connected. The input / output I / F unit 2003 has an output device.
2005 and the input device 2006 are connected. CPU2001
Executes various processes according to the program recorded in the main storage device 2002. Main memory 2002 and external memory
In 2004, programs and data necessary for executing the processing are stored. As the external storage device 2004, a floppy disk or the like which is a portable recording medium can be used in addition to the hard disk device. In the input / output interface unit (input / output I / F unit) 2003, the image recognition device 110
It is assumed that a means for transferring data necessary for exchanging input data from the computer, output data to the presentation computer 114, and the like is provided. In the present embodiment, the following processing is executed by CPU 2001. However, this is not limited to the case where the present apparatus operates by a general-purpose CPU. It is also possible to use dedicated hardware having functions equivalent to the various processes described below.

【0094】情報統合用装置113では、複数台の画像認
識装置110から送られてくるデータを受信する。全ての
画像認識装置から転送されるデータがそろったときに、
以下の作業を開始するものとする。この処理の入力は、
複数の画像認識装置から送られてきた構造体のリスト19
00である。
The information integration device 113 receives the data sent from the plurality of image recognition devices 110. When all the data transferred from all image recognition devices are available,
The following work shall be started. The input of this process is
List of structures sent from multiple image recognition devices 19
00.

【0095】図24に、情報統合用装置113の処理の流
れを示す。情報統合用装置113においては、複数台の画
像認識装置202から送られてきた全ての構造体のリスト
をマージして、一つのリストにする。これを図24に示
す処理の入力として用いる。情報統合用装置113におい
ては、まず、処理216において、複数台の画像認識装置1
10から送られてきた全ての構造体のリストを受信する。
次に、処理217において、画像認識装置からのデータで
は2つの図形に分かれているが、もともと一つの発光点
による画像であった物を探し出し、合成する。次に、処
理218において、目標画像との適合度を調べ、最適と推
測される画像を選出する。最後に、処理219において、
処理結果を計算機114に送信する。図24に示す各処理
は、図4に示した同一符号の処理と同一の処理である。
図25は、処理217における動作をフローチャートで図
示したものである。処理217は、画像認識装置からのデ
ータでは2つの図形に分かれているが、もともと一つの
発光点による画像であった物を探し出し、合成する作業
である。
FIG. 24 shows a processing flow of the information integration device 113. In the information integration device 113, the lists of all the structures sent from the plurality of image recognition devices 202 are merged into one list. This is used as the input of the process shown in FIG. In the information integration device 113, first, in process 216, a plurality of image recognition devices 1
Receive a list of all structures sent from 10.
Next, in process 217, although the data from the image recognition device is divided into two figures, an object originally having an image of one light emitting point is searched for and combined. Next, in process 218, the degree of matching with the target image is checked, and the image estimated to be optimal is selected. Finally, in process 219,
The processing result is transmitted to the computer 114. Each process shown in FIG. 24 is the same process as the process of the same code shown in FIG.
FIG. 25 is a flowchart showing the operation of the process 217. The process 217 is a work for finding and combining an object that was originally an image with one light emitting point, which is divided into two figures in the data from the image recognition device.

【0096】まず、ステップ2201において、未選択の登
録色があるか否かを判定する。未選択の登録色が無い場
合には、処理を終了する。未選択の登録色があると判定
された場合には、登録色を選択する(ステップ2202)。
次に、ステップ2203において、未選択の画像対があるか
否かを判定する。未選択の画像対が無いと判定された場
合には、ステップ2201へ戻る。未選択の画像対があると
判定された場合には、入力リスト上から、互いに異なる
2つの要素を選び出す(ステップ2204)。
First, in step 2201, it is determined whether or not there is an unselected registered color. If there is no registered color that has not been selected, the process ends. If it is determined that there is an unselected registered color, the registered color is selected (step 2202).
Next, in step 2203, it is determined whether or not there is an unselected image pair. If it is determined that there is no unselected image pair, the process returns to step 2201. If it is determined that there is an unselected image pair, two different elements are selected from the input list (step 2204).

【0097】この2つの要素について、以下の条件を全
て満たすか調べる。条件1、二つの画像の登録色が等し
い。条件2、二つの画像の角度の差が一定値以下であ
る。条件3、二つの画像の中心間の距離から、長軸の長
さの和の半分を引いた値が一定値以下である。以上の3
つの条件を満たした場合には、二つの構造体をまとめて
一つの構造体とする。その際、新しい長軸の長さは、二
つの長軸の長さの半分と中心間の距離の和とする。新し
い短軸の長さは、二つの短軸の長さのうち、大きいもの
とする。また、新しい中心の位置は、二つの中心の中点
から長い長軸をもった画像の中心点の方向に、長い長軸
の4分の一から、短い長軸の4分の1を引いた長さだけ
動かしたものとして定める。
It is examined whether these two elements satisfy all the following conditions. Condition 1, the registered colors of the two images are equal. Condition 2, the difference between the angles of the two images is less than a certain value. Condition 3, the value obtained by subtracting half the sum of the lengths of the major axes from the distance between the centers of the two images is less than or equal to a certain value. Above 3
If two conditions are met, the two structures are combined into one structure. The length of the new major axis is then the sum of half the length of the two major axes and the distance between the centers. The new minor axis length shall be the greater of the two minor axis lengths. Also, the new center position is obtained by subtracting a quarter of the long major axis from a quarter of the long major axis in the direction of the center point of the image having the long major axis from the midpoint of the two centers. It is defined as moving only the length.

【0098】以上の作業を全ての要素の組み合わせに対
して行う。
The above work is performed for all combinations of elements.

【0099】図25に示すフローチャートにおいては、
ステップ2202において、上述の条件1が加味される。そ
して、ステップ2205において、二つの画像(構造体)の
角度が類似しているか否かを判定し、上述の条件2が加
味される。類似していないと判定された場合には、ステ
ップ2203へ戻る。類似していると判定された場合には、
ステップ2206へ進む。ステップ2206においては、二つの
画像の距離が近いか否かを判定し、上述の条件3が加味
される。近くないと判定された場合には、ステップ2203
へ戻る。近いと判定された場合には、二つの画像対(構
造体の対)をまとめて一つの画像(構造体)とする(ス
テップ2207)。このまとめ方は、上述のように行う。
In the flowchart shown in FIG. 25,
In step 2202, the above-mentioned condition 1 is taken into consideration. Then, in step 2205, it is determined whether or not the angles of the two images (structures) are similar, and the above-mentioned condition 2 is added. If it is determined that they are not similar, the process returns to step 2203. If determined to be similar,
Proceed to step 2206. In step 2206, it is determined whether or not the distance between the two images is short, and the above-mentioned condition 3 is added. If it is determined that they are not close, step 2203
Return to. If it is determined that they are close to each other, the two image pairs (structure pairs) are combined into one image (structure) (step 2207). This way of collecting is performed as described above.

【0100】次に、処理218について述べる。処理218は
上記処理217で与えられた画像の特徴量のリストから、
目標画像との適合度を調べ、最適と推測される画像を選
出する処理である。この処理218では、上記処理217で変
更されたリストの中から、各登録色について、参照位置
である蓋然性が高いとして選び出された要素の構造体を
出力として返す。この処理218の詳細は、図26のフロ
ーチャートに示されている。
Next, the process 218 will be described. The process 218 is from the list of image feature amounts given in the process 217,
This is a process of checking the degree of compatibility with a target image and selecting an image that is estimated to be optimal. In this process 218, the structure of the element selected as the reference position with high probability for each registered color is returned from the list changed in the above process 217 as an output. The details of this process 218 are shown in the flowchart of FIG.

【0101】図26のフローチャートにおいては、ま
ず、登録色を選択する(ステップ2301)。次に、新たな
画像(構造体)を選択する(ステップ2302)。次に、選
択された画像の画素数を読み込み、この画素数を評価数
値とする(ステップ2303)。次に、ステップ2304におい
て、全ての画像(構造体)について処理が終了したか否
かを判定する。全ての画像(構造体)について処理が終
了していない場合には、ステップ2302へ戻る。全ての画
像(構造体)について処理が終了した場合には、ステッ
プ2305へ進む。ステップ2305においては、評価数値の一
番大きな画像(構造体)を選択する。次に、ステップ23
06において、全ての登録色について、処理が終了したか
否かを判定する。まだ処理を行っていない登録色がある
場合には、ステップ2301へ戻る。全ての登録色につい
て、処理が終了した場合には、送信処理219へ進む。
In the flowchart of FIG. 26, first, a registered color is selected (step 2301). Next, a new image (structure) is selected (step 2302). Next, the number of pixels of the selected image is read, and this number of pixels is used as an evaluation value (step 2303). Next, in step 2304, it is determined whether or not the processing has been completed for all images (structures). If the processing has not been completed for all images (structures), the process returns to step 2302. When the processing is completed for all the images (structures), the process proceeds to step 2305. In step 2305, the image (structure) having the largest evaluation value is selected. Then step 23
In 06, it is determined whether or not the processing has been completed for all registered colors. If there is a registered color that has not been processed, the process returns to step 2301. When the processing is completed for all the registered colors, the processing proceeds to the transmission processing 219.

【0102】また、各要素(構造体)について、以下の
ような検定基準を算定してもよい。ただし、この検定基
準は本発明を実現するための一例であり、本発明がこの
手法に限定されるわけではない。入力のリストの中から
要素を一つ選択する。要素の登録色に対応づけられた半
径を主記憶装置から読み出す。この情報の登録方法は上
述した。リストに登録されている短軸長と半径の値との
差の絶対値をとる。この絶対値をLとする。各登録色に
ついて、処理2303で、前回選び出された該当要素の位置
座標と、処理中の要素の位置座標との距離の絶対値を算
出し保存する。この数値をPと呼ぶ。各要素の数値L,Pに
対して、その線形和aL+bPを計算する。ここで、aとb
は、装置の作成時に与えられる定数であり、単位系や実
装方法に依存する。この値がもっとも小さいものが、登
録色の発光点である蓋然性が高いと判断し、選出する。
このとき、選択された上記の検定量の全てが、ある定め
られた一定値よりも大きかった場合には、参照個所に該
当する画像は得られなかったものと判断する。
The following test criteria may be calculated for each element (structure). However, this test standard is an example for realizing the present invention, and the present invention is not limited to this method. Select an element from the list of inputs. The radius associated with the registered color of the element is read from the main storage device. The registration method of this information is described above. Takes the absolute value of the difference between the minor axis length and the radius value registered in the list. Let this absolute value be L. For each registered color, in process 2303, the absolute value of the distance between the position coordinate of the corresponding element selected last time and the position coordinate of the element being processed is calculated and stored. This number is called P. The linear sum aL + bP is calculated for the numerical values L and P of each element. Where a and b
Is a constant given when the device is created, and depends on the unit system and mounting method. The one with the smallest value is judged to have a high probability of being the light emitting point of the registered color and is selected.
At this time, if all of the above-mentioned selected test quantities are larger than a certain fixed value, it is determined that the image corresponding to the reference point was not obtained.

【0103】図24に戻り、処理219においては、処理2
18で選出された要素(構造体)のデータを計算機114に
送信する。この送信は、入出力I/F部 を介して行われ
る。
Returning to FIG. 24, in process 219, process 2
The data of the element (structure) selected in 18 is transmitted to the computer 114. This transmission is performed via the input / output I / F section.

【0104】以上で情報統合用装置113の処理を終了す
る。情報統合用装置113では、以上の処理を画像認識装
置110からの送信周期に合わせて、実時間で行う。処理
終了後、情報統合用装置113は次回の送信に備えて待機
状態を取る。
With that, the processing of the information integration apparatus 113 is completed. The information integration device 113 performs the above processing in real time according to the transmission cycle from the image recognition device 110. After the processing is completed, the information integration device 113 waits for the next transmission.

【0105】次に、プレゼンテーション用計算機114の
処理について述べる。ここでは、情報統合用装置113か
ら送信されてきた情報を、プレゼンテーション用計算機
114の画面描画の内容に反映させる。
Next, the processing of the presentation computer 114 will be described. Here, the information transmitted from the information integration device 113 is transferred to the presentation computer.
It is reflected in the contents of the screen drawing of 114.

【0106】プレゼンテーション用アプリケーションが
動作する計算機114においては、情報統合用の装置113か
ら送られてきた位置参照情報を利用するアプリケーショ
ンが動作している。このアプリケーションは、プレゼン
テーション用アプリケーションそのものである場合も、
その補助アプリケーションとして動作している場合もあ
りうる。このアプリケーションは、情報統合用装置113
から入力されたデータを受信して、参照位置を強調する
ための画像を作成する。
In the computer 114 in which the presentation application operates, an application using the position reference information sent from the information integration device 113 is operating. This application can be the presentation application itself,
It may be operating as the auxiliary application. This application is a device for information integration 113
It receives the data input from and creates an image for emphasizing the reference position.

【0107】強調画像の作成例を挙げる。計算機114
は、あらかじめ2次元画像イメージとして、矢印や指な
どを模った参照位置を直感的に理解できる画像を、主記
憶装置または外部記憶装置に持っている。複数のポイン
ティングデバイスが存在する場合には、この画像はポイ
ンティングデバイス毎に存在し、関連付けて保存されて
いる。情報統合装置113から送られてきた各情報につい
て、登録色の情報から、対応するポインティングデバイ
スを選び出す。そして、その構造体に書き込まれた座標
に、ポインティングデバイスに対応付けられた画像を配
置する。
An example of creating an emphasized image will be given. Calculator 114
Has a two-dimensional image in advance in the main storage device or the external storage device, which is an image in which the reference position imitating an arrow or a finger can be intuitively understood. When there are a plurality of pointing devices, this image exists for each pointing device and is stored in association with each other. For each piece of information sent from the information integration device 113, a corresponding pointing device is selected from the registered color information. Then, the image associated with the pointing device is arranged at the coordinates written in the structure.

【0108】複数の発言者がいた場合、前述の情報を、
指示者の位置をも暗喩したアイコンで表現することがで
きる。これにより、第三者もそれぞれ発言者がどのポイ
ンティングデバイスを保持しているかを判別することが
できるようになるので、プレゼンテーションの表現力を
増すことができる。図27では、この手法を用いたプレ
ゼンテーションの実施例を示している。発言者2606と発
言者2607は、それぞれ個別に異なるポインティングデバ
イス2604,2605で画面上を指示しているが、指示アイコ
ン2602と2603とが異なっているため混同されることはな
い。また、アイコンの向きが指示者の物理的な存在位置
を暗示しているため、第三者2608も、どちらの発言者が
どちらの指示アイコンを使用しているのかといった予備
知識を必要としない。
When there are a plurality of speakers, the above information is
The position of the instructor can also be represented by a metaphorical icon. As a result, a third party can also determine which pointing device the speaker holds, and thus the presentation power of the presentation can be increased. FIG. 27 shows an example of a presentation using this method. Speaker 2606 and speaker 2607 individually point on the screen with different pointing devices 2604 and 2605, but they are not confused because the instruction icons 2602 and 2603 are different. Moreover, since the direction of the icon implies the physical presence position of the instructor, the third party 2608 does not need any prior knowledge as to which speaker uses which instruction icon.

【0109】参照画像の別の作成例として、上記のよう
な複数の発言者を判別することに利用できるような参照
画像の例を挙げる。
As another example of creating a reference image, an example of a reference image that can be used to distinguish a plurality of speakers as described above will be given.

【0110】矢印、指などの参照位置を直感的に理解で
きる画像を、あらかじめ画像イメージとして、主記憶装
置、または外部記憶装置に持っている。この画像は、ポ
インティングデバイス毎に存在し、関連付けて保存され
ている。各ポインティングデバイスについて、情報統合
用装置113から送られてきた長軸成分の角度方向に合わ
せて、この画像を回転させる。参照位置の座標(情報統
合用装置113から送られてきた中心の位置の座標)に、
この画像内の注視点(矢印、指などの先端)の位置が重
なるように、画面上に参照画像を配置する。
An image that allows the user to intuitively understand the reference position of an arrow, a finger or the like is stored in advance in the main storage device or the external storage device as an image image. This image exists for each pointing device and is stored in association with each other. For each pointing device, this image is rotated according to the angular direction of the long-axis component sent from the information integration device 113. In the coordinates of the reference position (the coordinates of the center position sent from the information integration device 113),
The reference image is arranged on the screen so that the positions of the gaze points (arrows, tips of fingers, etc.) in this image overlap.

【0111】参照画像の別の作成例を挙げる。以下、こ
の参照画像の例においては、投影方向に対して正面向き
に設置されたスクリーン上に、円形の発光点を投影する
ようなポインティングデバイスを用いた場合を想定す
る。指示者(発言者)の位置や、向いている角度が変化
するに伴って、スクリーン上に投影される画像は一般に
楕円を描くようになる。平面スクリーンの場合において
は、この楕円の角度、長軸と短軸の比率、大きさといっ
た情報から、その発光点を投影している指示者の3次元
的な位置を推定することが可能である。
Another example of creating a reference image will be described. Hereinafter, in the example of the reference image, it is assumed that a pointing device that projects a circular light-emitting point is used on a screen installed in a front direction with respect to the projection direction. The image projected on the screen generally draws an ellipse as the position of the instructor (speaker) and the angle at which it is directed change. In the case of a flat screen, it is possible to estimate the three-dimensional position of the indicator projecting the light emitting point from information such as the angle of the ellipse, the ratio of the long axis to the short axis, and the size. .

【0112】図28と図29は、その具体的な処理方法
に関する参照図である。図28は、スクリーンと指示位
置(参照位置)の関係を、上側から見たときの図であ
る。図29は、スクリーンと指示位置(参照位置)の関
係を、正面から見たときの図である。大画面のスクリー
ン100が指示者105よりも高い位置に存在すると仮定す
る。指示者がもつポインティングデバイス104は、スク
リーンの正面、距離 dの位置 からスクリーンに垂直に
投影した場合に、スクリーン上に半径 r1の真円を描く
ポインティングデバイスである。この関係は、プレゼン
テーション開始前に計測され、登録される。前述の2値
画像から上記の情報を求めるための処理の流れを示す。
まず、ポインティングデバイスの光点の図の重心を求め
る。ついで、図形の選択された全ピクセルについて、も
っとも画素の分散が大きくなる方向を算出する。この方
向を図形の角度2402として定める。この角度だけ図形を
時計回りに回転させ、回転させた図形のx軸方向とy軸方
向の長さを、図形の長軸の長さa(2405)と、短軸の長
さb(2403)として決定する。図形の半径の長さr(240
1)は、短軸の長さの半分として定義される。また、指示
者から指定点へ伸ばした直線が、画面に対してなす角度
θ(2400)はθ= arcsin(b/a)であらわすことができ
る。上記の角度θと長軸の角度から、指定点から指示者
に向かう3次元方向として2種類の候補が求められる。
その場合、適切な制約条件(この場合、指示者は画面よ
りも下に位置するという条件)を定めることで、そのう
ち一つを選択することが出来る。さらに、rd/r1が指
示者との距離になる。
28 and 29 are reference diagrams relating to the specific processing method. FIG. 28 is a diagram when the relationship between the screen and the designated position (reference position) is viewed from above. FIG. 29 is a diagram of the relationship between the screen and the designated position (reference position) when viewed from the front. It is assumed that the large screen 100 is located higher than the instructor 105. The pointing device 104 of the instructor is a pointing device that draws a perfect circle of radius r1 on the screen when projected vertically from the front of the screen at a distance d to the screen. This relationship is measured and registered before the start of the presentation. The flow of processing for obtaining the above-mentioned information from the above-mentioned binary image is shown.
First, the center of gravity of the diagram of the light spot of the pointing device is obtained. Then, for all the selected pixels of the figure, the direction in which the pixel distribution is the largest is calculated. This direction is defined as the angle 2402 of the figure. The figure is rotated clockwise by this angle, and the lengths of the rotated figure in the x-axis direction and the y-axis direction are the long axis length a (2405) and short axis length b (2403) of the figure. To decide. Shape radius length r (240
1) is defined as half the length of the short axis. Further, the angle θ (2400) formed by the straight line extended from the instructor to the designated point with respect to the screen can be expressed as θ = arcsin (b / a). From the angle θ and the angle of the long axis, two types of candidates are obtained as the three-dimensional direction from the designated point toward the instructor.
In that case, one of them can be selected by defining an appropriate constraint condition (in this case, the instructor is positioned below the screen). Further, rd / r1 is the distance from the instructor.

【0113】この手法で得られる指示者の三次元位置
を、アイコンの形状によって暗喩させる。この操作に用
いる指示アイコンの2種類の例を図30に示す。図30
(a)で示されるのは、位置を指示する2次元画像を3
次元ポリゴンのテクスチャとして用いる方法である。27
01は指示している点を示し、2702で示される方向が、指
示者が位置している方向を示す。図30(b)で示され
るのは、3次元のポリゴン構造を用いて指示位置と指示
者の存在位置とを示す方法である。2703が示す方向は、
指示している点を示し、2704で示される方向が、指示者
が位置している方向を示す。
The three-dimensional position of the instructor obtained by this method is made to be a metaphor by the shape of the icon. FIG. 30 shows two types of instruction icons used for this operation. Figure 30
(A) shows that the two-dimensional image indicating the position is
This is a method used as a texture of a three-dimensional polygon. 27
01 indicates the point of instruction, and the direction indicated by 2702 indicates the direction in which the instructor is located. FIG. 30B shows a method of indicating the designated position and the presence position of the indicator using a three-dimensional polygon structure. The direction indicated by 2703 is
The pointing point is indicated, and the direction indicated by 2704 indicates the direction in which the instructor is located.

【0114】計算機114は、上述のように作成された画
像(アイコン)を、プレゼンテーション用画面に合成す
る。この合成の実装方法は、プレゼンテーション用計算
機114が使用しているオペレーティングシステムに依存
する。
The computer 114 synthesizes the image (icon) created as described above on the presentation screen. The implementation method of this composition depends on the operating system used by the presentation computer 114.

【0115】以上で、処理222(図4参照)の処理が終
了する。次の周期においては、この作成された画像(ア
イコン)を伴った画像データ(原画像)が、画像表示装
置108へ送信される(処理223)。
Thus, the process 222 (see FIG. 4) is completed. In the next cycle, the image data (original image) accompanied by the created image (icon) is transmitted to the image display device 108 (process 223).

【0116】画像表示装置108においては、処理224にお
いて上記画像データを受信する。次に、処理225におい
て、上記画像データをスクリーンの歪みに合わせて歪ま
せる。そして、処理226において、歪ませた画像データ
による画面を、スクリーン100に投影する。この後、再
び、処理210により、スクリーン100に投影された画面
を、カメラ107により撮像する。
The image display device 108 receives the image data in process 224. Next, in process 225, the image data is distorted according to the screen distortion. Then, in process 226, the screen based on the distorted image data is projected on the screen 100. After that, again, in step 210, the screen projected on the screen 100 is captured by the camera 107.

【0117】次に、本発明の別の実施の形態の構成図を
図31に示す。図31において、図1と同じ符号を付与
された構成要素は、図1に示した構成要素と同じ機能を
有するものとする。図31において、指示者105は、光
学的ポインティングデバイス2804でスクリーン100上を
指し示す。そのスクリーン100を、複数台設置されてい
るカメラ107-1,107-2が周期的に撮像する。それぞれの
画像は、画像認識装置2810-1,2810-2に送られる。そこ
では、スクリーン上の各領域内に映し出された発光点28
02の情報が抽出され、情報統合用装置113に送られる。
この情報統合用装置113では、複数の画像認識装置2810
から送られてきた、互いに矛盾する可能性のある情報か
ら、最も蓋然性の高い候補を採択する。この情報はプレ
ゼンテーション用の計算機114に送られ、そこでアイコ
ン画像103の合成と、プレゼンテーション用アプリケー
ションへの操作が行われる。
Next, FIG. 31 shows a block diagram of another embodiment of the present invention. In FIG. 31, components given the same reference numerals as those in FIG. 1 have the same functions as the components shown in FIG. In FIG. 31, the indicator 105 points on the screen 100 with the optical pointing device 2804. A plurality of cameras 107-1 and 107-2 installed periodically capture the screen 100. Each image is sent to the image recognition devices 2810-1 and 2810-2. There, the light emitting points 28 projected in each area on the screen
02 information is extracted and sent to the information integration device 113.
In this information integration device 113, a plurality of image recognition devices 2810
The most probable candidate is selected based on the information that has been sent from and that may conflict with each other. This information is sent to the presentation computer 114, where the icon image 103 is synthesized and the presentation application is operated.

【0118】この実施の形態で使用される光学的ポイン
ティングデバイス2804の構造例を図32に示す。この光
学的ポインティングデバイス2804は、6つの光点を投影
するものである。(ただし、この発明におけるこのポイ
ンティングデバイスの特徴は、光点の数に限定されるわ
けではない。回転に対し非対称な図形を投影するもので
あれば同様の効果を得ることが出来る)。このデバイス
は発光部2906と保持部2907に分けて考えられる。発光部
2906は、保持部2907に対して、動力部2905とモーター29
04の作用によって回転する。発光部2906には、レーザー
または可視光線を正面に向けて放つ発光部品2901が、6
つ取り付けられている(2901-1から2901-6)。この発光
部品2901でスクリーンを指し示すと、周期的に回転を繰
り返す発光点の画像がスクリーンに写る。図33は、図
32に示したポインティングデバイス2804によって投影
される発光画像を図示したものである。スクリーン100
上には、6つの光点3301-1〜3301-6が映っている。この
発光画像(光点)3301-1〜3301-6はデバイス2804の発光
部2906の回転に伴って回転する。
FIG. 32 shows a structural example of the optical pointing device 2804 used in this embodiment. The optical pointing device 2804 projects six light spots. (However, the feature of this pointing device in the present invention is not limited to the number of light spots. The same effect can be obtained as long as it projects a figure asymmetric with respect to rotation). This device can be considered to be divided into a light emitting unit 2906 and a holding unit 2907. Light emitting part
The 2906 is different from the holding section 2907 in the power section 2905 and the motor 29.
It rotates by the action of 04. The light emitting unit 2906 includes a light emitting component 2901 that emits a laser or visible light toward the front.
Installed (2901-1 to 2901-6). When the screen is pointed by the light emitting component 2901, an image of a light emitting point that periodically rotates is displayed on the screen. FIG. 33 shows a luminescent image projected by the pointing device 2804 shown in FIG. Screen 100
Six light spots 3301-1 to 3301-6 are reflected on the top. The emission images (light spots) 3301-1 to 3301-6 rotate with the rotation of the light emitting unit 2906 of the device 2804.

【0119】本実施の形態で行う処理の流れを図34に
記載する。図34において、図4に示された処理と同一
の符号を付与された処理は、図4に示された処理と同様
な処理であるとする。図34においては、画像認識装置
2810による処理3410(画像認識処理)のみが、図4に示
された処理と異なっている。
FIG. 34 shows the flow of processing performed in this embodiment. In FIG. 34, the process given the same reference numeral as the process shown in FIG. 4 is assumed to be the same process as the process shown in FIG. In FIG. 34, the image recognition device
Only the process 3410 (image recognition process) by 2810 is different from the process shown in FIG.

【0120】図34において、カメラ107は、上記のス
クリーンを周期的に撮像する。ただし、この撮像周期と
ポインティングデバイス2804の回転周期は、定数倍には
なっていないものとする。また、カメラ107の台数は任
意であるとする。カメラ107の配置に関する条件は、前
実施の形態と同様の物であるとする。カメラ107が撮像
したデジタル画像は、画像認識装置2810に送られる。こ
の画像認識装置2810は、カメラ107から転送されてきた
画像を入力として受け取り、位置座標の情報を持った構
造体の配列(リスト)を出力する。
In FIG. 34, the camera 107 periodically picks up the screen. However, it is assumed that the imaging cycle and the rotation cycle of the pointing device 2804 are not a constant multiple. Further, it is assumed that the number of cameras 107 is arbitrary. The conditions regarding the arrangement of the camera 107 are assumed to be the same as those in the previous embodiment. The digital image captured by the camera 107 is sent to the image recognition device 2810. The image recognition device 2810 receives an image transferred from the camera 107 as an input, and outputs an array (list) of structures having position coordinate information.

【0121】この画像認識処理を行うことの出来る画像
認識装置2810の構成の一例を図35に挙げる。図8に示
す装置においては、バス3307に、CPU3301と、主記憶
装置3302と、入出力I/F部3303と、外部記憶装置3304と
が接続されている。入出力I/F部3303には、出力機器330
5と、入力機器3306とが接続されている。CPU3301
は、主記憶装置3302に記録されているプログラムに従い
各種の処理を実行する。主記憶装置3302と外部記憶装置
3304には処理を実行するに当たって必要なプログラムや
データが記憶される。外部記憶装置3304としては、ハー
ドディスク装置等のほかに、可搬型記録媒体であるフロ
ッピーディスク等を使用することもできる。入出力イン
ターフェイス部(入出力I/F部)3303では、カメラから
の入力データ、情報統合装置へのへの出力データ等をや
り取りするために必要なデータの転送手段を備えている
ものとする。本実施の形態においては、以下の処理はC
PU3301によって実行されるものとする。ただし、この
ことは、本装置が汎用のCPUによって動作することに
限定するものではない。以下に述べる各種処理と同等の
機能を有する専用ハードウエアを使用することも出来
る。
FIG. 35 shows an example of the configuration of an image recognition device 2810 that can perform this image recognition process. In the device shown in FIG. 8, a bus 3307 is connected to a CPU 3301, a main storage device 3302, an input / output I / F unit 3303, and an external storage device 3304. Input / output I / F section 3303 has output device 330
5 and the input device 3306 are connected. CPU3301
Executes various processes according to the program recorded in the main storage device 3302. Main memory device 3302 and external memory device
The 3304 stores programs and data necessary for executing the processing. As the external storage device 3304, in addition to a hard disk device or the like, a floppy disk or the like which is a portable recording medium can be used. The input / output interface unit (input / output I / F unit) 3303 is provided with a data transfer means necessary for exchanging input data from the camera, output data to the information integration device, and the like. In the present embodiment, the following processing is C
It shall be executed by the PU3301. However, this is not limited to the case where the present apparatus operates by a general-purpose CPU. It is also possible to use dedicated hardware having functions equivalent to the various processes described below.

【0122】この画像認識装置2810の行う処理3401を表
す図を図36に記載する。主記憶装置3302上には、前回
の処理の際に、カメラから送信された画像が保存されて
いる(処理3202)。カメラから新しい画像が入力される
と、前回の画像と今回の新しい画像との差分を取る(処
理3203)。この処理3203の出力も、入力画像と同一サイ
ズの画像である。前フレーム(前回)において撮像され
た画像と、今フレーム(今回)においてカメラから送ら
れてきた画像との差を取り、50%グレーの画像を足し合
わせる。この差分処理の詳細については、前実施の形態
と同様の方法を取るものとする。カメラの撮像範囲のう
ち、スクリーン外である領域については、前述の実施の
形態と同様に未定義フラグがセットされる。この処理32
03の結果として生まれる画像を出力として処理3204に送
る。
FIG. 36 is a diagram showing the process 3401 performed by the image recognition device 2810. The image transmitted from the camera at the time of the previous processing is stored in the main storage device 3302 (processing 3202). When a new image is input from the camera, the difference between the previous image and this new image is calculated (process 3203). The output of this process 3203 is also an image of the same size as the input image. The difference between the image taken in the previous frame (previous time) and the image sent from the camera in the current frame (this time) is calculated, and a 50% gray image is added. For the details of this difference processing, the same method as in the previous embodiment is taken. As for the area outside the screen in the image pickup range of the camera, the undefined flag is set as in the above-described embodiment. This process 32
The image generated as a result of 03 is sent to the process 3204 as an output.

【0123】処理3204は処理3203で出力された画像を入
力として受け取り、2値画像を出力する。ポインティン
グデバイスの特徴色はあらかじめ登録されている。この
登録の方法は前実施の形態において述べられたものと同
一の手法を用いる。
A process 3204 receives the image output in the process 3203 as an input and outputs a binary image. The characteristic color of the pointing device is registered in advance. This registration method uses the same method as that described in the previous embodiment.

【0124】処理3204においては、処理3203で出力され
た画像の各座標の画素について、以下の処理を行う。画
素の色成分を取ったものを赤成分、青成分、緑成分に分
割する。上記の赤成分と登録色の赤成分との差を取る。
上記の青成分と登録色の緑成分との差を取る。上記の緑
成分と登録色の緑成分との差を取る。上記3つの差の総
和を取り、これが一定の基準値以下であった場合には、
出力画像の該当画素位置に1を書き込む。そうでない場
合、0を書き込む。全ての画素に対して上記の処理が終
了した場合には、処理3204は終了する。
In process 3204, the following process is performed on the pixel at each coordinate of the image output in process 3203. The color component of a pixel is divided into a red component, a blue component, and a green component. The difference between the above red component and the registered red component is calculated.
The difference between the above blue component and the registered green component is calculated. The difference between the above green component and the registered green component is calculated. Take the sum of the above three differences, and if this is below a certain reference value,
Write 1 to the corresponding pixel position in the output image. Otherwise, write 0. When the above process is completed for all pixels, the process 3204 ends.

【0125】次に、処理3205においては、処理3204で得
られた2値画像に対して、幾何変換テーブルを用いた歪
み補正処理を行う。この処理は、前実施の形態において
述べられたものと同一の手法を用いる。この処理3205か
らの出力は、歪み補正処理を施された2値画像である。
Next, in process 3205, distortion correction process using the geometric conversion table is performed on the binary image obtained in process 3204. This processing uses the same method as that described in the previous embodiment. The output from this process 3205 is a binary image that has undergone distortion correction processing.

【0126】図36の処理3206は、処理3205から入力さ
れた画像に対する認識処理を示す。入力は上記処理3205
によって作成された歪み補正処理を施された2値画像と
なっている。入力画像で1となっている画素の総数があ
る閾値Bよりも多い場合には、何らかの理由により画像
自体が大幅な変化をしたものとみなし、情報の取り込み
を行わない。この場合ポインティングデバイスの位置情
報は前回のフレームによって得られた情報を用いる。ま
た、ある閾値Cよりも少ない場合には、ポインティング
デバイスによる照射が行われていないと判断し、情報の
取り込みを行わない。この場合ポインティングデバイス
の位置情報は発見不能であったと定める。それ以外の場
合、認識された画像は、ポインティングデバイスの光点
による位置情報であると判断される。
The process 3206 of FIG. 36 shows the recognition process for the image input from the process 3205. Input the above process 3205
It is a binary image that has been subjected to the distortion correction processing created by. If the total number of pixels that are 1 in the input image is larger than the threshold value B, it is considered that the image itself has changed significantly for some reason, and information is not captured. In this case, the position information of the pointing device uses the information obtained by the previous frame. If it is less than a certain threshold value C, it is determined that the irradiation by the pointing device is not performed, and the information is not captured. In this case, the position information of the pointing device is determined to be undiscoverable. In other cases, the recognized image is determined to be position information based on the light spot of the pointing device.

【0127】処理3206において、画像認識装置2810は、
ポインティングデバイスの光点による位置情報であると
判断された画素位置の重心を求め、その点が指示点であ
ると判断する。また、全画素の位置について、もっとも
分散の大きい方向を求める。その向きを長軸の向きとし
て定める。長軸の長さ、短軸の長さは、前述と同様に求
める。これらの情報を、図20に示したデータ構造体に
書き込む。この後、図34の処理215により、データ構
造体を情報統合用装置113に送信する。以降の処理は、
前実施の形態と同様になる。画面の変更、またはそれ以
外の何らかの理由によって、ポインティングデバイスで
指定した光点以外の画面が変化した場合には、差分情報
からポインティングデバイスの位置に関する更新情報を
得ることに失敗する場合がある。その場合、前回の位置
情報に基づいてアイコンを提示する。
In process 3206, the image recognition device 2810
The center of gravity of the pixel position determined to be the position information based on the light point of the pointing device is obtained, and the point is determined to be the designated point. In addition, the direction with the largest variance is obtained for the positions of all pixels. The direction is defined as the major axis direction. The length of the long axis and the length of the short axis are obtained in the same manner as described above. These pieces of information are written in the data structure shown in FIG. After that, the data structure is transmitted to the information integration device 113 by the process 215 of FIG. Subsequent processing,
The same as in the previous embodiment. When the screen other than the light spot designated by the pointing device changes due to the change of the screen or some other reason, it may fail to obtain the update information regarding the position of the pointing device from the difference information. In that case, the icon is presented based on the previous position information.

【0128】この発明内容は、プレゼンテーションのみ
に限定されることなく、大画面プロジェクタシステムを
用いたアミューズメントシステム、コミュニケーション
システムにおいても適用が可能である。
The contents of the present invention are not limited to presentations, but can be applied to amusement systems and communication systems using large-screen projector systems.

【0129】[0129]

【発明の効果】本発明によれば、大画面スクリーンを用
いたプレゼンテーションなどにおいても、参照個所の指
示が可能であり、自然な操作性を得ることができるプレ
ゼンテーション技術を提供することが出来る。
According to the present invention, it is possible to provide a presentation technique capable of indicating a reference point even in a presentation or the like using a large-screen screen and obtaining natural operability.

【0130】また、本発明によれば、カメラによる高解
像度の撮像が可能となり、多大な計算負荷を実時間処理
で行うために、画像認識処理を高速に、効率良く、高い
精度で行うことができるプレゼンテーション技術を提供
することが出来る。
Further, according to the present invention, high-resolution image pickup by a camera is possible, and a large calculation load is performed in real-time processing, so that image recognition processing can be performed at high speed, efficiency, and high accuracy. Can provide presentation technology that can be done.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施の形態を示す構成図。FIG. 1 is a configuration diagram showing an embodiment of the present invention.

【図2】4台のカメラでスクリーンを撮像する場合の説
明図。
FIG. 2 is an explanatory diagram when a screen is captured by four cameras.

【図3】本発明の一実施の形態における構成要素の接続
関係を示す説明図。
FIG. 3 is an explanatory diagram showing a connection relationship of components according to the embodiment of the present invention.

【図4】本発明の一実施の形態における処理の流れを示
す説明図。
FIG. 4 is an explanatory diagram showing a flow of processing according to the embodiment of the present invention.

【図5】スクリーンが平面でない場合の説明図。FIG. 5 is an explanatory view when the screen is not flat.

【図6】スクリーンが平面でない場合の説明図。FIG. 6 is an explanatory view when the screen is not flat.

【図7】画像認識装置の処理を示すフローチャート。FIG. 7 is a flowchart showing processing of the image recognition device.

【図8】画像認識装置の一構成例を示すブロック図。FIG. 8 is a block diagram showing a configuration example of an image recognition device.

【図9】幾何変換についての説明図。FIG. 9 is an explanatory diagram of geometric conversion.

【図10】幾何変換についての説明図。FIG. 10 is an explanatory diagram of geometric conversion.

【図11】幾何変換の処理を示すフローチャート。FIG. 11 is a flowchart showing processing of geometric conversion.

【図12】幾何変換で用いられるテーブルの説明図。FIG. 12 is an explanatory diagram of a table used in geometric conversion.

【図13】幾何変換で用いられるテーブルの説明図。FIG. 13 is an explanatory diagram of a table used in geometric conversion.

【図14】幾何変換で用いられるテーブルを作成する方
法の説明図。
FIG. 14 is an explanatory diagram of a method of creating a table used in geometric transformation.

【図15】幾何変換で用いられるテーブルを作成する方
法の処理を示すフローチャート。
FIG. 15 is a flowchart showing a process of a method of creating a table used in geometric transformation.

【図16】色補正処理を示すフローチャート。FIG. 16 is a flowchart showing color correction processing.

【図17】色補正処理で用いられるテーブルの説明図。FIG. 17 is an explanatory diagram of a table used in color correction processing.

【図18】色補正処理で用いられるテーブルを作成する
方法の処理を示すフローチャート。
FIG. 18 is a flowchart showing processing of a method of creating a table used in color correction processing.

【図19】2値画像を生成する処理を示すフローチャー
ト。
FIG. 19 is a flowchart showing a process of generating a binary image.

【図20】画像認識装置から、情報統合用装置に送られ
る情報の形式の一例を示した説明図。
FIG. 20 is an explanatory diagram showing an example of a format of information sent from the image recognition device to the information integration device.

【図21】画像認識装置から、情報統合用装置に送られ
る情報の作成方法の説明図。
FIG. 21 is an explanatory diagram of a method of creating information sent from the image recognition device to the information integration device.

【図22】画像認識装置から、情報統合用装置に送られ
る情報の作成方法の説明図。
FIG. 22 is an explanatory diagram of a method of creating information sent from the image recognition device to the information integration device.

【図23】情報統合用装置の一構成例を示すブロック
図。
FIG. 23 is a block diagram showing a configuration example of an information integration device.

【図24】情報統合用装置の処理を示すフローチャー
ト。
FIG. 24 is a flowchart showing the processing of the information integration device.

【図25】同一性判定処理を示すフローチャート。FIG. 25 is a flowchart showing an identity determination process.

【図26】選定処理を示すフローチャート。FIG. 26 is a flowchart showing a selection process.

【図27】複数の指示者にそれぞれ別のアイコンを与え
る例の説明図。
FIG. 27 is an explanatory diagram of an example in which different icons are given to a plurality of instructors.

【図28】指示者の位置を推定する方法についての説明
図。
FIG. 28 is an explanatory diagram of a method of estimating the position of the instructor.

【図29】指示者の位置を推定する方法についての説明
図。
FIG. 29 is an explanatory diagram of a method of estimating the position of the instructor.

【図30】指示者の位置を示すためのアイコンの例の説
明図。
FIG. 30 is an explanatory diagram of an example of an icon for indicating the position of the instructor.

【図31】本発明の他の実施の形態を示す構成図。FIG. 31 is a configuration diagram showing another embodiment of the present invention.

【図32】本発明の他の実施の形態におけるポインティ
ングデバイスの説明図。
FIG. 32 is an explanatory diagram of a pointing device according to another embodiment of the present invention.

【図33】本発明の他の実施の形態におけるポインティ
ングデバイスによる光点の説明図。
FIG. 33 is an explanatory diagram of a light spot by a pointing device according to another embodiment of the present invention.

【図34】本発明の他の実施の形態における処理の流れ
を示す説明図。
FIG. 34 is an explanatory diagram showing a flow of processing in another embodiment of the present invention.

【図35】本発明の他の実施の形態における画像認識装
置の一構成例を示すブロック図。
FIG. 35 is a block diagram showing a configuration example of an image recognition device according to another embodiment of the present invention.

【図36】本発明の他の実施の形態における画像認識装
置の処理を示すフローチャート。
FIG. 36 is a flowchart showing the processing of the image recognition device in another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 スクリーン 102 104によって照らされた光点 103 シンボル(アイコン) 104 指示器(光学的ポインティングデバイス) 105 指示者 106 プロジェクタ 107-1,107-2 カメラ 108画像表示装置 110-1,110-2 画像認識装置 113 情報統合用装置 114 プレゼンテーション用計算機 115 歪み補正装置 100 screen Light spot illuminated by 102 104 103 symbol 104 Indicator (optical pointing device) 105 Instructor 106 Projector 107-1, 107-2 cameras 108 image display device 110-1, 110-2 image recognition device 113 Information integration device 114 Presentation Calculator 115 Distortion correction device

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09G 5/08 G09G 5/08 L (72)発明者 武田 晴夫 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 Fターム(参考) 5B087 AA09 AB02 CC09 CC12 CC26 CC33 DD05 DE03 DE07 5C082 AA03 AA24 AA27 BB42 CA02 CA59 CB05 DA42 DA87 MM09 MM10 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) G09G 5/08 G09G 5/08 L (72) Inventor Haruo Takeda 1099, Ozenji Temple, Aso-ku, Kawasaki-shi, Kanagawa Hitachi, Ltd. System Development Laboratory F-term (reference) 5B087 AA09 AB02 CC09 CC12 CC26 CC33 DD05 DE03 DE07 5C082 AA03 AA24 AA27 BB42 CA02 CA59 CB05 DA42 DA87 MM09 MM10

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】スクリーン上に画像を表示して、ポインテ
ィング装置により前記画像上を光点で指示するプレゼン
テーションシステムにおいて、 前記スクリーン上に表示すべき画像を生成する画像生成
手段と、 該画像生成手段により生成された画像を前記スクリーン
上に表示する画像表示手段と、 前記スクリーンの画像投影面を撮像する撮像手段と、該
撮像手段により撮像された画像の中から、前記ポインテ
ィング装置により指 示された光点を抽出し、抽出された光点の形状を認識
し、前記ポインティング装置により指示されている位置
を検出する画像認識手段と、 を備え、 前記画像生成手段は、該画像認識手段により検出された
位置に、前記位置を指示することを示すシンボルを合成
した画像を生成し、 前記画像表示手段は、該シンボルを合成された画像を、
前記スクリーン上に表示することを特徴とするプレゼン
テーションシステム。
1. A presentation system in which an image is displayed on a screen and a pointing device indicates the light spot on the image, and image generation means for generating an image to be displayed on the screen, and the image generation means. Image display means for displaying the image generated by the screen on the screen, image pickup means for picking up an image projection surface of the screen, and light selected by the pointing device from among the images picked up by the image pickup means. Image recognition means for extracting a point, recognizing the shape of the extracted light spot, and detecting a position designated by the pointing device, wherein the image generation means is detected by the image recognition means. An image is generated by combining a symbol indicating that the position is indicated at the position, and the image display unit is configured to display the symbol. The synthesized image,
A presentation system for displaying on the screen.
【請求項2】スクリーン上に画像を表示して、ポインテ
ィング装置により前記画像上を光点で指示するプレゼン
テーションシステムにおいて、 前記スクリーン上に表示すべき画像を生成する画像生成
手段と、 該画像生成手段により生成された画像を前記スクリーン
上に表示する画像表示手段と、 前記スクリーンの画像投影面を撮像する撮像手段と、 該撮像手段により撮像された画像の中から、前記ポイン
ティング装置により指示された光点を抽出し、抽出され
た光点の形状を認識し、前記ポインティング装置により
指示されている位置、および前記光点の形状の向きを検
出する画像認識手段と、 を備え、 前記画像生成手段は、該画像認識手段により検出された
位置に、前記画像認識手段により検出された向きから前
記位置を指示することを示すシンボルを合成した画像を
生成し、 前記画像表示手段は、該シンボルを合成された画像を、
前記スクリーン上に表示することを特徴とするプレゼン
テーションシステム。
2. A presentation system in which an image is displayed on a screen and a pointing device indicates the light spot on the image, and image generation means for generating an image to be displayed on the screen, and the image generation means. Image display means for displaying the image generated by the above on the screen, image pickup means for picking up the image projection surface of the screen, and light selected by the pointing device from among the images picked up by the image pickup means. An image recognition unit that extracts a point, recognizes the shape of the extracted light spot, and detects the position indicated by the pointing device and the orientation of the shape of the light spot; and Pointing to the position detected by the image recognition means from the direction detected by the image recognition means Generating a combined image symbol indicating the image display unit, an image synthesized with the symbols,
A presentation system for displaying on the screen.
【請求項3】スクリーン上に画像を表示して、ポインテ
ィング装置により前記画像上を光点で指示するプレゼン
テーションシステムにおいて、 前記スクリーン上に表示すべき画像を生成する画像生成
手段と、 該画像生成手段により生成された画像を前記スクリーン
上に表示する画像表示手段と、 前記スクリーンの画像投影面を、複数の領域に分けて該
領域毎に撮像する複数の撮像手段と、 該複数の撮像手段により撮像された画像の中から、前記
ポインティング装置により指示された光点を抽出し、抽
出された光点の形状を認識し、前記ポインティング装置
により指示されている位置を検出する、並列に動作可能
な複数の画像認識手段と、 該複数の画像認識手段により複数抽出された光点が、ス
クリーン上で同一の光点であるか否かを判定し、同一で
あると判定された場合に、前記複数の光点から光点のあ
るべき位置を推定する情報統合手段と、 を備え、 前記画像生成手段は、該情報統合手段により推定された
位置に、前記位置を指示することを示すシンボルを合成
した画像を生成し、 前記画像表示手段は、該シンボルを合成された画像を、
前記スクリーン上に表示することを特徴とするプレゼン
テーションシステム。
3. A presentation system in which an image is displayed on a screen and a pointing device indicates the light spot on the image. Image generating means for generating an image to be displayed on the screen, and the image generating means. Image display means for displaying the image generated by the above on the screen, a plurality of image pickup means for dividing the image projection surface of the screen into a plurality of areas, and image pickup for each of the areas, and image pickup by the plurality of image pickup means A plurality of light sources designated by the pointing device, recognizing the shape of the extracted light spot, and detecting the position designated by the pointing device from among the displayed images, which are operable in parallel. Image recognizing means and whether the light spots extracted by the plurality of image recognizing means are the same light spot on the screen , An information integration unit that estimates the position where the light spot should be from the plurality of light spots when it is determined that they are the same, and the image generation unit is located at the position estimated by the information integration unit. , An image in which a symbol indicating that the position is designated is combined, and the image display unit displays the image in which the symbol is combined,
A presentation system for displaying on the screen.
【請求項4】スクリーン上に画像を表示して、ポインテ
ィング装置により前記画像上を光点で指示するプレゼン
テーションシステムにおいて、 前記スクリーン上に表示すべき画像を生成する画像生成
手段と、 該画像生成手段により生成された画像を前記スクリーン
上に表示する画像表示手段と、 前記スクリーンの画像投影面を、複数の領域に分けて該
領域毎に撮像する複数の撮像手段と、 該複数の撮像手段により撮像された画像の中から、前記
ポインティング装置により指示された光点を抽出し、抽
出された光点の形状を認識し、前記ポインティング装置
により指示されている位置、および前記光点の形状の向
きを検出する、並列に動作可能な複数の画像認識手段
と、 該複数の画像認識手段により複数抽出された光点が、ス
クリーン上で同一の光点であるか否かを判定し、同一で
あると判定された場合に、前記複数の光点から光点のあ
るべき位置、および光点の形状の向きを推定する情報統
合手段と、 を備え、 前記画像生成手段は、該情報統合手段により推定された
位置に、前記情報統合手段により推定された向きから前
記位置を指示することを示すシンボルを合成した画像を
生成し、 前記画像表示手段は、該シンボルを合成された画像を、
前記スクリーン上に表示することを特徴とするプレゼン
テーションシステム。
4. A presentation system in which an image is displayed on a screen and a pointing device indicates the light spot on the image, and image generation means for generating an image to be displayed on the screen, and the image generation means. Image display means for displaying the image generated by the above on the screen, a plurality of image pickup means for dividing the image projection surface of the screen into a plurality of areas, and image pickup for each of the areas, and image pickup by the plurality of image pickup means From the image that has been extracted, the light spot designated by the pointing device is extracted, the shape of the extracted light spot is recognized, and the position designated by the pointing device and the direction of the shape of the light spot are determined. A plurality of image recognizing means that can be operated in parallel and a plurality of light spots extracted by the plurality of image recognizing means are detected on the screen. It is determined whether or not one light spot, and when it is determined that they are the same, information integration means for estimating the position of the light spot from the plurality of light spots and the direction of the shape of the light spot. The image generation means generates an image in which a symbol indicating that the position is indicated from the direction estimated by the information integration means is combined with the position estimated by the information integration means, The display means displays the image combined with the symbol,
A presentation system for displaying on the screen.
【請求項5】スクリーン上に表示されるべき画像につい
ての情報である第1の画像情報と、前記画像に光点を照
射された画像についての情報である第2の画像情報とを
受け付け、前記光点を抽出し、抽出された光点の形状を
認識し、該光点により指示されている位置、および前記
光点の形状の向きを検出することを特徴とする画像認識
装置。
5. Accepting first image information, which is information about an image to be displayed on a screen, and second image information, which is information about an image in which the image is illuminated with a light spot, and An image recognition apparatus, which extracts a light spot, recognizes a shape of the extracted light spot, and detects a position indicated by the light spot and a direction of the shape of the light spot.
【請求項6】請求項1、請求項2、請求項3、または請
求項4において、 前記スクリーンは、歪みを伴った平面、または非平面で
あり、 前記画像認識手段は、前記撮像手段により撮像された画
像を、平面スクリーン上の画像に変換するための座標変
換手段を備え、該座標変換手段により変換された画像を
用いて、前記光点の形状を認識することを特徴とするプ
レゼンテーションシステム。
6. The screen according to claim 1, claim 2, claim 3, or claim 4, wherein the screen is a flat surface with distortion or a non-planar surface, and the image recognition means captures an image by the image capturing means. A presentation system comprising: a coordinate conversion unit for converting the formed image into an image on a flat screen, and recognizing the shape of the light spot using the image converted by the coordinate conversion unit.
【請求項7】請求項1、請求項2、請求項3、または請
求項4において、 前記画像認識手段は、前記画像生成手段により生成され
た画像から、該画像がスクリーン上に表示された画像を
推定するために、前記画像生成手段により生成された画
像に、実施環境状態に適合した色変換を行うための色変
換手段を備え、該色変換手段により色変換された画像を
用いて、前記光点の形状を認識することを特徴とするプ
レゼンテーションシステム。
7. The image according to claim 1, claim 2, claim 3, or claim 4, wherein the image recognition means displays an image from the image generated by the image generation means on the screen. In order to estimate, the image generated by the image generation means is provided with color conversion means for performing color conversion suitable for the environment condition, and the image converted by the color conversion means is used to A presentation system that recognizes the shape of a light spot.
【請求項8】請求項1、請求項2、請求項3、または請
求項4において、 前記スクリーンは、歪みを伴った平面、または非平面で
あり、 前記画像認識手段は、前記撮像手段により撮像された画
像を、平面スクリーン上の画像に変換するための座標変
換手段を備え、 前記画像認識手段は、前記画像生成手段により生成され
た画像から、該画像がスクリーン上に表示された画像を
推定するために、前記画像生成手段により生成された画
像に、実施環境状態に適合した色変換を行うための色変
換手段を備え、 前記座標変換手段により変換された画像と、前記色変換
手段により色変換された画像とを比較して、前記光点の
形状を認識することを特徴とするプレゼンテーションシ
ステム。
8. The screen according to claim 1, claim 2, claim 3, or claim 4, wherein the screen is a flat surface or a non-planar surface with distortion, and the image recognition means captures an image by the image capturing means. Coordinate conversion means for converting the generated image into an image on a flat screen, and the image recognition means estimates an image displayed on the screen from the image generated by the image generation means. In order to do so, the image generated by the image generation means is provided with a color conversion means for performing color conversion suitable for the implementation environment state, and the image converted by the coordinate conversion means and the color converted by the color conversion means. A presentation system characterized in that the shape of the light spot is recognized by comparing the converted image.
【請求項9】スクリーン上に画像を表示して、ポインテ
ィング装置により前記画像上を光点で指示するプレゼン
テーションシステムにおけるプレゼンテーション方法で
あって、 前記スクリーン上に表示すべき画像を生成し、 該生成された画像を前記スクリーン上に表示し、 前記スクリーンの画像投影面を撮像し、 該撮像された画像の中から、前記ポインティング装置に
より指示された光点を抽出し、抽出された光点の形状を
認識し、前記ポインティング装置により指示されている
位置を検出し、 該検出された位置に、前記位置を指示することを示すシ
ンボルを合成した画像を生成し、 該シンボルを合成された画像を、前記スクリーン上に表
示することを特徴とするプレゼンテーションシ方法。
9. A presentation method in a presentation system in which an image is displayed on a screen and a pointing device indicates the light spot on the image, the image being generated on the screen, and the generated image. Image is displayed on the screen, the image projection surface of the screen is imaged, the light spot designated by the pointing device is extracted from the imaged image, and the shape of the extracted light spot is determined. Recognizing, detecting the position indicated by the pointing device, generating an image in which a symbol indicating indicating the position is combined at the detected position, and generating an image in which the symbol is combined, A presentation method characterized by displaying on a screen.
【請求項10】スクリーン上に表示されるべき画像につ
いての情報である第1の画像情報と、前記画像に光点を
照射された画像についての情報である第2の画像情報と
を受け付け、前記光点を抽出し、抽出された光点の形状
を認識し、該光点により指示されている位置、および前
記光点の形状の向きを検出することを特徴とする画像認
識方法。
10. A first image information, which is information about an image to be displayed on a screen, and a second image information, which is information about an image in which the image is irradiated with a light spot, are received, and An image recognition method comprising extracting a light spot, recognizing a shape of the extracted light spot, and detecting a position indicated by the light spot and a direction of the shape of the light spot.
JP2001222687A 2001-07-24 2001-07-24 System and method for presentation Pending JP2003036142A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001222687A JP2003036142A (en) 2001-07-24 2001-07-24 System and method for presentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001222687A JP2003036142A (en) 2001-07-24 2001-07-24 System and method for presentation

Publications (1)

Publication Number Publication Date
JP2003036142A true JP2003036142A (en) 2003-02-07

Family

ID=19056129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001222687A Pending JP2003036142A (en) 2001-07-24 2001-07-24 System and method for presentation

Country Status (1)

Country Link
JP (1) JP2003036142A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234698A (en) * 2004-02-17 2005-09-02 Mitsubishi Precision Co Ltd Distortion parameter generation method, video generation method, distortion parameter generation system and video generation system
JP2008287625A (en) * 2007-05-21 2008-11-27 Sony Corp System, apparatus, and method for processing image, and program
US7986302B2 (en) 2006-07-26 2011-07-26 Fuji Xerox Co., Ltd. Function command system, function command device, function command analysis system, presentation system, and computer readable medium
WO2011129136A1 (en) * 2010-04-15 2011-10-20 シャープ株式会社 Display device and display direction switching system
JP2011258244A (en) * 2004-01-02 2011-12-22 Smart Technologies Ulc Interactive input system
JP2012113564A (en) * 2010-11-25 2012-06-14 Fujitsu Ltd Indication means shape acquisition device, indication means shape acquisition program, and projection system
JP2012237921A (en) * 2011-05-13 2012-12-06 Seiko Epson Corp Interactive system and control method of interactive system
JP2015096963A (en) * 2014-12-24 2015-05-21 セイコーエプソン株式会社 Interactive system, projector, and control method of projector
WO2016157759A1 (en) * 2015-03-27 2016-10-06 セイコーエプソン株式会社 Interactive projector, interactive projection system, and method for controlling interactive projector
WO2016157786A1 (en) * 2015-03-27 2016-10-06 セイコーエプソン株式会社 Interactive projector and interactive projection system
KR20180117695A (en) * 2016-03-10 2018-10-29 넷플릭스, 인크. Perspective correction for curved display screens

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258244A (en) * 2004-01-02 2011-12-22 Smart Technologies Ulc Interactive input system
JP2005234698A (en) * 2004-02-17 2005-09-02 Mitsubishi Precision Co Ltd Distortion parameter generation method, video generation method, distortion parameter generation system and video generation system
JP4554231B2 (en) * 2004-02-17 2010-09-29 三菱プレシジョン株式会社 Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus
US7986302B2 (en) 2006-07-26 2011-07-26 Fuji Xerox Co., Ltd. Function command system, function command device, function command analysis system, presentation system, and computer readable medium
JP2008287625A (en) * 2007-05-21 2008-11-27 Sony Corp System, apparatus, and method for processing image, and program
WO2011129136A1 (en) * 2010-04-15 2011-10-20 シャープ株式会社 Display device and display direction switching system
US8847907B2 (en) 2010-04-15 2014-09-30 Sharp Kabushiki Kaisha Display device and display direction switching system
JP2012113564A (en) * 2010-11-25 2012-06-14 Fujitsu Ltd Indication means shape acquisition device, indication means shape acquisition program, and projection system
JP2012237921A (en) * 2011-05-13 2012-12-06 Seiko Epson Corp Interactive system and control method of interactive system
JP2015096963A (en) * 2014-12-24 2015-05-21 セイコーエプソン株式会社 Interactive system, projector, and control method of projector
WO2016157759A1 (en) * 2015-03-27 2016-10-06 セイコーエプソン株式会社 Interactive projector, interactive projection system, and method for controlling interactive projector
WO2016157786A1 (en) * 2015-03-27 2016-10-06 セイコーエプソン株式会社 Interactive projector and interactive projection system
JP2016186668A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Interactive projector, interactive projection system, and method for controlling interactive projector
JP2016186672A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Interactive projector and interactive projection system
EP3276464A4 (en) * 2015-03-27 2019-02-13 Seiko Epson Corporation Interactive projector, interactive projection system, and method for controlling interactive projector
US10416787B2 (en) 2015-03-27 2019-09-17 Seiko Epson Corporation Interactive projector, interactive projection system, and interactive projector control method
KR20180117695A (en) * 2016-03-10 2018-10-29 넷플릭스, 인크. Perspective correction for curved display screens
CN109074773A (en) * 2016-03-10 2018-12-21 奈飞公司 For the perspective correction of flexible displays screen
KR102110701B1 (en) 2016-03-10 2020-05-13 넷플릭스, 인크. Perspective correction for curved display screens
CN109074773B (en) * 2016-03-10 2021-12-07 奈飞公司 Perspective correction for curved display screens

Similar Documents

Publication Publication Date Title
US10360696B2 (en) Image processing apparatus, image processing method, and program
US6678425B1 (en) Method and apparatus for decoding angular orientation of lattice codes
JP4032776B2 (en) Mixed reality display apparatus and method, storage medium, and computer program
US6935562B2 (en) Operations on images having glyph carpets
CN110163903A (en) The acquisition of 3-D image and image position method, device, equipment and storage medium
US6880755B2 (en) Method and apparatus for display of spatially registered information using embedded data
US20130176337A1 (en) Device and Method For Information Processing
US11064784B2 (en) Printing method and system of a nail printing apparatus, and a medium thereof
GB2448034A (en) System and method for tracking an input device using a display screen in captured frames of image data
JP2016006627A (en) Image processor and image processing method
US7377650B2 (en) Projection of synthetic information
JP2003036142A (en) System and method for presentation
US20210065420A1 (en) Automatically Generating an Animatable Object from Various Types of User Input
US20230334789A1 (en) Image Processing Method, Mobile Terminal, and Storage Medium
WO2019214641A1 (en) Optical tag based information apparatus interaction method and system
CN112912936A (en) Mixed reality system, program, mobile terminal device, and method
CN110111364A (en) Method for testing motion, device, electronic equipment and storage medium
JP2001166881A (en) Pointing device and its method
JP6099281B2 (en) Book reading system and book reading method
JP2010272078A (en) System, and control unit of electronic information board, and cursor control method
Medien Implementation of a low cost marker based infrared optical tracking system
JP2006323139A (en) Projector, camera server, and image projection method
JP2016038790A (en) Image processor and image feature detection method thereof, program and device
JP2008203991A (en) Image processor
JP2003099196A (en) Picture projection device for supporting conference or the like