JP2003084229A - Device and method for displaying pointed position - Google Patents

Device and method for displaying pointed position

Info

Publication number
JP2003084229A
JP2003084229A JP2001280540A JP2001280540A JP2003084229A JP 2003084229 A JP2003084229 A JP 2003084229A JP 2001280540 A JP2001280540 A JP 2001280540A JP 2001280540 A JP2001280540 A JP 2001280540A JP 2003084229 A JP2003084229 A JP 2003084229A
Authority
JP
Japan
Prior art keywords
user
pointing
light beam
image
pointed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001280540A
Other languages
Japanese (ja)
Inventor
Kenichi Harakawa
健一 原川
Mineko Kobayashi
峯子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2001280540A priority Critical patent/JP2003084229A/en
Publication of JP2003084229A publication Critical patent/JP2003084229A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Mechanical Light Control Or Optical Switches (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To clearly point out a position that a user points without operating an instrument emitting a light beam by the user. SOLUTION: A three-dimensional model representing the three-dimensional coordinates of respective parts in a pointing object space (space in front of the user 12) that the user 12 points through pointing operation is stored and video cameras 28A and 28B whose positions and directions are so adjusted that the hand of the user 12 in the pointing operation is put in an image pickup range pick up images; and the three-dimensional coordinate values of a pointed position in the pointing operation of the user 12 are computed and the projection direction of a laser beam is controlled according to the three-dimensional coordinate values of the pointed position so that the pointed position is irradiated with the laser beam which is emitted from a laser light source 32 and deflected on a deflecting device 34.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は指示位置表示装置及
び方法に係り、特に、利用者が指し示した位置に光ビー
ムを照射させる指示位置表示方法、及び該指示位置表示
方法を適用可能な指示位置表示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pointing position display device and method, and more particularly to a pointing position display method for irradiating a light beam to a position pointed by a user, and a pointing position to which the pointing position display method can be applied. Regarding display device.

【0002】[0002]

【従来の技術】従来より、指示者が指し示した位置を第
3者に認識させるための道具としてレーザポインタが知
られている。レーザポインタはレーザダイオード(L
D)を内蔵し、レーザポインタを把持した指示者によっ
てスイッチがオンされることでレーザビームを射出する
ものであり、指示者がレーザポインタの向きを調整する
ことで所望の位置にレーザビームの光スポットを形成す
ることができ、この光スポットによって指示者による指
示位置を第3者が認識することができる。
2. Description of the Related Art Conventionally, a laser pointer has been known as a tool for allowing a third party to recognize a position pointed by an instructor. The laser pointer is a laser diode (L
D) is built in, and the laser beam is emitted when the switch is turned on by the instructor who holds the laser pointer. The instructor adjusts the direction of the laser pointer to emit the laser beam to a desired position. A spot can be formed, and a third party can recognize the position pointed by the pointer by this light spot.

【0003】[0003]

【発明が解決しようとする課題】ところで、例えば博物
館等では、多数の展示物が陳列されていると共に、各展
示物に関する説明文が記入された看板等も設置されてい
るが、利用者が興味をもつ展示物は個々の利用者毎に異
なっていると共に、利用者が特定の展示物の細部に興味
を示す場合もある。しかし、看板等によって大量の情報
を提示しようとすると展示物の展示が阻害されるという
問題があり、利用者への効率の良い情報の提示方法が検
討されている。
By the way, for example, in museums and the like, many exhibits are displayed, and signboards and the like in which explanations for each exhibit are written are also installed. Exhibits that have different items are different for each user, and the user may be interested in the details of a particular exhibit. However, when a large amount of information is presented by a signboard or the like, there is a problem that the display of the exhibit is obstructed, and an efficient method of presenting information to the user is being studied.

【0004】そこで、前述のレーザポインタを利用し、
例えばレーザポインタを利用者が自由に操作可能に館内
に備え付けると共に、レーザポインタから射出されたレ
ーザビームを検出するセンサを展示物に取り付け、セン
サがレーザビームを検出すると、センサを取り付けた展
示物又は展示物の特定部分に関連する情報を画像表示又
は音声出力によって入館者に提示することが考えられ
る。しかしながら、上記のようにレーザポインタを公共
の場所に備え付けたとすると、レーザポインタの破損や
盗難の恐れがあると共に、利用者が操作を誤ることで事
故等が発生する恐れもあり、レーザポインタを自由に操
作可能に備え付けることは好ましくない。
Therefore, using the above-mentioned laser pointer,
For example, a laser pointer is installed in the hall so that the user can freely operate it, and a sensor that detects the laser beam emitted from the laser pointer is attached to the exhibit, and when the sensor detects the laser beam, the exhibit with the sensor attached or It is conceivable to present the information related to the specific part of the exhibit to the visitors by image display or audio output. However, if the laser pointer is installed in a public place as described above, the laser pointer may be damaged or stolen, and an accident or the like may occur due to an operation error by the user. It is not preferable to operably equip them.

【0005】一方、利用者が所望の箇所を容易に指し示
せるようにするためには、利用者が現在の指示位置を目
視で確認して指示位置の調整を行えるようにする必要が
あり、現在の指示位置の確認には利用者による指示位置
に光ビームを照射して光スポットを形成させることが望
ましいが、利用者による指示位置に光スポットを形成さ
せるためには、利用者がレーザポインタを操作する以外
にないのが実情であった。
On the other hand, in order for the user to easily point to a desired location, it is necessary for the user to visually confirm the current designated position and adjust the designated position. It is desirable to irradiate a light beam to the position pointed by the user to form a light spot for confirming the pointed position of, but in order to form the light spot at the position pointed by the user, the user must move the laser pointer. The reality was that there was nothing but operation.

【0006】本発明は上記事実を考慮して成されたもの
で、利用者が光ビームを射出する器具を操作したりする
ことなく、利用者が指し示した位置を明示できる指示位
置表示方法及び指示位置表示装置を得ることが目的であ
る。
The present invention has been made in consideration of the above facts, and a pointing position display method and an instruction for indicating a position pointed by a user without the user operating an instrument for emitting a light beam. The aim is to obtain a position display device.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る指示位置表示装置は、利用
者が所望の位置を指し示す指示動作を行うことで指し示
される被指示物体又は被指示空間の各部の3次元座標を
表す3次元モデルを記憶する記憶手段と、互いに異なる
複数の方向から利用者を撮像する撮像手段と、利用者が
指示動作を行っている状況を前記撮像手段が撮像するこ
とで得られた複数の画像と前記記憶手段に記憶されてい
る3次元モデルに基づいて、前記利用者の指示動作によ
る指示位置を判断する判断手段と、前記判断手段によっ
て判断された指示位置に光ビームが照射されるように光
ビームを射出する光ビーム射出手段と、を含んで構成さ
れている。
In order to achieve the above object, the pointing position display device according to the invention of claim 1 is a pointed object pointed by a pointing operation in which a user points a desired position. Alternatively, a storage unit that stores a three-dimensional model that represents the three-dimensional coordinates of each part of the designated space, an image capturing unit that captures an image of the user from a plurality of mutually different directions, and an image capturing the situation in which the user performs an instruction operation Based on a plurality of images obtained by the image capturing means and a three-dimensional model stored in the storage means, a determination means for determining a pointed position by an instruction operation by the user, and a determination means And a light beam emitting means for emitting the light beam so that the light beam is irradiated to the designated position.

【0008】請求項1記載の発明では、利用者が所望の
位置を指し示す指示動作を行うことで指し示される被指
示物体又は被指示空間の各部の3次元座標を表す3次元
モデルが記憶手段に記憶されている。また、請求項1記
載の発明では、撮像手段によって互いに異なる複数の方
向から利用者が撮像され、判断手段は、利用者が指示動
作を行っている状況を撮像手段が撮像することで得られ
た複数の画像と記憶手段に記憶されている3次元モデル
に基づいて、利用者の指示動作による指示位置を判断す
る。
According to the first aspect of the present invention, the storage means stores the three-dimensional model representing the three-dimensional coordinates of the pointed object pointed to by the user's pointing operation pointing to a desired position or each part of the pointed space. Remembered Further, in the invention according to claim 1, the user is imaged by the imaging means from a plurality of different directions, and the determination means is obtained by the imaging means imaging the situation in which the user is performing the instruction operation. Based on the plurality of images and the three-dimensional model stored in the storage unit, the position pointed by the user's pointing motion is determined.

【0009】なお、判断手段による指示位置の判断は、
具体的には、例えば請求項2に記載したように、撮像に
よって得られた複数の画像に基づいて利用者の指示動作
による指示方向を判断し、記憶手段に記憶されている3
次元モデルに基づいて、利用者から前記判断した指示方
向に沿って延びる仮想線上に存在する最寄りの物体を認
識し、認識した物体と前記仮想線との交点を指示位置と
判断することで実現できる。
The judgment of the designated position by the judging means is as follows.
Specifically, for example, as described in claim 2, the pointing direction according to the pointing operation of the user is determined based on the plurality of images obtained by the imaging, and stored in the storage unit.
It can be realized by recognizing the nearest object existing on the virtual line extending along the determined pointing direction from the user based on the dimensional model and determining the intersection of the recognized object and the virtual line as the pointing position. .

【0010】また、利用者の指示動作による指示方向の
判断は、具体的には、例えば利用者の指示動作による指
示方向の変化に応じて位置が変化する特徴点(この特徴
点としては、例えば利用者の手や指等の先端、或いは利
用者が把持している指示器の先端等に相当する点を用い
ることができる)について、撮像によって得られた複数
の画像上での位置を各々求め、複数の画像上での特徴点
の位置から特徴点の3次元座標を求めると共に、利用者
の指示動作による指示方向の変化に拘らず位置が変化し
ない基準点(撮像手段による撮像範囲内に実在する点
(例えば利用者の胸部や腕の付け根、肩等に相当する
点)であってもよいし、撮像範囲から外れた仮想的な点
であってもよい)の3次元座標を求め、基準点及び特徴
点を通る仮想線の延びる方向を指示方向と判断すること
で実現できる。
Further, the judgment of the pointing direction by the user's pointing operation is, for example, a characteristic point whose position changes in accordance with a change in the pointing direction by the user's pointing operation (for example, this characteristic point is, for example, For the tip of the user's hand or finger, or the point corresponding to the tip of the indicator held by the user, etc.), the position on each of a plurality of images obtained by imaging can be obtained. , The three-dimensional coordinates of the feature point are obtained from the positions of the feature points on the plurality of images, and the position does not change regardless of the change in the pointing direction due to the user's pointing action (actually within the image pickup range of the image pickup means. Point (for example, a point corresponding to the chest of the user, the base of the arm, the shoulder, or the like, or a virtual point outside the imaging range) is obtained, and the three-dimensional coordinates are obtained as a reference. Extension of an imaginary line passing through points and feature points It can be realized by determining the direction and pointing direction.

【0011】そして、光ビーム射出手段は、判断手段に
よって判断された指示位置に光ビームが照射されるよう
に光ビームを射出する。このように、請求項1記載の発
明によれば、利用者の指示動作による指示位置を判断
し、判断した指示位置に光ビームを照射することで光ス
ポットを形成させるので、利用者が光ビームを射出する
器具を操作したりすることなく、利用者が指し示した位
置を明示することができる。
Then, the light beam emitting means emits the light beam so that the light beam is irradiated to the designated position judged by the judging means. As described above, according to the first aspect of the present invention, the light spot is formed by determining the pointing position by the pointing operation of the user and irradiating the determined pointing position with the light beam. It is possible to clearly indicate the position pointed to by the user without operating a device for ejecting.

【0012】また、請求項1記載の発明では、利用者を
撮像することで得られる画像を用いて利用者の指示動作
による指示位置を判断するので、利用者による指示位置
を検出するために別途センサ等を設ける必要もなくな
る。
According to the first aspect of the invention, since the pointing position according to the pointing operation of the user is determined using the image obtained by picking up the image of the user, it is necessary to separately detect the pointing position by the user. It is not necessary to provide a sensor or the like.

【0013】なお、記憶手段に記憶されている3次元モ
デルは、被指示物体又は被指示空間の全表面上の各部の
3次元座標を表す完全な3次元モデルであってもよい
が、このような完全な3次元モデルの生成には多大な手
間がかかるという問題がある。このため、記憶手段に記
憶されている3次元モデルは、請求項3に記載したよう
に、利用者によって指示動作が行われる所定位置付近
で、かつ指示動作を行っている利用者の頭部に相当する
と推定される高さ付近の互いに異なる位置に複数の撮像
装置を設置した状態で、被指示物体又は被指示空間へ向
けて光ビーム射出手段から光ビームを射出させ、複数の
撮像装置によって被指示物体又は被指示空間を各々撮像
することで得られた複数の画像に基づいて光ビームの光
スポットが形成されている位置の3次元座標を認識する
ことを、光ビーム射出手段からの光ビームの射出方向を
変更させながら繰り返すことで生成される3次元モデル
であることが好ましい。
The three-dimensional model stored in the storage means may be a complete three-dimensional model representing the three-dimensional coordinates of each part on the entire surface of the designated object or the designated space. There is a problem that it takes a lot of time and effort to generate such a perfect three-dimensional model. Therefore, the three-dimensional model stored in the storage means is, as described in claim 3, near the predetermined position at which the user performs the pointing action and on the head of the user who is performing the pointing action. With a plurality of image pickup devices installed at mutually different positions near the height estimated to be equivalent, a light beam is emitted from the light beam emitting means toward the pointed object or the pointed space, and the plurality of image pickup devices perform the light beam emission. Recognizing the three-dimensional coordinates of the position where the light spot of the light beam is formed based on a plurality of images obtained by imaging the pointing object or the pointed space, It is preferable that the three-dimensional model is generated by repeating while changing the injection direction of.

【0014】この場合、生成される3次元モデルは、被
指示物体又は被指示空間の全表面のうち、所定位置で指
示動作を行う利用者から直接目視可能な表面上の各部に
ついてのみ3次元座標を表す不完全な3次元モデルとな
るが、所定位置における利用者の指示動作によって指示
可能な位置も利用者から直接目視可能な表面上に限られ
るため、実用上問題が生ずることはなく、簡易な処理に
よって3次元モデルを得ることができる。
In this case, the generated three-dimensional model has three-dimensional coordinates only for each part of the entire surface of the designated object or the designated space, which is directly visible to the user who performs the pointing operation at a predetermined position. However, since the position that can be pointed by the user's pointing operation at the predetermined position is limited to the surface that is directly visible to the user, there is no practical problem and it is simple. A three-dimensional model can be obtained by various processes.

【0015】また、利用者が指示可能な位置は利用者の
体格等に応じて相違する。これを考慮すると、請求項2
記載の発明において、例えば請求項4に記載したよう
に、記憶手段には、複数の撮像装置を互いに異なる高さ
に設置した状態で各々生成された複数の3次元モデルが
記憶されており、判断手段は、撮像によって得られた複
数の画像に基づいて利用者の頭部の高さを判断し、記憶
手段に記憶されている複数の3次元モデルのうち、前記
判断した高さに対応する3次元モデルを用いて指示位置
の判断を行うことが好ましい。これにより、利用者の指
示動作による指示位置を、利用者の体格等に拘らず正確
に判断することができる。
Further, the position that the user can point differs depending on the physique of the user. Considering this, claim 2
In the described invention, for example, as described in claim 4, the storage means stores a plurality of three-dimensional models respectively generated in a state in which the plurality of imaging devices are installed at different heights from each other. The means determines the height of the user's head on the basis of the plurality of images obtained by imaging, and corresponds to the determined height among the plurality of three-dimensional models stored in the storage means. It is preferable to use a dimensional model to determine the designated position. This makes it possible to accurately determine the position pointed to by the user's pointing action regardless of the user's physique or the like.

【0016】また、請求項1記載の発明に係る光ビーム
射出手段は、例えば請求項5に記載したように、光ビー
ムを射出する光源と、光源から入射された光ビームを任
意の方向に射出可能な射出方向変更手段と、射出方向変
更手段から射出される光ビームが判断手段によって判断
された指示位置に照射されるように、射出方向変更手段
を制御する射出方向制御手段と、を含んで構成すること
ができる。光ビームを射出する光源としては、例えばレ
ーザ光源やその他の公知の光源を用いることができる。
The light beam emitting means according to the first aspect of the invention is, for example, as described in the fifth aspect, a light source for emitting a light beam and a light beam incident from the light source in an arbitrary direction. A possible emitting direction changing means, and an emitting direction control means for controlling the emitting direction changing means so that the light beam emitted from the emitting direction changing means is irradiated to the designated position judged by the judging means. Can be configured. As the light source for emitting the light beam, for example, a laser light source or another known light source can be used.

【0017】また、請求項1記載の発明では、利用者の
指示動作による指示方向に相当する仮想線上に光ビーム
射出手段を配置することは困難であるので、判断手段に
よって判断された指示位置に光ビームを照射するに際し
ては、指示位置に基づき、光ビーム射出手段が光ビーム
の射出方向を判断する必要がある。これは、例えば請求
項6に記載したように、光ビーム射出手段による光ビー
ムの射出方向と、射出された光ビームによって光スポッ
トが形成される位置の3次元座標が対応付けされた射出
方向制御情報を記憶手段に記憶しておき、光ビーム射出
手段は、判断手段によって判断された指示位置に光ビー
ムを照射させるための光ビームの射出方向を、記憶手段
に記憶されている射出方向制御情報に基づいて判断する
ことで実現できる。これにより、判断手段によって判断
された指示位置に光ビームを照射することを容易に実現
できる。
Further, according to the first aspect of the invention, it is difficult to dispose the light beam emitting means on the virtual line corresponding to the pointing direction according to the pointing operation of the user. Therefore, at the pointing position judged by the judging means. When irradiating the light beam, it is necessary for the light beam emitting means to determine the emission direction of the light beam based on the designated position. This is, for example, as described in claim 6, the emission direction control in which the emission direction of the light beam by the light beam emission means and the three-dimensional coordinates of the position where a light spot is formed by the emitted light beam are associated with each other. Information is stored in the storage means, and the light beam emission means stores the emission direction of the light beam for irradiating the light beam at the designated position determined by the determination means with the emission direction control information stored in the storage means. It can be realized by judging based on. This makes it possible to easily realize the irradiation of the light beam to the designated position determined by the determination means.

【0018】また、上記の射出方向制御情報は、例えば
請求項7に記載したように、被指示物体又は被指示空間
の3次元モデルが生成される際に同時に生成することが
できる。例えば請求項3に記載した3次元モデルの生成
では、光ビームの光スポットが形成されている位置の3
次元座標の認識が行われるので、認識された光スポット
形成位置の3次元座標を、光ビーム射出手段からの光ビ
ーム射出方向と対応付けて記憶することにより、3次元
モデルの生成と同時に前記射出方向制御情報も生成する
ことができる。
Further, the emission direction control information can be generated at the same time when the three-dimensional model of the designated object or the designated space is generated, as described in claim 7, for example. For example, in the generation of the three-dimensional model described in claim 3, it is possible to generate a 3D model at a position where the light spot of the light beam is formed.
Since the three-dimensional coordinates are recognized, the three-dimensional coordinates of the recognized light spot formation position are stored in association with the light beam emitting direction from the light beam emitting means, thereby generating the three-dimensional model and at the same time. Direction control information can also be generated.

【0019】また、請求項1記載の発明においても、利
用者は指示動作によって所望の位置を指し示すことが可
能であるため、利用者の指示動作により安全上好ましく
ない範囲内の位置が指し示される可能性もある。また、
被指示物体が例えば生物の骨格標本等のように隙間を有
する物体である場合、利用者による指示位置の僅かなず
れにより利用者が隙間部分を指し示していたり、或いは
利用者が隙間部分を指し示していると判断手段が誤判断
する可能性もある。
Also, in the invention described in claim 1, since the user can point a desired position by the pointing operation, the user's pointing operation points a position within the unfavorable safety range. There is a possibility. Also,
When the designated object is an object having a gap, such as a skeleton specimen of a living thing, the user is pointing to the gap part due to a slight deviation of the position pointed by the user, or the user is pointing to the gap part. If there is, there is a possibility that the judging means may make a wrong judgment.

【0020】上記を考慮すると、請求項1記載の発明に
おいて、例えば請求項8に記載したように、光ビーム射
出手段は、光ビームの照射位置が所定範囲から外れる場
合には光ビームの射出を停止することが好ましい。な
お、上記の所定範囲は安全性を勘案して定めればよい。
これにより、利用者による指示位置のずれや判断手段の
誤判断等に拘らず、光ビーム射出手段から射出される光
ビームが所定範囲外を照射することを防止することがで
き、安全性を確保することができる。
Considering the above, in the invention described in claim 1, for example, as described in claim 8, the light beam emitting means emits the light beam when the irradiation position of the light beam is out of the predetermined range. It is preferable to stop. The above-mentioned predetermined range may be set in consideration of safety.
As a result, it is possible to prevent the light beam emitted from the light beam emitting means from irradiating the outside of the predetermined range regardless of the deviation of the pointing position by the user and the erroneous judgment of the judging means, thereby ensuring safety. can do.

【0021】また、請求項1記載の発明では、利用者を
撮像することで得られる画像を用いて利用者の指示動作
による指示位置を判断するので、任意の画像を表示可能
な表示手段が設けられている場合に、例えば請求項9に
記載したように、判断手段によって判断された指示位置
が表示手段の表示面内である場合には、光ビーム射出手
段からの光ビームの射出を停止させると共に、表示面内
の指示位置に相当する箇所に指示位置を明示する画像
(例えばカーソル等)が表示されるように制御する第1
制御手段を設けることも可能である。これにより、利用
者の指示動作による指示位置が表示手段の表示面内か表
示面外かに拘らず、継ぎ目のない(シームレスな)指示
位置の明示を実現することができる。
Further, in the invention according to the first aspect, since the pointing position by the pointing operation of the user is judged using the image obtained by picking up the image of the user, the display means capable of displaying an arbitrary image is provided. In this case, for example, as described in claim 9, when the designated position judged by the judging means is within the display surface of the display means, the emission of the light beam from the light beam emitting means is stopped. At the same time, a control is performed so that an image (for example, a cursor) that clearly indicates the designated position is displayed at a position corresponding to the designated position on the display surface.
It is also possible to provide control means. This makes it possible to realize a seamless (seamless) indication position regardless of whether the indication position indicated by the user's indication operation is inside or outside the display surface of the display means.

【0022】また、請求項1記載の発明において、例え
ば請求項10に記載したように、任意の画像を表示可能
な表示手段及び任意の音声を出力可能な音声出力手段の
少なくとも一方と、利用者が指示動作によって指し示す
ことが可能な所定の物体に関する情報を表す画像及び音
声の少なくとも一方のデータを記憶するデータ記憶手段
と、前記判断手段によって判断された指示位置が前記所
定の物体に対応する位置である場合に、前記データ記憶
手段に記憶されているデータに基づいて、前記所定の物
体に関する情報を表す画像を前記表示手段に表示させる
こと、及び、前記所定の物体に関する情報を表す音声を
前記音声出力手段によって出力させることの少なくとも
一方を行う第2制御手段と、を更に備えることが好まし
い。
Further, in the invention described in claim 1, for example, as described in claim 10, at least one of a display means capable of displaying an arbitrary image and a sound output means capable of outputting an arbitrary sound, and a user. A data storage means for storing at least one of image data and audio data representing information on a predetermined object which can be pointed by a pointing operation; and a position where the pointing position judged by the judging means corresponds to the predetermined object. In the case of the above, based on the data stored in the data storage means, causing the display means to display an image representing the information regarding the predetermined object, and producing a voice representing the information regarding the predetermined object. It is preferable to further include a second control unit that performs at least one of outputting by the voice output unit.

【0023】請求項10記載の発明では、利用者の指示
動作による指示位置が所定の物体に対応する位置である
場合に、データ記憶手段に記憶されているデータに基づ
いて、所定の物体に関する情報(例えば所定の物体が博
物館の陳列物であれば該陳列物を説明する情報)を表す
画像を表示手段に表示させること、及び、所定の物体に
関する情報を表す音声を音声出力手段によって出力させ
ることの少なくとも一方が行われるので、利用者が所望
の情報を容易に取得することが可能となる。
According to the tenth aspect of the present invention, when the position pointed by the user's pointing operation is the position corresponding to the predetermined object, information on the predetermined object is obtained based on the data stored in the data storage means. Displaying an image representing (for example, information describing the display if the predetermined object is a museum display) on the display means, and outputting a voice representing information regarding the predetermined object by the voice output means. Since at least one of the above is performed, the user can easily obtain desired information.

【0024】また、請求項1記載の発明において、請求
項11に記載したように、判断手段によって判断された
指示位置に、外部からの指示に応じて特定の動作(例え
ば物体全体又は物体の一部が動く、発光する、音声を発
する、煙幕を出す等)を行うことが可能な物体が存在し
ており、かつ、撮像手段が撮像することで得られた複数
の画像に基づいて、利用者が所定の動作を行ったことを
検知した場合に、物体が前記特定の動作を行うように制
御するようにしてもよい。
Further, in the invention described in claim 1, as described in claim 11, a specific operation (for example, the whole object or one of the objects) is performed at the pointing position judged by the judging means in accordance with an instruction from the outside. There is an object capable of moving parts, emitting light, emitting sound, emitting a smoke screen, etc.), and the user based on a plurality of images obtained by the image capturing means. When it is detected that the object has performed a predetermined motion, the object may be controlled to perform the specific motion.

【0025】請求項12記載の発明に係る指示位置表示
方法は、利用者が所望の位置を指し示す指示動作を行う
ことで指し示される被指示物体又は被指示空間の各部の
3次元座標を表す3次元モデルを記憶手段に記憶してお
き、互いに異なる複数の方向から利用者を撮像する撮像
手段によって前記利用者が指示動作を行っている状況を
撮像し、前記撮像によって得られた複数の画像と前記記
憶手段に記憶されている3次元モデルに基づいて、前記
利用者の指示動作による指示位置を判断し、前記判断し
た指示位置に光ビームが照射されるように光ビーム射出
手段から光ビームを射出させるので、請求項1記載の発
明と同様に、利用者が光ビームを射出する器具を操作し
たりすることなく、利用者が指し示した位置を明示する
ことができる。
In the pointed position display method according to the twelfth aspect of the present invention, a three-dimensional coordinate indicating the three-dimensional coordinates of each pointed object or pointed space pointed by the user performing a pointing operation to point at a desired position. The dimensional model is stored in the storage unit, and the situation in which the user is performing the instruction operation is captured by the image capturing unit that captures the user from a plurality of different directions, and a plurality of images obtained by the image capturing are stored. Based on the three-dimensional model stored in the storage means, the pointing position by the pointing operation of the user is determined, and the light beam is emitted from the light beam emitting means so that the light beam is irradiated to the determined pointing position. Since the light is emitted, the position pointed by the user can be specified without operating the device for emitting the light beam by the user, as in the first aspect of the invention.

【0026】[0026]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。図1には本実施形態に
係るハンドポインティング装置10が示されている。な
お、本実施形態に係るハンドポインティング装置10
は、例えば博物館等のように、利用者が指し示すことが
可能な展示物が展示された公共の場所に設置されてい
る。ハンドポインティング装置10は本発明に係る指示
位置表示装置としての機能を備えている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a hand pointing device 10 according to this embodiment. Note that the hand pointing device 10 according to the present embodiment
Is installed in a public place where an exhibit that can be pointed to by a user is exhibited, such as a museum. The hand pointing device 10 has a function as a pointing position display device according to the present invention.

【0027】ハンドポインティング装置10は利用者1
2が載るためのステージ14を備えており、ステージ1
4の床面には、利用者12がステージ14に載ったこと
を検出するためのフットスイッチ16が埋設されている
(これに代えて、ロードセル等の検知手段を床面の全面
に敷設するようにしてもよい)。 フットスイッチ16
は制御部42に接続されている(図2参照)。ステージ
14上に載った利用者12は、ステージ14前方の所望
の展示物を指し示す指示動作を行うと共に、指示動作を
行っている状態から手を前方又は後方に移動させるクリ
ック動作を行うことにより、指示動作によって指示した
展示物に関連する情報の提示(例えば画像の表示や音声
の出力:詳細は後述)をハンドポインティング装置10
に実行させる。
The hand pointing device 10 is a user 1
2 has a stage 14 on which the stage 1 is mounted.
A foot switch 16 for detecting that the user 12 is placed on the stage 14 is embedded in the floor surface of No. 4 (instead of this, a detecting means such as a load cell is laid on the entire surface of the floor. May be). Foot switch 16
Is connected to the control unit 42 (see FIG. 2). The user 12 on the stage 14 performs an instruction operation for pointing a desired exhibit in front of the stage 14 and a click operation for moving the hand forward or backward from the state of performing the instruction operation. The hand pointing device 10 presents information (for example, image display and audio output: details will be described later) related to the exhibit instructed by the instruction operation.
To run.

【0028】また、ステージ14の前方にはコンソール
18が設けられており、このコンソール18には、各種
の情報を表示するためのディスプレイ20及び音声を出
力するためのスピーカ22が埋設されている。なお、デ
ィスプレイ20としては液晶ディスプレイ(LCD)や
プラズマディスプレイ、CRT、光ファイバディスプレ
イ等の周知の表示手段を適用できる。図2に示すよう
に、ディスプレイ20は制御部42に接続されており、
スピーカ22は増幅器24、D/A変換器26を介して
制御部42に接続されている。ディスプレイ20への画
像等の表示やスピーカ22からの音声の出力は制御部4
2によって制御される。
A console 18 is provided in front of the stage 14, and a display 20 for displaying various information and a speaker 22 for outputting voice are embedded in the console 18. As the display 20, a known display means such as a liquid crystal display (LCD), a plasma display, a CRT, an optical fiber display or the like can be applied. As shown in FIG. 2, the display 20 is connected to the control unit 42,
The speaker 22 is connected to the control unit 42 via the amplifier 24 and the D / A converter 26. Display of images and the like on the display 20 and output of sound from the speaker 22 are performed by the control unit
Controlled by two.

【0029】また、ステージ14とコンソール18の間
の床面付近には、2台のビデオカメラ28A,28Bが
各々設置されている。ビデオカメラ28A,28Bは本
発明の撮像手段に対応している。ビデオカメラ28A,
28Bは、ステージ14上に載っている利用者12によ
って指示動作等が行われる空間(以下、情報入力空間と
いう)を下方側より各々撮像すると共に、撮像範囲が互
いに相違するように配置位置及び撮像方向が定められて
いる(図1には、ビデオカメラ28Aの一点鎖線で、ビ
デオカメラ28Bの撮像範囲が破線で示されている)。
Two video cameras 28A and 28B are installed near the floor between the stage 14 and the console 18, respectively. The video cameras 28A and 28B correspond to the image pickup means of the present invention. Video camera 28A,
28B images the space (hereinafter referred to as the information input space) on the stage 14 where the user 12 performs the instruction operation and the like from the lower side, and arranges the positions and the images so that the imaging ranges are different from each other. The direction is defined (in FIG. 1, the dashed-dotted line of the video camera 28A and the imaging range of the video camera 28B are shown by broken lines).

【0030】従って、本実施形態に係るハンドポインテ
ィング装置10において、利用者12による動作(指示
動作やポインティング動作)を認識可能な領域(認識領
域)は、ビデオカメラ28Aによる撮像範囲とビデオカ
メラ28Bによる撮像範囲とが重複している領域とな
る。図1からも明らかなように、本実施形態では、情報
入力空間に到来した利用者12自体は認識領域から外
れ、利用者12が指示動作やクリック動作を行った際
に、利用者12の手のみが認識領域内に入るように、ビ
デオカメラ28A,28Bの撮像範囲が定められてい
る。ビデオカメラ28A,28Bは制御部42に接続さ
れており、ビデオカメラ28A,28Bの撮像によって
得られた動画像データは制御部42へ出力される。
Therefore, in the hand pointing device 10 according to the present embodiment, the area (recognition area) in which the operation (instruction operation or pointing operation) by the user 12 can be recognized depends on the imaging range of the video camera 28A and the video camera 28B. The area overlaps the imaging range. As is clear from FIG. 1, in the present embodiment, the user 12 who has arrived in the information input space itself is out of the recognition area, and when the user 12 performs an instruction operation or a click operation, the user 12 hands. The image pickup ranges of the video cameras 28A and 28B are set so that only the video camera 28A and 28B fall within the recognition area. The video cameras 28A and 28B are connected to the control unit 42, and the moving image data obtained by the imaging of the video cameras 28A and 28B is output to the control unit 42.

【0031】また、ビデオカメラ28A,28Bの配置
位置近傍には照明装置30が設置されている。照明装置
30は認識領域を下方から照明するように照明範囲が調
整されており(照明装置30による照明範囲を図1に想
像線で示す)、利用者12による指示動作やクリック動
作に際し、認識領域内に位置している利用者12の手等
に照明光が照射される。照明装置30は制御部42に接
続されており、照明装置30の点消灯は制御部42によ
って制御される。
An illumination device 30 is installed near the position where the video cameras 28A and 28B are arranged. The lighting device 30 has an illumination range adjusted so as to illuminate the recognition region from below (the illumination range of the lighting device 30 is shown by an imaginary line in FIG. 1). Illumination light is emitted to the hands of the user 12 located inside. The lighting device 30 is connected to the control unit 42, and turning on / off of the lighting device 30 is controlled by the control unit 42.

【0032】なお、ビデオカメラ28A,28Bとし
て、近赤外光に感度を有するCCD等から成るエリアセ
ンサを内蔵し、入射光をエリアセンサの受光面に結像さ
せる結像レンズの光入射側に、近赤外域の波長の光のみ
を透過するフィルタが設けられた構成のビデオカメラを
用いる場合には、照明装置30を省略することも可能で
ある。
As the video cameras 28A and 28B, an area sensor composed of a CCD or the like having sensitivity to near-infrared light is built-in, and it is provided on the light incident side of an imaging lens that forms an image of incident light on the light receiving surface of the area sensor. If a video camera having a configuration in which a filter that transmits only light having a wavelength in the near infrared region is provided is used, the illumination device 30 can be omitted.

【0033】また、コンソール18の内部にはレーザ光
源32が設けられている。レーザ光源32はレーザビー
ムを略直上へ射出するように向きが調整されており、レ
ーザ光源32のレーザビーム射出側のコンソール18内
には、入射されたレーザビームを偏向させる偏向装置3
4が配置されている。レーザ光源32は制御部42に接
続されており(図2参照)、制御部42によって点消灯
が制御される。なお、レーザ光源32としては、気体レ
ーザ、固体レーザ、液体レーザ、半導体レーザの何れも
適用可能である。
A laser light source 32 is provided inside the console 18. The direction of the laser light source 32 is adjusted so as to emit the laser beam substantially directly above, and the deflection device 3 for deflecting the incident laser beam is provided in the console 18 on the laser beam emitting side of the laser light source 32.
4 are arranged. The laser light source 32 is connected to the control unit 42 (see FIG. 2), and the control unit 42 controls turning on and off. As the laser light source 32, any of a gas laser, a solid-state laser, a liquid laser, and a semiconductor laser can be applied.

【0034】図3に示すように、偏向装置34は、入射
されたレーザビームを反射するミラー36と、水平な軸
回りに回転可能とされた回転ステージ38と、回転ステ
ージ38に取り付けられミラー36を回動可能に軸支す
るブラケット40を備えており、回転ステージ38の回
転角φ及びミラー36の角度θを調整することで、入射
された光ビームを任意の方向へ偏向・射出させることが
可能とされている。偏向装置34は、回転ステージ38
を回転させるアクチュエータ及びミラー36を回動させ
るアクチュエータ(何れも図示省略)を含んで構成され
ていると共に、制御部42に接続されており(図2参
照)、制御部42によって回転ステージ38の回転角φ
及びミラー36の角度θが制御される。
As shown in FIG. 3, the deflecting device 34 includes a mirror 36 for reflecting the incident laser beam, a rotary stage 38 rotatable about a horizontal axis, and a mirror 36 attached to the rotary stage 38. A bracket 40 that rotatably supports is provided, and the incident light beam can be deflected and emitted in an arbitrary direction by adjusting the rotation angle φ of the rotary stage 38 and the angle θ of the mirror 36. It is possible. The deflection device 34 includes a rotary stage 38.
Is configured to include an actuator for rotating the mirror and an actuator for rotating the mirror 36 (both not shown), and is connected to the controller 42 (see FIG. 2). The controller 42 rotates the rotary stage 38 by the controller 42. Angle φ
Also, the angle θ of the mirror 36 is controlled.

【0035】このように、レーザ光源32は請求項5に
記載の光源に、偏向装置34は請求項5に記載の射出方
向変更手段に、制御部42は請求項5に記載の射出方向
制御手段に各々対応している。
Thus, the laser light source 32 is the light source according to claim 5, the deflecting device 34 is the emission direction changing means according to claim 5, and the control unit 42 is the emission direction control means according to claim 5. It corresponds to each.

【0036】制御部42は、図示は省略するがCPU、
ROM、RAM、入出力インタフェースを備え、これら
がバスを介して互いに接続されて構成されており、コン
ソール18の内部に収容されている。制御部42に接続
されている各種機器は、詳しくは制御部42の入出力イ
ンタフェースに接続されている。上記各種機器の動作を
制御し後述するセットアップ処理や指示判断処理等を実
行するためのプログラムはROMに記憶されている。ま
た、制御部42には、記憶内容を書換え可能な不揮発性
の記憶媒体(例えば磁気ディスク)を内蔵した記憶部4
4が各々接続されている。
Although not shown, the control unit 42 is a CPU,
It is provided with a ROM, a RAM, and an input / output interface, which are connected to each other via a bus and are housed inside the console 18. The various devices connected to the control unit 42 are specifically connected to the input / output interface of the control unit 42. A program for controlling the operations of the above various devices and executing a setup process, an instruction determination process, and the like, which will be described later, is stored in the ROM. Further, the control unit 42 includes a storage unit 4 having a non-volatile storage medium (for example, a magnetic disk) capable of rewriting stored contents.
4 are connected to each other.

【0037】また、制御部42にはセットアップ装置4
6を接続可能とされている。このセットアップ装置46
は、図4に示すように、ステージ14上の一定の位置に
取り付け可能な昇降ステージ48と、昇降ステージ48
に対して昇降移動可能に取り付けられ図示しないアクチ
ュエータによって昇降移動される複数台のビデオカメラ
50A,50Bを含んで構成されている(ビデオカメラ
50A,50Bは図4の紙面に垂直なY方向にずれた位
置に配置されている)。セットアップ装置46は、後述
するセットアップ処理を行う際にステージ14上に取り
付けられると共に制御部42に接続され、制御部42に
よってビデオカメラ50の昇降移動が制御されると共
に、ビデオカメラ50A,50Bの撮像によって得られ
た動画像データを制御部42へ出力する。
In addition, the control unit 42 includes a setup device 4
6 can be connected. This setup device 46
As shown in FIG. 4, an elevating stage 48 that can be attached at a fixed position on the stage 14, and an elevating stage 48
It is configured to include a plurality of video cameras 50A and 50B that are mounted to be movable up and down with respect to each other and that are vertically moved by an actuator (not shown) (the video cameras 50A and 50B are displaced in the Y direction perpendicular to the paper surface of FIG. 4). Has been placed in the position). The setup device 46 is mounted on the stage 14 and is connected to the control unit 42 when performing a setup process to be described later. The control unit 42 controls the vertical movement of the video camera 50 and also captures images of the video cameras 50A and 50B. The moving image data obtained by the above is output to the control unit 42.

【0038】なお、ビデオカメラ50A,50Bは、セ
ットアップ装置46がステージ14上に取り付けられた
状態で、ステージ14上に載った利用者12の前方の空
間(利用者12が指示可能な展示物が展示されている指
示対象空間)を撮像するように撮像方向が調整されてい
る。また、ビデオカメラ50A,50Bは、指示対象空
間の全範囲又はそれに近い範囲を撮像可能であることが
望ましく、撮像範囲が広角のビデオカメラを用いること
が好ましい。
Note that the video cameras 50A and 50B have a space in front of the user 12 on the stage 14 (an exhibition object which the user 12 can indicate if the setup device 46 is mounted on the stage 14). The image capturing direction is adjusted so as to capture an image of the displayed instruction target space). It is desirable that the video cameras 50A and 50B be capable of capturing an image of the entire range of the instruction target space or a range close thereto, and it is preferable to use a video camera having a wide image capturing range.

【0039】次に本実施形態の作用として、まずハンド
ポインティング装置10の設置時に、セットアップ装置
46がステージ18上に取り付けられた状態で、制御部
42によって実行されるセットアップ処理について、図
5のフローチャートを参照して説明する。
Next, as the operation of this embodiment, first, when the hand pointing device 10 is installed, the setup process executed by the control unit 42 with the setup device 46 mounted on the stage 18 will be described with reference to the flowchart of FIG. Will be described with reference to.

【0040】ステップ100では、セットアップ装置4
6のビデオカメラ50A,50Bを所定の初期高さz0
へ移動させ、ステップ102では、射出方向制御情報
(φ,θ)として初期値φ0,θ0を設定する。ステップ
104では、レーザ光源32からレーザビームを射出さ
せると共に、現在の射出方向制御情報(φ,θ)(すな
わちφ0,θ0)に応じて偏向装置34の回転ステージ3
8を回転させると共にミラー36を回動させることで、
レーザ光源32から射出されたレーザビームを、現在の
射出方向制御情報(φ,θ)に応じた射出方向へ射出さ
せる。
In step 100, the setup device 4
6 video cameras 50A, 50B to a predetermined initial height z 0
In step 102, initial values φ 0 and θ 0 are set as the injection direction control information (φ, θ). In step 104, a laser beam is emitted from the laser light source 32, and the rotary stage 3 of the deflecting device 34 is emitted according to the current emission direction control information (φ, θ) (that is, φ 0 , θ 0 ).
By rotating 8 and the mirror 36,
The laser beam emitted from the laser light source 32 is emitted in the emission direction corresponding to the current emission direction control information (φ, θ).

【0041】次のステップ106では、ビデオカメラ5
0A,50Bによって情報入力空間を撮像させ、ステッ
プ108ではビデオカメラ50Aが情報入力空間を撮像
することによって入力された動画像データのうち、単一
のフレームの画像(画像a)を取り込む。ステップ11
0では、ステップ108で取り込んだ画像aの中に、レ
ーザビームが物体に照射されることで形成される光スポ
ットに相当する画像部が存在するか否かを探索し、次の
ステップ112では、ステップ110の探索によって該
当する画像部が抽出されたか否かを判定する。判定が肯
定された場合にはステップ114へ移行し、前記光スポ
ットに相当する画像部の画像a上での位置(XA,YA
を演算し、演算結果をメモリに一時記憶する。
In the next step 106, the video camera 5
The information input space is imaged by 0A and 50B, and in step 108, a single frame image (image a) is captured from the moving image data input by the video camera 50A capturing the information input space. Step 11
In 0, it is searched whether or not an image portion corresponding to a light spot formed by irradiating the object with the laser beam exists in the image a captured in step 108, and in the next step 112, It is determined whether the corresponding image portion has been extracted by the search in step 110. When the determination is affirmative, the process proceeds to step 114, and the position (X A , Y A ) of the image portion corresponding to the light spot on the image a.
Is calculated and the calculation result is temporarily stored in the memory.

【0042】また、ステップ116ではビデオカメラ5
0Bが情報入力空間を撮像することによって入力された
動画像データのうち、単一のフレームの画像(画像b)
を取り込む。ステップ118では、ステップ116で取
り込んだ画像bの中に光スポットに相当する画像部が存
在するか否かを探索し、次のステップ120では、ステ
ップ118の探索によって該当する画像部が抽出された
か否かを判定する。判定が肯定された場合にはステップ
122へ移行し、前記光スポットに相当する画像部の画
像b上での位置(XB,YB)を演算し、演算結果をメモ
リに一時記憶する。
In step 116, the video camera 5
An image of a single frame (image b) of the moving image data input by 0B capturing the information input space
Take in. In step 118, it is searched whether or not an image part corresponding to a light spot exists in the image b captured in step 116. In the next step 120, whether the corresponding image part is extracted by the search in step 118. Determine whether or not. If the determination is affirmative, the routine proceeds to step 122, where the position (X B , Y B ) of the image portion on the image b corresponding to the light spot is calculated, and the calculation result is temporarily stored in the memory.

【0043】ところで、本実施形態では、例として次の
表1に示すように、セットアップ装置46のビデオカメ
ラ50A,50Bに撮像範囲内の各箇所について、3次
元座標値(詳しくはビデオカメラ50(ビデオカメラ5
0Aでもビデオカメラ50Bでもよい)の位置を原点と
する3次元座標系における座標値(XC,YC,ZC))
と、ビデオカメラ50A,50Bよって撮像を行ったと
きの画像a上での位置(XA,YA)及び画像b上での位
置(XB,YB)が対応付けられた座標変換ルックアップ
テーブル(座標変換LUT)がROM等に予め記憶され
ている。
By the way, in the present embodiment, as shown in the following Table 1 as an example, the three-dimensional coordinate values (specifically, the video camera 50 ( Video camera 5
Coordinate values (X C , Y C , Z C )) in a three-dimensional coordinate system whose origin is the position of 0A or video camera 50B)
And a coordinate conversion lookup in which the position (X A , Y A ) on the image a and the position (X B , Y B ) on the image b when the images are taken by the video cameras 50A and 50B are associated with each other. A table (coordinate conversion LUT) is stored in advance in the ROM or the like.

【0044】[0044]

【表1】 [Table 1]

【0045】なお、座標変換LUTは、3次元座標値
(XC,YC,ZC)が既知の撮像範囲内の各箇所をビデ
オカメラ50A,50Bによって撮像し、画像a上での
位置(XA,YA)及び画像b上での位置(XB,YB)を
各々演算・記憶することで生成することができ、例えば
特開平10−326148号公報等に記載のマーク板等
を用いて生成することができる。
The coordinate conversion LUT captures each position in the image capturing range where the three-dimensional coordinate values (X C , Y C , Z C ) are known by the video cameras 50A and 50B, and the position on the image a ( X A , Y A ) and the position (X B , Y B ) on the image b can be calculated and stored. For example, the mark plate described in Japanese Patent Laid-Open No. 10-326148 can be used. Can be generated using.

【0046】次のステップ124では、ステップ114
で求めた位置(XA,YA)及びステップ122で求めた
位置(XB,YB)に基づき、座標変換LUTによりビデ
オカメラ50の位置を原点とする光スポットの3次元座
標値(xC,yC,zC)を求める。またステップ126
では、ステップ124で求めた3次元座標値(xC
C,zC)をビデオカメラ50の現在の位置(例えばハ
ンドポインティング装置10の設置位置等の所定の基準
位置を原点とするXYZ座標系での座標値)に応じて補
正することで、XYZ座標系での光スポットの3次元座
標値(x,y,z)を求める。そしてステップ128で
は、ステップ126の補正によって得られた光スポット
の3次元座標値(x,y,z)を、現在の射出方向制御
情報(φ,θ)と対応付け、現在のビデオカメラ50の
高さに対応する情報として、記憶部44に記憶された指
示位置・射出方向判断テーブル(図1も参照)に登録
し、ステップ132へ移行する。
In the next step 124, step 114
Based on the position (X A , Y A ) obtained in step S1 and the position (X B , Y B ) obtained in step 122, the three-dimensional coordinate value (x) of the light spot whose origin is the position of the video camera 50 is converted by the coordinate conversion LUT. C , y C , z C ) is calculated. Step 126
Then, the three-dimensional coordinate values (x C ,
y C , z C ) is corrected according to the current position of the video camera 50 (for example, the coordinate value in the XYZ coordinate system whose origin is a predetermined reference position such as the installation position of the hand pointing device 10), so that XYZ A three-dimensional coordinate value (x, y, z) of the light spot in the coordinate system is obtained. Then, in step 128, the three-dimensional coordinate values (x, y, z) of the light spot obtained by the correction in step 126 are associated with the current emission direction control information (φ, θ), and the current video camera 50 The information corresponding to the height is registered in the designated position / ejection direction determination table (see also FIG. 1) stored in the storage unit 44, and the process proceeds to step 132.

【0047】一方、ステップ112又はステップ120
の判定が否定された場合には、光スポットがビデオカメ
ラ50A,50Bの撮像範囲から外れている、或いは光
スポットが障害物の陰に位置している等の理由により、
画像a,b上で光スポットを確認することができないた
め、ステップ130へ移行し、光スポット未検出を表す
情報を現在の射出方向制御情報(φ,θ)と対応付け、
現在のビデオカメラ50の高さに対応する情報として指
示位置・射出方向判断テーブルに登録し、ステップ13
2へ移行する。
On the other hand, step 112 or step 120
If the determination is negative, the light spot is out of the imaging range of the video cameras 50A and 50B, or the light spot is located behind an obstacle.
Since the light spot cannot be confirmed on the images a and b, the process proceeds to step 130, and the information indicating that the light spot is not detected is associated with the current emission direction control information (φ, θ).
It is registered in the designated position / ejection direction determination table as information corresponding to the current height of the video camera 50, and step 13
Move to 2.

【0048】次のステップ132では、レーザビームの
射出方向を最終方向迄変更したか否か判定する。セット
アップ処理では、ビデオカメラ50A,50Bの撮像範
囲の全範囲を所定の順序でスキャン(例えばラスタスキ
ャン等)するように射出方向の変更順序が予め定められ
ている。ステップ132の判定が否定された場合にはス
テップ134へ移行し、予め定められた射出方向の変更
順序に応じて射出方向制御情報を更新してステップ10
4に戻る。これにより、ステップ132の判定が肯定さ
れる迄、ステップ104〜ステップ134が繰り返され
る。
In the next step 132, it is judged whether or not the emission direction of the laser beam has been changed to the final direction. In the setup processing, the change order of the emission directions is predetermined so that the entire imaging range of the video cameras 50A and 50B is scanned in a predetermined order (for example, raster scan). If the determination in step 132 is negative, the process proceeds to step 134, the injection direction control information is updated according to a predetermined order of changing the injection direction, and step 10 is executed.
Return to 4. As a result, steps 104 to 134 are repeated until the determination at step 132 becomes affirmative.

【0049】ステップ132の判定が肯定されるとステ
ップ136へ移行し、ビデオカメラ50がセットアップ
処理の最終高さ迄移動したか否か判定する。ハンドポイ
ンティング装置10の利用者12の身長は不定であり、
利用者12の頭部の位置(詳しくは利用者12の眼部の
位置)も個々の利用者12の身長に応じて相違すること
を考慮し、セットアップ処理では、利用者12の頭部の
高さの最大値から最小値(何れも予測値)に相当する高
さ範囲をビデオカメラ50の移動範囲とし、該移動範囲
内をビデオカメラ50を所定ピッチで移動させながら、
各位置において上述した処理を行う。
When the determination at step 132 is affirmative, the routine proceeds to step 136, where it is determined whether the video camera 50 has moved to the final height of the setup processing. The height of the user 12 of the hand pointing device 10 is indefinite,
In consideration of the fact that the position of the head of the user 12 (specifically, the position of the eye of the user 12) also differs depending on the height of the individual user 12, the height of the head of the user 12 is set in the setup process. The height range corresponding to the maximum value to the minimum value (all predicted values) is set as the moving range of the video camera 50, and the video camera 50 is moved at a predetermined pitch within the moving range.
The processing described above is performed at each position.

【0050】このため、ステップ136の判定が否定さ
れた場合にはステップ138へ移行し、ビデオカメラ5
0の高さを所定量変更した後にステップ102に戻る。
これにより、ステップ136の判定が肯定される迄ステ
ップ102〜ステップ138が繰り返されることにな
る。そして、ステップ136の判定が肯定されるとセッ
トアップ処理を終了する。
Therefore, if the determination in step 136 is negative, the process proceeds to step 138 and the video camera 5
After changing the height of 0 by a predetermined amount, the process returns to step 102.
As a result, steps 102 to 138 are repeated until the determination at step 136 becomes affirmative. Then, when the determination in step 136 is affirmative, the setup process ends.

【0051】上述したセットアップ処理により、次の表
2に示すように、指示位置射出方向テーブルには、ビデ
オカメラ50の移動範囲内の各位置(高さ)毎に、レー
ザビームの射出制御情報(φ,θ)と、画像a,bに基
づいて演算された光スポットの3次元座標値(x,y,
z)が対応付けて記憶されることになる。また、画像
a,b上で光スポットが検出できなかった射出方向に対
応する射出制御情報(φ,θ)については「光スポット
未検出」を表す情報が対応付けて記憶される。
By the above-mentioned setup processing, as shown in Table 2 below, in the designated position emission direction table, laser beam emission control information (for each position (height) in the moving range of the video camera 50 ( φ, θ) and the three-dimensional coordinate value (x, y, of the light spot calculated based on the images a, b)
z) will be stored in association with each other. Further, with respect to the emission control information (φ, θ) corresponding to the emission direction in which the light spot cannot be detected on the images a and b, information indicating “light spot undetected” is stored in association.

【0052】[0052]

【表2】 [Table 2]

【0053】なお、上記のセットアップ処理では、レー
ザビームの射出方向を順次変更することでビデオカメラ
50A,50Bの撮像範囲の全範囲に亘ってレーザビー
ムをスキャンさせ、レーザビームの射出方向が各方向の
ときの画像a,b上での光スポットの位置から光スポッ
トの3次元座標値を求めているので、レーザビームが展
示物等の指示対象物体に照射されているときには、この
指示対象物体の表面上に形成された光スポットの3次元
座標値が指示位置・射出方向判断テーブルに登録される
ことになる。
In the above setup process, the emission direction of the laser beam is sequentially changed so that the laser beam is scanned over the entire imaging range of the video cameras 50A and 50B, and the emission direction of the laser beam is in each direction. Since the three-dimensional coordinate value of the light spot is obtained from the position of the light spot on the images a and b at the time, when the laser beam is applied to the instruction target object such as an exhibit, The three-dimensional coordinate value of the light spot formed on the surface is registered in the designated position / emission direction determination table.

【0054】従って、上記の指示位置・射出方向判断テ
ーブルにおける「光スポット3次元座標」は、本発明に
係る「被指示物体又は被指示空間の各部の3次元座標を
表す3次元モデル」(詳しくは請求項4に記載の複数の
3次元モデル)に対応しており、セットアップ処理は請
求項3に記載の3次元モデルの生成に対応している。ま
た、指示位置・射出方向判断テーブルの「光スポット3
次元座標」は、同テーブルの「射出方向制御情報」と共
に、請求項6及び請求項7に記載の射出方向制御情報に
も対応しており、記憶部44は請求項1、請求項3、請
求項4及び請求項6に記載の記憶手段に各々対応してい
る。
Therefore, the "light spot three-dimensional coordinates" in the above-mentioned designated position / ejection direction judgment table is "three-dimensional model representing the three-dimensional coordinates of the designated object or each part of the designated space" (details). Corresponds to a plurality of three-dimensional models described in claim 4, and the setup process corresponds to generation of the three-dimensional model described in claim 3. In addition, “Light spot 3” in the designated position / ejection direction determination table
The "dimensional coordinate" corresponds to the injection direction control information described in claim 6 and claim 7, as well as the "injection direction control information" in the table, and the storage unit 44 stores the claim 1, claim 3, claim 3, and claim 3. It corresponds to the storage means described in claim 4 and claim 6, respectively.

【0055】次に、上記のセットアップ処理が終了した
後に、制御部42によって定常的に実行される指示判断
処理について、図6のフローチャートを参照して説明す
る。ステップ150では、フットスイッチ16がオンさ
れたか否かに基づいて利用者12が到来したか否か判定
し、判定が肯定される迄待機する。利用者12がステー
ジ14上に載ることでフットスイッチ16がオンされる
と、ステップ150の判定が肯定されてステップ152
へ移行し、各種のフラグや処理モード等の初期設定を行
う。
Next, the instruction determination processing routinely executed by the control unit 42 after the above setup processing is completed will be described with reference to the flowchart of FIG. In step 150, it is determined whether or not the user 12 has arrived based on whether or not the foot switch 16 is turned on, and the process waits until the determination is affirmative. When the user 12 is placed on the stage 14 and the foot switch 16 is turned on, the determination at step 150 is affirmative and step 152 is performed.
Then, various flags and processing modes are initialized.

【0056】次のステップ154では、フットスイッチ
16がオフになったか否かに基づいて利用者12が退去
したか否か判定する。利用者12が退去した場合には、
前記判定が肯定されてステップ150に戻り、情報入力
空間に再度利用者12が到来する迄待機するが、前記判
定が否定された場合には、ステップ156で特徴点・基
準点座標演算処理を行う。以下、この特徴点・基準点座
標演算処理について、図7のフローチャートを参照して
説明する。
In the next step 154, it is determined whether or not the user 12 has left based on whether or not the foot switch 16 has been turned off. If user 12 leaves,
If the determination is affirmative, the process returns to step 150 and waits until the user 12 arrives again in the information input space. If the determination is negative, the feature point / reference point coordinate calculation process is performed in step 156. . Hereinafter, this characteristic point / reference point coordinate calculation processing will be described with reference to the flowchart in FIG. 7.

【0057】ステップ200では、ビデオカメラ28A
から入力される動画像データのうち、単一のフレームの
画像(画像A)を取り込み、次のステップ202では取
り込んだ画像Aのデータをメモリ等に記憶する。ステッ
プ204では、前回の処理周期で画像Aの画像データを
取り込んで記憶しているか否か判定する。利用者12が
到来して最初に特徴点・基準点座標演算処理を行ったと
きには、画像Aの画像データが記憶されていないので、
ステップ204の判定が否定されて特徴点・基準点座標
演算処理を終了するが、2回目以降の前記処理実行時に
は、前回の処理周期で取り込んだ画像Aの画像データが
メモリ等に記憶されているので、前記判定が肯定されて
ステップ206へ移行する。
In step 200, the video camera 28A
The image of a single frame (image A) is captured from the moving image data input from, and in the next step 202, the captured image A data is stored in a memory or the like. In step 204, it is determined whether or not the image data of the image A has been acquired and stored in the previous processing cycle. Since the image data of the image A is not stored when the user 12 arrives and first performs the feature point / reference point coordinate calculation process,
When the determination at step 204 is negative, the characteristic point / reference point coordinate calculation processing ends, but at the time of the second and subsequent executions of the processing, the image data of the image A captured in the previous processing cycle is stored in the memory or the like. Therefore, the determination is affirmative and the process proceeds to step 206.

【0058】ステップ206では、前回の処理周期で取
り込んだ画像Aの画像データ、及び今回取り込んだ画像
Aの画像データを用い、双方の画像データが表す画像の
差分を画素毎に演算する。この演算により、ビデオカメ
ラ28Aの撮像範囲内に存在している物体のうち、前回
の処理周期から現在迄の間に動きが有った物体に相当す
る画素のみが「差分有り」になるので、「差分有り」の
画素のみを抽出することにより、動きが有った物体に相
当する画像領域が抽出される。
In step 206, the image data of the image A captured in the previous processing cycle and the image data of the image A captured this time are used to calculate the difference between the images represented by the image data for each pixel. By this calculation, among the objects existing within the imaging range of the video camera 28A, only the pixels corresponding to the objects that have moved from the previous processing cycle to the present time have "there is a difference". By extracting only the pixels with "difference", the image area corresponding to the object that has moved is extracted.

【0059】なお、利用者12の手が認識領域内に位置
している場合、利用者12が手を前後に移動させる等の
クリック動作を行ったときのみならず、利用者12が指
示動作を行っているときであっても、手を空中で完全に
静止させることは困難であるので、利用者12の手に相
当する領域は、殆どの場合、前回の処理周期から現在迄
の間に動きが有った物体に相当する画像領域として抽出
されることになる。
When the hand of the user 12 is located in the recognition area, not only when the user 12 performs a click operation such as moving the hand back and forth, but also when the user 12 performs an instruction operation. Since it is difficult to keep the hand completely still in the air even when performing the operation, the region corresponding to the hand of the user 12 moves in most cases between the previous processing cycle and the present. Will be extracted as an image area corresponding to the object with.

【0060】次のステップ208では、ステップ206
の処理により、利用者12の手に相当する画像領域が抽
出されたか否か判定する。なお、認識領域内に存在して
いる物体は照明装置30によって照明されるので、認識
領域内に利用者12の手が存在している場合、画像A及
び後述する画像Bの中には、利用者12の手に相当する
画像領域が、高輝度の画素から成る所定値以上の面積の
連続した領域として現れる。従って、認識領域内に利用
者12の手が存在していれば、利用者12の手に相当す
る画像領域を容易に抽出することができる。
In the next step 208, step 206
It is determined whether the image area corresponding to the hand of the user 12 has been extracted by the processing of. Since the object existing in the recognition area is illuminated by the lighting device 30, when the hand of the user 12 is present in the recognition area, the object in the image A and the image B described later is not used. The image region corresponding to the hand of the person 12 appears as a continuous region having an area of a predetermined value or more, which is composed of high-luminance pixels. Therefore, if the hand of the user 12 exists in the recognition area, the image area corresponding to the hand of the user 12 can be easily extracted.

【0061】ステップ206で動きが有った物体に相当
する画像領域が抽出されなかった場合、及びステップ2
06で抽出された画像領域が利用者12の手に相当する
画像領域でないと判定した場合には、認識領域内に利用
者12の手は存在していないと判断できるので、ステッ
プ208の判定が否定されて特徴点・基準点座標演算処
理を終了する。
If the image area corresponding to the moving object is not extracted in step 206, and
If it is determined that the image region extracted in 06 is not the image region corresponding to the hand of the user 12, it can be determined that the hand of the user 12 does not exist in the recognition region, and therefore the determination in step 208 is made. When the result is negative, the feature point / reference point coordinate calculation process ends.

【0062】一方、ステップ208の判定が肯定された
場合にはステップ210へ移行する。本実施形態では、
利用者12による指示動作やクリック動作を認識するた
めの特徴点PX(図9も参照)として利用者12の手の
指先を用いており、ステップ210では今回取り込んだ
画像データが表す画像A上での特徴点PXの位置(平面
座標値、図8に示す点PA参照)を演算する。
On the other hand, if the determination in step 208 is affirmative, the process proceeds to step 210. In this embodiment,
The fingertip of the user's 12 hand is used as the feature point P X (see also FIG. 9) for recognizing the pointing action and the clicking action by the user 12, and in step 210, on the image A represented by the image data captured this time. The position of the characteristic point P X (plane coordinate value, see point P A shown in FIG. 8) is calculated.

【0063】また、次のステップ212ではビデオカメ
ラ28Bから入力される動画像データのうち、単一のフ
レームの画像(画像B)を取り込み、次のステップ21
4では取り込んだ画像データをメモリ等に記憶する。ス
テップ216では、前回の処理周期で取り込んだ画像B
の画像データ、及び今回取り込んだ画像Bの画像データ
を用い、双方の画像データが表す画像の差分を画素毎に
演算し、「差分有り」の画素のみを抽出することで、動
きが有った物体に相当する画像領域を抽出する。そして
ステップ218では、今回取り込んだ画像データが表す
画像B上での特徴点PXの位置(平面座標値、図8に示
す点PB参照)を演算する。
In the next step 212, a single frame image (image B) is captured from the moving image data input from the video camera 28B, and the next step 21
At 4, the captured image data is stored in the memory or the like. In step 216, the image B captured in the previous processing cycle
By using the image data of No. 1 and the image data of the image B captured this time, the difference between the images represented by both image data is calculated for each pixel, and only the pixels with “difference” are extracted, so that there is motion. An image area corresponding to the object is extracted. Then, in step 218, the position of the characteristic point P X on the image B represented by the image data captured this time (plane coordinate value, see point P B shown in FIG. 8) is calculated.

【0064】次のステップ220では、画像A,B上で
の特徴点PXの位置に基づいて、特徴点PXの3次元座標
を演算する。特徴点PXの3次元座標は、例えば以下の
ようにして演算することができる。
At the next step 220, the three-dimensional coordinates of the feature point P X are calculated based on the position of the feature point P X on the images A and B. The three-dimensional coordinates of the feature point P X can be calculated as follows, for example.

【0065】すなわち、図8に示すように、ビデオカメ
ラ28Aの3次元座標Cを(X,0,Z)、ビデオカメ
ラ28Bの3次元座標C’を(X’,0,Z)とする。
また、ビデオカメラ28Aの撮像素子の受光面上での特
徴点PXの2次元座標PAを(α1,β1)、ビデオカメラ
28Aの撮像素子の受光面の画像中心OAから2次元座
標PAまでの距離をr、ビデオカメラ28Bの撮像素子
の受光面上での特徴点PXの座標PBを(α1',β1')、
ビデオカメラ28Bの撮像素子の受光面の画像中心OB
から座標PBまでの距離をr’、特徴点PXの3次元座標
Xを(x,y,z)とする。
That is, as shown in FIG. 8, the three-dimensional coordinate C of the video camera 28A is (X, 0, Z) and the three-dimensional coordinate C'of the video camera 28B is (X ', 0, Z).
In addition, the two-dimensional coordinates P A of the feature point P X on the light receiving surface of the image pickup device of the video camera 28A are (α 1 , β 1 ) two-dimensionally from the image center O A of the light receiving surface of the image pickup device of the video camera 28A. The distance to the coordinate P A is r, the coordinate P B of the feature point P X on the light receiving surface of the image sensor of the video camera 28B is (α 1 ', β 1 '),
Image center O B of the light receiving surface of the image sensor of the video camera 28B
The distance from to the coordinates P B r ', the three-dimensional coordinates P X of the characteristic point P X and (x, y, z).

【0066】また、ビデオカメラ28Aの3次元座標位
置を通る垂線の足と点Pを通る垂線の足とのなす角が直
角となる点Sの3次元座標Sを(X,0,z)、ビデオ
カメラ28Bの3次元座標位置を通る垂線の足と点Pを
通る垂線の足とのなす角が直角となる点S'の3次元座
標S'を(X',0,z)、点PCSのなす角を角θ1
点PC'S'のなす角を角θ1'、点PSS'のなす角を角
φ、点PS'Sのなす角を角φ'とする。
Further, the three-dimensional coordinates S of the point S where the angle between the foot of the perpendicular line passing through the three-dimensional coordinate position of the video camera 28A and the foot of the perpendicular line passing through the point P is a right angle (X, 0, z), The three-dimensional coordinate S ′ of the point S ′ at which the angle between the foot of the perpendicular line passing through the three-dimensional coordinate position of the video camera 28B and the foot of the perpendicular line passing through the point P is a right angle (X ′, 0, z) is the point PCS. The angle formed by the angle θ 1 ,
The angle formed by the point PC ′S ′ is an angle θ 1 ′, the angle formed by the point PSS ′ is an angle φ, and the angle formed by the point PS ′S is an angle φ ′.

【0067】撮像素子の受光面上で画像中心OAから像
までの距離rは、r=fθ1によって求められる。ま
た、α1、β1はそれぞれ α1=fθ1cos(π−φ)=−fθ1cosφ β1=fθ1sin(π−φ)=fθ1sinφ …(1) である。ここで、 sinφ=y/{(x−X)2+y21/2 cosφ=(x−X)/{(x−X)2+y21/2 …(2) であるので、α1、β1は、 α1=−fθ1(x−X)/{(x−X)2+y21/2 …(3) β1=fθ1y/{(x−X)2+y21/2 …(4) で求めることができる。(10)式を(3)式で除すこ
とにより、 y=(β1/α1)(X−x) …(5) 同様に、 y=(β1'/α1')(X’−x) …(6) (5)式と(6)式からyを消去して、 x=(α1β1'X’−α11X)/(α1β1'−α11) …(7) により特徴点PXの3次元座標PXのX座標を求めること
ができる。
The distance r from the image center O A to the image on the light receiving surface of the image pickup device is obtained by r = fθ 1 . Further, α 1 and β 1 are α 1 = fθ 1 cos (π−φ) = − fθ 1 cosφ β 1 = fθ 1 sin (π−φ) = fθ 1 sinφ (1), respectively. Here, sin φ = y / {(x−X) 2 + y 2 } 1/2 cos φ = (x−X) / {(x−X) 2 + y 2 } 1/2 (2), so α 1 and β 1 are α 1 = −fθ 1 (x−X) / {(x−X) 2 + y 2 } 1/2 (3) β 1 = fθ 1 y / {(x−X) 2 + y 2 } 1/2 ... (4) can be obtained. By dividing equation (10) by equation (3), y = (β 1 / α 1 ) (X−x) (5) Similarly, y = (β 1 ′ / α 1 ′) (X ′ −x) (6) Eliminating y from the equations (5) and (6), x = (α 1 β 1 ′ X′−α 1 ′ β 1 X) / (α 1 β 1 ′ −α) 1 'beta 1) ... it is possible to obtain the X-coordinate of the three-dimensional coordinates P X of the characteristic point P X (7).

【0068】次に、(5)式と(7)式からxを消去し
て、 y=β1β1'(X−X')/(α1β1'−α11) …(8) により3次元座標PXのY座標を求めることができる。
Next, x is eliminated from the equations (5) and (7), and y = β 1 β 1 ′ (X−X ′) / (α 1 β 1 ′ −α 1 ′ β 1 ) ... By (8), the Y coordinate of the three-dimensional coordinate P X can be obtained.

【0069】また、 θ1=tan-1[{(x−X)2+y21/2/(Z−z)] であるので、(7)式、(8)式から β1/(fsinφ)=tan-1[{(x−X)2+y21/2
/(Z−z)] 従って、 z=Z−[{(x−X)2+y21/2/tan[(β1/f)・ (x−X)2+y21/2/y] …(9) また、(5)式から {(x−X)2+y21/2=(x−X){1+(β1/α1)2
1/2 (5)式と(8)式とから (x−X)=(X’−X)/{1−(α1'/α1)×(β1
β1')} であるので、(9)式は、 z=Z+[(X'−X){1+(β1/α1)21/2/{1−(α1'/α1)・ (β1/β1')}]/tan{(α1 2 +β1 2)1/2/f} …(10) と表すことができ、3次元座標PXのZ座標を求めるこ
とができる。
Since θ 1 = tan -1 [{(x-X) 2 + y 2 } 1/2 / (Z-z)], β 1 / (from equations (7) and (8) fsin φ) = tan −1 [{(x−X) 2 + y 2 } 1/2
/ (Z−z)] Therefore, z = Z − [{(x−X) 2 + y 2 } 1/2 / tan [(β 1 / f) · (x−X) 2 + y 2 } 1/2 / y] (9) Further, from the expression (5), {(x−X) 2 + y 2 } 1/2 = (x−X) {1+ (β 1 / α 1 ) 2 }
1/2 From equations (5) and (8), (x−X) = (X′−X) / {1- (α 1 ′ / α 1 ) × (β 1 /
Since β 1 ')}, the equation (9) is expressed by z = Z + [(X'-X) {1+ (β 1 / α 1 ) 2 } 1/2 / {1- (α 1 ' / α 1 ) · (β 1 / β 1 ')}] / tan {(α 1 2 + β 1 2) 1/2 / f} ... ( can be expressed as 10), to obtain the Z coordinate of the three-dimensional coordinates P X You can

【0070】前述のように、ビデオカメラ28A,28
Bの3次元座標は既知であるので、(7)式、(8)式
及び(10)式に、画像A上での特徴点PXの位置から
求まるビデオカメラ28Aの撮像素子の受光面上での特
徴点PXの平面座標PA1,β 1)と、画像B上での特
徴点PXの位置から求まるビデオカメラ28Bの撮像素
子の受光面上での特徴点PXの平面座標PB1',
β1')の値を代入することで、特徴点PXの3次元座標
X(x,y,z)を求めることができる。
As described above, the video cameras 28A, 28
Since the three-dimensional coordinates of B are already known, equations (7) and (8)
(10) and the feature point P on the image AXFrom the position
The special feature on the light-receiving surface of the image sensor of the video camera 28A to be obtained
Point PXPlane coordinates P ofA1, Β 1) And the special feature on image B
Point PXOf the video camera 28B obtained from the position
Feature point P on the light-receiving surface of the childXPlane coordinates P ofB1',
β1'), The value ofXThree-dimensional coordinates
PX(X, y, z) can be obtained.

【0071】次のステップ222では、特徴点・基準点
座標演算処理が繰り返し実行されることで、ステップ2
20で繰り返し演算された特徴点PXの3次元座標のう
ち、直近の複数の周期における特徴点PXの3次元座標
の演算結果と、今回の周期における特徴点PXの3次元
座標の演算結果から求まる特徴点PXの移動軌跡に基づ
いて、利用者12の肘及び肩の位置(3次元座標)を推
定演算する。
In the next step 222, the characteristic point / reference point coordinate calculation processing is repeatedly executed, resulting in step 2
Among the three-dimensional coordinates of the characteristic point P X repeatedly calculated in 20, the calculation result of the three-dimensional coordinates of the characteristic point P X in the latest plurality of cycles and the calculation of the three-dimensional coordinates of the characteristic point P X in the current cycle. The position (three-dimensional coordinate) of the elbow and shoulder of the user 12 is estimated and calculated based on the movement locus of the characteristic point P X obtained from the result.

【0072】一般に、特定の位置を指し示す指示動作に
おいて、指示位置を上下方向に移動させる際には肩を回
転中心として腕が動かされ、指示位置を左右方向に移動
させる際には肘を回転中心として腕が動かされる。この
ため、指示動作を行っている利用者12が指示位置を移
動させる動作を行った場合、特徴点PXは肘又は肩を中
心とする球面上を移動することになる。従って、特徴点
Xの移動軌跡を、任意の点を回転中心とする回転移動
を規定する一般式に代入し、最小自乗法を用いて時間区
分毎に解を求めることにより、時間区分毎の回転中心の
位置(すなわち肘又は肩の位置)及び回転半径を推定演
算することができる。また、上記の推定演算を利用し、
回転中心の位置の変化幅や回転半径の変化幅を求めるこ
とで、利用者12のおおよその体格(利用者12が大人
か子供か等)を判断することも可能である。
Generally, in the pointing operation for pointing a specific position, when moving the pointing position in the vertical direction, the arm is moved around the shoulder, and when moving the pointing position in the horizontal direction, the elbow is rotated. As the arm is moved. Therefore, when the user 12 performing the pointing action performs the action of moving the pointing position, the feature point P X moves on a spherical surface centered on the elbow or shoulder. Therefore, by substituting the movement locus of the feature point P X into a general expression that defines the rotational movement about an arbitrary point as a rotation center and finding a solution for each time segment using the least squares method, The position of the center of rotation (ie the position of the elbow or shoulder) and the radius of gyration can be estimated and calculated. Also, using the above estimation operation,
It is also possible to determine the approximate physique of the user 12 (whether the user 12 is an adult or a child) by obtaining the change width of the position of the rotation center and the change width of the rotation radius.

【0073】そして、次のステップ224では、ステッ
プ222で推定演算された利用者12の肩の位置に基準
点P0が位置するように、基準点P0(図9参照)の3次
元座標値を設定する。ステップ222で推定演算される
利用者12の肩の位置は、利用者12が指示動作に用い
ている腕側の肩(左腕であれば左肩、右腕であれば右
肩)の位置であるので、利用者12が指示動作に用いて
いる腕が左腕であれば、基準点P0は図9(A)及び
(B)に示す位置とされ、利用者12が指示動作に用い
ている腕が右腕であれば、基準点P0は図9(A)及び
(C)に示す位置とされることになる。
[0073] Then, in the next step 224, as the reference point P 0 is located at the estimated computed shoulder position of the user 12 in step 222, the three-dimensional coordinates of the reference point P 0 (see FIG. 9) To set. The shoulder position of the user 12 estimated and calculated in step 222 is the position of the shoulder on the arm side (the left shoulder for the left arm, the right shoulder for the right arm) used by the user 12 for the pointing operation. If the arm used by the user 12 for the pointing motion is the left arm, the reference point P 0 is set to the position shown in FIGS. 9A and 9B, and the arm used by the user 12 for the pointing motion is the right arm. If so, the reference point P 0 will be at the position shown in FIGS. 9A and 9C.

【0074】また、利用者12の肘や肩の高さは利用者
12の身長に略比例することを利用し、次のステップ2
26では、ステップ222で推定演算した利用者12の
肘や肩の高さに基づいて利用者12の身長を推定演算す
る。ステップ226の処理を行うと特徴点・基準点座標
演算処理を終了し、指示判断処理(図6)のステップ1
58へ移行する。
The fact that the heights of the elbows and shoulders of the user 12 are approximately proportional to the height of the user 12 is used, and the next step 2
In step 26, the height of the user 12 is estimated and calculated based on the heights of the elbows and shoulders of the user 12 estimated and calculated in step 222. When the processing of step 226 is performed, the characteristic point / reference point coordinate calculation processing is ended, and step 1 of the instruction determination processing (FIG. 6) is performed.
Move to 58.

【0075】なお、上記の特徴点・基準点座標演算処理
は繰り返し実行されるので、該処理によって演算される
特徴点PXの3次元座標値は、利用者12の姿勢や動作
の変化に応じて逐次更新されることになる。一方、基準
点P0の3次元座標値は特徴点・基準点座標演算処理を
実行する度に大きく変化することは好ましくないので、
例えば利用者12が到来して最初に求めた基準点P0
3次元座標値を、利用者12が退去する迄の間は固定的
に用いるようにしてもよいし、特徴点・基準点座標演算
処理を実行する毎に、前回求めた基準点P0の3次元座
標値からの偏差が所定範囲内になるように、基準点P0
の3次元座標値を求めるようにしてもよい。
Since the feature point / reference point coordinate calculation process described above is repeatedly executed, the three-dimensional coordinate value of the feature point P X calculated by this process depends on the posture and movement of the user 12. Will be updated sequentially. On the other hand, it is not preferable that the three-dimensional coordinate value of the reference point P 0 greatly changes each time the feature point / reference point coordinate calculation processing is executed.
For example, the three-dimensional coordinate value of the reference point P 0 that the user 12 first arrives and obtains first may be fixedly used until the user 12 leaves, or the characteristic point / reference point coordinates may be used. Each time the arithmetic processing is executed, the reference point P 0 is adjusted so that the deviation from the previously obtained three-dimensional coordinate value of the reference point P 0 falls within a predetermined range.
You may make it obtain | require the three-dimensional coordinate value of.

【0076】ステップ158では、先に説明した特徴点
・基準点座標演算処理(図7)のステップ208の判定
結果に基づき、利用者12が指示動作を行っているか否
かを判定する。なお、特徴点・基準点座標演算処理で
は、利用者12が指示動作を行っている場合(ステップ
208の判定が肯定された場合)にのみ特徴点PXの3
次元座標値を演算するので、ステップ158の判定は、
例えば特徴点PXの3次元座標値が演算されたか否かを
判断することで行うことができる。この判定が否定され
た場合にはステップ154に戻り、情報入力空間内に利
用者12が存在している間はステップ154〜ステップ
158を繰り返す。
In step 158, it is determined whether or not the user 12 is performing an instruction operation based on the determination result of step 208 of the characteristic point / reference point coordinate calculation processing (FIG. 7) described above. In the feature point / reference point coordinate calculation process, the feature point P X 3 is calculated only when the user 12 is performing the pointing operation (when the determination in step 208 is affirmative).
Since the dimensional coordinate value is calculated, the determination in step 158 is
For example, it can be performed by determining whether or not the three-dimensional coordinate value of the characteristic point P X has been calculated. If this determination is denied, the process returns to step 154, and steps 154 to 158 are repeated while the user 12 exists in the information input space.

【0077】一方、ステップ158の判定が肯定された
場合にはステップ160へ移行し、まず先の特徴点・基
準点座標演算処理で演算された基準点P0及び特徴点PX
の3次元座標値に基づき、利用者12の指示動作による
指示方向を表す線として、上記の基準点P0と特徴点PX
とを結ぶ仮想線(図9の仮想線54参照)を設定する。
また、特徴点・基準点座標演算処理(図7)のステップ
226における利用者12の身長の推定演算結果を取り
込み、利用者12の眼部に相当する高さ(Z座標値)を
推定演算する。そして、利用者12の指示動作による指
示位置の座標値として、推定演算した利用者12の眼部
の高さと対応付けて指示位置・射出方向判断テーブルに
複数登録されている3次元座標値の中から、基準点P0
と特徴点PXとを結ぶ仮想線上に存在する3次元座標値
を検索する。
On the other hand, if the determination in step 158 is affirmative, the routine proceeds to step 160, and first, the reference point P 0 and the characteristic point P X calculated in the preceding characteristic point / reference point coordinate calculation processing.
Based on the three-dimensional coordinate values of the above, as a line representing the pointing direction by the pointing operation of the user 12, the reference point P 0 and the characteristic point P X
A virtual line (see virtual line 54 in FIG. 9) connecting with is set.
Further, the estimation calculation result of the height of the user 12 in step 226 of the characteristic point / reference point coordinate calculation process (FIG. 7) is taken in, and the height (Z coordinate value) corresponding to the eye of the user 12 is estimated and calculated. . Then, as the coordinate value of the pointed position indicated by the pointing operation of the user 12, among the three-dimensional coordinate values registered in the pointed position / ejection direction determination table in association with the estimated eye height of the user 12 From the reference point P 0
And a three-dimensional coordinate value existing on a virtual line connecting the feature point P X and the feature point P X is searched.

【0078】なお、上記のステップ160は、先に説明
した特徴点・基準点座標演算処理(図7)と共に、請求
項1、請求項2及び請求項4に記載の判断手段に対応し
ている。
The step 160 corresponds to the determination means described in claims 1, 2 and 4 together with the feature point / reference point coordinate calculation processing (FIG. 7) described above. .

【0079】次のステップ162では、ステップ160
の検索によって該当する3次元座標値が指示位置・射出
方向判断テーブルから抽出されたか否か判定する。先に
説明したように、指示位置・射出方向判断テーブルに登
録されている3次元座標値は、ビデオカメラ50A,5
0Bの撮像範囲の全範囲に亘ってレーザビームをスキャ
ンさせて画像a,b上での光スポットに相当する画像部
の位置から求めているので、ステップ162の判定が否
定された場合には、利用者12の指示動作による指示方
向に沿った仮想線上には、レーザ光源32から射出され
たレーザビームによって光スポットを形成させることは
困難と判断することができる。このため、ステップ16
2の判定が否定された場合には、何ら処理を行うことな
く(すなわちレーザビームの射出を行うことなく)ステ
ップ154に戻る。
In the next step 162, step 160
It is determined whether or not the corresponding three-dimensional coordinate value is extracted from the designated position / injection direction determination table by the search of. As described above, the three-dimensional coordinate values registered in the designated position / ejection direction determination table are the same as those of the video cameras 50A and 5A.
Since the laser beam is scanned over the entire imaging range of 0B to obtain the position from the image portion corresponding to the light spot on the images a and b, if the determination in step 162 is negative, It can be determined that it is difficult to form a light spot by the laser beam emitted from the laser light source 32 on the virtual line along the direction indicated by the instruction operation of the user 12. Therefore, step 16
When the determination of 2 is denied, the process returns to step 154 without performing any processing (that is, without performing the laser beam emission).

【0080】また、ステップ162の判定が肯定された
場合にはステップ164へ移行し、ステップ160の検
索によって抽出された3次元座標値、すなわち利用者1
2の指示動作による指示位置を表す3次元座標値はディ
スプレイ20の表示面上か否か判定する。判定が肯定さ
れた場合にはステップ172へ移行し、ディスプレイ2
0の表示面上の該当する位置にカーソルを表示させ、ス
テップ174へ移行する。なお、ステップ164,17
2は請求項9に記載の第1制御手段に対応しており、デ
ィスプレイ20は請求項9に記載の表示手段に対応して
いる。
When the determination in step 162 is affirmative, the process proceeds to step 164, and the three-dimensional coordinate value extracted by the search in step 160, that is, the user 1
It is determined whether or not the three-dimensional coordinate value representing the designated position by the designation operation 2 is on the display surface of the display 20. If the determination is positive, the process proceeds to step 172, and the display 2
The cursor is displayed at the corresponding position on the display surface of 0, and the process proceeds to step 174. Note that steps 164 and 17
Reference numeral 2 corresponds to the first control means described in claim 9, and the display 20 corresponds to the display means described in claim 9.

【0081】また、ステップ164の判定が否定された
場合にはステップ166へ移行し、利用者12の指示動
作による指示位置の3次元座標値に基づいて、利用者1
2による指示位置は予め定められた所定範囲から外れて
いるか否か判定する。本発明では利用者12による指示
位置にレーザビームを照射するため、上記の所定範囲
は、指示対象空間の所定位置にレーザビームが照射され
るようにレーザビームを射出した場合に安全性を確保で
きるか否かを判断することを、指示対象空間の各位置に
ついて各々事前に行うことで定められている。
If the determination in step 164 is negative, the process proceeds to step 166, and the user 1 determines based on the three-dimensional coordinate value of the position indicated by the user 12's pointing action.
It is determined whether the position indicated by 2 is out of the predetermined range. In the present invention, since the laser beam is irradiated to the position designated by the user 12, the above-mentioned predetermined range can ensure safety when the laser beam is emitted so that the laser beam is irradiated to the predetermined position of the designated space. Whether or not to determine whether or not to do so is defined in advance for each position in the pointing space.

【0082】例えば指示対象空間の或る位置にレーザビ
ームが照射されるようにレーザビームを射出した場合
に、射出したレーザビームが指示対象空間内に形成され
ている利用者の通路を横切る等の場合には、前記位置は
所定範囲から除外されることになる。なお、本実施形態
では、後述するように指示位置が所定範囲から外れてい
た場合にはレーザビームの射出を停止するが、これに代
えて、例えばレーザビームの射出方向毎にレーザビーム
の射出/射出停止を判断し、レーザビームの射出/射出
停止を表す情報を射出方向制御情報と対応付けて指示位
置・射出方向判断テーブルに登録するようにしてもよ
い。
For example, when the laser beam is emitted so that the laser beam is irradiated to a certain position in the pointing space, the emitted laser beam crosses the passage of the user formed in the pointing space. In that case, the position will be excluded from the predetermined range. In the present embodiment, as will be described later, when the designated position is out of the predetermined range, the laser beam emission is stopped, but instead of this, for example, the laser beam emission / emission direction is changed in each laser beam emission direction. It is also possible to judge whether the injection is stopped and register the information indicating the emission / stop of the laser beam in the designated position / injection direction determination table in association with the injection direction control information.

【0083】ステップ166の判定が否定された場合に
は何ら処理を行うことなく(すなわちレーザビームの射
出を行うことなく)ステップ154に戻る。またステッ
プ166の判定が肯定された場合にはステップ168へ
移行し、ステップ160の検索によって抽出された3次
元座標値と対応付けされて指示位置・射出方向判断テー
ブルに登録されている射出方向制御情報、すなわち利用
者12による指示位置にレーザビームを照射するための
射出方向制御情報(φ,θ)を指示位置・射出方向判断
テーブルから取り込む。
When the determination in step 166 is negative, the process returns to step 154 without performing any processing (that is, without emitting the laser beam). If the determination in step 166 is affirmative, the process proceeds to step 168, and the injection direction control registered in the designated position / injection direction determination table in association with the three-dimensional coordinate value extracted by the search in step 160 is performed. Information, that is, injection direction control information (φ, θ) for irradiating the laser beam to the position designated by the user 12 is fetched from the designated position / emission direction determination table.

【0084】そしてステップ170では、レーザ光源3
2からレーザビームを射出させると共に、ステップ16
8で取り込んだ射出方向制御情報(φ,θ)に応じて偏
向装置34の回転ステージ38を回転させると共にミラ
ー36を回動させることで、レーザ光源32から射出さ
れたレーザビームを、ステップ168で取り込んだ射出
方向制御情報(φ,θ)に応じた射出方向へ射出させ
る。これにより、利用者12の指示動作による指示位置
に、射出されたレーザビームによって光スポットが形成
されることになる。
Then, in step 170, the laser light source 3
The laser beam is emitted from 2 and step 16
In step 168, the laser beam emitted from the laser light source 32 is rotated by rotating the rotary stage 38 of the deflecting device 34 and rotating the mirror 36 in accordance with the emission direction control information (φ, θ) captured in 8. The injection is performed in the injection direction according to the captured injection direction control information (φ, θ). As a result, a light spot is formed by the emitted laser beam at the position designated by the pointing operation of the user 12.

【0085】なお、上述したステップ162,166,
168,170は、レーザ光源32及び偏向装置34と
共に、本発明の光ビーム射出手段に対応しており、特に
ステップ162,166は請求項8に記載の光ビーム射
出手段に対応している。
Incidentally, the above-mentioned steps 162, 166.
Reference numerals 168 and 170, together with the laser light source 32 and the deflection device 34, correspond to the light beam emitting means of the present invention, and particularly steps 162 and 166 correspond to the light beam emitting means according to the eighth aspect.

【0086】次のステップ174では利用者12によっ
てクリック動作が行われたか否か判定する。クリック動
作としては種々の動作を採用することができ、例えば利
用者12が手を前方に素早く移動させる動作(図10
(A)参照、以下「前進クリック」という)、及び利用
者12が手を後方に素早く移動させる動作(図10
(B)参照、以下「後進クリック」という)をクリック
動作とすることができる。このクリック動作は、特定位
置を指し示して選択する動作として極めて自然な動作で
あるので、利用者12は違和感を感ずることなくクリッ
ク動作を行うことができる。
At the next step 174, it is judged whether or not the click operation is performed by the user 12. Various actions can be adopted as the click action, for example, an action in which the user 12 quickly moves his or her hand forward (see FIG. 10).
(See (A), hereinafter referred to as “forward click”), and an operation in which the user 12 quickly moves his or her hand backward (FIG. 10).
(See (B), hereinafter referred to as "reverse click"). Since this click operation is an extremely natural operation as an operation of pointing and selecting a specific position, the user 12 can perform the click operation without feeling a sense of discomfort.

【0087】前進クリック動作や後進クリック動作が行
われたか否かの判定は、例えば利用者12が指示動作を
行っている間、基準点P0と特徴点PXとの距離k(図9
参照)を繰り返し演算し、ステップ174において、今
回演算した距離kと前回演算した距離kとの差が所定値
以上か否かを判断することで行うことができる。ステッ
プ174の判定が否定された場合には、何ら処理を行う
ことなくステップ154へ戻る。
Whether or not the forward click operation or the backward click operation is performed is determined by, for example, the distance k between the reference point P 0 and the characteristic point P X (FIG. 9) while the user 12 is performing the instruction operation.
(Refer to FIG. 4) is repeatedly performed, and in step 174, it is possible to determine whether or not the difference between the distance k calculated this time and the distance k calculated last time is a predetermined value or more. If the determination in step 174 is negative, the process returns to step 154 without performing any processing.

【0088】一方、ステップ174の判定が肯定された
場合にはステップ176へ移行し、利用者12によって
行われたクリック動作に応じた処理を行う。すなわち、
本実施形態では、利用者12が指示可能な展示物に関連
する情報を表す画像(静止画像でも動画像でもよい)や
音声のデータが、展示物の表面(利用者12の指示動作
によって指示される面)の3次元座標値と対応付けされ
て、展示物情報として記憶部44に予め記憶されている
(図2も参照)。
On the other hand, when the determination in step 174 is affirmative, the process proceeds to step 176, and the process according to the click operation performed by the user 12 is performed. That is,
In the present embodiment, an image (which may be a still image or a moving image) representing information related to an exhibit that can be instructed by the user 12 and audio data are instructed by the surface of the exhibit (instructed by the user 12). Corresponding to the three-dimensional coordinate value of the surface) is stored in the storage unit 44 in advance as exhibit information (see also FIG. 2).

【0089】このため、利用者12による指示位置がデ
ィスプレイ20の表示面外であり、レーザビームを射出
することで指示位置に光スポットを形成している場合に
は、利用者12の指示位置の3次元座標値をキーに展示
物情報を検索する。そして、指示位置の3次元座標値と
対応付けされて記憶されているデータが抽出された場合
には、抽出されたデータが画像データであれば該画像デ
ータが表す画像をディスプレイ20に表示し、抽出され
たデータが音声データであれば、該音声データをD/A
変換器26、増幅器24を介してスピーカ22へ出力す
ることで、前記音声データが表す音声をスピーカ22か
ら出力させる。
Therefore, when the position pointed by the user 12 is outside the display surface of the display 20 and a light spot is formed at the pointed position by emitting a laser beam, the position pointed by the user 12 is changed. Exhibit information is searched using the three-dimensional coordinate values as a key. Then, when the data stored in association with the three-dimensional coordinate value of the designated position is extracted, if the extracted data is image data, the image represented by the image data is displayed on the display 20, If the extracted data is audio data, the audio data is D / A
By outputting to the speaker 22 via the converter 26 and the amplifier 24, the voice represented by the audio data is output from the speaker 22.

【0090】これにより、利用者12が特定の展示物に
興味を持った場合、該特定の展示物を指し示す指示動作
を行い(これにより、特定の展示物の表面上の指示位置
にレーザビームが照射されて光スポットが形成され
る)、更にクリック動作を行うことで、特定の展示物に
関連する情報が画像又は音声で提示されることになる。
また、展示物情報として画像データ及び音声データを各
々記憶しておき、利用者12によるクリック動作が前進
クリックか後進クリックかに応じて、画像を表示するか
音声を出力するかを切替えるようにしてもよい。
Thus, when the user 12 becomes interested in a particular exhibit, an instruction operation is performed to point to the particular exhibit (this causes the laser beam to reach the designated position on the surface of the particular exhibit). By irradiating to form a light spot), and further performing a click operation, information related to a specific exhibit is presented as an image or a sound.
Also, image data and audio data are respectively stored as exhibit information, and it is possible to switch between displaying an image and outputting audio depending on whether the click operation by the user 12 is a forward click or a backward click. Good.

【0091】このように、記憶部44は請求項10に記
載のデータ記憶手段に対応しており、ステップ176に
おける上述した処理は請求項10に記載の第2制御手段
に対応している。また、ディスプレイ20は請求項10
に記載の表示手段に対応しており、D/A変換器26、
増幅器24及びスピーカ22は請求項10に記載の音声
出力手段に対応している。
As described above, the storage section 44 corresponds to the data storage means described in claim 10, and the above-described processing in step 176 corresponds to the second control means described in claim 10. Further, the display 20 is defined in claim 10.
The D / A converter 26,
The amplifier 24 and the speaker 22 correspond to the audio output means described in claim 10.

【0092】なお、利用者12が特定の展示物を指し示
す指示動作を行い、更にクリック動作を行った場合に、
上記に代えて、展示物全体又は展示物の一部を動かす、
展示物を発光させる、展示物から音声を発生させる、展
示物から煙幕を出す等の特定の動作を行わせるようにし
てもよい。この態様は請求項11記載の発明に対応して
いる。
When the user 12 performs an instruction operation to point to a specific exhibit and then performs a click operation,
Instead of the above, move the entire exhibit or a part of the exhibit,
You may make it perform specific operation | movements, such as making an exhibit light-emit, an audio | voice generate | occur | produce from an exhibit, and a smoke screen being emitted from an exhibit. This aspect corresponds to the invention of claim 11.

【0093】また、利用者による指示位置がディスプレ
イ20の表示面内の場合には、指示位置に関連する処理
を行う。例えば指示位置が特定の処理(例えば画面のス
クロール等)の実行を指示するためのボタンが表示され
た位置である場合には、特定の処理を実行する。ステッ
プ176の処理を行うとステップ154に戻る。これに
より、利用者12が退去する迄の間ステップ154〜ス
テップ176が繰り返され、利用者12が所定範囲内を
指し示す指示動作を行っている間は指示位置に光スポッ
トが形成され、利用者12がクリック動作を行う度に、
指示位置に関連する情報が利用者12に提示されること
になる。
When the position pointed by the user is within the display surface of the display 20, the processing relating to the pointed position is performed. For example, when the designated position is a position where a button for instructing execution of a specific process (for example, screen scrolling) is displayed, the specific process is executed. When the process of step 176 is performed, the process returns to step 154. As a result, steps 154 to 176 are repeated until the user 12 leaves, and a light spot is formed at the designated position while the user 12 is performing the pointing operation to point within the predetermined range. Each time you click
The information related to the designated position will be presented to the user 12.

【0094】なお、上記では2台のビデオカメラ28
A、28Bを設けた例を説明したが、これに限定される
ものではなく、より多数のビデオカメラによって情報入
力空間を各々撮像し、利用者12からの指示を判断する
ようにしてもよい。また、上記ではビデオカメラ28
A、28Bを情報入力空間の下方側に配置した例を説明
したが、指示対象空間が屋内空間であれば情報入力空間
の上方側(例えば指示対象空間の天井部等)に配置して
もよい。また、レーザ光源32や偏向装置34について
も、指示対象空間の天井部に配置してもよいことは言う
までもない。
In the above, two video cameras 28 are used.
Although an example in which A and 28B are provided has been described, the present invention is not limited to this, and the information input space may be imaged by a larger number of video cameras and the instruction from the user 12 may be determined. Also, in the above, the video camera 28
Although the example in which A and 28B are arranged on the lower side of the information input space has been described, if the instruction target space is an indoor space, it may be arranged on the upper side of the information input space (for example, the ceiling portion of the instruction target space). . Further, it goes without saying that the laser light source 32 and the deflection device 34 may also be arranged on the ceiling of the instruction target space.

【0095】また、上記では情報入力空間に到来した利
用者12自体は認識領域から外れ、利用者12が指示動
作やクリック動作を行った際に利用者12の手のみが認
識領域内に入るように、ビデオカメラ28A,28Bの
撮像範囲を定めていたが、これに限定されるものではな
く、利用者12の全身が認識領域内に入るようにビデオ
カメラの撮像範囲等を定めてもよい。
Further, in the above, the user 12 who has arrived in the information input space is out of the recognition area, and only the hand of the user 12 is in the recognition area when the user 12 performs an instruction operation or a click operation. Although the imaging range of the video cameras 28A and 28B is defined in the above, the invention is not limited to this, and the imaging range of the video camera may be defined so that the whole body of the user 12 is within the recognition area.

【0096】また、上記ではセットアップ処理を行うこ
とで、本発明に係る3次元モデルと請求項6に記載の射
出方向制御情報を統合した指示位置・射出方向判断テー
ブルへの情報の登録を行っていたが(3次元モデルと射
出方向制御情報を同時に生成していたが)、これに限定
されるものではなく、3次元モデルと射出方向制御情報
を別々に生成し、別々に記憶するようにしてもよい。
Further, in the above, by performing the setup process, the information is registered in the designated position / injection direction judgment table in which the three-dimensional model according to the present invention and the injection direction control information described in claim 6 are integrated. However, the present invention is not limited to this (though the 3D model and the injection direction control information are generated at the same time), but the 3D model and the injection direction control information are generated separately and stored separately. Good.

【0097】更に、上記では本発明に係る光ビームとし
て、レーザ光源32から射出されるレーザビームを用い
ていたが、これに限定されるものではなく、例えばスポ
ットライトから射出されるスポット光を本発明に係る光
ビームとして用いてもよい。スポット光は、特に大光量
が必要とされる場合(例えば遺跡等の大型の物体をポイ
ンティングする等のように、光源と被照射物体との距離
が離れている場合等)や、被照射物体の光反射率が高く
(例えば鏡面等)、レーザビームを照射しても光スポッ
トが形成されない等の場合に有効である。
Further, in the above description, the laser beam emitted from the laser light source 32 is used as the light beam according to the present invention, but the invention is not limited to this. For example, a spot light emitted from a spotlight is used. It may be used as a light beam according to the invention. Spot light requires a particularly large amount of light (for example, when the distance between the light source and the illuminated object is large, such as when pointing a large object such as a ruin), or when the illuminated object This is effective when the light reflectance is high (for example, a mirror surface) and a light spot is not formed even when the laser beam is irradiated.

【0098】また、上記では博物館等のように利用者が
指し示すことが可能な展示物が展示された公共の場所に
ハンドポインティング装置10が設置された場合を例に
説明したが、本発明はこれに限定されるものではなく、
例えばプレゼンテーションに適用することも可能であ
る。先にも説明したように、本発明を適用することで、
利用者が実物体を指し示している場合には被指示物体の
表面上の指示位置に光スポットが形成され、利用者がデ
ィスプレイの表示面内を指し示している場合には表示面
内の指示位置にカーソル等が表示される継ぎ目のない
(シームレスな)ポインティングが可能になるので、商
品説明や展示された史跡の説明等にも適用可能であり、
プレゼンテーションの質向上に貢献することができる。
In the above description, the case where the hand pointing device 10 is installed in a public place where an exhibit that can be pointed to by a user is exhibited, such as a museum, has been described as an example. Is not limited to
For example, it can be applied to a presentation. As described above, by applying the present invention,
When the user points to the real object, a light spot is formed at the pointing position on the surface of the pointed object, and when the user points to the inside of the display surface of the display, the light spot is formed at the pointing position inside the display surface. Since seamless (seamless) pointing where cursors etc. are displayed is possible, it can also be applied to product explanations and explanations of historic sites exhibited,
It can contribute to improving the quality of presentations.

【0099】[0099]

【発明の効果】以上説明したように請求項1及び請求項
12記載の発明は、利用者が所望の位置を指し示す指示
動作を行うことで指し示される被指示物体又は被指示空
間の各部の3次元座標を表す3次元モデルを記憶してお
き、利用者が指示動作を行っている状況を互いに異なる
複数の方向から撮像し、撮像によって得られた複数の画
像と前記3次元モデルに基づいて、利用者の指示動作に
よる指示位置を判断し、判断した指示位置に光ビームが
照射させるので、利用者が光ビームを射出する器具を操
作したりすることなく、利用者が指し示した位置を明示
することができる、という優れた効果を有する。
As described above, according to the inventions of claims 1 and 12, 3 of each part of the designated object or the designated space indicated by the user performing the pointing operation pointing to the desired position is performed. The three-dimensional model representing the three-dimensional coordinates is stored, the situation in which the user is performing the instruction operation is imaged from a plurality of different directions, and based on the plurality of images obtained by the imaging and the three-dimensional model, The position pointed by the user is indicated without judging the pointing position by the pointing operation of the user and irradiating the determined pointing position with the light beam, without operating the device for emitting the light beam. It has an excellent effect of being able to.

【0100】請求項3記載の発明は、請求項1記載の発
明において、被指示物体又は被指示空間へ向けて光ビー
ムを射出させ、利用者によって指示動作が行われる所定
位置付近で、かつ指示動作を行っている利用者の頭部に
相当すると推定される高さ付近の互いに異なる位置に設
置した複数の撮像装置によって被指示物体又は被指示空
間を各々撮像することで得られた複数の画像に基づいて
光ビームの光スポットが形成されている位置の3次元座
標を認識することを、光ビームの射出方向を変更させな
がら繰り返すことで生成される3次元モデルを記憶手段
に記憶したので、上記効果に加え、簡易な処理によって
3次元モデルを得ることができる、という効果を有す
る。
According to a third aspect of the present invention, in the first aspect of the present invention, a light beam is emitted toward a pointed object or a pointed space, and a pointing operation is performed near a predetermined position at which a pointing operation is performed by a user. A plurality of images obtained by respectively capturing a designated object or a designated space by a plurality of imaging devices installed at different positions near the height estimated to correspond to the head of the user who is performing the operation Since the three-dimensional model generated by repeating the recognition of the three-dimensional coordinates of the position where the light spot of the light beam is formed based on the above while changing the emission direction of the light beam is stored in the storage means, In addition to the above effects, there is an effect that a three-dimensional model can be obtained by simple processing.

【0101】請求項4記載の発明は、請求項3記載の発
明において、複数の撮像装置を互いに異なる高さに設置
した状態で各々生成された複数の3次元モデルを記憶手
段に記憶し、撮像によって得られた複数の画像に基づい
て利用者の頭部の高さを判断し、複数の3次元モデルの
うち判断した高さに対応する3次元モデルを用いて指示
位置の判断を行うので、上記効果に加え、利用者の指示
動作による指示位置を利用者の体格等に拘らず正確に判
断できる、という効果を有する。
According to a fourth aspect of the present invention, in the third aspect of the present invention, a plurality of three-dimensional models generated in a state in which a plurality of image pickup devices are installed at different heights are stored in a storage means, and image pickup is performed. Since the height of the head of the user is determined based on the plurality of images obtained by, and the designated position is determined using the three-dimensional model corresponding to the determined height among the plurality of three-dimensional models, In addition to the above effects, there is an effect that the position pointed by the user's pointing operation can be accurately determined regardless of the physique of the user.

【0102】請求項6記載の発明は、請求項1記載の発
明において、光ビームの射出方向と、光ビームによって
光スポットが形成される位置の3次元座標が対応付けさ
れた射出方向制御情報を記憶手段に記憶しておき、指示
位置に光ビームを照射させるための光ビームの射出方向
を射出方向制御情報に基づいて判断するので、上記効果
に加え、指示位置に光ビームを照射することを容易に実
現できる、という効果を有する。
According to a sixth aspect of the present invention, in the first aspect of the invention, the emission direction control information is associated with the emission direction of the light beam and the three-dimensional coordinates of the position where the light spot is formed by the light beam. Since the emission direction of the light beam for irradiating the light beam to the designated position is determined based on the emission direction control information, it is possible to store the light beam at the designated position in addition to the above effect. It has an effect that it can be easily realized.

【0103】請求項8記載の発明は、請求項1記載の発
明において、光ビームの照射位置が所定範囲から外れる
場合には光ビームの射出を停止するので、上記効果に加
え、利用者による指示位置のずれや判断手段の誤判断等
に拘らず、光ビーム射出手段から射出される光ビームが
所定範囲外を照射することを防止することができ、安全
性を確保することができる、という効果を有する。
According to the invention described in claim 8, in the invention according to claim 1, the emission of the light beam is stopped when the irradiation position of the light beam is out of a predetermined range. The effect that the light beam emitted from the light beam emitting means can be prevented from irradiating the light beam outside the predetermined range regardless of the positional deviation and the erroneous determination of the determining means, and the safety can be ensured Have.

【0104】請求項9記載の発明は、請求項1記載の発
明において、指示位置が表示手段の表示面内である場合
には、光ビームの射出を停止させると共に、表示面内の
指示位置に相当する箇所に指示位置を明示する画像を表
示させるので、上記効果に加え、利用者の指示動作によ
る指示位置が表示手段の表示面内か表示面外かに拘ら
ず、継ぎ目のない(シームレスな)指示位置の明示を実
現することができる、という効果を有する。
According to a ninth aspect of the invention, in the invention according to the first aspect, when the designated position is within the display surface of the display means, the emission of the light beam is stopped and the designated position within the display surface is reached. In addition to the above-mentioned effect, the image indicating the designated position is displayed at the corresponding position. In addition to the above effect, there is no seam (seamless) regardless of whether the designated position by the user's pointing motion is inside or outside the display surface of the display means. ) There is an effect that it is possible to realize the indication of the designated position.

【0105】請求項10記載の発明は、請求項1記載の
発明において、指示位置が所定の物体に対応する位置で
ある場合に、所定の物体に関する情報を表す画像を表示
手段に表示させること、及び、所定の物体に関する情報
を表す音声を音声出力手段によって出力させることの少
なくとも一方を行うので、上記効果に加え、利用者が所
望の情報を容易に取得することが可能となる、という効
果を有する。
According to a tenth aspect of the present invention, in the first aspect of the present invention, when the designated position is a position corresponding to a predetermined object, an image representing information on the predetermined object is displayed on the display means. Also, since at least one of outputting the voice representing the information regarding the predetermined object by the voice output means is performed, the effect that the user can easily obtain desired information in addition to the above-mentioned effect is obtained. Have.

【図面の簡単な説明】[Brief description of drawings]

【図1】 ハンドポインティング装置の概略構成図であ
る。
FIG. 1 is a schematic configuration diagram of a hand pointing device.

【図2】 ハンドポインティング装置の電気系の概略構
成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of an electric system of the hand pointing device.

【図3】 レーザ光源及び偏向装置の一例を示す斜視図
である。
FIG. 3 is a perspective view showing an example of a laser light source and a deflection device.

【図4】 セットアップ装置が設置された状態を示す概
略図である。
FIG. 4 is a schematic view showing a state in which a setup device is installed.

【図5】 セットアップ処理の内容を示すフローチャー
トである。
FIG. 5 is a flowchart showing the contents of setup processing.

【図6】 指示判断処理の内容を示すフローチャートで
ある。
FIG. 6 is a flowchart showing the contents of an instruction determination process.

【図7】 特徴点・基準点座標演算処理の内容を示すフ
ローチャートである。
FIG. 7 is a flowchart showing the contents of feature point / reference point coordinate calculation processing.

【図8】 2台のビデオカメラの撮像によって得られた
画像に基づく特徴点の3次元座標の演算を説明するため
の概念図である。
FIG. 8 is a conceptual diagram for explaining calculation of three-dimensional coordinates of feature points based on images obtained by image pickup by two video cameras.

【図9】 利用者の指示動作による指示位置の判定を説
明するための、(A)は情報入力空間の平面図、(B)
及び(C)は情報入力空間の側面図である。
9A and 9B are plan views of an information input space, and FIG. 9B is a diagram for explaining determination of a pointed position by a pointing operation of a user.
And (C) are side views of the information input space.

【図10】 (A)は前進クリック動作、(B)は後進
クリック動作を説明するためのイメージ図である。
10A is an image diagram for explaining a forward click operation, and FIG. 10B is an image diagram for explaining a backward click operation.

【符号の説明】[Explanation of symbols]

10 ハンドポインティング装置 20 ディスプレイ 22 スピーカ 28A ビデオカメラ 28B ビデオカメラ 32 レーザ光源 34 偏向装置 42 制御部 44 記憶部 46 セットアップ装置 48 昇降ステージ 50 ビデオカメラ 54 仮想線 10 Hand pointing device 20 display 22 speakers 28A video camera 28B video camera 32 laser light source 34 Deflection device 42 Control unit 44 memory 46 setup equipment 48 lift stage 50 video camera 54 virtual line

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 340 G06T 1/00 340Z Fターム(参考) 2H041 AA12 AB14 AC04 AZ05 5B020 AA15 CC12 CC20 DD06 5B057 BA02 CA08 CA12 CA16 CB20 CC01 DA08 DB02 DB09 DC01 5B068 AA05 AA36 BD09 BE03 BE08 CC06 5B087 AA09 AB09 AE03 BC12 BC13 BC26 BC32 DE07 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 1/00 340 G06T 1/00 340Z F term (reference) 2H041 AA12 AB14 AC04 AZ05 5B020 AA15 CC12 CC20 DD06 5B057 BA02 CA08 CA12 CA16 CB20 CC01 DA08 DB02 DB09 DC01 5B068 AA05 AA36 BD09 BE03 BE08 CC06 5B087 AA09 AB09 AE03 BC12 BC13 BC26 BC32 DE07

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 利用者が所望の位置を指し示す指示動作
を行うことで指し示される被指示物体又は被指示空間の
各部の3次元座標を表す3次元モデルを記憶する記憶手
段と、 互いに異なる複数の方向から利用者を撮像する撮像手段
と、 利用者が指示動作を行っている状況を前記撮像手段が撮
像することで得られた複数の画像と前記記憶手段に記憶
されている3次元モデルに基づいて、前記利用者の指示
動作による指示位置を判断する判断手段と、 前記判断手段によって判断された指示位置に光ビームが
照射されるように光ビームを射出する光ビーム射出手段
と、 を含む指示位置表示装置。
1. A storage unit for storing a three-dimensional model representing the three-dimensional coordinates of a designated object or each portion of a designated space pointed by a user performing a pointing operation to point to a desired position, and a plurality of storage units different from each other. To the three-dimensional model stored in the storage means and a plurality of images obtained by the imaging means capturing the situation in which the user is performing the instruction operation. And a light beam emitting unit for emitting a light beam so that the light beam is irradiated to the pointed position determined by the determination unit. Pointing position display device.
【請求項2】 前記判断手段は、前記複数の画像に基づ
いて利用者の指示動作による指示方向を判断し、前記記
憶手段に記憶されている3次元モデルに基づいて、利用
者から前記判断した指示方向に沿って延びる仮想線上に
存在する最寄りの物体を認識し、認識した物体と前記仮
想線との交点を指示位置と判断することを特徴とする請
求項1記載の指示位置表示装置。
2. The judging means judges a pointing direction according to a user's pointing operation based on the plurality of images, and the user makes the judgment based on a three-dimensional model stored in the storage means. 2. The pointing position display device according to claim 1, wherein a nearest object existing on a virtual line extending along the pointing direction is recognized, and an intersection of the recognized object and the virtual line is determined as a pointing position.
【請求項3】 前記記憶手段に記憶されている3次元モ
デルは、利用者によって指示動作が行われる所定位置付
近で、かつ指示動作を行っている利用者の頭部に相当す
ると推定される高さ付近の互いに異なる位置に複数の撮
像装置を設置した状態で、前記被指示物体又は被指示空
間へ向けて前記光ビーム射出手段から光ビームを射出さ
せ、前記複数の撮像装置によって前記被指示物体又は被
指示空間を各々撮像することで得られた複数の画像に基
づいて前記光ビームの光スポットが形成されている位置
の3次元座標を認識することを、前記光ビーム射出手段
からの光ビームの射出方向を変更させながら繰り返すこ
とで生成されることを特徴とする請求項1記載の指示位
置表示装置。
3. The height of the three-dimensional model stored in the storage means is estimated to be near a predetermined position at which the user performs the pointing motion and is equivalent to the head of the user performing the pointing motion. In the state where a plurality of image pickup devices are installed at different positions near each other, a light beam is emitted from the light beam emitting means toward the pointed object or the pointed space, and the pointed object is output by the plurality of image pickup devices. Alternatively, recognizing the three-dimensional coordinates of the position where the light spot of the light beam is formed on the basis of a plurality of images obtained by imaging the designated space, The pointing position display device according to claim 1, wherein the pointing position display device is generated by repeating the ejection direction while changing the ejection direction.
【請求項4】 前記記憶手段には、前記複数の撮像装置
を互いに異なる高さに設置した状態で各々生成された複
数の3次元モデルが記憶されており、 前記判断手段は、前記複数の画像に基づいて利用者の頭
部の高さを判断し、記憶手段に記憶されている複数の3
次元モデルのうち、前記判断した高さに対応する3次元
モデルを用いて前記指示位置の判断を行うことを特徴と
する請求項3記載の指示位置表示装置。
4. The storage means stores a plurality of three-dimensional models generated in a state in which the plurality of image pickup devices are installed at different heights, and the determination means stores the plurality of images. The height of the head of the user is determined based on the
The pointing position display device according to claim 3, wherein the pointing position is determined by using a three-dimensional model corresponding to the determined height among the dimensional models.
【請求項5】 前記光ビーム射出手段は、光ビームを射
出する光源と、前記光源から入射された光ビームを任意
の方向に射出可能な射出方向変更手段と、前記射出方向
変更手段から射出される光ビームが前記判断手段によっ
て判断された指示位置に照射されるように、前記射出方
向変更手段を制御する射出方向制御手段と、を含んで構
成されていることを特徴とする請求項1記載の指示位置
表示装置。
5. The light beam emitting means emits a light source for emitting a light beam, an emitting direction changing means capable of emitting the light beam incident from the light source in an arbitrary direction, and the emitting direction changing means. 2. An emission direction control unit that controls the emission direction changing unit so that a light beam to be emitted is irradiated to the designated position determined by the determination unit. Pointing position display device.
【請求項6】 前記記憶手段には、前記光ビーム射出手
段による光ビームの射出方向と、射出された光ビームに
よって光スポットが形成される位置の3次元座標が対応
付けされた射出方向制御情報が記憶されており、 前記光ビーム射出手段は、前記判断手段によって判断さ
れた指示位置に光ビームを照射させるための光ビームの
射出方向を、前記記憶手段に記憶されている前記射出方
向制御情報に基づいて判断することを特徴とする請求項
1記載の指示位置表示装置。
6. The emission direction control information in which the storage unit associates the emission direction of the light beam by the light beam emission unit with the three-dimensional coordinates of the position where a light spot is formed by the emitted light beam. The light beam emitting means stores the light beam emitting direction for irradiating the light beam to the pointing position determined by the determining means, the light emitting direction control information stored in the storage means. The pointing position display device according to claim 1, wherein the determination is made based on
【請求項7】 前記射出方向制御情報は、被指示物体又
は被指示空間の3次元モデルが生成される際に同時に生
成されることを特徴とする請求項6記載の指示位置表示
装置。
7. The pointing position display device according to claim 6, wherein the emission direction control information is generated at the same time when the three-dimensional model of the designated object or the designated space is generated.
【請求項8】 前記光ビーム射出手段は、光ビームの照
射位置が所定範囲から外れる場合には光ビームの射出を
停止することを特徴とする請求項1記載の指示位置表示
装置。
8. The pointing position display device according to claim 1, wherein the light beam emitting means stops the emission of the light beam when the irradiation position of the light beam deviates from a predetermined range.
【請求項9】 任意の画像を表示可能な表示手段と、 前記判断手段によって判断された指示位置が前記表示手
段の表示面内である場合には、前記光ビーム射出手段か
らの光ビームの射出を停止させると共に、前記表示面内
の前記指示位置に相当する箇所に指示位置を明示する画
像が表示されるように制御する第1制御手段と、 を更に備えたことを特徴とする請求項1記載の指示位置
表示装置。
9. A display unit capable of displaying an arbitrary image, and when the designated position determined by the determination unit is within the display surface of the display unit, a light beam is emitted from the light beam emitting unit. And a first control unit for controlling so that an image that clearly indicates the designated position is displayed at a position corresponding to the designated position on the display surface. The indicated position display device described.
【請求項10】 任意の画像を表示可能な表示手段及び
任意の音声を出力可能な音声出力手段の少なくとも一方
と、 利用者が指示動作によって指し示すことが可能な所定の
物体に関する情報を表す画像及び音声の少なくとも一方
のデータを記憶するデータ記憶手段と、 前記判断手段によって判断された指示位置が前記所定の
物体に対応する位置である場合に、前記データ記憶手段
に記憶されているデータに基づいて、前記所定の物体に
関する情報を表す画像を前記表示手段に表示させるこ
と、及び、前記所定の物体に関する情報を表す音声を前
記音声出力手段によって出力させることの少なくとも一
方を行う第2制御手段と、 を更に備えたことを特徴とする請求項1記載の指示位置
表示装置。
10. At least one of a display unit capable of displaying an arbitrary image and a voice output unit capable of outputting an arbitrary voice, an image representing information on a predetermined object which can be pointed by a user by an instruction operation, and Data storage means for storing at least one data of voice, and based on the data stored in the data storage means when the designated position determined by the determination means is a position corresponding to the predetermined object Second control means for performing at least one of displaying an image representing information on the predetermined object on the display means and causing a sound representing information on the predetermined object to be output by the audio output means, The pointing position display device according to claim 1, further comprising:
【請求項11】 前記判断手段によって判断された指示
位置に、外部からの指示に応じて特定の動作を行うこと
が可能な物体が存在しており、かつ、前記撮像手段が撮
像することで得られた複数の画像に基づいて、利用者が
所定の動作を行ったことを検知した場合に、前記物体が
前記特定の動作を行うように制御する第3制御手段を更
に備えたことを特徴とする請求項1記載の指示位置表示
装置。
11. An object capable of performing a specific operation in accordance with an instruction from the outside is present at the pointing position determined by the determination means, and the object is obtained by capturing an image by the image capturing means. A third control means for controlling the object to perform the specific operation when it is detected that the user has performed a predetermined operation based on the plurality of captured images. The pointing position display device according to claim 1.
【請求項12】 利用者が所望の位置を指し示す指示動
作を行うことで指し示される被指示物体又は被指示空間
の各部の3次元座標を表す3次元モデルを記憶手段に記
憶しておき、 互いに異なる複数の方向から利用者を撮像する撮像手段
によって前記利用者が指示動作を行っている状況を撮像
し、 前記撮像によって得られた複数の画像と前記記憶手段に
記憶されている3次元モデルに基づいて、前記利用者の
指示動作による指示位置を判断し、 前記判断した指示位置に光ビームが照射されるように光
ビーム射出手段から光ビームを射出させる指示位置表示
方法。
12. A storage unit stores a three-dimensional model representing three-dimensional coordinates of a pointed object pointed by a user performing a pointing operation pointing at a desired position or each part of the pointed space, and the two types are mutually stored. A situation in which the user is performing an instruction operation is captured by an image capturing unit that captures the user from a plurality of different directions, and a plurality of images obtained by the image capturing and a three-dimensional model stored in the storage unit are captured. A pointed position display method for determining a pointed position based on the pointing operation of the user based on the above, and causing a light beam to be emitted from the light beam emitting means so that the light beam is irradiated to the determined pointed position.
JP2001280540A 2001-09-14 2001-09-14 Device and method for displaying pointed position Pending JP2003084229A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001280540A JP2003084229A (en) 2001-09-14 2001-09-14 Device and method for displaying pointed position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001280540A JP2003084229A (en) 2001-09-14 2001-09-14 Device and method for displaying pointed position

Publications (1)

Publication Number Publication Date
JP2003084229A true JP2003084229A (en) 2003-03-19

Family

ID=19104516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001280540A Pending JP2003084229A (en) 2001-09-14 2001-09-14 Device and method for displaying pointed position

Country Status (1)

Country Link
JP (1) JP2003084229A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224646A (en) * 2009-03-19 2010-10-07 Dainippon Printing Co Ltd Exhibit information providing system, method, program, and recording medium
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
JP2012003442A (en) * 2010-06-16 2012-01-05 Dainippon Printing Co Ltd Information presentation device and presentation method for exhibition object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (en) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd Hand pointing input device
JPH08329222A (en) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd Three-dimensional position recognition device
JPH10326148A (en) * 1997-03-21 1998-12-08 Takenaka Komuten Co Ltd Hand pointing device
JPH11134089A (en) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd Hand pointing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (en) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd Hand pointing input device
JPH08329222A (en) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd Three-dimensional position recognition device
JPH10326148A (en) * 1997-03-21 1998-12-08 Takenaka Komuten Co Ltd Hand pointing device
JPH11134089A (en) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd Hand pointing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9164591B2 (en) 2008-02-27 2015-10-20 Qualcomm Incorporated Enhanced input using recognized gestures
US9507432B2 (en) 2008-02-27 2016-11-29 Qualcomm Incorporated Enhanced input using recognized gestures
US10025390B2 (en) 2008-02-27 2018-07-17 Qualcomm Incorporated Enhanced input using recognized gestures
US11561620B2 (en) 2008-02-27 2023-01-24 Qualcomm Incorporated Enhanced input using recognized gestures
US11954265B2 (en) 2008-02-27 2024-04-09 Qualcomm Incorporated Enhanced input using recognized gestures
JP2010224646A (en) * 2009-03-19 2010-10-07 Dainippon Printing Co Ltd Exhibit information providing system, method, program, and recording medium
JP2012003442A (en) * 2010-06-16 2012-01-05 Dainippon Printing Co Ltd Information presentation device and presentation method for exhibition object

Similar Documents

Publication Publication Date Title
JP4278979B2 (en) Single camera system for gesture-based input and target indication
JP4999734B2 (en) ENVIRONMENTAL MAP GENERATION DEVICE, METHOD, AND PROGRAM
US6385331B2 (en) Hand pointing device
JP4152402B2 (en) Surgery support device
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP3795647B2 (en) Hand pointing device
CA3016539A1 (en) Image processing method, display device, and inspection system
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
JP2000097636A (en) Device and method for positioning measuring head of non- contact three-dimensional measuring device
KR20020025198A (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
JPH1124839A (en) Information input device
US20080316203A1 (en) Information processing method and apparatus for specifying point in three-dimensional space
JP2006209359A (en) Apparatus, method and program for recognizing indicating action
JPH1031551A (en) Human interface system and high-speed moving body position detecting device using the same
JP2020106475A (en) Sensor system and distance measuring method
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP5727207B2 (en) Image monitoring device
JP3792907B2 (en) Hand pointing device
JP2007072194A (en) Man type picture control unit
US20190176341A1 (en) Movable robot capable of providing a projected interactive user interface
JP5597087B2 (en) Virtual object manipulation device
JP2001166881A (en) Pointing device and its method
JP2003084229A (en) Device and method for displaying pointed position
US20200184222A1 (en) Augmented reality tools for lighting design
JP4712754B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110712