JPH08328735A - Hand pointing input device - Google Patents

Hand pointing input device

Info

Publication number
JPH08328735A
JPH08328735A JP7136775A JP13677595A JPH08328735A JP H08328735 A JPH08328735 A JP H08328735A JP 7136775 A JP7136775 A JP 7136775A JP 13677595 A JP13677595 A JP 13677595A JP H08328735 A JPH08328735 A JP H08328735A
Authority
JP
Japan
Prior art keywords
information
image
finger
predetermined
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7136775A
Other languages
Japanese (ja)
Inventor
Kenichi Harakawa
健一 原川
Norio Igawa
憲男 井川
Kenichi Unno
健一 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP7136775A priority Critical patent/JPH08328735A/en
Publication of JPH08328735A publication Critical patent/JPH08328735A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: To perform hand pointing input without moving a television camera or performing focus adjustment. CONSTITUTION: The plural television camera are respectively provided with a fisheye lens and a CCD area image sensor. The coordinate P(x,y,z) of the tip of an index finger and the coordinate P2 (x2 , y2 , z2 ) of the base of the index finger are computed by a prescribed formula from the values of the coordinate PL (α1 , β1 ) on the CCD screen of the camera L and the coordinate PR (α1 ; β1 ,) on the CCD screen of the camera R, the three-dimensional coordinate of a point T where an extension line for connecting the coordinate P (z, y, z) and the three-dimensional coordinate P2 (x2 , y2 , z2 ) of the base of the index finger crosses a large-sized liquid crystal display is computed and a cursor is displayed at the point T. When a thumb is raised, information displayed by the large-sized liquid crystal display present at the point T is obtained as the information inputted by an object to be recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はハンドポインティング入
力装置に係り、特に機器に接触することなく指又は腕の
動作により情報を入力するハンドポインティング入力装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hand pointing input device, and more particularly to a hand pointing input device for inputting information by the action of a finger or an arm without touching a device.

【0002】[0002]

【従来の技術】本発明の基礎となった特開平第5−32
4181号公報(出願人:株式会社竹中工務店)に記載
のハンドポインティング入力装置について、図23を参
照して説明する。
2. Description of the Related Art Japanese Unexamined Patent Publication No. 5-32, which is the basis of the present invention
The hand pointing input device described in Japanese Patent No. 4181 (Applicant: Takenaka Corporation) will be described with reference to FIG.

【0003】上記ハンドポインティング入力装置は、所
定の情報を表示するディスプレイ91と、ディスプレイ
91に対して指し示された情報入力者の手95又は指9
6、97を撮像する複数の撮像手段93、94と、これ
等の撮像手段93、94に撮像された映像を基に、ディ
スプレイ91に対して手95又は指96が指し示す方向
を算出する方向算出手段98Cと、方向算出手段98C
で算出された方向に対応するディスプレイ91上の位置
をカーソル92によりディスプレイ91上に表示する位
置表示手段98Dと、手95又は指97のクリック動作
を検出するクリック動作検出手段98Eと、クリック動
作検出手段98Eによりクリック動作が検出された時に
カーソル92が位置する部分の情報を情報入力者が指示
した情報として選択する選択手段98Bとを有して構成
されている。
The above-mentioned hand pointing input device is a display 91 for displaying predetermined information, and an information input person's hand 95 or finger 9 pointed to the display 91.
A plurality of image pickup means 93, 94 for picking up images 6, 97, and a direction calculation for calculating the direction pointed by the hand 95 or finger 96 with respect to the display 91 based on the images picked up by these image pickup means 93, 94 Means 98C and Direction Calculation Means 98C
The position display means 98D for displaying the position on the display 91 corresponding to the direction calculated in step 9 on the display 91 by the cursor 92, the click operation detecting means 98E for detecting the click operation of the hand 95 or the finger 97, and the click operation detection. The selection means 98B is configured to select the information of the portion where the cursor 92 is located as the information instructed by the information input person when the click operation is detected by the means 98E.

【0004】このハンドポインティング入力装置によれ
ば、情報入力者がディスプレイ91の前で、手95又は
指96によりディスプレイ91の情報を指示すると、撮
像手段93、94により撮像された映像を基に、ディス
プレイ91に対して手95又は指96が指し示す方向が
算出され、算出された方向に対応するディスプレイ91
上の位置に、カーソル92が移動され、この後、カーソ
ル92の位置を情報入力者が確認してクリック動作を行
うと、クリック動作を行った時にカーソル92が位置す
る部分の情報が、情報入力者が指示した情報として入力
される。このように、情報入力者は機器に接触すること
なく手又は指の動作のみにより、コンピュータ等に情報
を入力することができる。
According to this hand pointing input device, when the information input person points the information of the display 91 with the hand 95 or the finger 96 in front of the display 91, based on the images picked up by the image pickup means 93, 94, The direction indicated by the hand 95 or the finger 96 is calculated with respect to the display 91, and the display 91 corresponding to the calculated direction is calculated.
When the information input person confirms the position of the cursor 92 and then performs the click operation, the cursor 92 is moved to the upper position, and when the click operation is performed, the information of the portion where the cursor 92 is located is the information input. It is input as information instructed by the person. In this way, the information input person can input information to the computer or the like only by the action of the hand or finger without touching the device.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記開
示されたハンドポインティング入力装置では、手又は指
が指し示す方向を算出するために情報入力者の手又は指
を撮影する必要があるので、撮像手段を動かしたり焦点
調整を行わなければならない。このため、ディスプレイ
上にカーソルを表示するまでに遅延時間が生ずる、とい
う問題点がある。
However, in the hand pointing input device disclosed above, it is necessary to photograph the hand or finger of the information input person in order to calculate the direction pointed by the hand or finger. You have to move it and adjust the focus. Therefore, there is a problem that a delay time occurs until the cursor is displayed on the display.

【0006】また、撮像手段には撮像手段を動かしたり
焦点調整を行う機構的駆動部分が必要となるので、信頼
性や耐久性が低くなりがちである、という問題点があ
る。
Further, since the image pickup means needs a mechanical drive portion for moving the image pickup means and for adjusting the focus, there is a problem that reliability and durability tend to be low.

【0007】本発明は上記事実を考慮して、撮像手段を
動かしたり焦点調整を行うことなく情報入力者が指示し
た情報を取得することができるハンドポインティング入
力装置を提供することを目的とする。
In view of the above facts, an object of the present invention is to provide a hand pointing input device capable of acquiring information instructed by an information input person without moving the image pickup means or adjusting the focus.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明は、所定の画像を表示する表
示手段と、予め定められた位置に配置され、90°以上
の視野角を有する広角固定焦点レンズ及び該レンズによ
る結像点に配設されたエリアセンサを備え、視野内に存
在する情報入力者としての被認識対象を含む所定の領域
を各々異なる位置から撮像する複数の撮像手段と、前記
複数の撮像手段により撮像された各々異なる撮像情報を
処理して被認識対象の指又は腕を認識する認識手段と、
前記認識手段により認識された被認識対象の指又は腕が
指し示す方向の延長線上にある前記表示手段上の位置を
演算する位置演算手段と、前記位置演算手段により演算
された前記表示手段上の位置を表示する位置表示手段
と、前記複数の撮像手段により新たに撮像された各々異
なる撮像情報を処理して被認識対象の指又は腕による予
め定められた動作を検出する動作検出手段と、前記動作
検出手段により予め定められた動作が検出されたとき
に、前記位置表示手段により表示された位置にある前記
表示手段が表示した情報を被認識対象が入力した入力情
報として取得する入力情報取得手段と、を備えている。
In order to achieve the above object, the invention according to claim 1 has a display means for displaying a predetermined image and a visual field of 90 ° or more arranged at a predetermined position. A plurality of fixed-angle lenses each having an angle and an area sensor arranged at an image forming point formed by the lenses, and a plurality of images of a predetermined region including a recognition target as an information input person existing in the field of view are captured from different positions. Image pickup means, and recognition means for recognizing a finger or an arm to be recognized by processing different image pickup information picked up by the plurality of image pickup means,
Position calculation means for calculating a position on the display means on an extension of the direction indicated by the recognition target finger or arm recognized by the recognition means, and a position on the display means calculated by the position calculation means A position display means for displaying, a motion detection means for processing different imaging information newly captured by the plurality of imaging means to detect a predetermined motion by a finger or an arm to be recognized, and the motion An input information acquisition unit that acquires, when the predetermined motion is detected by the detection unit, the information displayed by the display unit at the position displayed by the position display unit as the input information input by the recognition target; , Are provided.

【0009】請求項2に記載の発明は、所定の画像を表
示する表示手段と、予め定められた位置に配置され、9
0°以上の視野角を有する広角固定焦点レンズ及び該レ
ンズによる結像点に配設されたエリアセンサを備え、視
野内に存在する情報入力者としての被認識対象を含む所
定の領域を撮像する撮像手段と、前記撮像手段の近傍に
配置され、前記エリアセンサ上に結像するように被認識
対象の像を反射する反射手段と、前記撮像手段により撮
像された撮像情報を処理して被認識対象の指又は腕を認
識する認識手段と、前記認識手段により認識された被認
識対象の指又は腕が指し示す方向の延長線上にある前記
表示手段上の位置を演算する位置演算手段と、前記位置
演算手段により演算された前記表示手段上の位置を表示
する位置表示手段と、前記撮像手段により新たに撮像さ
れた撮像情報を処理して被認識対象の指又は腕による予
め定められた動作を検出する動作検出手段と、前記動作
検出手段により予め定められた動作が検出されたとき
に、前記位置表示手段により表示された位置にある前記
表示手段が表示した情報を被認識対象が入力した入力情
報として取得する入力情報取得手段と、を備えている。
According to a second aspect of the present invention, a display means for displaying a predetermined image and a display means arranged at a predetermined position are provided.
A wide-angle fixed-focus lens having a viewing angle of 0 ° or more and an area sensor arranged at an image forming point by the lens are provided, and a predetermined area including a recognition target as an information input person existing in the visual field is imaged. Image pickup means, reflecting means arranged near the image pickup means for reflecting an image of a recognition target so as to form an image on the area sensor, and recognition information obtained by processing the image pickup information picked up by the image pickup means. Recognizing means for recognizing a target finger or arm, position calculating means for calculating a position on the display means on an extension line of a direction pointed by the recognized target finger or arm recognized by the recognizing means, and the position Position display means for displaying the position on the display means calculated by the calculation means, and predetermined movement by the finger or arm to be recognized by processing the image pickup information newly picked up by the image pickup means An input by which the recognition target has input the information displayed by the display means at the position displayed by the position display means when the predetermined operation is detected by the operation detection means And input information acquisition means for acquiring it as information.

【0010】そして、請求項3に記載の発明は、所定の
画像を表示する表示手段と、予め定められた位置に配置
され、90°以上の視野角を有する広角固定焦点レンズ
及び該レンズによる結像点に配設されたエリアセンサを
備え、視野内に存在する情報入力者としての被認識対象
を含む所定の領域を既知パターンを背景として各々異な
る位置から撮像する複数の撮像手段と、前記複数の撮像
手段により撮像された各々異なる撮像情報と前記既知パ
ターンに関する情報とに基づいて被認識対象の指又は腕
を認識する認識手段と、前記認識手段により認識された
被認識対象の指又は腕が指し示す方向の延長線上にある
前記表示手段上の位置を演算する位置演算手段と、前記
位置演算手段により演算された前記表示手段上の位置を
表示する位置表示手段と、前記複数の撮像手段により新
たに撮像された各々異なる撮像情報を処理して被認識対
象の指又は腕による予め定められた動作を検出する動作
検出手段と、前記動作検出手段により予め定められた動
作が検出されたときに、前記位置表示手段により表示さ
れた位置にある前記表示手段が表示した情報を被認識対
象が入力した入力情報として取得する入力情報取得手段
と、を備えている。
According to the invention described in claim 3, a display means for displaying a predetermined image, a wide-angle fixed-focus lens arranged at a predetermined position and having a viewing angle of 90 ° or more, and a combination of the lenses. A plurality of image pickup means, each of which includes an area sensor disposed at an image point, and which picks up a predetermined region including a recognition target as an information input person existing in the visual field from different positions with a known pattern as a background; The recognition means for recognizing the finger or arm to be recognized based on the different imaging information captured by the image capturing means and the information about the known pattern, and the recognition target finger or arm recognized by the recognition means are Position calculation means for calculating the position on the display means on the extension of the pointing direction, and position display for displaying the position on the display means calculated by the position calculation means A step, a motion detection means for processing different imaging information newly imaged by the plurality of imaging means to detect a predetermined motion by the finger or arm to be recognized, and the motion detection means predetermined An input information acquisition unit that acquires the information displayed by the display unit at the position displayed by the position display unit as the input information input by the recognition target when the detected operation is detected. .

【0011】[0011]

【作用】請求項1に記載の発明によれば、表示手段で所
定の画像が表示される。複数の撮像手段は、予め定めら
れた位置に配置されている。この予め定められた位置
は、例えば、部屋の天井等の平面部の他、天井と壁の2
面の作る角部や天井と2面の壁の3面の作る角部とする
ことができる。複数の撮像手段は90°以上の視野角を
有する広角固定焦点レンズ及び該レンズによる結像点に
配設されたエリアセンサを備えている。広角固定焦点レ
ンズは90°以上の広い視野角を有するので、複数の撮
像手段を動かさずに被認識対象を撮像することができ
る。また、情報入力者としての被認識対象は床や地面か
らの高さが概ね決まっており、更に、広角固定焦点レン
ズは焦点深度を深くとることができので、複数の撮像手
段に焦点調整機構が備えられなくても、鮮明にエリアセ
ンサ上に被認識対象像を結像することができる。複数の
撮像手段により視野内に存在する情報入力者としての被
認識対象を含む所定の領域が各々異なる位置から撮像さ
れる。
According to the invention described in claim 1, a predetermined image is displayed on the display means. The plurality of image pickup means are arranged at predetermined positions. This predetermined position is, for example, a flat surface such as the ceiling of a room, or a ceiling and a wall.
It can be a corner formed by a surface or a corner formed by three surfaces such as a ceiling and two walls. The plurality of image pickup means are provided with a wide-angle fixed focus lens having a viewing angle of 90 ° or more and an area sensor arranged at an image forming point by the lenses. Since the wide-angle fixed focus lens has a wide viewing angle of 90 ° or more, it is possible to capture an image of a recognition target without moving a plurality of image capturing means. Further, since the height of the object to be recognized as an information input person from the floor or the ground is almost fixed, and the wide-angle fixed focus lens can have a deep depth of focus, a plurality of image pickup means are provided with a focus adjustment mechanism. Even if it is not, the recognition target image can be clearly formed on the area sensor. A plurality of image pickup means images a predetermined area including a recognition target as an information input person existing in the visual field from different positions.

【0012】認識手段により複数の撮像手段で撮像され
た各々異なる撮像情報が処理されて被認識対象の指又は
腕が認識される。被認識対象の指又は腕を認識するに
は、例えば、3次元空間を水平、垂直及び鉛直の各方向
に沿って仮想的に細分割することにより得られる多数の
立方体状の微小空間の集合体として、複数の撮像手段に
より撮像された各々異なる画像情報から被認識対象の指
又は腕が占有する当該微小領域を求めることで認識して
もよいし、また、例えば、複数の撮像手段により各々異
なる撮像情報を平面化した画像データに変換し、該変換
された画像データから少なくとも被認識対象の指又は腕
の正面、背面、左側面、右側面及び平面の画像データを
求め、該求められた画像データを合成することで認識し
てもよい。
The recognition means processes different pieces of image pickup information picked up by the plurality of image pickup means to recognize the finger or arm to be recognized. In order to recognize the recognition target finger or arm, for example, an assembly of a large number of cubic microspaces obtained by virtually subdividing a three-dimensional space along each of horizontal, vertical, and vertical directions. As the above, recognition may be performed by obtaining the minute area occupied by the finger or arm to be recognized from different image information captured by a plurality of image capturing means, or, for example, different by a plurality of image capturing means. The imaging information is converted into flattened image data, image data of at least the front surface, back surface, left side surface, right side surface and flat surface of the finger or arm to be recognized is obtained from the converted image data, and the obtained image It may be recognized by synthesizing data.

【0013】位置演算手段により認識手段で認識された
被認識対象の指又は腕が指し示す方向の延長線上にある
表示手段上の位置が演算される。位置表示手段により位
置演算手段で演算された表示手段上の位置が表示がされ
る。この位置表示手段による表示としては、例えば、カ
ーソル、枠、反転、濃度変化等の表示を採用することが
できる。動作検出手段により複数の撮像手段で新たに撮
像された各々異なる撮像情報が処理されて被認識対象の
指又は腕による予め定められた動作が検出される。入力
情報取得手段により、動作検出手段で予め定められた動
作が検出されたときに、位置表示手段により表示された
位置にある、表示手段が表示した情報が被認識対象が入
力した情報として取得される。
The position calculation means calculates the position on the display means on the extension line of the direction pointed by the finger or arm to be recognized, which is recognized by the recognition means. The position display means displays the position calculated by the position calculation means on the display means. As the display by the position display means, for example, display of a cursor, a frame, inversion, density change, etc. can be adopted. The motion detection means processes different pieces of imaged information newly imaged by the plurality of image pickup means to detect a predetermined motion by the finger or arm to be recognized. When the input information acquisition unit detects a predetermined motion by the motion detection unit, the information displayed by the display unit at the position displayed by the position display unit is acquired as the information input by the recognition target. It

【0014】このように、複数の撮像手段を動かし焦点
調整を行う必要がないので、速やかに表示手段上の位置
を表示することができると共に、信頼性や耐久性を高め
ることができる。
As described above, since it is not necessary to move the plurality of image pickup means to adjust the focus, it is possible to quickly display the position on the display means and to improve reliability and durability.

【0015】請求項2に記載のハンドポインティング入
力装置によれば、表示手段で所定の画像が表示される。
反射手段は撮像手段の近傍に配置されされている。この
反射手段は、例えば、壁に沿って配置したり、L字型で
もよく、また、湾曲したものであってもよい。反射手段
によりエリアセンサ上に結像するように被認識対象の像
が反射される。従って、エリアセンサ上には直接結像し
た被認識対象像及び反射手段により反射されて結像した
被認識対象像の複数の被認識対象像が結像する。撮像手
段により、視野内に存在する情報入力者としての被認識
対象を含む所定の領域が撮像される。認識手段により撮
像手段で撮像された撮像情報が処理されて被認識対象の
指又は腕が認識される。位置演算手段により認識手段で
認識された被認識対象の指又は腕が指し示す方向の延長
線上にある表示手段上の位置が演算される。位置表示手
段により位置演算手段で演算された表示手段上の位置が
表示される。動作検出手段により複数の撮像手段で新た
に撮像された各々異なる撮像情報が処理されて被認識対
象の指又は腕による予め定められた動作が検出される。
入力情報取得手段により、動作検出手段で予め定められ
た動作が検出されたときに、位置表示手段により表示さ
れた位置にある、表示手段が表示した情報が被認識対象
が入力した情報として取得される。このように、反射手
段により被認識対象像をエリアセンサ上に結像させるこ
とができるので、撮像手段が1つでも被認識対象が入力
した入力情報を取得することができる。
According to the hand pointing input device of the second aspect, the predetermined image is displayed on the display means.
The reflecting means is arranged near the image pickup means. The reflecting means may be arranged along a wall, may be L-shaped, or may be curved, for example. The image of the recognition target is reflected by the reflecting means so as to form an image on the area sensor. Therefore, a plurality of recognition target images of the recognition target image formed directly and the recognition target image reflected and formed by the reflecting means are formed on the area sensor. The image capturing means captures an image of a predetermined area including the object to be recognized as the information input person existing in the visual field. The recognition means processes the imaging information imaged by the imaging means to recognize the finger or arm to be recognized. The position calculation means calculates the position on the display means on the extension line in the direction indicated by the finger or arm to be recognized, which is recognized by the recognition means. The position on the display means calculated by the position calculation means is displayed by the position display means. The motion detection means processes different pieces of imaged information newly imaged by the plurality of image pickup means to detect a predetermined motion by the finger or arm to be recognized.
When the input information acquisition unit detects a predetermined motion by the motion detection unit, the information displayed by the display unit at the position displayed by the position display unit is acquired as the information input by the recognition target. It In this way, since the recognition target image can be formed on the area sensor by the reflecting means, it is possible to obtain the input information input by the recognition target even with only one imaging means.

【0016】請求項3に記載のハンドポインティング入
力装置によれば、表示手段で所定の画像が表示される。
複数の撮像手段により視野内に存在する情報入力者とし
ての被認識対象を含む所定の領域を既知パターンを背景
として各々異なる位置から撮像される。認識手段により
複数の撮像手段で撮像された各々異なる撮像情報と既知
パターンに関する情報とに基づいて被認識対象の指又は
腕が認識される。位置演算手段により認識手段で認識さ
れた被認識対象の指又は腕が指し示す方向の延長線上に
ある表示手段の位置が演算される。位置表示手段により
位置演算手段で演算された表示手段上の位置が表示がさ
れる。動作検出手段により複数の撮像手段により新たに
撮像された各々異なる撮像情報が処理されて被認識対象
の指又は腕による予め定められた動作が検出される。入
力情報取得手段により、動作検出手段で予め定められた
動作が検出されたときに、位置表示手段により表示され
た位置にある、表示手段が表示した情報が被認識対象が
入力した入力情報として取得される。
According to the hand pointing input device of the third aspect, a predetermined image is displayed on the display means.
A plurality of image capturing means captures images of a predetermined area including a recognition target as an information input person existing in the visual field from different positions with a known pattern as a background. The recognition means recognizes the finger or arm to be recognized based on the different imaging information captured by the plurality of imaging means and the information about the known pattern. The position calculation means calculates the position of the display means on the extension line in the direction indicated by the finger or arm to be recognized, which is recognized by the recognition means. The position display means displays the position calculated by the position calculation means on the display means. The motion detection means processes the different imaging information newly imaged by the plurality of imaging means to detect a predetermined motion by the finger or arm to be recognized. When the input information acquisition unit detects a predetermined motion by the motion detection unit, the information displayed by the display unit at the position displayed by the position display unit is acquired as the input information input by the recognition target. To be done.

【0017】[0017]

【実施例】以下、図面を参照して本発明に係るハンドポ
インティング入力装置の第1実施例について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of a hand pointing input device according to the present invention will be described below with reference to the drawings.

【0018】図1に示すように、ハンドポインティング
入力装置10は、3次元空間を構成する部屋34の天井
36に略等間隔でアレイ状に配置された撮像手段として
の複数のテレビカメラ30と、ハンドポインティング入
力装置10全体を制御する中央制御装置12と、部屋3
4の一壁面38に取り付けられた大型ディスプレイ26
と、で構成されている。これらの各テレビカメラ30と
中央制御装置12とは通信ケーブル28を介して接続さ
れている。なお、天井36には複数の照明灯32が固設
されている。
As shown in FIG. 1, the hand pointing input device 10 includes a plurality of television cameras 30 as image pickup means arranged in an array at substantially equal intervals on a ceiling 36 of a room 34 forming a three-dimensional space. The central control unit 12 for controlling the entire hand pointing input device 10 and the room 3
Large display 26 attached to one wall 38 of the No. 4
It consists of and. Each of these TV cameras 30 and the central controller 12 are connected via a communication cable 28. A plurality of illumination lamps 32 are fixedly installed on the ceiling 36.

【0019】各テレビカメラ30は、それぞれ広角固定
焦点レンズとしての魚眼レンズ30Aを備えており、魚
眼レンズ30Aの視野角は90°以上である。魚眼レン
ズには、例えば、等距離射影(equidistanc
e projection)型、立体射影型、等立体角
射影型、正射影型等の種々の種類があり、本実施例では
何れの魚眼レンズも使用可能であるが、以下、等距離射
影型の魚眼レンズを使用しているものとして説明する。
また、各テレビカメラはCCD(Charge−Cou
pled Device)エリアイメージセンサ30B
(図1には示さず)を備えており、部屋34内に存在す
る被認識対象としてのオブジェクト40を含む所定の領
域を撮像する。
Each television camera 30 has a fish-eye lens 30A as a wide-angle fixed focus lens, and the viewing angle of the fish-eye lens 30A is 90 ° or more. Fisheye lenses include, for example, equidistant projections.
There are various types such as e projection type, stereoscopic projection type, equisolid angle projection type, orthographic projection type, and any fisheye lens can be used in the present embodiment, but the equidistant projection type fisheye lens is used below. It is explained as what is done.
In addition, each TV camera has a CCD (Charge-Cou).
area image sensor 30B
(Not shown in FIG. 1) is provided, and a predetermined area including the object 40 as the recognition target existing in the room 34 is imaged.

【0020】中央制御装置12はバス20を備えてい
る。バス20には、ハンドポインティング入力装置10
全体の制御処理を行うCPU14、ハンドポインティン
グ入力装置10全体を制御する制御プログラムを記憶し
たROM16、制御プログラム実行時に使用するワーク
エリアであると共に各ビデオカメラ30で撮像した撮像
情報を画像データとして一時的に格納するRAM18及
び中央制御装置12の外部と信号を授受するためのI/
Oインターフェイス22が接続されている。I/Oイン
ターフェイス22には、ディスプレイ及びキーボード等
からなるコンソール24、大型ディスプレイ26を制御
するディスプレイ制御部26A及び上述した各テレビカ
メラ30が接続されている。
The central controller 12 comprises a bus 20. The bus 20 has a hand pointing input device 10
A CPU 14 that performs overall control processing, a ROM 16 that stores a control program that controls the entire hand-pointing input device 10, a work area that is used when the control program is executed, and imaging information captured by each video camera 30 is temporarily stored as image data. I / O for transmitting / receiving signals to / from the RAM 18 stored in
The O interface 22 is connected. The I / O interface 22 is connected to a console 24 including a display and a keyboard, a display control unit 26A that controls the large display 26, and the above-described television cameras 30.

【0021】なお、大型ディスプレイ26としては、大
型液晶ディスプレイ、大型プラズマディスプレイの他、
大型ブラウン管ディスプレイ、光ファイバディスプレイ
等のディスプレイを用いることができる。
As the large display 26, in addition to a large liquid crystal display and a large plasma display,
A display such as a large CRT display or an optical fiber display can be used.

【0022】次に、本実施例の作用について説明する。
中央制御装置12に設けられた図示しないスタートボタ
ンが押下されると、図2に示すハンドポインティング処
理ルーチンが実行される。なお、このハンドポインティ
ング処理ルーチンは所定時間間隔で繰り返して行われ
る。
Next, the operation of this embodiment will be described.
When a start button (not shown) provided in the central controller 12 is pressed, the hand pointing processing routine shown in FIG. 2 is executed. The hand pointing processing routine is repeatedly performed at predetermined time intervals.

【0023】まず、ステップ100では、オブジェクト
分別処理が行われる。このオブジェクト分別処理では、
図3に示すサブルーチンが実行される。ステップ140
では、オブジェクト40が部屋34内に存在しないとき
の画像データAをROM16から読み出し、次のステッ
プ142において各テレビカメラで撮像した画像データ
Bを各々取り込んでRAM18に格納する。次のステッ
プ144では画像データBと画像データAとの差をとっ
て部屋34にオブジェクト40が存在するかを分別する
(図6参照)。次にステップ146ではタイマを設定す
る。このタイマはCPU14によって構成される内部時
計を使用することができる。次のステップ148では、
タイムアウトとなったか否かを判断し、否定判断のとき
は、ステップ148に戻る。一方、肯定判断のときは、
次のステップ150において各テレビカメラで撮像した
画像データCを各々取り込む。次にステップ152では
RAM18に格納した画像データBを読み出し画像デー
タCとを比較することにより進行方向を求め、求めた進
行方向からオブジェクト40の前後を判断し(図6参
照)、前後の情報をRAM18に格納してステップ10
0へ戻る。
First, in step 100, object classification processing is performed. In this object classification process,
The subroutine shown in FIG. 3 is executed. Step 140
Then, the image data A when the object 40 does not exist in the room 34 is read from the ROM 16, and in the next step 142, the image data B picked up by each television camera is fetched and stored in the RAM 18. In the next step 144, the difference between the image data B and the image data A is taken to determine whether the object 40 exists in the room 34 (see FIG. 6). Next, in step 146, a timer is set. An internal clock configured by the CPU 14 can be used as this timer. In the next step 148,
It is determined whether or not the time-out has occurred, and if the determination is negative, the process returns to step 148. On the other hand, if the judgment is affirmative,
In the next step 150, the image data C picked up by each television camera is fetched. Next, in step 152, the image data B stored in the RAM 18 is read out and compared with the image data C to obtain the traveling direction, and the front and back of the object 40 is judged from the obtained traveling direction (see FIG. 6), and the front and rear information is obtained. Store in RAM 18 and step 10
Return to 0.

【0024】次のステップ102では、オブジェクトボ
クセル処理が行われる。このオブジェクトボクセル処理
では、図4に示すサブルーチンが実行される。ステップ
160では、オブジェクト40の位置及び高さを演算す
る。図7に示すように、点Oに固定された等距離射影型
魚眼レンズ30Aの焦点距離を焦点距離f、点Oから部
屋34の床面35に垂直に下ろした点Qまでの距離を距
離H、点Qからオブジェクト40の床面35上の点Pま
での距離を距離R、オブジェクト40の高さ(オブジェ
クト40の天井方向の先端を点P’としたときに点P’
と点Pとの距離)を高さhとする。また、点POQのな
す角を角θ、点P’OQのなす角を角θ’、CCDエリ
アイメージセンサ30BのCCD面上のオブジェクト像
をh’、オブジェクト像h’のうち点Pに対応して結像
した点を点p、オブジェクト像h’のうち点P’に対応
して結像した点を点p’、CCD面の画像中心(CCD
面の中心)oから点pまでの距離を距離r、CCD面の
画像中心oから点p’までの距離を距離r’とすると、
角θ、θ’、距離r、r’は次式(1)〜(4)により
求めることができる。
In the next step 102, object voxel processing is performed. In this object voxel processing, the subroutine shown in FIG. 4 is executed. In step 160, the position and height of the object 40 are calculated. As shown in FIG. 7, the focal length of the equidistant projection fisheye lens 30A fixed at the point O is the focal length f, and the distance from the point O to the point Q vertically lowered to the floor surface 35 of the room 34 is a distance H, The distance from the point Q to the point P on the floor surface 35 of the object 40 is the distance R, and the height of the object 40 (the point P ′ when the tip of the object 40 in the ceiling direction is the point P ′).
Is the height h. Further, the angle formed by the point POQ is the angle θ, the angle formed by the point P′OQ is the angle θ ′, the object image on the CCD surface of the CCD area image sensor 30B is h ′, and the object image h ′ corresponds to the point P. Point p, the point imaged corresponding to point P'in the object image h'is point p ', and the image center of the CCD surface (CCD
If the distance from the center o of the plane) o to the point p is r, and the distance from the image center o of the CCD plane to the point p'is r ',
The angles θ and θ ′ and the distances r and r ′ can be calculated by the following equations (1) to (4).

【0025】 θ=tan-1(R/H) ・・・・・(1) θ’=tan-1{R/(H−h)} ・・・・・(2) r=fθ ・・・・・(3) r’=fθ’ ・・・・・(4) 従って、高さh及び距離Rは次式(5)及び(6)によ
り求めることができる。
Θ = tan −1 (R / H) (1) θ ′ = tan −1 {R / (H−h)} (2) r = fθ .. (3) r '= f?' (4) Therefore, the height h and the distance R can be obtained by the following equations (5) and (6).

【0026】 h=H{1−tan(r/f)/tan(r’/f)}・・・(5) R=Htan(r/f) ・・・・・(6) なお、距離H及び焦点距離fは予め定められており、式
(5)及び式(6)はROM16に格納されている。こ
のため、ステップ160では、式(5)を読み出して1
台のテレビカメラのCCD面上の情報から高さhを演算
し、式(6)を読み出して2台のテレビカメラのCCD
面上の情報からそれぞれ距離Rを求め、求めた2つの距
離Rからオブジェクト40の2次元位置を演算する。
H = H {1-tan (r / f) / tan (r ′ / f)} (5) R = Htan (r / f) (6) Note that the distance H And the focal length f are predetermined, and the equations (5) and (6) are stored in the ROM 16. Therefore, in step 160, the equation (5) is read and
The height h is calculated from the information on the CCD surfaces of the two TV cameras, and the equation (6) is read to read the CCDs of the two TV cameras.
The distance R is obtained from the information on each surface, and the two-dimensional position of the object 40 is calculated from the obtained two distances R.

【0027】次にステップ162では、上記ステップ1
60で演算した位置を中心として3次元空間をX方向、
Y方向及びZ方向に沿って仮想的に細分割したメッシュ
状の微小領域であるボクセルを設定する。これにより、
画像データCはボクセルの集合体に変換される。図8は
4台のテレビカメラA、B、C及びDからオブジェクト
40を見たとき、オブジェクト40が占有するボクセル
を概念的に示したものである。各テレビカメラからオブ
ジェクト40を見たときはそれぞれ影(死角)の部分R
A 、RB 、RC 及びRD が生じるが、影の部分は各テレ
ビカメラからは見えないので、これら影の部分もオブジ
ェクト40が占有するボクセルとして設定される。な
お、ボクセルは、CCDエリアイメージセンサ30Bの
解像度の限界まで細分割することが可能である。
Next, in step 162, the above step 1
A three-dimensional space around the position calculated in 60 in the X direction,
A voxel, which is a mesh-shaped minute region that is virtually subdivided along the Y direction and the Z direction, is set. This allows
The image data C is converted into a set of voxels. FIG. 8 conceptually shows voxels occupied by the object 40 when the object 40 is viewed from the four television cameras A, B, C and D. When the object 40 is viewed from each TV camera, the shadow R is a blind spot.
Although A , R B , R C, and R D occur, since the shadow part is not visible from each TV camera, these shadow parts are also set as voxels occupied by the object 40. The voxels can be subdivided up to the resolution limit of the CCD area image sensor 30B.

【0028】次のステップ162では、オブジェクト4
0の高さhにより画像データのうちオブジェクトが占有
するボクセルを限定する第1次絞り込みを行う。図9
(A)〜(D)は、4台のテレビカメラの画像データか
ら第1次絞り込みを行ったときのボクセルの概念を示し
たものである。
In the next step 162, object 4
The primary narrowing down is performed by limiting the voxels occupied by the object in the image data by the height h of 0. Figure 9
(A) to (D) show the concept of voxels when the primary narrowing-down is performed from the image data of four TV cameras.

【0029】次にステップ166では第1次絞り込み領
域のうち各画像データからオブジェクト像の重複する部
分のボクセルを残す第2次絞り込みを行って(図9参
照)、ステップ102へ戻る。これにより、図8に示し
た影の領域RA 、RB 、RC 及びRD はオブジェクト像
が占有するボクセルから排除される。図10は、各画像
データを合成したときにオブジェクト像が占めるボクセ
ル50を概念的に示したものである。
Next, in step 166, the secondary narrowing is performed from each image data in the primary narrowing region to leave voxels in the overlapping portions of the object image (see FIG. 9), and the process returns to step 102. As a result, the shadow regions R A , R B , R C, and R D shown in FIG. 8 are excluded from the voxels occupied by the object image. FIG. 10 conceptually shows the voxels 50 occupied by the object image when the respective image data are combined.

【0030】次のステップ104では、RAM18に格
納した前後情報及びROM16に格納されている人の高
さ、頭部の色差、目、鼻、口、耳の位置、腕の長さや位
置、つま先の向き、関節の自由度等の特徴点情報を読み
出して、ステップ106においてボクセル50で表され
たオブジェクト40が人か否かを判断する。否定判断の
ときは、オブジェクトは人(情報入力者)でないので、
ハンドポインティング処理ルーチンを終了する。一方、
肯定判断のときは、ステップ108においてボクセル5
0からオブジェクト40の高さ、太さ等のパラメータを
決定し、決定したパラメータにより人の外観に似せたダ
ミーモデル60に変換する。図11にボクセル50から
ダミーモデル60に変換するときの概念を示す。
In the next step 104, the front and rear information stored in the RAM 18 and the height of the person stored in the ROM 16, the color difference of the head, the positions of the eyes, nose, mouth, and ears, the length and position of the arm, and the toes The characteristic point information such as the orientation and the degree of freedom of the joint is read out, and it is determined in step 106 whether or not the object 40 represented by the voxel 50 is a person. In case of negative judgment, the object is not a person (information input person),
The hand pointing processing routine ends. on the other hand,
When the determination is affirmative, the voxel 5 in step 108
Parameters such as the height and thickness of the object 40 are determined from 0, and the parameters are converted into a dummy model 60 that resembles the appearance of a person according to the determined parameters. FIG. 11 shows the concept of conversion from the voxel 50 to the dummy model 60.

【0031】次にステップ110では、ROM16から
指及び腕に関するデータを呼び出してダミーモデル60
の腕の可動範囲を限定する。図12(A)及び(B)に
腕の可動範囲を限定したときの概念を示す。次のステッ
プ112では、ダミーモデル60の腕が伸ばされている
か否かを判断する。否定判断のときは、ハンドポインテ
ィング入力がなされないものとしてハンドポインティン
グ処理ルーチンを終了する。一方、肯定判断のときは、
ステップ114においてダミーモデル60の人指し指の
付け根を判別できるか否かを判断し、肯定判断のとき
は、次のステップ116において人指し指の指先及び人
指し指の付け根の3次元座標を演算する。一方、否定判
断のときは、ステップ118において人指し指の指先及
び腕の関節の3次元座標を演算する。
Next, at step 110, the dummy model 60 is called by calling the data concerning the finger and the arm from the ROM 16.
Limit the range of movement of the arm. 12A and 12B show the concept when the movable range of the arm is limited. In the next step 112, it is judged whether or not the arms of the dummy model 60 are extended. When a negative determination is made, it is determined that the hand pointing input has not been made, and the hand pointing processing routine ends. On the other hand, if the judgment is affirmative,
In step 114, it is determined whether or not the base of the index finger of the dummy model 60 can be discriminated. If the determination is affirmative, then in the next step 116, the three-dimensional coordinates of the fingertip of the index finger and the base of the index finger are calculated. On the other hand, when the determination is negative, in step 118, the three-dimensional coordinates of the fingertip of the index finger and the joint of the arm are calculated.

【0032】これらステップ116及び118での3次
元座標演算について詳述すれば、次の通りである。な
お、説明を簡単にするために、人指し指の指先の3次元
座標の演算を例にとって説明する。
The three-dimensional coordinate calculation in these steps 116 and 118 will be described in detail below. To simplify the description, the calculation of the three-dimensional coordinates of the fingertip of the index finger will be described as an example.

【0033】まず、2台のテレビカメラを選択し、選択
された2台のテレビカメラのそれぞれのCCD面上の人
指し指の2次元座標を取り込む。この2台のテレビカメ
ラは、例えば、人指し指の像が大きい順に選択すること
ができる。この選択された2台のテレビカメラをそれぞ
れカメラL、カメラRとする。
First, two TV cameras are selected, and the two-dimensional coordinates of the index finger on the CCD surface of each of the selected two TV cameras are captured. The two television cameras can be selected in descending order of the index finger image, for example. These two selected TV cameras are referred to as camera L and camera R, respectively.

【0034】ここで、図13を参照して、等距離魚眼レ
ンズ30A、CCDエリアイメージセンサ30B及び人
指し指の指先等の位置、距離及び角度等の諸量について
説明する。カメラLの3次元座標Cを(X,0,Z)、
カメラRの3次元座標C’を(X’,0,Z)とする。
また、人指し指の指先のカメラLのCCD面上の2次元
座標PL を(α1 ,β1 )、カメラLのCCD面の画像
中心OL から2次元座標PL までの距離をr、人指し指
の指先のカメラRのCCD面上の座標PR を(α1 ’,
β1 ’)、カメラRのCCD面の画像中心OR から座標
R までの距離をr’、光の可逆則により座標PL 及び
座標PR から出た光を仮想したときに2つの光が交わる
点、すなわち、人指し指の指先の3次元座標PをP
(x,y,z)とする。また、カメラLの3次元座標位
置から下ろした垂線の足と点Pから下ろした垂線の足と
のなす角が直角となる点Sの3次元座標をS(X,0,
z)、カメラRの3次元座標位置から下ろした垂線の足
と点Pから下ろした垂線の足とのなす角が直角となる点
S’の3次元座標をS’(X’,0,z)、点PCSの
なす角を角θ1 、点PC’S’のなす角を角θ1 ’、点
PSS’のなす角を角φ、点PS’Sのなす角を角φ’
とする。
Now, with reference to FIG. 13, various amounts such as the position, distance and angle of the equidistant fisheye lens 30A, the CCD area image sensor 30B and the fingertip of the index finger will be described. The three-dimensional coordinate C of the camera L is (X, 0, Z),
The three-dimensional coordinate C ′ of the camera R is (X ′, 0, Z).
Further, the two-dimensional coordinate P L on the CCD surface of the camera L of the fingertip of the index finger is (α 1 , β 1 ), the distance from the image center O L of the CCD surface of the camera L to the two-dimensional coordinate P L is r, and the index finger is the index finger. of the coordinates P R on the CCD surface of the fingertip of the camera R (α 1 ',
beta 1 '), the distance from the image center O R of the CCD of the camera R to the coordinates P R r' 2 both light when and virtual light emitted from the coordinate P L and coordinates P R by the lossless law of light Where P is the three-dimensional coordinate P of the fingertip of the index finger
(X, y, z). Further, the three-dimensional coordinates of the point S at which the angle between the foot of the perpendicular drawn from the three-dimensional coordinate position of the camera L and the foot of the perpendicular drawn from the point P is a right angle is S (X, 0,
z), the three-dimensional coordinates of the point S ′ at which the angle between the foot of the perpendicular drawn from the three-dimensional coordinate position of the camera R and the foot of the perpendicular drawn from the point P is a right angle is S ′ (X ′, 0, z ), The angle formed by the point PCS is the angle θ 1 , the angle formed by the point PC ′S ′ is the angle θ 1 ′, the angle formed by the point PSS ′ is the angle φ, and the angle formed by the point PS ′S is the angle φ ′.
And

【0035】CCD面上で画像中心OL から像までの距
離rは、上述した式(3)により、 r=fθ1 として求められる。
The distance r from the image center O L to the image on the CCD surface is obtained by the above equation (3) as r = fθ 1 .

【0036】また、それぞれα1 、β1 は、 α1 =fθ1 cos(π−φ)=−fθ1 cosφ β1 =fθ1 sin(π−φ)=fθ1 sinφ ・・・(7) である。ここで、 sinφ=y/{(x−X)2 +y2 1/2 ・・・(8) cosφ=(x−X)/{(x−X)2 +y2 1/2 であるので、α1 、β1 は、 α1 =−fθ1 (x−X)/{(x−X)2 +y2 1/2 ・・・・(9) β1 =fθ1 y/{(x−X)2 +y2 1/2 ・・・(10) として求めることができる。式(10)を式(9)で割
ることにより、 y=(β1 /α1 )(X−x) ・・・(11) 同様に、 y=(β1 ’/α1 ’)(X’−x) ・・・(12) 式(11)と式(12)とからyを消去して、 x=(α1 β1 ’X’−α1 ’β1 X)/(α1 β1 ’−α1 ’β1 ) ・・・(13) により3次元座標PのX座標を求めることができる。
[0036] In addition, each α 1, β 1 is, α 1 = fθ 1 cos ( π-φ) = - fθ 1 cosφ β 1 = fθ 1 sin (π-φ) = fθ 1 sinφ ··· (7) Is. Here, sin φ = y / {(x−X) 2 + y 2 } 1/2 (8) cos φ = (x−X) / {(x−X) 2 + y 2 } 1/2 , Α 1 and β 1 are α 1 = −fθ 1 (x−X) / {(x−X) 2 + y 2 } 1/2 ... (9) β 1 = fθ 1 y / {(x -X) 2 + y 2 } 1/2 ... (10) By dividing Expression (10) by Expression (9), y = (β 1 / α 1 ) (X−x) (11) Similarly, y = (β 1 ′ / α 1 ′) (X '−x) (12) Eliminating y from equation (11) and equation (12), x = (α 1 β 1 'X'-α 11 X) / (α 1 β 1 '-α 1' β 1) by (13) can be determined X-coordinate of the three-dimensional coordinates P.

【0037】次に、式(11)と式(13)とからxを
消去して、 y=β1 β1 ’(X−X’)/(α1 β1 ’−α1 ’β1 )・・(14) により3次元座標PのY座標を求めることができる。
Next, x is eliminated from the equations (11) and (13), and y = β 1 β 1 '(X-X') / (α 1 β 1 '-α 1 ' β 1 ) The Y coordinate of the three-dimensional coordinate P can be calculated by (14).

【0038】ところで、 θ1 =tan-1[{(x−X)2 +y2 1/2 /(Z−z)] であるので、式(7)、式(8)から β1 /(fsinφ)=tan-1[{(x−X)2 +y2 1/2 /(Z−z)] 従って、 z=Z−[{(x−X)2 +y2 1/2 /tan[(β1 /f)× {(x−X)2 +y2 1/2 /y] ・・・(15) また、式(11)から {(x−X)2 +y2 1/2 =(x−X){1+(β1 /α1 2 1/2 式(11)と式(14)とから (x−X)=(X’−X)/{1−(α1 ’/α1 )×(β1 /β1 ’)} であるので、式(15)は、 z=Z+[(X’−X){1+(β1 /α1 2 1/2 /{1−(α1 ’/ α1 )(β1 /β1 ’)}]/tan{(α1 2 +β1 2 1/2 /f} ・・・(16) と表すことができ、3次元座標PのZ座標を求めること
ができる。
By the way, since θ 1 = tan −1 [{(x−X) 2 + y 2 } 1/2 / (Z−z)], β 1 / (from equations (7) and (8) fsin φ) = tan −1 [{(x−X) 2 + y 2 } 1/2 / (Z−z)] Therefore, z = Z − [{(x−X) 2 + y 2 } 1/2 / tan [ (Β 1 / f) × {(x−X) 2 + y 2 } 1/2 / y] (15) Further, from formula (11), {(x−X) 2 + y 2 } 1/2 = (X−X) {1+ (β 1 / α 1 ) 2 } 1/2 From formula (11) and formula (14), (x−X) = (X′−X) / {1− (α 1 ′) / Α 1 ) × (β 1 / β 1 ′)}, the formula (15) is as follows: z = Z + [(X′−X) {1+ (β 1 / α 1 ) 2 } 1/2 / { 1- (α 1 ′ / α 1 ) (β 1 / β 1 ′)}] / tan {(α 1 2 + β 1 2 ) 1/2 / f} (16), which can be expressed as 3 Of the dimensional coordinate P The Z coordinate can be obtained.

【0039】なお、各テレビカメラ30の3次元座標は
予め定められている。従って、ステップ116、118
では、ROM16から式(13)、(14)及び(1
6)を読み出し、カメラLのCCD面上の座標PL (α
1 ,β1 )及びカメラRのCCD面上の座標P
R (α1 ’,β1 ’)の値を代入して人指し指の指先の
3次元座標P(x,y,z)を演算する。同様にして、
人指し指の指の付け根の3次元座標P2 (x2 ,y2
2 )又は腕の関節の3次元座標P3 (x3 ,y3 ,z
3)を演算する。
The three-dimensional coordinates of each television camera 30 are predetermined. Therefore, steps 116, 118
Then, from the ROM 16 the equations (13), (14) and (1
6) is read out, and the coordinates P L
1 , β 1 ) and the coordinate P on the CCD plane of the camera R
The three-dimensional coordinates P (x, y, z) of the fingertip of the index finger are calculated by substituting the values of R1 ', β 1 '). Similarly,
Three-dimensional coordinate P 2 (x 2 , y 2 ,
z 2 ) or the three-dimensional coordinate P 3 (x 3 , y 3 , z of the arm joint)
3 ) is calculated.

【0040】次にステップ120では、人指し指の指先
の3次元座標P(x,y,z)と人指し指の付け根の3
次元座標P2 (x2 ,y2 ,z2 )とを結ぶ延長線又は
人指し指の指先の3次元座標P(x,y,z)と腕の関
節の3次元座標P3 (x3 ,y3 ,z3 )とを結ぶ延長
線が大型ディスプレイ26と交わる点Tの3次元座標を
演算する。
Next, in step 120, the three-dimensional coordinates P (x, y, z) of the fingertip of the index finger and the 3 of the base of the index finger are set.
An extension line connecting the dimensional coordinates P 2 (x 2 , y 2 , z 2 ) or the three-dimensional coordinates P (x, y, z) of the fingertip of the index finger and the three-dimensional coordinates P 3 (x 3 , y) of the arm joint. The three-dimensional coordinates of the point T at which the extension line connecting ( 3 , z 3 ) intersects the large display 26 are calculated.

【0041】ここで、図14に示したように、点Tの3
次元座標をT(X,0,Z)とする。また、点S(x,
0,z)、S’(X,0,z)及びT’(x,0,Z)
を仮想すると共に、点T’PS及び点SPS’のなす角
をそれぞれ角φP 及びθP とすると、 X=x+ytanθP tanθP =(x−x2 )/(y2 −y) であるので、 X=(xy2 −yx2 )/y2 −y ・・・(17) として点TのX座標を求めることができる。
Here, as shown in FIG. 14, 3 at the point T
The dimensional coordinate is T (X, 0, Z). Also, the point S (x,
0, z), S '(X, 0, z) and T' (x, 0, Z)
With virtual to, when each angle phi P and theta P an angle of the point T'PS and point SPS ', X = x + ytanθ P tanθ P = (x-x 2) / are the (y 2 -y) , X = (xy 2 −yx 2 ) / y 2 −y (17) The X coordinate of the point T can be obtained.

【0042】また、 Z=z+ytanφP tanφP =(z−z2 )/(y2 −y) であるので、 Z=(zy2 −yz2 )/(y2 −y) ・・・(18) として点TのZ座標を求めることができる。[0042] In addition, since it is = Z = z + ytanφ P tanφ P (z-z 2) / (y 2 -y), Z = (zy 2 -yz 2) / (y 2 -y) ··· (18 ), The Z coordinate of the point T can be obtained.

【0043】また、同様にして人指し指の指先と腕の関
節とを結ぶ延長線が大型ディスプレイ26と交わる点T
の3次元座標は、 X=(xy3 −yx3 )/y3 −y ・・・(17)’ Z=(zy3 −yz3 )/(y3 −y) ・・・(18)’ として求めることができる。
Similarly, an extension line connecting the fingertip of the index finger and the joint of the arm intersects the large display 26 at a point T.
The three-dimensional coordinates of, X = (xy 3 -yx 3 ) / y 3 -y ··· (17) 'Z = (zy 3 -yz 3) / (y 3 -y) ··· (18)' Can be asked as

【0044】従って、ステップ120では、式(17)
(18)又は式(17)’(18)’をROM16から
呼び出して点Tの3次元座標を演算する。
Therefore, in step 120, equation (17)
(18) or equation (17) '(18)' is called from the ROM 16 to calculate the three-dimensional coordinates of the point T.

【0045】次のステップ122では、点Tが大型ディ
スプレイ26の表示領域に含まれるか否かを判断するこ
とによって、人指し指が大型ディスプレイ26に向けら
れているか否かを判断する。否定判断のときは、人指し
指がハンドポインティング入力可能範囲にないので、ハ
ンドポインティング処理ルーチンは終了する。一方、肯
定判断のときは、次のステップ124において大型ディ
スプレイ26上の点Tにマーキング表示としてのカーソ
ルを表示する。
In the next step 122, it is determined whether or not the index finger is aimed at the large display 26 by determining whether or not the point T is included in the display area of the large display 26. When the determination is negative, the index finger is not within the hand pointing input possible range, so the hand pointing processing routine ends. On the other hand, when the determination is affirmative, a cursor as a marking display is displayed at the point T on the large display 26 in the next step 124.

【0046】次にステップ126ではタイマを設定し、
次のステップ128において腕のボクセル処理を行う。
この腕のボクセル処理では、図5に示すサブルーチンが
実行される。ステップ170ではカメラL及びカメラR
の画像データDを取り込み、次のステップ172におい
てボクセルを設定する。次にステップ174で上述した
絞り込みを行い、ステップ176においてダミーモデル
に変換して、ステップ128へ戻る。なお、この腕のボ
クセル処理では、上述したオブジェクトボクセル処理
(図4参照)と同様にボクセルが設定されるが、指の付
け根の3次元座標P2 を判別するためにオブジェクトボ
クセル処理の場合より微細なボクセルが設定される。
Next, at step 126, a timer is set,
In the next step 128, arm voxel processing is performed.
In the voxel processing of this arm, the subroutine shown in FIG. 5 is executed. In step 170, camera L and camera R
The image data D of is taken in and voxels are set in the next step 172. Next, in step 174, the above-described narrowing down is performed, and in step 176, the dummy model is converted, and the process returns to step 128. In the voxel processing of the arm, voxels are set similarly to the object voxel processing (see FIG. 4) described above, but finer than in the object voxel processing in order to determine the three-dimensional coordinate P 2 of the base of the finger. Voxels are set.

【0047】次のステップ130では、情報入力者が人
指し指を大型ディスプレイ26に向けたまま後述するク
リック動作を行わないで(情報を入力しないで)大型デ
ィスプレイ26の前から立ち去る場合があるので、タイ
ムアウトとなったか否かを判断する。否定判断のとき
は、ハンドポインティング処理ルーチンを終了する。一
方、肯定判断のときは、次のステップ132においてボ
クセル処理された画像データDとROM16から呼び出
した指又は腕に関するデータとにより予め定めたクリッ
ク動作として親指が立ち上がったか否かを判断する。な
お、図15(A)は情報入力者が人指し指を大型ディス
プレイ26に向けた状態を、図15(B)は情報入力者
が親指を立ち上げた状態を表したものである。否定判断
のときは、ステップ112へ戻る。一方、肯定判断のと
きは、次のステップ134においてカーソルで示された
位置にある大型ディスプレイ26が表示した情報を情報
入力者が入力した情報として取り込んで、本ハンドポイ
ンティング処理ルーチンを終了する。
In the next step 130, the information input person may leave from the front of the large display 26 without performing a click operation described later (without inputting information) with the index finger pointing toward the large display 26, so that a timeout occurs. It is determined whether or not When the determination is negative, the hand pointing processing routine is ended. On the other hand, when the determination is affirmative, it is determined in the next step 132 whether or not the thumb has stood up as a predetermined click action based on the voxel-processed image data D and the data about the finger or arm called from the ROM 16. Note that FIG. 15A shows a state in which the information input person points his or her index finger toward the large display 26, and FIG. 15B shows a state in which the information input person raises his or her thumb. When the determination is negative, the process returns to step 112. On the other hand, when the determination is affirmative, the information displayed on the large-sized display 26 at the position indicated by the cursor in the next step 134 is fetched as the information input by the information input person, and the hand pointing processing routine is ended.

【0048】このように本実施例によれば、広角固定焦
点レンズ30Aを用いて撮像しているので、テレビカメ
ラを動かしたり焦点調整を行う必要はない。このため、
大型ディスプレイ26上にカーソルを表示するまでの時
間を短縮することができると共に、カーソルを表示する
までの時間を短縮することができるので、ハンドポイン
ティング入力の時間を短縮することができる。
As described above, according to the present embodiment, since the image is picked up using the wide-angle fixed focus lens 30A, it is not necessary to move the television camera or adjust the focus. For this reason,
Since it is possible to shorten the time until the cursor is displayed on the large-sized display 26 and the time until the cursor is displayed, it is possible to shorten the time for hand pointing input.

【0049】また、テレビカメラの向きを変えたり焦点
を調整調整するための機構が不要となるので、テレビカ
メラの耐久性や信頼性を高めることができる。
Further, since a mechanism for changing the direction of the television camera and adjusting the focus is unnecessary, the durability and reliability of the television camera can be improved.

【0050】更に、テレビカメラは3次元空間を構成す
る部屋の天井に配置されているので、壁面を有効に使用
することができる。
Further, since the television camera is arranged on the ceiling of the room forming the three-dimensional space, the wall surface can be effectively used.

【0051】また、ボクセルはCCDエリアイメージセ
ンサの解像度の限界まで細分化することができ、指先、
指の付け根又は腕の関節の3次元座標を正確に演算する
ことができるので、カーソルの位置の精度を高めること
ができる。
Further, the voxels can be subdivided up to the resolution limit of the CCD area image sensor.
Since the three-dimensional coordinates of the base of the finger or the joint of the arm can be accurately calculated, the accuracy of the position of the cursor can be improved.

【0052】また、2次絞り込みにより影の部分を排除
しているので、オブジェクトの形状を正確に認識するこ
とができる。
Since the shadow portion is eliminated by the secondary narrowing down, the shape of the object can be accurately recognized.

【0053】なお、本実施例では複数のテレビカメラ3
0を天井に配置したが、壁の近くに配置したり壁に埋め
込んで配置してもよく、天井と壁で構成される2面のコ
ーナー部や天井と2面の壁で構成される3面のコーナー
部に配置してもよい。更に、等距離射影型魚眼レンズ3
0Aを部屋の中心に向けるようにしてもよい。
In this embodiment, a plurality of TV cameras 3 are used.
Although 0 is placed on the ceiling, it may be placed near the wall or embedded in the wall, such as a two-sided corner portion composed of the ceiling and the wall, or three sides composed of the ceiling and the two-sided wall. You may arrange in the corner part of. Furthermore, equidistant projection type fisheye lens 3
0A may be directed to the center of the room.

【0054】また、本実施例ではステップ140で画像
データAを読み出したが、このステップ140を設けな
いで画像データBと画像データCとからオブジェクトを
分別するようにしてもよい。
Although the image data A is read in step 140 in this embodiment, the object may be separated from the image data B and the image data C without the step 140.

【0055】また、本実施例では等距離射影型魚眼レン
ズを用いたが、上述したように等立体角射影型魚眼レン
ズ、立体射影型魚眼レンズや正射影型魚眼レンズを用い
ても同様に演算することができる。以下に等立体角射影
型魚眼レンズを用いたときの式(1)〜式(6)に相当
する式(1)’〜式(6)’を示す。
Further, although the equidistant projection type fisheye lens is used in the present embodiment, the same calculation can be performed using the equisolid angle projection type fisheye lens, the stereoscopic projection type fisheye lens or the orthographic projection type fisheye lens as described above. . Below, the formulas (1) ′ to (6) ′ corresponding to the formulas (1) to (6) when using the equisolid angle projection type fisheye lens are shown.

【0056】 θ=tan-1(R/H) ・・・・・(1)’ θ’=tan-1{R/(H−h)} ・・・・・(2)’ r=2fsin(θ/2) ・・・・・(3)’ r’=2fsin(θ’/2) ・・・・・(4)’ h=H[1−tan{2sin-1(r/2f)}/ tan{2sin-1(r’/2f)}] ・・・・・(5)’ R=Htan{2sin-1(r/2f)} ・・・・・(6)’ なお、第1実施例では4台のテレビカメラでオブジェク
トを捉えたが2台以上のテレビカメラの場合にも上記と
同様にオブジェクトの3次元座標を演算することができ
る。
Θ = tan −1 (R / H) (1) ′ θ ′ = tan −1 {R / (H−h)} (2) ′ r = 2fsin ( θ / 2) ··· (3) ′ r ′ = 2fsin (θ ′ / 2) ··· (4) ′ h = H [1-tan {2sin −1 (r / 2f)} / tan {2sin −1 (r ′ / 2f)}] (5) ′ R = Htan {2sin −1 (r / 2f)} (6) ′ The first embodiment Then, the object is captured by four TV cameras, but in the case of two or more TV cameras, the three-dimensional coordinates of the object can be calculated in the same manner as above.

【0057】次に本発明に係るハンドポインティング入
力装置の第2実施例について説明する。本実施例では、
1台のテレビカメラと1枚の鏡とによりハンドポインテ
ィング入力する例を示す。なお、本実施例は第1実施例
と略同一であるので、図1乃至図15において同一の部
分には同一の符号を付し、説明を省略する。
Next, a second embodiment of the hand pointing input device according to the present invention will be described. In this embodiment,
An example of performing hand pointing input with one television camera and one mirror is shown. Since this embodiment is substantially the same as the first embodiment, the same parts in FIGS. 1 to 15 are designated by the same reference numerals and the description thereof will be omitted.

【0058】図16に示すように、各テレビカメラ30
の1側面には、CCDエリアイメージセンサ30Bの1
端面の方向(X方向)と平行で鉛直方向(Z方向)に縦
長の鏡38が天井36に固設されている。次に、本実施
例の等距離射影型魚眼レンズ30A、CCDエリアイメ
ージセンサ30B及び鏡38の位置、距離及び角度等の
諸量を図16及び17を参照して説明する。なお、図1
7は等距離射影型魚眼レンズ30AとCCDエリアイメ
ージセンサ30Bとの距離は微小であるものとして無視
したときの上記諸量の詳細を表したものである。
As shown in FIG. 16, each television camera 30
1 side of the CCD area image sensor 30B
A vertically long mirror 38 is fixed to the ceiling 36 in the vertical direction (Z direction) in parallel with the end face direction (X direction). Next, various quantities such as the position, distance and angle of the equidistant projection type fisheye lens 30A, the CCD area image sensor 30B and the mirror 38 of this embodiment will be described with reference to FIGS. FIG.
Reference numeral 7 shows the details of the above-mentioned amounts when the distance between the equidistant projection type fisheye lens 30A and the CCD area image sensor 30B is negligible.

【0059】図16に示したように、CCDエリアイメ
ージセンサ30BのCCD面と同一のXY平面上にある
鏡38の上端部の中央を3次元座標の原点O(0,0,
0)にとる。CCD面の画像中心Hは原点OからY方向
に距離hだけ離れており、画像中心Hの3次元座標をH
(0,h,0)にとる。なお、人指し指の指先の3次元
座標をP(x,y,z)とし、点Pから出た光は等距離
射影型魚眼レンズ30Aで屈折してCCD面上の点Dに
結像する。このCCD面上の点Dの2次元座標をD(α
D ,βD )とする。また、点Pから出た光で鏡38によ
り反射した光は等距離射影型魚眼レンズ30Aで屈折し
てCCD面上の点Rに結像する。このCCD面上の点R
の2次元座標をR(αR ,βR )とする。なお、鏡38
がないときの仮想のテレビカメラ31を想定し、CCD
面の画像中心H’の3次元座標をH’(0,−h,0)
にとったときに、点Pから出た光は仮想の等距離射影型
魚眼レンズ31Aで屈折して仮想のCCDエリアイメー
ジセンサ31BのCCD面上の点R’に結像するものと
し、上述した点Rと仮想した点R’とは鏡38に対して
対称であるものとする。また、CCD面上の画像中心H
から点Dまでの距離を距離rD 、CCD面上の画像中心
Hから点Rまでの距離を距離rR とする。
As shown in FIG. 16, the center of the upper end of the mirror 38 on the same XY plane as the CCD surface of the CCD area image sensor 30B is located at the origin O (0, 0, 0, 0, 0, 0) of the three-dimensional coordinates.
Take 0). The image center H on the CCD surface is separated from the origin O in the Y direction by a distance h, and the three-dimensional coordinate of the image center H is H.
Take (0, h, 0). Note that the three-dimensional coordinates of the fingertip of the index finger are P (x, y, z), and the light emitted from the point P is refracted by the equidistant projection type fisheye lens 30A and imaged at the point D on the CCD surface. The two-dimensional coordinate of the point D on this CCD surface is D (α
D , β D ). Further, the light emitted from the point P and reflected by the mirror 38 is refracted by the equidistant projection type fisheye lens 30A and imaged at the point R on the CCD surface. Point R on this CCD surface
Let the two-dimensional coordinates of R (α R , β R ). The mirror 38
Assuming a virtual TV camera 31 when there is no
The 3D coordinate of the image center H'of the surface is H '(0, -h, 0)
The light emitted from the point P is refracted by the virtual equidistant projection type fisheye lens 31A to form an image at the point R'on the CCD surface of the virtual CCD area image sensor 31B. It is assumed that R and the virtual point R ′ are symmetrical with respect to the mirror 38. Also, the image center H on the CCD surface
Is a distance r D , and the distance from the image center H on the CCD surface to a point R is a distance r R.

【0060】図16に示したように、点HからZ方向に
下ろした垂線上にある任意の点を点Rとし、点H’から
Z方向に下ろした垂線上にある任意の点を点R’とした
とき、点PHRのなす角を角θD 、点PH’R’のなす
角を角θR'とする。また、3次元座標(x,y,0)で
表される点を点S、点Sと点Hとの距離を距離BD 、点
Sと点H’との距離を距離BR'、点Pと点Hとの距離を
距離AD 、点Pと点H’との距離を距離AR'とする。
As shown in FIG. 16, an arbitrary point on the perpendicular line drawn from the point H in the Z direction is defined as a point R, and an arbitrary point on the perpendicular line drawn from the point H ′ in the Z direction is defined as the point R. The angle formed by the point PHR is the angle θ D , and the angle formed by the point PH′R ′ is the angle θ R ′ . Further, the point represented by the three-dimensional coordinates (x, y, 0) is the point S, the distance between the point S and the point H is the distance B D , the distance between the point S and the point H ′ is the distance B R ′ , the point The distance between P and the point H is defined as a distance A D , and the distance between the point P and a point H ′ is defined as a distance A R ′ .

【0061】次に、本実施例の作用について説明する。
図4のステップ116、118では、1台のテレビカメ
ラ30を選択し、クリックされた位置に対応するCCD
面上の座標D(αD ,βD )及びR(αR ,βR )の値
を取り込む。このテレビカメラ30の選択は、例えば、
距離rD が最も小さいテレビカメラを選択することがで
きる。
Next, the operation of this embodiment will be described.
In steps 116 and 118 of FIG. 4, one TV camera 30 is selected and the CCD corresponding to the clicked position is selected.
The values of coordinates D (α D , β D ) and R (α R , β R ) on the surface are taken in. The selection of the TV camera 30 is, for example,
The TV camera with the smallest distance r D can be selected.

【0062】ここで、図16及び17を参照して上述し
た諸量について更に説明する。角θD 及びθR'はそれぞ
れ、 θD =tan-1(BD /Q) =tan-1[{(y−h)2 +x2 1/2 /z] θR'=tan-1(BR'/Q) =tan-1[{(y+h)2 +x2 1/2 /z] により求めることができるので、上記式(3)から距離
D 及びrR は次式により表される。
Now, the various quantities described above will be further described with reference to FIGS. The angles θ D and θ R ′ are respectively θ D = tan −1 (B D / Q) = tan −1 [{(y−h) 2 + x 2 } 1/2 / z] θ R ′ = tan −1. (BR / Q) = tan −1 [{(y + h) 2 + x 2 } 1/2 / z], the distances r D and r R can be calculated from the above equation (3) by the following equation. To be done.

【0063】 rD =f・tan-1[{(y−h)2 +x2 1/2 /z] rR =f・tan-1[{(y+h)2 +x2 1/2 /z] ところで、 αD =rD cos(π−φD )=−rD cosφD ・・・(19) βD =rD sin(π−φD )=rD sinφD ・・・(20) αR =rR cosφR' (∵φR'=φR ) ・・・(21) βR =rR sinφR' (∵φR'=φR ) ・・・(22) また、 cosφD =(y−h)/{(y−h)2 +x2 1/2 ・・・(23) sinφD =x/{(y−h)2 +x2 1/2 ・・・(24) cosφR'=(y+h)/{(y+h)2 +x2 1/2 ・・・(25) sinφR'=x/{(y+h)2 +x2 1/2 ・・・(26) であるので、式(19)及び式(23)並びに式(2
0)及び式(24)から、 αD =−fθD (y−h)/{(y−h)2 +x2 1/2 ・・・(27) βD =fθD x/{(y−h)2 +x2 1/2 ・・・(28) と表すことができる。この2つの式からfθD を消去す
ると、 y=h−(αD /βD )x ・・・(29) 同様に、 αR =fθR'(y+h)/{(y+h)2 +x2 1/2 ・・・(30) βR =fθR'x/{(y+h)2 +x2 1/2 ・・・(31) y=−h+(αR /βR )x ・・・(32) 式(29)及び(32)から x=2hβD βR /(αD βR +αR βD ) ・・・(33) により3次元座標PのX座標を求めることができる。
R D = f · tan −1 [{(y−h) 2 + x 2 } 1/2 / z] r R = f · tan −1 [{(y + h) 2 + x 2 } 1/2 / z Incidentally, α D = r D cos ( π-φ D) = - r D cosφ D ··· (19) β D = r D sin (π-φ D) = r D sinφ D ··· (20) α R = r R cos φ R ' (∵ φ R' = φ R ) ・ ・ ・ (21) β R = r R sin φ R ' (∵ φ R ' = φ R ) ・ ・ ・ (22) Also, cos φ D = (Y−h) / {(y−h) 2 + x 2 } 1/2 ... (23) sin φ D = x / {(y−h) 2 + x 2 } 1/2 ... (24) cos φ R ' = (y + h) / {(y + h) 2 + x 2 } 1/2 ... (25) sin φ R' = x / {(y + h) 2 + x 2 } 1/2 ... (26) Therefore, equation (19) and equation (23) and equation (2
0) and the equation (24), α D = −fθ D (y−h) / {(y−h) 2 + x 2 } 1/2 (27) β D = fθ D x / {(y -H) 2 + x 2 } 1/2 ... (28). Eliminating fθ D from these two equations, y = h− (α D / β D ) x (29) Similarly, α R = fθ R ′ (y + h) / {(y + h) 2 + x 2 } 1/2 ··· (30) β R = fθ R 'x / {(y + h) 2 + x 2} 1/2 ··· (31) y = -h + (α R / β R) x ··· ( 32) (29) and (32) to be able to determine the X-coordinate of x = 2hβ D β R / ( α D β R + α R β D) 3 -dimensional coordinate P by ... (33).

【0064】次に、式(33)を式(29)に代入し
て、 y=h(αR βD −αD βR )/(αD βR +αR βD )・・・(34) により3次元座標PのY座標を求めることができる。
Next, by substituting the equation (33) into the equation (29), y = h (α R β D −α D β R ) / (α D β R + α R β D ) (34) ), The Y coordinate of the three-dimensional coordinate P can be obtained.

【0065】また、 βD =rD sinφD =fθD sinφD =f・tan-1[{(y−h)2 +x2 1/2 /z]・sinφD この式を変形して、 z={(y−h)2 +x2 1/2 /tan(βD /fsinφD ) ={(y−h)2 +x2 1/2 /tan[(βD /f)× {(y−h)2 +x2 1/2 /x] ところで、式(33)及び式(34)から、 {(y−h)2 +x2 1/2 =2hβR (αD 2 +βD 2 1/2 / (αD βR +αR βD ) であるので、 z=2hβR (αD 2 + βD 2 1/2 /[(αD βR +αR βD )× tan{(αD 2 + βD 2 1/2 /f}] ・・・(35) により3次元座標PのZ座標を求めることができる。Β D = r D sin φ D = f θ D sin φ D = f · tan −1 [{(y−h) 2 + x 2 } 1/2 / z] · sin φ D z = {(y-h) 2 + x 2} 1/2 / tan (β D / fsinφ D) = {(y-h) 2 + x 2} 1/2 / tan [(β D / f) × {( y−h) 2 + x 2 } 1/2 / x] From the equations (33) and (34), {(y−h) 2 + x 2 } 1/2 = 2hβ RD 2 + β D 2 ) 1/2 / (α D β R + α R β D ), so z = 2hβ RD 2 + β D 2 ) 1/2 / [(α D β R + α R β D ) × tan { (Α D 2 + β D 2 ) 1/2 / f}] (35), the Z coordinate of the three-dimensional coordinate P can be obtained.

【0066】なお、鏡38からのCCD面の画像中心H
までの距離hは予め定められている。従って、ステップ
144では、ROM16から式(33)、(34)及び
(35)を読み出し、CCD面上の座標D(αD
βD )及び座標R(αR ,βR )の値を代入して人指し
指の指先の3次元座標P(x,y,z)を演算する。ま
た、同様にして人指し指の付け根の3次元座標P2 (x
2 ,y2 ,z2 )及び腕の関節の3次元座標P
3 (x3 ,y3 ,z3 )を演算する。
The image center H on the CCD surface from the mirror 38
The distance h up to is predetermined. Therefore, in step 144, the equations (33), (34) and (35) are read from the ROM 16 and the coordinate D (α D ,
The three-dimensional coordinates P (x, y, z) of the fingertip of the index finger are calculated by substituting the values of β D ) and the coordinates R (α R , β R ). Similarly, the three-dimensional coordinates P 2 (x
2 , y 2 , z 2 ) and the three-dimensional coordinate P of the arm joint
3 (x 3 , y 3 , z 3 ) is calculated.

【0067】このように本実施例によれば、1台のテレ
ビカメラにより指先、指の付け根又は腕の関節の3次元
座標を演算することができ、入力情報を取得することが
できるので、テレビカメラの数を少なくすることができ
る。
As described above, according to this embodiment, one television camera can calculate the three-dimensional coordinates of the fingertip, the base of the finger, or the joint of the arm, and the input information can be obtained. The number of cameras can be reduced.

【0068】なお、本実施例では、1台のテレビカメラ
と1枚の鏡によりオブジェクトの3次元座標を演算する
例を示したが、鏡を壁面に沿って取付けるようにしても
よいし、鏡2枚を使用してもよい。また、湾曲した鏡を
使用してもよい。鏡を壁面に沿って取り付ければ壁に直
交するように取付けた場合よりスペースを有効に利用す
ることができ、鏡2枚を使用すればCCD面には1つ多
くの像が形成されるので、他のオブジェクトにより死角
が生じても3次元座標を演算することができる。
In this embodiment, one TV camera and one mirror are used to calculate the three-dimensional coordinates of the object. However, the mirror may be attached along the wall surface. You may use two sheets. Also, curved mirrors may be used. If the mirror is mounted along the wall surface, the space can be used more effectively than when it is mounted orthogonally to the wall, and if two mirrors are used, one more image will be formed on the CCD surface. Even if a blind spot occurs due to another object, the three-dimensional coordinates can be calculated.

【0069】次に、本発明に係るハンドポインティング
入力装置の第3実施例について説明する。本実施例で
は、背景を利用して3次元座標を演算しハンドポインテ
ィング入力する例を示す。なお、本実施例の構成は第1
実施例の構成と略同一であるので、同一の部分には同一
の符号を付し、説明を省略する。
Next, a third embodiment of the hand pointing input device according to the present invention will be described. In the present embodiment, an example is shown in which three-dimensional coordinates are calculated by using the background and hand pointing input is performed. The configuration of this embodiment is the first
Since the configuration is substantially the same as that of the embodiment, the same parts are designated by the same reference numerals and the description thereof is omitted.

【0070】図19(A)に示すように、本実施例で
は、大型ディスプレイ26が取り付けられた一壁面38
に隣接する一壁面39上の一壁面38との隣接隅部に、
床面35から天井36に順に長方形の箱の中に「1」〜
「9」の番号が付されている。また、同様に床面35上
の大型ディスプレイ26が取り付けられた一壁面38に
隣接する隣接隅部に一壁面39と反対側の一壁面の側か
ら順に長方形の箱の中に「1」〜「9」の番号が付され
ている。
As shown in FIG. 19A, in this embodiment, one wall surface 38 to which the large display 26 is attached is attached.
In the corner adjacent to the one wall surface 38 on the one wall surface 39 adjacent to
"1" in a rectangular box in order from the floor surface 35 to the ceiling 36
The number "9" is attached. Similarly, in the adjacent corners adjacent to the one wall surface 38 on which the large display 26 is attached on the floor surface 35, "1" to "in a rectangular box are sequentially arranged from the one wall surface side opposite to the one wall surface 39. The number "9" is attached.

【0071】次に本実施例の作用を説明する。本実施例
では、中央制御装置12に設けられた図示しないスター
トボタンが押下されると、図18に示すハンドポインテ
ィング処理ルーチンが実行される。なお、このハンドポ
インティング処理ルーチンは所定時間間隔で繰り返し行
われる。
Next, the operation of this embodiment will be described. In this embodiment, when a start button (not shown) provided in the central controller 12 is pressed, the hand pointing processing routine shown in FIG. 18 is executed. The hand pointing processing routine is repeatedly performed at predetermined time intervals.

【0072】まず、ステップ200では、オブジェクト
40が空間内の存在しないときの2台のテレビカメラ3
0(テレビカメラA、Bとする)から見た画像データA
を取り込む。次のステップ202ではテレビカメラA及
びBで撮像した画像データBを取り込んで、次のステッ
プ204において画像データAと画像データBとに差が
あるか否かを判断する。否定判断のときは、オブジェク
ト40が部屋34内に存在しないので、ステップ202
へ戻る。一方、肯定判断のときは、次のステップ206
において指に関して予め与えられた既知情報としての指
の特徴を表したデータをROM16から読み出し、次の
ステップ208において指を認識する。
First, in step 200, the two television cameras 3 when the object 40 does not exist in the space.
Image data A viewed from 0 (TV cameras A and B)
Take in. In the next step 202, the image data B captured by the television cameras A and B is taken in, and in the next step 204, it is determined whether or not there is a difference between the image data A and the image data B. If the determination is negative, the object 40 does not exist in the room 34, and therefore the step 202
Return to. On the other hand, when the determination is affirmative, the next step 206
At step, data representing the characteristic of the finger as known information given in advance regarding the finger is read from the ROM 16, and the finger is recognized at the next step 208.

【0073】次のステップ210では、人指し指の指先
及び人指し指の指の付け根の背景情報を取得する。例え
ば、図19(A)に示すように、情報入力者の人指し指
をテレビカメラA及びBが捉えると、テレビカメラAか
らは図19(B)に示すように指先が「4」の位置にあ
る背景情報を得ることができ、テレビカメラBからは図
19(C)に示すように指先が「6」の位置にある背景
情報を得ることができる。
In the next step 210, background information of the fingertip of the index finger and the base of the finger of the index finger is acquired. For example, as shown in FIG. 19 (A), when the television cameras A and B capture the index finger of the information input person, the finger tip of the television camera A is at the position "4" as shown in FIG. 19 (B). The background information can be obtained, and the background information in which the fingertip is at the position "6" can be obtained from the television camera B as shown in FIG.

【0074】次にステップ212においてテレビカメラ
A及びBと背景を結ぶ直線を演算する。テレビカメラA
及びBの3次元座標は第1実施例でも示したように予め
定められている。また、上述の例(人指し指の指先)で
いえばテレビカメラAの背景(「6」の位置)及びテレ
ビカメラBの背景(「4」の位置)の3次元座標は予め
ROM16に格納されている。このため、ステップ21
2では、テレビカメラA及びBの3次元座標並びにテレ
ビカメラA及びBの背景の3次元座標をROM16から
読み出し、テレビカメラAの3次元座標とテレビカメラ
Aの背景の3次元座標とを結ぶ3次元直線A及びテレビ
カメラBの3次元座標とテレビカメラBの背景の3次元
座標とを結ぶ3次元直線Bを演算する。同様にして、テ
レビカメラAの3次元座標とテレビカメラAによる人指
し指の付け根の背景の3次元座標とを結ぶ3次元直線C
及びテレビカメラBの3次元座標とテレビカメラBによ
る人指し指の付け根の背景の3次元座標とを結ぶ3次元
直線Dを演算する。
Next, at step 212, a straight line connecting the television cameras A and B and the background is calculated. TV camera A
The three-dimensional coordinates of B and B are predetermined as shown in the first embodiment. In the above example (fingertip of the index finger), the three-dimensional coordinates of the background of the TV camera A (position "6") and the background of the TV camera B (position "4") are stored in the ROM 16 in advance. . Therefore, step 21
In 2, the three-dimensional coordinates of the television cameras A and B and the three-dimensional coordinates of the background of the television cameras A and B are read from the ROM 16, and the three-dimensional coordinates of the television camera A and the three-dimensional coordinates of the background of the television camera A are connected to each other. A three-dimensional line B connecting the three-dimensional coordinates of the three-dimensional line A and the television camera B and the three-dimensional coordinate of the background of the television camera B is calculated. Similarly, a three-dimensional line C connecting the three-dimensional coordinates of the TV camera A and the three-dimensional coordinates of the background of the base of the index finger by the TV camera A.
And a three-dimensional straight line D connecting the three-dimensional coordinates of the TV camera B and the three-dimensional coordinates of the background of the base of the index finger by the TV camera B.

【0075】次のステップ214では、3次元直線Aと
3次元直線Bとの交点及び3次元直線Cと3次元直線D
との交点の3次元座標を求めることにより、人指し指の
指先及び人指し指の付け根の3次元座標を求める。
At the next step 214, the intersection of the three-dimensional line A and the three-dimensional line B and the three-dimensional line C and the three-dimensional line D.
By obtaining the three-dimensional coordinates of the intersection point with, the three-dimensional coordinates of the fingertip of the forefinger and the base of the forefinger are obtained.

【0076】次にステップ216では、第1実施例でも
示したように、人指し指の指先の3次元座標と人指し指
の付け根の3次元座標とを結ぶ延長線とを結ぶ延長線が
大型ディスプレイ26と交わる点Tの3次元座標を演算
する。
Next, at step 216, as shown in the first embodiment, an extension line connecting the three-dimensional coordinates of the fingertip of the index finger and the extension line connecting the three-dimensional coordinates of the base of the index finger intersects the large display 26. The three-dimensional coordinates of the point T are calculated.

【0077】次のステップ218では、点Tが大型ディ
スプレイ26の表示領域に含まれるか否かを判断するこ
とによって、人指し指が大型ディスプレイ26に向けら
れているか否かを判断する。否定判断のときは、ハンド
ポインティング処理ルーチンを終了する。一方、肯定判
断のときは、次のステップ220において大型ディスプ
レイ26上にマーキング表示としてのカーソルを表示す
る。
At the next step 218, it is determined whether or not the index finger is aimed at the large display 26 by determining whether or not the point T is included in the display area of the large display 26. When the determination is negative, the hand pointing processing routine is ended. On the other hand, when the determination is affirmative, the cursor as a marking display is displayed on the large display 26 in the next step 220.

【0078】次にステップ222ではタイマを設定し、
次のステップ224においてテレビカメラA及びBが捉
えた新たな画像データを取り込む。次のステップ226
ではタイムアウトか否かを判断し、否定判断のときはハ
ンドポインティング処理ルーチンを終了する。一方、肯
定判断のときは、次のステップ228において予め定め
たクリック動作として親指が立ち上がったか否かを判断
する。否定判断のときは、ステップ210へ戻る。一
方、肯定判断のときは、次のステップ230においてカ
ーソルで示された位置にある大型ディスプレイ26が表
示した情報を情報入力者が入力した情報として取り込ん
で、本ハンドポインティング処理ルーチンを終了する。
Next, at step 222, a timer is set,
In the next step 224, new image data captured by the television cameras A and B is captured. Next step 226
Then, it is determined whether or not the time is out, and when the determination is negative, the hand pointing processing routine is ended. On the other hand, when the determination is affirmative, it is determined in the next step 228 whether or not the thumb has risen as a predetermined click operation. When the determination is negative, the process returns to step 210. On the other hand, when the determination is affirmative, the information displayed on the large display 26 at the position indicated by the cursor in the next step 230 is taken in as the information input by the information input person, and the hand pointing processing routine is ended.

【0079】このように本実施例によれば、ボクセルを
設定することなく、人指し指の指先及び人指し指の付け
根の背景により人指し指の指先及び人指し指の付け根の
3次元座標を演算することができる。
As described above, according to this embodiment, the three-dimensional coordinates of the fingertip of the index finger and the root of the index finger can be calculated from the background of the fingertip of the index finger and the root of the index finger without setting voxels.

【0080】なお、本実施例では「1」〜「9」の数字
の例を示したが、図20に示した色彩でもよく、また、
数字の代わりに文字を使用してもよい。
In the present embodiment, the example of the numbers "1" to "9" is shown, but the colors shown in FIG. 20 may be used.
Characters may be used instead of numbers.

【0081】更に、図21に示すように、発光体(例え
ば、LED)の点灯又は消灯のタイミングを予め定めて
おいて点灯や消灯を既知パターンとして検出するように
してもよい。
Further, as shown in FIG. 21, the timing of turning on or off the light emitting body (for example, LED) may be determined in advance and the turning on or off may be detected as a known pattern.

【0082】次に、本発明に係るハンドポインティング
入力装置の第4実施例について説明する。なお、本実施
例の構成は第1実施例の構成と略同一であるので、同一
の部分には同一の符号を付し、説明を省略する。
Next, a fourth embodiment of the hand pointing input device according to the present invention will be described. Since the structure of the present embodiment is substantially the same as that of the first embodiment, the same parts are designated by the same reference numerals, and the description thereof will be omitted.

【0083】本実施例では、大型ディスプレイ26が取
り付けられた一壁面38に隣接する一壁面39上の一壁
面38との隣接隅部及び床面35上の大型ディスプレイ
26が取り付けられた一壁面38に隣接する隣接隅部に
図示しない繰り返し模様のない絵がそれぞれ背景として
付されている。すなわち、第3実施例の「1」〜「9」
の数字に替えて、図示しない繰り返し模様のない絵が付
されている。
In the present embodiment, the one wall surface 38 on which the large display 26 is attached and the corner portion adjacent to the one wall surface 38 on the one wall surface 39 adjacent to the one wall surface 38 on which the large display 26 is attached and the one wall surface 38 on which the large display 26 is attached on the floor surface 35. A picture without a repeating pattern (not shown) is attached to each of the adjacent corners adjacent to as a background. That is, "1" to "9" of the third embodiment.
Instead of the number, a picture without a repeating pattern (not shown) is attached.

【0084】次に、本実施例の作用を説明する。本実施
例では、中央制御装置12に設けられた図示しないスタ
ートボタンが押下されると、図22に示すハンドポイン
ティング処理ルーチンが実行される。なお、このハンド
ポインティング処理ルーチンは所定時間間隔で繰り返し
行われる。
Next, the operation of this embodiment will be described. In this embodiment, when a start button (not shown) provided in the central controller 12 is pressed, the hand pointing processing routine shown in FIG. 22 is executed. The hand pointing processing routine is repeatedly performed at predetermined time intervals.

【0085】まず、ステップ240では、オブジェクト
40が部屋内に存在しないときのテレビカメラ30(テ
レビカメラAとする)の画像データをROM16から取
り込む。次のステップ242では、テレビカメラAで撮
像した画像データを取り込んで、次のステップ244に
おいてステップ240とステップ242とでそれぞれ取
り込んだ画像データに差があるか否かを判断する。否定
判断のときは、ステップ242へ戻る。一方、肯定判断
のときは、次のステップ246において人指し指の特徴
点情報を読み出す。
First, in step 240, the image data of the television camera 30 (referred to as television camera A) when the object 40 is not present in the room is fetched from the ROM 16. In the next step 242, the image data captured by the television camera A is captured, and in the next step 244, it is determined whether or not there is a difference between the image data captured in steps 240 and 242. When the determination is negative, the process returns to step 242. On the other hand, when the determination is affirmative, the characteristic point information of the index finger is read in the next step 246.

【0086】次にステップ248において人指し指によ
って隠された部分の画像データをオブジェクト40が部
屋内に存在しないときのテレビカメラAの画像データか
らサーチする。次のステップ250では、サーチによっ
て得られた位置情報を取得する。
Next, in step 248, the image data of the portion hidden by the index finger is searched from the image data of the television camera A when the object 40 is not present in the room. In the next step 250, the position information obtained by the search is acquired.

【0087】次のステップ252では、オブジェクト4
0が部屋内に存在しないときの別のテレビカメラ30
(テレビカメラBとする)の画像データをROM16か
ら取り込む。次のステップ254では、テレビカメラB
で撮像した画像データを取り込んで、ステップ256に
おいて人指し指によって隠された部分の画像データをオ
ブジェクト40が部屋内に存在しないときのテレビカメ
ラBの画像データからサーチし、次のステップ258で
サーチによって得られた位置情報を取得する。
At the next step 252, the object 4
Another TV camera 30 when 0 is not in the room
The image data of the TV camera B is fetched from the ROM 16. In the next step 254, the television camera B
In step 256, the image data of the portion hidden by the index finger is retrieved from the image data of the television camera B when the object 40 is not present in the room, and is obtained in the next step 258 by the search. Get the location information.

【0088】次にステップ260では、人指し指が大型
ディスプレイ26に向けられているか否かを判断し、否
定判断のときは、ハンドポインティング処理ルーチンを
終了する。一方、肯定判断のときは、次のステップ26
2においてカーソルの位置を演算し、ステップ264で
カーソルを表示する。
Next, at step 260, it is judged whether or not the index finger is directed to the large display 26, and if the judgment is negative, the hand pointing processing routine is ended. On the other hand, when the determination is affirmative, the next step 26
The cursor position is calculated in 2 and the cursor is displayed in step 264.

【0089】次のステップ266ではタイマを設定し、
ステップ268においてテレビカメラBで撮像した画像
データを取り込む。次のステップ270ではタイムアウ
トか否かを判断し、肯定判断のときは、ハンドポインテ
ィング処理ルーチンを終了する。次にステップ272で
は、親指が立ち上がったか否かを判断する。否定判断と
きは、ステップ268に戻る。一方、肯定判断のとき
は、次のステップ274において情報を取り込んで、本
ハンドポインティング処理ルーチンを終了する。
In the next step 266, a timer is set,
In step 268, the image data captured by the television camera B is captured. In the next step 270, it is determined whether or not the time is out, and if the determination is affirmative, the hand pointing processing routine is ended. Next, in step 272, it is determined whether or not the thumb has risen. When a negative determination is made, the process returns to step 268. On the other hand, when the determination is affirmative, the information is fetched in the next step 274 and the hand pointing processing routine is ended.

【0090】なお、上記実施例では、人指し指の指先、
人指し指の付け根又は腕の関節の3次元座標を求めた
が、人指し指や腕の関節に限定されるものではない。
In the above embodiment, the fingertip of the index finger,
Although the three-dimensional coordinates of the base of the index finger or the joint of the arm are obtained, the present invention is not limited to the index finger or the joint of the arm.

【0091】また、上記実施例では、親指の立ち上がり
を予め定められたクリック動作としたが、中指を伸ばす
ことによりクリック動作を検出してもよい。
Further, in the above embodiment, the rising of the thumb is the predetermined click motion, but the click motion may be detected by extending the middle finger.

【0092】[0092]

【発明の効果】以上説明したように、請求項1及び請求
項3の発明によれば、複数の撮像手段を動かし焦点調整
を行う必要がないので、速やかに表示手段上の位置を表
示することができると共に、信頼性や耐久性を高めるこ
とができる、という効果を得ることができる。
As described above, according to the first and third aspects of the present invention, it is not necessary to move a plurality of image pickup means to adjust the focus, so that the position on the display means can be displayed promptly. It is possible to obtain the effect that the reliability and durability can be improved.

【0093】請求項2の発明によれば、反射手段により
被認識対象像をエリアセンサ上に結像させることができ
るので、撮像手段が1つでも被認識対象が入力した入力
情報を取得することができる、という効果を得ることが
できる。
According to the second aspect of the present invention, since the recognition target image can be formed on the area sensor by the reflecting means, it is possible to obtain the input information input by the recognition target even with one image pickup means. The effect that can be obtained can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るハンドポインティング入力装置の
概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a hand pointing input device according to the present invention.

【図2】第1実施例のハンドポインティング入力装置で
実行されるハンドポインティング処理ルーチンの流れを
示す流れ図である。
FIG. 2 is a flowchart showing a flow of a hand pointing processing routine executed by the hand pointing input device according to the first embodiment.

【図3】図2のステップ100のオブジェクト分別処理
のサブルーチンの流れを示す流れ図である。
FIG. 3 is a flowchart showing a flow of a subroutine of object classification processing in step 100 of FIG.

【図4】図2のステップ102のオブジェクトボクセル
処理のサブルーチンの流れを示す流れ図である。
FIG. 4 is a flowchart showing a flow of a subroutine of object voxel processing in step 102 of FIG.

【図5】図2のステップ128の腕のボクセル処理のサ
ブルーチンの流れを示す流れ図である。
5 is a flowchart showing a flow of a subroutine of arm voxel processing in step 128 of FIG. 2. FIG.

【図6】オブジェクトを分別する概念を説明する説明図
である。
FIG. 6 is an explanatory diagram illustrating a concept of separating objects.

【図7】オブジェクトの高さ等の諸量を説明する説明図
である。
FIG. 7 is an explanatory diagram illustrating various amounts such as the height of an object.

【図8】オブジェクトの影の部分とボクセルとの関係を
説明する説明図である。
FIG. 8 is an explanatory diagram illustrating a relationship between a shadow portion of an object and a voxel.

【図9】(A)はテレビカメラAの画像データによるボ
クセルを、(B)はテレビカメラAの画像データによる
ボクセルを、(C)はテレビカメラAの画像データによ
るボクセルを、(D)はテレビカメラAの画像データに
よるボクセルを説明する説明図である。
9A is a voxel based on the image data of the television camera A, FIG. 9B is a voxel based on the image data of the television camera A, FIG. 9C is a voxel based on the image data of the television camera A, and FIG. It is explanatory drawing explaining the voxel by the image data of the television camera A.

【図10】第2次絞り込みで絞り込まれたボクセルの概
念を説明する説明図である。
FIG. 10 is an explanatory diagram illustrating the concept of voxels narrowed down by the second narrowing down.

【図11】第2次絞り込みで絞り込まれたボクセルから
ダミーモデルに変換する概念を説明する説明図である。
FIG. 11 is an explanatory diagram illustrating a concept of converting voxels narrowed down by the second narrowing down to a dummy model.

【図12】(A)はダミーモデルの腕の可動範囲の平面
図、(B)はダミーモデルの腕の可動範囲の側面図であ
る。
12A is a plan view of the movable range of the dummy model arm, and FIG. 12B is a side view of the movable range of the dummy model arm.

【図13】2つのテレビカメラにより3次元座標を演算
するときの諸量を説明する概念図である。
FIG. 13 is a conceptual diagram illustrating various amounts when three-dimensional coordinates are calculated by two television cameras.

【図14】カーソルの3次元座標演算を説明するための
説明図である。
FIG. 14 is an explanatory diagram for explaining a three-dimensional coordinate calculation of a cursor.

【図15】(A)は情報入力者が人指し指を大型ディス
プレイに向けた状態を説明する説明図、(B)は情報入
力者が親指を立ち上げた情報を説明する説明図である。
FIG. 15A is an explanatory diagram illustrating a state in which the information input person points the index finger toward the large display, and FIG. 15B is an explanatory diagram illustrating information in which the information input person raises his / her thumb.

【図16】第2実施例に係るハンドポインティング入力
装置の構成のを説明するための説明図である。
FIG. 16 is an explanatory diagram illustrating a configuration of a hand pointing input device according to a second embodiment.

【図17】第2実施例のCCDエリアイメージセンサ等
の位置等の諸量を説明するための説明図である。
FIG. 17 is an explanatory diagram for explaining various quantities such as the positions of the CCD area image sensor and the like of the second embodiment.

【図18】第3実施例のハンドポインティング入力装置
で実行されるハンドポインティング処理ルーチンの流れ
を示す流れ図である。
FIG. 18 is a flowchart showing a flow of a hand pointing processing routine executed by the hand pointing input device according to the third embodiment.

【図19】(A)は第3実施例に係るハンドポインティ
ング入力装置の構成のを説明するための説明図、(B)
はテレビカメラAの画像データから人指し指の指先及び
指の付け根の位置にある背景情報を取得することを説明
する概念図、(C)はテレビカメラBの画像データから
人指し指の指先及び指の付け根の位置にある背景情報を
取得することを説明する概念図である。
FIG. 19 (A) is an explanatory view for explaining the configuration of the hand pointing input device according to the third embodiment, and (B).
Is a conceptual diagram illustrating acquisition of background information at the position of the fingertip of the index finger and the base of the finger from the image data of the television camera A, and (C) is a diagram of the fingertip of the index finger and the base of the finger from the image data of the television camera B. It is a conceptual diagram explaining acquiring the background information in a position.

【図20】背景が色彩であるときの背景情報を取得する
場合の概念図である。
FIG. 20 is a conceptual diagram in the case of acquiring background information when the background is color.

【図21】背景が光源であるときの背景情報を取得する
場合の概念図である。
FIG. 21 is a conceptual diagram in the case of acquiring background information when the background is a light source.

【図22】第4実施例のハンドポインティング入力装置
で実行されるハンドポインティング処理ルーチンの流れ
を示す流れ図である。
FIG. 22 is a flowchart showing the flow of a hand pointing processing routine executed by the hand pointing input device according to the fourth embodiment.

【図23】従来技術のハンドポインティング入力装置を
説明するための説明図である。
FIG. 23 is an explanatory diagram illustrating a conventional hand pointing input device.

【符号の説明】[Explanation of symbols]

10 ハンドポインティング入力装置 14 CPU(認識手段、位置演算手段、動作検出手
段、入力情報取得手段) 26 大型ディスプレイ(表示手段、位置表示手段) 30 テレビカメラ(撮像手段) 30A 等距離射影型魚眼レンズ(広角固定焦点レン
ズ) 30B CCDエリアイメージセンサ(エリアセンサ) 38 鏡(反射手段)
10 hand pointing input device 14 CPU (recognition means, position calculation means, motion detection means, input information acquisition means) 26 large display (display means, position display means) 30 television camera (imaging means) 30A equidistant projection fisheye lens (wide angle Fixed focus lens) 30B CCD area image sensor (area sensor) 38 Mirror (reflection means)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 所定の画像を表示する表示手段と、 予め定められた位置に配置され、90°以上の視野角を
有する広角固定焦点レンズ及び該レンズによる結像点に
配設されたエリアセンサを備え、視野内に存在する情報
入力者としての被認識対象を含む所定の領域を各々異な
る位置から撮像する複数の撮像手段と、 前記複数の撮像手段により撮像された各々異なる撮像情
報を処理して被認識対象の指又は腕を認識する認識手段
と、 前記認識手段により認識された被認識対象の指又は腕が
指し示す方向の延長線上にある前記表示手段上の位置を
演算する位置演算手段と、 前記位置演算手段により演算された前記表示手段上の位
置を表示する位置表示手段と、 前記複数の撮像手段により新たに撮像された各々異なる
撮像情報を処理して被認識対象の指又は腕による予め定
められた動作を検出する動作検出手段と、 前記動作検出手段により予め定められた動作が検出され
たときに、前記位置表示手段により表示された位置にあ
る前記表示手段が表示した情報を被認識対象が入力した
入力情報として取得する入力情報取得手段と、 を備えたハンドポインティング入力装置。
1. A display unit for displaying a predetermined image, a wide-angle fixed-focus lens arranged at a predetermined position and having a viewing angle of 90 ° or more, and an area sensor arranged at an image forming point of the lens. A plurality of image pickup means for picking up a predetermined region including a recognition target as an information input person existing in the visual field from different positions, and processing different image pickup information picked up by the plurality of image pickup means. Recognition means for recognizing a finger or arm as a recognition target, and position calculation means for calculating a position on the display means on an extension line of a direction indicated by the recognition target finger or arm recognized by the recognition means. A position display means for displaying the position on the display means calculated by the position calculation means, and a different recognition target by processing different image pickup information newly picked up by the plurality of image pickup means. Motion detecting means for detecting a predetermined motion of the finger or arm, and when the predetermined motion is detected by the motion detecting means, the display means at the position displayed by the position display means is A hand pointing input device comprising: input information acquisition means for acquiring the displayed information as input information input by a recognition target.
【請求項2】 所定の画像を表示する表示手段と、 予め定められた位置に配置され、90°以上の視野角を
有する広角固定焦点レンズ及び該レンズによる結像点に
配設されたエリアセンサを備え、視野内に存在する情報
入力者としての被認識対象を含む所定の領域を撮像する
撮像手段と、 前記撮像手段の近傍に配置され、前記エリアセンサ上に
結像するように被認識対象の像を反射する反射手段と、 前記撮像手段により撮像された撮像情報を処理して被認
識対象の指又は腕を認識する認識手段と、 前記認識手段により認識された被認識対象の指又は腕が
指し示す方向の延長線上にある前記表示手段上の位置を
演算する位置演算手段と、 前記位置演算手段により演算された前記表示手段上の位
置を表示する位置表示手段と、 前記撮像手段により新たに撮像された撮像情報を処理し
て被認識対象の指又は腕による予め定められた動作を検
出する動作検出手段と、 前記動作検出手段により予め定められた動作が検出され
たときに、前記位置表示手段により表示された位置にあ
る前記表示手段が表示した情報を被認識対象が入力した
入力情報として取得する入力情報取得手段と、 を備えたハンドポインティング入力装置。
2. A display unit for displaying a predetermined image, a wide-angle fixed focus lens having a viewing angle of 90 ° or more arranged at a predetermined position, and an area sensor arranged at an image forming point of the lens. An image pickup means for picking up an image of a predetermined area including the object to be recognized as an information input person existing in the field of view; A reflection means for reflecting the image of the object, a recognition means for recognizing the finger or arm to be recognized by processing the imaging information imaged by the imaging means, and a finger or arm to be recognized recognized by the recognition means. Position calculating means for calculating a position on the display means on an extension of the direction pointed by, position display means for displaying the position on the display means calculated by the position calculating means, and the imaging means. A motion detecting unit that processes the newly captured image information to detect a predetermined motion of the recognition target finger or arm; and when the motion detecting unit detects a predetermined motion, A hand pointing input device comprising: input information acquisition means for acquiring the information displayed by the display means at the position displayed by the position display means as the input information input by the recognition target.
【請求項3】 所定の画像を表示する表示手段と、 予め定められた位置に配置され、90°以上の視野角を
有する広角固定焦点レンズ及び該レンズによる結像点に
配設されたエリアセンサを備え、視野内に存在する情報
入力者としての被認識対象を含む所定の領域を既知パタ
ーンを背景として各々異なる位置から撮像する複数の撮
像手段と、 前記複数の撮像手段により撮像された各々異なる撮像情
報と前記既知パターンに関する情報とに基づいて被認識
対象の指又は腕を認識する認識手段と、 前記認識手段により認識された被認識対象の指又は腕が
指し示す方向の延長線上にある前記表示手段上の位置を
演算する位置演算手段と、 前記位置演算手段により演算された前記表示手段上の位
置を表示する位置表示手段と、 前記複数の撮像手段により新たに撮像された各々異なる
撮像情報を処理して被認識対象の指又は腕による予め定
められた動作を検出する動作検出手段と、 前記動作検出手段により予め定められた動作が検出され
たときに、前記位置表示手段により表示された位置にあ
る前記表示手段が表示した情報を被認識対象が入力した
入力情報として取得する入力情報取得手段と、 を備えたハンドポインティング入力装置。
3. A display unit for displaying a predetermined image, a wide-angle fixed focus lens having a viewing angle of 90 ° or more arranged at a predetermined position, and an area sensor arranged at an image forming point of the lens. A plurality of image pickup means for picking up a predetermined region including a recognition target as an information input person existing in the visual field from different positions with a known pattern as a background, and different image pickup means imaged by the plurality of image pickup means Recognition means for recognizing a finger or arm to be recognized based on imaging information and information on the known pattern, and the display on an extension line of the direction indicated by the finger or arm to be recognized recognized by the recognition means. Position calculation means for calculating a position on the means, position display means for displaying the position on the display means calculated by the position calculation means, and the plurality of image pickup means When a predetermined motion is detected by the motion detection unit, the motion detection unit that processes different newly captured image information to detect a predetermined motion by the recognition target finger or arm, In addition, a hand pointing input device comprising: input information acquisition means for acquiring information displayed by the display means at the position displayed by the position display means as input information input by the recognition target.
JP7136775A 1995-06-02 1995-06-02 Hand pointing input device Pending JPH08328735A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7136775A JPH08328735A (en) 1995-06-02 1995-06-02 Hand pointing input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7136775A JPH08328735A (en) 1995-06-02 1995-06-02 Hand pointing input device

Publications (1)

Publication Number Publication Date
JPH08328735A true JPH08328735A (en) 1996-12-13

Family

ID=15183235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7136775A Pending JPH08328735A (en) 1995-06-02 1995-06-02 Hand pointing input device

Country Status (1)

Country Link
JP (1) JPH08328735A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and operation range indicating method
EP0866419A2 (en) * 1997-03-21 1998-09-23 Takenaka Corporation Pointing device using the image of the hand
EP0913790A1 (en) * 1997-10-29 1999-05-06 Takenaka Corporation Hand pointing apparatus
JP2000056916A (en) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd Hand pointing device
JP2000222117A (en) * 1999-01-29 2000-08-11 Takenaka Komuten Co Ltd Hand pointing device, indicated position display method and recording medium
JP2000267800A (en) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd Movement recognizing device
JP2003084229A (en) * 2001-09-14 2003-03-19 Takenaka Komuten Co Ltd Device and method for displaying pointed position
JP2004246856A (en) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology Interface device
JP2007130398A (en) * 2005-11-14 2007-05-31 Toshiba Corp Optical position measuring unit
JP2009240370A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Motion detector
JP2010282463A (en) * 2009-06-05 2010-12-16 Newcom Inc Touch panel device
CN102238350A (en) * 2010-04-30 2011-11-09 鸿富锦精密工业(深圳)有限公司 System and method for controlling television channel switching remotely
KR101481307B1 (en) * 2013-08-16 2015-01-14 성균관대학교산학협력단 Mobile terminal for generating control command using finger image and sensor and method for generating control command using finger image from camera and sensor in terminal
WO2015118756A1 (en) * 2014-02-10 2015-08-13 ソニー株式会社 Information processing device, information processing method, and program
JP2016076275A (en) * 2010-06-09 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company Man-machine interface based on gesture
JP6233941B1 (en) * 2017-05-11 2017-11-22 株式会社ネットアプリ Non-contact type three-dimensional touch panel, non-contact type three-dimensional touch panel system, non-contact type three-dimensional touch panel control method, program, and recording medium
WO2018092627A1 (en) * 2016-11-21 2018-05-24 セイコーエプソン株式会社 Projector system

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and operation range indicating method
EP1329838A2 (en) * 1997-03-21 2003-07-23 Takenaka Corporation Pointing device using the image of the hand
EP0866419A2 (en) * 1997-03-21 1998-09-23 Takenaka Corporation Pointing device using the image of the hand
JPH10326148A (en) * 1997-03-21 1998-12-08 Takenaka Komuten Co Ltd Hand pointing device
EP1329838A3 (en) * 1997-03-21 2003-08-06 Takenaka Corporation Pointing device using the image of the hand
EP0866419A3 (en) * 1997-03-21 2001-05-23 Takenaka Corporation Pointing device using the image of the hand
US6385331B2 (en) 1997-03-21 2002-05-07 Takenaka Corporation Hand pointing device
EP1329839A3 (en) * 1997-03-21 2003-07-30 Takenaka Corporation Pointing device using the image of the hand
EP0913790A1 (en) * 1997-10-29 1999-05-06 Takenaka Corporation Hand pointing apparatus
JPH11134089A (en) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd Hand pointing device
US6434255B1 (en) 1997-10-29 2002-08-13 Takenaka Corporation Hand pointing apparatus
JP2000056916A (en) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd Hand pointing device
JP2000267800A (en) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd Movement recognizing device
JP2000222117A (en) * 1999-01-29 2000-08-11 Takenaka Komuten Co Ltd Hand pointing device, indicated position display method and recording medium
JP2003084229A (en) * 2001-09-14 2003-03-19 Takenaka Komuten Co Ltd Device and method for displaying pointed position
JP2004246856A (en) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology Interface device
JP2007130398A (en) * 2005-11-14 2007-05-31 Toshiba Corp Optical position measuring unit
JP2009240370A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Motion detector
JP2010282463A (en) * 2009-06-05 2010-12-16 Newcom Inc Touch panel device
CN102238350A (en) * 2010-04-30 2011-11-09 鸿富锦精密工业(深圳)有限公司 System and method for controlling television channel switching remotely
JP2016076275A (en) * 2010-06-09 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company Man-machine interface based on gesture
KR101481307B1 (en) * 2013-08-16 2015-01-14 성균관대학교산학협력단 Mobile terminal for generating control command using finger image and sensor and method for generating control command using finger image from camera and sensor in terminal
WO2015118756A1 (en) * 2014-02-10 2015-08-13 ソニー株式会社 Information processing device, information processing method, and program
JPWO2015118756A1 (en) * 2014-02-10 2017-03-23 ソニー株式会社 Information processing apparatus, information processing method, and program
US10088910B2 (en) 2014-02-10 2018-10-02 Sony Corporation Information processing apparatus and information processing method
WO2018092627A1 (en) * 2016-11-21 2018-05-24 セイコーエプソン株式会社 Projector system
JP2018085552A (en) * 2016-11-21 2018-05-31 セイコーエプソン株式会社 Projector system
US10754474B2 (en) 2016-11-21 2020-08-25 Seiko Epson Corporation Projector system
JP6233941B1 (en) * 2017-05-11 2017-11-22 株式会社ネットアプリ Non-contact type three-dimensional touch panel, non-contact type three-dimensional touch panel system, non-contact type three-dimensional touch panel control method, program, and recording medium
WO2018207490A1 (en) * 2017-05-11 2018-11-15 株式会社ネットアプリ Contactless three-dimensional touch panel, contactless three-dimensional touch panel system, contactless three-dimensional touch panel control method, program and recording medium
JP2018190306A (en) * 2017-05-11 2018-11-29 株式会社ネットアプリ Non-contact type three-dimensional touch panel, non-contact type three-dimensional touch panel system, control method for non-contact type three-dimensional touch panel, program and storage medium

Similar Documents

Publication Publication Date Title
JPH08328735A (en) Hand pointing input device
JP4278979B2 (en) Single camera system for gesture-based input and target indication
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
JP3795647B2 (en) Hand pointing device
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
KR100869447B1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
RU2455676C2 (en) Method of controlling device using gestures and 3d sensor for realising said method
US8971565B2 (en) Human interface electronic device
US8929608B2 (en) Device and method for recognizing three-dimensional position and orientation of article
US6775014B2 (en) System and method for determining the location of a target in a room or small area
US8723789B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
WO2017147748A1 (en) Wearable system gesture control method and wearable system
JP2001184161A (en) Method and device for inputting information, writing input device, method for managing written data, method for controlling display, portable electronic writing device, and recording medium
US20080316203A1 (en) Information processing method and apparatus for specifying point in three-dimensional space
US20040041794A1 (en) Information input system
JP2001512241A (en) Scanning apparatus and method
KR20030065379A (en) Omnidirectional visual system, image processing method, control program, and readable recording medium
US20150009119A1 (en) Built-in design of camera system for imaging and gesture processing applications
KR20130018004A (en) Method and system for body tracking for spatial gesture recognition
JP3792907B2 (en) Hand pointing device
JP7448633B2 (en) A three-dimensional measuring device that generates position information on the surface of an object based on images captured by multiple cameras.
JPH08329222A (en) Three-dimensional position recognition device
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
JP2001166881A (en) Pointing device and its method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040323