JP2003076488A - Device and method of determining indicating position - Google Patents

Device and method of determining indicating position

Info

Publication number
JP2003076488A
JP2003076488A JP2001266022A JP2001266022A JP2003076488A JP 2003076488 A JP2003076488 A JP 2003076488A JP 2001266022 A JP2001266022 A JP 2001266022A JP 2001266022 A JP2001266022 A JP 2001266022A JP 2003076488 A JP2003076488 A JP 2003076488A
Authority
JP
Japan
Prior art keywords
pointing
image
information input
reference point
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001266022A
Other languages
Japanese (ja)
Inventor
Kenichi Harakawa
健一 原川
Hitoshi Tsurumaki
均 鶴巻
Hisashi Hanzawa
久 半沢
Masayuki Uritani
真幸 瓜谷
Tetsufumi Kawashima
哲文 川島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2001266022A priority Critical patent/JP2003076488A/en
Publication of JP2003076488A publication Critical patent/JP2003076488A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the determination accuracy of an indicating position or an indicating direction in indicating operations. SOLUTION: A situation that an information input person 10 is indicating an optional spot on the display surface of a display 12 is imaged from plural directions and it is determined based on plural images obtained by imaging that which arm of the operator is used for the indicating operation. When it is determined that his/her left arm is used, a reference point PO is set in the vicinity of his/her left shoulder, and when it is determined that his/her right arm is used, the reference point PO is set in the vicinity of his/her right shoulder. Thereby, three-dimensional coordinates of both the reference point PO and a characteristic point PX corresponding to a fingertip performing the indicating operation are determined. An extending direction of a virtual line 54 connecting the reference point PO and the characteristic point PX together is determined as the indicating direction of the information input person 10, and coordinates (plane coordinates) of an intersection S of a plane including the display surface of the display 12 and the virtual line 54 are calculated as the indicating position of the information input person 10.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は指示位置判断装置及
び方法に係り、特に、認識対象者を撮像し、認識対象者
が行った指示動作による指示位置又は方向を判断する指
示位置判断方法、及び該指示位置判断方法を適用可能な
指示位置判断装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pointing position determining apparatus and method, and more particularly, to a pointing position determining method for picking up an image of a recognition target person and determining a pointing position or a direction according to a pointing operation performed by the recognition target person, and The present invention relates to a pointing position determination device to which the pointing position determination method can be applied.

【0002】[0002]

【従来の技術】従来より、所定の情報を表示するディス
プレイ、ディスプレイの近傍に到来した認識対象者(利
用者)を互いに異なる方向から撮像する撮像手段を備
え、到来した認識対象者がディスプレイ上の任意の位置
を指等によって指し示す指示動作を行っている状況を撮
像手段によって複数の方向から撮像し、撮像によって得
られた複数の画像に基づいて認識対象者を認識し、指示
動作によって指し示されたディスプレイ上の位置を判断
し、ディスプレイ上の指示位置にカーソル等を表示する
と共に、認識対象者が親指を上げるクリック動作を行っ
たことを検出すると、ディスプレイ上の指示位置がクリ
ックされたと認識して所定の処理を行うハンドポインテ
ィング入力装置が知られている(例えば特開平4−27
1423号公報、特開平5−19957号公報、特開平
5−324181号公報等参照)。
2. Description of the Related Art Conventionally, a display for displaying predetermined information and an image pickup means for picking up a recognition target person (user) who has arrived in the vicinity of the display from different directions are provided. The situation in which the pointing operation for pointing an arbitrary position with a finger or the like is performed is imaged from a plurality of directions by the imaging unit, the recognition target person is recognized based on the plurality of images obtained by the imaging, and the pointing operation is performed. The position on the display is determined, a cursor, etc. is displayed at the indicated position on the display, and when it is detected that the person to be recognized performs a click operation of raising the thumb, it is recognized that the indicated position on the display has been clicked. There is known a hand pointing input device for performing a predetermined process according to a known method (for example, Japanese Patent Laid-Open No. 4-27).
1423, Japanese Patent Laid-Open No. 5-195957, Japanese Patent Laid-Open No. 5-324181, etc.).

【0003】上記のハンドポインティング入力装置によ
れば、認識対象者がキーボードやマウス等の入力機器に
触れることなく、情報処理装置に対して各種の指示を与
えたり、各種の情報を入力することが可能となるので、
情報処理装置を利用するための操作の簡素化を実現でき
る。
According to the above hand pointing input device, a person to be recognized can give various instructions to the information processing device or input various information without touching an input device such as a keyboard or a mouse. Because it will be possible
It is possible to simplify the operation for using the information processing device.

【0004】[0004]

【発明が解決しようとする課題】ところで、認識対象者
による指示動作における指示位置(又は指示方向)の判
断方法としては、認識対象者に対し、指示位置等の変化
に拘らず位置の変化しない箇所を基準点として設定する
と共に、指示位置等の変化に応じて位置が変化する箇所
を特徴点として設定し、基準点と特徴点の位置関係に基
づいて指示位置等を判断する方法が採用されている。こ
の判断方法において、基準点としては、例えば認識対象
者の背中のうち左右方向に沿った中心に相当する箇所
が、特徴点としては、例えば指示動作を行っている指先
に相当する箇所が用いられる。
By the way, as a method of determining the pointing position (or pointing direction) in the pointing operation by the recognition target person, a position where the position does not change with respect to the recognition target person regardless of the change of the pointing position or the like. Is set as a reference point, and a position whose position changes according to a change in the indicated position etc. is set as a characteristic point, and a method of determining the indicated position etc. based on the positional relationship between the reference point and the characteristic point is adopted. There is. In this determination method, the reference point is, for example, a location corresponding to the center of the back of the person to be recognized along the left-right direction, and the feature point is, for example, the location corresponding to the fingertip performing the pointing action. .

【0005】しかしながら、認識対象者の指示動作は通
常、左右どちらかの腕を使って行われるので、認識対象
者の胴体に対して特徴点の位置は左右方向にオフセット
している。従って、認識対象者が想定した指示位置又は
指示方向に対し、ハンドポインティング装置が判断した
指示位置又は指示方向が大きく相違することも多く、指
示位置又は指示方向の判断精度の向上が求められてい
た。
However, since the recognition target person's pointing operation is usually performed by using one of the left and right arms, the position of the feature point is offset in the left-right direction with respect to the body of the recognition target person. Therefore, the pointing position or pointing direction determined by the hand pointing device often differs greatly from the pointing position or pointing direction assumed by the person to be recognized, and improvement in the determination accuracy of the pointing position or pointing direction has been demanded. .

【0006】本発明は上記事実を考慮して成されたもの
で、指示動作における指示位置又は指示方向の判断精度
の向上を実現できる指示位置判断装置及び指示位置判断
方法を得ることが目的である。
The present invention has been made in consideration of the above facts, and an object of the present invention is to provide a pointing position determination device and a pointing position determination method that can improve the accuracy of determination of a pointing position or a pointing direction in a pointing operation. .

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る指示位置判断装置は、互い
に異なる複数の方向から認識対象者を撮像する撮像手段
と、認識対象者が特定の位置又は特定の方向を指し示す
指示動作を行っている状況を前記撮像手段が撮像するこ
とで得られた画像に基づいて、認識対象者が前記指示動
作に用いている腕の左右を判別し、前記指示動作におけ
る指示位置又は指示方向の変化に拘らず位置が変化せ
ず、かつ前記腕の左右の判別結果に応じて認識対象者の
左右方向の中心に対してオフセットさせた位置に基準点
を設定する基準点設定手段と、前記撮像手段が撮像する
ことで得られた画像から抽出した前記認識対象者に相当
する画像部に基づいて、前記指示動作における指示位置
又は指示方向の変化に応じて位置が変化する特徴点の位
置を求める特徴点認識手段と、前記基準点設定手段によ
って設定された基準点の位置及び前記特徴点認識手段に
よって求められた前記特徴点の位置に基づいて、前記指
示動作による指示位置又は方向を判断する判断手段と、
を含んで構成されている。
In order to achieve the above-mentioned object, a pointing position determination device according to the invention of claim 1 has an image pickup means for picking up a recognition target person from a plurality of different directions, and a recognition target person. Based on the image obtained by the imaging means capturing the situation in which the pointing operation indicating the specific position or the specific direction is performed, the recognition target person determines the right and left of the arm used for the pointing operation. The reference point is a position that does not change regardless of the change of the pointing position or the pointing direction in the pointing operation, and is offset to the center of the recognition target person in the left-right direction according to the determination result of the left and right of the arm. Based on an image portion corresponding to the recognition target person extracted from the image obtained by the image capturing means capturing an image, the change of the pointing position or the pointing direction in the pointing operation. Based on the feature point recognition means for obtaining the position of the feature point whose position changes according to the position of the reference point set by the reference point setting means and the feature point recognition means, based on the position of the feature point, Determination means for determining the pointing position or direction by the pointing operation,
It is configured to include.

【0008】請求項1記載の発明では、認識対象者が撮
像手段によって互いに異なる複数の方向から撮像され、
認識対象者が特定の位置又は特定の方向を指し示す指示
動作を行っている状況が撮像されることで得られた画像
に基づいて、基準点設定手段により、認識対象者が指示
動作に用いている腕の左右を判別する。
According to the first aspect of the invention, the person to be recognized is imaged by the imaging means from a plurality of different directions,
Based on the image obtained by capturing the situation in which the recognition target person is performing the pointing operation pointing to a specific position or a specific direction, the reference point setting means uses the recognition target person for the pointing operation. Determine left and right arm.

【0009】なお、撮像手段が認識対象者を上方側から
撮像する構成である場合、基準点設定手段による腕の左
右の判別は、例えば請求項2に記載したように、撮像手
段が撮像することで得られた画像から抽出した認識対象
者に相当する画像部の輪郭の形状に基づいて行うことが
できる。また、基準点設定手段による腕の左右の判別
は、より詳しくは、例えば請求項3に記載したように、
認識対象者に相当する画像部の輪郭のうち認識対象者の
腕に相当する凸部分の位置の、前記画像部の輪郭全体に
対するオフセットの方向に基づいて行うことができる。
When the image pickup means is configured to image the person to be recognized from above, the reference point setting means determines the right and left of the arm by the image pickup means as described in claim 2, for example. This can be performed based on the contour shape of the image portion corresponding to the recognition target person extracted from the image obtained in (1). Further, the discrimination between the left and right of the arm by the reference point setting means is described in more detail, for example, as described in claim 3.
This can be performed based on the offset direction of the position of the convex portion corresponding to the recognition target person's arm in the contour of the image portion corresponding to the recognition target person with respect to the entire contour of the image portion.

【0010】認識対象者による指示動作は左右何れかの
腕を用いて行われるので、指示動作における指示位置又
は指示方向の変化に応じて位置が変化する特徴点(この
特徴点としては、例えば認識対象者が指示動作に用いて
いる腕の手の指先や、前記腕の手が把持している指示器
の先端等を適用することができる)の位置は、認識対象
者の胴体に対して左右何れかの方向にオフセットしてい
る。そして、特徴点の位置が認識対象者の左右何れの方
向にオフセットしているかについては、腕の左右の判別
結果から判断することができる。
Since the pointing motion by the person to be recognized is performed by using one of the left and right arms, a characteristic point whose position changes in accordance with a change in the pointing position or the pointing direction in the pointing motion (for example, this characteristic point is recognized) The fingertips of the hand of the arm used by the target person for the pointing motion, the tip of the indicator held by the hand of the arm, etc. can be applied) to the left or right of the body of the recognition target person. Offset in either direction. Whether the position of the feature point is offset to the left or right of the person to be recognized can be determined from the left and right discrimination results of the arm.

【0011】このため、基準点設定手段は、認識対象者
による指示動作における指示位置又は指示方向の変化に
拘らず位置が変化せず、かつ腕の左右の判別結果に応じ
て認識対象者の左右方向の中心に対してオフセットさせ
た位置に基準点を設定する。具体的には、例えば請求項
4に記載したように、認識対象者が指示動作に用いてい
る腕の付け根又はその付近に基準点を設定するようにし
てもよいし、認識対象者の身長等に応じたオフセット量
を設定し、認識対象者の胴体の左右方向に沿った中心か
ら設定したオフセット量だけオフセットさせた位置に基
準点を設定するようにしてもよい。これにより、認識対
象者の胴体に対する特徴点のオフセットに応じて、基準
点の位置もオフセットされることになる。
Therefore, the reference point setting means does not change the position regardless of the change of the pointing position or the pointing direction in the pointing operation by the recognition target person, and the left and right sides of the recognition target person are determined according to the discrimination result of the left and right arms. The reference point is set at a position offset from the center of the direction. Specifically, for example, as described in claim 4, a reference point may be set at or near the base of the arm used by the recognition target person for the pointing motion, or the height of the recognition target person, etc. It is also possible to set an offset amount according to the above and set the reference point at a position offset by the set offset amount from the center along the left-right direction of the body of the person to be recognized. As a result, the position of the reference point is also offset according to the offset of the feature point with respect to the body of the person to be recognized.

【0012】そして、請求項1記載の発明では、撮像手
段が撮像することで得られた画像から抽出した認識対象
者に相当する画像部に基づいて、特徴点認識手段が、指
示動作における指示位置又は指示方向の変化に応じて位
置が変化する特徴点の位置を求め、判断手段は、基準点
設定手段によって設定された基準点の位置及び特徴点認
識手段によって求められた特徴点の位置に基づいて、指
示動作による指示位置又は方向を判断するので、特徴点
の位置が左右方向にオフセットしていることによる影響
を排除することができ、指示動作における指示位置又は
指示方向の判断精度の向上を実現することができる。
According to the first aspect of the invention, the feature point recognizing means causes the feature point recognizing means to perform the pointing position in the pointing operation based on the image portion corresponding to the recognition target person extracted from the image obtained by the image pickup means. Alternatively, the position of the feature point whose position changes according to the change of the pointing direction is obtained, and the determination means is based on the position of the reference point set by the reference point setting means and the position of the feature point obtained by the feature point recognition means. Since the pointing position or direction by the pointing operation is determined, it is possible to eliminate the influence of the position of the feature point being offset in the left-right direction, and improve the accuracy of determining the pointing position or pointing direction in the pointing operation. Can be realized.

【0013】なお、請求項1記載の発明において、判断
手段による指示位置又は指示方向の判断は、例えば請求
項5に記載したように、基準点と特徴点を結ぶ直線と被
指示物体との交点を指示動作による指示位置と判断する
か、又は、基準点と特徴点を結ぶ直線が延びる方向を指
示動作による指示方向と判断することができる。
In the invention according to claim 1, the determination of the designated position or the designated direction by the determination means is, for example, as described in claim 5, the intersection of the straight line connecting the reference point and the feature point and the designated object. Can be determined to be the position designated by the pointing motion, or the direction in which the straight line connecting the reference point and the feature point extends can be determined to be the pointing direction designated by the pointing motion.

【0014】請求項6記載の発明に係る指示位置判断方
法は、互いに異なる複数の方向から認識対象者を撮像
し、認識対象者が特定の位置又は特定の方向を指し示す
指示動作を行っている状況を撮像することで得られた画
像に基づいて、認識対象者が前記指示動作に用いている
腕の左右を判別し、前記指示動作における指示位置又は
指示方向の変化に拘らず位置が変化せず、かつ前記腕の
左右の判別結果に応じて認識対象者の左右方向の中心に
対してオフセットさせた位置に基準点を設定すると共
に、前記撮像によって得られた画像から抽出された前記
認識対象者に相当する画像部に基づいて、前記指示動作
における指示位置又は指示方向の変化に応じて位置が変
化する特徴点の位置を求め、前記設定した基準点の位置
及び前記求めた特徴点の位置に基づいて、前記指示動作
による指示位置又は方向を判断するので、請求項1記載
の発明と同様に、指示動作における指示位置又は指示方
向の判断精度の向上を実現することができる。
According to a sixth aspect of the present invention, in the pointing position determining method, the recognition target person is imaged from a plurality of different directions, and the recognition target person performs a pointing operation indicating a specific position or a specific direction. Based on the image obtained by capturing the image, the left and right of the arm used by the recognition target person for the pointing motion is determined, and the position does not change regardless of the change in the pointing position or the pointing direction in the pointing motion. , And the recognition target person extracted from the image obtained by the imaging while setting a reference point at a position offset with respect to the center of the recognition target person in the left-right direction in accordance with the result of discrimination between the left and right sides of the arm. Based on the image portion corresponding to, the position of the characteristic point whose position changes in accordance with the change of the designated position or the designated direction in the pointing operation, the position of the set reference point and the obtained characteristic point Based on the position, since it is determined pointing position or direction by the instruction operation, similarly to the first aspect of the present invention, it is possible to realize the indicated position or the improvement of the pointing direction of the determination accuracy of the instruction operation.

【0015】[0015]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。図1に示すように、本
発明に係る認識対象者としての情報入力者10が到来す
る箇所の壁面には大画面ディスプレイ12が埋め込まれ
ている。なお、ディスプレイ12としては液晶ディスプ
レイ(LCD)やプラズマディスプレイ、ブラウン管、
光ファイバディスプレイ等の周知の表示手段を適用でき
る。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. As shown in FIG. 1, a large-screen display 12 is embedded on the wall surface of a location where an information input person 10 as a recognition target person according to the present invention arrives. As the display 12, a liquid crystal display (LCD), a plasma display, a cathode ray tube,
Known display means such as an optical fiber display can be applied.

【0016】ディスプレイ12はパーソナルコンピュー
タ等から成る情報処理装置14に接続されており(図2
参照)、情報処理装置14により、各種の情報が表示面
上に図形、表、文字、画像等の種々の表示形態で表示さ
れる。本実施形態において、情報入力者10は、ディス
プレイ12の前方の図1に示した箇所(情報入力空間)
に到来し、ディスプレイ12の表示面上の各種情報が表
示されている位置を指し示すと共に、クリック動作(詳
細は後述)を行うことにより、情報処理装置14に対し
て各種の指示を与えたり各種の処理を実行させる。
The display 12 is connected to an information processing device 14 including a personal computer (see FIG. 2).
Information), the information processing device 14 displays various kinds of information on the display surface in various display forms such as figures, tables, characters, and images. In the present embodiment, the information input person 10 has a portion (information input space) shown in FIG. 1 in front of the display 12.
When various information is displayed on the display surface of the display 12 and a click operation (details will be described later) is performed, various instructions are given to the information processing device 14 and various information is given. Let the process run.

【0017】図2に示すように、情報処理装置14に
は、本実施形態に係るハンドポインティング入力装置2
0のコントローラ22が接続されている。なお、上述し
たディスプレイ12、情報処理装置14及びハンドポイ
ンティング入力装置20は、本発明に係る指示位置判断
方法が適用された本発明に係る指示位置判断装置として
の機能を備えている。
As shown in FIG. 2, the information processing device 14 includes a hand pointing input device 2 according to the present embodiment.
0 controller 22 is connected. The display 12, the information processing device 14, and the hand pointing input device 20 described above have a function as a pointing position determination device according to the present invention to which the pointing position determination method according to the present invention is applied.

【0018】コントローラ22は、CPU22A、RO
M22B、RAM22C、入出力インタフェース22D
を備えており、これらがバスを介して互いに接続されて
構成されている。入出力インタフェース22Dには情報
処理装置14が接続されていると共に、記憶内容を書換
え可能な不揮発性の記憶媒体を内蔵した記憶装置(例え
ばハードディスクドライブ(HDD))24、各種の情報
を表示するためのディスプレイ26、オペレータが各種
の指示やデータを入力するためのキーボード28、照明
制御装置30、撮像制御装置34、マーク板駆動装置3
8、及びCD−ROMドライバ40が各々接続されてい
る。
The controller 22 includes a CPU 22A and RO
M22B, RAM22C, input / output interface 22D
And are connected to each other via a bus. The information processing device 14 is connected to the input / output interface 22D, and a storage device (for example, a hard disk drive (HDD)) 24 having a built-in non-volatile storage medium capable of rewriting the stored contents, for displaying various information Display 26, a keyboard 28 for an operator to input various instructions and data, an illumination control device 30, an imaging control device 34, a mark plate driving device 3
8 and a CD-ROM driver 40 are connected respectively.

【0019】コントローラ22を本発明に係るハンドポ
インティング装置として機能させるためのプログラム
(以下、単に「プログラム」という)は、例えばCD−
ROMドライバ40に装填されるCD−ROM42に記
憶することができる。プログラムの実行が指示される
と、CD−ROM42からプログラムが読み出され、読
み出されたプログラムがコントローラ22によって実行
される。これにより、コントローラ22を含む各装置は
ハンドポインティング装置として機能する。
A program (hereinafter, simply referred to as "program") for causing the controller 22 to function as the hand pointing device according to the present invention is, for example, a CD-
It can be stored in the CD-ROM 42 loaded in the ROM driver 40. When the execution of the program is instructed, the program is read from the CD-ROM 42, and the read program is executed by the controller 22. Accordingly, each device including the controller 22 functions as a hand pointing device.

【0020】照明制御装置30には、近赤外域の波長の
光をビーム状に射出する複数の近赤外光照明装置32
A、32Bが接続されている。図1に示すように、近赤
外光照明装置32A、32Bは、情報入力空間の上方の
互いに異なる箇所に配設されており、情報入力空間に到
来した情報入力者10を、互いに異なる方向から照明す
るように照射範囲が調整されている。照明制御装置30
は照明装置32A、32Bの点灯・消灯を制御する。
The illumination control device 30 includes a plurality of near-infrared light illuminating devices 32 which emit light in the near-infrared wavelength region into a beam.
A and 32B are connected. As shown in FIG. 1, the near-infrared light illuminators 32A and 32B are arranged at different positions above the information input space, and the information input person 10 who has arrived in the information input space is seen from different directions. The irradiation range is adjusted to illuminate. Lighting control device 30
Controls the turning on / off of the lighting devices 32A and 32B.

【0021】撮像制御装置34には、情報入力空間の上
方の互いに異なる箇所に配設された(図1参照)複数の
ビデオカメラ36A、36Bが接続されている。ビデオ
カメラ36A、36Bは、図示は省略するが、近赤外光
に感度を有するCCD等から成るエリアセンサを備えて
いると共に、入射光をエリアセンサの受光面に結像させ
る結像レンズの光入射側に、近赤外域の波長の光のみを
透過するフィルタが設けられている。なお、撮像手段
(カメラ)として遠赤外線カメラを用い、人間(情報入
力者)の体温による遠赤外線と、人間の体温と所定値以
上離れた温度(体温よりも高い温度であっても低い温度
であってもよい)に設定又は温度調整された床から放射
される遠赤外光と、によって人間と背景とを弁別する方
法を用いても良い。この場合は照明装置32A、32B
及び照明制御装置30を省略することも可能となる。
A plurality of video cameras 36A and 36B arranged at different positions above the information input space (see FIG. 1) are connected to the image pickup control device 34. Although not shown, the video cameras 36A and 36B are provided with an area sensor made of a CCD or the like having sensitivity to near-infrared light, and the light of an imaging lens that forms an image of incident light on the light receiving surface of the area sensor. A filter that transmits only light having a wavelength in the near infrared region is provided on the incident side. A far-infrared camera is used as the imaging means (camera), and far-infrared rays caused by the body temperature of a human (information input person) and a temperature separated from the human body temperature by a predetermined value or more (at a temperature higher or lower than the body temperature It may be present), and a method of discriminating a human from a background by far infrared light emitted from the floor whose temperature is set or adjusted. In this case, lighting devices 32A, 32B
It is also possible to omit the lighting control device 30.

【0022】図3に示すように、ビデオカメラ36A、
36Bは情報入力空間に到来した情報入力者10を互い
に異なる方向から撮像するように向きが調整されてい
る。また、ビデオカメラ36Aは、情報入力空間に到来
した情報入力者10が撮像範囲内に入り、かつ照明装置
32Aから射出された光が結像レンズに直接入射せず、
かつ撮像範囲の中心が、情報入力空間内において照明装
置32Aによる照明範囲の中心と床面から所定高さで交
差するように(照明装置32Aによる床面上の照明範囲
が撮像範囲から外れるように)、向き(撮像範囲)が調
整されている。同様にビデオカメラ36Bは、情報入力
空間に到来した情報入力者10が撮像範囲内に入り、か
つ照明装置32Bから射出された光が結像レンズに直接
入射せず、かつ撮像範囲の中心が、情報入力空間内にお
いて照明装置32Bによる照明範囲の中心と床面から所
定高さで交差するように(照明装置32Aによる床面上
の照明範囲が撮像範囲から外れるように)、向き(撮像
範囲)が調整されている。
As shown in FIG. 3, the video camera 36A,
The direction of 36B is adjusted so that the information input person 10 who has arrived in the information input space is imaged from different directions. Further, in the video camera 36A, the information input person 10 who has arrived in the information input space enters the imaging range, and the light emitted from the illumination device 32A does not directly enter the imaging lens,
In addition, the center of the imaging range intersects with the center of the illumination range by the lighting device 32A in the information input space at a predetermined height from the floor surface (the illumination range on the floor surface by the lighting device 32A deviates from the imaging range). ), The orientation (imaging range) is adjusted. Similarly, in the video camera 36B, the information input person 10 who has arrived in the information input space enters the imaging range, the light emitted from the illumination device 32B does not directly enter the imaging lens, and the center of the imaging range is Direction (imaging range) so that the center of the illumination range of the illuminating device 32B intersects with the floor surface at a predetermined height in the information input space (so that the illumination range on the floor surface of the illuminating device 32A is outside the imaging range). Has been adjusted.

【0023】なお、ビデオカメラ36A、36B、撮像
制御装置34、照明制御装置30、及び近赤外光照明装
置32A、32Bは本発明の撮像手段(詳しくは請求項
2に記載の撮像手段)に対応している。
The video cameras 36A and 36B, the image pickup control device 34, the illumination control device 30, and the near infrared light illumination devices 32A and 32B are the image pickup means of the present invention (specifically, the image pickup means according to claim 2). It corresponds.

【0024】また図4に示すように、ハンドポインティ
ング入力装置20は、情報入力空間の近傍に配設された
マーク板40を備えている。マーク板40は、透明な平
板に多数のマーク40Aがマトリクス状に等間隔で記録
されて構成されており、マーク40Aの配列方向に直交
する方向(図4の矢印A方向)に沿って情報入力空間を
横切るように移動可能とされている。なおマーク40A
は、画像上での認識が容易な色(例えば赤色)に着色さ
れている。入出力インタフェース22Dに接続されたマ
ーク板駆動装置38は、コントローラ22からの指示に
応じてマーク板40を図4の矢印A方向に沿って移動さ
せる。
Further, as shown in FIG. 4, the hand pointing input device 20 is provided with a mark plate 40 arranged near the information input space. The mark plate 40 is composed of a large number of marks 40A recorded in a matrix on a transparent flat plate at equal intervals, and information is input along a direction orthogonal to the arrangement direction of the marks 40A (direction of arrow A in FIG. 4). It is supposed to be movable across the space. Mark 40A
Is colored in a color (for example, red) that can be easily recognized on the image. The mark plate drive device 38 connected to the input / output interface 22D moves the mark plate 40 in the direction of arrow A in FIG. 4 according to an instruction from the controller 22.

【0025】次に本実施形態の作用として、まず、ハン
ドポインティング入力装置20が設置された際にコント
ローラ22によって実行される格子点位置情報初期設定
処理について、図5のフローチャートを参照して説明す
る。
Next, as the operation of this embodiment, first, the lattice point position information initial setting process executed by the controller 22 when the hand pointing input device 20 is installed will be described with reference to the flowchart of FIG. .

【0026】ステップ100では、マーク板駆動装置3
8により、マーク板40を所定位置(マーク板40の移
動範囲の端部に相当する位置)に移動させる。次のステ
ップ102では、現在のマーク板40の位置において、
マーク板40に記録されている多数のマーク40Aの情
報入力空間内での3次元座標(x,y,z)を各々演算
する。ステップ104では撮像制御装置34を介し、ビ
デオカメラ36A、36Bによって情報入力空間を撮像
させ、次のステップ106では、ビデオカメラ36Aが
情報入力空間を撮像することによって得られた画像(以
下画像Aと称する)を撮像制御装置34を介して取り込
む。
In step 100, the mark plate driving device 3
8, the mark plate 40 is moved to a predetermined position (a position corresponding to the end of the moving range of the mark plate 40). In the next step 102, at the current position of the mark plate 40,
Three-dimensional coordinates (x, y, z) in the information input space of many marks 40A recorded on the mark plate 40 are calculated. In step 104, the information input space is imaged by the video cameras 36A and 36B via the imaging control device 34, and in the next step 106, an image obtained by the video camera 36A imaging the information input space (hereinafter referred to as image A and (Referred to) is taken in via the imaging control device 34.

【0027】ステップ108では、ステップ106で取
り込んだ画像A中に存在するマーク40Aの認識(抽
出)を行い、次のステップ110では認識した全てのマ
ーク40Aについて、画像A上での位置(XA,YA)を
演算する。そしてステップ112では、画像A中に存在
する全てのマーク40Aについて、情報入力空間内での
3次元座標(x,y,z)と、画像A上での位置
(XA,YA)とを対応させ、ビデオカメラ36Aの格子
点位置情報として記憶装置24に記憶させる。
At step 108, the marks 40A existing in the image A captured at step 106 are recognized (extracted), and at the next step 110, all the recognized marks 40A are moved to the position (X A on the image A). , Y A ) is calculated. In step 112, for all the marks 40A present in the image A, 3-dimensional coordinates of the information input space (x, y, z) and the position on the image A (X A, Y A) and Correspondence is made to be stored in the storage device 24 as grid point position information of the video camera 36A.

【0028】次のステップ114〜120では、上記の
ステップ106〜112と同様にしてビデオカメラ36
Bに対する処理を行う。すなわち、ステップ114では
ビデオカメラ36Bが情報入力空間を撮像することによ
って得られた画像(以下画像Bと称する)を撮像制御装
置34を介して取り込み、ステップ116ではステップ
114で取り込んだ画像B中に存在するマーク40Aの
認識(抽出)を行い、次のステップ118では認識した
全てのマーク40Aについて、画像B上での位置
(XB,YB)を演算する。そしてステップ120では、
画像B中に存在する全てのマーク40Aについて、情報
入力空間内での3次元座標(x,y,z)と、画像B上
での位置(XB,YB)とを対応させ、ビデオカメラ36
Bの格子点位置情報として記憶装置24に記憶させる。
In the next steps 114 to 120, the video camera 36 is processed in the same manner as steps 106 to 112 described above.
Perform processing for B. That is, in step 114, the image obtained by the video camera 36B capturing the information input space (hereinafter referred to as image B) is captured through the image capturing control device 34, and in step 116, the image B captured in step 114 is captured. The existing marks 40A are recognized (extracted), and in the next step 118, the positions (X B , Y B ) on the image B are calculated for all the recognized marks 40A. And in step 120,
For all the marks 40A existing in the image B, the three-dimensional coordinates (x, y, z) in the information input space and the position (X B , Y B ) on the image B are made to correspond to each other, and the video camera is used. 36
The lattice point position information of B is stored in the storage device 24.

【0029】次のステップ122では、マーク板40が
最終位置(マーク板40の移動範囲のうちステップ10
0における所定位置と反対側の端部に相当する位置)迄
移動したか否か判定する。ステップ122の判定が否定
された場合にはステップ124へ移行し、マーク板駆動
装置38により、マーク板40を所定方向に一定距離
(詳しくは、マーク板40上におけるマーク40Aの間
隔に一致する距離)だけ移動させた後にステップ102
に戻る。
In the next step 122, the mark plate 40 is moved to the final position (step 10 in the moving range of the mark plate 40).
It is determined whether or not it has moved to a position corresponding to the end on the opposite side of the predetermined position at 0). When the determination in step 122 is negative, the process proceeds to step 124, and the mark plate driving device 38 moves the mark plate 40 in a predetermined direction by a predetermined distance (specifically, a distance corresponding to the distance between the marks 40A on the mark plate 40). ) Only after moving
Return to.

【0030】上記のように、マーク板40が最終位置に
移動する迄、ステップ102〜124が繰り返されるこ
とにより、マーク板40に記録されている多数のマーク
40Aは、情報入力空間内に一定間隔で格子状に並ぶ多
数の格子点に対応する位置へ移動され、ビデオカメラ3
6Aの格子点位置情報として、各格子点の情報入力空間
内での3次元座標と画像A上での位置とが対応されて記
憶装置24に記憶されると共に、ビデオカメラ36Bの
格子点位置情報として、各格子点の情報入力空間内での
3次元座標と画像B上での位置とが対応されて記憶装置
24に記憶されることになる。
As described above, steps 102 to 124 are repeated until the mark plate 40 moves to the final position, so that a large number of marks 40A recorded on the mark plate 40 are spaced at a constant interval in the information input space. Is moved to a position corresponding to a large number of grid points lined up in a grid with the video camera 3
As the grid point position information of 6A, the three-dimensional coordinates of each grid point in the information input space and the position on the image A are stored in the storage device 24 in association with each other, and the grid point position information of the video camera 36B is stored. As a result, the three-dimensional coordinates of each grid point in the information input space and the position on the image B are stored in the storage device 24 in association with each other.

【0031】なお、マーク板40及びマーク板駆動装置
38は、上記の格子点位置情報初期設定処理においての
み用いられ、後述する処理では用いないので、上記の処
理を実行した後に、マーク板40及びマーク板駆動装置
38を撤去するようにしてもよい。
Since the mark plate 40 and the mark plate driving device 38 are used only in the above-mentioned lattice point position information initializing process and are not used in the process to be described later, the mark plate 40 and the mark plate 40 are not used in the process described later. The mark plate drive device 38 may be removed.

【0032】またマーク40Aが記録されたマーク板4
0に代えて、透明な平板にLED等の多数の発光素子が
マトリクス状に配設されたマーク板を用い、マーク板を
一定距離ずつステップ移動させると共に、ステップ移動
における各位置で多数の発光素子を順に点灯させること
を繰り返すことによって上記の処理を行うようにしても
よい。また発光素子が取付けられたハンドを備え、該ハ
ンドを情報入力空間内の任意の位置に移動可能とされた
ロボットアーム装置を用い、ロボットアーム装置によっ
て各格子点に対応する各位置に発光素子を移動させて点
灯させることを繰り返すことによって上記処理を行うこ
とも可能である。
The mark plate 4 on which the mark 40A is recorded
Instead of 0, a mark plate in which a large number of light emitting elements such as LEDs are arranged in a matrix on a transparent flat plate is used, and the mark plate is moved stepwise by a constant distance, and a large number of light emitting elements are provided at each position in the step movement. The above process may be performed by repeatedly turning on the lights. Further, a robot arm device provided with a hand to which the light emitting element is attached and capable of moving the hand to an arbitrary position in the information input space is used, and the light emitting device is attached to each position corresponding to each lattice point by the robot arm device. It is also possible to carry out the above processing by repeating moving and lighting.

【0033】次に図6のフローチャートを参照し、上記
の格子点位置情報初期設定処理が行われた後にコントロ
ーラ22で定常的に実行される指示判断処理について説
明する。なお、この指示判断処理は情報入力空間に到来
した情報入力者10からの指示の判断等を行うものであ
る。
Next, with reference to the flow chart of FIG. 6, an instruction determination process which is routinely executed by the controller 22 after the above-mentioned lattice point position information initial setting process is performed will be described. It should be noted that this instruction determination processing is to determine an instruction from the information input person 10 who has arrived in the information input space.

【0034】ステップ150では、ビデオカメラ36A
から出力される画像Aを表す画像データ、及びビデオカ
メラ36Bから出力される画像Bを表す画像データを各
々取り込み、取り込んだ画像A及び画像Bの画像データ
に基づいて、情報入力空間内に情報入力者10が到来し
たか(存在しているか)否か判定し、判定が肯定される
迄待機する。
In step 150, the video camera 36A
The image data representing the image A output from the video camera 36B and the image data representing the image B output from the video camera 36B are respectively captured, and information is input into the information input space based on the captured image data of the images A and B. It is determined whether the person 10 has arrived (is present), and the process waits until the determination is affirmed.

【0035】コントローラ22が指示判断処理を実行し
ているときには、図8に示すように、照明制御装置30
は照明装置32A、32Bを交互に点灯させ、撮像制御
装置34は、ビデオカメラ36Aによる情報入力空間の
撮像が照明装置32Aが点灯しているときに行われ、ビ
デオカメラ36Bによる情報入力空間の撮像が照明装置
32Bが点灯しているときに行われるように制御する。
When the controller 22 is executing the instruction judging process, as shown in FIG.
Alternately turns on the lighting devices 32A and 32B, and the imaging control device 34 performs imaging of the information input space by the video camera 36A when the lighting device 32A is turned on, and imaging of the information input space by the video camera 36B. Control is performed when the lighting device 32B is turned on.

【0036】ビデオカメラ36Aの撮像範囲は照明装置
32Aによる床面上の照明範囲が撮像範囲から外れるよ
うに調整されているので、照明装置32Aによる床面上
の照明範囲内に情報入力者10の荷物やゴミ等の非認識
対象物50A(図3参照)が存在していたとしても、こ
の非認識対象物50Aがビデオカメラ36Aの撮像範囲
に入ることはない。また、床面上のビデオカメラ36A
によって撮像される範囲内に非認識対象物50B(図3
参照)が存在していたとしても、非認識対象物50Bは
照明装置32Aによる照明範囲から外れているので、画
像A中に存在する非認識対象物50Bに相当する画像部
の輝度は非常に低くなる。
Since the image pickup range of the video camera 36A is adjusted so that the illumination range on the floor surface by the illumination device 32A is out of the image pickup range, the information input person 10 is within the illumination range on the floor surface by the illumination device 32A. Even if there is a non-recognition target 50A (see FIG. 3) such as luggage or dust, the non-recognition target 50A does not fall within the imaging range of the video camera 36A. Also, the video camera 36A on the floor
The unrecognized object 50B (FIG.
Even if the non-recognition target 50B exists, the non-recognition target 50B is out of the illumination range of the lighting device 32A, and thus the brightness of the image portion corresponding to the non-recognition target 50B existing in the image A is very low. Become.

【0037】同様に、ビデオカメラ36Bの撮像範囲は
照明装置32Bによる床面上の照明範囲が撮像範囲から
外れるように調整されているので、照明装置32Bによ
って照明される床面上に非認識対象物50Bが存在して
いたとしても、この非認識対象物50Bがビデオカメラ
36Bの撮像範囲に入ることはない。また、床面上のビ
デオカメラ36Bによって撮像される範囲内に非認識対
象物50Aが存在していたとしても、画像B中に存在す
る非認識対象物50Bに相当する画像部の輝度は非常に
低くなる。
Similarly, since the imaging range of the video camera 36B is adjusted so that the illumination range on the floor surface by the lighting device 32B deviates from the imaging range, the non-recognition target on the floor surface illuminated by the lighting device 32B. Even if the object 50B exists, the non-recognition target object 50B does not fall within the imaging range of the video camera 36B. Further, even if the non-recognition target object 50A is present within the range captured by the video camera 36B on the floor surface, the brightness of the image portion corresponding to the non-recognition target object 50B present in the image B is very high. Get lower.

【0038】従って、先のステップ150の判定は、例
えば画像A及び画像B中に、高輝度でかつ所定値以上の
面積の画像部が存在しているか否か等の極めて簡単な判
断処理で済む。ステップ150の判定が否定された場合
には、判定が肯定される迄待機する。
Therefore, the determination in step 150 can be performed by a very simple determination process such as whether or not the image A and the image B have an image portion having a high brightness and an area of a predetermined value or more. . If the determination in step 150 is negative, the process waits until the determination is positive.

【0039】情報入力空間に情報入力者10が到来する
と、ステップ150の判定が肯定されてステップ152
へ移行し、各種のフラグや処理モード等の初期設定を行
う。次のステップ154では、情報入力空間から情報入
力者10が退去したか否か判定する。情報入力空間から
情報入力者10が退去した場合には、前記判定が肯定さ
れてステップ150に戻り、情報入力空間に再度情報入
力者10が到来する迄待機するが、前記判定が否定され
た場合には、ステップ156で基準点・特徴点座標演算
処理を行う。以下、この基準点・特徴点座標演算処理に
ついて、図7のフローチャートを参照して説明する。
When the information input person 10 arrives at the information input space, the determination at step 150 is affirmed and step 152 is performed.
Then, various flags and processing modes are initialized. In the next step 154, it is determined whether or not the information input person 10 has left the information input space. When the information input person 10 leaves the information input space, the determination is affirmative and the process returns to step 150 to wait until the information input person 10 arrives again in the information input space, but when the determination is denied. In step 156, reference point / feature point coordinate calculation processing is performed. Hereinafter, the reference point / feature point coordinate calculation processing will be described with reference to the flowchart in FIG. 7.

【0040】ステップ210ではビデオカメラ36A、
36Bから画像A及び画像Bのデータを各々取り込み、
次のステップ212では取り込んだ画像A及び画像Bか
ら、情報入力者10の全体像に相当する画像部を各々抽
出する。この情報入力者10の全体像に相当する画像部
についても、高輝度の画素から成る所定値以上の面積の
連続した領域を判断することで容易に抽出することがで
きる。
At step 210, the video camera 36A,
Data of image A and image B are respectively captured from 36B,
In the next step 212, image portions corresponding to the entire image of the information input person 10 are extracted from the captured images A and B, respectively. The image portion corresponding to the entire image of the information input person 10 can also be easily extracted by determining a continuous region having an area of a predetermined value or more that is composed of high-luminance pixels.

【0041】ステップ214では、情報入力者10の全
体像に相当する画像部に基づき、情報入力者10の身長
を求める。図9に示すように、点Oに位置しているビデ
オカメラ36の結像レンズの焦点距離をf、点Oを通る
鉛直線と情報入力空間の床面との交点Qと点Oとの距離
をH、点Qと情報入力者10が立っている床面上の点P
との距離をR、情報入力者10の頭頂部に相当する点
P’と点Pとの距離hを情報入力者10の身長とする。
また、点POQの成す角度をθ、点P’OQの成す角度
をθ’、ビデオカメラ36のエリアセンサの受光面に結
像される情報入力者10の像の長さをh’、点Pに対応
する受光面上の結像点を点p、点P’に対応する受光面
上の結像点を点p’、受光面の中心oと点pとの距離を
r、受光面の中心oと点p’との距離をr’とすると、
角度θ、θ’、距離r、r’は次の(1)〜(4)式か
ら求めることができる。
In step 214, the height of the information input person 10 is obtained based on the image portion corresponding to the entire image of the information input person 10. As shown in FIG. 9, the focal length of the imaging lens of the video camera 36 located at the point O is f, and the distance between the point Q and the intersection Q of the vertical line passing through the point O and the floor of the information input space. Is H, a point Q, and a point P on the floor on which the information input person 10 stands.
Is R, and the distance h between the point P ′ corresponding to the crown of the information input person 10 and the point P is the height of the information input person 10.
Further, the angle formed by the point POQ is θ, the angle formed by the point P′OQ is θ ′, the length of the image of the information input person 10 formed on the light receiving surface of the area sensor of the video camera 36 is h ′, and the point P is Is the image forming point on the light receiving surface corresponding to the point p, the image forming point on the light receiving surface corresponding to the point P ′ is point p ′, the distance between the center o of the light receiving surface and the point p is r, the center of the light receiving surface is If the distance between o and the point p'is r ',
The angles θ and θ ′ and the distances r and r ′ can be obtained from the following equations (1) to (4).

【0042】 θ =tan-1(R/H) …(1) θ’=tan-1{R/(H−h)} …(2) r =fθ …(3) r’=fθ’ …(4) 従って、情報入力者10の身長h及び距離Rは次の
(5)式及び(6)式によって求めることができる。
Θ = tan −1 (R / H) (1) θ ′ = tan −1 {R / (H−h)} (2) r = fθ (3) r ′ = fθ ′ (( 4) Therefore, the height h and the distance R of the information input person 10 can be obtained by the following equations (5) and (6).

【0043】 h=H{1−tan(r/f)/tan(r’/f)} …(5) R=Htan(r/f) …(6) 距離H及び焦点距離fは既知であるので、ステップ21
4ではビデオカメラ36A、36Bの撮像によって得ら
れた画像A及び画像Bの何れかから距離r、r’を求
め、これを(5)式に代入することにより情報入力者1
0の身長hを求めることができる。また、ステップ21
4では、画像A及び画像Bの各々から距離rを求め、こ
れを(6)式に各々代入して距離Rを各々求めることに
より、情報入力者10の床面上の位置(2次元座標)を
求める。
H = H {1-tan (r / f) / tan (r '/ f)} (5) R = Htan (r / f) (6) The distance H and the focal length f are known. So step 21
4, the distances r and r ′ are obtained from either the image A or the image B obtained by the video cameras 36A and 36B, and the distances r and r ′ are substituted into the equation (5) to obtain the information input person 1
A height h of 0 can be obtained. Also, step 21
4, the distance r is obtained from each of the image A and the image B, and this is substituted into the equation (6) to obtain the distance R, respectively, thereby obtaining the position of the information input person 10 on the floor surface (two-dimensional coordinate). Ask for.

【0044】次のステップ216では、ステップ214
で求めた情報入力者10の身長hに基づいて、床面を高
さ0としたときの情報入力者10の肩辺りに相当する高
さを推定演算し、推定演算した高さを、情報入力者10
の基準点P0(図13(A)参照)の床面からの高さz0
として決定する。なお、情報入力者10の肩辺りに相当
する高さに代えて、情報入力者10の胸に相当する高さ
や、情報入力者10が指示動作を行っている状態での情
報入力者10の肘に相当する高さを推定演算するように
してもよい。
In the next step 216, step 214
Based on the height h of the information input person 10 obtained in step 1, the height corresponding to the shoulder area of the information input person 10 when the height of the floor is set to 0 is estimated and calculated, and the estimated height is input to the information. Person 10
Of the reference point P 0 (see FIG. 13A) from the floor surface z 0
To decide. Note that, instead of the height corresponding to the shoulder area of the information input person 10, the height corresponding to the chest of the information input person 10 and the elbow of the information input person 10 in the state in which the information input person 10 is performing the instruction operation. The height corresponding to may be estimated and calculated.

【0045】ステップ218では、画像A及び画像B上
での情報入力者10の全体像に相当する画像部の形状に
基づいて、情報入力者10が指等によりディスプレイ1
2側を指し示す動作(指示動作)を行っているか否か判
定する。情報入力者10から見たディスプレイ12の方
向は既知であるので、ステップ218の判定は、例えば
情報入力者10の全体像に相当する画像部において、情
報入力者10の手に相当すると判断できる高さ位置に、
情報入力者10から見たディスプレイ12の方向に向か
って突出している部分が有るか否かを判断することで実
現できる。
In step 218, based on the shape of the image portion corresponding to the entire image of the information input person 10 on the image A and the image B, the information input person 10 uses the finger or the like to display the display 1.
It is determined whether or not an action (instruction action) indicating the second side is being performed. Since the direction of the display 12 as seen from the information input person 10 is known, the determination in step 218 can be determined to be equivalent to the hand of the information input person 10 in the image portion corresponding to the entire image of the information input person 10. In position
This can be realized by determining whether or not there is a portion protruding toward the display 12 viewed from the information input person 10.

【0046】これにより、情報入力者10が、図10
(A)に示す直立状態から、図10(B)又は(C)に
示すように腕を上げて手をディスプレイ12側に向けれ
ば、情報入力者10が指示動作を行っていると判定され
ることになる。ステップ218の判定が否定された場合
には、基準点及び特徴点の3次元座標の演算(詳細は後
述)を行うことなく基準点・特徴点座標演算処理を終了
する。
As a result, the information input person 10 can
From the upright state shown in (A), if the arm is raised and the hand is directed to the display 12 side as shown in FIG. 10 (B) or (C), it is determined that the information input person 10 is performing the instruction operation. It will be. When the determination in step 218 is negative, the reference point / feature point coordinate calculation process is ended without performing the calculation of the three-dimensional coordinates of the reference point and the feature point (details will be described later).

【0047】情報入力者10が指示動作を行っている場
合には、ステップ218の判定が肯定されてステップ2
20へ移行する。ステップ220では、画像A及び画像
B上での情報入力者10の全体像に相当する画像部の形
状に基づいて、情報入力者10による指示動作が、情報
入力者10の左腕を用いて行われているか、情報入力者
10の右腕を用いて行われているかを判別する。
If the information input person 10 is performing the instruction operation, the determination at step 218 is affirmative and step 2
Move to 20. In step 220, the instruction operation by the information input person 10 is performed using the left arm of the information input person 10 based on the shape of the image part corresponding to the entire image of the information input person 10 on the images A and B. It is determined whether the information input person 10 is using the right arm.

【0048】情報入力者10による指示動作が左腕を用
いて行われている場合、例として図11(A)に示すよ
うに、情報入力者10を上方側から撮像したときの情報
入力者10の全体像に相当する画像部は、情報入力者1
0の胴体に相当する部分の左側(情報入力者10の左腕
側)から、情報入力者10の腕(左腕)に相当する部分
が突出している形状になる。また、情報入力者10によ
る指示動作が右腕を用いて行われている場合には、例と
して図11(A)に示すように、情報入力者10を上方
側から撮像したときの情報入力者10の全体像に相当す
る画像部は、情報入力者10の胴体に相当する部分の右
側(情報入力者10の右腕側)から、情報入力者10の
腕(右腕)に相当する部分が突出している形状になる。
When the instructing operation by the information input person 10 is performed using the left arm, as shown in FIG. 11A as an example, the information input person 10 is imaged from above. The image portion corresponding to the whole image is the information input person 1
The part corresponding to the arm (left arm) of the information input person 10 is projected from the left side (the left arm side of the information input person 10) of the part corresponding to the body of 0. When the instruction operation by the information input person 10 is performed using the right arm, the information input person 10 when the information input person 10 is imaged from above as shown in FIG. In the image portion corresponding to the entire image of, the portion corresponding to the arm (right arm) of the information input person 10 projects from the right side of the portion corresponding to the body of the information input person 10 (the right arm side of the information input person 10). It becomes a shape.

【0049】従って、ステップ220における左右の判
別は、情報入力者10の全体像に相当する画像部の形状
が、図11(A)に示すような形状か図11(B)に示
すような形状かを判定することで行うことができる。こ
の判定は、より詳しくは、例えば情報入力者10の全体
像に相当する画像部に含まれる、情報入力者10の腕に
相当する部分を判断し、該部分が前記画像部に対して左
右何れの方向に偏倚しているかを判断することで行うこ
とができる。また、例えば情報入力者10の全体像に相
当する画像部を左右方向に沿った中央部で分割し、左右
方向に直交する方向に沿った両画像部の厚みを比較する
ことで行ってもよいし、情報入力者10の全体像に相当
する画像部の重心が左右何れの方向に偏倚しているかを
判断することで行うことも可能である。
Therefore, the right / left discrimination in step 220 is performed such that the shape of the image portion corresponding to the entire image of the information input person 10 is the shape shown in FIG. 11 (A) or the shape shown in FIG. 11 (B). It can be performed by determining whether or not. More specifically, this determination is performed by, for example, determining a portion corresponding to the arm of the information input person 10 included in the image portion corresponding to the entire image of the information input person 10, and determining whether the portion is left or right with respect to the image portion. This can be done by determining whether the direction is biased. Alternatively, for example, the image portion corresponding to the entire image of the information input person 10 may be divided at the central portion along the left-right direction, and the thicknesses of both image portions along the direction orthogonal to the left-right direction may be compared. However, it is also possible to determine whether the center of gravity of the image portion corresponding to the entire image of the information input person 10 is biased to the left or right.

【0050】次のステップ222では、ステップ220
における腕の左右の判別結果に基づいて、情報入力者1
0が指示動作に用いている腕側の肩(左腕であれば左
肩、右腕であれば右肩)付近に基準点P0が位置するよ
うに、基準点P0の水平面内座標(例えばx0、y0
値)を設定する。
In the next step 222, step 220
Information input person 1 based on the result of discrimination between the left and right arms in
0 arm side is used to instruct operation shoulders as the reference point P 0 in the vicinity (left shoulder if left arm, right shoulder if right arm) is located, horizontal plane coordinates (e.g. x 0 of the reference point P 0 , Y 0 values).

【0051】これにより、情報入力者10が指示動作に
用いている腕が左腕であれば、基準点P0の水平面内の
位置は図11(C)及び図13(B)に示す位置とさ
れ、情報入力者10が指示動作に用いている腕が右腕で
あれば、基準点P0の水平面内の位置は図11(D)及
び図13(C)に示す位置とされることで、先のステッ
プ216で決定した基準点P0の高さz0と併せて、基準
点P0の3次元座標(x0,y0,z0)が決定されること
になる。
As a result, if the arm used by the information input person 10 for the pointing motion is the left arm, the position of the reference point P 0 in the horizontal plane is the position shown in FIGS. 11 (C) and 13 (B). If the arm used by the information input person 10 for the pointing operation is the right arm, the position of the reference point P 0 in the horizontal plane is set to the position shown in FIG. 11D and FIG. 13C. together with the height z 0 of the reference point P 0 determined in step 216, the 3-dimensional coordinates of the reference point P 0 (x 0, y 0 , z 0) so that is determined.

【0052】上述したステップ214〜ステップ222
は本発明の基準点設定手段(詳しくは請求項2〜4に記
載の基準点設定手段)に対応しており、次のステップ2
24以降の処理は本発明の特徴点認識手段に対応してい
る。なお、基準点P0の水平面内位置を、指示動作に用
いている腕側の肩付近とすることに代えて、指示動作に
用いている腕側の胸部付近、或いは指示動作に用いてい
る腕側の肘付近としてもよい。
Steps 214 to 222 described above
Corresponds to the reference point setting means of the present invention (specifically, the reference point setting means according to claims 2 to 4).
The processing after 24 corresponds to the feature point recognition means of the present invention. It should be noted that instead of setting the position of the reference point P 0 in the horizontal plane near the shoulder on the arm side used for the pointing motion, the vicinity of the chest on the arm side used for the pointing motion or the arm used for the pointing motion. It may be near the side elbow.

【0053】ステップ224では、ビデオカメラ36A
から取り込んだ画像Aを表す画像データに基づいて、画
像A中に存在する情報入力者10の特徴点PXを抽出
し、画像A上での特徴点PXの位置(XA,YA)を演算
する。情報入力者10の特徴点PXとしては、ディスプ
レイ12側を指し示す動作を行っている指の先端に相当
する点等を用いることができる。この場合、情報入力者
10の全体像を表す画像部のうち、情報入力者10の手
に相当すると判断できる高さ位置に、ディスプレイ12
の方向に向かって突出している部分の先端の位置を、特
徴点PXの位置として演算することができる。
At step 224, the video camera 36A
The feature point P X of the information input person 10 existing in the image A is extracted based on the image data representing the image A captured from the image A, and the position (X A , Y A ) of the feature point P X on the image A is extracted. Is calculated. As the characteristic point P X of the information input person 10, a point corresponding to the tip of the finger performing the operation of pointing the display 12 side can be used. In this case, the display 12 is placed at a height position that can be determined to correspond to the hand of the information inputting person 10 in the image portion showing the entire image of the information inputting person 10.
The position of the tip of the portion projecting in the direction of can be calculated as the position of the feature point P X.

【0054】これにより、ビデオカメラ36Aによって
情報入力者10の手が図12(A)に示すように撮像さ
れた場合、特徴点PXの位置として、図12(B)に示
す特徴点PXの座標(XA,YA)が演算されることにな
る。
As a result, when the hand of the information input person 10 is imaged by the video camera 36A as shown in FIG. 12A, the characteristic point P X shown in FIG. 12B is set as the position of the characteristic point P X. The coordinates (X A , Y A ) are calculated.

【0055】ステップ226では、記憶装置24に記憶
されているビデオカメラ36Aの格子点位置情報に基づ
き、画像A上での位置が(XA±dX,YA±dY)の範
囲(図12(B)にハッチングで囲んだ範囲を参照)に
入る格子点を全て検索する。なお、このdX及びdYの
大きさは、格子点の間隔(マーク40Aの間隔)に基づ
き、少なくとも1個以上の格子点が抽出されるように定
められている。
In step 226, the position on the image A is in the range of (X A ± dX, Y A ± dY) based on the grid point position information of the video camera 36 A stored in the storage device 24 (FIG. 12 ( Search all grid points that fall within the hatched area in B)). The sizes of dX and dY are set so that at least one or more grid points are extracted based on the space between the grid points (the space between the marks 40A).

【0056】また、本実施形態ではビデオカメラの結像
レンズとして広角レンズを用いており、仮にdX及びd
Yを一定とすると、ビデオカメラと格子点との距離が大
きくなるに従って多くの格子点が(XA±dX,YA±d
Y)の範囲に入り、後述する特徴点PXの3次元座標の
演算の精度の低下に繋がる。このため、dX及びdY
は、3次元座標上でのビデオカメラからの距離が離れる
に従って値が小さくなるように設定される。従って、3
次元座標上での(XA±dX,YA±dY)に相当する範
囲は、底面がビデオカメラ側に位置している四角錐状と
なる。
Further, in this embodiment, a wide-angle lens is used as the image forming lens of the video camera, and it is assumed that dX and d
Assuming that Y is constant, as the distance between the video camera and the grid points increases, more grid points become (X A ± dX, Y A ± d
The range of Y) is entered, which leads to a reduction in the accuracy of calculation of the three-dimensional coordinates of the feature point P X described later. Therefore, dX and dY
Is set so that the value becomes smaller as the distance from the video camera on the three-dimensional coordinates increases. Therefore, 3
The range corresponding to (X A ± dX, Y A ± dY) on the dimensional coordinates is a quadrangular pyramid whose bottom surface is located on the video camera side.

【0057】ステップ228では、先のステップ224
と同様に、ビデオカメラ36Bから取り込んだ画像Bを
表す画像データに基づいて、画像B中に存在する情報入
力者10の特徴点PXを抽出し、画像B上での特徴点PX
の位置(XB,YB)を演算する。ステップ230では、
先のステップ226と同様に、記憶装置24に記憶され
ているビデオカメラ36Bの格子点位置情報に基づき、
画像B上での位置が(XB±dX,YB±dY)の範囲に
入る格子点を全て検索する。
In step 228, the previous step 224
Similarly, based on the image data representing the image B captured from the video camera 36B, extracts feature points P X of the information inputting person 10 present in the image B, the characteristic point P X on the image B and
The position (X B , Y B ) of is calculated. In step 230,
Similar to step 226 above, based on the grid point position information of the video camera 36B stored in the storage device 24,
All the grid points whose positions on the image B fall within the range of (X B ± dX, Y B ± dY) are searched.

【0058】次のステップ232では、画像A及び画像
Bから共通に抽出した格子点を判定する。これにより、
情報入力空間内で特徴点PXに近接した位置に存在して
いる格子点のみが複数抽出されることになる。ステップ
234では、画像A及び画像Bから共通に抽出した格子
点の3次元座標を、格子点位置情報から取り込む。
At the next step 232, the grid points commonly extracted from the image A and the image B are determined. This allows
Only a plurality of grid points existing at positions close to the feature point P X in the information input space will be extracted. In step 234, the three-dimensional coordinates of the grid points commonly extracted from the images A and B are fetched from the grid point position information.

【0059】本実施形態では、後述するように特徴点P
Xの3次元座標を情報入力空間内で特徴点PXに近接した
位置に存在している複数の格子点の3次元座標から内挿
によって演算する(具体的には、前記複数の格子点の3
次元座標の座標値の重み付き平均により特徴点PXの3
次元座標の座標値を求める)。このため、特徴点PX
3次元座標の演算に先立ち、次のステップ236では、
画像A及び画像Bから共通に抽出した各格子点の画像A
及び画像B上での位置、画像A上での特徴点P Xの位置
(XA,YA)、画像B上での特徴点PXの位置(XB,Y
B)に基づいて、画像A及び画像Bから共通に抽出した
各格子点の3次元座標からの内挿の割合(各格子点の3
次元座標の座標値に対する重み)を決定する。この内挿
の割合は、例えば画像A及び画像B上で特徴点PXと近
接した位置に存在している格子点の3次元座標の座標値
の重みが大きくなるように決定することができる。
In the present embodiment, the feature point P will be described later.
XThe three-dimensional coordinates of the feature point P in the information input spaceXClose to
Interpolation from 3D coordinates of multiple grid points existing at the position
(Specifically, 3 of the plurality of grid points)
The feature point P is obtained by weighted averaging of the coordinate values of the three-dimensional coordinates.XOf 3
Find the coordinate values of the dimensional coordinates). Therefore, the feature point PXof
Prior to the calculation of the three-dimensional coordinates, in the next step 236,
Image A of each grid point extracted in common from image A and image B
And the position on the image B, the feature point P on the image A XPosition of
(XA, YA), Feature point P on image BXPosition (XB, Y
B) Based on
Interpolation ratio from 3D coordinates of each grid point (3 for each grid point
The weight for the coordinate value of the dimensional coordinate) is determined. This interpolation
Of the feature points P on the image A and the image B, for example.XAnd near
Coordinate values of the three-dimensional coordinates of the grid points existing at the touched position
Can be determined to have a larger weight.

【0060】そしてステップ238では、画像A及び画
像Bから共通に抽出した格子点の3次元座標、及びステ
ップ236で決定した内挿の割合に基づいて、特徴点P
Xの3次元座標(XX,YX,ZX)を演算する。上記のよ
うにして特徴点PXの3次元座標を演算すると基準点・
特徴点座標演算処理を終了し、指示判断処理(図6)の
ステップ158へ移行する。なお、上記の基準点・特徴
点座標演算処理は繰り返し実行されるので、該処理によ
って演算される基準点P0及び特徴点PXの3次元座標の
値は、情報入力者10の姿勢や動作の変化に応じて逐次
更新されることになる。
Then, in step 238, the characteristic point P is calculated based on the three-dimensional coordinates of the grid points commonly extracted from the images A and B and the interpolation ratio determined in step 236.
Three-dimensional coordinates of X (X X, Y X, Z X) calculates a. When the three-dimensional coordinates of the feature point P X are calculated as described above, the reference point
The feature point coordinate calculation process is terminated, and the process proceeds to step 158 of the instruction determination process (FIG. 6). Since the reference point / feature point coordinate calculation process described above is repeatedly executed, the values of the three-dimensional coordinates of the reference point P 0 and the feature point P X calculated by the process are the posture and movement of the information input person 10. Will be sequentially updated according to the change of.

【0061】ステップ158では、先に説明した基準点
・特徴点座標演算処理(図7)のステップ218の判定
結果に基づき、情報入力者10が指示動作を行っている
か否かを判定する。なお、基準点・特徴点座標演算処理
では、情報入力者10が指示動作を行っている場合(ス
テップ218の判定が肯定された場合)にのみ特徴点P
Xの3次元座標を演算するので、ステップ158の判定
は、例えば特徴点PXの3次元座標が演算されたか否か
を判断することで行うことができる。この判定が否定さ
れた場合にはステップ154に戻り、情報入力空間内に
情報入力者10が存在している間はステップ154〜ス
テップ158を繰り返す。
In step 158, it is determined whether or not the information input person 10 is performing the pointing operation based on the determination result of step 218 of the reference point / feature point coordinate calculation processing (FIG. 7) described above. In the reference point / feature point coordinate calculation process, the feature point P is obtained only when the information input person 10 is performing the pointing operation (when the determination in step 218 is affirmative).
Since the three-dimensional coordinates of X are calculated, the determination in step 158 can be made by, for example, determining whether the three-dimensional coordinates of the feature point P X have been calculated. If this determination is denied, the process returns to step 154, and steps 154 to 158 are repeated while the information input person 10 exists in the information input space.

【0062】一方、ステップ158の判定が肯定された
場合にはステップ160へ移行し、先の基準点・特徴点
座標演算処理で演算された基準点P0及び特徴点PXの3
次元座標に基づき、情報入力者10が指し示している方
向として、上記の基準点P0と特徴点PXとを結ぶ仮想線
(図13の仮想線54参照)の延びる方向を求め、情報
入力者10が指し示している位置(指示位置)として、
ディスプレイ12の表示面を含む平面と前記仮想線の交
点(図13の点S参照)の座標(平面座標)を演算す
る。
On the other hand, if the determination in step 158 is affirmative, the routine proceeds to step 160, where the reference point P 0 and the characteristic point P X calculated in the previous reference point / characteristic point coordinate calculation processing are 3
Based on the dimensional coordinates, as the direction pointed to by the information input person 10, the direction in which the virtual line connecting the reference point P 0 and the characteristic point P X (see the virtual line 54 in FIG. 13) extends is obtained, and the information input person is determined. As the position pointed by 10 (pointing position),
The coordinates (plane coordinates) of the intersection of the plane including the display surface of the display 12 and the virtual line (see point S in FIG. 13) are calculated.

【0063】ここで、情報入力者10が左腕で指示動作
を行っている場合には、情報入力者10の位置に対して
特徴点PXが左側にオフセットすることになるが、基準
点・特徴点座標演算処理のステップ222において、図
13(B)に示すように情報入力者10の左肩付近に基
準点P0が設定されることで、基準点P0の位置も左側に
オフセットされるので、ステップ160において、指示
位置の座標として、情報入力者10の想定した指示位置
に精度良く一致する位置(図13(B)に示す点S)の
座標を求めることができる。
Here, when the information input person 10 is performing the pointing operation with the left arm, the feature point P X is offset to the left side with respect to the position of the information input person 10, but the reference point / feature In step 222 of the point coordinate calculation processing, the reference point P 0 is set near the left shoulder of the information input person 10 as shown in FIG. 13B, and the position of the reference point P 0 is also offset to the left. In step 160, the coordinates of the position (point S shown in FIG. 13B) that accurately matches the designated position assumed by the information input person 10 can be obtained as the coordinate of the designated position.

【0064】また、情報入力者10が右腕で指示動作を
行っている場合には、情報入力者10の位置に対して特
徴点PXが右側にオフセットすることになるが、基準点
・特徴点座標演算処理のステップ222において、図1
3(C)に示すように情報入力者10の右肩付近に基準
点P0が設定されることで、基準点P0の位置も右側にオ
フセットされるので、ステップ160において、指示位
置の座標として、情報入力者10の想定した指示位置に
精度良く一致する位置(図13(C)に示す点S)の座
標を求めることができる。このように、ステップ160
は先に説明した基準点・特徴点座標演算処理と共に、本
発明の判断手段に対応している。
When the information input person 10 is performing the pointing operation with the right arm, the feature point P X is offset to the right with respect to the position of the information input person 10. In step 222 of the coordinate calculation process, as shown in FIG.
Since the reference point P 0 is set near the right shoulder of the information input person 10 as shown in FIG. 3C , the position of the reference point P 0 is also offset to the right side. As a result, it is possible to obtain the coordinates of the position (point S shown in FIG. 13C) that accurately matches the designated position assumed by the information input person 10. Thus, step 160
Corresponds to the determination means of the present invention together with the reference point / feature point coordinate calculation processing described above.

【0065】次のステップ162では、ステップ160
で演算した指示位置の座標に基づいて、情報入力者10
がディスプレイ12の表示面内を指し示しているか否か
判定する。ステップ162の判定が否定された場合には
ステップ154に戻る。一方、ステップ162の判定が
肯定された場合にはステップ164へ移行し、先のステ
ップ160で演算した情報入力者10による指示位置の
座標を、カーソルを表示すべき位置の座標として情報処
理装置14へ出力し、カーソルの表示を指示する。これ
により、情報処理装置14は、ディスプレイ12の表示
面上の指示された位置にカーソルを表示させる。
In the next step 162, step 160
Based on the coordinates of the indicated position calculated in
Determines whether is pointing within the display surface of the display 12. If the determination in step 162 is negative, the process returns to step 154. On the other hand, if the determination in step 162 is affirmative, the process proceeds to step 164, and the coordinates of the position designated by the information input person 10 calculated in the previous step 160 is used as the coordinates of the position where the cursor should be displayed. Output to and instruct to display the cursor. As a result, the information processing device 14 displays the cursor at the designated position on the display surface of the display 12.

【0066】なお、上記のように情報入力者10による
指示位置にカーソルを表示させることに代えて、特開2
000−222098号公報や特開2000−2221
17号公報等に記載の技術を適用することで、情報入力
者10による指示位置のふらつきに拘らず、カーソルの
表示位置のふらつきを抑制するようにしてもよいことは
言うまでもない。
Instead of displaying the cursor at the position designated by the information input person 10 as described above, Japanese Patent Laid-Open No.
000-222098 and JP 2000-2221.
Needless to say, by applying the technique described in Japanese Patent No. 17 or the like, the fluctuation of the display position of the cursor may be suppressed regardless of the fluctuation of the pointing position by the information input person 10.

【0067】次のステップ166では情報入力者10に
よりクリック動作が行われたか否か判定する。クリック
動作としては種々の動作を採用することができ、例えば
情報入力者10が手を前方に素早く移動させる動作(図
14(A)参照、以下「前進クリック」という)、及び
情報入力者10が手を後方に素早く移動させる動作(図
14(B)参照、以下「後進クリック」という)をクリ
ック動作とすることができる。このクリック動作は、デ
ィスプレイ12の表示面上の特定の箇所を指し示して選
択する動作として極めて自然な動作であるので、認識対
象者は違和感を感ずることなくクリック動作を行うこと
ができる。
At the next step 166, it is determined whether or not the click operation has been performed by the information input person 10. Various operations can be adopted as the click operation. For example, the information input person 10 quickly moves his or her hand forward (see FIG. 14A, hereinafter referred to as “forward click”), and the information input person 10 An operation of quickly moving the hand backward (see FIG. 14B, hereinafter referred to as "reverse movement click") can be performed as a click operation. This click operation is an extremely natural operation as an operation of pointing and selecting a specific location on the display surface of the display 12, so that the person to be recognized can perform the click operation without feeling any discomfort.

【0068】前進クリック動作や後進クリック動作が行
われたか否かの判定は、例えば情報入力者10が指示動
作を行っている間、基準点P0と特徴点PXとの距離k
(図13参照)を繰り返し演算し、ステップ166にお
いて、今回演算した距離kと前回演算した距離kとの差
が所定値以上か否かを判断することで行うことができ
る。ステップ166の判定が否定された場合には、何ら
処理を行うことなくステップ154へ戻るが、ステップ
166の判定が肯定された場合にはステップ168へ移
行し、情報入力者10によって行われたクリック動作に
関する情報(例えばクリック動作時の指示位置(クリッ
ク位置)を表す情報や、情報入力者10によって行われ
たクリック動作が前進クリックか後進クリックかを表す
情報等)を情報処理装置14へ通知する。
Whether the forward click motion or the backward click motion is performed is determined by, for example, the distance k between the reference point P 0 and the feature point P X while the information input person 10 is performing the instruction motion.
This can be performed by repeatedly calculating (see FIG. 13) and determining in step 166 whether the difference between the distance k calculated this time and the distance k calculated last time is a predetermined value or more. If the determination in step 166 is negative, the process returns to step 154 without performing any processing, but if the determination in step 166 is affirmative, the process proceeds to step 168, and the click made by the information input person 10 is performed. The information processing device 14 is notified of information related to a motion (for example, information indicating a designated position (click position) at the time of a click motion, information indicating whether a click motion performed by the information input person 10 is a forward click or a backward click). .

【0069】これにより、情報処理装置14は、通知さ
れたクリック動作に関する情報に基づいて所定の処理を
実行する。この所定の処理としては任意の処理を採用す
ることができるが、例えばディスプレイ12の表示面上
の特定のアプリケーションを表すアイコンを表示してい
る箇所が前進クリックされた場合には、前記特定のアプ
リケーションを起動し、例えば前記アイコンを表示して
いる箇所が後進クリックされた場合には、前記特定のア
プリケーションに関連する特殊処理(例えばアプリケー
ションに関する各種パラメータの設定、アプリケーショ
ンのバージョン表示、アイコンの表示に関するパラメー
タの設定等)を一覧表示し、更に特定の特殊処理が前進
クリックされた場合には、クリックされた特殊処理を実
行する、等の処理を行うことができる。
As a result, the information processing device 14 executes a predetermined process based on the notified information about the click operation. As this predetermined process, any process can be adopted. For example, when a position where an icon representing a specific application is displayed on the display surface of the display 12 is forward-clicked, the specific application is displayed. When, for example, the location displaying the icon is clicked backward, special processing related to the specific application (for example, setting of various parameters related to the application, application version display, icon display parameter (Settings etc.) are displayed in a list, and when a specific special process is clicked forward, the clicked special process can be executed.

【0070】また、例えば通常処理モード、ファイル転
送モード、ファイル検索モード等のように予め複数種の
処理モードを用意しておくと共に、情報入力者10が複
数種の処理モードの何れかへの切り替えを指示するため
のモード切替指示手段(フットスイッチであってもよい
し、情報入力者10が手の形を変える等の処理モード切
替指示動作を行ったか否かを検知する機構(アルゴリズ
ム)であってもよい)を設け、クリック動作が行われた
場合に、処理モード毎に異なる処理を行うようにしても
よい。
Further, a plurality of types of processing modes such as a normal processing mode, a file transfer mode, a file search mode, etc. are prepared in advance, and the information input person 10 switches to one of the plurality of types of processing modes. Mode switching instructing means (a foot switch may be used, or a mechanism (algorithm) for detecting whether or not the information input person 10 has performed a processing mode switching instructing operation such as changing the shape of a hand. May be provided), and different processing may be performed for each processing mode when the click operation is performed.

【0071】なお、情報入力者10が腕を下ろしている
ときには肘を伸ばしている状態が自然であるが、ディス
プレイ12の表示面内の所望の位置を指し示すために腕
を上げたときには自然に肘が若干曲がる(後でクリック
動作を行うことを考えても、肘を伸ばしたまま腕を上げ
る動作より、肘を若干曲げながら腕を上げる動作の方
が、所望の位置を指し示している状態となったときに自
然に肘が若干曲がっていることになり合理的である)の
で、情報入力者10が腕を上げる動作の最中に基準点P
0と特徴点PXとの距離kが変化する。これを考慮する
と、情報入力者10がディスプレイ12の表示面内に相
当する位置を指し示している状態が、比較的短い時間以
上継続した後に、クリック動作が行われたか否かの判定
を開始するか、或いは情報処理装置14に対するクリッ
ク動作が行われた旨の通知を禁止することが好ましい。
これにより、情報入力者10による指示位置がディスプ
レイ12の表示面外から表示面内へ変化したときに、ク
リック動作が行われたと誤判断することを防止できる。
It is natural for the information inputting person 10 to extend his elbow when his arm is lowered, but when he raises his arm to indicate a desired position on the display surface of the display 12, the elbow is naturally stretched. Bends slightly (even if you think about performing a click action later, raising the arm while slightly bending the elbow indicates a desired position, rather than raising the arm with the elbow extended. It is rational because the elbow is naturally slightly bent when it is struck). Therefore, the reference point P during the movement of the information input person 10 to raise his arm.
The distance k between 0 and the feature point P X changes. Considering this, whether the information input person 10 starts to determine whether or not the click operation is performed after the state in which the information input person 10 is pointing to the position corresponding to the display surface of the display 12 continues for a relatively short time or more. Alternatively, it is preferable to prohibit notification that the click operation has been performed on the information processing device 14.
Thus, when the position designated by the information input person 10 changes from outside the display surface of the display 12 to inside the display surface, it is possible to prevent erroneous determination that the click operation has been performed.

【0072】また、情報入力者10によるクリック動作
の最中に指示位置がずれる可能性があることを考慮する
と、クリック位置として、情報入力者10がクリック動
作を開始した際の指示位置を用いることが好ましい。こ
れにより、クリック動作の最中に指示位置がずれたとし
ても、情報入力者10が当初指し示していた位置に対応
する処理を確実に実行することができる。
Considering that the pointing position may shift during the click operation by the information input person 10, the pointing position when the information input person 10 starts the clicking operation is used as the click position. Is preferred. Accordingly, even if the designated position is displaced during the click operation, the process corresponding to the position initially pointed to by the information input person 10 can be surely executed.

【0073】なお、上記では2台のビデオカメラ36
A、36Bを設けた例を説明したが、これに限定される
ものではなく、より多数のビデオカメラによって情報入
力空間を各々撮像し、情報入力者10からの指示を判断
するようにしてもよい。
In the above, two video cameras 36 are used.
Although the example in which A and 36B are provided has been described, the present invention is not limited to this, and the information input space may be imaged by a larger number of video cameras and the instruction from the information input person 10 may be determined. .

【0074】また、上記では本発明に係る特徴点PX
して、指先に相当する点を例に説明したが、特徴点は認
識対象者が腕を動かすことで位置が変化する点であれば
よく、例えば認識対象者の手首に相当する点や、認識対
象者の手の甲に相当する点を特徴点として用いるように
してもよい。
In the above description, the characteristic point P X according to the present invention has been described by taking the point corresponding to the fingertip as an example, but the characteristic point may be any point whose position changes when the person to be recognized moves his or her arm. For example, a point corresponding to the wrist of the recognition target person or a point corresponding to the back of the recognition target person may be used as the feature point.

【0075】また、情報入力者10の姿勢が、腕を上げ
ている状態(図12(B)又は(C)参照)から、腕を
下ろした状態(図12(A)参照)に変化した場合に、
腕を下ろす直前の指示位置にカーソルを継続して表示す
るようにしてもよい。これにより、情報入力者10が一
定箇所にカーソルを継続して表示させたい等の場合にも
(例えば会議のプレゼンテーション等)、情報入力者1
0が継続的に腕を上げ続ける必要がなくなるので、情報
入力者10の負担を軽減することができる。
When the posture of the information input person 10 changes from a state where the arm is raised (see FIG. 12B or C) to a state where the arm is lowered (see FIG. 12A). To
The cursor may be continuously displayed at the designated position immediately before the arm is lowered. Thus, even when the information inputter 10 wants to continuously display the cursor at a certain position (for example, a presentation at a conference), the information inputter 1
Since 0 does not need to keep raising the arm continuously, the burden on the information input person 10 can be reduced.

【0076】更に、上記ではクリック動作として、情報
入力者10が手を前方に素早く移動させる前進クリック
動作、及び情報入力者10が手を後方に素早く移動させ
る後進クリック動作のみを判断するようにしていたが、
これに限定されるものではなく、例えば基準点P0と特
徴点PXとの距離kの推移を所定時間に亘って監視する
ことにより、マウスの操作では一般的なダブルクリック
動作(ハンドポインティング装置では、例えば前進クリ
ック動作又は後進クリック動作を2回続けて行う動作等
で代用できる)やドラッグ&ドロップ動作(ハンドポイ
ンティング装置では、例えば前進クリック動作→指示位
置移動動作→後進クリック動作等の一連の動作により代
用できる)も判断するようにしてもよい。
Further, in the above, as the click action, only the forward click action in which the information input person 10 quickly moves his hand forward and the backward click action in which the information input person 10 quickly moves his hand backward are determined. But
The present invention is not limited to this. For example, by monitoring the transition of the distance k between the reference point P 0 and the characteristic point P X over a predetermined time, a double-click operation (hand pointing device) that is common in mouse operations is performed. Then, for example, a forward click operation or a backward click operation can be substituted by two consecutive operations, or a drag-and-drop operation (in the hand pointing device, for example, a forward click operation → instructed position moving operation → backward click operation). May be determined by the operation).

【0077】また、ディスプレイ12としては、プラズ
マディスプレイ、CRT、光ファイバディスプレイ等の
周知の表示装置を適用してもよいし、液晶ゴーグル等を
適用することも可能である。また、擬似的に3次元空間
を表す3次元的画像をディスプレイに表示するようにし
てもよい。具体的には、上記のような平面ディスプレイ
い一点透視法や二点透視法に則った画像を表示したり、
液晶シャッタやレンチキュラーレンズを利用した3次元
ディスプレイに画像を表示したり、ホログラフィー技術
を適用して立体画像を表示するようにしてもよい。
Further, as the display 12, a well-known display device such as a plasma display, a CRT, an optical fiber display or the like may be applied, or liquid crystal goggles or the like may be applied. Alternatively, a three-dimensional image representing a pseudo three-dimensional space may be displayed on the display. Specifically, the flat display as described above displays an image according to the one-point perspective method or the two-point perspective method,
An image may be displayed on a three-dimensional display using a liquid crystal shutter or a lenticular lens, or a holographic technique may be applied to display a stereoscopic image.

【0078】また、ディスプレイ12には任意の情報を
表示可能であることは言うまでもなく、例えば情報処理
装置14をインターネット等のネットワークに接続し、
利用者が指定したURLのウェブページ等を表示領域に
表示させるように構成してもよい。また、本発明を適用
したハンドポインティング入力装置を種々の商品が収納
された自動倉庫の前面に配置し、利用者が所望の商品を
指定すると共に決済(支払い)を完了させると、指定さ
れた商品を倉庫から取り出して利用者へ引き渡す等のよ
うに、本発明を適用したハンドポインティング入力装置
を大規模な自動販売機の操作部として用いることも可能
である。
Needless to say, arbitrary information can be displayed on the display 12, for example, by connecting the information processing device 14 to a network such as the Internet,
A web page or the like having the URL designated by the user may be displayed in the display area. Further, when the hand pointing input device to which the present invention is applied is arranged in front of an automatic warehouse in which various products are stored, and the user specifies a desired product and completes payment (payment), the specified product It is also possible to use the hand-pointing input device to which the present invention is applied as an operation unit of a large-scale vending machine, such as when taking out from a warehouse and delivering it to a user.

【0079】[0079]

【発明の効果】以上説明したように本発明は、認識対象
者が特定の位置又は特定の方向を指し示す指示動作を行
っている状況を複数の方向から撮像することで得られた
画像に基づいて、指示動作に用いている腕の左右を判別
し、指示動作における指示位置又は指示方向の変化に拘
らず位置が変化せず、かつ腕の左右の判別結果に応じて
認識対象者の左右方向の中心に対してオフセットさせた
位置に基準点を設定すると共に、指示動作における指示
位置又は指示方向の変化に応じて位置が変化する特徴点
の位置を求め、基準点の位置及び特徴点の位置に基づい
て、指示動作による指示位置又は方向を判断するので、
指示動作における指示位置又は指示方向の判断精度の向
上を実現できる、という優れた効果を有する。
As described above, the present invention is based on an image obtained by capturing from a plurality of directions a situation in which a person to be recognized is performing a pointing operation pointing to a specific position or a specific direction. , The left and right of the arm used for the pointing motion is determined, the position does not change regardless of the change in the pointing position or the pointing direction in the pointing motion, and the left and right direction of the recognition target person is determined according to the result of the left / right determination of the arm. A reference point is set at a position offset with respect to the center, and the position of the feature point whose position changes according to the change in the designated position or the designated direction in the pointing motion is obtained, and the position of the reference point and the position of the feature point are set. Based on this, the pointing position or direction by the pointing action is determined,
This has an excellent effect that it is possible to improve the accuracy of determination of the pointing position or the pointing direction in the pointing operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】 情報入力空間の周辺を示す斜視図である。FIG. 1 is a perspective view showing the periphery of an information input space.

【図2】 本実施形態に係るハンドポインティング入力
装置の概略構成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of a hand pointing input device according to the present embodiment.

【図3】 照明装置の照明範囲とビデオカメラの撮像範
囲との関係の一例を示す概略図である。
FIG. 3 is a schematic diagram showing an example of a relationship between an illumination range of a lighting device and an imaging range of a video camera.

【図4】 マーク板の一例を示す情報入力空間の斜視図
である。
FIG. 4 is a perspective view of an information input space showing an example of a mark plate.

【図5】 格子点位置情報初期設定処理を示すフローチ
ャートである。
FIG. 5 is a flowchart showing a grid point position information initial setting process.

【図6】 指示判断処理の内容を示すフローチャートで
ある。
FIG. 6 is a flowchart showing the contents of an instruction determination process.

【図7】 基準点・特徴点座標演算処理の内容を示すフ
ローチャートである。
FIG. 7 is a flowchart showing the contents of reference point / feature point coordinate calculation processing.

【図8】 照明装置A、Bの点灯・消灯、ビデオカメラ
の撮像によって得られる画像の出力(取り込み)のタイ
ミングを示すタイミングチャートである。
FIG. 8 is a timing chart showing the timing of turning on / off the lighting devices A and B and outputting (capturing) an image obtained by capturing an image with a video camera.

【図9】 情報入力者の身長及び床面上の位置の演算を
説明するための、情報入力空間の側面図である。
FIG. 9 is a side view of the information input space for explaining the calculation of the height of the information input person and the position on the floor.

【図10】 (A)乃至(C)は情報入力者の動作の一
例を示すイメージ図である。
10A to 10C are image diagrams showing an example of an operation of an information input person.

【図11】 情報入力者が指示動作に用いている腕の左
右の判別及び判別結果に基づく基準点及び特徴点の設定
を説明するためのイメージ図である。
FIG. 11 is an image diagram for explaining the left / right discrimination of the arm used by the information input person for the pointing motion and setting of the reference point and the feature point based on the discrimination result.

【図12】 (A)はビデオカメラにより撮像された情
報入力者の手を示すイメージ図、(B)は特徴点の座標
及び特徴点の3次元座標を求めるための格子点の検索範
囲を示す概念図である。
FIG. 12A is an image diagram showing a hand of an information input person imaged by a video camera, and FIG. 12B is a concept showing a search range of grid points for obtaining coordinates of feature points and three-dimensional coordinates of the feature points. It is a figure.

【図13】 情報入力者が指し示しているディスプレイ
上の位置の判定を説明するための、(A)は情報入力空
間の平面図、(B)及び(C)は情報入力空間の側面図
である。
13A and 13B are plan views of the information input space, and FIGS. 13B and 13C are side views of the information input space for explaining the determination of the position on the display pointed by the information input person. .

【図14】 (A)は前進クリック動作、(B)は後進
クリック動作を説明するためのイメージ図である。
FIG. 14A is an image diagram for explaining a forward click operation, and FIG. 14B is an image diagram for explaining a backward click operation.

【符号の説明】[Explanation of symbols]

10 情報入力者 12 大画面ディスプレイ 14 情報処理装置 20 ハンドポインティング入力装置 22 コントローラ 36A ビデオカメラ 36B ビデオカメラ 54 仮想線 10 Information Entry Person 12 large screen display 14 Information processing equipment 20 Hand pointing input device 22 Controller 36A video camera 36B video camera 54 virtual line

───────────────────────────────────────────────────── フロントページの続き (72)発明者 半沢 久 千葉県印西市大塚一丁目5番地1 株式会 社竹中工務店技術研究所内 (72)発明者 瓜谷 真幸 東京都中央区銀座八丁目21番1号 株式会 社竹中工務店東京本店内 (72)発明者 川島 哲文 東京都中央区銀座八丁目21番1号 株式会 社竹中工務店東京本店内 Fターム(参考) 5B057 AA20 BA13 BA15 CA13 CA16 DA07 DA08 DC05 DC08 DC16 5B087 AA02 BC06 BC12 BC13 BC26 BC32    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hisashi Hanzawa             Chiba Prefecture Inzai City 1-5 Otsuka 1 Stock Association             Takenaka Corporation Technical Research Institute (72) Inventor Masayuki Uraya             8-21-21 Ginza, Chuo-ku, Tokyo Stock market             Takenaka Corporation Tokyo Main Store (72) Inventor Tetsufumi Kawashima             8-21-21 Ginza, Chuo-ku, Tokyo Stock market             Takenaka Corporation Tokyo Main Store F term (reference) 5B057 AA20 BA13 BA15 CA13 CA16                       DA07 DA08 DC05 DC08 DC16                 5B087 AA02 BC06 BC12 BC13 BC26                       BC32

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 互いに異なる複数の方向から認識対象者
を撮像する撮像手段と、 認識対象者が特定の位置又は特定の方向を指し示す指示
動作を行っている状況を前記撮像手段が撮像することで
得られた画像に基づいて、認識対象者が前記指示動作に
用いている腕の左右を判別し、前記指示動作における指
示位置又は指示方向の変化に拘らず位置が変化せず、か
つ前記腕の左右の判別結果に応じて認識対象者の左右方
向の中心に対してオフセットさせた位置に基準点を設定
する基準点設定手段と、 前記撮像手段が撮像することで得られた画像から抽出し
た前記認識対象者に相当する画像部に基づいて、前記指
示動作における指示位置又は指示方向の変化に応じて位
置が変化する特徴点の位置を求める特徴点認識手段と、 前記基準点設定手段によって設定された基準点の位置及
び前記特徴点認識手段によって求められた前記特徴点の
位置に基づいて、前記指示動作による指示位置又は方向
を判断する判断手段と、 を含む指示位置判断装置。
1. An image pickup means for picking up an image of a recognition target person from a plurality of directions different from each other, and the image pickup means picking up an image of a situation in which the recognition target person performs a pointing operation pointing to a specific position or a specific direction. Based on the obtained image, the recognition target person determines the right and left of the arm used for the pointing motion, the position does not change regardless of the change of the pointing position or the pointing direction in the pointing motion, and Reference point setting means for setting a reference point at a position offset with respect to the center of the recognition target person in the left-right direction according to the result of discrimination between the left and right, and the image extracted by the image capturing means. A feature point recognizing unit that obtains a position of a feature point whose position changes according to a change in a designated position or a designated direction in the pointing operation based on an image portion corresponding to a recognition target person, and the reference point setting unit. A pointed position determination device including: a determination unit configured to determine a pointed position or a direction by the pointing operation based on the position of the reference point set by the above and the position of the characteristic point obtained by the characteristic point recognition unit.
【請求項2】 前記撮像手段は、認識対象者を上方側か
ら撮像し、前記基準点設定手段は、前記撮像手段が撮像
することで得られた画像から抽出した前記認識対象者に
相当する画像部の輪郭の形状に基づいて、前記認識対象
者が前記指示動作に用いている腕の左右を判別すること
を特徴とする請求項1記載の指示位置判断装置。
2. The image pickup means images the recognition target person from above, and the reference point setting means extracts an image corresponding to the recognition target person extracted from the image obtained by the image pickup means. The pointing position determination device according to claim 1, wherein the left and right of the arm used by the recognition target person for the pointing operation is determined based on the shape of the contour of the part.
【請求項3】 前記基準点設定手段は、前記画像部の輪
郭のうち前記認識対象者の腕に相当する凸部分の位置
の、前記画像部の輪郭全体に対するオフセットの方向に
基づいて、前記腕の左右を判別することを特徴とする請
求項2記載の指示位置判断装置。
3. The arm according to the reference point setting means, based on an offset direction of a position of a convex portion of the contour of the image portion corresponding to the arm of the recognition target person with respect to the entire contour of the image portion. The pointed position determination device according to claim 2, wherein the left and right sides of the position are determined.
【請求項4】 前記基準点設定手段は、前記腕の左右の
判別結果に基づき、認識対象者が前記指示動作に用いて
いる腕の付け根又はその付近に基準点を設定することを
特徴とする請求項1記載の指示位置判断装置。
4. The reference point setting means sets a reference point at or near the base of the arm used by the person to be recognized for the pointing motion based on the result of discrimination between the left and right of the arm. The pointing position determination device according to claim 1.
【請求項5】 前記判断手段は、前記基準点と前記特徴
点を結ぶ直線と被指示物体との交点を前記指示動作によ
る指示位置と判断するか、又は、前記基準点と前記特徴
点を結ぶ直線が延びる方向を前記指示動作による指示方
向と判断することを特徴とする請求項1記載の指示位置
判断装置。
5. The determination means determines an intersection of a straight line connecting the reference point and the feature point and a pointed object as a pointed position by the pointing motion, or connects the reference point and the feature point. The pointing position determination device according to claim 1, wherein the direction in which the straight line extends is determined as the pointing direction by the pointing operation.
【請求項6】 互いに異なる複数の方向から認識対象者
を撮像し、 認識対象者が特定の位置又は特定の方向を指し示す指示
動作を行っている状況を撮像することで得られた画像に
基づいて、認識対象者が前記指示動作に用いている腕の
左右を判別し、前記指示動作における指示位置又は指示
方向の変化に拘らず位置が変化せず、かつ前記腕の左右
の判別結果に応じて認識対象者の左右方向の中心に対し
てオフセットさせた位置に基準点を設定すると共に、 前記撮像によって得られた画像から抽出した前記認識対
象者に相当する画像部に基づいて、前記指示動作におけ
る指示位置又は指示方向の変化に応じて位置が変化する
特徴点の位置を求め、 前記設定した基準点の位置及び前記求めた特徴点の位置
に基づいて、前記指示動作による指示位置又は方向を判
断する指示位置判断方法。
6. Based on an image obtained by capturing an image of a recognition target person from a plurality of directions different from each other, and capturing a situation in which the recognition target person is performing a pointing operation indicating a specific position or a specific direction. , The right and left of the arm used by the recognition target person for the pointing motion is determined, the position does not change regardless of the change in the pointing position or the pointing direction in the pointing motion, and according to the result of the left / right determination of the arm. A reference point is set at a position offset with respect to the center of the recognition target person in the left-right direction, and based on an image part corresponding to the recognition target person extracted from the image obtained by the imaging, in the pointing operation, The position of the characteristic point whose position changes according to the change of the designated position or the pointing direction is obtained, and the designated position by the pointing operation is based on the position of the set reference point and the obtained position of the characteristic point. Or, a pointing position determining method for determining the direction.
JP2001266022A 2001-09-03 2001-09-03 Device and method of determining indicating position Pending JP2003076488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001266022A JP2003076488A (en) 2001-09-03 2001-09-03 Device and method of determining indicating position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001266022A JP2003076488A (en) 2001-09-03 2001-09-03 Device and method of determining indicating position

Publications (1)

Publication Number Publication Date
JP2003076488A true JP2003076488A (en) 2003-03-14

Family

ID=19092401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001266022A Pending JP2003076488A (en) 2001-09-03 2001-09-03 Device and method of determining indicating position

Country Status (1)

Country Link
JP (1) JP2003076488A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163747A (en) * 2004-12-07 2006-06-22 Brother Ind Ltd Input supporting device
JP2011257820A (en) * 2010-06-07 2011-12-22 Sony Corp Information display device and method for controlling display image
WO2011158511A1 (en) * 2010-06-17 2011-12-22 パナソニック株式会社 Instruction input device, instruction input method, program, recording medium and integrated circuit
JP2013195213A (en) * 2012-03-19 2013-09-30 Chugoku Electric Power Co Inc:The Position orientation system, and control method for position orientation system
JP2016045670A (en) * 2014-08-22 2016-04-04 株式会社国際電気通信基礎技術研究所 Gesture management system, gesture management program, gesture management method and finger pointing recognition device
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163747A (en) * 2004-12-07 2006-06-22 Brother Ind Ltd Input supporting device
JP4609054B2 (en) * 2004-12-07 2011-01-12 ブラザー工業株式会社 Input support device
JP2011257820A (en) * 2010-06-07 2011-12-22 Sony Corp Information display device and method for controlling display image
WO2011158511A1 (en) * 2010-06-17 2011-12-22 パナソニック株式会社 Instruction input device, instruction input method, program, recording medium and integrated circuit
CN102812416A (en) * 2010-06-17 2012-12-05 松下电器产业株式会社 Instruction input device, instruction input method, program, recording medium and integrated circuit
US8933886B2 (en) 2010-06-17 2015-01-13 Panasonic Intellectual Property Corporation Of America Instruction input device, instruction input method, program, recording medium, and integrated circuit
JP5728009B2 (en) * 2010-06-17 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Instruction input device, instruction input method, program, recording medium, and integrated circuit
JP2013195213A (en) * 2012-03-19 2013-09-30 Chugoku Electric Power Co Inc:The Position orientation system, and control method for position orientation system
JP2016045670A (en) * 2014-08-22 2016-04-04 株式会社国際電気通信基礎技術研究所 Gesture management system, gesture management program, gesture management method and finger pointing recognition device
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method

Similar Documents

Publication Publication Date Title
US6385331B2 (en) Hand pointing device
JP6348211B2 (en) Remote control of computer equipment
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
KR100869447B1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
JP4278979B2 (en) Single camera system for gesture-based input and target indication
ES2835598T3 (en) Gesture interface
US20090296991A1 (en) Human interface electronic device
JP2004094653A (en) Information input system
JP2006209359A (en) Apparatus, method and program for recognizing indicating action
KR101256046B1 (en) Method and system for body tracking for spatial gesture recognition
JP3792907B2 (en) Hand pointing device
CN108572730B (en) System and method for interacting with computer-implemented interactive applications using a depth aware camera
KR101396488B1 (en) Apparatus for signal input and method thereof
JPH08328735A (en) Hand pointing input device
JP2003076488A (en) Device and method of determining indicating position
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
JP4563723B2 (en) Instruction motion recognition device and instruction motion recognition program
JP2000222098A (en) Hand pointing device, instruction position displaying method and recording medium
KR101536753B1 (en) Method and system for image processing based on user's gesture recognition
JP6643825B2 (en) Apparatus and method
JP7279975B2 (en) Method, system, and non-transitory computer-readable recording medium for supporting object control using two-dimensional camera
JP2003228458A (en) Instruction motion recognition device and method
JP2000222117A (en) Hand pointing device, indicated position display method and recording medium
KR20150073146A (en) Method and system for image processing based on user's gesture recognition