JP2000028322A - Device for detecting high speed moving object position - Google Patents

Device for detecting high speed moving object position

Info

Publication number
JP2000028322A
JP2000028322A JP11002505A JP250599A JP2000028322A JP 2000028322 A JP2000028322 A JP 2000028322A JP 11002505 A JP11002505 A JP 11002505A JP 250599 A JP250599 A JP 250599A JP 2000028322 A JP2000028322 A JP 2000028322A
Authority
JP
Japan
Prior art keywords
moving object
input
detecting
chip
pattern matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11002505A
Other languages
Japanese (ja)
Inventor
Shuichi Tai
修市 田井
Kazuo Hisama
和生 久間
Kenichi Tanaka
健一 田中
Atsushi Ota
淳 太田
Nobufumi Komori
伸史 小守
T Freeman William
ウィリアム・ティ・フリーマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP11002505A priority Critical patent/JP2000028322A/en
Publication of JP2000028322A publication Critical patent/JP2000028322A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a high speed moving object position detecting device for detecting the position of an object moving at a high speed using an artificial retina chip having a pattern matching function available as a human interface system. SOLUTION: This position detecting device is provided with a first inputting means 36a on which an artificial retina chip having a pattern matching function for detecting the X/Y coordinates of a moving object is loaded, second inputting means 36b on which an artificial retina chip having a pattern matching function for detecting the Z coordinate of the moving object at the same time is loaded, and control processing means (micro-computer 39) for calculating the orbit of the moving object from data obtained by the inputting means 36a and 36b.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明はコンピュータと人
間とがインタラクティブに作用するための知的で柔軟な
ヒューマンインターフェースシステムとしても使用可能
な、パターンマッチング機能を有する人工網膜チップを
使用した高速移動物体位置検出装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-speed moving object position using an artificial retinal chip having a pattern matching function, which can be used as an intelligent and flexible human interface system for allowing a computer and a human to interact with each other. The present invention relates to a detection device.

【0002】[0002]

【従来の技術】従来のヒューマンインターフェースシス
テムの一例として、ハンドジェスチャー認識システムに
ついて説明する。図8は例えば、電子情報通信学会論文
誌、D−II、Vol.J73−D−II、No.12、PP−
1985〜1992(1990年)に掲載された、ハンド
ジェスチャー認識システムの構成図である。図8におい
て、1は手形状入力装置(市販のデータグラブTM“Dat
a Glove TM”を使用)である。データグラブTMは米国
VPL社の製品で、指の曲げ情報を光ファイバ内の光量
で測定し、親指の第2、3関節、他の指の第1、2関節
の10関節について個人差を補正した曲げ角度を測定す
る。磁気発生器と磁気センサを用いた米国マクダネルダ
グラス(MacDonnell Douglas)社の3次元デジタイザ(3 S
PACE TRACKER TM)を組合せることで、手の向きと手の3
次元位置も測定できる。
2. Description of the Related Art A hand gesture recognition system will be described as an example of a conventional human interface system. FIG. 8 shows, for example, IEICE Transactions, D-II, Vol. J73-D-II, No. 12, PP-
It is a block diagram of the hand gesture recognition system published in 1985-1992 (1990). 8, reference numeral 1 denotes a hand shape input device (a commercially available data grab TM “Dat
a Glove TM "). Data Grab TM is a product of the United States VPL, which measures the bending information of a finger by the amount of light in an optical fiber, and uses the second and third joints of the thumb and the first and second fingers of the other finger. The bending angle corrected for individual differences is measured for 10 joints of two joints.A three-dimensional digitizer (3S) manufactured by MacDonnell Douglas, USA using a magnetic generator and a magnetic sensor.
By combining PACE TRACKER TM), hand orientation and hand 3
Dimensional position can also be measured.

【0003】2は補正器、3はマイク等からなる音声認
識装置、4はスピーカ等からなる音声合成装置、5は画
像表示装置、6はワークステーション、7は手の形・動
きを認識するための認識プログラム、8は音声認識結果
を解析するための解析プログラム、9は手の形・動きの
認識結果と音声解析結果を統合し、指示された内容を音
声または画像の形で出力するための変換プログラム、1
0は画像データベースである。
[0003] 2 is a corrector, 3 is a voice recognition device including a microphone and the like, 4 is a voice synthesis device including a speaker and the like, 5 is an image display device, 6 is a work station, and 7 is a device for recognizing hand shape and movement. 8 is an analysis program for analyzing speech recognition results, and 9 is for integrating recognition results of hand shape / movement and speech analysis results, and outputting designated contents in the form of speech or images. Conversion program, 1
0 is an image database.

【0004】次に動作について説明する。ハンドジェス
チャーは手形状入力装置1と個人差の補正器2によって
ワークステーション6に入力され、手の形・動きを認識
するための認識プログラム7によって認識される。ま
た、音声情報は音声認識装置3によって認識された後、
ワークステーション6の音声認識結果を解析するための
解析プログラム8に送られる。
Next, the operation will be described. The hand gesture is input to the workstation 6 by the hand shape input device 1 and the personal difference corrector 2, and is recognized by the recognition program 7 for recognizing the shape and movement of the hand. After the voice information is recognized by the voice recognition device 3,
It is sent to an analysis program 8 for analyzing the speech recognition result of the workstation 6.

【0005】ハンドジェスチャーと音声の認識結果は、
手の形・動きの認識結果と音声認識結果を統合し、指示
された内容を音声または画像の形で出力するための変換
プログラム9によって、外部の音声合成装置4あるいは
画像表示装置5に送られる。
[0005] The recognition result of the hand gesture and the voice is
The result of hand shape / motion recognition and the result of voice recognition are integrated and sent to an external voice synthesizer 4 or image display 5 by a conversion program 9 for outputting the specified contents in the form of voice or image. .

【0006】[0006]

【発明が解決しようとする課題】従来のヒューマンイン
ターフェースシステムは以上のように構成されているの
で、ハンドジェスチャー認識のために、手袋のような手
形状入力装置(図8の1参照)が必要であり、情報処理に
ワークステーションが必要であるなど、非常に繁雑で大
がかりなシステムであった。従って、汎用的なヒューマ
ンインターフェースシステムとしての使用は困難である
等の問題があった。
Since the conventional human interface system is configured as described above, a hand shape input device such as a glove (1 in FIG. 8) is required for hand gesture recognition. Yes, it was a very complicated and large system, requiring a workstation for information processing. Therefore, there is a problem that it is difficult to use it as a general-purpose human interface system.

【0007】この発明は、上記のような課題を解決する
ためになされたもので、画像センサによってハンドジェ
スチャーやボディアクションを検出・認識する、適用範
囲が広く、高速で動作し、さらにコンパクトなヒューマ
ンインターフェースおよびこれを使用した高速移動物体
位置検出装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and has a wide application range, operates at high speed, and has a more compact human body by detecting and recognizing hand gestures and body actions by an image sensor. An object of the present invention is to provide an interface and a high-speed moving object position detecting device using the same.

【0008】[0008]

【課題を解決するための手段】上記の目的に鑑み、この
発明は、移動物体のX−Y座標検出を行うパターンマッ
チング機能を有する人工網膜チップを搭載した第1の入
力手段と、同時刻の上記移動物体のZ座標検出を行うパ
ターンマッチング機能を有する人工網膜チップを搭載し
た第2の入力手段と、上記第1および第2の入力手段で
得られたデータから上記移動物体の軌跡を計算する制御
処理手段と、からなる高速移動物体位置検出装置にあ
る。
SUMMARY OF THE INVENTION In view of the above-mentioned object, the present invention relates to a first input unit equipped with an artificial retinal chip having a pattern matching function for detecting the XY coordinates of a moving object, Calculating a trajectory of the moving object from data obtained by a second input unit equipped with an artificial retinal chip having a pattern matching function for detecting the Z coordinate of the moving object and data obtained by the first and second input units; And a control processing means.

【0009】[0009]

【発明の実施の形態】以下、この発明を各実施の形態に
従って説明する。 実施の形態1.図1はこの発明の一実施の形態によるヒ
ューマンインターフェースシステムの構成を示すもので
ある。図において11は人物、12は人工網膜チップお
よびCCD等からなる画像センサ、13はマイク等から
なる音声入力装置、14はマイクロコンピュータ(以下
マイコン)、15はヒューマンインターフェースモジュ
ール、16はジェスチャー認識および音声認識アルゴリ
ズム(ソフトウェア)、17はパソコンを含むマルチメデ
ィア機器、家電製品(テレビ、エアコン、オーディオな
ど)、ゲーム機、介護装置などからなる被制御装置であ
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below according to each embodiment. Embodiment 1 FIG. FIG. 1 shows a configuration of a human interface system according to an embodiment of the present invention. In the figure, 11 is a person, 12 is an image sensor composed of an artificial retinal chip and a CCD, 13 is a voice input device composed of a microphone or the like, 14 is a microcomputer (hereinafter referred to as a microcomputer), 15 is a human interface module, 16 is gesture recognition and voice. A recognition algorithm (software) 17 is a controlled device including a multimedia device including a personal computer, a home electric appliance (television, air conditioner, audio, etc.), a game machine, a care device, and the like.

【0010】なお、画像センサ12が人間のジェスチャ
ーを画像情報として入力するジェスチャー入力手段を構
成し、音声入力装置13が人間の音声を音声情報として
入力する音声入力手段を構成し、ジェスチャー・音声認
識アルゴリズム16がアルゴリズム格納手段を構成し、
マイコン14が情報認識処理手段を構成する。
The image sensor 12 constitutes a gesture input means for inputting a human gesture as image information, and the voice input device 13 constitutes a voice input means for inputting a human voice as voice information. Algorithm 16 constitutes an algorithm storage means,
The microcomputer 14 constitutes information recognition processing means.

【0011】次に動作について説明する。人物11はハ
ンドジェスチャーやボディアクションによって自分の意
思を表現する。画像センサ12には人工網膜チップある
いはCCDを使用する。人工網膜チップ(三菱電機株式
会社の登録商標)は図2に示す構造を有している。ここ
で18は人工網膜チップ基板、19はランダムアクセス
スキャナ、20はマルチプレクサ、21は画素コア回
路、22は感度制御信号、23は入力画像、24は出力
画像である。
Next, the operation will be described. The person 11 expresses his / her intention by hand gesture or body action. As the image sensor 12, an artificial retina chip or a CCD is used. The artificial retinal chip (registered trademark of Mitsubishi Electric Corporation) has a structure shown in FIG. Here, reference numeral 18 denotes an artificial retinal chip substrate, 19 denotes a random access scanner, 20 denotes a multiplexer, 21 denotes a pixel core circuit, 22 denotes a sensitivity control signal, 23 denotes an input image, and 24 denotes an output image.

【0012】画素コア回路21は光検出感度を正から負
まで変えることができるものであり、ランダムアクセス
スキャナ19は画素コア回路21の光検出感度を変える
ための制御信号22を発生するものである。例えば、画
素コア回路21の1行目と2行目の感度をそれぞれ1、
−1とし、3行目〜最終行の感度を0(光が当たっても
電流が流れない)とすれば、1行目と2行目では照射さ
れた入力画像23の差信号が得られる。従って、この感
度制御信号22のペア(1,−1)を1行目から最終行ま
でスキャンすることによって、入力画像23のエッジ検
出画像が出力画像24として得られる。
The pixel core circuit 21 can change the light detection sensitivity from positive to negative, and the random access scanner 19 generates a control signal 22 for changing the light detection sensitivity of the pixel core circuit 21. . For example, the sensitivity of each of the first and second rows of the pixel core circuit 21 is set to 1,
Assuming that the sensitivity of the third row to the last row is 0 (current does not flow even when light is applied), a difference signal between the irradiated input images 23 is obtained in the first row and the second row. Accordingly, by scanning the pair (1, -1) of the sensitivity control signals 22 from the first row to the last row, an edge detection image of the input image 23 is obtained as the output image 24.

【0013】感度制御信号22を1、0、0、・・・と
すれば、入力画像23をそのままの形で検出することが
できる(CCDの機能)。また、感度制御信号22を全て
1とすれば、入力画像23の射影信号が出力画像24に
得られる。人工網膜チップは画像検出・処理が高速(フ
レームレート:1kHz以上)に行えるという特長も有
している。人工網膜チップで前処理された信号は、マイ
コン14によって処理され、人物のハンドジェスチャー
やボディアクションの認識処理が行われる。なお、マイ
コン14は上述の人工網膜チップでの画像処理内容の制
御も行う。
If the sensitivity control signal 22 is 1, 0, 0,..., The input image 23 can be detected as it is (CCD function). If all the sensitivity control signals 22 are set to 1, a projection signal of the input image 23 is obtained in the output image 24. The artificial retinal chip also has a feature that image detection and processing can be performed at high speed (frame rate: 1 kHz or more). The signal preprocessed by the retinal prosthesis chip is processed by the microcomputer 14 to perform recognition processing of a hand gesture and a body action of a person. Note that the microcomputer 14 also controls the contents of image processing in the above-described artificial retinal chip.

【0014】音声はマイクロホンなどの音声入力装置1
3によって入力され、マイコン14などの信号処理装置
によってスペクトル分解、音韻分解などが行われ、認識
される。
The voice is a voice input device 1 such as a microphone.
3 and is subjected to spectral decomposition, phonological decomposition and the like by a signal processing device such as the microcomputer 14 and recognized.

【0015】これらのハンドジェスチャーやボディアク
ション認識と音声認識の結果は統合されて、パソコン、
家電製品(テレビ、エアコン、オーディオなど)、ゲーム
機、介護装置などの被制御装置17に制御信号として入
力され、人物11の意思のとおりに被制御装置17を動
作させることができる。これらの認識アルゴリズム16
は、例えば、情報処理装置であるマイコン14などに付
随して搭載されている。
The results of the hand gesture, body action recognition, and voice recognition are integrated into a personal computer,
A control signal is input as a control signal to a controlled device 17 such as a home appliance (television, air conditioner, audio, etc.), a game machine, a nursing device, and the like, and the controlled device 17 can be operated according to the intention of the person 11. These recognition algorithms 16
Is mounted in association with, for example, the microcomputer 14 which is an information processing device.

【0016】なお、上記実施の形態では画像センサとし
て、画像の前処理機能(エッジ検出、射影検出など)を有
する人工網膜チップを使用したが、画像処理機能を有し
ないCCDを使用することも可能である。CCDを使用
した場合には、画像の前処理と信号処理を共にマイコン
14等の情報処理装置で行う必要がある。
In the above-described embodiment, an artificial retinal chip having an image pre-processing function (edge detection, projection detection, etc.) is used as an image sensor, but a CCD without an image processing function may be used. It is. When a CCD is used, both image preprocessing and signal processing must be performed by an information processing device such as the microcomputer 14.

【0017】さらにこの発明では、人間の音声を入力す
るための音声入力装置13は必要不可欠なものではな
く、なくてもよいことは言うまでもない。
Further, in the present invention, it is needless to say that the voice input device 13 for inputting human voice is not indispensable and may be omitted.

【0018】実施の形態2.図3は1つの実施の形態の
特徴である、ハンドジェスチャーによる情報入力の模様
を示したものである。図3において、15aは人工網膜
チップとマイコンを搭載したヒューマンインターフェー
スモジュール、17はパソコン等からなる被制御装置、
11aは使用者である。図3に示すように、使用者11
aのハンドジェスチャーをコンパクトなヒューマンイン
ターフェースモジュール15aによって認識し、このハ
ンドジェスチャーに基づいてパソコンや家電製品、ゲー
ム機、介護装置などの被制御装置17を制御できる。
Embodiment 2 FIG. FIG. 3 shows a pattern of information input by hand gesture, which is a feature of one embodiment. In FIG. 3, 15a is a human interface module equipped with an artificial retinal chip and a microcomputer, 17 is a controlled device such as a personal computer,
11a is a user. As shown in FIG.
The hand gesture of “a” is recognized by the compact human interface module 15a, and the controlled device 17 such as a personal computer, a home appliance, a game machine, or a nursing device can be controlled based on the hand gesture.

【0019】図4の(a)〜(d)は、ハンドジェスチャー
認識の例である。図において、28は人工網膜チップの
撮像領域(モニタ画面)、29は手、30は手の形を長方
形で近似したもの、31は重心である。ハンドジェスチ
ャーは図4のように、手の形を長方形で近似して、その
重心座標(X1,Y1)、サイズ(d1×d2)、傾き角
(θ)によって認識される。このように、単純かつ少量の
情報によって,さまざまなハンドジェスチャー認識が行
える。
FIGS. 4A to 4D show examples of hand gesture recognition. In the figure, reference numeral 28 denotes an imaging area (monitor screen) of the retinal prosthesis chip, 29 denotes a hand, 30 denotes an approximate hand shape as a rectangle, and 31 denotes a center of gravity. As shown in FIG. 4, the hand gesture approximates the shape of the hand as a rectangle, and its center of gravity coordinates (X1, Y1), size (d1 × d2), and inclination angle
(θ). Thus, various hand gesture recognitions can be performed with a simple and small amount of information.

【0020】実施の形態3.図5は別の1つの実施の形
態の特徴である、人間のボディアクショシを認識するこ
とによって、使用者の意思(スイッチオン、オフ等)を認
識するものである。ボディアクションの例を図5の(a)
〜(f)に示す。図において、32a〜32fはボディア
クションの特に腕の位置(上下、左右、斜め、水平等)を
示している。これら以外にも、身体の左右の傾き、屈み
込み、ジャンプ等の身体の形状のボディアクションの認
識も可能である。また、予め登録された基本ボディアク
ションと入力されたボディアクションとを比較すること
によって、ボディアクションの認識を行うこともでき
る。
Embodiment 3 FIG. 5 shows a feature of another embodiment, in which a user's intention (switch on, off, etc.) is recognized by recognizing a human body action. An example of a body action is shown in FIG.
To (f). In the figure, 32a to 32f indicate the position of the body action, particularly the arm position (up and down, left and right, diagonal, horizontal, etc.). In addition to the above, it is also possible to recognize body actions such as right and left inclination, squatting, jumping and the like of the body. The body action can be recognized by comparing the basic body action registered in advance with the input body action.

【0021】実施の形態4.図6は別の1つの実施の形
態の特徴である、ハンドジェスチャーやボディアクショ
ンを入力としたゲーム機への応用の一例である。図にお
いて、15bはヒューマンインターフェースモジュー
ル、33はゲーム画面、11bはプレーヤー、35はゲ
ームの登場人物である。図に示すように、プレーヤー1
1bのボディアクションのとおりに、ゲームの登場人物
35が動作する。図6では、フライングゲームに適用し
た例を示している。プレーヤー11bの動作どおりに、
登場人物35が空を飛ぶため、プレーヤー11bはあた
かも自分が空を飛んでいるような気分が味わえる。
Embodiment 4 FIG. FIG. 6 shows an example of application to a game machine using a hand gesture or a body action as an input, which is a feature of another embodiment. In the figure, 15b is a human interface module, 33 is a game screen, 11b is a player, and 35 is a character in the game. As shown, player 1
The character 35 of the game operates according to the body action 1b. FIG. 6 shows an example applied to a flying game. According to the operation of the player 11b,
Since the character 35 flies in the sky, the player 11b can feel as if he / she is flying.

【0022】このようにハンドジェスチャーやボディア
クションを入力として、ジョイステックの不要なゲーム
機や、登場人物がプレーヤーと同じ動作を行うゲーム
機、あるいはキーボード、マウス、スイッチ、ダイヤ
ル、リモコンなどを用いることなく、コンピュータ、家
電製品、介護装置を制御できるヒューマンインターフェ
ースシステムが実現できる。
As described above, using the hand gesture and the body action as input, a game machine that does not require a joystick, a game machine in which characters perform the same operation as a player, or a keyboard, a mouse, a switch, a dial, a remote controller, and the like are used. Instead, a human interface system that can control a computer, a home appliance, and a nursing device can be realized.

【0023】実施の形態5.次に、図7には別の1つの
実施の形態のヒューマンインターフェースシステムを使
用した高速移動物体位置検出装置の構成を示す。図7で
は高速で移動する物体の位置検出を行うものである。図
において、36a、36bは人工網膜チップ搭載カメ
ラ、37a〜37eは一定時間間隔を空けて表示した移
動物体の存在する平面、38a〜38eは移動物体、3
9は人工網膜チップ搭載カメラ36a、36bからの入
力に基づいて移動物体の軌跡を計算処理するマイコンで
ある。
Embodiment 5 Next, FIG. 7 shows a configuration of a high-speed moving object position detecting device using a human interface system according to another embodiment. In FIG. 7, the position of an object moving at high speed is detected. In the figure, reference numerals 36a and 36b denote cameras mounted with an artificial retinal chip, 37a to 37e denote planes on which moving objects are displayed at fixed time intervals, 38a to 38e denote moving objects, 3
Reference numeral 9 denotes a microcomputer for calculating and processing the trajectory of the moving object based on the input from the cameras 36a and 36b equipped with the artificial retina chip.

【0024】なお、人工網膜チップ搭載カメラ36a、
36bが第1および第2の入力手段、マイコン39が制
御処理手段を構成する。
The artificial retina chip mounted camera 36a,
36b constitutes first and second input means, and the microcomputer 39 constitutes a control processing means.

【0025】次に動作について説明する。人工網膜チッ
プはパターンマッチング機能を有している。すなわち、
入力画像中から特定パターンの画像を抽出することがで
きるため、移動物体の形状(ボールならば円形)をパター
ンマッチングすることにより、移動物体のみを検出でき
る。従って、即座にその位置(座標)の検出が行える。人
工網膜チップ搭載カメラ36aは移動物体のX−Y座標
を検出するためのもの、人工網膜チップ搭載カメラ36
bは移動物体のZ座標を検出するためのものである。
Next, the operation will be described. The artificial retinal chip has a pattern matching function. That is,
Since an image of a specific pattern can be extracted from the input image, only the moving object can be detected by pattern matching the shape of the moving object (a circle for a ball). Therefore, the position (coordinates) can be detected immediately. The camera 36a with an artificial retinal chip is for detecting the X-Y coordinates of a moving object.
b is for detecting the Z coordinate of the moving object.

【0026】すなわち、時間t1において平面37a上
の移動物体38aのX−Y座標を人工網膜チップ搭載カ
メラ36aで、Z座標を人工網膜チップ搭載カメラ36
bで検出することにより、時間t1における移動物体3
8aの座標が分かる。同様に、時間t2、t3、・・・
においても移動物体38b、38c、・・・の座標をそ
れぞれ検出することができる。人工網膜チップは高速画
像検出・処理が行える(フレームレート:1kHz)た
め、1msec毎に移動物体の座標検出が可能である。
That is, at time t1, the XY coordinates of the moving object 38a on the plane 37a are represented by the camera 36a with the artificial retinal chip, and the Z coordinates are represented by the camera 36 with the artificial retinal chip.
b, the moving object 3 at time t1
The coordinates of 8a are known. Similarly, times t2, t3,...
, The coordinates of the moving objects 38b, 38c,... Can be respectively detected. Since the artificial retina chip can perform high-speed image detection and processing (frame rate: 1 kHz), it can detect the coordinates of a moving object every 1 msec.

【0027】移動物体を、例えば投げられたボールとす
れば、その軌跡は方物線(二次曲線y=aX2+bX+
c)を描くため、最低異なる3つの時間のX−Y座標と
Z座標(距離を示す)がわかれば、マイコン39により軌
跡は計算によって求めることができる。軌跡が分かれば
ボールの落下地点も分かる。
If the moving object is, for example, a thrown ball, its trajectory is a parabola (quadratic curve y = aX2 + bX +
In order to draw c), if the X-Y coordinates and the Z coordinates (indicating the distance) of at least three different times are known, the locus can be calculated by the microcomputer 39 by calculation. If you know the trajectory, you can also know where the ball fell.

【0028】[0028]

【発明の効果】以上のようにこの発明では、移動物体の
X−Y座標検出を行うパターンマッチング機能を有する
人工網膜チップを搭載した第1の入力手段と、同時刻の
移動物体のZ座標検出を行うパターンマッチング機能を
有する人工網膜チップを搭載した第2の入力手段とで得
られたデータから移動物体の軌跡を計算するようにした
ので、移動物体の位置を高速で検出できる高速移動物体
位置検出装置を提供できる等の効果が得られる。
As described above, according to the present invention, the first input means equipped with the artificial retinal chip having a pattern matching function for detecting the XY coordinates of the moving object, and the Z coordinate detection of the moving object at the same time The trajectory of the moving object is calculated from the data obtained by the second input means equipped with the artificial retinal chip having a pattern matching function for performing the moving object position, so that the position of the moving object can be detected at high speed. Effects such as the provision of a detection device can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施の形態によるヒューマンイ
ンターフェースシステムの構成図である。
FIG. 1 is a configuration diagram of a human interface system according to an embodiment of the present invention.

【図2】 人工網膜チップの構成図である。FIG. 2 is a configuration diagram of an artificial retinal chip.

【図3】 この発明の1つの実施の形態の特徴であるハ
ンドジェスチャーによる情報入力の模様を示した図であ
る。
FIG. 3 is a diagram showing a pattern of information input by hand gesture, which is a feature of one embodiment of the present invention.

【図4】 (a)〜(d)はハンドジェスチャー認識の例を
示す図である。
FIGS. 4A to 4D are diagrams showing examples of hand gesture recognition.

【図5】 この発明の1つの実施の形態の特徴である人
間のボディアクショシを認識する場合のボディアクショ
ンの例を示す図である。
FIG. 5 is a diagram illustrating an example of a body action when recognizing a human body action which is a feature of one embodiment of the present invention;

【図6】 この発明の1つの実施の形態の特徴であるハ
ンドジェスチャーやボディアクションを入力としたゲー
ム機への応用の一例を示す図である。
FIG. 6 is a diagram showing an example of an application to a game machine using a hand gesture or a body action as an input, which is a feature of one embodiment of the present invention.

【図7】 この発明の別の実施の形態によるヒューマン
インターフェースシステムを使用した高速移動物体位置
検出装置の構成を示す図である。
FIG. 7 is a diagram showing a configuration of a high-speed moving object position detecting device using a human interface system according to another embodiment of the present invention.

【図8】 従来のハンドジェスチャー認識システムの構
成図である。
FIG. 8 is a configuration diagram of a conventional hand gesture recognition system.

【符号の説明】[Explanation of symbols]

11 人物、11a 使用者、11b プレーヤー、1
2 画像センサ、13音声入力装置、14,39 マイ
コン、15,15a,15b ヒューマンインターフェ
ースモジュール、16 ジェスチャー・音声認識アルゴ
リズム、17被制御装置、18 人工網膜チップ基板、
33 ゲーム画面、35 登場人物、36a,36b
人工網膜チップ搭載カメラ。
11 person, 11a user, 11b player, 1
2 image sensor, 13 voice input device, 14, 39 microcomputer, 15, 15a, 15b human interface module, 16 gesture / voice recognition algorithm, 17 controlled device, 18 artificial retinal chip substrate,
33 game screen, 35 characters, 36a, 36b
Camera with artificial retinal chip.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 健一 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 太田 淳 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 小守 伸史 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 ウィリアム・ティ・フリーマン アメリカ合衆国、マサチューセッツ州、ニ ュートン、アラートンロード 174 ──────────────────────────────────────────────────の Continuing on the front page (72) Kenichi Tanaka, 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Mitsui Electric Co., Ltd. (72) Atsushi Ota 2-3-2, Marunouchi 3-chome, Chiyoda-ku, Tokyo Rishi Electric Co., Ltd. (72) Inventor Nobumi Komori 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Sanrishi Electric Co., Ltd. (72) Inventor William T. Freeman Alert, Newton, Mass., USA Download 174

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 移動物体のX−Y座標検出を行うパター
ンマッチング機能を有する人工網膜チップを搭載した第
1の入力手段と、 同時刻の上記移動物体のZ座標検出を行うパターンマッ
チング機能を有する人工網膜チップを搭載した第2の入
力手段と、 上記第1および第2の入力手段で得られたデータから上
記移動物体の軌跡を計算する制御処理手段と、 からなる高速移動物体位置検出装置。
A first input unit having an artificial retinal chip having a pattern matching function for detecting XY coordinates of a moving object; and a pattern matching function for detecting Z coordinates of the moving object at the same time. A high-speed moving object position detecting device comprising: a second input unit equipped with an artificial retinal chip; and a control processing unit for calculating a trajectory of the moving object from data obtained by the first and second input units.
JP11002505A 1999-01-08 1999-01-08 Device for detecting high speed moving object position Pending JP2000028322A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11002505A JP2000028322A (en) 1999-01-08 1999-01-08 Device for detecting high speed moving object position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11002505A JP2000028322A (en) 1999-01-08 1999-01-08 Device for detecting high speed moving object position

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8184951A Division JPH1031551A (en) 1996-07-15 1996-07-15 Human interface system and high-speed moving body position detecting device using the same

Publications (1)

Publication Number Publication Date
JP2000028322A true JP2000028322A (en) 2000-01-28

Family

ID=11531230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11002505A Pending JP2000028322A (en) 1999-01-08 1999-01-08 Device for detecting high speed moving object position

Country Status (1)

Country Link
JP (1) JP2000028322A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187043A (en) * 2002-12-04 2004-07-02 Fuji Xerox Co Ltd Video processor
CN103206986A (en) * 2013-04-10 2013-07-17 中北大学 Parameter testing system and method for high-speed moving object
CN104792262A (en) * 2015-04-20 2015-07-22 张雅声 Photosensitive plane target

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187043A (en) * 2002-12-04 2004-07-02 Fuji Xerox Co Ltd Video processor
CN103206986A (en) * 2013-04-10 2013-07-17 中北大学 Parameter testing system and method for high-speed moving object
CN104792262A (en) * 2015-04-20 2015-07-22 张雅声 Photosensitive plane target

Similar Documents

Publication Publication Date Title
JPH1031551A (en) Human interface system and high-speed moving body position detecting device using the same
JP3114813B2 (en) Information input method
US10606380B2 (en) Display control apparatus, display control method, and display control program
US6198485B1 (en) Method and apparatus for three-dimensional input entry
US6614422B1 (en) Method and apparatus for entering data using a virtual input device
US20170293364A1 (en) Gesture-based control system
JP4608326B2 (en) Instruction motion recognition device and instruction motion recognition program
Kjeldsen Visual interpretation of hand gestures as a practical interface modality
JPH07141101A (en) Input system using picture
JPH0844490A (en) Interface device
CN111831119A (en) Eyeball tracking method and device, storage medium and head-mounted display equipment
JP2004078977A (en) Interface device
JPH08211979A (en) Hand shake input device and method
US20190384419A1 (en) Handheld controller, tracking method and system using the same
Aditya et al. Recent trends in HCI: A survey on data glove, LEAP motion and microsoft kinect
Sreejith et al. Real-time hands-free immersive image navigation system using Microsoft Kinect 2.0 and Leap Motion Controller
JP2000056916A (en) Hand pointing device
JP2000028322A (en) Device for detecting high speed moving object position
JPH09311759A (en) Method and device for gesture recognition
Gallo et al. View-independent hand posture recognition from single depth images using PCA and Flusser moments
JPH1039995A (en) Line-of-sight/voice input device
US7145550B2 (en) Method and apparatus for reducing repetitive motion injuries in a computer user
US20190339864A1 (en) Information processing system, information processing method, and program
CN111766959B (en) Virtual reality interaction method and virtual reality interaction device
JP2013109590A (en) Image processing apparatus, image processing system, image processing method and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060704