JP2001273503A - Motion recognition system - Google Patents

Motion recognition system

Info

Publication number
JP2001273503A
JP2001273503A JP2000083050A JP2000083050A JP2001273503A JP 2001273503 A JP2001273503 A JP 2001273503A JP 2000083050 A JP2000083050 A JP 2000083050A JP 2000083050 A JP2000083050 A JP 2000083050A JP 2001273503 A JP2001273503 A JP 2001273503A
Authority
JP
Japan
Prior art keywords
state
implication
pattern
motion
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000083050A
Other languages
Japanese (ja)
Inventor
Eiji Kawamura
英二 川村
Hiroshi Kurita
洋 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2000083050A priority Critical patent/JP2001273503A/en
Publication of JP2001273503A publication Critical patent/JP2001273503A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a system which uses distance information and the feature quantity, which are operated from plural pictures obtained by picking up images by plural cameras, to recognize the motion of an object in a non-contact nanner independently of the background. SOLUTION: The system is comprised of a range finder part 101, an image pickup part 102, an information volume calculation part 103, a state recognition part 104, a pattern detection part 105, an inference part 106, a meaning recognition part 107.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は主として対象物のモーシ
ョンを認識するシステムに関し、特に複数のカメラによ
って対象物のモーションを撮像して得られる複数画像か
ら三角測量の原理を利用して撮像エリアの距離情報を演
算する測距手段を備えたモーション認識システムに関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for recognizing the motion of an object, and more particularly to a system for recognizing the motion of an object using a principle of triangulation from a plurality of images obtained by imaging the motion of the object by a plurality of cameras. The present invention relates to a motion recognition system provided with distance measuring means for calculating distance information.

【0002】[0002]

【従来の技術】従来のモーション認識システムの一例と
して、ハンドジェスチャー認識システムについて説明す
る。電子情報通信学会論文誌、D−II、Vol.J73−
D−II、No.12、PP−1985〜1992(199
0年)において、、手形状入力装置(市販のデータグラブ
TM"Data Glove TM"を使用)を利用したハンドジェスチ
ャー認識システムが掲載されている。データグラブTM
は米国VPL社の製品で、指の曲げ情報を光ファイバ内
の光量で測定し、親指の第2、3関節、他の指の第1、
2関節の10関節について個人差を補正した曲げ角度を
測定する。磁気発生器と磁気センサを用いた米国マクダ
ネルダグラス(MacDonnell Douglas)社の3次元デジタイ
ザ(3 SPACE TRACKER TM)を組合せることで、手の向きと
手の3次元位置も測定できる。しかしながら、このよう
な従来のシステムは、モーション認識のために、対象物
に接触した入力装置が必要であり、モーションをする対
象物の動きを制約してしまう非常に繁雑で大がかりなシ
ステムであった。
2. Description of the Related Art A hand gesture recognition system will be described as an example of a conventional motion recognition system. IEICE Transactions, D-II, Vol.J73-
D-II, No. 12, PP-1985-1992 (199
0), a hand gesture recognition system using a hand shape input device (using a commercially available Data Glove ™) is described. Data Grab TM
Is a product of VPL, USA, which measures the bending information of a finger based on the amount of light in an optical fiber, and calculates the second and third joints of the thumb and the first and second fingers of the other finger.
The bending angles of the two joints, which are corrected for individual differences, are measured. By combining a three-dimensional digitizer (3 SPACE TRACKER ™) manufactured by MacDonnell Douglas in the United States using a magnetic generator and a magnetic sensor, the direction of the hand and the three-dimensional position of the hand can also be measured. However, such a conventional system requires an input device in contact with an object for motion recognition, and is a very complicated and large-scale system that restricts the movement of the object making a motion. .

【0003】あるいは、ゲームを楽しむ人が実際に自分
の体を動かし、この人の人体、あるいは、人体部位のモ
ーションを認識し、認識結果に従ってテレビ等に接続さ
れたコンピュータを制御し、全体としてゲーム装置を構
成することが考えられている。例えば二人のプレーヤが
指定された位置に対峙して、パンチを出したり、キック
を行い、これらプレーヤのモーションを認識し、認識結
果をコンピュータに与え、コンピュータが作成したゲー
ムキャラクターをモニタ上に表示し、モニタ上で、ゲー
ムキャラクターがプレーヤと同様に動き、二人のプレー
ヤについてのスコアを集計、表示するようになされる。
この種のコンピュータゲーム装置においては、人体のモ
ーションを認識することが必要である。従来、人体の全
体、または、一部をCCD(固体撮像素子)カメラによ
り撮像し、このCCDカメラにより出力されるが画像信
号(電気信号)に基づいて、人体、あるいは、人体部位
のモーションを検出するように構成されたモーション検
出装置が提案されている。例えば"Artificial Retina C
hips as Image Input Interfaces for Multimedia Syst
ems"(First Optoelectronics and Communications Conf
ernce(OECC'96)Technical Digest,July 1996,Makuhari
Messe p516-p517)には、CCDにより撮像された画像デ
ータを処理することによって、画像中の物体の輪郭線
(エッジ)を抽出する技術が開示されている。このエッ
ジから人体を動きを判定することができる。そして、検
出された人体の動きをコントローラによる入力に代えて
コンピュータゲームに入力することによって、例えば格
闘ゲームを構成することが可能となる。しかしながら、
このような従来のモーション認識装置では、人体の背後
の画像が一様でない場合に背景の一部が人体の一部とし
て認識されてしまったり、人体の明るさ(輝度)が背景
に近い場合には人体が背景から区別できない可能性があ
るという欠点があった。
[0003] Alternatively, a person who enjoys a game actually moves his / her body, recognizes the motion of this person's body or a human body part, and controls a computer connected to a television or the like according to the recognition result, and as a whole, It is contemplated to configure the device. For example, two players face each other at a specified position, punch or kick, recognize the motion of these players, give the recognition result to the computer, and display the computer-generated game character on the monitor Then, on the monitor, the game character moves in the same manner as the players, and the scores of the two players are totaled and displayed.
In this type of computer game device, it is necessary to recognize the motion of a human body. 2. Description of the Related Art Conventionally, a whole or a part of a human body is imaged by a CCD (solid-state imaging device) camera, and the motion of the human body or a part of the human body is detected based on an image signal (electric signal) output by the CCD camera. There has been proposed a motion detection device configured to perform the motion detection. For example, "Artificial Retina C
hips as Image Input Interfaces for Multimedia Syst
ems "(First Optoelectronics and Communications Conf
ernce (OECC'96) Technical Digest, July 1996, Makuhari
Messe p516-p517) discloses a technique for extracting image outlines (edges) of an object in an image by processing image data captured by a CCD. The movement of the human body can be determined from the edge. Then, by inputting the detected movement of the human body to the computer game instead of the input by the controller, for example, a fighting game can be configured. However,
In such a conventional motion recognition device, when the image behind the human body is not uniform, a part of the background is recognized as a part of the human body, or when the brightness (luminance) of the human body is close to the background, Has the disadvantage that the human body may not be distinguishable from the background.

【0004】[0004]

【発明が解決しようとする課題】本発明は複数のカメラ
によって撮像して得られる複数画像から演算される距離
情報、様々な特徴量を用いてモーションを行う対象物に
対して非接触に、しかも背景に関わらずモーションを認
識できるシステムの提供を目的とする。
SUMMARY OF THE INVENTION The present invention provides distance information calculated from a plurality of images captured by a plurality of cameras, and a non-contact object that performs motion using various features. An object of the present invention is to provide a system capable of recognizing motion regardless of background.

【0005】[0005]

【課題を解決するための手段】前記課題を解決するた
め、本発明のモーション認識システムにおいては、 1)対象物の映像を撮像する撮像手段と、 2)複数のカメラによって前記対象物を撮像して得られ
る複数画像から三角測量の原理を利用して撮像エリアの
距離情報を演算する測距手段と、 3)前記対象物の映像および前記距離情報から算出され
る情報量から前記対象物の状態を認識する状態認識手段
と、 4)認識された前記状態から動きに関するパターンを検
出するパターン検出手段と、 5)前記状態と前記パターンから所定の含意を認識する
意味認識手段とから構成されるシステムを採用した。
In order to solve the above-mentioned problems, a motion recognition system according to the present invention comprises: 1) an image pickup means for picking up an image of an object; and 2) an image pickup of the object by a plurality of cameras. Distance measuring means for calculating distance information of an imaging area from a plurality of images obtained by using the principle of triangulation; and 3) the state of the object from the amount of information calculated from the image of the object and the distance information. 4) a pattern detecting means for detecting a pattern relating to movement from the recognized state, and 5) a semantic recognizing means for recognizing predetermined implications from the state and the pattern. It was adopted.

【0006】あるいは、特許請求範囲第2項の発明のよ
うに、 1)対象物の映像を撮像する撮像手段と、 2)複数のカメラによって前記対象物を撮像して得られ
る複数画像から三角測量の原理を利用して撮像エリアの
距離情報を演算する測距手段と、 3)前記対象物の映像および前記距離情報から算出され
る情報量から前記対象物の状態を認識する状態認識手段
と、 4)認識された前記状態から動きに関するパターンを検
出するパターン検出手段と、 5)所定の状態および所定のパターンから構成される基
本状態と該基本状態の各々に対応した識別子を記憶した
テーブルと、 6)前記識別子に対応する含意を記憶した辞書と、 7)前記認識された状態と前記検出されたパターンを前
記辞書と照合し、含意を認識する意味認識手段とから構
成されるシステムを採用しても良い。
Alternatively, as in the second aspect of the present invention, 1) imaging means for imaging an image of an object; and 2) triangulation from a plurality of images obtained by imaging the object with a plurality of cameras. Distance measuring means for calculating distance information of the imaging area using the principle of 3); 3) state recognizing means for recognizing a state of the object from an image of the object and an information amount calculated from the distance information; 4) pattern detection means for detecting a pattern relating to movement from the recognized state; 5) a table storing a predetermined state, a basic state composed of the predetermined pattern, and an identifier corresponding to each of the basic states; 6) a dictionary storing the implication corresponding to the identifier; and 7) a meaning recognizing means for recognizing the implication by comparing the recognized state and the detected pattern with the dictionary. A system to be formed may be adopted.

【0007】意味認識手段において、過去の情報を使っ
て推測される対象物の状態に関する情報(推定値)を必
要に応じて参照して、含意を認識するようにすれば、対
象物が他の物体と交錯して現在の情報が欠落していても
認識できる。
[0007] If the semantic recognition means refers to information (estimated value) on the state of the object estimated using past information as necessary and recognizes the implication, the object can be recognized by other objects. Even if the current information is missing due to crossing with the object, it can be recognized.

【0008】距離情報から算出される情報量は、向き、
空間位置、突出部、体積、3次元形態、特徴量から選ば
れた少なくとも1つであると状態の認識に効果がある。
The amount of information calculated from the distance information is:
At least one selected from a spatial position, a protrusion, a volume, a three-dimensional form, and a feature value is effective in recognizing a state.

【0009】ここで状態とは、予め特定しておいた部
位、予め特定しておいた対象、基準値と比較しての評価
から選ばれた少なくとも1つであることが望ましい。
Here, the state is desirably at least one selected from a part specified in advance, an object specified in advance, and an evaluation in comparison with a reference value.

【0010】動きに関するパターンは、特定の部位もし
くは対象の速度、特定の部位もしくは対象の加速度、特
定の部位もしくは対象の軌跡、特定の部位もしくは対象
のストローク、複数の特定の部位もしくは対象の位置関
係、特徴点の動的変形から選ばれる少なくとも1つであ
ることが望ましい。
Patterns relating to movement include the speed of a specific part or target, the acceleration of a specific part or target, the trajectory of a specific part or target, the stroke of a specific part or target, and the positional relationship between a plurality of specific parts or targets. And at least one selected from dynamic deformation of the feature points.

【0011】含意は、機械のもしくはシステムの操作を
指示するコマンド、ロボットもしくは画面内のアニメー
ションの動き、画面表示の指示、オブジェクトの生成、
オブジェクトの機能に対する制御、文書の編集指示、グ
ラフィックの作成指示、音声もしくは楽音の制御指示、
手話の解釈、予め用意した評価値から選ばれる少なくと
も1つであると有用である。
[0011] The implications are commands for instructing the operation of a machine or a system, movement of a robot or animation in a screen, instructions for screen display, generation of an object,
Control of object functions, instructions for editing documents, instructions for creating graphics, instructions for controlling voice or musical sounds,
It is useful that at least one is selected from interpretation of sign language and an evaluation value prepared in advance.

【0012】特許請求範囲第2項の発明において、識別
子に対応する前記基本状態もしくは前記識別子に対応す
る前記含意を入れ替えることによってモーション認識の
機能を変更できるシステムとするとさらに有用である
In the second aspect of the present invention, it is further useful to provide a system capable of changing a function of motion recognition by exchanging the basic state corresponding to an identifier or the implication corresponding to the identifier.

【0013】認識された含意を画面表示、音声、機械の
動作から選ばれた少なくとも1つによって表現するとよ
い。
[0013] The recognized implication may be expressed by at least one selected from screen display, voice, and machine operation.

【0014】撮像の対象となる対象物はスポーツをして
いる人間であり、前記動きのパターンとは該スポーツに
特徴的な行為のフォームであり、含意は該フォームの評
価もしくは解説であるとしてもよい。
[0014] The object to be imaged is a person who is playing a sport, the movement pattern is a form of action characteristic of the sport, and the implication is an evaluation or explanation of the form. Good.

【0015】アニメーション、ロボットから選ばれる少
なくとも1つを認識された含意に従って制御する制御に
応用することも有効である。
It is also effective to apply the present invention to control for controlling at least one selected from an animation and a robot in accordance with the recognized implication.

【0016】さらに音信号を発生する音発生手段を備
え、認識された前記含意に基づき前記音信号を制御する
ことを特徴とするシステムとしてもよい。
[0016] The system may further comprise sound generating means for generating a sound signal, and the sound signal is controlled based on the recognized implication.

【0017】撮像の対象となる前記対象物は人間であ
り、前記動きのパターンとは特定の生理状態に特徴的な
所作であり、前記含意は生理状態の程度に関する評価で
あることを特徴とするシステムも有効である。ここで、
特定の生理状態とは機械を運転している人間の居眠り運
転状態であり、含意は居眠りの程度に関する評価である
ってもよい。
The object to be imaged is a human, the movement pattern is a characteristic characteristic of a specific physiological condition, and the implication is an evaluation relating to a degree of the physiological condition. The system is also effective. here,
The specific physiological state is a dozing driving state of a person driving the machine, and the implication may be an evaluation regarding the degree of dozing.

【0018】含意は開始および終了を含み、該開始のモ
ーションと該終了のモーションの間に検出された動きに
関するパターンに基づきイラストを生成することを特徴
とするシステムとしてもよい。さらに、すでに生成され
たイラストの変形、移動を含み、認識された含意に従っ
て該イラストを変形もしくは移動を行うこととすると尚
よい
[0018] The implication may include a start and an end, and the system may be characterized in that the illustration is generated based on a pattern related to a motion detected between the start motion and the end motion. Furthermore, it is more preferable to include the deformation and movement of the already generated illustration, and to deform or move the illustration according to the recognized implications.

【0019】[0019]

【作用】前述のようなシステムであれば対象物の連続的
に変化していく動きを非接触に背景に関わりなく認識す
ることが可能となる。さらには認識された含意に従って
所定の機能を発動させることが可能となる。
With the above-described system, it is possible to recognize a continuously changing movement of an object in a non-contact manner regardless of the background. Further, it is possible to activate a predetermined function according to the recognized implication.

【0020】[0020]

【発明の実施形態】DETAILED DESCRIPTION OF THE INVENTION

【実施例1】図1は本発明のモーション認識システムの
実施の形態を示したブロック図である。測距部101、
撮像部102、情報量算出部103、状態認識部10
4、パターン検出部105、推測部106、意味認識部
107という構成である。
Embodiment 1 FIG. 1 is a block diagram showing an embodiment of a motion recognition system according to the present invention. Distance measuring unit 101,
Imaging unit 102, information amount calculation unit 103, state recognition unit 10
4. The configuration includes a pattern detection unit 105, an estimation unit 106, and a meaning recognition unit 107.

【0021】各構成部分の簡単な説明を行う。測距部1
01では、複数のカメラで対象物を撮像し、三角測量の
原理を利用して撮影エリアの画素毎の距離情報を演算
し、情報量算出部103に送出する。撮像部102は、
撮像用のカメラで対象物の画像を取得し、情報量算出部
103に送出する。測距用のカメラは、図2に示すよう
に9つのカメラ201〜209をベース板210にレイ
アウトした構成となる。ここで中央のカメラ205は撮
像用のカメラを兼ねる。
A brief description of each component will be given. Distance measuring unit 1
In step 01, an object is imaged by a plurality of cameras, distance information for each pixel in the shooting area is calculated using the principle of triangulation, and sent to the information amount calculation unit 103. The imaging unit 102
An image of the object is acquired by an imaging camera and sent to the information amount calculation unit 103. The ranging camera has a configuration in which nine cameras 201 to 209 are laid out on a base plate 210 as shown in FIG. Here, the central camera 205 also functions as an imaging camera.

【0022】情報量算出部103では、距離情報を伴っ
た対象物の画像すなわち距離画像から、所定の演算プロ
グラムに従って、情報量を算出する。算出する情報量と
しては対象物の向き、対象物の空間位置、突出部、体
積、3次元形態、その他特定の模様のついた立体構造物
の抽出など撮像画像と距離情報を利用して得られる様々
な情報が挙げられる。例えば、情報量が突出部の場合、
距離画像の距離情報を比較し、距離の近い部分の切り出
しを行う。算出された情報量は状態認識部に送出され
る。
The information amount calculation unit 103 calculates the information amount from the image of the object accompanied by the distance information, that is, the distance image according to a predetermined calculation program. The amount of information to be calculated can be obtained using the captured image and distance information such as the direction of the object, the spatial position of the object, the protrusion, the volume, the three-dimensional shape, and the extraction of a three-dimensional structure with a specific pattern. Various information is listed. For example, if the amount of information is a protrusion,
The distance information of the distance images is compared, and a portion having a short distance is cut out. The calculated information amount is sent to the state recognition unit.

【0023】状態認識部104では、情報量算出部にお
いて算出された特徴量をもとに状態の認識を行う。例え
ば、「手」という部位をその画面の状態としてを認識す
る。認識された状態はパターン検出部105、推測部1
06および意味認識部107に送出される。
The state recognizing unit 104 recognizes a state based on the characteristic amount calculated by the information amount calculating unit. For example, the part “hand” is recognized as the state of the screen. The recognized state is the pattern detection unit 105 and the estimation unit 1
06 and the meaning recognition unit 107.

【0024】パターン検出部105では、特定の状態を
示す領域の移動もしくは変化を追跡し動きに関するパタ
ーンを検出する。例えば、前述の「手」という状態の空
間的移動を追跡することにより「手」の動きを知ること
ができる。さらには、この手の動きが一定の周期で繰り
返される場合は、この繰り返し性を理解して、例えばス
トロークあるいは軌跡として検出する。検出されたパタ
ーンはは意味認識部107に送出される。
The pattern detecting section 105 tracks the movement or change of an area indicating a specific state and detects a pattern related to the movement. For example, the movement of the "hand" can be known by tracking the spatial movement of the state of the "hand" described above. Further, when the movement of the hand is repeated at a constant cycle, the repetition is understood and detected as, for example, a stroke or a trajectory. The detected pattern is sent to the meaning recognition unit 107.

【0025】推測部106では状態認識部104からの
状態を時系列的に記憶し、現在の状態を推測する。例え
ば、「手」という状態が、過去に時系列記憶されていた
場合、他のものと交錯して「手」という状態を認識でき
なくても、その領域に「手」という状態が存在すると推
定する。推定値(すなわち推定された現在の状態)は意
味認識部107に送出される。
The estimating section 106 stores the states from the state recognizing section 104 in a time-series manner, and estimates the current state. For example, if the state of "hand" is stored in the time series in the past, it is estimated that the state of "hand" exists in that area even if the state of "hand" cannot be recognized because it is mixed with other things. I do. The estimated value (that is, the estimated current state) is sent to the meaning recognition unit 107.

【0026】意味認識部107では、状態、パターン、
推定値を参照して所定の含意を認識する。例えば、モー
ション認識の結果で画面上のキャラクターを動かす格闘
ゲームなら、「手」の「前向き」に突き出される「軌
跡」から、キャラクターの「ストレートパンチ」という
含意を認識する。
In the meaning recognition unit 107, the state, the pattern,
A predetermined implication is recognized with reference to the estimated value. For example, in a fighting game that moves a character on the screen as a result of motion recognition, the implication of a character's “straight punch” is recognized from a “track” protruding “forward” of a “hand”.

【0027】[0027]

【実施例2】図3は、モーション認識システムによるゲ
ーム機の概略構成図である。ゲーム機本体300に測距
用のカメラ301〜309、ゲーム画面310が配置さ
れている。カメラ303は撮像用のカメラを兼ねてい
る。ゲームユーザーはゲーム機の前に立って、特定のア
クションを起こすとゲーム画面内のキャラクター311
がユーザーのアクションに対応した動きをする。
Embodiment 2 FIG. 3 is a schematic configuration diagram of a game machine using a motion recognition system. Cameras 301 to 309 for distance measurement and a game screen 310 are arranged on the game machine main body 300. The camera 303 also functions as an imaging camera. When the game user stands in front of the game machine and takes a specific action, the character 311 in the game screen is displayed.
Makes a movement corresponding to the user's action.

【0028】図4はゲームのキャラクター制御に関する
フローチャートである。格闘ゲームにおいてユーザーの
手の動きを元にキャラクターがパンチを繰り出す場合を
例に説明する。情報量算出ステップ401では、上記カ
メラ群によって取得されたゲームユーザーの距離画像か
ら突出部の位置座標、体積、3次元形状を算出する。状
態認識ステップ402では、予め用意したテーブル40
4に格納された「手」という状態の体積、3次元形状に
関する基本値を参照して、手の位置およびその状態を認
識する。パターン検出ステップ403では、テーブル4
04に格納された「パンチ」の速度、加速度、軌跡に関
する基準値を参照して、「パンチ」に関する動きのパタ
ーンを検出する。
FIG. 4 is a flowchart relating to the character control of the game. In the fighting game, an example will be described in which the character makes a punch based on the movement of the user's hand. In the information amount calculation step 401, the position coordinates, the volume, and the three-dimensional shape of the protrusion are calculated from the distance image of the game user acquired by the camera group. In the state recognition step 402, the table 40 prepared in advance is used.
The position of the hand and the state of the hand are recognized with reference to the volume of the state “hand” stored in 4 and the basic values related to the three-dimensional shape. In the pattern detection step 403, the table 4
With reference to the reference values relating to the speed, acceleration, and trajectory of “punch” stored in 04, a movement pattern relating to “punch” is detected.

【0029】アクション認識ステップ405では、辞書
406を参照して、今までのステップで検出されたされ
たモーションの含意を認識する。ここでは含意は、パン
チ、キックなどキャラクターのアクションであり、キャ
ラクターのアクションに関する命令を送出する。キャラ
クター制御ステップ407では、アクションに関する命
令に従って、画面上のキャラクターを動かす。
In the action recognition step 405, referring to the dictionary 406, the implication of the motion detected in the previous steps is recognized. Here, the implication is the action of the character, such as punching and kicking, and sends an instruction related to the action of the character. In the character control step 407, the character on the screen is moved according to the command related to the action.

【0030】ここでは、認識された状態およびパターン
は、キャラクターの画面上の動きを制御するだけである
が、手の動きの速度もしくは加速度に応じて、風を切る
音などの効果音を発生させても良い。早い動きには鋭い
風切り音を対応させるなどすれば、ゲームの臨場感がよ
り高まる。
Here, the recognized state and pattern only control the movement of the character on the screen, but generate a sound effect such as a sound of cutting off the wind in accordance with the speed or acceleration of the hand movement. May be. For example, if a sharp wind noise is made to correspond to a fast movement, the sense of reality of the game is further enhanced.

【0031】ここではゲームへの応用例として格闘ゲー
ムを記述したが、本発明はこれに限られる物ではなく、
手の動きから一定のストロークを認識して、楽音等をコ
ントロールする指揮もしくは楽器の演奏をシュミレート
するゲームでもよい。あるいは、画面上のキャラクター
のではなく実物のロボットの動作を制御して動かすゲー
ムでも良い。
Although a fighting game has been described as an example of application to the game, the present invention is not limited to this.
A game that recognizes a certain stroke from the movement of the hand and simulates a command or musical instrument that controls musical sounds and the like may be used. Alternatively, a game in which the movement of a real robot is controlled and moved instead of the character on the screen may be used.

【0032】[0032]

【実施例3】図4は、本発明のモーション認識システム
によるプレゼンテーションシステムの概略構成図であ
る。プレゼンテーションをする人物501、プレゼンテ
ーションする人物のモーションを認識するモーション認
識モジュール502、プレゼンテーション装置503、
スクリーン504、プレゼンテーション装置503を制
御するコマンドを格納した辞書505という構成であ
る。
Embodiment 3 FIG. 4 is a schematic configuration diagram of a presentation system using the motion recognition system of the present invention. A presentation person 501, a motion recognition module 502 for recognizing a motion of the presentation person, a presentation device 503,
The screen 504 includes a dictionary 505 that stores commands for controlling the presentation device 503.

【0033】モーション認識モジュール502は基本的
に実施例1の認識システムと同様の構成になっており、
複数のCCDカメラを備え、プレゼンテーションをする
人物501の状態を認識し、さらには動きのパターンを
検出し、認識された状態および検出された動きのパター
ンと辞書505を参照した結果として認識された制御コ
マンドをプレゼンテーションモジュール503に入力す
る。プレゼンテーションモジュール503では、制御コ
マンドに応じて所定の画面を生成しスクリーン504に
投影する。プレゼンテーションモジュールは、従来のパ
ソコンに接続された投影装置であり、プレゼンテーショ
ン用に制作された画面をスクリーンに映すものである。
The motion recognition module 502 has basically the same configuration as the recognition system of the first embodiment.
A control provided with a plurality of CCD cameras for recognizing the state of a person 501 who makes a presentation, detecting a motion pattern, and recognizing the recognized state and the detected motion pattern as a result of referring to the dictionary 505 A command is input to the presentation module 503. The presentation module 503 generates a predetermined screen according to the control command and projects the screen on the screen 504. The presentation module is a projection device connected to a conventional personal computer, and projects a screen produced for presentation on a screen.

【0034】モーション認識モジュール502は、例え
ば、プレゼンテーションをする人物501の『パーの形
の手の前方への速い突き出し』『パーの手の形の左右ス
トローク』『グーの手の形の上下ストローク』『チョキ
の手の形の左右ストローク』『しゃがみ』『ジャンプ』
の6通りのモーションを認識する。、これらプレゼンテ
ーションをする人物501の各モーションに対応して識
別子(PFF,PLR,GUD,CLR,SD,JM)
が形成され、この各モーションに対応した識別子と辞書
505を参照して、識別子に対応した制御コマンドをプ
レゼンテーションモジュール503に供給する。プレゼ
ンテーションをする人物501は、プレゼンテーション
の計画に応じて、辞書505を編集し識別子に対応する
コマンドを入れ替えることができる。
The motion recognition module 502 is, for example, “a quick protruding hand in a par-shaped hand”, “a left-right stroke in a par-shaped hand”, “a vertical stroke in a goo-shaped hand” of a person 501 giving a presentation. "Left and right stroke of choki hand""squatting""jump"
Recognize the six types of motion. , Identifiers (PFF, PLR, GUD, CLR, SD, JM) corresponding to each motion of the person 501 giving the presentation
Is formed, and a control command corresponding to the identifier is supplied to the presentation module 503 with reference to the identifier and the dictionary 505 corresponding to each motion. The person 501 giving the presentation can edit the dictionary 505 and replace the command corresponding to the identifier according to the presentation plan.

【0035】例えば、プレゼンテーションをする人物5
01が『パーの形の手の前方への速い突き出し』を出し
ているモーションであると認識された場合には、プレゼ
ンテーションモジュール503に対して識別子PFFを
アクティブにし、『パーの手の形の左右ストローク』を
出しているモーションであると認識された場合には、プ
レゼンテーションモジュール503に対して識別子PL
Rをアクティブにする。また、同様にプレゼンテーショ
ンをする人物501の現在のモーションが『グーの手の
形の上下ストローク』であると認識された場合には、プ
レゼンテーションモジュール503に対して識別子GU
Dをアクティブにし、『チョキの手の形の左右ストロー
ク』であると認識された場合には、プレゼンテーション
モジュール503に対して識別子CLRをアクティブに
する。更に、プレゼンテーションをする人物501の現
在のモーションが『しゃがみ』であると認識された場合
には、プレゼンテーションモジュール503に対して識
別子SDをアクティブにし、『ジャンプ』であると認識
された場合には、プレゼンテーションモジュール503
に対して識別子JMをアクティブにする。
For example, a person 5 giving a presentation
When 01 is recognized as a motion that makes “a quick protrusion of the hand in the shape of a par”, the identifier PFF is activated for the presentation module 503 and “left and right of the hand in the shape of a par” is activated. When it is recognized that the motion is a “stroke”, the presentation module 503 is notified of the identifier PL.
Activate R. Similarly, if it is recognized that the current motion of the person 501 giving the presentation is “a vertical stroke in the shape of a goo hand”, the presentation module 503 is notified of the identifier GU.
D is activated, and when it is recognized as “the left and right strokes of the hand of the choki”, the identifier CLR is activated for the presentation module 503. Further, when the current motion of the person 501 giving the presentation is recognized as “squatting”, the identifier SD is activated for the presentation module 503, and when it is recognized as “jump”, Presentation module 503
Activate the identifier JM.

【0036】プレゼンテーションモジュール503は、
これらの識別子(PFF,PLR,GUD,CLR,S
D,JM)により、プレゼンテーションをする人物50
1のモーションが『パーの形の手の前方への速い突き出
し』『パーの手の形の左右ストローク』『グーの手の形
の上下ストローク』『チョキの手の形の左右ストロー
ク』『しゃがみ』『ジャンプ』の6モーションのうちの
いずれかであると認識されたものとして、識別子(PF
F,PLR,GUD,CLR,SD,JM)に従って、
プレゼンテーションを進行する。
The presentation module 503 includes:
These identifiers (PFF, PLR, GUD, CLR, S
D, JM) to give a presentation 50
The motions of 1 are "Par-shaped hand protruding fast forward", "Par hand-shaped left and right stroke", "Goo hand-shaped up and down stroke", "Choki hand-shaped left and right stroke", "Squatting" The identifier (PF) is recognized as one of the six motions of “jump”.
F, PLR, GUD, CLR, SD, JM)
Advance the presentation.

【0037】例えば、辞書505において、識別子PF
Fには「スタート画面の起動コマンド」を対応させ、識
別子PLRには「次の画面への切り替えコマンド」を対
応させ、識別子GUDには「画面の拡大コマンド」を対
応させ,識別子CLRには「画面のスクロールコマン
ド」を対応させ,識別子SDには「UNDOコマンド」
を対応させ,識別子JMには「終了コマンド」を対応さ
せるように辞書編集を行うことができる。プレゼンテー
ションの必要からこの対応を変えることは辞書505の
編集だけで容易である。
For example, in the dictionary 505, the identifier PF
F is associated with a “start screen start command”, the identifier PLR is associated with a “command to switch to the next screen”, the identifier GUD is associated with an “enlarge screen command”, and the identifier CLR is associated with “identifier CLR”. "Scroll command of screen" is corresponded, and the identifier SD is "UNDO command".
And dictionary editing can be performed so that the identifier JM corresponds to the “end command”. Changing the correspondence from the necessity of presentation is easy only by editing the dictionary 505.

【0038】また、プレゼンテーションにおいてしばし
ば、簡単なイラストを描いて説明することが有効である
ので、手の軌跡を追跡して、その軌跡をプレゼンテーシ
ョンのスクリーンにイラストとして表示することも可能
である。例えば、図6のような『人差し指を立てた手の
速い突き出し』のモーションを「描画開始コマンド」に
対応させ、『人差し指を立てた手が加速して撮影エリア
から退出』のモーションを「描画終了コマンド」に対応
させ、描画の開始と終了の間の人差し指の軌跡を追跡
し、その軌跡を所定の色、太さの線で表示することで、
いわば、ジェスチャー描画システムとでもいうべきもの
ができる。さらには、『両手を広げる』所作に「両手を
結んだ方向へイラストを引き延ばすの変形コマンド」を
対応させたり、『物をつまむ手の形で手を動かす』所作
に「動かした方向へイラストを移動コマンド」を対応さ
せると、より高度なジェスチャー描画あるいはジェスチ
ャー編集が可能となる。
Since it is often effective to draw and explain a simple illustration in a presentation, it is also possible to track the trajectory of a hand and display the trajectory as an illustration on a screen of the presentation. For example, the motion of “quickly protruding the hand with the forefinger” as shown in FIG. 6 is made to correspond to the “drawing start command”, and the motion of “the hand with the forefinger is accelerated and exits the shooting area” is changed to “drawing end”. By tracking the trajectory of the index finger between the start and end of drawing and displaying the trajectory with a line of a predetermined color and thickness,
In other words, a gesture drawing system can be created. In addition, the `` Spread your hands '' action corresponds to the `` deformation command of extending the illustration in the direction of both hands '', and the `` Move your hand in the form of a hand holding an object '' When the “movement command” is associated, more advanced gesture drawing or gesture editing can be performed.

【0039】このようなシステム構成とすることで、プ
ロジェクター等を使ったプレゼンテーションにおいて、
プレゼンテーション画面を制御するためにプレゼンテー
ション装置やパソコン等に触って操作して中断する必要
がなく、円滑な進行が可能となる。
By adopting such a system configuration, in a presentation using a projector or the like,
In order to control the presentation screen, there is no need to interrupt the operation by touching the presentation device, the personal computer, or the like, and smooth progress can be achieved.

【0040】[0040]

【実施例4】図7は、本発明のシステムによってゴルフ
のスイングフォームの評価する場合のフローチャートで
ある。情報量算出ステップ701において、対象のゴル
ファーがクラブを振るときの距離画像から対象の位置情
報、3次元形状、体積を算出する。ここで撮影はビデオ
レートで行うものとする。状態認識ステップ702では
テーブル704に格納された「頭」「肩」「肘」「手」
「クラブヘッド」の基本状態を参照し、それぞれの部位
とその位置をフレーム毎に認識する。パターン検出ステ
ップ703では、「頭」「肩」「肘」「手」「クラブヘ
ッド」のフレーム毎の位置関係、「クラブヘッド」の速
度、加速度、軌跡を検出する。推測ステップ705で
は、体のひねりなどにより体の陰になり、カメラにより
取得されなかった状態に関する推定値を算出する。フォ
ーム認識ステップ706では、このようにして取得され
た状態、パターンそして推定値と辞書707を参照して
フォームを認識する。この場合、フォーム認識の結果と
は、フォームの評価である。評価の表示ステップ708
において、図示しないモニターなどによって評価を表示
する。
[Embodiment 4] FIG. 7 is a flowchart in the case of evaluating a golf swing form by the system of the present invention. In an information amount calculation step 701, target position information, a three-dimensional shape, and a volume are calculated from a distance image when the target golfer swings the club. Here, it is assumed that shooting is performed at a video rate. In the state recognition step 702, “head”, “shoulder”, “elbow”, “hand” stored in the table 704
With reference to the basic state of the "club head", each part and its position are recognized for each frame. In the pattern detection step 703, the positional relationship of each frame of “head”, “shoulder”, “elbow”, “hand”, and “club head”, and the speed, acceleration and trajectory of “club head” are detected. In the estimating step 705, an estimated value relating to a state which is shaded by a twist of the body and is not acquired by the camera is calculated. In the form recognition step 706, the form is recognized by referring to the state, the pattern, the estimated value, and the dictionary 707 thus obtained. In this case, the result of form recognition is evaluation of the form. Display evaluation step 708
, The evaluation is displayed on a monitor (not shown) or the like.

【0041】ここでは対象をゴルファーとしたが本発明
のフォーム評価システムはこれに限られる物ではなく、
野球におけるバッターのスイング、テニスのサーブの評
価などスポーツ全般に用いることも可能である。また、
取得された状態、パターンおよび推定値を用いて、スポ
ーツする人間の動きをモデリングする3次元モデリング
に応用してもよい。あるいは、手話の解釈に応用しても
よい。
In this case, the target is a golfer, but the form evaluation system of the present invention is not limited to this.
The present invention can also be used for general sports such as a baseball batter's swing and tennis serve evaluation. Also,
The acquired state, pattern, and estimated value may be applied to three-dimensional modeling for modeling the movement of a sporting person. Alternatively, it may be applied to sign language interpretation.

【0042】[0042]

【実施例5】図8は本発明のモーション認識システムに
よる居眠り防止システムの概略図である。801居眠り
状態認識モジュールでは、車内に据え付けた複数のカメ
ラによって取得した距離画像を基に、居眠り状態に特有
な『頭の振り子状のストローク』に関する基本値を格納
した辞書802を参照して、居眠りの程度を評価する。
評価値がある特定の値を示した場合、警報装置803に
制御信号が送られ、警報を発する。
Embodiment 5 FIG. 8 is a schematic diagram of a drowsiness prevention system using the motion recognition system of the present invention. The dozing state recognition module 801 refers to a dictionary 802 that stores basic values related to a “pendulum-like stroke of a head” specific to a dozing state based on distance images acquired by a plurality of cameras installed in the vehicle, and Evaluate the degree of
When the evaluation value indicates a specific value, a control signal is sent to the alarm device 803 to issue an alarm.

【0043】ここでは車の居眠り状態の評価を行った
が、カメラを病室に設置して、病人の発作あるいは異常
動作に特有の所作に関する基準値,たとえば『頭部の短
い周期の前後の振り子運動』を辞書に格納しておけば、
介護用監視システムとしても有効である。また、カメラ
を美術館などに設置して、『不審者特有の往復運動』に
関する基準値を辞書に格納しておけば、セキュリティー
システムとしても有効である。
Here, the dozing state of the car was evaluated. However, a camera was installed in the sickroom, and a reference value for an action peculiar to seizure or abnormal operation of the sick person, for example, “pendulum movement before and after a short cycle of the head” Is stored in a dictionary,
It is also effective as a care monitoring system. Further, if a camera is installed in an art museum or the like and reference values relating to “reciprocal motion peculiar to a suspicious individual” are stored in a dictionary, it is effective as a security system.

【0044】[0044]

【発明の効果】本発明は複数のカメラによって撮像して
得られる複数画像から演算される距離情報、様々な特徴
量を用いてモーションを行う対象物に対して非接触に、
しかも背景に関わらずモーションを認識できるシステム
の提供する事が可能となる。
According to the present invention, distance information calculated from a plurality of images obtained by imaging with a plurality of cameras, and an object performing motion using various feature amounts can be contacted without contact.
In addition, it is possible to provide a system that can recognize motion regardless of the background.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例のブロック図FIG. 1 is a block diagram of an embodiment.

【図2】測距部の詳細FIG. 2 shows details of a distance measuring unit.

【図3】ゲーム機の概略図FIG. 3 is a schematic diagram of a game machine.

【図4】ゲームのフローチャートFIG. 4 is a flowchart of a game.

【図5】プレゼンテーションシステムの概略図FIG. 5 is a schematic diagram of a presentation system.

【図6】人差し指を立てて突き出した手FIG. 6: Hand protruding with the index finger raised

【図7】フォーム認識のフローチャートFIG. 7 is a flowchart of form recognition.

【図8】居眠り運転防止システムの概略図FIG. 8 is a schematic diagram of a dozing driving prevention system.

【符号の説明】[Explanation of symbols]

101 測距部 102 撮像部 103 情報量算出部 104 状態認識部 105 パターン検出部 107 意味認識部 Reference Signs List 101 distance measurement unit 102 imaging unit 103 information amount calculation unit 104 state recognition unit 105 pattern detection unit 107 meaning recognition unit

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10K 15/04 302 G10K 15/04 302F 5D108 H04N 13/00 H04N 13/00 5L096 // H04N 7/18 7/18 K Fターム(参考) 2F065 AA00 AA04 AA06 AA37 AA51 AA59 CC16 FF01 FF04 JJ03 JJ05 JJ26 QQ23 QQ31 RR06 SS02 SS09 SS14 2F112 AC06 5B057 AA05 BA11 CH07 DA07 DA20 DC08 DC09 DC30 DC33 5C054 AA04 CC03 CG06 CG07 CH04 EF06 FC12 FC13 FC15 FE26 FE28 GB06 GD05 GD06 HA04 HA15 HA16 5C061 AA29 AB04 AB08 AB24 5D108 CA03 CA07 CA16 CA29 5L096 AA09 BA04 BA05 BA16 CA05 FA66 HA07 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) G10K 15/04 302 G10K 15/04 302F 5D108 H04N 13/00 H04N 13/00 5L096 // H04N 7/18 7/18 K F-term (reference) 2F065 AA00 AA04 AA06 AA37 AA51 AA59 CC16 FF01 FF04 JJ03 JJ05 JJ26 QQ23 QQ31 RR06 SS02 SS09 SS14 2F112 AC06 5B057 AA05 BA11 CH07 DA07 DA20 DC08 DC09 DC30 DC33 5C05 CG03 FC03 FC03 GW06 FC03 GD06 HA04 HA15 HA16 5C061 AA29 AB04 AB08 AB24 5D108 CA03 CA07 CA16 CA29 5L096 AA09 BA04 BA05 BA16 CA05 FA66 HA07

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】モーション認識のシステムにおいて、 1)対象物の映像を撮像する撮像手段と、 2)複数のカメラによって前記対象物を撮像して得られ
る複数画像から三角測量の原理を利用して撮像エリアの
距離情報を演算する測距手段と、 3)前記対象物の映像および前記距離情報から算出され
る情報量から前記対象物の状態を認識する状態認識手段
と、 4)認識された前記状態から動きに関するパターンを検
出するパターン検出手段と、 5)前記状態と前記パターンから所定の含意を認識する
意味認識手段とから構成されることを特徴とするシステ
ム。
1. A motion recognition system, comprising: 1) an image pickup means for picking up an image of an object; and 2) a principle of triangulation from a plurality of images obtained by imaging the object with a plurality of cameras. Distance measuring means for calculating distance information of an imaging area; 3) state recognizing means for recognizing a state of the object from an image of the object and an information amount calculated from the distance information; A system comprising: pattern detection means for detecting a pattern relating to movement from a state; and 5) meaning recognition means for recognizing predetermined implications from the state and the pattern.
【請求項2】モーション認識のシステムにおいて、 1)対象物の映像を撮像する撮像手段と、 2)複数のカメラによって前記対象物を撮像して得られ
る複数画像から三角測量の原理を利用して撮像エリアの
距離情報を演算する測距手段と、 3)前記対象物の映像および前記距離情報から算出され
る情報量から前記対象物の状態を認識する状態認識手段
と、 4)認識された前記状態から動きに関するパターンを検
出するパターン検出手段と、 5)所定の状態および所定のパターンから構成される基
本状態と該基本状態の各々に対応した識別子を記憶した
テーブルと、 6)前記識別子に対応する含意を記憶した辞書と、 7)前記認識された状態と前記検出されたパターンを前
記辞書と照合し、含意を認識する意味認識手段 とから構成されることを特徴とするシステム。
2. A motion recognition system comprising: 1) an image pickup means for picking up an image of an object; and 2) a principle of triangulation from a plurality of images obtained by imaging the object with a plurality of cameras. Distance measuring means for calculating distance information of an imaging area; 3) state recognizing means for recognizing a state of the object from an image of the object and an information amount calculated from the distance information; Pattern detection means for detecting a pattern relating to movement from a state; 5) a table storing a predetermined state and a basic state composed of the predetermined pattern and an identifier corresponding to each of the basic states; And 7) a meaning recognizing means for recognizing the implication by comparing the recognized state and the detected pattern with the dictionary. System, wherein the door.
【請求項3】前記意味認識手段において、過去の情報を
使って推測される対象物の状態に関する情報(推定値)
を必要に応じて参照して、含意を認識することを特徴と
する特許請求範囲第1項あるいは第2項記載のシステ
ム。
3. The information (estimated value) on the state of the target object estimated using past information in the meaning recognition means.
3. The system according to claim 1 or 2, wherein the implication is recognized by referring to as necessary.
【請求項4】前記情報量は、前記対象物の向き、空間位
置、突出部の位置および形状、体積、3次元形態から選
ばれた少なくとも1つであることを特徴とする特許請求
範囲第1項あるいは第2項記載のシステム。
4. The information amount according to claim 1, wherein the information amount is at least one selected from an orientation, a spatial position, a position and a shape, a volume, and a three-dimensional form of the object. Item 3. The system according to Item 2 or 2.
【請求項5】前記状態は、予め特定しておいた部位の有
無およびその状態、予め特定しておいた対象の有無およ
びその状態、基準値と比較評価結果から選ばれた少なく
とも1つであることを特徴とする特許請求範囲第1項あ
るいは第2項記載のシステム。
5. The state is at least one selected from the presence / absence and state of a part specified in advance, the presence / absence and state of an object specified in advance, a reference value, and a comparative evaluation result. The system according to claim 1 or 2, wherein:
【請求項6】前記動きに関するパターンは、対象領域の
速度、対象領域の加速度、対象領域の軌跡、対象領域の
ストローク、複数の対象領域の位置関係およびその変
化、対象領域の動的変形から選ばれる少なくとも1つで
あること特徴とする特許請求範囲第1項あるいは第2項
記載のシステム。
6. The pattern relating to the movement is selected from a velocity of the target area, an acceleration of the target area, a trajectory of the target area, a stroke of the target area, a positional relationship and a change of a plurality of target areas, and a dynamic deformation of the target area. 3. The system according to claim 1, wherein the system is at least one of:
【請求項7】前記含意は、機械あるいはシステムの操作
を指示するコマンド、ロボットの動き、画面内のキャラ
クターの動き、画面表示の指示、オブジェクトの生成、
オブジェクトの機能に対する制御、文書の編集指示、グ
ラフィックの作成指示、音声もしくは楽音の制御指示、
手話の解釈、ヒューマンインターフェースで伝達しよう
としている意図情報、予め用意した評価値から選ばれる
少なくとも1つであることを特徴とする特許請求範囲第
1項あるいは第2項記載のシステム。
7. The implication includes a command for instructing operation of a machine or a system, a motion of a robot, a motion of a character in a screen, a screen display instruction, an object generation,
Control of object functions, instructions for editing documents, instructions for creating graphics, instructions for controlling voice or musical sounds,
3. The system according to claim 1, wherein the system is at least one selected from interpretation of sign language, intention information to be transmitted through a human interface, and an evaluation value prepared in advance.
【請求項8】前記識別子に対応する前記基本状態もしく
は前記識別子に対応する前記含意を入れ替えることによ
ってモーション認識の機能を変更できることを特徴とす
る特許請求範囲第2項記載のシステム。
8. The system according to claim 2, wherein the function of motion recognition can be changed by exchanging the basic state corresponding to the identifier or the implication corresponding to the identifier.
【請求項9】特許請求範囲第1項あるいは第2項記載の
システムにおいて、認識された前記含意を画面表示、音
声、機械の動作から選ばれた少なくとも1つによって表
現することを特徴とするシステム。
9. The system according to claim 1, wherein the recognized implication is represented by at least one selected from a screen display, a voice, and a machine operation. .
【請求項10】特許請求範囲第1項あるいは第2項記載
のシステムにおいて、撮像の対象となる前記対象物はス
ポーツをしている人間であり、前記動きのパターンとは
該スポーツに特徴的な行為のフォームであり、前記含意
は該フォームの評価もしくは解説であることを特徴とす
るシステム。
10. The system according to claim 1, wherein said object to be imaged is a person who is playing sports, and said movement pattern is characteristic of said sports. A form of action, wherein the implication is an evaluation or commentary on the form.
【請求項11】特許請求範囲第1項あるいは第2項記載
のシステムにおいて、アニメーション、ロボットから選
ばれる少なくとも1つを認識された前記含意に従って制
御することを特徴とするシステム。
11. The system according to claim 1, wherein at least one selected from an animation and a robot is controlled in accordance with the recognized implication.
【請求項12】特許請求範囲第1項あるいは第2項記載
のシステムにおいて、さらに音信号を発生する音発生手
段を備え、認識された前記含意に基づき前記音信号を制
御することを特徴とするシステム。
12. The system according to claim 1, further comprising sound generating means for generating a sound signal, wherein the sound signal is controlled based on the recognized implication. system.
【請求項13】特許請求範囲第1項あるいは第2項記載
のシステムにおいて、撮像の対象となる前記対象物は人
間であり、前記動きのパターンとは特定の生理状態に特
徴的な所作であり、前記含意は生理状態の程度に関する
評価であることを特徴とするシステム。
13. The system according to claim 1, wherein said object to be imaged is a human, and said movement pattern is a characteristic characteristic of a specific physiological state. The system wherein the implication is an assessment of the degree of a physiological condition.
【請求項14】特許請求範囲第13項記載のシステムに
おいて、前記特定の生理状態とは、居眠り運転状態であ
り、前記含意は居眠りの程度に関する評価であることを
特徴とするシステム。
14. The system according to claim 13, wherein the specific physiological state is a dozing driving state, and the implication is an evaluation relating to a degree of dozing.
【請求項15】特許請求範囲第1項あるいは第2項記載
のシステムにおいて、前記含意は開始および終了を含
み、該開始の含意に関連する状態あるいはパターンと該
終了の関連する状態あるいはパターンの間に検出された
動きに関するパターンに基づきイラストを生成すること
を特徴とするシステム。
15. The system according to claim 1 or 2, wherein said implication includes a start and an end, and a state or pattern related to said start implication and a state or pattern related to said end. A system for generating an illustration based on a pattern relating to a motion detected in the above.
【請求項16】特許請求範囲第14項記載のシステムに
おいて、前記含意はすでに生成されたイラストの変形、
移動を含み、認識された含意に従って該イラストを変形
もしくは移動を行うことを特徴とするシステム。
16. The system of claim 14, wherein the implication is a transformation of an already generated illustration.
A system that includes a movement and transforms or moves the illustration according to the recognized implications.
JP2000083050A 2000-03-23 2000-03-23 Motion recognition system Pending JP2001273503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000083050A JP2001273503A (en) 2000-03-23 2000-03-23 Motion recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000083050A JP2001273503A (en) 2000-03-23 2000-03-23 Motion recognition system

Publications (1)

Publication Number Publication Date
JP2001273503A true JP2001273503A (en) 2001-10-05

Family

ID=18599761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000083050A Pending JP2001273503A (en) 2000-03-23 2000-03-23 Motion recognition system

Country Status (1)

Country Link
JP (1) JP2001273503A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006003869A1 (en) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. Information processing device for controlling object by using player image and object control method in the information processing device
WO2006003870A1 (en) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. Information processing device for controlling movement of a game character by using a player image and game character movement control method
JP2008145974A (en) * 2006-12-13 2008-06-26 Yamaha Corp Content reproducing device
JP2008145976A (en) * 2006-12-13 2008-06-26 Yamaha Corp Content reproducing device
WO2008084523A1 (en) * 2007-01-10 2008-07-17 Tamura Corporation Position information detection device, position information detection method, and position information detection program
JP2010205235A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp Presentation device
WO2011142317A1 (en) * 2010-05-11 2011-11-17 日本システムウエア株式会社 Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2011239398A (en) * 2010-05-03 2011-11-24 Thomson Licensing Method for displaying setting menu, and corresponding device
JP2012103938A (en) * 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
JP2012154805A (en) * 2011-01-26 2012-08-16 Hamamatsu Photonics Kk Jumping action measuring device and jumping action measuring method
JP2013132682A (en) * 2011-12-27 2013-07-08 Jfe Steel Corp Device for detecting abnormal sheet passing
KR101370090B1 (en) * 2011-12-15 2014-03-06 한양대학교 산학협력단 Apparatus and method for providing haptic on vitrual video
KR101415944B1 (en) 2013-12-30 2014-07-04 (주) 골프존 Virtual golf simulation device and method for providing stereophonic sound for whether condition
US9176601B2 (en) 2012-03-22 2015-11-03 Ricoh Company, Limited Information processing device, computer-readable storage medium, and projecting system
US9264693B2 (en) 2011-12-26 2016-02-16 Semiconductor Energy Laboratory Co., Ltd. Motion recognition device
CN106232192A (en) * 2014-03-14 2016-12-14 索尼互动娱乐股份有限公司 There is the object for appreciation game device of the video camera of rotatable placement
JP2017169203A (en) * 2017-04-12 2017-09-21 カシオ計算機株式会社 Image processing system, image processing method and program
CN109472809A (en) * 2017-09-06 2019-03-15 中国移动通信有限公司研究院 A kind of target discrimination method and equipment
WO2024015289A1 (en) * 2022-07-12 2024-01-18 Schlumberger Technology Corporation Real-time cable speed and depth measurements based on optical measurements

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7959511B2 (en) 2004-06-30 2011-06-14 Sony Computer Entertainment Inc. Information processing device for controlling movement of a game character by using a player image and game character movement control method
WO2006003870A1 (en) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. Information processing device for controlling movement of a game character by using a player image and game character movement control method
WO2006003869A1 (en) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. Information processing device for controlling object by using player image and object control method in the information processing device
US7911447B2 (en) 2004-06-30 2011-03-22 Sony Computer Entertainment Inc. Information processing device for controlling object by using player image and object control method in the information processing device
JP2008145974A (en) * 2006-12-13 2008-06-26 Yamaha Corp Content reproducing device
JP2008145976A (en) * 2006-12-13 2008-06-26 Yamaha Corp Content reproducing device
JP4506750B2 (en) * 2006-12-13 2010-07-21 ヤマハ株式会社 Content playback device
JP4506749B2 (en) * 2006-12-13 2010-07-21 ヤマハ株式会社 Content playback device
WO2008084523A1 (en) * 2007-01-10 2008-07-17 Tamura Corporation Position information detection device, position information detection method, and position information detection program
JPWO2008084523A1 (en) * 2007-01-10 2010-04-30 株式会社タムラ製作所 POSITION INFORMATION DETECTING DEVICE, POSITION INFORMATION DETECTING METHOD, AND POSITION INFORMATION DETECTING PROGRAM
JP2010205235A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp Presentation device
JP2011239398A (en) * 2010-05-03 2011-11-24 Thomson Licensing Method for displaying setting menu, and corresponding device
WO2011142317A1 (en) * 2010-05-11 2011-11-17 日本システムウエア株式会社 Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US20130057469A1 (en) * 2010-05-11 2013-03-07 Nippon Systemware Co Ltd Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US9069386B2 (en) 2010-05-11 2015-06-30 Nippon Systemware Co., Ltd. Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JPWO2011142317A1 (en) * 2010-05-11 2013-07-22 日本システムウエア株式会社 Gesture recognition apparatus, method, program, and computer-readable medium storing the program
JP2012103938A (en) * 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
JP2012154805A (en) * 2011-01-26 2012-08-16 Hamamatsu Photonics Kk Jumping action measuring device and jumping action measuring method
US9323330B2 (en) 2011-12-15 2016-04-26 Industry-University Cooperation Foundation Hanyang University Apparatus and method for providing tactile sensation for virtual image
US9317121B2 (en) 2011-12-15 2016-04-19 Industry-University Cooperation Foundation Hanyang University Apparatus and method for providing tactile sensation in cooperation with display device
KR101370090B1 (en) * 2011-12-15 2014-03-06 한양대학교 산학협력단 Apparatus and method for providing haptic on vitrual video
KR101906633B1 (en) * 2011-12-15 2018-10-10 한양대학교 산학협력단 Apparatus and method for providing haptic on vitrual video
US9264693B2 (en) 2011-12-26 2016-02-16 Semiconductor Energy Laboratory Co., Ltd. Motion recognition device
JP2013132682A (en) * 2011-12-27 2013-07-08 Jfe Steel Corp Device for detecting abnormal sheet passing
US9176601B2 (en) 2012-03-22 2015-11-03 Ricoh Company, Limited Information processing device, computer-readable storage medium, and projecting system
KR101415944B1 (en) 2013-12-30 2014-07-04 (주) 골프존 Virtual golf simulation device and method for providing stereophonic sound for whether condition
CN106232192A (en) * 2014-03-14 2016-12-14 索尼互动娱乐股份有限公司 There is the object for appreciation game device of the video camera of rotatable placement
JP2017516185A (en) * 2014-03-14 2017-06-15 株式会社ソニー・インタラクティブエンタテインメント Gaming device with camera installed in a freely rotatable manner
CN106232192B (en) * 2014-03-14 2019-12-03 索尼互动娱乐股份有限公司 The object for appreciation game device of video camera with rotatable placement
JP2017169203A (en) * 2017-04-12 2017-09-21 カシオ計算機株式会社 Image processing system, image processing method and program
CN109472809A (en) * 2017-09-06 2019-03-15 中国移动通信有限公司研究院 A kind of target discrimination method and equipment
CN109472809B (en) * 2017-09-06 2020-09-25 中国移动通信有限公司研究院 Target identification method and device
WO2024015289A1 (en) * 2022-07-12 2024-01-18 Schlumberger Technology Corporation Real-time cable speed and depth measurements based on optical measurements

Similar Documents

Publication Publication Date Title
US9824480B2 (en) Chaining animations
JP2001273503A (en) Motion recognition system
KR101658937B1 (en) Gesture shortcuts
US9519828B2 (en) Isolate extraneous motions
KR101704848B1 (en) Visual representation expression based on player expression
US8856691B2 (en) Gesture tool
CN102129551B (en) Gesture detection based on joint skipping
TWI377055B (en) Interactive rehabilitation method and system for upper and lower extremities
KR101738569B1 (en) Method and system for gesture recognition
US8418085B2 (en) Gesture coach
US8223147B1 (en) Method and system for vision-based interaction in a virtual environment
US9298263B2 (en) Show body position
US20100306716A1 (en) Extending standard gestures
US20110007079A1 (en) Bringing a visual representation to life via learned input from the user
US20120108305A1 (en) Data generation device, control method for a data generation device, and non-transitory information storage medium
TWI528224B (en) 3d gesture manipulation method and apparatus
EP2371434A2 (en) Image generation system, image generation method, and information storage medium
JP2004246578A (en) Interface method and device using self-image display, and program
JP2006185109A (en) Image measurement device and image measurement method
US11341695B2 (en) Motion information apparatus, method therefor, and program