JP2002190024A - Image recognition method, image recognition system using the same, command interface and recording medium - Google Patents

Image recognition method, image recognition system using the same, command interface and recording medium

Info

Publication number
JP2002190024A
JP2002190024A JP2000386161A JP2000386161A JP2002190024A JP 2002190024 A JP2002190024 A JP 2002190024A JP 2000386161 A JP2000386161 A JP 2000386161A JP 2000386161 A JP2000386161 A JP 2000386161A JP 2002190024 A JP2002190024 A JP 2002190024A
Authority
JP
Japan
Prior art keywords
image data
original image
mapping
dimensional fft
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000386161A
Other languages
Japanese (ja)
Inventor
Koutarou Satou
皇太郎 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000386161A priority Critical patent/JP2002190024A/en
Publication of JP2002190024A publication Critical patent/JP2002190024A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition method allowing the rapid recognition of the shape of an object using the mapped feature of the luminosity distribution of original image data to the orthogonal base, and to provide an image recognition system using the method, a command interface applying the system, and a recording medium storing a program for realizing them. SOLUTION: This image recognition method of recognizing the object included in the original image data by comparing two-dimensional FFT image data obtained by mapping the original image data to the orthogonal base, with a registration pattern comprising the two-dimensional FFT image data, has a mapping process, a mosaic process and a similarity degree detecting process.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、原画像データに含
まれる物体の状態を認識する画像認識方法、これを用い
た画像認識システム、かかるシステムを応用したコマン
ドインターフェース、これらを実現するプログラムを格
納した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition method for recognizing the state of an object included in original image data, an image recognition system using the same, a command interface using the system, and a program for realizing these. Related to a recorded medium.

【0002】[0002]

【従来の技術】 最近、カメラで撮影した原画像データ
の一部を抽出してハンドジェスチャやボディアクション
を認識する画像認識技術が提案されている。かかる技術
は原画像データの一部を抜き出す処理を要するので、処
理時間が長くなる。そのため、リアルアイムに応答が必
要なビデオゲームの入力インターフェイスとして使用す
るのは難しい。
2. Description of the Related Art Recently, an image recognition technique for recognizing hand gestures and body actions by extracting a part of original image data shot by a camera has been proposed. Such a technique requires a process of extracting a part of the original image data, so that the processing time becomes long. Therefore, it is difficult to use it as an input interface of a video game that requires a response to real time.

【0003】一方、人間の顔の表情を認識する技術とし
て、顔画像をモザイク化し、原画像データの明るさの分
布情報をニューラルネットに入力して、多人数の顔を識
別する技術が提案されている。また、表情付き原画像デ
ータから無表情の原画像データとの差分に対して2次元
コサイン変換を施し、その低周波領域におけるDCT係
数をそのままニューラルネットに入力する技術がある。
On the other hand, as a technique for recognizing human facial expressions, there has been proposed a technique for mosaicizing a face image and inputting brightness distribution information of original image data into a neural network to identify a large number of faces. ing. There is also a technique in which a two-dimensional cosine transform is performed on a difference between original image data with expression and expressionless original image data, and the DCT coefficient in the low frequency region is directly input to a neural network.

【0004】[0004]

【発明が解決しようとする課題】 しかしながら、上述
した顔画像の認識技術は、個人認識や表情認識等の限定
された用途の技術であり、それ以外の形状認識にそのま
ま応用できるものでない。また、後者の認識技術は、高
周波領域の情報を用いないので、生物が視覚によって認
識しているザラザラ感やツルツル感を認識できないだけ
でなく、ロバスト性も低下し、モザイク化のような圧縮
操作を行なっていないために処理時間が長くなる。これ
では、リアルアイムに応答が必要なビデオゲームの入力
インターフェイスとして使用するのは難しい。
However, the face image recognition technology described above is a technology for limited use such as personal recognition and facial expression recognition, and cannot be directly applied to other shape recognition. In addition, since the latter recognition technology does not use information in the high-frequency region, not only can the creatures not recognize the rough or slick feeling visually recognized, but also the robustness is reduced and compression operations such as mosaicization are performed. , The processing time becomes longer. This makes it difficult to use it as an input interface for video games that require a response to real time.

【0005】本発明は、このような技術的背景に基づい
てなされたものである。すなわち、その目的は、原画像
データの明るさ分布を直交基底への写像した特徴を利用
し、かつ高速に物体の形状を認識することができる画像
認識方法、これを用いた画像認識システム、かかるシス
テムを応用したコマンドインターフェイス、これを実現
するプログラムを格納した記録媒体を提供することにあ
る。
The present invention has been made based on such a technical background. That is, an object of the present invention is to provide an image recognition method capable of recognizing a shape of an object at high speed by using a feature obtained by mapping a brightness distribution of original image data to an orthogonal basis, and an image recognition system using the same. An object of the present invention is to provide a command interface using a system and a recording medium storing a program for realizing the command interface.

【0006】[0006]

【課題を解決するための手段】 上記目的を達成するた
めに、第1の発明は、原画像データを直交基底に写像し
た2次元FFT画像データと2次元FFT画像データか
らなる登録パターンとを比較して原画像データに含まれ
る物体を認識する画像認識方法であって、写像工程とモ
ザイク化工程と類似度検出工程とを有することが望まし
い。これにより、認識対象の切り出し処理を行なわない
ので、処理の高速化を可能とする。写像工程は原画像デ
ータから2次元FFT画像データを得る工程である。か
かる工程によりフーリエ的なザラザラ感やツルツル感の
情報を処理できる。モザイク化工程は、前述の写像工程
で得た2次元FFT画像データをモザイク化する工程で
ある。類似度検出工程は前述のモザイク化工程で得たモ
ザイクデータと登録パターンとの類似度を求める工程で
ある。
Means for Solving the Problems In order to achieve the above object, a first invention compares two-dimensional FFT image data obtained by mapping original image data on an orthogonal basis with a registered pattern composed of two-dimensional FFT image data. Preferably, the image recognition method recognizes an object included in the original image data, and includes a mapping step, a mosaicing step, and a similarity detection step. Thus, since the cutout processing of the recognition target is not performed, the processing can be sped up. The mapping step is a step of obtaining two-dimensional FFT image data from original image data. Through such a process, it is possible to process information of a Fourier-like rough feeling or a smooth feeling. The mosaicing step is a step of mosaicing the two-dimensional FFT image data obtained in the above-described mapping step. The similarity detection step is a step of calculating the similarity between the mosaic data obtained in the above-described mosaicization step and the registered pattern.

【0007】第2の発明は、第1の発明において、さら
に、前記写像工程で用いる原画像データの縦横のピクセ
ル数を2のべき乗に設定する画像切り出し工程を有する
ことが望ましい。かかる工程により、離散フーリエ変換
を高速に行なうことができる。
According to a second aspect of the present invention, in the first aspect, it is preferable that the method further includes an image clipping step of setting the number of vertical and horizontal pixels of the original image data used in the mapping step to a power of two. Through these steps, the discrete Fourier transform can be performed at high speed.

【0008】第3の発明は、原画像データを直交基底に
写像した2次元FFT画像データと2次元FFT画像デ
ータからなる登録パターンとを比較して原画像データに
含まれる物体を認識する画像認識システムであって、写
像手段とモザイク化手段と類似度検出手段とを具備する
ことが望ましい。これにより、認識対象の切り出し処理
を行なわないので、処理の高速化を可能とすることがで
きる。写像手段は原画像データから2次元FFT画像デ
ータを得る手段である。かかる手段によりフーリエ的な
ザラザラ感やツルツル感の情報を処理できるようにする
ことができる。モザイク化手段は、前述の写像手段で得
た2次元FFT画像データをモザイク化する手段であ
る。類似度検出手段は前述のモザイク化手段で得たモザ
イクデータと登録パターンとの類似度を求める手段であ
る。
According to a third aspect of the present invention, there is provided image recognition for recognizing an object included in the original image data by comparing the two-dimensional FFT image data obtained by mapping the original image data on an orthogonal basis with a registered pattern comprising the two-dimensional FFT image data. The system preferably includes a mapping unit, a mosaic unit, and a similarity detection unit. Thereby, since the cutout processing of the recognition target is not performed, the processing can be speeded up. The mapping means is means for obtaining two-dimensional FFT image data from original image data. By such means, it is possible to process information of a Fourier-like rough feeling or a smooth feeling. The mosaic means is a means for mosaicizing the two-dimensional FFT image data obtained by the above-mentioned mapping means. The similarity detecting means is means for calculating the similarity between the mosaic data obtained by the above-described mosaicizing means and the registered pattern.

【0009】第4の発明は、第3の発明において、さら
に、前記写像手段で用いる原画像データの縦横のピクセ
ル数を2のべき乗に設定する手段を具備することが望ま
しい。かかる手段を具備することにより、離散フーリエ
変換を高速に行なうことができる。
In a fourth aspect based on the third aspect, it is preferable that the image processing apparatus further comprises means for setting the number of vertical and horizontal pixels of the original image data used in the mapping means to a power of two. By providing such means, discrete Fourier transform can be performed at high speed.

【0010】第5の発明は、撮像手段で撮像した原画像
データに含まれる手の形状又はその位置を認識した結果
に基づいてコマンドを出力するコマンドインターフェイ
スであって、写像手段とモザイク化手段と類似度検出手
段とコマンド発生手段とを具備することが望ましい。こ
れにより、認識対象の切り出し処理を行なわないので、
処理の高速化を可能とする。写像手段は原画像データか
ら2次元FFT画像データを得る手段である。かかる手
段によりフーリエ的なザラザラ感やツルツル感の情報を
処理できるようにしてある。モザイク化手段は前述の写
像手段で得た2次元FFT画像データをモザイク化する
手段である。類似度検出手段は前述のモザイク化手段で
得たモザイクデータと登録パターンとの類似度を求める
手段である。コマンド発生手段は前述の類似度検出手段
からの結果に基づくコマンドを出力を手段である。
A fifth aspect of the present invention is a command interface for outputting a command based on a result of recognizing a hand shape or its position included in original image data picked up by an image pickup means. It is desirable to include a similarity detection unit and a command generation unit. As a result, since the cutout processing of the recognition target is not performed,
Enables high-speed processing. The mapping means is means for obtaining two-dimensional FFT image data from original image data. By such means, it is possible to process information of a Fourier-like rough feeling or a smooth feeling. The mosaicing means is a means for mosaicizing the two-dimensional FFT image data obtained by the above-mentioned mapping means. The similarity detecting means is means for calculating the similarity between the mosaic data obtained by the above-described mosaicizing means and the registered pattern. The command generation means is a means for outputting a command based on the result from the similarity detection means.

【0011】第6の発明は、第5の発明において、さら
に、前記写像手段で用いる原画像データの縦横のピクセ
ル数を2のべき乗に揃える画角設定手段を具備すること
が望ましい。かかる手段を具備することにより、離散フ
ーリエ変換を高速に行なうことができる。
In a sixth aspect based on the fifth aspect, it is preferable that the image processing apparatus further includes an angle-of-view setting means for adjusting the number of vertical and horizontal pixels of the original image data used in the mapping means to a power of two. By providing such means, discrete Fourier transform can be performed at high speed.

【0012】第7の発明は、撮像手段で撮像した原画像
データに含まれる手の形状又はその位置を認識した結果
に基づいてコマンドを出力するプログラムが記録された
コンピュータ読み取り可能な記録媒体であって、写像ス
テップとモザイク化ステップと類似度検出ステップとコ
マンド発生ステップとをコンピュータに実現させるため
のプログラムを記録したコンピュータ読み取り可能な記
録媒体であることが望ましい。写像ステップは原画像デ
ータから2次元FFT画像データを得るステップであ
る。かかるステップによりフーリエ的なザラザラ感やツ
ルツル感の情報だけでなく、画面全体の明るさ分布の情
報を同時に処理できるようにすることができる。モザイ
ク化ステップは、前述の写像ステップで得た2次元FF
T画像データをモザイク化するステップである。類似度
検出ステップは、前述のモザイク化ステップで得たモザ
イクデータと登録パターンとの類似度を求めるステップ
である。コマンド発生ステップは、前述の類似度検出ス
テップからの結果に基づくコマンドを出力するステップ
である。
A seventh invention is a computer-readable recording medium in which a program for outputting a command based on a result of recognizing a shape or a position of a hand included in original image data picked up by an image pickup means is recorded. It is preferable that the computer-readable recording medium stores a program for causing a computer to execute the mapping step, the mosaicing step, the similarity detection step, and the command generation step. The mapping step is a step of obtaining two-dimensional FFT image data from original image data. With this step, it is possible to simultaneously process not only the information of the Fourier-like roughness and the feeling of smoothness but also the information of the brightness distribution of the entire screen. The mosaicing step is a two-dimensional FF obtained in the above-described mapping step.
This is the step of mosaicizing the T image data. The similarity detection step is a step of calculating the similarity between the mosaic data obtained in the above-described mosaicization step and the registered pattern. The command generation step is a step of outputting a command based on the result from the above-described similarity detection step.

【0013】第8の発明は、第7の発明において、さら
に、前記写像ステップで用いる原画像データの縦横のピ
クセル数を2のべき乗に揃える画角設定ステップを有す
ることが望ましい。かかるステップを有することによ
り、離散フーリエ変換を高速に行なうことができる。
In an eighth aspect based on the seventh aspect, it is preferable that the image processing apparatus further includes an angle-of-view setting step for aligning the number of vertical and horizontal pixels of the original image data used in the mapping step to a power of two. With such steps, the discrete Fourier transform can be performed at high speed.

【0014】第9の発明は、第1の発明又は第2の発明
において、前記原画像データはネットワークインタフェ
イスを介して取得することが望ましい。これにより、遠
隔地で撮像した原画像データを用いて高速に物体を認識
することができる。
In a ninth aspect based on the first aspect or the second aspect, it is preferable that the original image data is obtained through a network interface. Thus, an object can be recognized at high speed using original image data captured at a remote place.

【0015】第10の発明は、第3の発明又は第4の発
明において、前記原画像データはネットワークインタフ
ェイスを介して取得することが望ましい。これにより、
遠隔地で撮像した原画像データを用いて高速に物体を認
識することができる。
[0015] In a tenth aspect based on the third or fourth aspect, it is preferable that the original image data is obtained through a network interface. This allows
An object can be recognized at high speed using original image data captured in a remote place.

【0016】第11の発明は、第5の発明又は第6の発
明において、前記原画像データはネットワークインタフ
ェイスを介して取得することが望ましい。これにより、
遠隔地で撮像した原画像データを用いて高速に物体を認
識することができる。
In an eleventh aspect based on the fifth or sixth aspect, it is preferable that the original image data is obtained via a network interface. This allows
An object can be recognized at high speed using original image data captured in a remote place.

【0017】[0017]

【発明の実施の形態】(実施の形態1)以下、本実施の
形態は、ビデオカメラで撮影した原画像データに含まれ
る人間の手の形状を認識し、手の位置を検出した結果を
コマンドとして出力するコマンドインターフェイス(以
下、インターフェイスをI/Fと略称する。)を具備
し、かかるI/Fから出力されるコマンドでゲームを進
行するゲームシステムに適用したものとしてを説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (Embodiment 1) Hereinafter, the present embodiment recognizes the shape of a human hand included in original image data photographed by a video camera and uses the result of detecting the position of the hand as a command. A description will be given assuming that the present invention is applied to a game system that has a command interface (hereinafter, the interface is abbreviated as an I / F) that outputs a command, and that proceeds with a game using a command output from the I / F.

【0018】本実施の形態におけるコマンドI/Fは、
原画像データ内に存在する手の形状、位置を認識して水
流をコントロールするコマンドをゲームプログラムに入
力するI/Fである。かかるI/Fから出力されるコマ
ンドは、オン・オフコマンド、強さコマンド、向きコマ
ンド、水源コマンドがある。オン・オフコマンド、強さ
コマンド、向きコマンドは、画像認識処理により求めて
ある。水源コマンドは重心検出処理によって求めてあ
る。
The command I / F in the present embodiment is:
An I / F for inputting a command for controlling the water flow by recognizing the shape and position of the hand existing in the original image data to the game program. Commands output from the I / F include an on / off command, a strength command, a direction command, and a water source command. The ON / OFF command, the strength command, and the direction command are obtained by image recognition processing. The water source command is obtained by the center of gravity detection processing.

【0019】オン・オフコマンドは、原画像データ内に
存在する手の形状を認識し、その形状で水流をオン・オ
フするコマンドであり、例えば、原画像データ内に手が
存在しない場合又は原画像データ内に存在する手の形状
がグーである場合に水流を停止させるコマンドである。
The on / off command is a command for recognizing the shape of a hand existing in the original image data and turning on / off the water flow with the shape. For example, when the hand does not exist in the original image data or when the original This is a command to stop the water flow when the hand shape existing in the image data is goo.

【0020】強さコマンドは、水流の強さを指定するコ
マンドであり、例えば原画像データ内に存在する手の形
状がパーである場合に弱い水流を発生させるコマンド
や、連続して取り込まれた原画像データ内に存在する手
の形状がグーからパーに変化する場合にグーの間に溜め
た力がパーで一気に解放されて強い水流が発生するコマ
ンドがある。
The strength command is a command for designating the strength of the water flow. For example, when the shape of the hand existing in the original image data is par, a command for generating a weak water flow, or a command that is continuously captured. When the shape of the hand existing in the original image data changes from goo to par, there is a command in which the force accumulated during goo is released at once by par and a strong water flow is generated.

【0021】向きコマンドは、水流の向きを変更するコ
マンドであり、例えば原画像データ内に存在するパー形
状の手の向きに応じた方向に水流の向きを変更する。
The direction command is a command for changing the direction of the water flow, for example, changing the direction of the water flow to a direction corresponding to the direction of the par-shaped hand existing in the original image data.

【0022】水源コマンドは、手の位置を識別し、その
位置を水源とするコマンドでり、例えば原画像データ内
に存在する手の重心を検出することにより、その重心位
置を表すデータに基づいて水源の位置を指定するコマン
ドである。
The water source command is a command that identifies the position of the hand and uses that position as the water source. For example, by detecting the center of gravity of the hand existing in the original image data, it is based on the data representing the position of the center of gravity. This command specifies the location of the water source.

【0023】本実施の形態におけるゲーム内容は、3種
類ある。その1は水に浮かんだ仮想物体を水流で回転さ
せる内容であり、その2は画面上方から降ってくる多数
の仮想物体を水流で追い返す内容であり、その3は様々
な障害を設定した水路で、水流を制御することにより筏
を進める内容である。
There are three types of game contents in this embodiment. The first is a content that rotates a virtual object floating on the water with a water flow, the second is a content that repels many virtual objects descending from the upper part of the screen with a water flow, and the third is a water channel in which various obstacles are set. It is the content that advances the raft by controlling the water flow.

【0024】以下に図9を参照して本実施の形態におけ
るゲームシステムのハードウエア構成を説明する。
The hardware configuration of the game system according to the present embodiment will be described below with reference to FIG.

【0025】図9は本実施の形態におけるゲームシステ
ムのハードウエア構成を示すブロック図である。本実施
の形態におけるゲームシステムは、CPU1とメモリ2
と画像入力用I/F3と画像出力用I/F4と入出力用
I/F5とネットワークI/F6とビデオカメラ7とデ
ィスプレイ8と入出力装置9とからなる。
FIG. 9 is a block diagram showing a hardware configuration of the game system according to the present embodiment. The game system according to the present embodiment includes a CPU 1 and a memory 2
It comprises an I / F 3 for image input, an I / F 4 for image output, an I / F 5 for input / output, a network I / F 6, a video camera 7, a display 8, and an input / output device 9.

【0026】CPU1は、メモリ2に格納してあるゲー
ムプログラム及びコマンドインターフェースプログラム
を起動するCPUであり、写像手段、モザイク化手段、
類似度検出手段、画角設定手段、コマンド発生手段の一
部を構成する。
The CPU 1 is a CPU for activating a game program and a command interface program stored in the memory 2, and includes a mapping unit, a mosaicizing unit,
A part of the similarity detection unit, the angle-of-view setting unit, and the command generation unit is configured.

【0027】メモリ2は、フレーム領域と、認識処理等
の各種処理を実行するワーク領域等を具備する。
The memory 2 has a frame area, a work area for executing various processes such as a recognition process, and the like.

【0028】フレーム領域は、画像入力用I/F3又は
ネットワークI/F6を介してから取り込んだ原画像デ
ータを格納する領域であり、多値のRデータと、多値の
Gデータと、多値のBデータと、多値のアルファ値デー
タとをR,G,B,…R、G,Bの順で格納してある。
The frame area is an area for storing original image data fetched through the image input I / F 3 or the network I / F 6, and includes multi-valued R data, multi-valued G data, and multi-valued G data. B data and multi-valued alpha value data are stored in the order of R, G, B,... R, G, B.

【0029】認識領域は、フレーム領域から認識処理を
実行するエリアを設定するために画像データをコピーす
るために用いる領域であり、離散的なフーリエ変換を高
速に行なうために原画像データの縦横のピクセル数を2
のべき乗に揃うような記憶容量に設定してある。かかる
領域は画角設定手段の一部を構成する。
The recognition area is an area used for copying image data in order to set an area for performing a recognition process from the frame area. In order to perform a discrete Fourier transform at high speed, the vertical and horizontal directions of the original image data are used. 2 pixels
The storage capacity is set to match the power of. Such an area constitutes a part of the angle-of-view setting means.

【0030】二値化領域はフレーム領域に格納されたRG
B画像データを照明条件の変化に影響されないように考
慮して閾値で二値化した二値データを格納する領域であ
る。これは重心検出処理で用いる。従って重心検出手段
の一部を構成する。
The binarized area is the RG stored in the frame area.
This area stores binary data obtained by binarizing the B image data with a threshold value in consideration of not being affected by a change in lighting conditions. This is used in the center of gravity detection processing. Therefore, it constitutes a part of the center of gravity detection means.

【0031】画像入力I/F3は、ビデオカメラ7から
の原画像データを取り込むためのI/Fである。
The image input I / F 3 is an I / F for taking in original image data from the video camera 7.

【0032】画像出力用I/F4は、メモリ2の出力用
フレーム領域から読み出したフレームデータをディスプ
レイ8に出力するI/Fである。
The image output I / F 4 is an I / F for outputting the frame data read from the output frame area of the memory 2 to the display 8.

【0033】入出力用I/F5は、入力装置9とデータ
を入出力するためのI/Fである。
The input / output I / F 5 is an I / F for inputting and outputting data to and from the input device 9.

【0034】ネットワークI/F6は、公衆回線や専用
回線を介してインターネット等のネットワークとデータ
の入出力をするためのI/Fである。かかるネットワー
クI/F6を介して遠隔地でデジタルカメラを内蔵した
携帯電話で撮像した原画像データを用いて物体の形状、
向き等を認識することができる。このデジタルカメラ内
蔵の携帯電話が撮像手段に相当する。
The network I / F 6 is an I / F for inputting and outputting data to and from a network such as the Internet via a public line or a dedicated line. Using the original image data captured by a mobile phone with a built-in digital camera at a remote location via the network I / F 6, the shape of the object,
The direction and the like can be recognized. This mobile phone with a built-in digital camera corresponds to the imaging means.

【0035】ビデオカメラ7は、家庭用DVカメラであ
り、濃い色の布の上方で人間の手を撮像するカメラであ
る。これが撮像手段に相当する。
The video camera 7 is a home-use DV camera, which captures a human hand above a dark cloth. This corresponds to an imaging unit.

【0036】ディスプレイ8は、ゲーム内容を表示する
表示装置であり、入力装置9は個人認識用パスワードな
どを入力するためのキーボードやマウス、アナログコン
トローラ等である。
The display 8 is a display device for displaying the contents of the game, and the input device 9 is a keyboard, a mouse, an analog controller, and the like for inputting a personal recognition password and the like.

【0037】次に図1を参照して本実施の形態における
ゲームシステムの概略処理を説明する。図1はメインル
ーチンを示したフローチャートである。
Next, a schematic process of the game system according to the present embodiment will be described with reference to FIG. FIG. 1 is a flowchart showing the main routine.

【0038】CPU1は、図1に示すメインルーチンを
起動すれば、初期化のための処理を実行する(ステップ
1)。具体的には、CPU1は、プログラムを起動する
ための前準備としてプログラム上の変数を初期化した
り、フレーム領域、認識領域を確保する。
When the main routine shown in FIG. 1 is started, the CPU 1 executes a process for initialization (step 1). Specifically, the CPU 1 initializes variables on the program and reserves a frame area and a recognition area as preparation for starting the program.

【0039】CPU1は、図1に示すステップ1の処理
の続いて、ビデオカメラ7から画像入力用I/Fを介し
て原画像データを取り込む(ステップ2)。これによ
り、CPU1はステップ2で取り込んだ原画像データを
メモリ2のフレーム領域に格納する。この後に原画像デ
ータの縦横のピクセル数を2のべき乗とする処理を実行
する。これが画像切り出し工程に相当する。
The CPU 1 fetches the original image data from the video camera 7 via the image input I / F, following the processing of step 1 shown in FIG. 1 (step 2). As a result, the CPU 1 stores the original image data captured in step 2 in the frame area of the memory 2. Thereafter, a process of setting the number of vertical and horizontal pixels of the original image data to a power of 2 is executed. This corresponds to an image clipping step.

【0040】CPU1は、ステップ2の処理を終える
と、画像認識ルーチンプログラムを起動する(ステップ
3)。これにより、メインプログラムは前述した各種の
コマンドを取得することができる。
After finishing the processing of step 2, the CPU 1 starts an image recognition routine program (step 3). As a result, the main program can acquire the various commands described above.

【0041】CPU1は、ゲーム内容の処理ルーチンを
実行する(ステップ4)。これにより、CPU1は、ス
テップ3で取得したコマンドに基づいて、水に浮かんだ
仮想物体を水流で回転させるための処理や、画面上方か
ら降ってくる多数の仮想物体を水流で追い返す処理や、
様々な障害を設定した水路で、水流を制御することによ
り筏を進めるための処理を実行する。これにより、CP
U1は、ステップ4での処理結果を反映させてメモリ2
の出力用フレーム領域にフレームデータを格納する。
The CPU 1 executes a processing routine for the game contents (step 4). Thereby, based on the command acquired in step 3, the CPU 1 performs a process for rotating the virtual object floating on the water with the water flow, a process for turning back a large number of virtual objects falling from above the screen with the water flow,
In a waterway in which various obstacles are set, a process for advancing the raft by controlling the water flow is executed. Thereby, the CP
U1 reflects the processing result in step 4 to the memory 2
The frame data is stored in the output frame area.

【0042】CPU1は、ステップ4の処理後にメモリ
2の出力用フレーム領域に格納してあるゲーム画像を画
像出力用I/Fに出力する(ステップ5)。これによ
り、画像出力用I/F4はゲーム画像をディスプレイ8
に表示する。
After the processing in step 4, the CPU 1 outputs the game image stored in the output frame area of the memory 2 to the image output I / F (step 5). Thereby, the image output I / F 4 displays the game image on the display 8.
To be displayed.

【0043】CPU1は、ステップ5の処理後にゲーム
を終了させるコマンドが入出力用I/F5から入力され
たか判断する(ステップ6)。なお、ゲームを終了させ
るコマンドは、入力装置9から入力できるようにしてあ
る。
The CPU 1 determines whether or not a command to end the game after the processing of step 5 has been input from the input / output I / F 5 (step 6). Note that a command to end the game can be input from the input device 9.

【0044】CPU1は、ステップ6で終了コマンドを
取得すれば、本ルーチンを終了するが、ステップ6で終
了コマンドを取得しなければ、ステップ2からステップ
5までの処理を1インター(約1/60sec)未満で
実行することになる。以上が本実施の形態におけるメイ
ンルーチンの概略処理である。
The CPU 1 terminates this routine if it obtains the end command in step 6. If it does not obtain the end command in step 6, the CPU 1 executes the processing from step 2 to step 5 for one inter (about 1/60 sec.). ). The above is the outline of the main routine in the present embodiment.

【0045】続いて、本実施の形態における画像認識ル
ーチンを説明するに先立ち、登録パターンとして用いる
2次元フーリエ変換画像データ(以下、これを2次元F
FT画像データと略称する。)を図4及び図5を参照し
て説明する。
Next, before describing the image recognition routine in the present embodiment, two-dimensional Fourier transform image data (hereinafter referred to as two-dimensional F
Abbreviated as FT image data. ) Will be described with reference to FIGS.

【0046】図4〜図8は原画像データと2次元FFT
画像データとの対応関係を示す図である。図4(a)は
パーを表した人間の手を撮像したグレースケールの原画
像データであり、図4(b)は図4(a)に示した原画
像データを離散的な2次元フーリエ変換により直交基底
に写像した2次元FFT画像データである。図4(b)
に示す2次元FFT画像データは画像中心の原点を中心
に全方向に広がっており、原点を中心に点対称であるこ
とが分かる。従って、本実施の形態では、登録パターン
として原点を境に左右いずれか半分の2次元FFT画像
データをメモリ2に格納してある。
FIGS. 4 to 8 show the original image data and the two-dimensional FFT.
FIG. 4 is a diagram illustrating a correspondence relationship with image data. 4A shows grayscale original image data obtained by imaging a human hand representing a par, and FIG. 4B shows a discrete two-dimensional Fourier transform of the original image data shown in FIG. Is two-dimensional FFT image data mapped to an orthogonal basis by FIG. 4 (b)
It can be seen that the two-dimensional FFT image data shown in (1) spreads in all directions around the origin of the image center and is point-symmetric about the origin. Therefore, in the present embodiment, the two-dimensional FFT image data of either the left or right half with respect to the origin as a registered pattern is stored in the memory 2.

【0047】図5(a)はグーを表した人間の手を撮像
したグレースケールの原画像データであり、図5(b)
は図5(a)に示した原画像データを離散的な2次元フ
ーリエ変換により直交基底に写像した2次元FFT画像
データである。図5(b)に示す2次元FFT画像デー
タは画像中心の原点を中心に集中しており、原点を中心
に点対称であることが分かる。従って、本実施の形態で
は、登録パターンとして原点を境に左右いずれか半分の
2次元FFT画像データをメモリ2に格納してある。
FIG. 5 (a) shows grayscale original image data of a human hand representing goo, and FIG. 5 (b)
Is two-dimensional FFT image data obtained by mapping the original image data shown in FIG. 5A to an orthogonal basis by a discrete two-dimensional Fourier transform. It can be seen that the two-dimensional FFT image data shown in FIG. 5B is concentrated around the origin of the image center and is point-symmetric about the origin. Therefore, in the present embodiment, the two-dimensional FFT image data of either the left or right half with respect to the origin as a registered pattern is stored in the memory 2.

【0048】図6(a)は指を揃えて幅を狭くしたパー
を左に向けた人間の手を撮像したグレースケールの原画
像データであり、図6(b)は図6(a)に示した原画
像データを離散的な2次元フーリエ変換により直交基底
に写像した2次元FFT画像データである。図6(b)
に示す2次元FFT画像データは画像中心の原点を中心
に横方向に分散し、その分散形状が左回りに回転してい
ることが分かる。本実施の形態では、登録パターンとし
て原点を境に左右いずれか半分の2次元FFT画像デー
タをメモリ2に格納してある。
FIG. 6A shows grayscale original image data obtained by imaging a human hand with the par with the fingers aligned and the par narrowed to the left. FIG. 6B shows the original image data shown in FIG. This is two-dimensional FFT image data obtained by mapping the shown original image data to an orthogonal basis by a discrete two-dimensional Fourier transform. FIG. 6 (b)
It can be seen that the two-dimensional FFT image data shown in (1) is scattered laterally around the origin of the center of the image, and that the scattered shape is rotating counterclockwise. In the present embodiment, the memory 2 stores two-dimensional FFT image data in the left or right half with respect to the origin as a registered pattern.

【0049】図7(a)は指を揃えて幅を狭くしたパー
を画像中心に傾けることなく配置した人間の手を撮像し
たグレースケールの原画像データであり、図7(b)は
図7(a)に示した原画像データを離散的な2次元フー
リエ変換により直交基底に写像した2次元FFT画像デ
ータである。図7(b)に示す2次元FFT画像データ
は画像中心の原点を通るY座標上に細長く分散している
ことが分かる。本実施の形態では、登録パターンとして
原点を境に左右いずれか半分の2次元FFT画像データ
をメモリ2に格納してある。
FIG. 7A shows grayscale original image data of a human hand in which a par with a narrowed par with fingers is arranged without tilting the center of the image, and FIG. 7B is FIG. This is two-dimensional FFT image data obtained by mapping the original image data shown in (a) to an orthogonal basis by a discrete two-dimensional Fourier transform. It can be seen that the two-dimensional FFT image data shown in FIG. 7B is elongated and dispersed on the Y coordinate passing through the origin of the center of the image. In the present embodiment, the memory 2 stores two-dimensional FFT image data in the left or right half with respect to the origin as a registered pattern.

【0050】図8(a)は指を揃えて幅を狭くしたパー
を画像中心から右回りに傾けて配置した人間の手を撮像
したグレースケールの原画像データであり、図8(b)
は図8(a)に示した原画像データを離散的な2次元フ
ーリエ変換により直交基底に写像した2次元FFT画像
データである。図8(b)に示す2次元FFT画像デー
タは画像中心の原点を通るY座標上に細長く分散し、原
点を中心として右回りに傾いていることが分かる。本実
施の形態では、登録パターンとして原点を境に左右いず
れか半分の2次元FFT画像データをメモリ2に格納し
てある。
FIG. 8A shows grayscale original image data of a human hand in which a par whose finger is aligned and whose width is narrowed is arranged clockwise from the center of the image.
Is two-dimensional FFT image data obtained by mapping the original image data shown in FIG. 8A to an orthogonal basis by a discrete two-dimensional Fourier transform. It can be seen that the two-dimensional FFT image data shown in FIG. 8B is elongated and dispersed on the Y coordinate passing through the origin of the image center, and is inclined clockwise about the origin. In the present embodiment, the memory 2 stores two-dimensional FFT image data in the left or right half with respect to the origin as a registered pattern.

【0051】図2を参照して本実施の形態における画像
認識ルーチンを詳細に説明する。図2は実施の形態1に
おける画像認識ルーチンを示すフローチャートである。
The image recognition routine according to the present embodiment will be described in detail with reference to FIG. FIG. 2 is a flowchart showing an image recognition routine according to the first embodiment.

【0052】CPU1は、画像認識ルーチンを起動する
と、メモリ2の認識領域に格納された原画像データに2
次元フーリエ変換を行なう(ステップ31)。かかるス
テップが写像工程又は写像ステップに相当する。これは
2次元のフーリエ変換を用いることにより原画像データ
を直交基底に写像した2次元FFT画像データである。
これにより、実際の生物のようにフーリエ的なザラザラ
感やツルツル感の情報を処理することができる。また、
前述してある処理領域をコピーする際に原画像データの
縦横比のピクセル数を2のべき乗に揃えてあるので、離
散フーリエ変換を高速に行なうことができる。
When the CPU 1 starts the image recognition routine, the original image data stored in the recognition area of the memory 2 is added to the original image data.
A dimensional Fourier transform is performed (step 31). Such a step corresponds to a mapping step or a mapping step. This is two-dimensional FFT image data in which original image data is mapped to an orthogonal basis by using two-dimensional Fourier transform.
As a result, it is possible to process Fourier-like rough and smooth information like a real creature. Also,
Since the number of pixels of the aspect ratio of the original image data is set to the power of 2 when copying the processing area described above, the discrete Fourier transform can be performed at high speed.

【0053】CPU1は、ステップ31で2次元FFT
画像データをモザイク化する(ステップ32)。かかる
ステップがモザイク化工程又はモザイク化ステップに相
当する。これにより、原画像データから切り出し処理を
行なうことなく、処理データ数を削減できるので、以下
の処理の高速化を図ることだでき、かつ、許容する幅
(ロバストネス)を持たせることができる。
The CPU 1 determines in step 31 that the two-dimensional FFT
The image data is converted into a mosaic (step 32). Such a step corresponds to a mosaicing step or a mosaicing step. As a result, the number of pieces of processing data can be reduced without cutting out the original image data, so that the following processing can be speeded up and an allowable width (robustness) can be provided.

【0054】CPU1は、登録パタンPと原画像デー
タCとの誤差E(n)を以下の式(1)に基づいて計算
する(ステップ331)。
The CPU 1 calculates an error E (n) between the registration pattern Pn and the original image data C based on the following equation (1) (step 331).

【0055】 ここで、nは登録パターンの識別番号であり、1以上の
整数である。
[0055] Here, n is the identification number of the registered pattern, and is an integer of 1 or more.

【0056】CPU1は、原画像データCと登録パター
ンPとの誤差を式(1)に基づいて計算すると、n個
の誤差E(1)、E(2)…E(n)を得ることができ
る。
When the CPU 1 calculates an error between the original image data C and the registered pattern Pn based on the equation (1), the CPU 1 obtains n errors E (1) , E (2) ... E (n). Can be.

【0057】CPU1は、ステップ331で算出した誤
差E(1)、E(2)…E(n)のうち最小の誤差を求
め、その誤差を求めるために用いた登録パターンに最も
類似するという認識結果を得る。かかるステップが類似
度検出工程又は類似度検出ステップに相当する。かかる
認識結果は、前述するように手の形状、その位置、その
向きの基づいて決定される各種のコマンドである。かか
る認識結果がメインルーチンに返して(ステップ3
4)、本ルーチンを終了する。従って、本ルーチンはコ
マンド発生ステップ、コマンド発生工程に相当するもの
であり、コマンド発生手段の一部を構成する。以上が本
実施の形態における画像認識ルーチンの処理手順であ
り、かかる処理手順を採用することにより、高速かつロ
バスト性の高い認識処理を実行できる。
The CPU 1 finds the minimum error among the errors E (1) , E (2) ... E (n) calculated in step 331, and recognizes that it is most similar to the registered pattern used to find the error. Get results. This step corresponds to a similarity detection step or a similarity detection step. Such recognition results are various commands determined based on the shape of the hand, its position, and its orientation as described above. The recognition result is returned to the main routine (step 3
4), end this routine. Therefore, this routine corresponds to a command generation step and a command generation step, and constitutes a part of command generation means. The above is the processing procedure of the image recognition routine in the present embodiment, and by adopting such a processing procedure, a high-speed and highly robust recognition processing can be executed.

【0058】本実施の形態では水源コマンドをメインル
ーチンに出力する水源コマンドルーチンが画像認識ルー
チンと並列的に起動される。かかるルーチンは画像認識
ルーチンともにコマンドI/Fを構成する。以下に水源
コマンドルーチンを説明する。
In this embodiment, a water source command routine for outputting a water source command to the main routine is started in parallel with the image recognition routine. This routine constitutes a command I / F together with the image recognition routine. The water source command routine will be described below.

【0059】水源コマンドルーチンは、濃い色の布の上
方にある手の位置を検出するために原画像データ内に存
在する手の重心座標を検出するルーチンである。かかる
重心検出処理は、照明条件の変化に影響されないように
閾値を用いて原画像データを二値化してから、以下の式
に基づいて計算することにより重心位置の検出をしてい
る。以下に重心の計算式を説明する。
The water source command routine is a routine for detecting the coordinates of the center of gravity of the hand existing in the original image data in order to detect the position of the hand above the dark cloth. In this center-of-gravity detection processing, the original image data is binarized using a threshold value so as not to be affected by changes in lighting conditions, and then the center-of-gravity position is detected by calculation based on the following equation. The formula for calculating the center of gravity will be described below.

【0060】2次元座標上の明るさを関数f(x、y)
で表すと、離散的慣性モーメントは mij=ΣΣ・y・f(x,y) 式(2) で表される。
The brightness on the two-dimensional coordinates is represented by a function f (x, y).
Expressed in discrete moment of inertia is represented by m ij = Σ y Σ x x i · y j · f (x, y) Equation (2).

【0061】重心cは c=m10/m00 式(3) なので、重心の座標を(cx,cy)とすると、 cx=(ΣΣx・f(x,y)/ΣΣ・f(x,y)) 式(4) cy=(ΣΣy・f(x,y)/ΣΣ・f(x,y)) 式(5) 式(4)、(5)を計算している。本ルーチンは、前述
の計算結果に基づいて水源コマンドをメインルーチンに
返している。
[0061] centroid c is c = m 10 / m 00 Equation (3), so when the center of gravity of the coordinates (cx, cy), cx = (Σ y Σ x x · f (x, y) / Σ y Σ x · f (x, y)) equation (4) cy = (Σ y Σ x y · f (x, y) / Σ y Σ x · f (x, y)) equation (5) (4) (5) is calculated. This routine returns a water source command to the main routine based on the above calculation result.

【0062】(実施の形態2)以下、本実施の形態は、
前述してある実施の形態とビデオカメラで撮影した原画
像データに含まれる人間の手の形状を認識し、手の位置
を検出した結果をコマンドとして出力するコマンドI/
Fを具備し、かかるI/Fから出力されるコマンドでゲ
ームを進行するゲームシステムである点で共通すること
から、共通の構成を具備するので、共通する構成に共通
の符号を付して説明を省略し、相違する構成を中心に図
1、図3〜図9を参照して説明する。
(Embodiment 2) Hereinafter, the present embodiment
A command I / which recognizes the shape of a human hand included in original image data captured by a video camera and outputs the result of detecting the position of the hand as a command according to the embodiment described above.
F, which is common in that it is a game system in which a game is advanced by a command output from the I / F, so that it has a common configuration. Are omitted, and different configurations will be mainly described with reference to FIGS. 1 and 3 to 9.

【0063】本実施の形態におけるゲームシステムを構
成するハードウエアは、図9を参上して説明した実施の
形態1と同様にCPU1とメモリ2と画像入力用I/F
3と画像出力用I/F4と出力用I/F5とネットワー
クI/F6とビデオカメラ7とディスプレイ8と入出力
装置9とからなり、CPU1が多層ニューラルネットワ
ークである点で上述の実施の形態1と相違する。
The hardware constituting the game system according to the present embodiment includes a CPU 1, a memory 2, and an image input / output I / F as in the first embodiment described with reference to FIG.
Embodiment 1 in that the CPU 1 is a multi-layer neural network comprising an I / F 4, an image output I / F 4, an output I / F 5, a network I / F 6, a video camera 7, a display 8, and an input / output device 9. Is different from

【0064】本実施の形態におけるニューラルネットワ
ークは、入力がアナログ値であるパーセプトロンを採用
しており、入力層、中間層、出力層の3層からなる多層
ニューラルネットワークである。その学習アルゴリズム
としてBP法(Back Propagation法)
を採用してある。
The neural network according to the present embodiment employs a perceptron whose input is an analog value, and is a multilayer neural network including three layers: an input layer, an intermediate layer, and an output layer. BP method (Back Propagation method) as the learning algorithm
Has been adopted.

【0065】入力層は、例えば64セルからなり、2次
元FFT画像データの半分を8×8にモザイク化したも
の(64)を入力層の各セル(96)に入力する。ここ
で、モザイク化した理由は、ニューラルネットに入力す
るデータを減少させ、許容する幅(ロバストネス)を持
たせるためである。なお、2次元FFT画像データの性
質は原点について点対称となることから、原点から半分
に区切った2次元FFT画像データのみを入力層に入力
する。
The input layer is composed of, for example, 64 cells. A half (2 × 8) mosaic of half of the two-dimensional FFT image data (64) is input to each cell (96) of the input layer. Here, the reason why the mosaic is used is to reduce the data to be input to the neural network and have an allowable width (robustness). Since the property of the two-dimensional FFT image data is point-symmetric with respect to the origin, only the two-dimensional FFT image data divided into half from the origin is input to the input layer.

【0066】中間層は、様々な入力に対応でき10セル
程度の出力ならきれいに分離できるセル数として経験的
に30セルにしてある。出力層は、ゲームのコマンドI
/Fとして10種類の入力コマンドを見分けられるよう
に10セルとしてある。
The intermediate layer is empirically set to 30 cells as the number of cells which can correspond to various inputs and can be separated cleanly when the output is about 10 cells. The output layer is the game command I
/ F is set to 10 cells so that 10 types of input commands can be distinguished.

【0067】次に原画像データと2次元FFT画像デー
タとの対応関係を図4〜図8を参照して説明する。図4
〜図8は原画像データと2次元FFT画像データとの対
応関係を示す図である。図4〜図8は、上述の実施の形
態1で説明してあるので概説すると、図4(b)に示す
2次元FFT画像データは画像中心の原点を中心に全方
向に広がっており、原点を中心に点対称であり、図5
(b)に示す2次元FFT画像データは画像中心の原点
を中心に集中しており、原点を中心に点対称である。
Next, the correspondence between the original image data and the two-dimensional FFT image data will be described with reference to FIGS. FIG.
8 are diagrams showing the correspondence between the original image data and the two-dimensional FFT image data. Since FIG. 4 to FIG. 8 are described in the first embodiment, the two-dimensional FFT image data shown in FIG. 4B is spread in all directions around the origin of the image center. 5 is symmetrical with respect to the center, and FIG.
The two-dimensional FFT image data shown in (b) is concentrated around the origin of the center of the image, and is point-symmetric about the origin.

【0068】図6(b)に示す2次元FFT画像データ
は画像中心の原点を中心に横方向に分散し、その分散形
状が左回りに回転していることが分かる。図7(b)に
示す2次元FFT画像データは画像中心の原点を通るY
座標上に細長く分散していることが分かる。図8(b)
に示す2次元FFT画像データは画像中心の原点を通る
Y座標上に細長く分散し、原点を中心として右回りに傾
いていることが分かる。
It can be seen that the two-dimensional FFT image data shown in FIG. 6B is scattered laterally around the origin of the center of the image, and that the scattered shape is rotated counterclockwise. The two-dimensional FFT image data shown in FIG.
It can be seen that they are elongated on the coordinates. FIG. 8B
It can be seen that the two-dimensional FFT image data shown in (1) is elongated and dispersed on the Y coordinate passing through the origin of the center of the image, and is inclined clockwise about the origin.

【0069】次に本実施の形態におけるゲームシステム
の概略処理を説明する。本実施の形態におけるメインル
ーチンは、実施の形態1と同様であるので、説明を省略
し、図3を参照して本実施の形態の画像認識ルーチンを
説明する。
Next, the general processing of the game system according to the present embodiment will be described. The main routine in the present embodiment is the same as that in the first embodiment, and thus the description is omitted, and the image recognition routine in the present embodiment will be described with reference to FIG.

【0070】図3は実施の形態2における画像認識ルー
チンを示すフローチャートである。
FIG. 3 is a flowchart showing an image recognition routine according to the second embodiment.

【0071】CPU1は、図3に示す画像認識ルーチン
を起動すると、メモリ2の認識領域に格納された原画像
データに2次元フーリエ変換を行なう(ステップ3
1)。かかるステップで、原画像データを直交基底に写
像した2次元FFT画像データ(グレースケール)を得
ることができる。これにより、実際の生物のようにフー
リエ的なザラザラ感やツルツル感の情報だけでなく、画
面全体の明るさ分布の情報を同時に処理することができ
る。また、上述したように処理領域をコピーする際に原
画像データの縦横比のピクセル数を2のべき乗に揃えて
あるので、離散フーリエ変換を高速に行なうことができ
る。
When activating the image recognition routine shown in FIG. 3, the CPU 1 performs a two-dimensional Fourier transform on the original image data stored in the recognition area of the memory 2 (step 3).
1). In this step, two-dimensional FFT image data (gray scale) in which the original image data is mapped to the orthogonal basis can be obtained. As a result, it is possible to simultaneously process not only the information of the Fourier-like roughness and smoothness as in a real creature but also the information of the brightness distribution of the entire screen. Further, as described above, when the processing area is copied, the number of pixels of the aspect ratio of the original image data is set to a power of 2, so that the discrete Fourier transform can be performed at high speed.

【0072】CPU1は、ステップ31で原画像データ
を直交基底に写像した2次元FFT画像データをモザイ
ク化する(ステップ32)。具体的には、2次元FFT
画像データの半分を8×8にモザイク化したもの64セ
ルからなる入力層に入力する。これにより、モザイク化
の単位毎にグレースケールの総和を求める。ここで、2
次元FFT画像データをモザイク化したことにより、ニ
ューラルネットに入力するデータを減少させ、許容する
幅(ロバストネス)を持たせてある。さらに、2次元F
FT画像データの性質は原点について点対称となること
から、原点から半分に区切った2次元FFT画像データ
のみを入力層に入力すればよいので、原画像データから
切り出し処理を行なうことなく、処理データ数を削減で
き、処理の高速化を図ることだできる。
The CPU 1 mosaicizes the two-dimensional FFT image data obtained by mapping the original image data on the orthogonal basis in step 31 (step 32). Specifically, two-dimensional FFT
Half of the image data is tessellated to 8 × 8 and input to an input layer consisting of 64 cells. In this way, the sum of the gray scales is obtained for each mosaic unit. Where 2
By mosaicing the dimensional FFT image data, data input to the neural network is reduced, and an allowable width (robustness) is provided. Furthermore, two-dimensional F
Since the properties of the FT image data are point-symmetric with respect to the origin, only the two-dimensional FFT image data divided into half from the origin need be input to the input layer. The number can be reduced and the processing speed can be increased.

【0073】CPU1は、モザイク化後の各ブロック値
をニューラルネットに入力し、既に登録、学習させた各
パターン毎の『確からしさ』を出力しておく(ステップ
33)。かかるステップが類似度検出工程又は類似度検
出ステップに相当する。
The CPU 1 inputs each block value after mosaicing to the neural network, and outputs “probability” for each pattern that has already been registered and learned (step 33). This step corresponds to a similarity detection step or a similarity detection step.

【0074】CPU1は、ステップ33での出力結果の
うち最も傾向の近似した登録パターンを認識結果として
メインルーチンに返して(ステップ34)、本ルーチン
を終了する。かかる認識結果は、前述するように手の形
状、その位置、その向きに基づいて決定される各種のコ
マンドである。従って、本ルーチンはコマンド発生ステ
ップ、コマンド発生工程に相当するものであり、コマン
ド発生手段の一部を構成する。以上が本実施の形態にお
ける画像認識ルーチンの処理手順であり、かかる処理手
順を採用することにより、高速かつロバスト性の高い認
識処理を実行できる。
The CPU 1 returns to the main routine the registered pattern with the closest tendency among the output results in step 33 as a recognition result (step 34), and terminates this routine. Such recognition results are various commands determined based on the shape of the hand, its position, and its orientation as described above. Therefore, this routine corresponds to a command generation step and a command generation step, and constitutes a part of command generation means. The above is the processing procedure of the image recognition routine in the present embodiment, and by adopting such a processing procedure, a high-speed and highly robust recognition processing can be executed.

【0075】本実施の形態においても、実施の形態1で
説明してある水源コマンドルーチンを図3に示す画像認
識ルーチンともに起動している。
Also in the present embodiment, the water source command routine described in the first embodiment is activated together with the image recognition routine shown in FIG.

【0076】[0076]

【発明の効果】 本発明によれば、原画像データの明る
さ分布を直交基底への写像した特徴を利用し、かつ高速
に物体の形状を認識することができる画像認識方法、こ
れを用いた画像認識システム、かかるシステムを応用し
たコマンドインターフェイス、これを実現するプログラ
ムを格納した記録媒体を提供することができた。
According to the present invention, there is provided an image recognition method capable of recognizing a shape of an object at a high speed by using a feature obtained by mapping a brightness distribution of original image data to an orthogonal basis, and using the method. An image recognition system, a command interface to which the system is applied, and a recording medium storing a program for realizing the command interface can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 メインルーチンを示したフローチャートであ
る。
FIG. 1 is a flowchart showing a main routine.

【図2】 実施の形態1における画像認識ルーチンを示
すフローチャートである。
FIG. 2 is a flowchart illustrating an image recognition routine according to the first embodiment.

【図3】 実施の形態2における画像認識ルーチンを示
すフローチャートである。
FIG. 3 is a flowchart illustrating an image recognition routine according to the second embodiment.

【図4】 原画像データと2次元FFT画像データとの
対応関係を示す図である。
FIG. 4 is a diagram showing a correspondence relationship between original image data and two-dimensional FFT image data.

【図5】 原画像データと2次元FFT画像データとの
対応関係を示す図である。
FIG. 5 is a diagram showing a correspondence relationship between original image data and two-dimensional FFT image data.

【図6】 原画像データと2次元FFT画像データとの
対応関係を示す図である。
FIG. 6 is a diagram showing a correspondence between original image data and two-dimensional FFT image data.

【図7】 原画像データと2次元FFT画像データとの
対応関係を示す図である。
FIG. 7 is a diagram showing a correspondence relationship between original image data and two-dimensional FFT image data.

【図8】 原画像データと2次元FFT画像データとの
対応関係を示す図である。
FIG. 8 is a diagram showing a correspondence relationship between original image data and two-dimensional FFT image data.

【図9】 本実施の形態におけるゲームシステムのハー
ドウエア構成を示すブロック図である。
FIG. 9 is a block diagram illustrating a hardware configuration of a game system according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 CPU 2 メモリ 3 画像入力用I/F 4 画像出力用I/F 5 入出力用I/F 6 ネットワークI/F 7 ビデオカメラ 8 ディスプレイ 9 入力装置 DESCRIPTION OF SYMBOLS 1 CPU 2 Memory 3 I / F for image input 4 I / F for image output 5 I / F for input / output 6 Network I / F 7 Video camera 8 Display 9 Input device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150S Fターム(参考) 2C001 BA02 BC03 CA00 CA09 CB01 CC02 5B057 AA20 BA02 BA26 BA29 CA01 CB01 CE01 CE09 CG05 CG09 CH03 CH04 DC06 DC09 DC33 5L096 AA02 BA08 BA18 CA02 EA21 EA35 EA43 FA23 FA60 FA69 GA08 HA08 HA11 JA03 LA01 LA15 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/60 150 G06T 7/60 150S F term (Reference) 2C001 BA02 BC03 CA00 CA09 CB01 CC02 5B057 AA20 BA02 BA26 BA29 CA01 CB01 CE01 CE09 CG05 CG09 CH03 CH04 DC06 DC09 DC33 5L096 AA02 BA08 BA18 CA02 EA21 EA35 EA43 FA23 FA60 FA69 GA08 HA08 HA11 JA03 LA01 LA15

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 原画像データを直交基底に写像した2次
元FFT画像データと2次元FFT画像データからなる
登録パターンとを比較して原画像データに含まれる物体
を認識する画像認識方法において、前記原画像データか
ら2次元FFT画像データを得る写像工程と、当該写像
工程で得た2次元FFT画像データをモザイク化するモ
ザイク化工程と、当該モザイク化工程で得たモザイクデ
ータと前記登録パターンとの類似度を求める類似度検出
工程とを有することを特徴とする画像認識方法。
An image recognition method for recognizing an object included in original image data by comparing two-dimensional FFT image data obtained by mapping the original image data on an orthogonal basis with a registered pattern composed of the two-dimensional FFT image data. A mapping step of obtaining two-dimensional FFT image data from the original image data, a mosaicing step of mosaicizing the two-dimensional FFT image data obtained in the mapping step, A similarity detection step of obtaining a similarity.
【請求項2】 さらに、前記写像工程で用いる原画像デ
ータの縦横のピクセル数を2のべき乗とする画像切り出
し工程を有することを特徴とする請求項1に記載の画像
認識方法。
2. The image recognition method according to claim 1, further comprising an image cutout step in which the number of vertical and horizontal pixels of the original image data used in the mapping step is a power of two.
【請求項3】 原画像データを直交基底に写像した2次
元FFT画像データと2次元FFT画像データからなる
登録パターンとを比較して原画像データに含まれる物体
を認識する画像認識システムにおいて、前記原画像デー
タから2次元FFT画像データを得る写像手段と、当該
写像手段で得た2次元FFT画像データをモザイク化す
るモザイク化手段と、当該モザイク化手段で得たモザイ
クデータと前記登録パターンとの類似度を求める類似度
検出手段とを具備することを特徴とする画像認識システ
ム。
3. An image recognition system for recognizing an object included in original image data by comparing two-dimensional FFT image data obtained by mapping the original image data on an orthogonal basis with a registered pattern comprising the two-dimensional FFT image data. A mapping unit for obtaining two-dimensional FFT image data from original image data, a mosaic unit for mosaicing the two-dimensional FFT image data obtained by the mapping unit, and a mosaic data obtained by the mosaic unit and the registered pattern. An image recognition system comprising: a similarity detection unit that obtains a similarity.
【請求項4】 さらに、前記写像手段で用いる原画像デ
ータの縦横のピクセル数を2のべき乗に揃える画角設定
手段を具備することを特徴とする請求項3に記載の画像
認識システム。
4. The image recognition system according to claim 3, further comprising an angle-of-view setting means for aligning the number of vertical and horizontal pixels of the original image data used in said mapping means to a power of two.
【請求項5】 撮像手段で撮像した原画像データに含ま
れる手の形状又はその位置を認識した結果に基づいてコ
マンドを出力するコマンドインターフェイスにおいて、
前記原画像データから2次元FFT画像データを得る写
像手段と、当該写像手段で得た2次元FFT画像データ
をモザイク化するモザイク化手段と、当該モザイク化手
段で得たモザイクデータと前記登録パターンとの類似度
を求める類似度検出手段と、当該類似度検出手段からの
結果に基づくコマンドを出力をコマンド発生手段とを具
備することを特徴とするコマンドインターフェイス。
5. A command interface for outputting a command based on a result of recognizing a shape or a position of a hand included in original image data captured by an imaging unit,
A mapping unit for obtaining two-dimensional FFT image data from the original image data, a mosaic unit for mosaicizing the two-dimensional FFT image data obtained by the mapping unit, a mosaic data obtained by the mosaic unit, and the registration pattern. A command interface, comprising: a similarity detection unit that calculates the similarity of the command; and a command generation unit that outputs a command based on a result from the similarity detection unit.
【請求項6】 さらに、前記写像手段で用いる原画像デ
ータの縦横のピクセル数を2のべき乗に揃える画角設定
手段を具備することを特徴とする請求項5に記載のコマ
ンドインターフェイス。
6. The command interface according to claim 5, further comprising an angle-of-view setting unit for aligning the number of vertical and horizontal pixels of the original image data used in the mapping unit to a power of two.
【請求項7】 撮像手段で撮像した原画像データに含ま
れる手の形状又はその位置を認識した結果に基づいてコ
マンドを出力するプログラムが記録されたコンピュータ
読み取り可能な記録媒体であって、前記原画像データか
ら2次元FFT画像データを得る写像ステップと、当該
写像ステップで得た2次元FFT画像データをモザイク
化するモザイク化ステップと、当該モザイク化ステップ
で得たモザイクデータと前記登録パターンとの類似度を
求める類似度検出ステップと、当該類似度検出ステップ
からの結果に基づくコマンドを出力をコマンド発生ステ
ップとをコンピュータに実現させるためのプログラムを
記録したコンピュータ読み取り可能な記録媒体。
7. A computer-readable recording medium in which a program for outputting a command based on a result of recognizing a hand shape or a position thereof included in original image data captured by an imaging unit is recorded, wherein A mapping step of obtaining two-dimensional FFT image data from the image data, a mosaicing step of mosaicing the two-dimensional FFT image data obtained in the mapping step, and a similarity between the mosaic data obtained in the mosaicing step and the registration pattern A computer-readable storage medium storing a program for causing a computer to execute a similarity detection step for determining a degree and a command generation step for outputting a command based on a result from the similarity detection step.
【請求項8】 さらに、前記写像ステップで用いる原画
像データの縦横のピクセル数を2のべき乗に揃える画角
設定ステップを有することを特徴とする請求項7に記載
の記録媒体。
8. The recording medium according to claim 7, further comprising an angle-of-view setting step for aligning the number of vertical and horizontal pixels of the original image data used in the mapping step to a power of two.
【請求項9】 前記原画像データはネットワークインタ
フェイスを介して取得することを特徴とする請求項1又
は請求項2に記載の画像認識方法。
9. The image recognition method according to claim 1, wherein the original image data is obtained through a network interface.
【請求項10】 前記原画像データはネットワークイン
タフェイスを介して取得することを特徴とする請求項3
又は請求項4に記載の画像認識システム。
10. The apparatus according to claim 3, wherein the original image data is obtained through a network interface.
Or the image recognition system according to claim 4.
【請求項11】 前記原画像データはネットワークイン
タフェイスを介して取得することを特徴とする請求項5
又は請求項6に記載のコマンドインターフェイス。
11. The apparatus according to claim 5, wherein the original image data is obtained through a network interface.
Or the command interface according to claim 6.
JP2000386161A 2000-12-19 2000-12-19 Image recognition method, image recognition system using the same, command interface and recording medium Pending JP2002190024A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000386161A JP2002190024A (en) 2000-12-19 2000-12-19 Image recognition method, image recognition system using the same, command interface and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000386161A JP2002190024A (en) 2000-12-19 2000-12-19 Image recognition method, image recognition system using the same, command interface and recording medium

Publications (1)

Publication Number Publication Date
JP2002190024A true JP2002190024A (en) 2002-07-05

Family

ID=18853308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000386161A Pending JP2002190024A (en) 2000-12-19 2000-12-19 Image recognition method, image recognition system using the same, command interface and recording medium

Country Status (1)

Country Link
JP (1) JP2002190024A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164461A (en) * 2006-12-28 2008-07-17 Kochi Univ Of Technology Inspection method and apparatus of thin plate-shaped component

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320552A (en) * 1997-05-15 1998-12-04 Hamamatsu Photonics Kk Person collation device
JPH11312243A (en) * 1998-04-28 1999-11-09 Victor Co Of Japan Ltd Facial region detector
JP2000040147A (en) * 1998-07-24 2000-02-08 Atr Media Integration & Communications Res Lab Handshake recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320552A (en) * 1997-05-15 1998-12-04 Hamamatsu Photonics Kk Person collation device
JPH11312243A (en) * 1998-04-28 1999-11-09 Victor Co Of Japan Ltd Facial region detector
JP2000040147A (en) * 1998-07-24 2000-02-08 Atr Media Integration & Communications Res Lab Handshake recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008164461A (en) * 2006-12-28 2008-07-17 Kochi Univ Of Technology Inspection method and apparatus of thin plate-shaped component

Similar Documents

Publication Publication Date Title
CN110532984B (en) Key point detection method, gesture recognition method, device and system
US9514570B2 (en) Augmentation of tangible objects as user interface controller
US6624833B1 (en) Gesture-based input interface system with shadow detection
Lee et al. Hybrid feature tracking and user interaction for markerless augmented reality
JP5940453B2 (en) Method, computer program, and apparatus for hybrid tracking of real-time representations of objects in a sequence of images
CN108492363B (en) Augmented reality-based combination method and device, storage medium and electronic equipment
KR102285915B1 (en) Real-time 3d gesture recognition and tracking system for mobile devices
Wen et al. A robust method of detecting hand gestures using depth sensors
JPH10214346A (en) Hand gesture recognizing system and its method
JP2003346162A (en) Input system by image recognition of hand
KR20140028064A (en) System for recognizing an open or closed hand
WO2018082308A1 (en) Image processing method and terminal
CN109886223B (en) Face recognition method, bottom library input method and device and electronic equipment
CN112507918A (en) Gesture recognition method
US20120169860A1 (en) Method for detection of a body part gesture to initiate a web application
CN114445853A (en) Visual gesture recognition system recognition method
Keceli et al. Recognition of basic human actions using depth information
JP2010231350A (en) Person identifying apparatus, its program, and its method
WO2024022301A1 (en) Visual angle path acquisition method and apparatus, and electronic device and medium
CN108255298B (en) Infrared gesture recognition method and device in projection interaction system
JP2007026308A (en) Image processing method and image processor
JP2002190024A (en) Image recognition method, image recognition system using the same, command interface and recording medium
Simion et al. Fingertip-based real time tracking and gesture recognition for natural user interfaces
JP4221681B2 (en) Gesture recognition device
Gui et al. Finger detection in video sequences using a new sparse representation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101130