JP2008225985A - Image recognition system - Google Patents

Image recognition system Download PDF

Info

Publication number
JP2008225985A
JP2008225985A JP2007064913A JP2007064913A JP2008225985A JP 2008225985 A JP2008225985 A JP 2008225985A JP 2007064913 A JP2007064913 A JP 2007064913A JP 2007064913 A JP2007064913 A JP 2007064913A JP 2008225985 A JP2008225985 A JP 2008225985A
Authority
JP
Japan
Prior art keywords
unit
dimensional
shape information
information
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007064913A
Other languages
Japanese (ja)
Inventor
Katsuki Itami
克企 伊丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2007064913A priority Critical patent/JP2008225985A/en
Publication of JP2008225985A publication Critical patent/JP2008225985A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognition system, capable of performing processing reflecting a user's motion in detail by three-dimensionally analyzing the user's motion without needing to install an emitter to the user's hand, foot or the like. <P>SOLUTION: The shape or position of a detection object is three-dimensionally analyzed to perform various processings by acquiring three-dimensional shape information or three-dimensional position information of a detection object is acquired in a three-dimensional coordinate system of an imaging space PS of a detection unit 16. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像認識システムに関する。   The present invention relates to an image recognition system.

従来から、システム利用者の手や足などに発光体を装着させた上で利用者の画像を撮像し、画像における発光体の位置の変化に基づいて利用者の動きなどを検出し、利用者の動きに応じた画像を表示させる画像認識システムが知られている。
特開2000−33184号公報
Conventionally, a user's image is taken after attaching a light emitter to the system user's hand or foot, etc., and a user's movement is detected based on a change in the position of the light emitter in the image. There is known an image recognition system that displays an image according to the movement of the camera.
JP 2000-33184 A

しかし従来の画像認識システムでは、利用者の手や足などに発光体を装着させる必要があったため、また画像における発光体の位置の変化を2次元的に解析していたため、利用者の動きなどを簡易かつ詳細に検出して利用者の動きなどに応じた画像を生成し、これをコミュニケーションやゲームのために用いることができなかった。   However, in the conventional image recognition system, it is necessary to attach the light emitter to the user's hand or foot, and the change in the position of the light emitter in the image is analyzed two-dimensionally. An image corresponding to the user's movement or the like is generated simply and in detail and cannot be used for communication or a game.

本発明は以上のような課題に鑑みてなされたものであり、その目的とするところは、利用者などの検出対象物を簡易かつ3次元的に検出して画像を生成することにより、例えばキーボードなどが無いゲーム専用機でのネットゲームコミュニケーションに役立たせたり、キーボードがあっても、操作を簡易化したりコミュニケーションの表現の幅を広げることができる画像認識システムを提供することにある。また本発明の他の目的は、例えば実際の回路や電源、ケーブルなどが不要のコントローラにより操作入力を行うことができる画像認識システムを提供することにある。また本発明の他の目的は、操作入力を簡素化できる画像認識システムを提供することにある。また本発明の他の目的は、例えば利用者が実際に持っている物などを反映した画像を生成することができる画像認識システムを提供することにある。   The present invention has been made in view of the problems as described above. The object of the present invention is to detect a detection object such as a user in a simple and three-dimensional manner to generate an image, for example, a keyboard. It is an object of the present invention to provide an image recognition system that can be used for net game communication on a game-dedicated machine that does not have a problem, or that can simplify the operation or expand the range of communication expression even with a keyboard. Another object of the present invention is to provide an image recognition system capable of performing operation input by a controller that does not require an actual circuit, power supply, cable, or the like. Another object of the present invention is to provide an image recognition system capable of simplifying operation input. Another object of the present invention is to provide an image recognition system capable of generating an image reflecting what the user actually has.

(1)本発明は、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
所与の3次元オブジェクト空間に設定される3次元オブジェクトの形状を規定するオブジェクト形状情報を、前記検出3次元形状情報に基づいて生成するオブジェクト生成部と、
前記生成されたオブジェクト形状情報を外部装置との間で送受信する通信制御部と、
前記受信されたオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システムに関係する。
(1) The present invention
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
An object generation unit that generates object shape information that defines the shape of a three-dimensional object set in a given three-dimensional object space based on the detected three-dimensional shape information;
A communication control unit that transmits and receives the generated object shape information to and from an external device;
An object space setting unit for setting the received object shape information in the three-dimensional object space;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
It is related with the image recognition system characterized by including.

また本発明は、前記各部としてコンピュータを機能させるプログラム及びプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program for causing a computer to function as each unit and an information storage medium storing the program.

本発明において「検出3次元形状情報」とは、例えば検出部の中心点などを基準点とする座標系の座標情報とすることができ、検出対象物の形状を規定するのみならず、検出部の検出方向における検出対象物の位置、向きを規定する情報とすることができる。   In the present invention, the “detected three-dimensional shape information” can be, for example, coordinate information of a coordinate system using the center point of the detection unit as a reference point, and not only defines the shape of the detection target but also the detection unit. The information for defining the position and orientation of the detection object in the detection direction.

本発明では、出力部が出力した出力波の反射波を検出部が検出し、検出した反射波に基づいて検出対象物の検出3次元形状情報を取得する。そして取得した検出3次元形状情報に基づいてオブジェクト形状情報を生成し、オブジェクト形状情報を外部装置との間で送受信する。これにより本発明によれば、自分(本人)の端末装置において取得した検出3次元形状情報に基づく3次元オブジェクトを、他人の端末装置において表示させたり、他人の端末装置において取得された検出3次元形状情報に基づく3次元オブジェクトを、自分の端末装置において表示させたりしながらコミュニケーションを行うことができる。例えば自分の端末装置において自らを検出対象物とした検出3次元形状情報を取得し、自らに対応するオブジェクト形状情報を生成し、これを他人の端末装置に送信することにより、他人の端末装置において自らに対応する3次元オブジェクト(キャラクタ)を表示させることができる。   In this invention, a detection part detects the reflected wave of the output wave which the output part output, and the detection three-dimensional shape information of a detection target object is acquired based on the detected reflected wave. Then, object shape information is generated based on the acquired detected three-dimensional shape information, and the object shape information is transmitted to and received from an external device. Thus, according to the present invention, a three-dimensional object based on the detected three-dimensional shape information acquired in the terminal device of the user (person) is displayed on the terminal device of another person, or the detected three-dimensional object acquired in the terminal device of the other person. Communication can be performed while a three-dimensional object based on the shape information is displayed on its own terminal device. For example, in the terminal device of another person, by acquiring the detected three-dimensional shape information for which the terminal device itself is a detection object, generating the object shape information corresponding to itself, and transmitting this to the terminal device of the other person A three-dimensional object (character) corresponding to itself can be displayed.

(2)また本発明は、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
所与の3次元オブジェクト空間に設定される複数種類の3次元オブジェクトの形状を規定する複数種類のオブジェクト形状情報を記憶するオブジェクト形状情報記憶部と、
前記検出3次元形状情報に対応する前記オブジェクト形状情報を、前記検出3次元形状情報に基づいて選択するオブジェクト形状情報選択部と、
前記選択されたオブジェクト形状情報を外部装置との間で送受信する通信制御部と、
前記受信されたオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システムに関係する。
(2) The present invention also provides:
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
An object shape information storage unit for storing a plurality of types of object shape information defining the shapes of a plurality of types of three-dimensional objects set in a given three-dimensional object space;
An object shape information selection unit that selects the object shape information corresponding to the detected three-dimensional shape information based on the detected three-dimensional shape information;
A communication control unit for transmitting and receiving the selected object shape information to and from an external device;
An object space setting unit for setting the received object shape information in the three-dimensional object space;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
It is related with the image recognition system characterized by including.

また本発明は、前記各部としてコンピュータを機能させるプログラム及びプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program for causing a computer to function as each unit and an information storage medium storing the program.

これにより本発明によれば、自分(本人)の端末装置において取得した検出3次元形状情報に応じて選択された3次元オブジェクトを、他人の端末装置において表示させたり、他人の端末装置において取得された検出3次元形状情報に応じて選択された3次元オブジェクトを、自分の端末装置において表示させたりしながらコミュニケーションを行うことができる。例えば自分の端末装置において自らを検出対象物とした検出3次元形状情報を取得し、自らに対応するオブジェクト形状情報を選択し、これを他人の端末装置に送信することにより、他人の端末装置において自らに対応する3次元オブジェクトを表示させることができる。   Thus, according to the present invention, the 3D object selected according to the detected 3D shape information acquired in the terminal device of the user (person) is displayed on the terminal device of the other person, or acquired by the terminal device of the other person. It is possible to perform communication while displaying the three-dimensional object selected according to the detected three-dimensional shape information on its own terminal device. For example, in the terminal device of another person, by acquiring the detected three-dimensional shape information for which the terminal device itself is a detection object, selecting the object shape information corresponding to itself, and transmitting the information to the terminal device of the other person A three-dimensional object corresponding to itself can be displayed.

(3)また本発明に係る画像認識システムでは、
前記オブジェクト形状情報選択部に選択されたオブジェクト形状情報を、前記検出3次元形状情報に基づいて補正するオブジェクト形状情報補正部を更に含み、
前記通信制御部が、
前記オブジェクト形状情報補正部に補正された補正後のオブジェクト形状情報を外部装置との間で送受信するようにしてもよい。
(3) In the image recognition system according to the present invention,
An object shape information correction unit that corrects the object shape information selected by the object shape information selection unit based on the detected three-dimensional shape information;
The communication control unit
The corrected object shape information corrected by the object shape information correction unit may be transmitted / received to / from an external device.

本発明によれば、例えば自らの検出3次元形状情報に対応するオブジェクト形状情報を選択した場合に、選択されたオブジェクト形状情報を自らの検出3次元形状情報に近づけるように補正することができる。これにより本発明によれば、予め記憶させておくオブジェクト形状情報のデータ容量を抑えつつ、検出対象物により近い3次元オブジェクトを表示させることができる。   According to the present invention, for example, when object shape information corresponding to its own detected three-dimensional shape information is selected, the selected object shape information can be corrected so as to be closer to its own detected three-dimensional shape information. Thus, according to the present invention, it is possible to display a three-dimensional object closer to the detection target while suppressing the data volume of the object shape information stored in advance.

(4)また本発明に係る画像認識システムでは、
前記生成されたオブジェクト形状情報の一部に所与のテクスチャをマッピングして、前記オブジェクト形状情報を前記3次元オブジェクト空間に設定するテクスチャマッピング部を更に含むようにしてもよい。
(4) In the image recognition system according to the present invention,
A texture mapping unit may be further included that maps a given texture to a part of the generated object shape information and sets the object shape information in the three-dimensional object space.

本発明によれば、例えば自らに対応するオブジェクト形状情報を生成した場合に、他人の端末装置において自らに対応する3次元オブジェクト(キャラクタ)を表示させる際に、例えば顔の一部に対応する部分に所与のテクスチャをマッピングすることにより、他人の端末装置において表示させる3次元オブジェクトに独自性を与えつつも匿名性を維持することができる。   According to the present invention, for example, when object shape information corresponding to oneself is generated, when a three-dimensional object (character) corresponding to oneself is displayed on another person's terminal device, for example, a part corresponding to a part of the face By mapping a given texture, it is possible to maintain anonymity while giving uniqueness to a three-dimensional object displayed on another person's terminal device.

(5)また本発明は、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
予め定められた3次元形状を規定する基準3次元形状情報を記憶する基準情報記憶部と、
前記基準3次元形状情報と前記検出3次元形状情報とを比較する比較部と、
前記比較部の比較結果に基づいて、対応するコマンド信号を出力するコマンド信号出力部と、
前記コマンド信号に対応する画像情報、音情報の少なくとも一方を記憶する出力情報記憶部と、
前記出力されたコマンド信号に基づいて、対応する画像情報、音情報の少なくとも一方を出力させる出力制御部とを含むことを特徴とする画像認識システムに関係する。
(5) The present invention also provides:
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
A reference information storage unit that stores reference three-dimensional shape information that defines a predetermined three-dimensional shape;
A comparison unit that compares the reference three-dimensional shape information with the detected three-dimensional shape information;
A command signal output unit that outputs a corresponding command signal based on the comparison result of the comparison unit;
An output information storage unit that stores at least one of image information and sound information corresponding to the command signal;
And an output control unit that outputs at least one of the corresponding image information and sound information based on the output command signal.

また本発明は、前記各部としてコンピュータを機能させるプログラム及びプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program for causing a computer to function as each unit and an information storage medium storing the program.

本発明では、取得した検出3次元形状情報と基準3次元形状情報とを比較し、比較結果に基づいて対応するコマンド信号を出力する。これにより本発明によれば、例えば手話などのように、検出部に対して利用者の体と重なる位置にある手により形成されている形状を3次元的に解析し、手の形状に応じたコマンド信号を出力することができる。こうして本発明によれば、例えば手話における手の形状を画像認識システムに認識させることができ、例えば手の形状に応じたコマンド信号に対応する文字情報や音声情報を出力して、手話を翻訳するように構成することもできる。   In the present invention, the acquired detected three-dimensional shape information is compared with the reference three-dimensional shape information, and a corresponding command signal is output based on the comparison result. As a result, according to the present invention, the shape formed by the hand at the position overlapping the user's body with respect to the detection unit, such as sign language, is analyzed three-dimensionally, and the shape according to the shape of the hand is determined. A command signal can be output. Thus, according to the present invention, for example, the shape of the hand in the sign language can be recognized by the image recognition system, and for example, the character information and voice information corresponding to the command signal corresponding to the shape of the hand is output to translate the sign language. It can also be configured as follows.

(6)また本発明に係る画像認識システムでは、
前記3次元情報取得部が、
前記出力波が反射した検出対象物の3次元形状の所定期間における変化を規定する検出3次元動作情報を、前記反射波に基づいて取得し、
前記基準情報記憶部が、
予め定められた3次元形状の所定期間における変化を規定する基準3次元動作情報を記憶し、
前記比較部が、
前記基準3次元動作情報と前記検出3次元動作情報とを比較するようにしてもよい。
(6) In the image recognition system according to the present invention,
The three-dimensional information acquisition unit
Obtaining detection three-dimensional motion information defining a change in a predetermined period of the three-dimensional shape of the detection object reflected by the output wave based on the reflected wave;
The reference information storage unit is
Storing reference three-dimensional motion information defining a change in a predetermined period of a predetermined three-dimensional shape;
The comparison unit is
The reference three-dimensional motion information and the detected three-dimensional motion information may be compared.

本発明では、取得した検出3次元動作情報と基準3次元形状動作とを比較し、比較結果に基づいて対応するコマンド信号を出力する。これにより本発明によれば、例えば手の形状のみならず手の動きなどの動作を3次元的に解析し、手の3次元的な動きに応じたコマンド信号を出力することができる。こうして本発明によれば、検出対象物の2次元的な動きではなく3次元的な動きに応じて種々のコマンド信号を出力させる画像認識システムを実現することができる。   In the present invention, the acquired detected three-dimensional motion information is compared with the reference three-dimensional shape motion, and a corresponding command signal is output based on the comparison result. Thus, according to the present invention, for example, not only the shape of the hand but also the movement of the hand can be analyzed three-dimensionally, and a command signal corresponding to the three-dimensional movement of the hand can be output. Thus, according to the present invention, it is possible to realize an image recognition system that outputs various command signals according to a three-dimensional movement instead of a two-dimensional movement of a detection target.

(7)また本発明に係る画像認識システムでは、
前記出力されたコマンド信号を外部装置との間で送受信する通信制御部を更に含み、
前記出力制御部が、
前記受信されたコマンド信号に基づいて、対応する画像情報、音情報の少なくとも一方を出力させるようにしてもよい。
(7) In the image recognition system according to the present invention,
A communication control unit that transmits and receives the output command signal to and from an external device;
The output control unit is
Based on the received command signal, at least one of the corresponding image information and sound information may be output.

本発明では、例えば自分の端末装置において取得した検出3次元形状情報に応じたコマンド信号に基づいて、対応する文字情報や音声情報を他人の端末装置において出力させたり、他人の端末装置において取得された検出3次元形状情報に応じたコマンド信号に基づいて、対応する文字情報や音声情報を自分の端末装置において出力させたりしながらコミュニケーションを行うことができる。   In the present invention, for example, based on a command signal corresponding to the detected three-dimensional shape information acquired in the terminal device of the user, corresponding character information or voice information is output in the terminal device of another person, or is acquired in the terminal device of another person. Based on the command signal corresponding to the detected three-dimensional shape information, it is possible to perform communication while outputting the corresponding character information and voice information on the terminal device of the user.

(8)また本発明は、
操作信号に基づいて、所与のオブジェクトの移動及び動作の少なくとも一方の制御を行う移動・動作処理部と、
前記所与のオブジェクトが移動及び動作の少なくとも一方を行う画像を描画する描画処理部と、
を含む画像認識システムであって、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報、及び前記検出対象物の3次元位置を規定する検出3次元位置情報の少なくとも一方を、前記反射波に基づいて取得する3次元情報取得部と、
予め定められた3次元形状を規定する基準3次元形状情報を記憶する基準情報記憶部と、
前記基準3次元形状情報と前記検出3次元形状情報とを比較する比較部と、
前記比較部の比較結果に基づいて、前記検出3次元形状情報に対応する前記検出対象物を操作検出対象物として設定する操作検出対象物設定部と、
前記設定された操作検出対象物について取得された前記検出3次元形状情報及び前記検出3次元位置情報の少なくとも一方の変化に基づいて、前記操作信号を出力する操作信号出力部と、
を更に含むことを特徴とする画像認識システムに関係する。
(8) The present invention also provides:
A movement / motion processing unit that controls at least one of movement and motion of a given object based on an operation signal;
A drawing processing unit for drawing an image in which the given object performs at least one of movement and movement;
An image recognition system including:
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
Based on the reflected wave, at least one of detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave and detection three-dimensional position information that defines the three-dimensional position of the detection object. A three-dimensional information acquisition unit to acquire;
A reference information storage unit that stores reference three-dimensional shape information that defines a predetermined three-dimensional shape;
A comparison unit that compares the reference three-dimensional shape information with the detected three-dimensional shape information;
An operation detection target setting unit that sets the detection target corresponding to the detection three-dimensional shape information as an operation detection target based on the comparison result of the comparison unit;
An operation signal output unit that outputs the operation signal based on a change in at least one of the detected three-dimensional shape information and the detected three-dimensional position information acquired for the set operation detection target;
In addition, the present invention relates to an image recognition system.

また本発明は、前記各部としてコンピュータを機能させるプログラム及びプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program for causing a computer to function as each unit and an information storage medium storing the program.

本発明では、検出対象物が予め定められた3次元形状を有するものであれば、検出対象物を操作検出対象物として設定する。そして検出対象物の形状や位置が変化すると、これを操作入力として検出し、対応する操作信号を出力する。このように本発明によれば、所与のオブジェクトの移動・動作を操作するための入力インターフェースとして検出部を利用した画像認識システムを構築することができる。   In the present invention, if the detection target has a predetermined three-dimensional shape, the detection target is set as the operation detection target. When the shape or position of the detection target changes, this is detected as an operation input, and a corresponding operation signal is output. As described above, according to the present invention, it is possible to construct an image recognition system that uses a detection unit as an input interface for operating movement / movement of a given object.

(9)また本発明に係る画像認識システムでは、
前記基準情報記憶部に記憶された複数の基準3次元形状情報の各基準3次元形状情報に対応する操作アルゴリズムを記憶する操作アルゴリズム記憶部と、
前記比較部の比較結果に基づいて、前記検出3次元形状情報に対応する前記基準3次元形状情報に応じた操作アルゴリズムを設定する操作アルゴリズム設定部と、
を更に含み、
前記操作信号出力部が、
前記設定された操作検出対象物について取得された前記検出3次元形状情報及び前記検出3次元位置情報の少なくとも一方の変化に基づいて、前記設定された操作アルゴリズムに応じた操作信号を出力するようにしてもよい。
(9) In the image recognition system according to the present invention,
An operation algorithm storage unit that stores an operation algorithm corresponding to each reference 3D shape information of the plurality of reference 3D shape information stored in the reference information storage unit;
An operation algorithm setting unit that sets an operation algorithm according to the reference three-dimensional shape information corresponding to the detected three-dimensional shape information based on the comparison result of the comparison unit;
Further including
The operation signal output unit is
An operation signal corresponding to the set operation algorithm is output based on a change in at least one of the detected three-dimensional shape information and the detected three-dimensional position information acquired for the set operation detection object. May be.

本発明では、検出対象物の3次元形状に応じて複数の操作アルゴリズムが用意されており、例えば円環状の検出対象物が検出された場合にはこれを車のハンドルという操作検出対象物に設定し、車のハンドルに対応する操作アルゴリズムを設定する。そして利用者がハンドルを回転させるように操作検出対象物を回転させると、操作検出対象物の回転量に応じて例えば車オブジェクトの向きを変化させる画像を描画する。また例えば棒状の検出対象物が検出された場合にはこれを飛行機の操縦桿という操作検出対象物に設定し、飛行機の操縦桿に対応する操作アルゴリズムを設定する。そして利用者が操縦桿を操作するように操作検出対象物を傾倒させる操作を行うと、操作検出対象物の傾倒量に応じて例えば飛行機オブジェクトの向きを変化させる画像を描画する。このように本発明によれば、操作検出対象物の3次元形状に応じて種々の操作入力を行うことができる入力インターフェースを実現することができる。   In the present invention, a plurality of operation algorithms are prepared according to the three-dimensional shape of the detection object. For example, when an annular detection object is detected, this is set as an operation detection object called a car handle. The operation algorithm corresponding to the steering wheel of the car is set. Then, when the user rotates the operation detection target so as to rotate the handle, an image for changing the direction of the car object, for example, is drawn according to the rotation amount of the operation detection target. For example, when a rod-shaped detection target is detected, this is set as an operation detection target called an airplane control stick, and an operation algorithm corresponding to the airplane control stick is set. When the user performs an operation of tilting the operation detection target so as to operate the control stick, for example, an image for changing the direction of the airplane object is drawn according to the tilt amount of the operation detection target. As described above, according to the present invention, it is possible to realize an input interface capable of performing various operation inputs according to the three-dimensional shape of the operation detection target.

(10)また本発明は、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
予め定められた3次元形状を規定する基準3次元形状情報を記憶する基準情報記憶部と、
前記基準3次元形状情報と前記検出3次元形状情報とを比較する比較部と、
前記比較部の比較結果に基づいて、所与のオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システムに関係する。
(10) The present invention also provides:
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
A reference information storage unit that stores reference three-dimensional shape information that defines a predetermined three-dimensional shape;
A comparison unit that compares the reference three-dimensional shape information with the detected three-dimensional shape information;
An object space setting unit that sets given object shape information in the three-dimensional object space based on a comparison result of the comparison unit;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
It is related with the image recognition system characterized by including.

また本発明は、前記各部としてコンピュータを機能させるプログラム及びプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program for causing a computer to function as each unit and an information storage medium storing the program.

本発明において「基準3次元形状情報」とは、形状情報を比較判定するための3次元形状情報でもよいし、オブジェクト空間に設定されるオブジェクト形状情報そのものでもよい。   In the present invention, the “reference three-dimensional shape information” may be three-dimensional shape information for comparing and determining shape information, or may be object shape information itself set in the object space.

本発明では、取得した検出3次元形状情報と基準3次元形状情報とを比較し、比較結果に基づいてオブジェクト形状情報を3次元オブジェクト空間に設定する。例えば利用者がテニスラケットの形状をした検出対象物を持っていれば、キャラクタオブジェクトがテニスラケットを持っている画像を描画する。ここで本発明によれば、例えば利用者がテニスラケットを検出部に対して利用者の体と重なる位置に構えていても、テニスラケットの形状を3次元的に解析し、利用者が持っているものを認識することができる。従って本発明によれば、検出対象物の配置状況に関わらず検出対象物の検出3次元形状情報を取得して、対応するオブジェクト形状情報を3次元オブジェクト空間に設定することができる。   In the present invention, the acquired detected three-dimensional shape information is compared with the reference three-dimensional shape information, and the object shape information is set in the three-dimensional object space based on the comparison result. For example, if the user has a detection target in the shape of a tennis racket, an image in which the character object has a tennis racket is drawn. Here, according to the present invention, for example, even if the user holds the tennis racket at a position overlapping the user's body with respect to the detection unit, the shape of the tennis racket is analyzed three-dimensionally and the user holds it. You can recognize what you are. Therefore, according to the present invention, it is possible to acquire the detected three-dimensional shape information of the detection target regardless of the arrangement state of the detection target and set the corresponding object shape information in the three-dimensional object space.

(11)また本発明に係る画像認識システムでは、
前記オブジェクト形状情報記憶部が、
複数種類のオブジェクト形状情報を記憶し、
前記オブジェクト空間設定部が、
前記比較部の比較結果に基づいて、前記複数種類のオブジェクト形状情報のうち前記検出3次元形状情報に対応する前記オブジェクト形状情報を前記3次元オブジェクト空間に設定するようにしてもよい。
(11) In the image recognition system according to the present invention,
The object shape information storage unit
Stores multiple types of object shape information,
The object space setting unit
Based on the comparison result of the comparison unit, the object shape information corresponding to the detected three-dimensional shape information among the plurality of types of object shape information may be set in the three-dimensional object space.

本発明によれば、例えば利用者が剣の形状をした検出対象物を持っていれば、キャラクタオブジェクトが剣アイテムを持っている画像を描画し、盾の形状をした検出対象物を持っていれば、キャラクタオブジェクトが盾アイテムを持っている画像を描画するようにすることができる。このように本発明によれば、検出対象物の3次元形状に応じて種々の3次元オブジェクトの画像を描画することができる。   According to the present invention, for example, if the user has a detection object in the shape of a sword, the character object can draw an image having a sword item and have the detection object in the shape of a shield. For example, an image in which a character object has a shield item can be drawn. As described above, according to the present invention, images of various three-dimensional objects can be drawn according to the three-dimensional shape of the detection target.

(12)また本発明に係る画像認識システムでは、
前記オブジェクト空間設定部が、
所与のイベントの発生に基づいて、前記3次元オブジェクト空間に設定するオブジェクト形状情報を変更するようにしてもよい。
(12) In the image recognition system according to the present invention,
The object space setting unit
The object shape information set in the three-dimensional object space may be changed based on the occurrence of a given event.

本発明によれば、例えば利用者が剣の形状をした検出対象物を持っており、キャラクタオブジェクトが剣アイテムを持っている画像を描画している場合に、所与のイベントの発生に基づいて剣アイテムが壊れるような画像を描画することができる。   According to the present invention, for example, when a user has a detection object in the shape of a sword and a character object is drawing an image having a sword item, based on the occurrence of a given event You can draw an image that breaks the sword item.

(13)また本発明は、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記検出対象物の3次元形状を規定する検出3次元位置情報を、前記反射波に基づいて取得する3次元情報取得部と、
前記取得された検出3次元形状情報に基づいて、所与のオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システムに関係する。
(13) The present invention also provides:
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional position information that defines a three-dimensional shape of the detection object based on the reflected wave;
An object space setting unit that sets given object shape information in the three-dimensional object space based on the acquired detected three-dimensional shape information;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
It is related with the image recognition system characterized by including.

また本発明は、前記各部としてコンピュータを機能させるプログラム及びプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program for causing a computer to function as each unit and an information storage medium storing the program.

本発明では、出力部が出力した出力波の反射波を検出部が検出し、検出した反射波に基づいて検出対象物の検出3次元形状情報を取得する。そして取得した検出3次元形状情報に基づいて、現実世界における検出対象物の形状や位置、向きの変化に応じて、所与のオブジェクトの形状や位置、向きが変化する画像を描画することができる。例えば検出部に向かって所与の物体を投げると、投げられた物体の移動とともに対応するオブジェクトが移動する(投げられる)画像を描画することができる。   In this invention, a detection part detects the reflected wave of the output wave which the output part output, and the detection three-dimensional shape information of a detection target object is acquired based on the detected reflected wave. Based on the acquired detected three-dimensional shape information, an image in which the shape, position, and orientation of a given object change according to changes in the shape, position, and orientation of the detection target in the real world can be drawn. . For example, when a given object is thrown toward the detection unit, an image in which the corresponding object moves (throws) with the movement of the thrown object can be drawn.

(14)また本発明に係る画像認識システムでは、
前記3次元オブジェクト空間に設定された前記オブジェクト形状情報と他のオブジェクト形状情報との前記3次元オブジェクト空間における重なりを判定する判定部を更に含むようにしてもよい。
(14) In the image recognition system according to the present invention,
You may make it further contain the determination part which determines the overlap in the said three-dimensional object space with the said object shape information set to the said three-dimensional object space, and other object shape information.

本発明によれば、利用者が持っている検出対象物や、利用者が投げた検出対象物に対応するオブジェクトと、その他のオブジェクトとのヒット判定を行うことにより、例えば、操作者が持つテニスラケットに対応するテニスラケットオブジェクトによりボールを打つテニスゲームを構成したり、操作者が投げた紙くずに対応する雪玉オブジェクトにより雪合戦を行う雪合戦ゲームを構成したりすることができる。   According to the present invention, for example, tennis that an operator has can be obtained by performing hit determination between an object corresponding to a detection target possessed by the user, an object corresponding to the detection target thrown by the user, and another object. A tennis game in which a ball is hit by a tennis racket object corresponding to the racket can be configured, or a snowball game in which a snowball battle is performed by a snowball object corresponding to a paper scrap thrown by the operator can be configured.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.システム概略
図1は、本実施形態の画像認識システムを適用したゲームシステム10の概略外観図である。本実施形態のゲームシステム10は、表示画面12に標的オブジェクトTOなどのゲーム画像を表示させる表示部14と、表示部14の上面に設置され表示部14の正面方向の検出対象物の3次元形状情報と3次元位置情報とを検出するための検出ユニット16と、検出対象物の3次元形状情報を用いて種々の処理を行うゲーム機18とを含む。検出ユニット16には、検出ユニット16の左端部に設置され、表示部14の正面方向(プレーヤPの方向)に向けて赤外光などの所定の波長の出力波を出力する出力部20と、検出ユニット16の右端部に設置され、出力波の反射波を検出する検出部22とが設けられている。特に本実施形態では、出力部20は赤外光を出力する赤外光LEDにより構成され、検出部22は赤外光イメージセンサにより構成されている。そして検出部22は、表示部14の正面方向から入射する赤外光(出力部20が出力した赤外光の反射光)を受光面において受光して、これを画像として取得する(撮像する)。
1. System Overview FIG. 1 is a schematic external view of a game system 10 to which the image recognition system of this embodiment is applied. The game system 10 according to the present embodiment includes a display unit 14 that displays a game image such as a target object TO on the display screen 12, and a three-dimensional shape of a detection target that is installed on the upper surface of the display unit 14 and in the front direction of the display unit 14. A detection unit 16 for detecting information and three-dimensional position information, and a game machine 18 that performs various processes using the three-dimensional shape information of the detection target are included. The detection unit 16 is installed at the left end of the detection unit 16, and outputs an output wave of a predetermined wavelength such as infrared light toward the front direction of the display unit 14 (the direction of the player P). A detection unit 22 that is installed at the right end of the detection unit 16 and detects a reflected wave of the output wave is provided. In particular, in the present embodiment, the output unit 20 is configured by an infrared LED that outputs infrared light, and the detection unit 22 is configured by an infrared light image sensor. The detection unit 22 receives infrared light incident from the front direction of the display unit 14 (reflected light of infrared light output from the output unit 20) on the light receiving surface, and acquires (captures) this as an image. .

更に検出ユニット16には、ASICや、MCUなどで構成される3次元情報取得部24が設けられている。3次元情報取得部24は、反射波を受光した検出部22の受光面における受光位置ごとの反射波の位相のずれなどに基づいて、プレーヤPなどの撮像対象物(検出対象物)の画像を、撮像対象物を含む撮像空間の3次元座標系情報(検出3次元形状情報、検出3次元位置情報)として取得する。そしてゲーム機18は、撮像対象物であるプレーヤPの3次元座標情報に基づいて、プレーヤPの姿勢や動きなどを認識して、対応する画像を表示画面12に表示させたり、音声を出力させる。またインターネットなどのネットワークを介して、他人のゲーム機18に3次元位置情報や3次元位置情報に基づく情報を送信して、他人の表示部14の表示画面12に自らに対応する画像を表示させる。   Further, the detection unit 16 is provided with a three-dimensional information acquisition unit 24 composed of an ASIC, MCU, or the like. The three-dimensional information acquisition unit 24 obtains an image of an imaging target (detection target) such as the player P based on a phase shift of the reflected wave at each light receiving position on the light receiving surface of the detection unit 22 that receives the reflected wave. And 3D coordinate system information (detected 3D shape information, detected 3D position information) of the imaging space including the imaging object. Then, the game machine 18 recognizes the posture and movement of the player P based on the three-dimensional coordinate information of the player P that is the imaging object, and displays a corresponding image on the display screen 12 or outputs a sound. . Also, the 3D position information and information based on the 3D position information are transmitted to the game machine 18 of the other person via a network such as the Internet, and an image corresponding to the user is displayed on the display screen 12 of the display unit 14 of the other person. .

なお本実施形態では検出部22の前面側に、赤外光に対応する波長帯の光(出力部20からの光と同様の波長の光)のみを透過させるフィルタを設け、検出部22が受光する光が所定の波長帯の光となるようにしている。なおフィルタを設けずに、赤外光(所定の波長の光)が含まれる所定範囲の波長帯の受光感度特性を有するイメージセンサを検出部22として用いるようにしてもよい。また、ゲーム機18に種々の操作入力を行うためのコントローラを接続するようにしてもよい。   In the present embodiment, a filter that transmits only light in a wavelength band corresponding to infrared light (light having the same wavelength as the light from the output unit 20) is provided on the front side of the detection unit 22, and the detection unit 22 receives light. The light to be emitted is light of a predetermined wavelength band. Note that an image sensor having a light receiving sensitivity characteristic in a predetermined wavelength band including infrared light (light having a predetermined wavelength) may be used as the detection unit 22 without providing a filter. Further, a controller for performing various operation inputs may be connected to the game machine 18.

2.本実施形態の手法
次に、本実施形態の検出ユニット16が、プレーヤPなどの撮像対象物の画像を3次元座標系情報(検出3次元形状情報、検出3次元位置情報)として取得する原理について説明する。本実施形態では3次元情報取得部24が、検出部22と撮像対象物であるプレーヤPとの相対的な位置関係を規定する情報として距離情報を取得する。
2. Next, the principle by which the detection unit 16 of the present embodiment acquires an image of an imaging target such as the player P as three-dimensional coordinate system information (detected three-dimensional shape information, detected three-dimensional position information). explain. In the present embodiment, the three-dimensional information acquisition unit 24 acquires distance information as information that defines the relative positional relationship between the detection unit 22 and the player P that is the imaging target.

図2は、表示部14と、表示部14の上面に配置された検出ユニット16と、撮像対象物であるプレーヤPとを真横から見た平面図である。図2に示すように本実施形態では、検出ユニット16の出力部20が、検出ユニット16の検出方向(表示部14の正面方向)に赤外光DLを出力すると、検出ユニット16の検出部22が、検出ユニット16の検出方向からの反射光RLを検出する。ここで反射光RLは、出力部20から出力された直接光の反射光であるが、検出部22からの距離が相対的に近いプレーヤPの右手RHで反射した反射光RL1と、相対的に遠いプレーヤPの頭部HDで反射した反射光RL2とでは、検出部22に到達したときに位相差が発生する。そこで本実施形態の検出部22は、検出部22の受光面において受光した反射光RLの位相差を、受光面に配列された受光素子(画素)ごとに検出する(撮像する)。そして3次元情報取得部24が、画素ごとの位相差に基づいて、検出部22の検出方向(撮像空間、画角θ内)に存在する撮像対象物と検出部22との距離情報を、画素ごとに取得する。   FIG. 2 is a plan view of the display unit 14, the detection unit 16 disposed on the upper surface of the display unit 14, and the player P, which is an imaging target, as seen from the side. As shown in FIG. 2, in the present embodiment, when the output unit 20 of the detection unit 16 outputs infrared light DL in the detection direction of the detection unit 16 (the front direction of the display unit 14), the detection unit 22 of the detection unit 16. However, the reflected light RL from the detection direction of the detection unit 16 is detected. Here, the reflected light RL is the reflected light of the direct light output from the output unit 20, but is relatively different from the reflected light RL1 reflected by the right hand RH of the player P whose distance from the detection unit 22 is relatively short. A phase difference occurs between the reflected light RL <b> 2 reflected by the head HD of the far player P and reaching the detection unit 22. Therefore, the detection unit 22 of the present embodiment detects (images) the phase difference of the reflected light RL received on the light receiving surface of the detection unit 22 for each light receiving element (pixel) arranged on the light receiving surface. Then, based on the phase difference for each pixel, the three-dimensional information acquisition unit 24 calculates the distance information between the imaging object and the detection unit 22 existing in the detection direction (imaging space, in the angle of view θ) of the detection unit 22 as a pixel. Get every.

図3は、3次元情報取得部24が取得した画素ごとの距離情報を説明するための図である。本実施形態の検出部22では、矩形の受光面上に受光素子がマトリクス状に配列されているため、3次元情報取得部24は、図3に示す矩形の撮像領域PAにマトリクス状に配列される画素ごとに、撮像対象物PO(プレーヤP)と検出部22との距離情報を取得する。従って図3に示すように、プレーヤPの右手RHに対応する画素と、頭部HDに対応する画素と、体BDに対応する画素と、左手LHに対応する画素と、背景となる壁WLに対応する画素と、床面GSに対応する画素とについて、画素ごとに検出部22からの距離情報が格納される。   FIG. 3 is a diagram for explaining distance information for each pixel acquired by the three-dimensional information acquisition unit 24. In the detection unit 22 of the present embodiment, since the light receiving elements are arranged in a matrix on the rectangular light receiving surface, the three-dimensional information acquisition unit 24 is arranged in a matrix in the rectangular imaging area PA shown in FIG. The distance information between the imaging object PO (player P) and the detection unit 22 is acquired for each pixel. Therefore, as shown in FIG. 3, the pixel corresponding to the right hand RH of the player P, the pixel corresponding to the head HD, the pixel corresponding to the body BD, the pixel corresponding to the left hand LH, and the background wall WL For the corresponding pixel and the pixel corresponding to the floor GS, distance information from the detection unit 22 is stored for each pixel.

図4は、検出部22の撮像空間PS(画角θ内)における3次元座標系情報を説明するための図である。本実施形態の3次元情報取得部24では、図4に示すように、検出部22の受光面の重心位置WPを原点Oとし、受光面の法線NをZ軸とした3次元座標系において、撮像空間PS内にある撮像対象物POの受光面から見える面の3次元座標情報を取得している。即ち、検出部22から見える撮像対象物POの表面(検出した反射波が反射した面)に対応する画素ごとの3次元座標値群をメモリ領域に格納する。こうして本実施形態の検出ユニット16では、撮像空間PSの3次元座標系において、撮像対象物POの3次元形状を規定する3次元形状情報と、撮像対象物POの3次元位置を規定する3次元位置情報とを取得することができる。   FIG. 4 is a diagram for explaining the three-dimensional coordinate system information in the imaging space PS (within the angle of view θ) of the detection unit 22. In the three-dimensional information acquisition unit 24 of the present embodiment, as shown in FIG. 4, in the three-dimensional coordinate system in which the center of gravity WP of the light receiving surface of the detection unit 22 is the origin O and the normal N of the light receiving surface is the Z axis. The three-dimensional coordinate information of the surface seen from the light receiving surface of the imaging object PO in the imaging space PS is acquired. That is, a three-dimensional coordinate value group for each pixel corresponding to the surface of the imaging object PO that can be seen from the detection unit 22 (the surface on which the detected reflected wave is reflected) is stored in the memory area. Thus, in the detection unit 16 of the present embodiment, in the three-dimensional coordinate system of the imaging space PS, three-dimensional shape information that defines the three-dimensional shape of the imaging object PO and three-dimensional that defines the three-dimensional position of the imaging object PO. Position information can be acquired.

これにより本実施形態によれば、例えば手話などのように、検出部22に対してプレーヤPの体と重なる位置にある手により形成されている形状をも3次元的に解析し、例えば手の形状に応じたコマンド信号を出力することができる。こうして本実施形態によれば、例えば手話における手の形状を画像認識システム10に認識させることができ、例えば手の形状に応じたコマンド信号に対応する文字情報や音声情報を出力して、手話を翻訳するように構成することもできる。   Thus, according to the present embodiment, the shape formed by the hand at the position overlapping the body of the player P with respect to the detection unit 22 as in, for example, sign language is also analyzed three-dimensionally. A command signal corresponding to the shape can be output. Thus, according to the present embodiment, for example, the hand shape in sign language can be recognized by the image recognition system 10. For example, character information or voice information corresponding to a command signal corresponding to the hand shape is output to It can also be configured to translate.

なお本実施形態では1/30秒ごとに(1/30秒を1フレームとして)、検出部22が反射光RLを受光し(リフレッシュし)、3次元情報取得部24が撮像領域SAの3次元情報を更新する。   In the present embodiment, the detection unit 22 receives (refreshes) the reflected light RL every 1/30 seconds (with 1/30 seconds as one frame), and the three-dimensional information acquisition unit 24 performs the three-dimensional imaging region SA. Update information.

3.機能ブロック
次に、図7を用いて本実施形態における指示位置演算システム(ゲームシステム)の構成について説明する。図7は、本実施形態における指示位置演算システムの機能ブロック図の一例である。なお、本実施形態の指示位置演算システムは、図7の構成要素(各部)の一部を省略した構成としてもよい。
3. Functional Block Next, the configuration of the indicated position calculation system (game system) in the present embodiment will be described with reference to FIG. FIG. 7 is an example of a functional block diagram of the indicated position calculation system in the present embodiment. Note that the pointing position calculation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 7 are omitted.

検出ユニット16は、出力部20、検出部22、3次元情報取得部24を含む。   The detection unit 16 includes an output unit 20, a detection unit 22, and a three-dimensional information acquisition unit 24.

出力部20は、検出ユニット16の検出方向に所定の出力波を出力する。具体的には赤外光LEDなどの発光部や、超音波発生部など、所定波長の出力波を出力するデバイスにより実現できる。   The output unit 20 outputs a predetermined output wave in the detection direction of the detection unit 16. Specifically, it can be realized by a device that outputs an output wave having a predetermined wavelength, such as a light emitting unit such as an infrared LED or an ultrasonic wave generating unit.

検出部22は、出力部20と所定の位置関係を有し、出力部20が出力した出力波の反射波を検出する。具体的には赤外光イメージセンサなどの所定波長の反射波を検出するデバイスにより実現できる。   The detection unit 22 has a predetermined positional relationship with the output unit 20 and detects a reflected wave of the output wave output by the output unit 20. Specifically, it can be realized by a device that detects a reflected wave having a predetermined wavelength, such as an infrared image sensor.

3次元情報取得部24は、各種プロセッサ(CPU、MPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現でき、出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する。また3次元情報取得部24は、検出対象物の3次元位置を規定する検出3次元位置情報を、反射波に基づいて取得する。また3次元情報取得部24は、検出対象物の3次元形状の所定期間における変化を規定する検出3次元動作情報を、反射波に基づいて取得する。なお3次元情報取得部24を検出ユニット16に設けずに、処理部100の機能として実現するようにしてもよい。   The three-dimensional information acquisition unit 24 can be realized by hardware such as various processors (CPU, MPU, DSP, etc.), ASIC (gate array, etc.), and a program, and defines the three-dimensional shape of the detection object reflected by the output wave. The detected three-dimensional shape information is acquired based on the reflected wave. The three-dimensional information acquisition unit 24 acquires detection three-dimensional position information that defines the three-dimensional position of the detection target based on the reflected wave. The three-dimensional information acquisition unit 24 acquires detection three-dimensional motion information that defines a change in the three-dimensional shape of the detection target object for a predetermined period based on the reflected wave. The three-dimensional information acquisition unit 24 may be realized as a function of the processing unit 100 without being provided in the detection unit 16.

操作部24は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 24 is used by the player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, or a housing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、最終的な表示画像等が記憶される描画バッファ172と、複数種類のオブジェクトのモデルデータ(3次元オブジェクトの形状を規定するオブジェクト形状情報)が記憶されるオブジェクトデータ記憶部173と、オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部174と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ175と、を含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 according to the present embodiment includes a main storage unit 171 used as a work area, a drawing buffer 172 that stores final display images and the like, and model data of a plurality of types of objects (three-dimensional object data). Object data storage unit 173 storing object shape information defining the shape), texture storage unit 174 storing texture for object data, and Z buffer 175 storing Z values during object image generation processing And including. Note that some of these may be omitted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

この情報記憶媒体180には、処理部100において本実施形態の種々の処理を行うためのプログラム(データ)が記憶されている。即ち、この情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。   The information storage medium 180 stores a program (data) for the processing unit 100 to perform various processes of the present embodiment. That is, the information recording medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部14は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイなどにより実現できる。   The display unit 14 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194には、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, It can be realized by a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、指示体16からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ、ASICなどのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data from the indicator 16, a program, and the like. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result calculation. Or a process for ending the game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by various processors, hardware such as an ASIC, and programs.

特に、本実施形態の処理部100は、比較部101、コマンド信号出力部102、出力制御部103、操作検出対象物設定部104、操作アルゴリズム設定部105、操作信号出力部106、オブジェクト生成部107、オブジェクト空間設定部108、移動・動作処理部109、判定部110、テクスチャマッピング部111、描画処理部120、音生成部130、通信制御部140を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 100 of this embodiment includes a comparison unit 101, a command signal output unit 102, an output control unit 103, an operation detection target setting unit 104, an operation algorithm setting unit 105, an operation signal output unit 106, and an object generation unit 107. , Object space setting unit 108, movement / motion processing unit 109, determination unit 110, texture mapping unit 111, drawing processing unit 120, sound generation unit 130, and communication control unit 140. Note that some of these may be omitted.

比較部101は、基準情報記憶部176に予め記憶された3次元形状を規定する基準3次元形状情報(比較用形状情報、テンプレート情報、オブジェクト形状情報)と、検出部22が検出した検出対象の検出3次元形状情報とを比較する。具体的には、プレーヤがとるヨガのポーズや手話の手の形状などのプレーヤの姿勢や形状、ゲーム内で用いることができる剣や盾などのアイテム、テニスラケットや野球バットなどの操作対象、車のハンドルや飛行機の操縦桿などの操作検出対象などに対応するバウンディングボリュームなどを基準情報記憶部176に記憶させておき、検出3次元形状情報がいずれのバウンディングボリュームと一致するか否かを判定する。   The comparison unit 101 includes reference three-dimensional shape information (comparison shape information, template information, and object shape information) that prescribes a three-dimensional shape stored in advance in the reference information storage unit 176, and the detection target detected by the detection unit 22. The detected three-dimensional shape information is compared. Specifically, the player's posture and shape, such as the yoga pose and sign language hand shape that the player takes, items such as swords and shields that can be used in the game, operational objects such as tennis rackets and baseball bats, vehicles A bounding volume corresponding to an operation detection target such as a steering wheel or a control stick of an airplane is stored in the reference information storage unit 176 to determine which bounding volume the detected three-dimensional shape information matches. .

また比較部101は、予め基準情報記憶部176に記憶された所定の3次元形状の所定期間における変化を規定する基準3次元動作情報と、検出部22が検出した検出対象物の3次元形状の所定期間における変化を規定する検出3次元動作情報とを比較する。具体的には、例えばお辞儀をする動作や物を投げる動作などプレーヤの動作に対応するアニメーションなどを基準情報記憶部176に記憶させておき、検出3次元動作情報がいずれのアニメーションと一致するか否かを判定する。   The comparison unit 101 also includes reference three-dimensional motion information that preliminarily stores changes in a predetermined three-dimensional shape stored in the reference information storage unit 176 and a three-dimensional shape of the detection target detected by the detection unit 22. The detected three-dimensional motion information that defines a change in a predetermined period is compared. Specifically, for example, an animation corresponding to a player's action such as a bowing action or an object throwing action is stored in the reference information storage unit 176, and whether or not the detected three-dimensional action information matches any animation. Determine whether.

コマンド信号出力部102は、比較部101の比較結果に基づいて、対応するコマンド信号を出力する。具体的にはコマンド信号出力部102は、例えば手話における手の形状に応じたコマンド信号を出力したり、プレーヤの姿勢に応じた評価を行うコマンド信号を出力する。   The command signal output unit 102 outputs a corresponding command signal based on the comparison result of the comparison unit 101. Specifically, the command signal output unit 102 outputs, for example, a command signal corresponding to the shape of the hand in sign language, or a command signal for performing evaluation according to the posture of the player.

出力制御部103は、出力されたコマンド信号に基づいて、コマンド信号に対応する画像情報、音情報を記憶する出力情報記憶部177を参照し、対応する画像情報、音情報の少なくとも一方を出力させる。具体的には、手話における手の形状に対応する文字情報や音声情報を出力し手話を翻訳したり、プレーヤの姿勢に対する評価を行う文字情報や音声情報を出力する。   Based on the output command signal, the output control unit 103 refers to the output information storage unit 177 that stores image information and sound information corresponding to the command signal, and outputs at least one of the corresponding image information and sound information. . Specifically, character information and voice information corresponding to the shape of the hand in the sign language are output, the sign language is translated, and character information and voice information for evaluating the posture of the player are output.

また出力制御部103は、表示制御処理として、表示部14に表示出力される表示物(オブジェクト)の表示制御を行う。具体的には、表示物(ゲームキャラクタ、背景、標的、車、ボール、アイテム、建物、樹木、柱、壁、マップ)を発生させたり、表示物の表示位置を指示したり、表示物を消滅させたりするなどの表示制御を行う。即ち発生した表示物を表示物リストに登録したり、表示物リストを描画処理部120等に転送したり、消滅した表示物を表示物リストから削除したりするなどの表示制御を行う。   The output control unit 103 performs display control of a display object (object) displayed and output on the display unit 14 as display control processing. Specifically, a display object (game character, background, target, car, ball, item, building, tree, pillar, wall, map) is generated, the display position of the display object is indicated, or the display object disappears. Display control such as That is, display control is performed such as registering the generated display object in the display object list, transferring the display object list to the drawing processing unit 120, and deleting the disappeared display object from the display object list.

操作検出対象物設定部104は、比較部101の比較結果に基づいて、検出3次元形状情報に対応する検出対象物を操作検出対象物として設定する。具体的には操作検出対象物設定部104は、検出対象物が予め定められた車のハンドルや飛行機の操縦桿などの3次元形状を有するものであれば、検出対象物を操作検出対象物として設定する。   The operation detection target setting unit 104 sets a detection target corresponding to the detected three-dimensional shape information as an operation detection target based on the comparison result of the comparison unit 101. Specifically, the operation detection target setting unit 104 sets the detection target as the operation detection target if the detection target has a predetermined three-dimensional shape such as a car handle or an airplane control stick. Set.

操作アルゴリズム設定部105は、比較部101の比較結果に基づいて、検出3次元形状情報に対応する基準3次元形状情報に応じた操作アルゴリズムを設定する。具体的には操作アルゴリズム設定部105は、基準情報記憶部176に記憶された複数の基準3次元形状情報(オブジェクト形状情報)の各基準3次元形状情報に対応する操作アルゴリズムを記憶する操作アルゴリズム記憶部178を参照し、例えば円環状の検出対象物が検出された場合にはこれを車のハンドルとして扱って、車のハンドルに対応する操作アルゴリズムを設定する。また例えば棒状の検出対象物が検出された場合にはこれを飛行機の操縦桿として扱って、飛行機の操縦桿に対応する操作アルゴリズムを設定する。   The operation algorithm setting unit 105 sets an operation algorithm according to the reference three-dimensional shape information corresponding to the detected three-dimensional shape information based on the comparison result of the comparison unit 101. Specifically, the operation algorithm setting unit 105 stores an operation algorithm storage that stores an operation algorithm corresponding to each reference 3D shape information of a plurality of reference 3D shape information (object shape information) stored in the reference information storage unit 176. With reference to the unit 178, for example, when an annular detection object is detected, this is handled as a car handle, and an operation algorithm corresponding to the car handle is set. For example, when a rod-shaped detection target is detected, this is handled as an airplane control stick, and an operation algorithm corresponding to the airplane control stick is set.

操作信号出力部106は、設定された操作検出対象物について取得された検出3次元形状情報及び前記検出3次元位置情報の少なくとも一方の変化に基づいて、設定された操作アルゴリズムに応じた操作信号を出力する。具体的には操作信号出力部106は、車のハンドルに対応する操作アルゴリズムが設定されている場合には、プレーヤがハンドルを回転させるように操作検出対象物を回転させると、操作検出対象物の回転量に応じて例えば車オブジェクトの向きを変化させる操作信号を出力する。また例えば、飛行機の操縦桿に対応する操作アルゴリズムが設定されている場合には、プレーヤが操縦桿を操作するように操作検出対象物を傾倒させる操作を行うと、操作検出対象物の傾倒量に応じて例えば飛行機オブジェクトの向きを変化させる操作信号を出力する。   The operation signal output unit 106 outputs an operation signal corresponding to the set operation algorithm based on at least one change in the detected three-dimensional shape information and the detected three-dimensional position information acquired for the set operation detection target. Output. Specifically, when the operation algorithm corresponding to the steering wheel of the car is set, the operation signal output unit 106 rotates the operation detection object so that the player rotates the steering wheel. For example, an operation signal for changing the direction of the car object according to the amount of rotation is output. Further, for example, when an operation algorithm corresponding to the control stick of an airplane is set, if the player performs an operation of tilting the operation detection target so as to operate the control stick, the tilt amount of the operation detection target is set. In response, for example, an operation signal for changing the direction of the airplane object is output.

オブジェクト生成部107は、所与の3次元オブジェクト空間に設定される3次元オブジェクトの形状を規定するオブジェクト形状情報を、検出3次元形状情報に基づいて生成する。具体的にはオブジェクト生成部107は、自らを検出対象物として自らに対応するキャラクタオブジェクトを生成したり、身の回りにある種々のものにより種々のオブジェクトを生成する。また背景としての部屋などもそのままオブジェクトとして生成することができる。   The object generation unit 107 generates object shape information that defines the shape of a three-dimensional object set in a given three-dimensional object space based on the detected three-dimensional shape information. Specifically, the object generation unit 107 generates a character object corresponding to itself as a detection target, or generates various objects using various objects around us. A room as a background can also be generated as an object as it is.

またオブジェクト形状情報選択部1071を採用し、検出3次元形状情報に対応するオブジェクト形状情報を、オブジェクトデータ記憶部173に記憶された複数種類のオブジェクトデータから検出3次元形状情報に応じたオブジェクトデータを選択するようにしてもよい。この場合にはオブジェクト形状情報補正部1072を更に採用し、オブジェクト形状情報選択部に選択されたオブジェクト形状情報を、検出3次元形状情報に基づいて補正するようにしてもよい。   Further, the object shape information selection unit 1071 is adopted, and object shape information corresponding to the detected three-dimensional shape information is obtained from object data corresponding to the detected three-dimensional shape information from a plurality of types of object data stored in the object data storage unit 173. You may make it select. In this case, the object shape information correction unit 1072 may be further employed to correct the object shape information selected by the object shape information selection unit based on the detected three-dimensional shape information.

オブジェクト空間設定部108は、本実施形態で生成したキャラクタオブジェクト等の移動体オブジェクト、予め記憶させてあるキャラクタオブジェクト、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ち、オブジェクト空間設定部108は、ワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 108 includes various objects (such as character objects generated in the present embodiment, character objects stored in advance, buildings, trees, pillars, walls, maps (terrain) and other display objects ( A process of placing and setting objects (objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces) in the object space is performed. That is, the object space setting unit 108 determines the position and rotation angle (synonymous with direction and direction) of the object (model object) in the world coordinate system, and sets the rotation angle (X, Y, Z) to the position (X, Y, Z). , Rotation angle around Y, Z axis).

特に本実施形態ではオブジェクト空間設定部108は、所与のイベントの発生に基づいて、前記3次元オブジェクト空間に設定するオブジェクト形状情報を変更するようにしてもよい。例えば利用者が剣の形状をした検出対象物を持っており、キャラクタオブジェクトが剣アイテムを持っている画像を描画している場合に、所与のイベントの発生に基づいて剣アイテムが壊れるような画像を描画することができる。このとき、壊れていない状態の剣アイテムのオブジェクトデータと壊れている状態のオブジェクトデータとを用意しておき、イベントの発生に基づいて、オブジェクト空間に設定するオブジェクトデータを変更するようにしてもよいし、剣アイテムのオブジェクトデータのうちダメージを受けた部位に応じた破壊シミュレーションを行うようにしてもよい。   In particular, in the present embodiment, the object space setting unit 108 may change the object shape information set in the three-dimensional object space based on the occurrence of a given event. For example, when a user has a sword-shaped detection target and a character object is drawing an image with a sword item, the sword item will break based on the occurrence of a given event. An image can be drawn. At this time, the object data of the sword item that is not broken and the object data that is broken may be prepared, and the object data set in the object space may be changed based on the occurrence of an event. Then, a destruction simulation may be performed according to the damaged part of the object data of the sword item.

移動・動作処理部109は、操作信号に基づいて、所与のオブジェクトの移動及び動作の少なくとも一方の制御を行う。詳細には移動・動作処理部109は、移動体オブジェクト(キャラクタの他、キャラクタが使用する道具等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち、この移動・動作処理部109は、検出部22が検出した検出3次元情報に対応する操作信号、操作部からの操作信号、設定されたパラメータや属性又はプログラム(移動・動作アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement / motion processing unit 109 controls at least one of movement and motion of a given object based on the operation signal. Specifically, the movement / motion processing unit 109 performs a movement / motion calculation (movement / motion simulation) of a moving object (a character or a tool used by the character). That is, the movement / motion processing unit 109 is configured such that an operation signal corresponding to the detected three-dimensional information detected by the detection unit 22, an operation signal from the operation unit, a set parameter or attribute, a program (movement / motion algorithm), various types Based on data (motion data) or the like, the mobile object is moved in the object space, or a process for controlling the motion (motion, animation) of the mobile object is performed.

具体的には、本実施形態の移動・動作処理部109は、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは毎フレーム固定としてもよいし、処理負荷に応じて可変としてもよい。   Specifically, the movement / motion processing unit 109 according to the present embodiment stores object movement information (position, rotation angle, speed, or acceleration) and movement information (position or rotation angle of each part object) for one frame. A simulation process is sequentially obtained every (for example, 1/60 seconds). Here, the frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In this embodiment, the frame rate may be fixed every frame or may be variable according to the processing load.

判定部110は、3次元オブジェクト空間に設定されたオブジェクト形状情報と他のオブジェクト形状情報との3次元オブジェクト空間における重なりを判定する。   The determination unit 110 determines an overlap in the three-dimensional object space between the object shape information set in the three-dimensional object space and other object shape information.

描画部120は、処理部70で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、本実施形態の描画部120は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 70, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, the drawing unit 120 of the present embodiment firstly stores vertex data (vertex position coordinates, texture coordinates, color data, normal vector, or α value) of each vertex of the object (model). Etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。   In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色をフレームバッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。   In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the frame buffer 174 (buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部120が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing performed by the drawing unit 120 are performed by hardware that enables the polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして、描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部170に記憶する。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170.

テクスチャマッピングでは、記憶部170のテクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部174からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。特に本実施形態では、ポリゴンメッシュの表面の色が面集合ごとにテクスチャ空間に分布するテクスチャをマッピングする処理を行う。   In texture mapping, a process of mapping a texture (texel value) stored in the texture storage unit 174 of the storage unit 170 to an object is performed. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 174 of the storage unit 170 using the texture coordinates set (applied) to the vertex of the object. Map an image texture to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation. In particular, in the present embodiment, a process of mapping a texture in which the color of the surface of the polygon mesh is distributed in the texture space for each surface set is performed.

なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。   In the present embodiment, when an object is drawn, a process for mapping a given texture may be performed. In this case, the color distribution (texel pattern) of the texture to be mapped can be dynamically changed.

また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。   In this case, textures having different color distributions (pixel patterns) may be dynamically generated, or a plurality of textures having different color distributions are prepared in advance, and the texture to be used is dynamically switched. May be. The texture color distribution may be changed in units of objects.

特に本実施形態のテクスチャマッピング部121は、オブジェクト生成部107によって生成されたオブジェクト形状情報の一部に所与のテクスチャをマッピングして、前記オブジェクト形状情報を前記3次元オブジェクト空間に設定する。例えば自らに対応するオブジェクト形状情報を生成した場合に、他人の端末装置において自らに対応する3次元オブジェクト(キャラクタ)を表示させる際に、例えば顔の一部に対応する部分に所与のテクスチャをマッピングする。   In particular, the texture mapping unit 121 of the present embodiment maps a given texture to a part of the object shape information generated by the object generation unit 107, and sets the object shape information in the three-dimensional object space. For example, when object shape information corresponding to itself is generated, when a 3D object (character) corresponding to itself is displayed on another person's terminal device, for example, a given texture is applied to a part corresponding to a part of the face. Map.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.

αブレンディング(α合成)では、描画部120は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   In α blending (α synthesis), the rendering unit 120 performs translucent synthesis processing (normal α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

通信制御部140は、操作情報(要求)やプログラム等に基づき、いかなる情報をいずれの外部装置(サーバ、端末)との間で送受信するかなどの通信制御処理を行う。具体的には通信制御部140は、オブジェクト生成部107によって生成されたオブジェクト形状情報を外部装置との間で送受信する。例えば通信制御部140は、自分の端末装置において自らを検出対象物とした検出3次元形状情報を取得し、自らに対応するオブジェクト形状情報を生成し、これを他人の端末装置に送信したり、他人の端末装置において他人を検出対象物とした検出3次元形状情報に基づいて生成されたオブジェクト形状情報を受信する。   The communication control unit 140 performs communication control processing such as what information is transmitted to and received from which external device (server, terminal) based on operation information (request), a program, and the like. Specifically, the communication control unit 140 transmits / receives the object shape information generated by the object generation unit 107 to / from an external device. For example, the communication control unit 140 acquires the detected three-dimensional shape information of the terminal device itself as a detection target, generates object shape information corresponding to itself, and transmits this to other person's terminal device, The object shape information generated based on the detected three-dimensional shape information with the other person as the detection target in the other person's terminal device is received.

また通信制御部140は、出力されたコマンド信号を外部装置との間で送受信するようにしてもよい。これにより例えば自分の端末装置において手話の手の形状を検出対象物とした検出3次元形状情報を取得し、対応するコマンド信号を他人の端末装置に送信して、他人の端末装置において手話の手の形状に対応する文字情報や音声情報を出力するようにしてもよい。   Further, the communication control unit 140 may transmit / receive the output command signal to / from an external device. Thereby, for example, the detected three-dimensional shape information in which the shape of the sign language hand is detected in the terminal device of the user is acquired, the corresponding command signal is transmitted to the terminal device of the other person, and the hand of the sign language is transmitted to the terminal device of the other person. Character information and voice information corresponding to the shape may be output.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   In addition, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

4.本実施形態の処理
次に、本実施形態で行われる各種処理の流れを図面とフローチャートを用いて説明する。
4). Processing of this Embodiment Next, the flow of various processing performed in this embodiment will be described with reference to the drawings and flowcharts.

4−1.アバタキャラクタ制御処理
最初に、自分に対応するキャラクタを他人の端末に表示させながらメールやチャットなどのコミュニケーションを行ういわゆるアバタ(自分の分身)コミュニケーションを、本実施形態の画像認識システム10を用いて行う一例について説明する。本実施形態では、図6に示すように、プレーヤP1に対応する画像認識システム10−1と、プレーヤP2に対応する画像認識システム10−2とがインターネットINTを介して接続されている状態で、図7のフローチャートに示すアバタキャラクタ制御処理を行う。なお図6においてゲーム機18−1、18−2は、通信機能を有するPC(パーソナルコンピュータ)18−1、18−2により構成している。
4-1. Avatar Character Control Processing First, so-called avatar (self-portrait) communication is performed using the image recognition system 10 of the present embodiment, in which communication such as mail or chat is performed while displaying a character corresponding to the user on another person's terminal. An example will be described. In the present embodiment, as shown in FIG. 6, with the image recognition system 10-1 corresponding to the player P1 and the image recognition system 10-2 corresponding to the player P2 connected via the Internet INT, The avatar character control process shown in the flowchart of FIG. 7 is performed. In FIG. 6, the game machines 18-1 and 18-2 are constituted by PCs (personal computers) 18-1 and 18-2 having a communication function.

図7に示すように本実施形態では、画像認識システム10−1の検出ユニット16−1により、プレーヤP1を検出対象とする検出3次元形状情報を取得するとともに、画像認識システム10−2の検出ユニット16−2により、プレーヤP2を検出対象とする検出3次元形状情報を取得する(ステップS20)。すると画像認識システム10−1のPC18−1により、プレーヤP1を検出対象とする検出3次元形状情報に基づいて、プレーヤP1に対応するアバタキャラクタのオブジェクト形状情報を生成するとともに、画像認識システム10−2のPC18−2により、プレーヤP2を検出対象とする検出3次元形状情報に基づいて、プレーヤP2に対応するアバタキャラクタのオブジェクト形状情報を生成する(ステップS22)。   As shown in FIG. 7, in the present embodiment, the detection unit 16-1 of the image recognition system 10-1 acquires detection three-dimensional shape information for the player P1 as a detection target, and also detects the image recognition system 10-2. The unit 16-2 acquires detected three-dimensional shape information for the player P2 as a detection target (step S20). Then, the PC 18-1 of the image recognition system 10-1 generates object shape information of the avatar character corresponding to the player P1 based on the detected three-dimensional shape information for the player P1, and the image recognition system 10- The PC 18-2 of No. 2 generates object shape information of the avatar character corresponding to the player P2 based on the detected three-dimensional shape information targeting the player P2 (step S22).

すると、PC18−1、PC18−2により、それぞれで生成したアバタキャラクタAC1、AC2のオブジェクト形状情報を互いに送受信し(ステップS24、ステップS26)、他の画像認識システムにおいて生成されたオブジェクト形状情報をオブジェクト空間に設定する(ステップS28)。そしてプレーヤP1、プレーヤP2がそれぞれ自らに対応するアバタキャラクタAC1、AC2について予め設定したテクスチャをアバタキャラクタAC1、AC2の顔の一部にマッピングする(ステップS30)。例えばアニメキャラクタの目や口などのテクスチャを、アバタキャラクタAC1、AC2の目や口に対応する位置にマッピングする。そしてかかるアバタキャラクタAC1、AC2のオブジェクト形状情報が設定されたオブジェクト空間を描画する(ステップS32)。   Then, the object shape information of the avatar characters AC1 and AC2 generated by the PC 18-1 and PC 18-2 is transmitted and received to each other (step S24 and step S26), and the object shape information generated in another image recognition system is used as the object. A space is set (step S28). Then, the player P1 and the player P2 map textures set in advance for the avatar characters AC1 and AC2 corresponding to the players P1 and P2, respectively, to a part of the faces of the avatar characters AC1 and AC2 (step S30). For example, textures such as the eyes and mouth of the animation character are mapped to positions corresponding to the eyes and mouth of the avatar characters AC1 and AC2. Then, the object space in which the object shape information of the avatar characters AC1 and AC2 is set is drawn (step S32).

こうして本実施形態によれば、図6に示すように、画像認識システム10−1の表示部14−1には、プレーヤP2を検出対象物として取得した検出3次元形状情報に基づいて生成されたアバタキャラクタAC2を表示させ、画像認識システム10−2の表示部14−2には、プレーヤP1を検出対象物として取得した検出3次元形状情報に基づいて生成されたアバタキャラクタAC1を表示させていわゆるアバタコミュニケーションを行うことができる。   Thus, according to the present embodiment, as shown in FIG. 6, the display unit 14-1 of the image recognition system 10-1 is generated based on the detected three-dimensional shape information acquired by using the player P2 as a detection target. The avatar character AC2 is displayed, and the avatar character AC1 generated based on the detected three-dimensional shape information acquired by using the player P1 as the detection target is displayed on the display unit 14-2 of the image recognition system 10-2. Can conduct avatar communication.

4−2.コマンド出力処理
次に本実施形態の画像認識システム10を用いて、取得した検出3次元形状情報と基準3次元形状情報とを比較し、比較結果に基づいて対応するコマンド信号を出力する処理を行う一例について説明する。本実施形態では、図8に示すように、検出ユニット16の前で手話を行い、手話の手の形状に対応する文字情報を表示部14に表示させている。
4-2. Command Output Processing Next, using the image recognition system 10 of the present embodiment, the acquired detected three-dimensional shape information is compared with the reference three-dimensional shape information, and processing for outputting a corresponding command signal based on the comparison result is performed. An example will be described. In the present embodiment, as shown in FIG. 8, sign language is performed in front of the detection unit 16, and character information corresponding to the hand shape of the sign language is displayed on the display unit 14.

図9のフローチャートに示すように本実施形態では、まず、検出ユニット16によりプレーヤを検出対象とする検出3次元形状情報を取得する(ステップS40)。すると、記憶部に記憶された手話の手の形状を規定する基準3次元形状情報と、取得された検出3次元形状情報とを比較する(ステップS42)。ここで取得された検出3次元形状情報には、プレーヤの右手RHの形状に対応する3次元形状情報の他、プレーヤのその他の部位に対応する3次元形状情報や、背景の3次元形状情報なども含まれる。しかも手話は手を体の前に位置させて行われる場合が多く、手が検出部に対して利用者の体と重なる位置にある場合が多い。しかし本実施形態によれば、検出ユニット16の撮像空間の3次元座標系において、手話を構成する手の3次元形状情報を取得することができるので、手話を構成する手のみを抽出してこれを基準3次元形状情報と比較することができる。即ち本実施形態によれば、検出ユニット16に対して重なり合う位置にある検出対象物も3次元的に形状を解析することにより、検出対象物から素早くしかも正確に所望の情報を抽出することができる。   As shown in the flowchart of FIG. 9, in the present embodiment, first, the detection unit 16 acquires detected three-dimensional shape information for the player as a detection target (step S40). Then, the reference three-dimensional shape information defining the shape of the sign language hand stored in the storage unit is compared with the acquired detected three-dimensional shape information (step S42). The detected 3D shape information acquired here includes 3D shape information corresponding to the shape of the right hand RH of the player, 3D shape information corresponding to other parts of the player, 3D shape information of the background, and the like. Is also included. In addition, sign language is often performed with the hand positioned in front of the body, and the hand is often in a position overlapping the user's body with respect to the detection unit. However, according to this embodiment, in the three-dimensional coordinate system of the imaging space of the detection unit 16, the three-dimensional shape information of the hands constituting the sign language can be acquired. Can be compared with the reference three-dimensional shape information. That is, according to the present embodiment, desired information can be extracted quickly and accurately from the detection target by analyzing the shape of the detection target at the position overlapping with the detection unit 16 three-dimensionally. .

そして比較の結果、一致する基準3次元形状情報が有る場合には(ステップS44のY)、対応するコマンド信号を出力し(ステップS46)、コマンド信号に基づいて画像出力する(ステップS48)。例えば図8に示すように、プレーヤPが右手RHで人差し指を立てると、かかる右手RHの形状を抽出して基準3次元形状情報と比較判定し、「一番」という文字を表示部14に表示させるコマンド信号を出力する。   As a result of the comparison, if there is matching reference three-dimensional shape information (Y in step S44), a corresponding command signal is output (step S46), and an image is output based on the command signal (step S48). For example, as shown in FIG. 8, when the player P raises the index finger with the right hand RH, the shape of the right hand RH is extracted and compared with the reference three-dimensional shape information, and the character “most” is displayed on the display unit 14. Command signal to be output.

4−3.操作入力処理
次に本実施形態の画像認識システム10を用いて、検出対象物が予め定められた3次元形状を有するものであれば、検出対象物を操作検出対象物として設定し、プレーヤが操作検出対象物を操作して検出対象物の形状や位置が変化すると、これを操作入力として検出し、対応する操作信号を出力する処理を行う一例について説明する。図10(A)は、円環状の操作体RMを車のハンドルとして設定し、検出ユニット16に向かう方向を回転軸として円環状の操作体RMを回転させることにより、対応する操作信号を出力する例であり、図10(B)は、棒状の操作体BMを飛行機の操縦桿として設定し、検出ユニット16に対して棒状の操作体BMを前後左右に傾倒させることにより、対応する操作信号を出力する例である。
4-3. Operation Input Processing Next, using the image recognition system 10 of the present embodiment, if the detection target has a predetermined three-dimensional shape, the detection target is set as the operation detection target, and the player operates A description will be given of an example in which when a detection object is manipulated and the shape or position of the detection object changes, this is detected as an operation input and a corresponding operation signal is output. In FIG. 10A, an annular operation body RM is set as a steering wheel of a car, and a corresponding operation signal is output by rotating the annular operation body RM about the direction toward the detection unit 16 as a rotation axis. FIG. 10B is an example, and the rod-like operation body BM is set as an airplane control stick, and the corresponding operation signal is obtained by tilting the rod-like operation body BM forward, backward, left and right with respect to the detection unit 16. This is an example of output.

図11のフローチャートに示すように本実施形態では、ゲームを実行する前に、まず操作検出対象を設定するための設定モードを実行する(ステップS60)。そして検出ユニット16により、プレーヤが操作する操作体を検出対象とする検出3次元形状情報を取得する(ステップS62)。すると、記憶部に記憶された操作体の形状を規定する基準3次元形状情報と、取得された検出3次元形状情報とを比較する(ステップS64)。ここで取得された検出3次元形状情報には、操作体の形状に対応する3次元形状情報の他、プレーヤに対応する3次元形状情報や、背景の3次元形状情報なども含まれるが、上述の通り本実施形態によれば、検出ユニット16の撮像空間の3次元座標系において、操作体の3次元形状情報を取得して、操作体のみを抽出してこれを基準3次元形状情報と比較する。   As shown in the flowchart of FIG. 11, in the present embodiment, before executing the game, first, a setting mode for setting an operation detection target is executed (step S60). Then, the detection unit 16 obtains detected three-dimensional shape information whose detection target is the operating body operated by the player (step S62). Then, the reference three-dimensional shape information that defines the shape of the operating tool stored in the storage unit is compared with the acquired detected three-dimensional shape information (step S64). The detected 3D shape information acquired here includes 3D shape information corresponding to the shape of the operating body, 3D shape information corresponding to the player, 3D shape information of the background, and the like. As described above, according to the present embodiment, in the three-dimensional coordinate system of the imaging space of the detection unit 16, the three-dimensional shape information of the operating body is acquired, and only the operating body is extracted and compared with the reference three-dimensional shape information. To do.

そして比較の結果、一致する基準3次元形状情報が有る場合には(ステップS66のY)、検出3次元形状情報に対応する検出対象物を操作検出対象物として設定する(ステップS68)。例えば図10(A)の場合には、円環状の操作体RMが車のハンドルの基準3次元形状情報と一致するので、円環状の操作体RMを車のハンドルとして設定し、図10(B)の場合には、棒状の操作体BMが飛行機の操縦桿の基準3次元形状情報と一致するので、棒状の操作体BMを飛行機の操縦桿として設定する。そして設定された操作検出対象物の種類に応じた操作アルゴリズムを設定する(ステップS69)。例えば図10(A)の場合には、検出ユニット16に向かう方向を回転軸としてプレーヤが円環状の操作体RMを回転させる操作を行うと、オブジェクト空間に設定される車オブジェクト(移動体オブジェクト)MOの移動方向を変化させる操作アルゴリズムを設定し、図10(B)の場合には、検出ユニット16に対してプレーヤが棒状の操作体BMを前後左右に傾倒させる操作を行うと、オブジェクト空間に設定される飛行機オブジェクト(移動体オブジェクト)AOの移動方向を変化させる操作アルゴリズムを設定する。   As a result of the comparison, if there is matching reference three-dimensional shape information (Y in step S66), a detection target corresponding to the detected three-dimensional shape information is set as an operation detection target (step S68). For example, in the case of FIG. 10A, since the annular operating body RM matches the reference three-dimensional shape information of the car handle, the annular operating body RM is set as the car handle, and FIG. ), The rod-like operation body BM matches the reference three-dimensional shape information of the airplane control stick, so the rod-like operation body BM is set as the airplane control stick. Then, an operation algorithm corresponding to the set type of operation detection object is set (step S69). For example, in the case of FIG. 10A, when the player performs an operation of rotating the annular operation body RM with the direction toward the detection unit 16 as the rotation axis, a car object (moving object) set in the object space. An operation algorithm for changing the moving direction of the MO is set, and in the case of FIG. 10B, when the player performs an operation of tilting the rod-shaped operation body BM forward, backward, left and right with respect to the detection unit 16, the object space is entered. An operation algorithm for changing the moving direction of the set airplane object (moving object) AO is set.

こうして操作検出対象物と操作アルゴリズムが設定されると、設定された操作検出対象物と操作アルゴリズムとに対応するゲームを実行する(ステップS70)。すると検出ユニット16により、プレーヤが操作する操作体を検出対象とする検出3次元形状情報を取得する(ステップS72)。そして、検出3次元形状情報の変化に基づいて操作信号を出力し(ステップS74)、操作信号に基づいてオブジェクト空間に設定される移動体オブジェクトの移動・動作処理を行う(ステップS76)。例えば図10(A)の場合には、検出ユニット16に向かう方向を回転軸とした円環状の操作体RMの回転量に応じて、車オブジェクト(移動体オブジェクト)の移動方向を変化させ、図10(B)の場合には、検出ユニット16に対する棒状の操作体BMの傾倒方向と傾倒量に応じて、飛行機オブジェクト(移動体オブジェクト)の移動方向を変化させる。そして、移動体オブジェクトがオブジェクト空間を移動・動作する画像を描画する(ステップS78)。   When the operation detection object and the operation algorithm are set in this way, a game corresponding to the set operation detection object and the operation algorithm is executed (step S70). Then, the detection unit 16 acquires detected three-dimensional shape information for the operation object operated by the player as a detection target (step S72). Then, an operation signal is output based on the change in the detected three-dimensional shape information (step S74), and the moving / moving process of the moving object set in the object space is performed based on the operation signal (step S76). For example, in the case of FIG. 10A, the moving direction of the vehicle object (moving body object) is changed according to the amount of rotation of the annular operating body RM with the direction toward the detection unit 16 as the rotation axis. In the case of 10 (B), the moving direction of the airplane object (moving body object) is changed according to the tilting direction and the tilting amount of the rod-shaped operating body BM with respect to the detection unit 16. Then, an image in which the moving object moves and moves in the object space is drawn (step S78).

4−4.アイテム認識処理
次に本実施形態の画像認識システム10を用いて、検出対象物が予め定められた3次元形状を有するものであれば、予め定められた3次元形状に対応するオブジェクト形状情報を3次元オブジェクト空間に設定する処理を行う一例について説明する。図12(A)は、プレーヤが剣の形状をした剣アイテム体KMを持っていれば、キャラクタオブジェクトCOが剣アイテムオブジェクトKOを持っている画像を描画する例であり、盾の形状をした盾アイテム体TMを持っていれば、キャラクタオブジェクトCOが盾アイテムオブジェクトTOを持っている画像を描画する例である。
4-4. Item Recognition Processing Next, if the object to be detected has a predetermined three-dimensional shape using the image recognition system 10 of the present embodiment, the object shape information corresponding to the predetermined three-dimensional shape is set to 3. An example of performing processing for setting in a dimensional object space will be described. FIG. 12A is an example of drawing an image in which the character object CO has the sword item object KO if the player has a sword-shaped sword item body KM. This is an example of drawing an image in which the character object CO has the shield item object TO if it has the item body TM.

図13のフローチャートに示すように本実施形態では、まず検出ユニット16により、プレーヤが持っているアイテム体を検出対象とする検出3次元形状情報を取得する(ステップS90)。すると、記憶部に記憶されたアイテム体の形状を規定する基準3次元形状情報と、取得された検出3次元形状情報とを比較する(ステップS92)。そして比較の結果、一致する基準3次元形状情報が有る場合には(ステップS94のY)、検出3次元形状情報に対応するオブジェクト形状情報をオブジェクト空間に設定し(ステップS96)、当該オブジェクト空間を描画する(ステップS98)。例えば図12(A)の場合には、剣アイテム体KMが剣アイテムオブジェクトKOに一致するので、キャラクタオブジェクトCOが剣アイテムオブジェクトKOを持っている画像を描画し、図12(B)の場合には、盾アイテム体TMが盾アイテムオブジェクトTOに一致するので、キャラクタオブジェクトCOが盾アイテムオブジェクトTOを持っている画像を描画する。そして、設定したオブジェクト形状情報が、他のオブジェクトに対応するオブジェクト形状情報とオブジェクト空間内で重なった場合には、即ちヒットしたと判定した場合には(ステップS100のY)、他のオブジェクトが壊れるなどのヒット処理を行う(ステップS102)。   As shown in the flowchart of FIG. 13, in the present embodiment, first, the detection unit 16 obtains detected three-dimensional shape information for detecting an item body held by the player (step S90). Then, the reference 3D shape information defining the shape of the item body stored in the storage unit is compared with the acquired detected 3D shape information (step S92). As a result of the comparison, if there is matching reference three-dimensional shape information (Y in step S94), object shape information corresponding to the detected three-dimensional shape information is set in the object space (step S96), and the object space is set. Drawing is performed (step S98). For example, in the case of FIG. 12A, since the sword item body KM matches the sword item object KO, an image in which the character object CO has the sword item object KO is drawn, and in the case of FIG. Since the shield item body TM matches the shield item object TO, the image in which the character object CO has the shield item object TO is drawn. When the set object shape information overlaps with the object shape information corresponding to another object in the object space, that is, when it is determined that the object has been hit (Y in step S100), the other object is broken. And hit processing is performed (step S102).

4−5.移動認識処理
次に本実施形態の画像認識システム10を用いて、検出対象物の位置の変化に応じて、所与のオブジェクトの位置が変化する画像を描画する処理を行う一例について説明する。図14は、プレーヤが検出ユニット16に向かって発泡スチロールや紙などでできた被投てき物HMを投げると、投げられた被投てき物HMの移動とともに対応するボールオブジェクトBOが移動する(投げられる)画像を描画する例である。
4-5. Movement Recognition Processing Next, an example of performing processing for drawing an image in which the position of a given object changes in accordance with the change in the position of the detection target will be described using the image recognition system 10 of the present embodiment. FIG. 14 shows an image in which when the player throws a thrown object HM made of foamed polystyrene or paper toward the detection unit 16, the corresponding ball object BO moves (throws) along with the movement of the thrown thrown object HM. Is an example of drawing.

図15のフローチャートに示すように本実施形態では、まず検出ユニット16により、プレーヤが持っている被投てき物HMを検出対象とする検出3次元位置情報を取得する(ステップS110)。すると、検出3次元位置情報に基づいて、ボールオブジェクトBOをオブジェクト空間に設定し(ステップS112)、当該オブジェクト空間を描画する(ステップS114)。そして、設定したボールオブジェクトBOが他のオブジェクトとオブジェクト空間内で重なった場合には、即ちヒットしたと判定した場合には(ステップS116のY)、他のオブジェクトが壊れたり、ボールオブジェクトBOの移動方向が変化するなどのヒット処理を行う(ステップS118)。そしてステップS110〜ステップS118までの処理を1/30秒毎に繰返し、ボールオブジェクトBOがオブジェクト空間を移動する画像を描画する。   As shown in the flowchart of FIG. 15, in the present embodiment, first, the detection unit 16 acquires detected three-dimensional position information for the object HM that the player has as a detection target (step S110). Then, based on the detected three-dimensional position information, the ball object BO is set in the object space (step S112), and the object space is drawn (step S114). When the set ball object BO overlaps with another object in the object space, that is, when it is determined that the ball object BO has been hit (Y in step S116), the other object is broken or the ball object BO is moved. Hit processing such as changing the direction is performed (step S118). Then, the processes from step S110 to step S118 are repeated every 1/30 seconds to draw an image in which the ball object BO moves in the object space.

こうして本実施形態の画像認識システム10では、検出ユニット16の撮像空間の3次元座標系において、検出対象物の3次元形状情報や3次元位置情報を取得することにより、検出対象物の形状や位置を3次元的に解析して上記種々の処理を行うことができる。   In this way, in the image recognition system 10 of the present embodiment, the shape and position of the detection target are acquired by acquiring the three-dimensional shape information and the three-dimensional position information of the detection target in the three-dimensional coordinate system of the imaging space of the detection unit 16. The above-described various processes can be performed by three-dimensional analysis.

なお、上述の操作入力処理における操作体や、アイテム認識処理におけるアイテム体については、判定基準となる基準3次元情報を厳密に設定し、検出3次元形状情報が基準3次元情報とほぼ同一でなければ一致しないと判定するようにしてもよいし、判定基準となる基準3次元情報を厳密に設定せず、検出3次元形状情報が基準3次元情報に近似していれば一致すると判定するようにしてもよい。ここで一致判定を厳密に行う場合には、基準3次元情報とほぼ同一形状の操作体やアイテム体をプレーヤに提供するようにしてもよい。一方、一致判定を厳密に行わない場合には、基準3次元情報に近似する形状の身の回りにある物体を操作体やアイテム体として用いるようにしてもよい。   Note that for the operation body in the above-described operation input process and the item body in the item recognition process, the reference 3D information serving as a determination criterion should be set strictly, and the detected 3D shape information should be substantially the same as the reference 3D information. If the detected three-dimensional shape information approximates the reference three-dimensional information, the reference three-dimensional information serving as the determination reference is not strictly set. May be. Here, when the matching determination is strictly performed, an operation body or item body having substantially the same shape as the reference three-dimensional information may be provided to the player. On the other hand, when the matching determination is not strictly performed, an object around the shape approximate to the reference three-dimensional information may be used as the operation body or the item body.

また、人間の骨格や人間の動きに関する情報を予め記憶しておき、撮像空間の3次元情報のうちプレーヤに対応する3次元情報を特定することにより、手話の手に対応する3次元情報や、操作体、アイテム体、被投てき体などの3次元情報を特定するようにしてもよい。   In addition, information related to the human skeleton and human movement is stored in advance, and by specifying the three-dimensional information corresponding to the player from the three-dimensional information of the imaging space, the three-dimensional information corresponding to the sign language hand, You may make it specify 3D information, such as an operation body, an item body, and a to-be-projected body.

5.ハードウェア構成
図16に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
5. Hardware Configuration FIG. 16 shows an example of a hardware configuration that can realize this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるDVD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 accesses a DVD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

6.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
6). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

また本発明は種々の指示位置演算システムに適用できる。上述の実施形態では、本発明をゲームシステムに適用した場合を例に挙げて説明したが、本発明は、プレゼンテーションシステムなどの種々の指示位置演算システム、及び指示位置演算システムに用いる指示体に適用することができる。   Further, the present invention can be applied to various pointing position calculation systems. In the above-described embodiment, the case where the present invention is applied to a game system has been described as an example. However, the present invention is applied to various pointing position calculation systems such as a presentation system and a pointer used in the pointing position calculation system. can do.

本実施形態のシステムの概略外観の一例を示す図。The figure which shows an example of the schematic external appearance of the system of this embodiment. 本実施形態のシステムの原理を説明するための図。The figure for demonstrating the principle of the system of this embodiment. 本実施形態で撮像された画像の一例を説明するための図。The figure for demonstrating an example of the image imaged by this embodiment. 本実施形態のシステムの原理を説明するための図。The figure for demonstrating the principle of the system of this embodiment. 本実施形態のシステムの機能ブロックの一例を示す図。The figure which shows an example of the functional block of the system of this embodiment. 本実施形態のシステムの処理の一例を説明するための図。The figure for demonstrating an example of the process of the system of this embodiment. 本実施形態の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of this embodiment. 本実施形態のシステムの処理の一例を説明するための図。The figure for demonstrating an example of the process of the system of this embodiment. 本実施形態の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of this embodiment. 図10(A)、(B)は本実施形態のシステムの処理の一例を説明するための図。FIGS. 10A and 10B are diagrams for explaining an example of processing of the system of this embodiment. 本実施形態の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of this embodiment. 図12(A)、(B)は本実施形態のシステムの処理の一例を説明するための図。FIGS. 12A and 12B are diagrams for explaining an example of processing of the system of this embodiment. 本実施形態の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of this embodiment. 本実施形態のシステムの処理の一例を説明するための図。The figure for demonstrating an example of the process of the system of this embodiment. 本実施形態の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of this embodiment. 本実施形態のシステムのハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the system of this embodiment.

符号の説明Explanation of symbols

P プレーヤ、TO 標的オブジェクト、DL 出力波、RL 反射波、WL 壁、
PO 撮像対象物、PA 撮像領域、PS 撮像空間、WP 重心位置、N 法線、
10 ゲームシステム、12 表示画面、14 表示部、16 検出ユニット、
18 ゲーム機、20 出力部、22 検出部、24 3次元情報取得部、
100 処理部、101 比較部、102 コマンド信号出力部、103 出力制御部、
104 操作検出対象物設定部、105 操作アルゴリズム設定部、
106 操作信号出力部、107 オブジェクト生成部、
108 オブジェクト空間設定部、109 移動・動作処理部、110 判定部、
120 描画処理部、121 テクスチャマッピング部、130 音生成部、
140 通信制御部、170 記憶部、180 情報記憶媒体
P player, TO target object, DL output wave, RL reflected wave, WL wall,
PO imaging object, PA imaging area, PS imaging space, WP center of gravity position, N normal,
10 game systems, 12 display screens, 14 display units, 16 detection units,
18 game machine, 20 output unit, 22 detection unit, 24 3D information acquisition unit,
100 processing unit, 101 comparison unit, 102 command signal output unit, 103 output control unit,
104 operation detection object setting unit, 105 operation algorithm setting unit,
106 operation signal output unit, 107 object generation unit,
108 object space setting unit, 109 movement / motion processing unit, 110 determination unit,
120 drawing processing units, 121 texture mapping units, 130 sound generation units,
140 communication control unit, 170 storage unit, 180 information storage medium

Claims (14)

所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
所与の3次元オブジェクト空間に設定される3次元オブジェクトの形状を規定するオブジェクト形状情報を、前記検出3次元形状情報に基づいて生成するオブジェクト生成部と、
前記生成されたオブジェクト形状情報を外部装置との間で送受信する通信制御部と、
前記受信されたオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システム。
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
An object generation unit that generates object shape information that defines the shape of a three-dimensional object set in a given three-dimensional object space based on the detected three-dimensional shape information;
A communication control unit that transmits and receives the generated object shape information to and from an external device;
An object space setting unit for setting the received object shape information in the three-dimensional object space;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
An image recognition system comprising:
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
所与の3次元オブジェクト空間に設定される複数種類の3次元オブジェクトの形状を規定する複数種類のオブジェクト形状情報を記憶するオブジェクト形状情報記憶部と、
前記検出3次元形状情報に対応する前記オブジェクト形状情報を、前記検出3次元形状情報に基づいて選択するオブジェクト形状情報選択部と、
前記選択されたオブジェクト形状情報を外部装置との間で送受信する通信制御部と、
前記受信されたオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システム。
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
An object shape information storage unit for storing a plurality of types of object shape information defining the shapes of a plurality of types of three-dimensional objects set in a given three-dimensional object space;
An object shape information selection unit that selects the object shape information corresponding to the detected three-dimensional shape information based on the detected three-dimensional shape information;
A communication control unit for transmitting and receiving the selected object shape information to and from an external device;
An object space setting unit for setting the received object shape information in the three-dimensional object space;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
An image recognition system comprising:
請求項2において、
前記オブジェクト形状情報選択部に選択されたオブジェクト形状情報を、前記検出3次元形状情報に基づいて補正するオブジェクト形状情報補正部を更に含み、
前記通信制御部が、
前記オブジェクト形状情報補正部に補正された補正後のオブジェクト形状情報を外部装置との間で送受信することを特徴とする画像認識システム。
In claim 2,
An object shape information correction unit that corrects the object shape information selected by the object shape information selection unit based on the detected three-dimensional shape information;
The communication control unit
An image recognition system, wherein the object shape information corrected by the object shape information correction unit is transmitted / received to / from an external device.
請求項1〜3のいずれかにおいて、
前記生成されたオブジェクト形状情報の一部に所与のテクスチャをマッピングして、前記オブジェクト形状情報を前記3次元オブジェクト空間に設定するテクスチャマッピング部を更に含むことを特徴とする画像認識システム。
In any one of Claims 1-3,
An image recognition system, further comprising a texture mapping unit that maps a given texture to a part of the generated object shape information and sets the object shape information in the three-dimensional object space.
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
予め定められた3次元形状を規定する基準3次元形状情報を記憶する基準情報記憶部と、
前記基準3次元形状情報と前記検出3次元形状情報とを比較する比較部と、
前記比較部の比較結果に基づいて、対応するコマンド信号を出力するコマンド信号出力部と、
前記コマンド信号に対応する画像情報、音情報の少なくとも一方を記憶する出力情報記憶部と、
前記出力されたコマンド信号に基づいて、対応する画像情報、音情報の少なくとも一方を出力させる出力制御部とを含むことを特徴とする画像認識システム。
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
A reference information storage unit that stores reference three-dimensional shape information that defines a predetermined three-dimensional shape;
A comparison unit that compares the reference three-dimensional shape information with the detected three-dimensional shape information;
A command signal output unit that outputs a corresponding command signal based on the comparison result of the comparison unit;
An output information storage unit that stores at least one of image information and sound information corresponding to the command signal;
An image recognition system comprising: an output control unit that outputs at least one of corresponding image information and sound information based on the output command signal.
請求項5において、
前記3次元情報取得部が、
前記出力波が反射した検出対象物の3次元形状の所定期間における変化を規定する検出3次元動作情報を、前記反射波に基づいて取得し、
前記基準情報記憶部が、
予め定められた3次元形状の所定期間における変化を規定する基準3次元動作情報を記憶し、
前記比較部が、
前記基準3次元動作情報と前記検出3次元動作情報とを比較することを特徴とする画像認識システム。
In claim 5,
The three-dimensional information acquisition unit
Obtaining detection three-dimensional motion information defining a change in a predetermined period of the three-dimensional shape of the detection object reflected by the output wave based on the reflected wave;
The reference information storage unit is
Storing reference three-dimensional motion information defining a change in a predetermined period of a predetermined three-dimensional shape;
The comparison unit is
An image recognition system that compares the reference three-dimensional motion information with the detected three-dimensional motion information.
請求項5、6のいずれかにおいて、
前記出力されたコマンド信号を外部装置との間で送受信する通信制御部を更に含み、
前記出力制御部が、
前記受信されたコマンド信号に基づいて、対応する画像情報、音情報の少なくとも一方を出力させることを特徴とする画像認識システム。
In any one of Claims 5 and 6,
A communication control unit that transmits and receives the output command signal to and from an external device;
The output control unit is
An image recognition system for outputting at least one of corresponding image information and sound information based on the received command signal.
操作信号に基づいて、所与のオブジェクトの移動及び動作の少なくとも一方の制御を行う移動・動作処理部と、
前記所与のオブジェクトが移動及び動作の少なくとも一方を行う画像を描画する描画処理部と、
を含む画像認識システムであって、
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報、及び前記検出対象物の3次元位置を規定する検出3次元位置情報の少なくとも一方を、前記反射波に基づいて取得する3次元情報取得部と、
予め定められた3次元形状を規定する基準3次元形状情報を記憶する基準情報記憶部と、
前記基準3次元形状情報と前記検出3次元形状情報とを比較する比較部と、
前記比較部の比較結果に基づいて、前記検出3次元形状情報に対応する前記検出対象物を操作検出対象物として設定する操作検出対象物設定部と、
前記設定された操作検出対象物について取得された前記検出3次元形状情報及び前記検出3次元位置情報の少なくとも一方の変化に基づいて、前記操作信号を出力する操作信号出力部と、
を更に含むことを特徴とする画像認識システム。
A movement / motion processing unit that controls at least one of movement and motion of a given object based on an operation signal;
A drawing processing unit for drawing an image in which the given object performs at least one of movement and movement;
An image recognition system including:
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
Based on the reflected wave, at least one of detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave and detection three-dimensional position information that defines the three-dimensional position of the detection object. A three-dimensional information acquisition unit to acquire;
A reference information storage unit that stores reference three-dimensional shape information that defines a predetermined three-dimensional shape;
A comparison unit that compares the reference three-dimensional shape information with the detected three-dimensional shape information;
An operation detection target setting unit that sets the detection target corresponding to the detection three-dimensional shape information as an operation detection target based on the comparison result of the comparison unit;
An operation signal output unit that outputs the operation signal based on a change in at least one of the detected three-dimensional shape information and the detected three-dimensional position information acquired for the set operation detection target;
An image recognition system, further comprising:
請求項8において、
前記基準情報記憶部に記憶された複数の基準3次元形状情報の各基準3次元形状情報に対応する操作アルゴリズムを記憶する操作アルゴリズム記憶部と、
前記比較部の比較結果に基づいて、前記検出3次元形状情報に対応する前記基準3次元形状情報に応じた操作アルゴリズムを設定する操作アルゴリズム設定部と、
を更に含み、
前記操作信号出力部が、
前記設定された操作検出対象物について取得された前記検出3次元形状情報及び前記検出3次元位置情報の少なくとも一方の変化に基づいて、前記設定された操作アルゴリズムに応じた操作信号を出力することを特徴とする画像認識システム。
In claim 8,
An operation algorithm storage unit that stores an operation algorithm corresponding to each reference 3D shape information of the plurality of reference 3D shape information stored in the reference information storage unit;
An operation algorithm setting unit that sets an operation algorithm according to the reference three-dimensional shape information corresponding to the detected three-dimensional shape information based on the comparison result of the comparison unit;
Further including
The operation signal output unit is
Outputting an operation signal corresponding to the set operation algorithm based on a change in at least one of the detected three-dimensional shape information and the detected three-dimensional position information acquired for the set operation detection object. A featured image recognition system.
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記出力波が反射した検出対象物の3次元形状を規定する検出3次元形状情報を、前記反射波に基づいて取得する3次元情報取得部と、
予め定められた3次元形状を規定する基準3次元形状情報を記憶する基準情報記憶部と、
前記基準3次元形状情報と前記検出3次元形状情報とを比較する比較部と、
前記比較部の比較結果に基づいて、所与のオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システム。
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional shape information that defines the three-dimensional shape of the detection object reflected by the output wave, based on the reflected wave;
A reference information storage unit that stores reference three-dimensional shape information that defines a predetermined three-dimensional shape;
A comparison unit that compares the reference three-dimensional shape information with the detected three-dimensional shape information;
An object space setting unit that sets given object shape information in the three-dimensional object space based on a comparison result of the comparison unit;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
An image recognition system comprising:
請求項10において、
前記オブジェクト形状情報記憶部が、
複数種類のオブジェクト形状情報を記憶し、
前記オブジェクト空間設定部が、
前記比較部の比較結果に基づいて、前記複数種類のオブジェクト形状情報のうち前記検出3次元形状情報に対応する前記オブジェクト形状情報を前記3次元オブジェクト空間に設定することを特徴とする画像認識システム。
In claim 10,
The object shape information storage unit
Stores multiple types of object shape information,
The object space setting unit
An image recognition system, wherein the object shape information corresponding to the detected three-dimensional shape information among the plurality of types of object shape information is set in the three-dimensional object space based on a comparison result of the comparison unit.
請求項11において、
前記オブジェクト空間設定部が、
所与のイベントの発生に基づいて、前記3次元オブジェクト空間に設定するオブジェクト形状情報を変更することを特徴とする画像認識システム。
In claim 11,
The object space setting unit
An image recognition system, wherein object shape information set in the three-dimensional object space is changed based on occurrence of a given event.
所定の出力波を出力する出力部と、
前記出力部と所定の位置関係を有し、前記出力波の反射波を検出する検出部と、
前記検出対象物の3次元形状を規定する検出3次元位置情報を、前記反射波に基づいて取得する3次元情報取得部と、
前記取得された検出3次元形状情報に基づいて、所与のオブジェクト形状情報を前記3次元オブジェクト空間に設定するオブジェクト空間設定部と、
前記3次元オブジェクト空間を仮想カメラから見た画像を描画する描画処理部と、
を含むことを特徴とする画像認識システム。
An output unit for outputting a predetermined output wave;
A detection unit that has a predetermined positional relationship with the output unit and detects a reflected wave of the output wave;
A three-dimensional information acquisition unit that acquires detection three-dimensional position information that defines a three-dimensional shape of the detection object based on the reflected wave;
An object space setting unit that sets given object shape information in the three-dimensional object space based on the acquired detected three-dimensional shape information;
A drawing processing unit for drawing an image of the three-dimensional object space viewed from a virtual camera;
An image recognition system comprising:
請求項10〜13のいずれかにおいて、
前記3次元オブジェクト空間に設定された前記オブジェクト形状情報と他のオブジェクト形状情報との前記3次元オブジェクト空間における重なりを判定する判定部を更に含むことを特徴とする画像認識システム。
In any one of Claims 10-13,
An image recognition system, further comprising: a determination unit that determines an overlap in the three-dimensional object space between the object shape information set in the three-dimensional object space and other object shape information.
JP2007064913A 2007-03-14 2007-03-14 Image recognition system Withdrawn JP2008225985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007064913A JP2008225985A (en) 2007-03-14 2007-03-14 Image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007064913A JP2008225985A (en) 2007-03-14 2007-03-14 Image recognition system

Publications (1)

Publication Number Publication Date
JP2008225985A true JP2008225985A (en) 2008-09-25

Family

ID=39844508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007064913A Withdrawn JP2008225985A (en) 2007-03-14 2007-03-14 Image recognition system

Country Status (1)

Country Link
JP (1) JP2008225985A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2463312A (en) * 2008-09-09 2010-03-17 Skype Ltd Games system with bi-directional video communication
WO2010038822A1 (en) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, information recording medium, and program
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium and game device
WO2011087890A3 (en) * 2010-01-15 2011-11-03 Microsoft Corporation Recognizing user intent in motion capture system
JP2012005773A (en) * 2010-06-28 2012-01-12 Taito Corp Game device
JP2012090802A (en) * 2010-10-27 2012-05-17 Denso It Laboratory Inc Amusement system
WO2013099537A1 (en) * 2011-12-26 2013-07-04 Semiconductor Energy Laboratory Co., Ltd. Motion recognition device
JP2014071871A (en) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> Video communication system and video communication method
CN103925888A (en) * 2014-04-23 2014-07-16 东莞市天勤仪器有限公司 Image-type three-dimensional imaging method
JP2015024172A (en) * 2014-10-03 2015-02-05 株式会社タイトー Game device
JP2015511043A (en) * 2012-03-29 2015-04-13 インテル コーポレイション Creating 3D graphics using gestures
JP2020054823A (en) * 2018-08-30 2020-04-09 株式会社バンダイ Game system, game method, and program
JP2021192876A (en) * 2019-11-25 2021-12-23 株式会社バンダイ Game system, game method, and program
JP2022095526A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game system, program and information processing method

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2463312A (en) * 2008-09-09 2010-03-17 Skype Ltd Games system with bi-directional video communication
JP5594733B2 (en) * 2008-10-01 2014-09-24 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, information storage medium, and program
WO2010038822A1 (en) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, information recording medium, and program
EP2352078A1 (en) * 2008-10-01 2011-08-03 Sony Computer Entertainment Inc. Information processing apparatus, information processing method, information recording medium, and program
CN102171640A (en) * 2008-10-01 2011-08-31 索尼计算机娱乐公司 Information processing apparatus, information processing method, information recording medium, and program
JPWO2010038822A1 (en) * 2008-10-01 2012-03-01 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, information storage medium, and program
US8884924B2 (en) 2008-10-01 2014-11-11 Sony Corporation Information processing apparatus, information processing method, information recording medium, and program
EP2352078A4 (en) * 2008-10-01 2014-03-05 Sony Computer Entertainment Inc Information processing apparatus, information processing method, information recording medium, and program
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium and game device
WO2011087890A3 (en) * 2010-01-15 2011-11-03 Microsoft Corporation Recognizing user intent in motion capture system
US9195305B2 (en) 2010-01-15 2015-11-24 Microsoft Technology Licensing, Llc Recognizing user intent in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
JP2012005773A (en) * 2010-06-28 2012-01-12 Taito Corp Game device
JP2012090802A (en) * 2010-10-27 2012-05-17 Denso It Laboratory Inc Amusement system
WO2013099537A1 (en) * 2011-12-26 2013-07-04 Semiconductor Energy Laboratory Co., Ltd. Motion recognition device
US9264693B2 (en) 2011-12-26 2016-02-16 Semiconductor Energy Laboratory Co., Ltd. Motion recognition device
JP2015511043A (en) * 2012-03-29 2015-04-13 インテル コーポレイション Creating 3D graphics using gestures
JP2014071871A (en) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> Video communication system and video communication method
CN103925888A (en) * 2014-04-23 2014-07-16 东莞市天勤仪器有限公司 Image-type three-dimensional imaging method
JP2015024172A (en) * 2014-10-03 2015-02-05 株式会社タイトー Game device
JP2020054823A (en) * 2018-08-30 2020-04-09 株式会社バンダイ Game system, game method, and program
JP2021192876A (en) * 2019-11-25 2021-12-23 株式会社バンダイ Game system, game method, and program
JP7204853B2 (en) 2019-11-25 2023-01-16 株式会社バンダイ Game system, game method and program
JP2022095526A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game system, program and information processing method

Similar Documents

Publication Publication Date Title
JP2008225985A (en) Image recognition system
JP5813948B2 (en) Program and terminal device
US8882593B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP5085059B2 (en) Image generation system, program, and information storage medium
JP5089079B2 (en) Program, information storage medium, and image generation system
US9044669B2 (en) Program, information storage medium, and image generation system
US20090244064A1 (en) Program, information storage medium, and image generation system
US6646640B2 (en) System and method for creating real-time shadows of complex transparent objects
US8662976B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP6623008B2 (en) GAME DEVICE AND PROGRAM
JP4717622B2 (en) Program, information recording medium, and image generation system
JP2019166218A (en) Program and game device
JP4776017B2 (en) Program, information storage medium, and image generation system
JP4806608B2 (en) Program, information storage medium, and image generation system
JP2011053737A (en) Program, information storage medium and image generation device
JP4334961B2 (en) Image generation information, information storage medium, and image generation apparatus
JP2009129167A (en) Program, information storage medium, and image generation system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2008067853A (en) Program, information storage medium and image generation system
JP2011215724A (en) Program, information storage medium, and image generation system
JP6960968B2 (en) Programs and servers
JP2012155731A (en) Retrieval system
JP2010231364A (en) Image generation system, program and information recording medium
JP2010033297A (en) Program, information storage medium, and image generation system
JP2008071049A (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601