JP2011215968A - Program, information storage medium and object recognition system - Google Patents

Program, information storage medium and object recognition system Download PDF

Info

Publication number
JP2011215968A
JP2011215968A JP2010084610A JP2010084610A JP2011215968A JP 2011215968 A JP2011215968 A JP 2011215968A JP 2010084610 A JP2010084610 A JP 2010084610A JP 2010084610 A JP2010084610 A JP 2010084610A JP 2011215968 A JP2011215968 A JP 2011215968A
Authority
JP
Japan
Prior art keywords
object recognition
specific area
recognition processing
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010084610A
Other languages
Japanese (ja)
Inventor
Shoji Nakajima
正二 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010084610A priority Critical patent/JP2011215968A/en
Publication of JP2011215968A publication Critical patent/JP2011215968A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program for object recognition processing capable of efficiently and accurately performing processing for recognizing an object where a depth relation is considered, an information storage medium and an object recognition system.SOLUTION: An input image having a depth value of each pixel is acquired by irradiating the object with light and receiving the reflected light of the object, a specific area is set in the input image based on the depth value of each pixel of the input image, and the object recognition processing is performed in the specific area.

Description

本発明は、プログラム、情報記憶媒体及び物体認識システムに関する。   The present invention relates to a program, an information storage medium, and an object recognition system.

従来から、入力画像の各画素の動きベクトルを求めて入力画像を解析し、入力画像上の物体を認識する処理を行う装置が存在する(特許文献1)。   2. Description of the Related Art Conventionally, there is an apparatus that performs a process of recognizing an object on an input image by obtaining a motion vector of each pixel of the input image and analyzing the input image (Patent Document 1).

しかし、特許文献1に示すような従来技術は、動いている対象が人であることを前提として作られたものであり、実際には被写体が人でない物体(例えば、「鳥」)などの動きも、人の動きであると誤認されてしまうことがあった。   However, the conventional technique as shown in Patent Document 1 is made on the assumption that the moving object is a person, and in fact, the movement of an object (for example, “bird”) that is not a person is a subject. However, it was sometimes mistaken for human movement.

また、動いている対象が「人」であるか否かを判断する従来技術も存在するが、このような従来技術は、入力画像全体において「人」の認識パターンを用いて認識処理を行うので、非常に効率が悪く処理負荷が高くなるものであった。   In addition, there is a conventional technique for determining whether or not a moving object is a “person”, but such a conventional technique performs a recognition process using a recognition pattern of “person” in the entire input image. It was very inefficient and the processing load was high.

また、従来技術では、物体の奥行き関係を無視して物体認識処理を行っていたので、物体認識の正確性に欠けるという問題があった。   Further, in the prior art, the object recognition processing is performed ignoring the depth relation of the object, so that there is a problem that the accuracy of the object recognition is lacking.

特開2005−13750号公報JP 2005-13750 A

本発明は、以上のような問題に鑑みてなされたものであり、その目的とするところは、効率的に、かつ、正確に、奥行き関係を考慮した物体を認識する処理を行うことが可能な物体認識処理のプログラム、情報記憶媒体及び物体認識システムを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to perform processing for recognizing an object in consideration of depth relations efficiently and accurately. An object of the present invention is to provide an object recognition processing program, an information storage medium, and an object recognition system.

(1)本発明は、物体を認識する処理を行うプログラムであって、物体に光を照射し、当該物体の反射光を受光することによって各画素の深度値を有する入力画像を取得し、入力画像の各画素の深度値に基づいて、入力画像において特定領域を設定する領域設定部と、物体を認識する物体認識処理を行う物体認識処理部として、コンピュータを機能させ、前記物体認識処理部が、特定領域において物体認識処理を行うプログラムに関する。また本発明は、コンピュータに読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。また、本発明は、上記各部を含む物体認識システムに関係する。   (1) The present invention is a program for performing processing for recognizing an object, which obtains an input image having a depth value of each pixel by irradiating the object with light and receiving reflected light from the object, Based on the depth value of each pixel of the image, the computer functions as a region setting unit that sets a specific region in the input image and an object recognition processing unit that performs object recognition processing for recognizing an object. The present invention relates to a program for performing object recognition processing in a specific area. The present invention also relates to an information storage medium that is readable by a computer and stores (records) a program that causes the computer to function as each of the above-described units. The present invention also relates to an object recognition system including the above-described units.

本発明によれば、特定領域に集中して物体認識処理を行うので、従来よりも正確に物体を認識することができる。また、本発明によれば、全画面ではなく特定領域において物体認識処理を行うので、無駄な処理を省略することができ、従来よりも効率よく物体認識処理を行うことができる。さらに、本発明によれば、入力画像の各画素の深度値に基づいて、入力画像において特定領域を設定し、その特定領域において物体認識処理を行うので、物体の奥行き関係を考慮してより正確に物体を認識することができる。例えば、入力画像において近距離にあるとみなされた領域を特定領域とすれば、近距離に存在する物体をより効率的かつ正確に認識することができる。また、本発明によれば特定領域において物体認識処理を行うので特定領域以外の領域に別の物体が映りこんでいる場合に、その別の物体を誤って認識する事態を防止することができる。   According to the present invention, since object recognition processing is performed in a concentrated manner in a specific area, an object can be recognized more accurately than in the past. Further, according to the present invention, since object recognition processing is performed in a specific area instead of the full screen, useless processing can be omitted and object recognition processing can be performed more efficiently than in the past. Furthermore, according to the present invention, a specific area is set in the input image based on the depth value of each pixel of the input image, and object recognition processing is performed in the specific area. Can recognize objects. For example, if an area that is regarded as being in a short distance in the input image is set as a specific area, an object existing in the short distance can be recognized more efficiently and accurately. In addition, according to the present invention, since the object recognition process is performed in the specific area, when another object is reflected in an area other than the specific area, it is possible to prevent a situation where the other object is erroneously recognized.

(2)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、特定領域における物体認識処理の精度を特定領域以外の領域の物体認識処理の精度よりも上げて、特定領域において物体認識処理を行うようにしてもよい。本発明は、特定領域における物体認識処理の精度を特定領域以外の領域の物体認識処理の精度よりも上げて、特定領域において物体認識処理を行うので、より正確に物体を認識することができる。   (2) Further, in the program, the information storage medium, and the object recognition system of the present invention, the object recognition processing unit increases the accuracy of the object recognition process in the specific area more than the accuracy of the object recognition process in the area other than the specific area. The object recognition process may be performed in the specific area. According to the present invention, since the object recognition process is performed in the specific region with the accuracy of the object recognition process in the specific region being higher than the accuracy of the object recognition process in the region other than the specific region, the object can be recognized more accurately.

(3)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、特定領域において物体認識処理を行う周期を特定領域以外の領域の物体認識処理の周期よりも短くして、特定領域において物体認識処理を行うようにしてもよい。本発明によれば、特定領域において物体認識処理を行う周期を特定領域以外の領域の物体認識処理の周期よりも短くするので、より正確に物体を認識することができる。   (3) Further, in the program, the information storage medium, and the object recognition system of the present invention, the cycle in which the object recognition processing unit performs the object recognition process in the specific region is shorter than the cycle of the object recognition process in the region other than the specific region. Then, the object recognition process may be performed in the specific area. According to the present invention, since the cycle for performing the object recognition process in the specific region is shorter than the cycle of the object recognition process in the region other than the specific region, the object can be recognized more accurately.

(4)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、特定領域の画像精度を特定領域以外の領域の画像精度よりも上げて、特定領域において物体認識処理を行うようにしてもよい。本発明によれば、特定領域の画像精度を特定領域以外の領域の画像精度よりも上げて、特定領域において物体認識処理を行うので、より正確に物体を認識することができる。   (4) Further, in the program, the information storage medium, and the object recognition system of the present invention, the object recognition processing unit increases the image accuracy of the specific area higher than the image accuracy of the area other than the specific area, and recognizes the object in the specific area. Processing may be performed. According to the present invention, the object recognition process is performed in the specific area with the image accuracy of the specific area higher than the image accuracy of the area other than the specific area, so that the object can be recognized more accurately.

(5)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、特定領域以外の領域において物体認識処理を行うと共に、特定領域以外の領域において物体認識処理を行う周期を、特定領域において物体認識処理を行う周期よりも長くするようにしてもよい。本発明によれば、特定領域以外の領域においても物体認識処理を行うことができる。また、本発明は、特定領域以外の領域において物体認識処理を行う周期を、特定領域において物体認識処理を行う周期よりも長くするので、マシンパワー(コンピュータの総合的な処理能力)を主に特定領域の物体認識処理に注力することができ、特定領域の物体認識処理をより正確に行うことができる。   (5) In the program, the information storage medium, and the object recognition system of the present invention, the object recognition processing unit performs object recognition processing in an area other than the specific area, and performs object recognition processing in an area other than the specific area. You may make it make a period longer than the period which performs an object recognition process in a specific area | region. According to the present invention, it is possible to perform object recognition processing in a region other than the specific region. In addition, since the present invention makes the period for performing object recognition processing in areas other than the specific area longer than the period for performing object recognition processing in the specific area, machine power (the overall processing capacity of the computer) is mainly specified. It is possible to focus on the object recognition processing of the area, and it is possible to perform the object recognition processing of the specific area more accurately.

(6)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、特定領域以外の領域において物体認識処理を行うと共に、特定領域以外の領域の画像精度を特定領域の画像精度よりも低くするようにしてもよい。本発明によれば、特定領域以外の領域においても物体認識処理を行うことができる。また、本発明は、特定領域以外の領域の画像精度を特定領域の画像精度よりも低くするので、マシンパワーを主に特定領域の物体認識処理に注力することができ、特定領域の物体認識処理をより正確に行うことができる。   (6) Further, in the program, the information storage medium, and the object recognition system of the present invention, the object recognition processing unit performs object recognition processing in an area other than the specific area, and the image accuracy of the area other than the specific area is determined in the specific area. The image accuracy may be lower than the image accuracy. According to the present invention, it is possible to perform object recognition processing in a region other than the specific region. In addition, since the image accuracy of the region other than the specific region is lower than the image accuracy of the specific region according to the present invention, the machine power can be mainly focused on the object recognition process of the specific region. Can be performed more accurately.

(7)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記領域設定部が、複数の特定領域を設定した場合には、前記物体認識処理部が、少なくとも1つの特定領域について物体認識処理を行うようにしてもよい。本発明によれば、複数の特定領域を設定した場合に、少なくとも1つの特定領域について物体認識処理を行うので、少なくとも1つの特定領域について、より正確に物体を認識することができる。   (7) In the program, the information storage medium, and the object recognition system of the present invention, when the region setting unit sets a plurality of specific regions, the object recognition processing unit performs object detection for at least one specific region. Recognition processing may be performed. According to the present invention, when a plurality of specific areas are set, the object recognition process is performed for at least one specific area, so that an object can be recognized more accurately for at least one specific area.

(8)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記領域設定部が、各特定領域に優先度を付与し、前記物体認識処理部が、各特定領域において物体認識処理を行うと共に、優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くするようにしてもよい。本発明によれば、複数の特定領域において物体を認識する場合に、優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くするので、優先度が高い特定領域ほどマシンパワーを注力することができ、効率よく物体認識処理を行うことができる。   (8) In the program, the information storage medium, and the object recognition system of the present invention, the area setting unit gives priority to each specific area, and the object recognition processing section performs object recognition processing in each specific area. In addition, the period for performing the object recognition process in the specific area with low priority may be set longer than the period for performing the object recognition process in the specific area with high priority. According to the present invention, when recognizing an object in a plurality of specific areas, the period for performing the object recognition process in the specific area with low priority is set longer than the period for performing the object recognition process in the specific area with high priority. Therefore, the machine power can be focused on the specific area with higher priority, and the object recognition process can be performed efficiently.

(9)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記領域設定部が、各特定領域に優先度を付与し、前記物体認識処理部が、各特定領域において物体認識処理を行うと共に、優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くするようにしてもよい。本発明によれば、複数の特定領域において物体を認識する場合に、優先度の低い特定領域において物体認識処理を行う周期を、優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くするので、優先度が高い特定領域ほどマシンパワーを注力することができ、効率よく物体認識処理を行うことができる。   (9) In the program, the information storage medium, and the object recognition system of the present invention, the area setting unit gives priority to each specific area, and the object recognition processing section performs object recognition processing in each specific area. In addition, the image accuracy of the specific region with a low priority may be made lower than the image accuracy of the specific region with a high priority. According to the present invention, when recognizing an object in a plurality of specific areas, the period for performing the object recognition process in the low priority specific area, the image accuracy of the low priority specific area, and the high priority specific area Therefore, it is possible to focus the machine power on a specific area having a higher priority and perform object recognition processing efficiently.

(10)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記領域設定部が、各特定領域に優先度を付与し、前記物体認識処理部が、優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うようにしてもよい。本発明によれば、優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うので、より効率よく物体認識処理を行うことができる。   (10) In the program, the information storage medium, and the object recognition system of the present invention, the area setting unit assigns a priority to each specific area, and the object recognition processing unit performs an object in the low priority specific area. The object recognition process may be performed in a specific area with a high priority without performing the recognition process. According to the present invention, since the object recognition process is performed in the specific area with high priority without performing the object recognition process in the specific area with low priority, the object recognition process can be performed more efficiently.

(11)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記領域設定部が、入力画像の各画素の色情報と深度値とに基づいて、入力画像において特定領域を設定するようにしてもよい。本発明によれば、入力画像の各画素の色情報と深度値に基づいて、入力画像において特定領域を設定するので、より正確に物体を認識すべき特定領域を設定することができる。   (11) In the program, the information storage medium, and the object recognition system of the present invention, the region setting unit sets a specific region in the input image based on the color information and the depth value of each pixel of the input image. It may be. According to the present invention, since the specific area is set in the input image based on the color information and the depth value of each pixel of the input image, it is possible to set the specific area where the object should be recognized more accurately.

(12)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記領域設定部が、入力画像の各画素の深度値のうち所定値以上である深度値に基づいて、入力画像において特定領域を設定するようにしてもよい。本発明によれば、入力画像の各画素の深度値のうち所定値以上である深度値に基づいて、入力画像において特定領域を設定するので、より正確に物体を認識すべき特定領域を設定することができる。   (12) Further, in the program, the information storage medium, and the object recognition system of the present invention, the region setting unit specifies an input image based on a depth value that is equal to or greater than a predetermined value among the depth values of each pixel of the input image. An area may be set. According to the present invention, since the specific area is set in the input image based on the depth value that is equal to or greater than a predetermined value among the depth values of each pixel of the input image, the specific area where the object should be recognized more accurately is set. be able to.

(13)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、ボーン情報に基づいて、前記特定領域における前記物体認識処理を行うようにしてもよい。本発明によれば、ボーン情報に基づいて特定領域における物体認識処理を行うので、物体をより適確に認識することができる。   (13) In the program, the information storage medium, and the object recognition system of the present invention, the object recognition processing unit may perform the object recognition processing in the specific area based on bone information. According to the present invention, since the object recognition process in the specific area is performed based on the bone information, the object can be recognized more accurately.

(14)また、本発明のプログラム、情報記憶媒体及び物体認識システムは、前記物体認識処理部が、所定タイミングで前記特定領域における画像の変化を認識する処理を行うようにしてもよい。本発明によれば、簡易な処理で画像の変化を認識することができる。   (14) In the program, the information storage medium, and the object recognition system of the present invention, the object recognition processing unit may perform a process of recognizing an image change in the specific area at a predetermined timing. According to the present invention, a change in an image can be recognized with a simple process.

本実施形態の第1の物体認識システムの概観図。1 is an overview diagram of a first object recognition system of the present embodiment. 本実施形態の第1の物体認識システムの機能ブロック図。The functional block diagram of the 1st object recognition system of this embodiment. 動きベクトルの説明図。Explanatory drawing of a motion vector. 図4(A)〜(G)は、動きベクトルの説明図。4A to 4G are explanatory diagrams of motion vectors. 動きベクトルの向きを算出するためのフローチャート。The flowchart for calculating the direction of a motion vector. 図6(A)(B)(C)は、動きベクトルの説明図。6A, 6B, and 6C are explanatory diagrams of motion vectors. 特定領域を設定する手法を説明するための図。The figure for demonstrating the method of setting a specific area | region. 特定領域において物体認識処理を行う手法を説明するための説明図。Explanatory drawing for demonstrating the method of performing an object recognition process in a specific area | region. 物体認識処理の周期を説明するための図。The figure for demonstrating the period of an object recognition process. 図10(A)(B)(C)は、動きベクトルの説明図。10A, 10B, and 10C are explanatory diagrams of motion vectors. 特定領域を設定する手法を説明するための図。The figure for demonstrating the method of setting a specific area | region. 特定領域において物体認識処理を行う手法を説明するための説明図。Explanatory drawing for demonstrating the method of performing an object recognition process in a specific area | region. 物体認識処理の周期を説明するための図。The figure for demonstrating the period of an object recognition process. 特定領域を設定する手法を説明するための図。The figure for demonstrating the method of setting a specific area | region. 各特定領域の優先度に関する説明図。Explanatory drawing regarding the priority of each specific area. 特定領域において物体認識処理を行う手法を説明するための説明図。Explanatory drawing for demonstrating the method of performing an object recognition process in a specific area | region. 物体認識処理の周期を説明するための図。The figure for demonstrating the period of an object recognition process. 第1の実施形態のフローチャート。The flowchart of 1st Embodiment. 本実施形態の第2の物体認識システムの概観図。FIG. 6 is an overview diagram of a second object recognition system of the present embodiment. 本実施形態の第2の物体認識システムの機能ブロック図。The functional block diagram of the 2nd object recognition system of this embodiment. 図21(A)(B)は、本実施形態の入力部に入力される入力画像の説明図。21A and 21B are explanatory diagrams of input images input to the input unit of the present embodiment. 第2の実施形態の深度センサの説明図。Explanatory drawing of the depth sensor of 2nd Embodiment. 第2の実施形態の深度センサの説明図。Explanatory drawing of the depth sensor of 2nd Embodiment. 第2の実施形態の実空間における物体の位置と入力部の位置関係を示す説明図。Explanatory drawing which shows the positional relationship of the position of the object in the real space of 2nd Embodiment, and an input part. 図25(A)〜(D)は、物体認識処理の説明図。25A to 25D are explanatory diagrams of object recognition processing. 特定領域を設定する手法を説明するための図。The figure for demonstrating the method of setting a specific area | region. 特定領域において物体認識処理を行う手法を説明するための説明図。Explanatory drawing for demonstrating the method of performing an object recognition process in a specific area | region. 図28(A)(B)は、特定領域において物体認識処理を行う手法を説明するための説明図。28A and 28B are explanatory diagrams for explaining a method of performing object recognition processing in a specific region. 特定領域を設定する手法を説明するための図。The figure for demonstrating the method of setting a specific area | region. 特定領域において物体認識処理を行う手法を説明するための説明図。Explanatory drawing for demonstrating the method of performing an object recognition process in a specific area | region. 特定領域において物体認識処理を行う手法を説明するための説明図。Explanatory drawing for demonstrating the method of performing an object recognition process in a specific area | region. 第2の実施形態のフローチャート。The flowchart of 2nd Embodiment. 図33(A)(B)は、物体の動き認識処理の説明図。33A and 33B are explanatory diagrams of object motion recognition processing.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.第1の実施形態
1−1.第1の物体認識システム
図1は、第1の実施形態における第1の物体認識システム(第1のゲームシステム、第1の画像生成システム)の概略外観図である。本実施形態の第1の物体認識システムは、ゲーム画像を表示させる表示部90と、物体認識処理、ゲーム処理等を行う物体認識装置10(ゲーム機)と、入力部20とを含む。そして、図1に示すように、表示部90(表示画面91)の周囲には、表示部90と関連付けた位置に入力部20が配置されている。例えば、入力部20は、表示部90の下部に配置してもよいし、表示部90の上部に配置してもよい。
1. 1. First embodiment 1-1. First Object Recognition System FIG. 1 is a schematic external view of a first object recognition system (a first game system and a first image generation system) in the first embodiment. The first object recognition system of the present embodiment includes a display unit 90 that displays a game image, an object recognition device 10 (game machine) that performs object recognition processing, game processing, and the like, and an input unit 20. As shown in FIG. 1, the input unit 20 is arranged around the display unit 90 (display screen 91) at a position associated with the display unit 90. For example, the input unit 20 may be disposed below the display unit 90 or may be disposed above the display unit 90.

そして、物体認識装置10は、静止状態にあるRGBカメラ(撮像部)21を備える入力部20から取得した入力画像を解析し、入力画像上の物体を認識する。例えば、図1に示すように、物体認識装置10は、プレーヤPを被写体として撮像した入力画像と「人」(物体の一例)の認識パターンとを比較することによって、入力画像で「人」を認識できるか否かを判断する。そして、物体認識装置10は、「人」を認識できた場合には、「人」の動きや、ジェスチャーを認識する処理を行う。これにより、さまざまなゲーム処理を行うことができる。第1の実施形態では、この入力部20を用いた第1の物体認識システムの処理例について説明する。   Then, the object recognition device 10 analyzes the input image acquired from the input unit 20 including the RGB camera (imaging unit) 21 in a stationary state, and recognizes an object on the input image. For example, as illustrated in FIG. 1, the object recognition device 10 compares the input image obtained by capturing an image of the player P with a recognition pattern of “person” (an example of an object), thereby determining “person” in the input image. Judge whether it can be recognized. Then, when the “person” is recognized, the object recognition apparatus 10 performs a process of recognizing the movement of the “person” and the gesture. Thereby, various game processes can be performed. In the first embodiment, a processing example of the first object recognition system using the input unit 20 will be described.

1−2.構成
図2は、第1の物体認識システムの機能ブロック図の一例である。なお、第1の物体認識システムでは、図2の各部を全て含む必要はなく、その一部を省略した構成としてもよい。
1-2. Configuration FIG. 2 is an example of a functional block diagram of the first object recognition system. In the first object recognition system, it is not necessary to include all the units in FIG. 2, and a configuration in which some of the units are omitted may be employed.

第1の物体認識システムは、物体認識装置10と、入力部20と、表示部90、スピーカー92を含む。入力部20は、RGBカメラ(撮像部)21、処理部22、記憶部23によって構成されている。   The first object recognition system includes an object recognition device 10, an input unit 20, a display unit 90, and a speaker 92. The input unit 20 includes an RGB camera (imaging unit) 21, a processing unit 22, and a storage unit 23.

RGBカメラ(撮像部)21は、物体から発した光をレンズなどの光学系によって撮像素子の受光平面に結像させ、その像の光による明暗を電荷の量に光電変換し、それを順次読み出して電気信号に変換する。そして、RGB化(カラー化)されたRGB画像(入力画像の一例)を記憶部23に出力する処理を行う。RGBカメラ21は、所定の周期で(例えば、1/60秒毎に)、記憶部23に出力する処理を行う。また、処理部22は、RGBカメラ21で撮像されたRGB画像を、物体認識装置10に送信する処理などを行う。また、記憶部23は、RGBカメラ21によって出力されたRGB画像を逐次記憶する。   The RGB camera (imaging unit) 21 forms an image of light emitted from an object on a light receiving plane of an image sensor using an optical system such as a lens, photoelectrically converts light and darkness of the image into an amount of electric charge, and sequentially reads out the light. Convert it into an electrical signal. Then, RGB (colorized) RGB image (an example of an input image) is output to the storage unit 23. The RGB camera 21 performs a process of outputting to the storage unit 23 at a predetermined cycle (for example, every 1/60 seconds). In addition, the processing unit 22 performs a process of transmitting an RGB image captured by the RGB camera 21 to the object recognition device 10. The storage unit 23 sequentially stores the RGB images output by the RGB camera 21.

次に、本実施形態の物体認識装置10について説明する。本実施形態の物体認識装置10は、記憶部170、処理部100、情報記憶媒体180、通信部196によって構成される。   Next, the object recognition apparatus 10 of this embodiment is demonstrated. The object recognition apparatus 10 of this embodiment includes a storage unit 170, a processing unit 100, an information storage medium 180, and a communication unit 196.

記憶部170は、主記憶部171、描画バッファ172、認識パターン記憶部173、入力画像記憶部174、差分画像記憶部175とを含む。主記憶部171は、処理部100のワーク領域であり、描画バッファ172は、画像生成部120において描画された画像を格納するための記憶領域である。   The storage unit 170 includes a main storage unit 171, a drawing buffer 172, a recognition pattern storage unit 173, an input image storage unit 174, and a difference image storage unit 175. The main storage unit 171 is a work area of the processing unit 100, and the drawing buffer 172 is a storage area for storing an image drawn by the image generation unit 120.

また、認識パターン記憶部173は、物体を特定するために予め用意されたパターン、テンプレートを格納するための記憶領域であり、物体それぞれに対応づけてパターンが記憶されている。例えば、視覚的特徴や画素値そのものを認識パターンとして認識パターン記憶部173に格納される。   The recognition pattern storage unit 173 is a storage area for storing a pattern and a template prepared in advance for specifying an object, and stores a pattern in association with each object. For example, visual features and pixel values themselves are stored in the recognition pattern storage unit 173 as recognition patterns.

なお、認識パターン記憶部173は、データベースとして構築される記憶領域でもよい。例えば、「人」、「手」、「足」、「腕」などの各物体に対応づけて、1または複数のパターンを関連づけて記憶するようにしてもよい。   Note that the recognition pattern storage unit 173 may be a storage area constructed as a database. For example, one or more patterns may be stored in association with each object such as “person”, “hand”, “foot”, and “arm”.

また、入力画像記憶部174は、物体認識処理、動きベクトル算出処理を行うために所定周期で入力部20が取得した入力画像を格納するための記憶領域である。また、差分画像記憶部175は、動きベクトル算出処理を行うために、異なる時点で撮像された2つの画像の各画素値の差分をとった差分画素値を格納するための記憶領域である。   The input image storage unit 174 is a storage area for storing an input image acquired by the input unit 20 at a predetermined cycle in order to perform object recognition processing and motion vector calculation processing. The difference image storage unit 175 is a storage area for storing a difference pixel value obtained by taking a difference between pixel values of two images captured at different points in time in order to perform a motion vector calculation process.

そして、処理部100は、この情報記憶媒体180に格納されるプログラムから読み出されたデータに基づいて本実施形態の種々の処理を行う。即ち、情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The processing unit 100 performs various processes according to the present embodiment based on data read from the program stored in the information storage medium 180. That is, the information recording medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

通信部196は、ネットワーク(インターネット)を介して他のゲーム機と通信することができる。その機能は、各種プロセッサまたは通信用ASIC、ネットワーク・インタフェース・カードなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 can communicate with other game machines via a network (Internet). The function can be realized by various processors, hardware such as a communication ASIC, a network interface card, or a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラムは、サーバが有する、記憶部、情報記憶媒体からネットワークを介して情報記憶媒体180(または、記憶部170)に配信するようにしてもよい。このようなサーバの情報記憶媒体の使用も本発明の範囲に含まれる。   Note that a program for causing a computer to function as each unit of the present embodiment may be distributed from a storage unit or an information storage medium included in a server to the information storage medium 180 (or the storage unit 170) via a network. Good. Use of such server information storage media is also within the scope of the present invention.

処理部100(プロセッサ)は、入力部20から取得した情報や情報記憶媒体180から記憶部170に展開されたプログラム等に基づいて、物体認識処理、ゲーム処理、画像生成処理、或いは音制御の処理を行う。   The processing unit 100 (processor) performs object recognition processing, game processing, image generation processing, or sound control processing based on information acquired from the input unit 20, a program developed from the information storage medium 180 to the storage unit 170, or the like. I do.

特に、第1の物体認識システムの処理部100は、取得部110、算出部111、領域決定部112、物体認識処理部113、ゲーム演算部114、画像生成部120、音制御部130として機能する。   In particular, the processing unit 100 of the first object recognition system functions as an acquisition unit 110, a calculation unit 111, a region determination unit 112, an object recognition processing unit 113, a game calculation unit 114, an image generation unit 120, and a sound control unit 130. .

取得部110は、RGBカメラ(撮像部)21によって撮像された入力画像(RGB画像)を取得する処理を行う。   The acquisition unit 110 performs processing for acquiring an input image (RGB image) captured by the RGB camera (imaging unit) 21.

算出部111は、異なる時点で撮像された2つの入力画像に基づいて、入力画像の各画素の動きベクトルを算出する。   The calculation unit 111 calculates a motion vector of each pixel of the input image based on two input images captured at different times.

領域設定部112は、入力画像の各画素の動きベクトルに基づいて、入力画像において特定領域を設定する。領域設定部112は、複数の特定領域を設定するようにしてもよい。複数の特定領域を設定した場合には、各特定領域に優先度(優先順位情報)を付与(設定)する。つまり、特定領域単位で優先度を付与する。なお、優先度は、優先度が上位である特定領域を、その特定領域より優先度が下位である特定領域に優先して特定領域の物体認識処理を行うための情報である。   The region setting unit 112 sets a specific region in the input image based on the motion vector of each pixel of the input image. The area setting unit 112 may set a plurality of specific areas. When a plurality of specific areas are set, priority (priority information) is assigned (set) to each specific area. That is, priority is given in specific area units. Note that the priority is information for performing object recognition processing of a specific area by giving priority to a specific area having a higher priority than a specific area having a lower priority than the specific area.

また、領域設定部112は、入力画像の各画素の動きベクトルと色情報とに基づいて、入力画像において特定領域を設定するようにしてもよい。また、領域設定部112は、入力画像の各画素の動きベクトルのうち大きさが所定値以上である動きベクトルに基づいて、入力画像において特定領域を設定するようにしてもよい。   The region setting unit 112 may set a specific region in the input image based on the motion vector and color information of each pixel of the input image. The region setting unit 112 may set a specific region in the input image based on a motion vector having a magnitude equal to or larger than a predetermined value among the motion vectors of the pixels of the input image.

物体認識処理部113は、物体を認識する物体認識処理を行う。ここで、物体を認識する物体認識処理とは、物体自体を認識する処理、物体の動きを認識する処理、物体のジェスチャー(形、ポーズ)を認識する処理の少なくとも1つを含む。   The object recognition processing unit 113 performs object recognition processing for recognizing an object. Here, the object recognition process for recognizing an object includes at least one of a process for recognizing the object itself, a process for recognizing the movement of the object, and a process for recognizing the gesture (shape or pose) of the object.

例えば、物体認識処理部113は、入力画像の各画素の画素情報(画素の位置座標、画素の色情報、画素の動きベクトルの少なくとも1つ)に基づいて、認識パターン記憶部173に格納されている「人」の認識パターンを用いて、「人」を認識できるか否かを判断する。   For example, the object recognition processing unit 113 is stored in the recognition pattern storage unit 173 based on pixel information (at least one of pixel position coordinates, pixel color information, and pixel motion vector) of each pixel of the input image. It is determined whether or not “person” can be recognized using the recognition pattern of “person”.

具体的には、「人」の形(形状、シルエット)の認識パターンを用意し、入力画像において動きベクトルによって示される動き領域の形が、「人」の形であるか否かを判断する。そして、「人」の形であると判断した場合には、「人」を認識したと判定する処理を行う。一方、「人」を認識できない場合には、次の物体(例えば「手」)の認識パターンを用いて、次の物体(「手」)を認識できるか否かを判断する。そして、物体を認識できるまで、入力画像と次の認識パターンとを照合する処理を行う。   Specifically, a recognition pattern of the shape (shape, silhouette) of “person” is prepared, and it is determined whether or not the shape of the motion region indicated by the motion vector in the input image is the shape of “person”. When it is determined that the form is “person”, processing for determining that “person” is recognized is performed. On the other hand, when “person” cannot be recognized, it is determined whether or not the next object (“hand”) can be recognized using the recognition pattern of the next object (for example, “hand”). Then, the process of collating the input image with the next recognition pattern is performed until the object can be recognized.

また、物体認識処理部113は、「人」を認識したと判定された場合には、入力画像の各画素の画素情報に基づいて、「人」の動きを認識する処理を行う。また、物体認識処理部113は、「人」を認識したと判定された場合には、入力画像の各画素の画素情報に基づいて、「人」のジェスチャーを認識する処理を行う。   Further, when it is determined that “person” is recognized, the object recognition processing unit 113 performs processing for recognizing the movement of “person” based on pixel information of each pixel of the input image. Further, when it is determined that the “person” is recognized, the object recognition processing unit 113 performs a process of recognizing the “person” gesture based on the pixel information of each pixel of the input image.

特に、本実施形態の物体認識処理部113は、特定領域において物体認識処理を行う。例えば、物体認識処理部113は、特定領域における物体認識処理の精度を特定領域以外の領域の物体認識処理の精度よりも上げて、特定領域において物体認識処理を行うようにしてもよい。   In particular, the object recognition processing unit 113 of the present embodiment performs object recognition processing in a specific area. For example, the object recognition processing unit 113 may perform the object recognition process in the specific area by increasing the accuracy of the object recognition process in the specific area higher than the accuracy of the object recognition process in the area other than the specific area.

より具体的に説明すると、物体認識処理部113は、特定領域において物体認識処理を行う周期を特定領域以外の領域の物体認識処理の周期よりも短くして、特定領域において物体認識処理を行う。また、物体認識処理部113は、特定領域の画像精度(精細度)を特定領域以外の領域の画像精度よりも上げて、特定領域において物体認識処理を行う。   More specifically, the object recognition processing unit 113 performs the object recognition process in the specific region by setting the cycle of performing the object recognition process in the specific region to be shorter than the cycle of the object recognition process in the region other than the specific region. Further, the object recognition processing unit 113 performs object recognition processing in the specific area by increasing the image accuracy (definition) of the specific area higher than the image accuracy of the area other than the specific area.

また、物体認識処理部113は、特定領域以外の領域において物体認識処理を行うと共に、特定領域以外の領域において物体認識処理を行う周期を、特定領域において物体認識処理を行う周期よりも長くする。また、物体認識処理部113は、特定領域以外の領域において物体認識処理を行うと共に、特定領域以外の領域の画像精度を特定領域の画像精度よりも低くする。   In addition, the object recognition processing unit 113 performs the object recognition process in an area other than the specific area, and makes the period for performing the object recognition process in the area other than the specific area longer than the period for performing the object recognition process in the specific area. In addition, the object recognition processing unit 113 performs object recognition processing in a region other than the specific region, and lowers the image accuracy of the region other than the specific region than the image accuracy of the specific region.

また、物体認識処理部113は、複数の(2以上の)特定領域を設定されている場合には、少なくとも1つの特定領域について物体認識処理を行う。   In addition, when a plurality of (two or more) specific areas are set, the object recognition processing unit 113 performs object recognition processing for at least one specific area.

また、物体認識処理部113は、複数の特定領域を設定されている場合には、各特定領域において物体認識処理を行うと共に、優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くするようにしてもよい。   In addition, when a plurality of specific areas are set, the object recognition processing unit 113 performs the object recognition process in each specific area and sets the period in which the object recognition process is performed in the specific area with a low priority. It may be made longer than the period for performing the object recognition process in a specific region having a high height.

また、物体認識処理部113は、複数の特定領域を設定されている場合には、各特定領域において物体認識処理を行うと共に、優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くするようにしてもよい。   In addition, when a plurality of specific areas are set, the object recognition processing unit 113 performs object recognition processing in each specific area, and sets the image accuracy of the specific area with a low priority to the specific area with a high priority. The image accuracy may be lower than the image accuracy.

また、物体認識処理部113は、複数の特定領域を設定されている場合には、優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うようにしてもよい。   In addition, when a plurality of specific areas are set, the object recognition processing unit 113 does not perform the object recognition process in the low priority specific area but performs the object recognition process in the high priority specific area. It may be.

また、物体認識処理部113は、ボーン情報に基づいて、前記特定領域における前記物体認識処理を行うようにしてもよい。   Further, the object recognition processing unit 113 may perform the object recognition processing in the specific region based on bone information.

ゲーム演算部114は、種々のゲーム演算を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 114 performs various game calculations. Here, the game calculation includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result. There is a process or a process of ending a game when a game end condition is satisfied.

例えば、ゲーム演算部114は、入力部20からの入力データやプログラムなどに基づいて、ゲーム処理を行う。本実施形態のゲーム演算部114は、例えば、物体認識処理部113の認識結果に基づいてゲーム演算処理を行う。つまり、物体認識処理部113において「人(プレーヤ)」を認識した場合には、物体認識処理部113が「人」の動きやジェスチャーを認識し、その「人」の動き(左右に人が動く動作)やジェスチャー(特定のポーズ)に基づいてゲーム演算処理を行うようにしてもよい。   For example, the game calculation unit 114 performs a game process based on input data from the input unit 20, a program, and the like. The game calculation unit 114 of the present embodiment performs a game calculation process based on the recognition result of the object recognition processing unit 113, for example. That is, when the object recognition processing unit 113 recognizes “person (player)”, the object recognition processing unit 113 recognizes the movement and gesture of the “person” and moves the “person” (the person moves to the left and right). The game calculation process may be performed based on an operation) or a gesture (specific pose).

なお、処理部100は、仮想空間にオブジェクトを配置する処理、仮想空間に存在するオブジェクトを移動させる処理などを行うようにしてもよい。例えば、処理部100は、オブジェクトを仮想空間(仮想3次元空間(オブジェクト空間)、仮想2次元空間)に配置する処理を行うようにしてもよい。例えば、キャラクタ、指示オブジェクトの他に、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を、仮想空間に配置する処理を行う。ここで仮想空間とは、仮想的なゲーム空間であり、例えば、仮想3次元空間の場合、ワールド座標系、仮想カメラ座標系のように、3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。   Note that the processing unit 100 may perform processing for arranging an object in the virtual space, processing for moving an object existing in the virtual space, and the like. For example, the processing unit 100 may perform processing for arranging an object in a virtual space (virtual three-dimensional space (object space), virtual two-dimensional space). For example, a display object such as a building, a stadium, a car, a tree, a pillar, a wall, and a map (terrain) is placed in the virtual space in addition to the character and the pointing object. Here, the virtual space is a virtual game space. For example, in the case of a virtual three-dimensional space, objects are arranged in three-dimensional coordinates (X, Y, Z) like a world coordinate system and a virtual camera coordinate system. Space.

例えば、処理部100は、ワールド座標系にオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。なお、処理部100は、スケーリングされたオブジェクトを仮想空間に配置する処理を行ってもよい。   For example, the processing unit 100 arranges an object (an object composed of a primitive such as a polygon, a free-form surface, or a subdivision surface) in the world coordinate system. Also, for example, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system is determined, and the rotation angle (X, Y, Z axis rotation) is determined at that position (X, Y, Z). Position the object at (Angle). Note that the processing unit 100 may perform a process of placing the scaled object in the virtual space.

また、処理部100は、仮想空間にあるオブジェクトの移動・動作演算を行うようにしてもよい。すなわち入力部から受け付けた入力情報、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトを仮想空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(移動速度、移動加速度、位置、向きなど)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求める処理を行う。なお、フレームは、オブジェクトの移動・動作処理や画像生成処理を行う時間の単位である。   Further, the processing unit 100 may perform movement / motion calculation of an object in the virtual space. In other words, based on the input information received from the input unit, programs (movement / motion algorithm), various data (motion data), etc., the object is moved in the virtual space and the object is moved (motion, animation). Process. Specifically, object movement information (movement speed, movement acceleration, position, orientation, etc.) and movement information (position of each part constituting the object, or rotation angle) are obtained every frame (1/60 second). Processing to obtain sequentially is performed. Note that a frame is a unit of time for performing object movement / motion processing and image generation processing.

画像生成部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部90に出力する。例えば、本実施形態の画像生成部120は、基準開始タイミングと基準判定期間とを指示する画像を生成する。   The image generation unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting it to the display unit 90. For example, the image generation unit 120 of the present embodiment generates an image that indicates the reference start timing and the reference determination period.

画像生成部120は、オブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The image generation unit 120 receives and inputs object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model). Based on the vertex data included in the object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ172(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the image buffer 172 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして画像生成部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The image generation unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

例えば、αブレンディングでは、これから画像バッファ172に描画する描画色(上書きする色)C1と、既に画像バッファ172(レンダリングターゲット)に描画されている描画色(下地の色)C2とを、α値に基づいて線形合成処理を行う。つまり、最終的な描画色をCとすると、C=C1*α+C2*(1−α)によって求めることができる。   For example, in α blending, the drawing color (overwriting color) C1 to be drawn in the image buffer 172 and the drawing color (background color) C2 already drawn in the image buffer 172 (rendering target) are set to α values. Based on this, a linear synthesis process is performed. That is, if the final drawing color is C, it can be obtained by C = C1 * α + C2 * (1−α).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音制御部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、スピーカー92に出力する。   The sound control unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates a game sound such as BGM, sound effect, or sound, and outputs the game sound to the speaker 92.

なお、本実施形態の端末は、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の端末とデータを送受信してゲーム処理を行うようにしてもよいし、1つの端末が、複数の入力部からの入力情報に基づいて処理を行うようにしてもよい。   Note that the terminal according to the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, in the case of controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from other terminals via a network, or one terminal may receive input information from a plurality of input units. Processing may be performed based on this.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by hardware such as a memory (ROM).

表示部90は、処理部100により生成された画像を出力するものであり、その機能は、CRTディスプレイ、LCD(液晶ディスプレイ)、OELD(有機ELディスプレイ)、PDP(プラズマディスプレイパネル)、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。   The display unit 90 outputs an image generated by the processing unit 100, and functions thereof are a CRT display, LCD (liquid crystal display), OELD (organic EL display), PDP (plasma display panel), touch panel display. Alternatively, it can be realized by hardware such as an HMD (head mounted display).

スピーカー92は、音制御部130により再生する音を出力するものであり、その機能は、スピーカー、或いはヘッドフォンなどのハードウェアにより実現できる。なお、スピーカー92は、表示部に備えられたスピーカーとしてもよい。例えば、テレビ(家庭用テレビジョン受像機)を表示部としている場合には、テレビのスピーカーとすることができる。   The speaker 92 outputs sound to be reproduced by the sound control unit 130, and its function can be realized by hardware such as a speaker or headphones. Note that the speaker 92 may be a speaker provided in the display unit. For example, when a television (household television receiver) is used as the display unit, a television speaker can be used.

なお、本実施形態は、物体認識装置10の認識パターン記憶部173、入力画像記憶部174、差分画像記憶部175に記憶されるデータを、入力部20の記憶部23に記憶するようにし、本実施形態の算出部111、領域設定部112、物体認識処理部113の処理を、入力部20の処理部22が行うようにしてもよい。   In the present embodiment, the data stored in the recognition pattern storage unit 173, the input image storage unit 174, and the difference image storage unit 175 of the object recognition apparatus 10 are stored in the storage unit 23 of the input unit 20, The processing unit 22 of the input unit 20 may perform the processing of the calculation unit 111, the region setting unit 112, and the object recognition processing unit 113 of the embodiment.

1−3.動きベクトルの説明
本実施形態は、RGBカメラ21(撮像部)により撮像された入力画像(RGB画像)を取得する。例えば、図3に示すように、描画のフレームレートにあわせて所定周期(例えば、1/60秒の周期)で、RGBカメラ21からデジタル化された入力画像F1、F2、F3、F4を取得する処理を行う。
1-3. Description of Motion Vector In this embodiment, an input image (RGB image) captured by the RGB camera 21 (imaging unit) is acquired. For example, as shown in FIG. 3, the digitized input images F1, F2, F3, and F4 are acquired from the RGB camera 21 at a predetermined period (for example, a period of 1/60 seconds) according to the drawing frame rate. Process.

そして、本実施形態では、異なる時点で撮像された2つの入力画像において、同じ画素の対応付けを行い、その動き量(移動量)と動き方向(移動方向)とを示す動きベクトル(移動ベクトル、オプティカルフロー)を求める。図3の動きベクトルVは、入力画像F1の画素P1に対応する入力画像F2の画素P2に向かうベクトルを示している。本実施形態では、入力画像の各画素について動きベクトルを求めている。   In the present embodiment, the same pixels are associated with each other in two input images captured at different times, and a motion vector (movement vector, movement direction) indicating the movement amount (movement amount) and the movement direction (movement direction) is obtained. Optical flow). A motion vector V in FIG. 3 indicates a vector directed to the pixel P2 of the input image F2 corresponding to the pixel P1 of the input image F1. In this embodiment, a motion vector is obtained for each pixel of the input image.

特に、本実施形態では、処理負荷を軽減するために、入力画像F1、F2との画素値(輝度値、カラー値)の差分をとった差分画像に基づいて動きベクトルを求めている。例えば、図4(A)に示すように画素値が「50」の領域が右下方向に動く例について説明する。本実施形態では、図4(B)に示すように前画像(入力画像F1)と、現画像(入力画像F2)とを入力画像記憶部174に記憶部し、前画像と現画像の画素値の差分をとり、図4(C)に示す差分画像を、差分画像記憶部175に記憶する。そして、差分画像に基づいて画素の動き量と動き方向とを求めている。つまり、本実施形態では、前画像と現画像との差分をとった各画素の差分画素値の絶対値を、各画素の動きベクトルVの大きさ(動き量)とし、前画像と現画像との差分画素値に基づいて、画素における各方位(上方向、下方向、右方向、左方向)の推定方位を求める。   In particular, in this embodiment, in order to reduce the processing load, a motion vector is obtained based on a difference image obtained by taking a difference between pixel values (luminance values and color values) from the input images F1 and F2. For example, as shown in FIG. 4A, an example in which a region having a pixel value “50” moves in the lower right direction will be described. In this embodiment, as shown in FIG. 4B, the previous image (input image F1) and the current image (input image F2) are stored in the input image storage unit 174, and the pixel values of the previous image and the current image are stored. And the difference image shown in FIG. 4C is stored in the difference image storage unit 175. Then, the amount of movement and the direction of movement of the pixel are obtained based on the difference image. That is, in the present embodiment, the absolute value of the difference pixel value of each pixel obtained by taking the difference between the previous image and the current image is set as the magnitude (motion amount) of the motion vector V of each pixel, and the previous image and the current image Based on the difference pixel value, an estimated orientation of each orientation (upward, downward, rightward, leftward) of the pixel is obtained.

推定方位の求め方についてより詳しく図5に示すフローチャートを用いて説明する。まず、本実施形態では、前画像の画素P(x,y)の特定方位上の隣接する2つの画素値を比較する(ステップS1)。例えば、図4(D)に示すように、前画像の画素P(x,y)の左右方向上に隣接する画素(x,y)の画素値と(x,y)の画素値とを比較する。 The method for obtaining the estimated azimuth will be described in more detail with reference to the flowchart shown in FIG. First, in the present embodiment, two adjacent pixel values in a specific direction of the pixel P (x 1 , y 1 ) of the previous image are compared (step S1). For example, as shown in FIG. 4D, the pixel value of the pixel (x 0 , y 1 ) adjacent in the left-right direction of the pixel P (x 1 , y 1 ) of the previous image and (x 2 , y 1 ) Is compared with the pixel value of.

そして、比較した画素値が等しいか否かを判断する(ステップS2)。そして、比較した画素値が等しくない場合は、ステップS3に進み、一方、比較した画素値が等しい場合には画素P(x,y)が動いていないものとみなし処理を終了する。例えば、画素(x,y)の画素値と画素(x,y)の画素値は異なるので、ステップS3に進む。 Then, it is determined whether or not the compared pixel values are equal (step S2). If the compared pixel values are not equal, the process proceeds to step S3. On the other hand, if the compared pixel values are equal, it is assumed that the pixel P (x 1 , y 1 ) is not moving, and the process is terminated. For example, since the pixel value of the pixel (x 0 , y 1 ) is different from the pixel value of the pixel (x 2 , y 1 ), the process proceeds to step S3.

そして、小さい画素値を有する画素をLとし、大きい画素値を有する画素をGとする(ステップS3)。例えば、図4(D)の例では、画素(x,y)をLとし、画素(x,y)をGとする。 Then, a pixel having a small pixel value is set to L, and a pixel having a large pixel value is set to G (step S3). For example, in the example of FIG. 4D, the pixel (x 0 , y 1 ) is L and the pixel (x 2 , y 1 ) is G.

そして、画素P(x,y)での差分画像の差分画素値が0であるか否かを判断し(ステップS4)、差分画素値が0でない場合には、ステップS5に進み、差分画像の差分画素値が0である場合には、画素P(x,y)が動いていないものとみなし処理を終了する。例えば、図4(D)の例では、画素P(x,y)差分画像の差分画素値は「−40」であるので、ステップS5に進む。 Then, it is determined whether or not the difference pixel value of the difference image at the pixel P (x 1 , y 1 ) is 0 (step S4). If the difference pixel value is not 0, the process proceeds to step S5, where the difference When the difference pixel value of the image is 0, it is considered that the pixel P (x 1 , y 1 ) is not moving, and the process is terminated. For example, in the example of FIG. 4D, since the difference pixel value of the pixel P (x 1 , y 1 ) difference image is “−40”, the process proceeds to step S5.

そして、差分画素値が0より小さいか否かを判断し(ステップS5)、差分画素値が0より小さい場合には、ステップS6に進み、P→Gの向きを選択する処理を行う(ステップS6)。一方、差分画素値が0より小さくない場合には、ステップS7に進み、P→Lの向きを選択する処理を行う(ステップS7)。図4(D)の例では、画素P(x,y)差分画像の差分画素値は「−40」であり、0より小さいのでステップS6に進み、P→Gの右方向の向きが推定方向として選択される。以上で処理が終了する。 Then, it is determined whether or not the difference pixel value is smaller than 0 (step S5). If the difference pixel value is smaller than 0, the process proceeds to step S6, and the process of selecting the P → G direction is performed (step S6). ). On the other hand, if the difference pixel value is not smaller than 0, the process proceeds to step S7, and a process of selecting the direction P → L is performed (step S7). In the example of FIG. 4D, the difference pixel value of the pixel P (x 1 , y 1 ) difference image is “−40”, which is smaller than 0. Therefore, the process proceeds to step S6 and the right direction of P → G is Selected as the estimated direction. The process ends here.

図4(E)は、全画素について、画素の4方位(上方向、下方向、右方向、左方向)の推定方向を求めた例である。本実施形態では、図4(F)に示すように、各画素において、画素の4方位(上方向、下方向、右方向、左方向)に関する推定方向の和をその画素P(x,y)の動き方向としてもよい。また、図4(G)に示すように、各画素において、画素の周辺8個を含む推定方向を平滑化した方向を動き方向としてもよい。 FIG. 4E is an example in which the estimated directions of the four directions (upward, downward, rightward, leftward) of the pixels are obtained for all the pixels. In the present embodiment, as shown in FIG. 4F, in each pixel, the sum of the estimated directions with respect to the four directions (upward, downward, rightward, leftward) of the pixel is determined as the pixel P (x 1 , y The movement direction of 1 ) may be used. Further, as shown in FIG. 4G, in each pixel, a direction obtained by smoothing the estimated direction including the eight surrounding pixels may be used as the motion direction.

以上のようにして、本実施形態では、入力画像の各画素の動き量、及び動きベクトルを求めているが、いわゆる勾配法やブロックマッチング法によって求めてもよい。なお、本実施形態では、RGB画像を入力画像としているが、輝度値を有するグレースケール画像を入力画像として用いてもよい。   As described above, in this embodiment, the motion amount and motion vector of each pixel of the input image are obtained, but may be obtained by a so-called gradient method or block matching method. In the present embodiment, an RGB image is used as an input image, but a grayscale image having a luminance value may be used as an input image.

1−4.物体認識処理
本実施形態では、記憶部に予め格納されている認識パターンを用いて、RGBカメラによって撮像された画像上の物体を認識する物体認識処理を行う。ここで、物体を認識する物体認識処理とは、物体自体を認識する処理、物体の動きを認識する処理、物体のジェスチャー(形、ポーズ)を認識する処理の少なくとも1つを含む。
1-4. Object Recognition Processing In this embodiment, object recognition processing for recognizing an object on an image captured by an RGB camera is performed using a recognition pattern stored in advance in a storage unit. Here, the object recognition process for recognizing an object includes at least one of a process for recognizing the object itself, a process for recognizing the movement of the object, and a process for recognizing the gesture (shape or pose) of the object.

例えば、入力画像の各画素の画素情報(画素の位置座標、画素の色情報、画素の動きベクトルの少なくとも1つ)に基づいて、認識パターン記憶部173に格納されている「人」の認識パターンを用いて、「人」を認識できるか否かを判断する。   For example, a recognition pattern of “person” stored in the recognition pattern storage unit 173 based on pixel information (at least one of pixel position coordinates, pixel color information, and pixel motion vector) of each pixel of the input image. Is used to determine whether or not “person” can be recognized.

具体的には、差分画像において差分画素値が20以上の画素の領域、或いは、差分画像において差分画素値が0より大きい値の画素で区切られる領域を動き領域として設定し、「人」の形(形状)の認識パターンを用いて、動き領域の形が認識パターンで示される「人」の形と適合(一致)するか否かを判断する。そして、「人」の形と適合する場合には、「人」を認識したと判定する処理を行う。一方、「人」を認識できない場合には、次の物体(例えば「手」)の認識パターンを用いて、次の物体を認識できるか否かを判断する。そして、物体を認識できるまで、入力画像と次の認識パターンとを照合する処理を行う。そして、結果的に動き領域において物体を認識できない場合には、次の動き領域を特定して、次の動き領域において物体を認識する処理を行う。   Specifically, an area of a pixel having a difference pixel value of 20 or more in the difference image or an area delimited by pixels having a difference pixel value greater than 0 in the difference image is set as a motion area, Using the (shape) recognition pattern, it is determined whether or not the shape of the motion region matches (matches) the shape of the “person” indicated by the recognition pattern. If it matches the shape of “person”, a process of determining that “person” has been recognized is performed. On the other hand, when “person” cannot be recognized, it is determined whether or not the next object can be recognized using the recognition pattern of the next object (for example, “hand”). Then, the process of collating the input image with the next recognition pattern is performed until the object can be recognized. As a result, when the object cannot be recognized in the motion region, the next motion region is specified and the object is recognized in the next motion region.

本実施形態では、(A)毎フレーム(1/60秒間隔)で2つの画像の差分画像をとり、差分画像の差分画素値に基づいて、動き領域を特定してもよいし、(B)2フレーム(1/30秒間隔)で2つの画像の差分画像をとり、差分画像の差分画素値に基づいて、動き領域を特定してもよいし、(C)10フレーム(1/6秒間隔)で2つの画像の差分画像をとり、差分画像の差分画素値に基づいて、動き領域を特定してもよい。   In the present embodiment, (A) a difference image between two images may be taken every frame (1/60 second interval), and a motion region may be specified based on the difference pixel value of the difference image, or (B) A difference image between two images may be taken at 2 frames (1/30 second interval), and a motion region may be specified based on the difference pixel value of the difference image. (C) 10 frames (1/6 second interval) ), A difference image between the two images is taken, and the motion region may be specified based on the difference pixel value of the difference image.

なお、(A)(B)(C)で特定した動き領域の平均的な領域を、動き領域として特定してもよい。例えば、1秒間の間に毎フレームでの差分画像の差分画素値の平均値Aと、同じ1秒間の間に1/30秒間隔での差分画像の差分画素値の平均値Bと、同じ1秒間の間に1/6秒間隔での差分画像の差分画素値の平均値Cの合計を、3で割った値を用いて、動き領域を設定するようにしてもよい。   Note that the average area of the motion areas identified in (A), (B), and (C) may be identified as the motion area. For example, the average value A of the difference pixel values of the difference image in each frame during one second and the average value B of the difference pixel values of the difference image at 1/30 second intervals in the same one second are the same 1 You may make it set a motion area using the value which divided the average value C of the difference pixel value of the difference image in the interval of 1/6 second during 3 seconds by 3.

1−5.特定領域において物体を認識する処理
本実施形態では、特定領域を設定し、特定領域において物体認識処理を行う。このようにすれば、効率的に、かつ、正確に物体を認識する処理を行うことができる。また、特定領域以外の領域に別の物体が映りこんでいる場合に、その別の物体を誤って認識する事態を防止することができる。
1-5. Processing for Recognizing Object in Specific Area In the present embodiment, a specific area is set, and object recognition processing is performed in the specific area. In this way, processing for recognizing an object efficiently and accurately can be performed. In addition, when another object is reflected in an area other than the specific area, it is possible to prevent a situation where the other object is erroneously recognized.

まず、本実施形態では、入力画像の各画素の動きベクトルに基づいて、入力画像において特定領域を設定する。例えば、図6(A)に示すように入力画像F1と、図6(B)に示す入力画像F2(入力画像F1から1/60秒後に取得した入力画像F2)とに基づいて、図6(C)に示すような入力画像F1、F2間の各画素の動きベクトルが得られた場合、入力画像F1、F2間の動きベクトルの方向、大きさに基づいて、特定領域を設定する。言い換えると、入力画像F1、F2間の差分画像の差分画素値に基づいて特定領域を設定する。   First, in the present embodiment, a specific region is set in the input image based on the motion vector of each pixel of the input image. For example, based on the input image F1 as shown in FIG. 6A and the input image F2 shown in FIG. 6B (the input image F2 acquired 1/60 seconds after the input image F1), FIG. When the motion vector of each pixel between the input images F1 and F2 as shown in C) is obtained, the specific region is set based on the direction and magnitude of the motion vector between the input images F1 and F2. In other words, the specific area is set based on the difference pixel value of the difference image between the input images F1 and F2.

例えば、「所与の期間(2秒間)において、動きベクトルの大きさ(差分画素値)の平均値が200以上であって、動きベクトルが左又は右方向を向く領域」をルール1とし、図7に示すように、ルール1に基づいて決定される領域を、特定領域A1として設定する。例えば、本実施形態では、ルール1などの規則情報に基づいて決定される領域を包囲する矩形の領域を特定領域A1として設定する。なお、特定領域を設定するルールは記憶部70に記憶されている。   For example, rule 1 is “a region where the average value of motion vector magnitude (difference pixel value) is 200 or more and the motion vector faces left or right in a given period (2 seconds)”. As shown in FIG. 7, the area determined based on the rule 1 is set as the specific area A1. For example, in the present embodiment, a rectangular area surrounding an area determined based on rule information such as rule 1 is set as the specific area A1. Note that the rules for setting the specific area are stored in the storage unit 70.

なお、本実施形態では、入力画像の各画素の動きベクトルと色情報とに基づいて、入力画像において特定領域を設定するようにしてもよい。例えば、「黄色系統のカラー値を有する画素であって、所与の期間(2秒間)において、動きベクトルの大きさ(差分画素値)の平均値が200以上であって、動きベクトルが左又は右方向を向く領域」をルール1´とし、ルール1´に基づいて、特定領域A1´を設定するようにしてもよい。   In the present embodiment, the specific area may be set in the input image based on the motion vector and color information of each pixel of the input image. For example, “a pixel having a yellow color value, and an average value of a motion vector size (difference pixel value) is 200 or more in a given period (2 seconds), and the motion vector is left or The “area facing right” may be rule 1 ′, and the specific area A1 ′ may be set based on rule 1 ′.

なお、一度、特定領域A1を設定した場合、特定領域A1の物体を認識する必要があるので、特定領域A1を設定した時点から所与の期間(例えば60秒間)、特定領域A1を固定する。そして、所与の周期(例えば60秒周期)で特定領域A1を更新(変動、再設定)する。   Note that once the specific area A1 is set, it is necessary to recognize an object in the specific area A1, and thus the specific area A1 is fixed for a given period (for example, 60 seconds) from the time when the specific area A1 is set. Then, the specific area A1 is updated (varied, reset) at a given period (for example, a period of 60 seconds).

そして、本実施形態では、図7に示す特定領域A1において物体認識処理を行う。つまり、設定された特定領域A1において、動き領域S1を設定し、動き領域の形が認識パターンと一致するか否かを判断すればよい。例えば、特定領域A1の各画素において、動きベクトルの大きさ(差分画素値が)所定値以上である画素の集合を動き領域S1とする。   In this embodiment, the object recognition process is performed in the specific area A1 shown in FIG. That is, in the set specific area A1, the motion area S1 is set, and it is determined whether or not the shape of the motion area matches the recognition pattern. For example, in each pixel of the specific area A1, a set of pixels having a motion vector magnitude (difference pixel value) equal to or greater than a predetermined value is defined as a motion area S1.

そして、本実施形態では、例えば、特定領域A1の動き領域S1の形と、「人」の認識パターンとを比較し「人」であるか否かを判断する。図7の例では、「人」の認識パターンと一致しないと判断され、特定領域A1の動き領域S1の形と「手」の認識パターンとを比較し「手」であるか否かを判断する。図7の例では、「手」の認識パターンと一致すると判断され、特定領域A1において「手」を認識したと判定されることになる。   In this embodiment, for example, the shape of the motion area S1 of the specific area A1 is compared with the recognition pattern of “person” to determine whether the person is “person”. In the example of FIG. 7, it is determined that the pattern does not match the recognition pattern of “person”, and the shape of the motion area S1 of the specific area A1 is compared with the recognition pattern of “hand” to determine whether it is “hand”. . In the example of FIG. 7, it is determined that the recognition pattern matches the “hand” recognition pattern, and it is determined that “hand” has been recognized in the specific area A <b> 1.

また、本実施形態では、入力画像の一部の特定領域A1にマシンパワーを注ぐことができるので、特定領域A1の画像精度を上げて物体を認識するようにしてもよい。画像精度とは、画像の解像度(画像の総画素数)や、画像の量子化レベル(画素が取り得る範囲、階調)であり、解像度が高いほど、より精細に物体を認識することができる。また、量子化レベルが高いほど、画素値(差分画素値)の取り得る値域が広がり、より精細に動き領域を設定する精度を上げることができる。   In the present embodiment, since machine power can be poured into a specific area A1 that is a part of the input image, the image accuracy of the specific area A1 may be increased to recognize an object. Image accuracy is the resolution of the image (total number of pixels in the image) and the quantization level of the image (range that pixels can take, gradation). The higher the resolution, the more precise the object can be recognized. . Further, the higher the quantization level, the wider the range of values that can be taken by the pixel value (difference pixel value), and the accuracy of setting the motion region more precisely can be increased.

例えば、図8に示すように、特定領域A1の解像度を上げて、特定領域A1において各画素の動きベクトルを算出し直し、画像精度を上げた各画素の動きベクトルに基づいて、動き領域S1´を設定するようにしてもよい。このようにすれば、例えば、「手」を判断された場合に、「手」のジェスチャー(形状)や、「手」の動きをより詳しく認識することができる。図8の例では、特定領域A1の動き領域S1´の形と、「手」の「グー」、「チョキ」、「パー」の3つの認識パターンそれぞれの一致度を判断し、「パー」の認識パターンに最も一致すると判断される。   For example, as shown in FIG. 8, the resolution of the specific area A1 is increased, the motion vector of each pixel is recalculated in the specific area A1, and the motion area S1 ′ is calculated based on the motion vector of each pixel whose image accuracy is increased. May be set. In this way, for example, when “hand” is determined, the gesture (shape) of “hand” and the movement of “hand” can be recognized in more detail. In the example of FIG. 8, the degree of coincidence between the shape of the movement area S1 ′ of the specific area A1 and the three recognition patterns “goo”, “choki”, and “par” of “hand” is determined. It is determined that it most closely matches the recognition pattern.

また、本実施形態では、図9に示すように、特定領域A1において物体認識処理を行う周期を短くするようにしてもよい。例えば、特定領域A1を設定する前において、1/6秒周期で取得した2つの入力画像の差分画像を求めていた場合、特定領域A1を設定したt10時点以後は、1/60秒周期で取得した2つの入力画像の差分画像を求めるようにする。つまり、1/60秒間隔で入力画像上の特定領域A1の差分画像を求めるようにする。このようにすれば、より詳細に物体の動きを認識することができる。   Further, in the present embodiment, as shown in FIG. 9, the cycle for performing the object recognition process in the specific area A1 may be shortened. For example, if a difference image between two input images acquired with a 1/6 second period is obtained before setting the specific area A1, it is acquired with a 1/60 second period after time t10 when the specific area A1 is set. A difference image between the two input images is obtained. That is, the difference image of the specific area A1 on the input image is obtained at 1/60 second intervals. In this way, the movement of the object can be recognized in more detail.

以上のように、本実施形態では、特定領域A1にマシンパワーを注ぐことができるので、物体について詳細に物体認識処理を行うことができる。また、本実施形態では、特定領域について画像精度を上げ、さらに認識周期を短くすることによって物体の誤認識を軽減することができる、という効果もある。   As described above, in the present embodiment, machine power can be poured into the specific area A1, so that object recognition processing can be performed in detail for an object. In addition, in the present embodiment, there is an effect that the erroneous recognition of the object can be reduced by increasing the image accuracy for the specific region and further shortening the recognition cycle.

例えば、図10(A)に示す入力画像F10と、図10(B)に示す入力画像F11との差分画像に基づき、図10(C)に基づく動きベクトルが得られ、かかる場合において、図11に示すように、ルール1に基づいて特定領域B1が設定されたとする。ここで、画像精度を上げない場合や、認識周期を短くしない場合は、特定領域B1の動き領域S2の形が「鳥」ではなく「手」であると判断されるおそれがある。   For example, based on the difference image between the input image F10 shown in FIG. 10A and the input image F11 shown in FIG. 10B, a motion vector based on FIG. 10C is obtained. Suppose that the specific area B1 is set based on the rule 1 as shown in FIG. Here, when the image accuracy is not increased or when the recognition cycle is not shortened, it may be determined that the shape of the motion region S2 of the specific region B1 is not “bird” but “hand”.

しかし、特定領域B1では、図10(A)、(B)に示すように、実際は鳥が飛んでいるので、「鳥」と判断される方が自然である。そこで本実施形態では、図12に示すように、特定領域B1について画像精度を上げ、また、認識周期を短くし、詳細に正しく物体認識処理を行うようにする。つまり、特定領域B1の解像度を上げて、動きベクトルを算出しなおし、特定領域B1において動き領域S2´を特定する。そして動き領域S2´の形が、「手」の認識パターンを一致せず、「鳥」の認識パターンと一致すると判断され、結果的に、特定領域B1において「鳥」を認識することができる。   However, in the specific area B1, as shown in FIGS. 10A and 10B, since a bird actually flies, it is natural to determine that it is a “bird”. Therefore, in the present embodiment, as shown in FIG. 12, the image accuracy is increased for the specific region B1, the recognition cycle is shortened, and the object recognition process is performed correctly in detail. That is, the resolution of the specific area B1 is increased, the motion vector is recalculated, and the motion area S2 ′ is specified in the specific area B1. Then, it is determined that the shape of the motion region S2 ′ does not match the recognition pattern of “hand” but matches the recognition pattern of “bird”, and as a result, “bird” can be recognized in the specific region B1.

1−6.特定領域と特定領域以外の領域との関係
本実施形態では、図7の特定領域A1以外の領域において物体認識処理を行うようにしてもよい。特定領域以外の領域において物体認識処理を行う場合には、特定領域以外の領域の画像精度を特定領域の画像精度よりも低くする。このようにすれば、特定領域A1よりも認識精度は劣るが、特定領域A1以外に物体が存在する場合には、その物体を認識することができる。
1-6. Relationship between the specific area and the area other than the specific area In the present embodiment, the object recognition process may be performed in an area other than the specific area A1 in FIG. When performing object recognition processing in a region other than the specific region, the image accuracy of the region other than the specific region is set lower than the image accuracy of the specific region. In this way, the recognition accuracy is inferior to that of the specific area A1, but when an object exists outside the specific area A1, the object can be recognized.

本実施形態では、特定領域A1以外の領域の画像精度を特定領域の画像精度よりも低くするようにしてもよい。また、特定領域以外の領域において物体認識処理を行う周期を、特定領域A1において物体認識処理を行う周期よりも長くする。例えば、図13に示すように、特定領域A1以外の領域においては、1/6秒の周期で物体認識処理を行い、特定領域A1においては、1/60秒の周期で物体認識処理を行う。このようにすれば、マシンパワー(コンピュータの総合的な処理能力)を主に特定領域A1の物体認識処理に注力することができ、特定領域A1の物体認識処理をより正確に行うことができる。   In the present embodiment, the image accuracy of the region other than the specific region A1 may be made lower than the image accuracy of the specific region. Further, the cycle for performing the object recognition process in the region other than the specific region is set longer than the cycle for performing the object recognition process in the specific region A1. For example, as shown in FIG. 13, the object recognition process is performed at a period of 1/6 second in the area other than the specific area A1, and the object recognition process is performed at a period of 1/60 second in the specific area A1. In this way, the machine power (total processing capability of the computer) can be mainly focused on the object recognition process in the specific area A1, and the object recognition process in the specific area A1 can be performed more accurately.

1−7.複数の特定領域
本実施形態では、複数の特定領域を設定するようにしてもよい。例えば、「所与の期間(2秒間)において、動きベクトルの大きさ(差分画素値)の平均値が200以上であって、動きベクトルが左又は右方向を向く領域」をルール1とし、「所与の期間(2秒間)において、動きベクトルの大きさ(差分画素値)の平均値が100以上であって、動きベクトルが左又は右方向を向く領域」をルール2とした場合、図7に示すように、ルール1に基づいて決定される領域を、特定領域A1として設定すると共に、図14に示すように、ルール2に基づいて決定される領域を、特定領域A2として設定する。なお、本実施形態では、3つ以上の特定領域を設定してもよい。
1-7. Multiple specific areas In the present embodiment, multiple specific areas may be set. For example, rule 1 is “a region in which the average value of motion vectors (difference pixel values) is 200 or more and the motion vector faces left or right in a given period (2 seconds)”. When the rule 2 is “a region where the average value of motion vectors (difference pixel values) is 100 or more and the motion vector faces left or right in a given period (2 seconds)”, FIG. As shown in FIG. 14, the area determined based on the rule 1 is set as the specific area A1, and as shown in FIG. 14, the area determined based on the rule 2 is set as the specific area A2. In the present embodiment, three or more specific areas may be set.

そして、少なくとも1つの特定領域について物体認識処理を行う。例えば、ルール1、ルール2に基づいて設定された特定領域A1、A2のいずれか一方について物体認識処理を行うようにしてもよいし、特定領域A1、A2の両方について物体認識処理を行うようにしてもよい。例えば、特定領域A2において物体認識処理を行う場合には、特定領域A2の動き領域S3の形と、「人」の認識パターンとを比較し「人」であるか否かを判断する。図14の例では、「人」の認識パターンと一致すると判断される。   Then, object recognition processing is performed for at least one specific region. For example, the object recognition process may be performed for one of the specific areas A1 and A2 set based on the rule 1 and the rule 2, or the object recognition process may be performed for both the specific areas A1 and A2. May be. For example, when the object recognition process is performed in the specific area A2, the shape of the motion area S3 of the specific area A2 is compared with the recognition pattern of “person” to determine whether the person is “person”. In the example of FIG. 14, it is determined that the recognition pattern matches the “person” recognition pattern.

特に、本実施形態では、複数の特定領域を設定した場合には、各特定領域に優先度を設定する(付与する)。例えば、図15に示すように、各ルールのIDに対応づけて(各領域に対応づけて)、優先度を設定する。本実施形態では、動きベクトルの大きさに従って優先度を決める。例えば、特定領域上の各画素の動きベクトルの大きさ(差分画素値)の平均値を算出し、平均値が高いほど優位になるように優先度を設定するようにしてもよい。   In particular, in the present embodiment, when a plurality of specific areas are set, a priority is set (given) to each specific area. For example, as shown in FIG. 15, the priority is set in association with the ID of each rule (in association with each area). In this embodiment, the priority is determined according to the magnitude of the motion vector. For example, the average value of the motion vector magnitude (difference pixel value) of each pixel on the specific region may be calculated, and the priority may be set so that the higher the average value, the more dominant.

そして、本実施形態では、優先度に基づいて、物体認識処理を行う。例えば、優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くするようにしてもよい。つまり、図16に示すように、特定領域A2について解像度を上げると共に、優先度の低い特定領域A2の解像度を、優先度の高い特定領域A1の解像度よりも低くする。このようにすれば、優先度の高い特定領域A1について、マシンパワーを主に注力させて詳細に物体を認識することができ、優先度の低いものについて処理を簡素にし、効率よく特定領域A1、A2の物体認識処理を行うことができる。   In this embodiment, object recognition processing is performed based on the priority. For example, the image accuracy of a specific region with a low priority may be set lower than the image accuracy of a specific region with a high priority. That is, as shown in FIG. 16, the resolution of the specific area A2 is increased, and the resolution of the specific area A2 having a low priority is set lower than the resolution of the specific area A1 having a high priority. In this way, it is possible to recognize the object in detail by focusing mainly on the machine power for the specific area A1 with high priority, simplify the processing for the low priority area, and efficiently specify the specific area A1, The object recognition process of A2 can be performed.

なお、図16に示すように、特定領域A2について解像度を上げた場合には、解像度を上げた特定領域A2において動きベクトルを算出し直し、特定領域A2の動き領域S3´の形と、「人」の認識パターンとを比較し「人」であるか否かを判断するようにしてもよい。図16の例では、「人」の認識パターンと一致すると判断される。   As shown in FIG. 16, when the resolution is increased for the specific area A2, the motion vector is recalculated in the specific area A2 with the increased resolution, and the shape of the motion area S3 ′ of the specific area A2 It is also possible to determine whether or not the person is a “person” by comparing with the recognition pattern “”. In the example of FIG. 16, it is determined that the recognition pattern matches the “person” recognition pattern.

同様に、例えば、優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くする。つまり、図17に示すように、優先度の低い特定領域A2において物体認識処理を行う周期を、優先度の高い特定領域A1において物体認識処理を行う周期よりも長くする。このようにすれば、優先度の高い特定領域A1についてより詳細に物体を認識することができる。   Similarly, for example, the period for performing the object recognition process in the specific area with low priority is set longer than the period for performing the object recognition process in the specific area with high priority. That is, as shown in FIG. 17, the period for performing the object recognition process in the specific area A2 with low priority is set longer than the period for performing the object recognition process in the specific area A1 with high priority. In this way, the object can be recognized in more detail with respect to the specific area A1 having a high priority.

また、本実施形態では、複数の特定領域を設定されている場合には、優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うようにしてもよい。例えば、優先度の低い特定領域A2において物体認識処理を行わずに、優先度の高い特定領域A1において物体認識処理を行うようにしてもよい。   In the present embodiment, when a plurality of specific areas are set, the object recognition process is performed in the high priority specific area without performing the object recognition process in the low priority specific area. Also good. For example, the object recognition process may be performed in the specific area A1 having a high priority without performing the object recognition process in the specific area A2 having a low priority.

1−8.フローチャート
最後に、本実施形態の処理の流れについて図18を用いて説明する。まず、2つの入力画像の差分画像に基づいて、各画素の動きベクトルを算出する(ステップS10)。そして、動きベクトルに基づいて、入力画像上の特定領域を設定する(ステップS11)。そして、特定領域の画像精度を上げるとともに、特定領域の物体認識処理を行う周期を短くする(ステップS12)。そして、特定領域において物体を認識する処理を行う(ステップS13)。以上で処理が終了する。
1-8. Flowchart Finally, the processing flow of this embodiment will be described with reference to FIG. First, based on the difference image of two input images, the motion vector of each pixel is calculated (step S10). Then, a specific area on the input image is set based on the motion vector (step S11). Then, the image accuracy of the specific area is increased, and the period for performing the object recognition process for the specific area is shortened (step S12). And the process which recognizes an object in a specific area is performed (step S13). The process ends here.

2.第2の実施形態
次に、本実施形態の第2の実施形態について説明する。なお、第2の実施形態は、第1の実施形態を応用したものである。第2の実施形態では、第1の実施形態と共通する点について説明を省略し、第1の実施形態と相違する点や第2の実施形態で追加した点等について説明する。
2. Second Embodiment Next, a second embodiment of the present embodiment will be described. The second embodiment is an application of the first embodiment. In the second embodiment, description of points that are common to the first embodiment will be omitted, and points that are different from the first embodiment and points that are added in the second embodiment will be described.

2−1.第2の物体認識システム
図19は、第2の実施形態における第2の物体認識システム(第1のゲームシステム、第1の画像生成システム)の概略外観図である。本実施形態の第2の物体認識システムは、ゲーム画像を表示させる表示部90と、物体認識処理、ゲーム処理等を行う物体認識装置50(ゲーム機)と、入力部60とを含む。そして、図19に示すように、表示部90(表示画面91)の周囲には、表示部90と関連付けた位置に入力部60が配置されている。例えば、入力部60は、表示部90の下部に配置してもよいし、表示部90の上部に配置してもよい。
2-1. Second Object Recognition System FIG. 19 is a schematic external view of a second object recognition system (first game system, first image generation system) in the second embodiment. The second object recognition system of the present embodiment includes a display unit 90 that displays a game image, an object recognition device 50 (game machine) that performs object recognition processing, game processing, and the like, and an input unit 60. And as shown in FIG. 19, the input part 60 is arrange | positioned in the position linked | related with the display part 90 around the display part 90 (display screen 91). For example, the input unit 60 may be disposed below the display unit 90 or may be disposed above the display unit 90.

第2の物体認識システムは、プレーヤPの手や体の動きを認識することができる入力部60(センサの一例)を備えている。この入力部60は、発光部610、深度センサ620、RGBカメラ630、音入力部640(マルチアレイマイクロフォン)とを備え、プレーヤP(物体)と非接触で、実空間におけるプレーヤPの手や体の3次元の位置や、形の情報をとらえることができる。第2の実施形態では、この入力部60を用いた第2の物体認識システムの処理例について説明する。   The second object recognition system includes an input unit 60 (an example of a sensor) that can recognize the movement of the player P's hand or body. The input unit 60 includes a light emitting unit 610, a depth sensor 620, an RGB camera 630, and a sound input unit 640 (multi-array microphone). The input unit 60 is non-contact with the player P (object), and the player P's hand and body in real space. 3D position and shape information can be captured. In the second embodiment, a processing example of the second object recognition system using the input unit 60 will be described.

2−2.構成
図20は、第2の物体認識システムの機能ブロック図の一例である。なお、第1の物体認識システムの構成例との共通する点については説明を省略し、第1の物体認識システムの構成例と相違する点について説明する。なお、第2の物体認識システムでは、図20の各部を全て含む必要はなく、その一部を省略した構成としてもよい。
2-2. Configuration FIG. 20 is an example of a functional block diagram of the second object recognition system. In addition, description is abbreviate | omitted about the point which is common in the structural example of a 1st object recognition system, and the point which is different from the structural example of a 1st object recognition system is demonstrated. In the second object recognition system, it is not necessary to include all the units in FIG. 20, and a configuration in which some of the units are omitted may be employed.

第2の物体認識システムは、物体認識装置50と、入力部60と、表示部90、スピーカー92を含む。   The second object recognition system includes an object recognition device 50, an input unit 60, a display unit 90, and a speaker 92.

入力部60は、発光部610、深度センサ620、RGBカメラ(撮像部)630、音入力部640、処理部650、記憶部660によって構成されている。   The input unit 60 includes a light emitting unit 610, a depth sensor 620, an RGB camera (imaging unit) 630, a sound input unit 640, a processing unit 650, and a storage unit 660.

発光部610は、光を物体(プレーヤ、被写体)に照射する処理を行う。例えば、発光部610は、LEDなどの発光素子による赤外線などの光を対象の物体に照射する。   The light emitting unit 610 performs a process of irradiating an object (player, subject) with light. For example, the light emitting unit 610 irradiates a target object with light such as infrared rays from a light emitting element such as an LED.

深度センサ620は、物体から反射光を受光する受光部を有する。深度センサ620は、発光部610が発光しているときに受光した光量と、発光部610が発光していないときに受光した光量の差をとることによって、発光部610から照射される物体の反射光を取り出す処理を行う。つまり、深度センサ620は、図21(A)に示すように、発光部610から照射される物体の反射光を取り出した反射光画像(入力画像の一例)を、所定単位時間で(例えば、1/60秒単位で)、記憶部660に出力する処理を行う。反射光画像は画素単位で、入力部60から物体までの距離(深度値)を取得することができる。   The depth sensor 620 includes a light receiving unit that receives reflected light from an object. The depth sensor 620 takes a difference between the amount of light received when the light emitting unit 610 emits light and the amount of light received when the light emitting unit 610 is not emitting light, thereby reflecting the object irradiated from the light emitting unit 610. Process to extract light. That is, as shown in FIG. 21A, the depth sensor 620 generates a reflected light image (an example of an input image) obtained by extracting reflected light of an object irradiated from the light emitting unit 610 in a predetermined unit time (for example, 1 (In units of 60 seconds), the process of outputting to the storage unit 660 is performed. The reflected light image can acquire the distance (depth value) from the input unit 60 to the object in units of pixels.

RGBカメラ(撮像部)630は、物体(プレーヤP)から発した光をレンズなどの光学系によって撮像素子の受光平面に結像させ、その像の光による明暗を電荷の量に光電変換し、それを順次読み出して電気信号に変換する。そして、RGB化(カラー化)されたRGB画像(入力画像の一例)を記憶部660に出力する処理を行う。例えば、図21(B)に示すようなRGB画像を生成する。RGBカメラ630は、所定単位時間で(例えば、1/60秒単位で)、記憶部660に出力する処理を行う。   The RGB camera (imaging unit) 630 forms an image of light emitted from an object (player P) on a light receiving plane of an image sensor by an optical system such as a lens, and photoelectrically converts light and darkness of the image light into an amount of charge. It is sequentially read out and converted into an electric signal. Then, RGB (colored) RGB image (an example of an input image) is output to the storage unit 660. For example, an RGB image as shown in FIG. 21B is generated. The RGB camera 630 performs a process of outputting to the storage unit 660 in a predetermined unit time (for example, in units of 1/60 seconds).

なお、深度センサ620とRGBカメラ630とは、共通の受光部から光を受光するようにしてもよい。かかる場合、2つの受光部を有していてもよい。また、深度センサ620用の受光部と、RGBカメラ630用の受光部とをそれぞれ異ならせてもよい。   The depth sensor 620 and the RGB camera 630 may receive light from a common light receiving unit. In this case, you may have two light-receiving parts. The light receiving unit for the depth sensor 620 and the light receiving unit for the RGB camera 630 may be different from each other.

音入力部640は、音声認識処理を行うものであり、例えばマルチアレイマイクロフォンとすることができる。   The sound input unit 640 performs voice recognition processing, and can be a multi-array microphone, for example.

処理部650は、発光部610に発光するタイミングを指示したり、深度センサ620によって出力された反射光画像や、RGBカメラ630で撮像されたRGB画像を、物体認識装置50に送信する処理などを行う。   The processing unit 650 instructs the light emitting unit 610 to emit light, performs a process of transmitting the reflected light image output by the depth sensor 620 or the RGB image captured by the RGB camera 630 to the object recognition device 50, and the like. Do.

記憶部660は、深度センサ620によって出力された反射光画像や、RGBカメラ630によって出力されたRGB画像を逐次記憶する。   The storage unit 660 sequentially stores the reflected light image output by the depth sensor 620 and the RGB image output by the RGB camera 630.

次に、本実施形態の物体認識装置50について説明する。本実施形態の物体認識装置50は、記憶部570、処理部500、情報記憶媒体580、通信部596によって構成される。   Next, the object recognition apparatus 50 of this embodiment is demonstrated. The object recognition device 50 according to the present embodiment includes a storage unit 570, a processing unit 500, an information storage medium 580, and a communication unit 596.

認識パターン記憶部573には、物体を特定するために予め用意されたパターン、テンプレートを格納するための記憶領域であり、物体それぞれに対応づけてパターンが記憶されている。例えば、視覚的特徴や画素値そのものを認識パターンとして認識パターン記憶部573に格納される。   The recognition pattern storage unit 573 is a storage area for storing a pattern and a template prepared in advance for specifying an object, and stores a pattern in association with each object. For example, visual features and pixel values themselves are stored in the recognition pattern storage unit 573 as recognition patterns.

なお、認識パターン記憶部573は、データベースとして構築される記憶領域でもよい。例えば、「人」、「手」、「足」、「腕」などの各物体に対応づけて、1または複数の認識パターンを関連づけて記憶するようにしてもよい。   Note that the recognition pattern storage unit 573 may be a storage area constructed as a database. For example, one or more recognition patterns may be stored in association with each object such as “person”, “hand”, “foot”, and “arm”.

特に、第2の物体認識システムの認識パターン記憶部573には、物体を特定するための深度値情報を認識パターンとして認識パターン記憶部573に記憶するようにしてもよい。   In particular, the recognition pattern storage unit 573 of the second object recognition system may store depth value information for specifying an object in the recognition pattern storage unit 573 as a recognition pattern.

また、第2の物体認識システムの認識パターン記憶部573は、複数のボーン情報(スケルトン情報、骨格情報)を記憶するようにしてもよい。例えば、人を認識するためのボーン情報や、手のボーン、腕のボーン、足のボーンのように、人物を構成する部位単位でボーン情報を認識パターン記憶部573に記憶するようにしてもよい。なお、ボーン情報は、人体の3次元の関節位置及び3次元の関節の回転角度を仮想的に定義したものである。   Further, the recognition pattern storage unit 573 of the second object recognition system may store a plurality of bone information (skeleton information, skeleton information). For example, bone information for recognizing a person, bone information such as a hand bone, an arm bone, and a foot bone may be stored in the recognition pattern storage unit 573 for each part constituting the person. . The bone information virtually defines the three-dimensional joint position of the human body and the rotation angle of the three-dimensional joint.

また、入力画像記憶部574は、物体認識処理、動きベクトル算出処理を行うために所定周期で入力部20が取得した入力画像を格納するための記憶領域である。また、差分画像記憶部575は、動きベクトル算出処理を行うために、異なる時点で撮像された2つの画像の各画素値の差分をとった差分画素値を格納するための記憶領域である。   The input image storage unit 574 is a storage area for storing an input image acquired by the input unit 20 at a predetermined cycle in order to perform object recognition processing and motion vector calculation processing. Further, the difference image storage unit 575 is a storage area for storing a difference pixel value obtained by taking a difference between pixel values of two images captured at different times in order to perform a motion vector calculation process.

そして、処理部500は、この情報記憶媒体580に格納されるプログラムから読み出されたデータに基づいて本実施形態の種々の処理を行う。即ち、情報記録媒体580には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The processing unit 500 performs various processes according to the present embodiment based on data read from the program stored in the information storage medium 580. That is, the information recording medium 580 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

通信部596は、ネットワーク(インターネット)を介して他のゲーム機と通信することができる。その機能は、各種プロセッサまたは通信用ASIC、ネットワーク・インタフェース・カードなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 596 can communicate with other game machines via a network (Internet). The function can be realized by various processors, hardware such as a communication ASIC, a network interface card, or a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラムは、サーバが有する、記憶部、情報記憶媒体からネットワークを介して情報記憶媒体580(または、記憶部570)に配信するようにしてもよい。このようなサーバの情報記憶媒体の使用も本発明の範囲に含まれる。   Note that a program for causing a computer to function as each unit of the present embodiment may be distributed from a storage unit or an information storage medium included in the server to the information storage medium 580 (or the storage unit 570) via a network. Good. Use of such server information storage media is also within the scope of the present invention.

処理部500(プロセッサ)は、入力部60から受信した情報や情報記憶媒体580から記憶部570に展開されたプログラム等に基づいて、ゲーム処理、画像生成処理、或いは音制御の処理を行う。   The processing unit 500 (processor) performs game processing, image generation processing, or sound control processing based on information received from the input unit 60, a program developed from the information storage medium 580 to the storage unit 570, and the like.

特に、第2の物体認識システムの処理部500は、取得部510、算出部511、領域決定部512、物体認識処理部513、ゲーム演算部514、画像生成部520、音制御部530として機能する。   In particular, the processing unit 500 of the second object recognition system functions as an acquisition unit 510, a calculation unit 511, a region determination unit 512, an object recognition processing unit 513, a game calculation unit 514, an image generation unit 520, and a sound control unit 530. .

取得部510は、入力部50からRGB画像、反射光画像などの入力画像を取得する処理を行う。つまり、取得部510は、深度カメラ620によって、発光部から照射された物体の反射光を受光することによって各画素の深度値を有する反射光画像(赤外線の反射結果)を取得する。   The acquisition unit 510 performs processing for acquiring an input image such as an RGB image or a reflected light image from the input unit 50. That is, the acquisition unit 510 acquires the reflected light image (infrared reflection result) having the depth value of each pixel by receiving the reflected light of the object irradiated from the light emitting unit by the depth camera 620.

算出部511は、異なる時点で取得した2つの入力画像(RGB画像、反射光画像)に基づいて、入力画像の各画素の動きベクトルを算出する。例えば、算出部511は、算出部111と同じように、RGBカメラ630によって撮像された入力画像を取得し、異なる時点で撮像された2つの入力画像に基づいて、入力画像の各画素の動きベクトルを算出するようにしてもよい。   The calculation unit 511 calculates a motion vector of each pixel of the input image based on two input images (RGB image and reflected light image) acquired at different times. For example, as with the calculation unit 111, the calculation unit 511 acquires an input image captured by the RGB camera 630, and based on two input images captured at different points in time, the motion vector of each pixel of the input image May be calculated.

領域設定部512は、入力画像の各画素の深度値に基づいて、入力画像において特定領域を設定する。また、領域設定部512は、複数の特定領域を設定するようにしてもよい。複数の特定領域を設定した場合には、各特定領域に優先度を付与(設定)する(特定領域単位で優先度を付与する)。   The region setting unit 512 sets a specific region in the input image based on the depth value of each pixel of the input image. Further, the area setting unit 512 may set a plurality of specific areas. When a plurality of specific areas are set, priority is given (set) to each specific area (priority is given in units of specific areas).

また、領域設定部512は、入力画像の各画素の色情報と深度値とに基づいて、入力画像において特定領域を設定するようにしてもよい。また、領域設定部512は、入力画像の各画素の深度値のうち所定値以上である深度値に基づいて、入力画像において特定領域を設定するようにしてもよい。   The area setting unit 512 may set a specific area in the input image based on the color information and depth value of each pixel of the input image. The region setting unit 512 may set a specific region in the input image based on a depth value that is a predetermined value or more among the depth values of each pixel of the input image.

また、領域設定部512は、入力画像の各画素の動きベクトルと深度値とに基づいて、入力画像において特定領域を設定するようにしてもよい。   The region setting unit 512 may set a specific region in the input image based on the motion vector and depth value of each pixel of the input image.

物体認識処理部513は、物体を認識する物体認識処理を行う。ここで、物体を認識する物体認識処理とは、物体自体を認識する処理、物体の動きを認識する処理、物体のジェスチャー(形、ポーズ)を認識する処理の少なくとも1つを含む。   The object recognition processing unit 513 performs object recognition processing for recognizing an object. Here, the object recognition process for recognizing an object includes at least one of a process for recognizing the object itself, a process for recognizing the movement of the object, and a process for recognizing the gesture (shape or pose) of the object.

特に、物体認識処理部513は、入力画像の各画素の画素情報(画素の深度値、画素の位置座標、画素の色情報、画素の動きベクトルの少なくとも1つ)に基づいて、認識パターン記憶部573に格納されている「人」の認識パターンを用いて、「人」を認識できるか否かを判断する。   In particular, the object recognition processing unit 513 includes a recognition pattern storage unit based on pixel information (at least one of pixel depth value, pixel position coordinate, pixel color information, and pixel motion vector) of each pixel of the input image. It is determined whether or not “person” can be recognized using the recognition pattern of “person” stored in 573.

具体的には、物体認識処理部513は、入力画像(例えば、反射光画像、RGB画像)の各画素の画素情報に基づいて3次元の人のシルエット(3次元の形状)を切り出す処理を行う。例えば、反射光画像の各画素の深度値(輝度値)、RGB画像のカラー値に基づいて、3次元の人のシルエットを切り出す処理を行う。   Specifically, the object recognition processing unit 513 performs a process of cutting out a three-dimensional human silhouette (three-dimensional shape) based on pixel information of each pixel of the input image (for example, reflected light image, RGB image). . For example, based on the depth value (luminance value) of each pixel of the reflected light image and the color value of the RGB image, a process of cutting out a three-dimensional human silhouette is performed.

そして、物体認識処理部513は、ボーン情報に基づいて、前記特定領域における前記物体認識処理を行う。例えば、物体認識処理部513は、認識パターン記憶部573で記憶されている複数のボーン(スケルトン、骨格)と、シルエットとを照合し、最もシルエットに合致するボーンを設定する。物体認識処理部513は、設定されたボーンの動きを演算する処理を行う。つまり、ボーンの動きを、プレーヤPの動作とみなす処理を行なう。本実施形態では、フレーム毎に、ボーンを特定しプレーヤPの動作を取得する処理を行っている。なお、本実施形態では、腕のボーン、足のボーンのように、人物を構成する部位単位で処理を行う場合には、部位単位で、抽出されたシルエットが複数のボーンのうちいずれと合致するかを判定し、部位の動きを、プレーヤの部位の動作とする処理を行う。   And the object recognition process part 513 performs the said object recognition process in the said specific area | region based on bone information. For example, the object recognition processing unit 513 collates a plurality of bones (skeleton, skeleton) stored in the recognition pattern storage unit 573 with a silhouette, and sets a bone that most closely matches the silhouette. The object recognition processing unit 513 performs processing for calculating the motion of the set bone. That is, processing is performed in which the motion of the bone is regarded as the motion of the player P. In the present embodiment, processing for specifying the bone and acquiring the operation of the player P is performed for each frame. In this embodiment, when processing is performed in units of parts constituting a person, such as arm bones and leg bones, the extracted silhouette matches any of a plurality of bones in part units. Is determined, and the process of converting the movement of the part into the movement of the part of the player is performed.

例えば、物体認識処理部513は、「人」のボーン情報を用意し、反射光画像から所定輝度値(所定深度値)以上の輝度値(深度値)を有する画素群領域の3次元のシルエットが、「人」のボーン情報に合致するか否かを判断する。そして、シルエットが「人」のボーン情報と合致する場合には、「人」を認識したと判定する処理を行う。一方、「人」を認識できない場合には、次の物体(例えば「手」)のボーン情報を用いて、次の物体を認識できるか否かを判断する。そして、物体(「手」)を認識できるまで、入力画像と次のボーン情報とを照合する処理を行う。   For example, the object recognition processing unit 513 prepares bone information of “people”, and a three-dimensional silhouette of a pixel group region having a luminance value (depth value) equal to or higher than a predetermined luminance value (predetermined depth value) from the reflected light image. , It is determined whether or not it matches the bone information of “person”. If the silhouette matches the bone information of “person”, a process of determining that “person” has been recognized is performed. On the other hand, when “person” cannot be recognized, it is determined whether or not the next object can be recognized using bone information of the next object (for example, “hand”). Until the object (“hand”) can be recognized, the input image and the next bone information are collated.

また、物体認識処理部513は、フレーム毎にシルエットに合致するボーン情報に基づいて、シルエットの動作を認識する処理を行う。例えば、「人」のボーン情報に基づいて、「人」を認識したと判定された場合には、当該ボーン情報に基づいて「人」の動作、ジェスチャーを認識する処理を行う。   In addition, the object recognition processing unit 513 performs processing for recognizing the motion of the silhouette based on bone information that matches the silhouette for each frame. For example, when it is determined that “person” is recognized based on the bone information of “person”, processing for recognizing the motion and gesture of “person” is performed based on the bone information.

また、本実施形態の物体認識処理部513は、特定領域において物体認識処理を行う。例えば、物体認識処理部513は、特定領域における物体認識処理の精度を特定領域以外の領域の物体認識処理の精度よりも上げて、特定領域において物体認識処理を行うようにしてもよい。   In addition, the object recognition processing unit 513 of the present embodiment performs object recognition processing in the specific area. For example, the object recognition processing unit 513 may perform the object recognition process in the specific area by increasing the accuracy of the object recognition process in the specific area higher than the accuracy of the object recognition process in the area other than the specific area.

より具体的に説明すると、物体認識処理部513は、特定領域において物体認識処理を行う周期を特定領域以外の領域の物体認識処理の周期よりも短くして、特定領域において物体認識処理を行う。また、物体認識処理部513は、特定領域の画像精度を特定領域以外の領域の画像精度よりも上げて、特定領域において物体認識処理を行う。   More specifically, the object recognition processing unit 513 performs the object recognition process in the specific region by setting the cycle of performing the object recognition process in the specific region to be shorter than the cycle of the object recognition process in the region other than the specific region. In addition, the object recognition processing unit 513 performs object recognition processing in the specific area by raising the image accuracy of the specific area higher than the image accuracy of the area other than the specific area.

また、物体認識処理部513は、特定領域以外の領域において物体認識処理を行うと共に、特定領域以外の領域において物体認識処理を行う周期を、特定領域において物体認識処理を行う周期よりも長くする。また、物体認識処理部513は、特定領域以外の領域において物体認識処理を行うと共に、特定領域以外の領域の画像精度を特定領域の画像精度よりも低くする。   In addition, the object recognition processing unit 513 performs the object recognition process in a region other than the specific region, and makes the cycle of performing the object recognition process in the region other than the specific region longer than the cycle of performing the object recognition process in the specific region. The object recognition processing unit 513 performs object recognition processing in a region other than the specific region, and lowers the image accuracy of the region other than the specific region than the image accuracy of the specific region.

また、物体認識処理部513は、複数の(2以上の)特定領域を設定されている場合には、少なくとも1つの特定領域について物体認識処理を行う。   Further, when a plurality of (two or more) specific areas are set, the object recognition processing unit 513 performs object recognition processing for at least one specific area.

また、物体認識処理部513は、複数の特定領域を設定されている場合には、各特定領域において物体認識処理を行うと共に、優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くするようにしてもよい。   In addition, when a plurality of specific areas are set, the object recognition processing unit 513 performs the object recognition process in each specific area and sets the cycle in which the object recognition process is performed in the specific area with a low priority. It may be made longer than the period for performing the object recognition process in a specific region having a high height.

また、物体認識処理部513は、複数の特定領域を設定されている場合には、各特定領域において物体認識処理を行うと共に、優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くするようにしてもよい。   In addition, when a plurality of specific areas are set, the object recognition processing unit 513 performs object recognition processing in each specific area, and sets the image accuracy of the specific area having a low priority to the specific area having a high priority. The image accuracy may be lower than the image accuracy.

また、物体認識処理部513は、複数の特定領域を設定されている場合には、優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うようにしてもよい。   Further, when a plurality of specific areas are set, the object recognition processing unit 513 performs the object recognition process in the specific area with a high priority without performing the object recognition process in the specific area with a low priority. It may be.

また、物体認識処理部513は、所定タイミングで前記特定領域における画像の変化を認識する処理を行うようにしてもよい。   Further, the object recognition processing unit 513 may perform processing for recognizing a change in the image in the specific area at a predetermined timing.

ゲーム演算部514は、種々のゲーム演算を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 514 performs various game calculations. Here, the game calculation includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result. There is a process or a process of ending a game when a game end condition is satisfied.

例えば、ゲーム演算部514は、入力部60からの入力データやプログラムなどに基づいて、ゲーム処理を行う。本実施形態のゲーム演算部514は、例えば、物体認識処理部513の認識結果に基づいてゲーム演算処理を行う。つまり、物体認識処理部513において「人(プレーヤ)」を認識した場合には、物体認識処理部513が「人」の動きやジェスチャーを認識し、その「人」の動き(左右に人が動く動作)やジェスチャー(特定のポーズ)に基づいてゲーム演算処理を行うようにしてもよい。   For example, the game calculation unit 514 performs a game process based on input data from the input unit 60, a program, and the like. The game calculation unit 514 of the present embodiment performs a game calculation process based on the recognition result of the object recognition processing unit 513, for example. That is, when the object recognition processing unit 513 recognizes “person (player)”, the object recognition processing unit 513 recognizes the movement and gesture of “person” and moves the “person” (the person moves to the left and right). The game calculation process may be performed based on an operation) or a gesture (specific pose).

なお、処理部500は、処理部100と同じように、仮想空間にオブジェクトを配置する処理、仮想空間に存在するオブジェクトを移動させる処理などを行うようにしてもよい。   Note that, like the processing unit 100, the processing unit 500 may perform processing for arranging an object in the virtual space, processing for moving an object existing in the virtual space, and the like.

また、処理部500は、処理部100と同じように、仮想空間にあるオブジェクトの移動・動作演算を行うようにしてもよい。   Further, like the processing unit 100, the processing unit 500 may perform movement / motion calculation of an object in the virtual space.

画像生成部520は、画像生成部120と同じように、処理部500で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部90に出力する。   Similar to the image generation unit 120, the image generation unit 520 performs drawing processing based on the results of various processes performed by the processing unit 500, thereby generating an image and outputting the image to the display unit 90.

音制御部530は、音制御部130と同じように、処理部500で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、スピーカー92に出力する。   Similar to the sound control unit 130, the sound control unit 530 performs sound processing based on the results of various processes performed by the processing unit 500, generates game sounds such as BGM, sound effects, and sounds, and the speaker. 92.

なお、本実施形態の物体認識システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の端末とデータを送受信してゲーム処理を行うようにしてもよいし、1つの端末が、複数の入力部からの入力情報に基づいて処理を行うようにしてもよい。   Note that the object recognition system of the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, in the case of controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from other terminals via a network, or one terminal may receive input information from a plurality of input units. Processing may be performed based on this.

情報記憶媒体580(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。   An information storage medium 580 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, a hard disk, and a magnetic tape. Alternatively, it can be realized by hardware such as a memory (ROM).

なお、物体認識装置50の認識パターン記憶部573、入力画像記憶部574、差分画像記憶部575に記憶されるデータを、入力部60の記憶部660に記憶するようにし、本実施形態の算出部511、領域設定部512、物体認識処理部513の処理を、入力部60の処理部650が行うようにしてもよい。   Note that the data stored in the recognition pattern storage unit 573, the input image storage unit 574, and the difference image storage unit 575 of the object recognition device 50 are stored in the storage unit 660 of the input unit 60, and the calculation unit of the present embodiment. The processing unit 650 of the input unit 60 may perform the processing of the area setting unit 512 and the object recognition processing unit 513.

2−3.入力部の説明
第2の物体認識システムの入力部60は、深度センサ620と、RGBカメラ630とを備え、コントローラなどの入力機器を必要とせず、物体(プレーヤ、プレーヤの手など)を画像処理することにより入力を受け付けることができる。これにより、従来にはない様々なゲーム処理を行うことができる。まず、入力部60の深度センサ620、RGBカメラ630について説明する。
2-3. Description of Input Unit The input unit 60 of the second object recognition system includes a depth sensor 620 and an RGB camera 630, does not require an input device such as a controller, and performs image processing on an object (player, player's hand, etc.). By doing so, input can be accepted. As a result, various game processes that are not possible in the past can be performed. First, the depth sensor 620 and the RGB camera 630 of the input unit 60 will be described.

2−3−1.深度センサ
本実施形態の深度センサ620について、図21を用いて説明する。まず、図21に示すように、入力部60が備える発光部610は、タイミング信号にしたがって時間的に強度変動する光を発光する。発光される光は、光源の前方に位置するプレーヤP(物体の一例)に照射される。
2-3-1. Depth Sensor A depth sensor 620 of this embodiment will be described with reference to FIG. First, as shown in FIG. 21, the light emitting unit 610 included in the input unit 60 emits light whose intensity varies with time in accordance with the timing signal. The emitted light is applied to a player P (an example of an object) located in front of the light source.

そして、深度センサ620は、発光部610が発光した光の反射光を受光する。つまり、深度センサ620は、反射光の空間的な強度分布を抽出した反射像画像を生成する。例えば、深度センサ620は、発光部610が発光しているときに受光した光量と、発光部610が発光していないときに受光した光量の差をとることによって、発光部610からの光の物体による反射光を取り出して反射光画像を得る。この反射光画像の各画素の値は、深度センサ620の入力部60の位置GPから物体までの距離(深度値)に対応する。なお、入力部60の位置GPは、深度センサ620の位置、深度センサ60が備える受光位置と同義である。   The depth sensor 620 receives the reflected light of the light emitted from the light emitting unit 610. That is, the depth sensor 620 generates a reflected image image obtained by extracting the spatial intensity distribution of the reflected light. For example, the depth sensor 620 takes the difference between the amount of light received when the light emitting unit 610 emits light and the amount of light received when the light emitting unit 610 is not emitting light, thereby obtaining an object of light from the light emitting unit 610. A reflected light image is obtained by taking out the reflected light by. The value of each pixel of the reflected light image corresponds to the distance (depth value) from the position GP of the input unit 60 of the depth sensor 620 to the object. Note that the position GP of the input unit 60 is synonymous with the position of the depth sensor 620 and the light receiving position of the depth sensor 60.

例えば、図22の例では、プレーヤPの手の部分が入力部60の位置GPに最も近くにあるので、図21(A)に示すようなプレーヤPの手を示す領域が、もっとも受光量多い部分(高輝度部分)となる反射像画像を得ることになる。   For example, in the example of FIG. 22, since the hand portion of the player P is closest to the position GP of the input unit 60, the region indicating the hand of the player P as shown in FIG. A reflected image that is a portion (high luminance portion) is obtained.

本実施形態では、反射光画像の各画素について、輝度値(受光量、画素値)が所定値以上である画素を、入力部60の位置GPに近い画素として抽出する。例えば、反射光画像の階調が256階調であれば、所定値(例えば200)以上の画素を、高輝度の部分として抽出する。   In the present embodiment, for each pixel of the reflected light image, a pixel having a luminance value (light reception amount, pixel value) that is equal to or greater than a predetermined value is extracted as a pixel close to the position GP of the input unit 60. For example, when the gradation of the reflected light image is 256 gradations, pixels having a predetermined value (for example, 200) or more are extracted as high-luminance portions.

この深度センサで得られる反射光画像は、物体までの距離(深度値)に関係する。つまり、図23に示すように、入力部60の位置GPから1メートル離れたところでプレーヤPが位置する場合は、位置GPから2メートル離れたところでプレーヤPが位置する場合よりも、反射光画像の手の領域部分が高輝度となる(受光量が多くなる)。また、入力部60の位置GPから2メートル離れたところでプレーヤPが位置する場合は、位置GPから3メートル離れたところでプレーヤPが位置する場合よりも、反射光画像の手の領域部分が高輝度となる(受光量が多くなる)。   The reflected light image obtained by this depth sensor is related to the distance (depth value) to the object. That is, as shown in FIG. 23, when the player P is located 1 meter away from the position GP of the input unit 60, the reflected light image of the reflected light image is larger than when the player P is located 2 meters away from the position GP. The region of the hand has high brightness (the amount of received light increases). Further, when the player P is located 2 meters away from the position GP of the input unit 60, the hand region portion of the reflected light image has a higher luminance than when the player P is located 3 meters away from the position GP. (The amount of received light increases).

このような原理に基づき、本実施形態では、反射光画像で高輝度部分として抽出された画素の輝度値に基づいて、実空間におけるプレーヤPの位置を算出する。例えば、反射光画像のうち、輝度値が最も高い画素を特徴点とし、特徴点の輝度値に基づいて位置GPからプレーヤPまでの距離を算出する。なお、特徴点は、予め用意された形状パターンや動きベクトル等に基づいて特定される手の領域の重心画素としてもよい。なお、反射光画像において高輝度部分が広い場合には、高輝度部分が狭い場合よりも例えば物体が入力部の近くに存在すると判定することもできる。   Based on such a principle, in the present embodiment, the position of the player P in the real space is calculated based on the luminance value of the pixel extracted as a high luminance part in the reflected light image. For example, the pixel having the highest luminance value in the reflected light image is used as a feature point, and the distance from the position GP to the player P is calculated based on the luminance value of the feature point. Note that the feature point may be a barycentric pixel of a hand region specified based on a shape pattern or a motion vector prepared in advance. Note that when the high-luminance portion is wide in the reflected light image, it can be determined that the object is present near the input unit, for example, compared to when the high-luminance portion is narrow.

また、本実施形態では、反射光画像に基づいて、入力部60を基準とする実空間における物体の位置を特定することができる。例えば、反射光画像の中心に、特徴点がある場合には、物体が入力部60の光源の発射方向上に位置しているものと特定できる。また、特徴点が反射光画像の上部にある場合には、入力部60を基準に物体が上部にあるものと特定できる。また、特徴点が反射光画像の下部にある場合には、入力部60を基準に物体が下部にあるものと特定できる。また、特徴点が反射光画像の左部にある場合には、入力部60を基準に(入力部の正面(光源側)からみて)物体が右部にあるものと特定できる。また、特徴点が反射光画像の左部にある場合には、入力部60を基準に物体が(入力部の正面(光源側)からみて)右部にあるものと特定できる。このように、本実施形態では、反射光画像に基づいて、物体と入力部60との位置関係を特定できる。   In the present embodiment, the position of the object in the real space with the input unit 60 as a reference can be specified based on the reflected light image. For example, when there is a feature point at the center of the reflected light image, it can be specified that the object is located in the emission direction of the light source of the input unit 60. When the feature point is at the upper part of the reflected light image, it can be specified that the object is at the upper part with reference to the input unit 60. Further, when the feature point is at the lower part of the reflected light image, it can be specified that the object is at the lower part with reference to the input unit 60. When the feature point is on the left side of the reflected light image, it can be determined that the object is on the right side with respect to the input unit 60 (as viewed from the front of the input unit (on the light source side)). When the feature point is on the left side of the reflected light image, it can be specified that the object is on the right side (as viewed from the front (light source side) of the input unit) with reference to the input unit 60. Thus, in this embodiment, the positional relationship between the object and the input unit 60 can be specified based on the reflected light image.

また、本実施形態では、反射光画像に基づいて、実空間における物体の移動方向を特定することができる。例えば、反射光画像の中心に特徴点があり、当該特徴点の輝度値が高くなる場合、物体が入力部60の光源方向に近づいているものと特定できる。また、特徴点が反射光画像の上部から下部に移動している場合には、入力部60を基準に物体が上部から下部に移動しているものと特定できる。また、特徴点が反射光画像の左部から右部に移動している場合には、入力部60を基準に物体が右部から左部に移動しているものと特定できる。このように、本実施形態では、反射光画像に基づいて、入力部60を基準に物体の移動方向を特定できる。   In the present embodiment, the moving direction of the object in real space can be specified based on the reflected light image. For example, when there is a feature point at the center of the reflected light image and the brightness value of the feature point is high, it can be specified that the object is approaching the light source direction of the input unit 60. When the feature point is moving from the upper part to the lower part of the reflected light image, it can be determined that the object is moving from the upper part to the lower part with reference to the input unit 60. Further, when the feature point is moving from the left part to the right part of the reflected light image, it can be specified that the object is moving from the right part to the left part with reference to the input unit 60. Thus, in this embodiment, the moving direction of the object can be specified based on the input light 60 based on the reflected light image.

なお、物体の反射光は、入力部60の位置GPから物体の距離が大きくなるにつれ大幅に減少する。例えば、反射光画像の1画素あたりの受光量は、物体までの距離の2乗に反比例して小さくなる。したがって、プレーヤPが入力部60から20メートル程離れて位置する場合には、プレーヤPからの反射光はほぼ無視できるくらいに受光量が小さくなり、プレーヤPを特定できるような高輝度部分を抽出することができない。かかる場合には、入力がないものとして制御してもよい。また、高輝度部分を抽出することができない場合には、スピーカーから警告音を出力するようにしてもよい。   Note that the reflected light of the object greatly decreases as the distance of the object from the position GP of the input unit 60 increases. For example, the amount of received light per pixel of the reflected light image decreases in inverse proportion to the square of the distance to the object. Therefore, when the player P is located about 20 meters away from the input unit 60, the amount of light received is so small that the reflected light from the player P can be ignored, and a high-luminance portion that can identify the player P is extracted. Can not do it. In such a case, it may be controlled that there is no input. In addition, when a high luminance part cannot be extracted, a warning sound may be output from a speaker.

2−3−2.RGBカメラの説明
本実施形態は、RGBカメラ(撮像部)630によりRGB画像を入力情報として取得する。RGB画像は、反射光画像に対応しているため、物体の動きベクトル(移動ベクトル)や特定領域の設定処理、物体認識処理の精度を高めることができる。
2-3-2. Description of RGB Camera In the present embodiment, an RGB image is acquired as input information by an RGB camera (imaging unit) 630. Since the RGB image corresponds to the reflected light image, it is possible to improve the accuracy of the object motion vector (movement vector), the specific region setting process, and the object recognition process.

第2の本実施形態のRGBカメラ630は、RGBカメラ21と同様な処理を行うことができる。つまり、第2の実施形態においても、図3に示すように、異なる時点で撮像された2つの入力画像において、同じ画素の対応付けを行い、その動き量(移動量)と動き方向(移動方向)とを示す動きベクトル(移動ベクトル、オプティカルフロー)を求めることができる。第2の実施形態においても、入力画像F1、F2との画素値(輝度値、カラー値)の差分をとった差分画像に基づいて動きベクトルを求めているようにしてもよい。   The RGB camera 630 of the second embodiment can perform the same processing as the RGB camera 21. That is, also in the second embodiment, as shown in FIG. 3, two input images captured at different times are associated with the same pixel, and the amount of movement (movement amount) and the direction of movement (movement direction) ) Indicating a motion vector (movement vector, optical flow). Also in the second embodiment, a motion vector may be obtained based on a difference image obtained by taking a difference between pixel values (luminance values, color values) from the input images F1 and F2.

また、本実施形態では、深度センサ620によって、入力部60からの物体までの距離(深度値)を特定でき、反射光画像やRGB画像の2次元平面上において高輝度部分の特徴点の位置座標(X、Y)、特徴点の動きベクトルを抽出できる。したがって、入力部60から物体までの距離(Z)と、反射光画像及びRGB画像の位置座標(X、Y)とに基づいて、実空間における入力部60を基準とする物体の位置Qを特定できる。したがって、本実施形態では、図24に示すように、反射光画像に基づいて算出された、入力部60の位置GPから物体の位置Qまでの距離Lに基づいて、特定領域の設定処理、物体認識処理、ゲーム演算を行うことができる。   In the present embodiment, the depth sensor 620 can specify the distance (depth value) from the input unit 60 to the object, and the position coordinates of the feature points of the high-luminance portion on the two-dimensional plane of the reflected light image or the RGB image (X, Y), the motion vector of the feature point can be extracted. Therefore, based on the distance (Z) from the input unit 60 to the object and the position coordinates (X, Y) of the reflected light image and the RGB image, the position Q of the object in the real space is specified. it can. Therefore, in the present embodiment, as shown in FIG. 24, the specific region setting process, the object, and the object are calculated based on the distance L from the position GP of the input unit 60 to the object position Q calculated based on the reflected light image. Recognition processing and game calculation can be performed.

2−4.物体認識処理
本実施形態では、記憶部に予め格納されている認識パターンを用いて、入力画像(反射光画像、RGB画像)上の物体を認識する物体認識処理を行う。ここで、物体を認識する物体認識処理とは、物体自体を認識する処理、物体の動きを認識する処理、物体のジェスチャー(形、ポーズ)を認識する処理の少なくとも1つを含む。
2-4. Object Recognition Process In this embodiment, an object recognition process for recognizing an object on an input image (reflected light image, RGB image) is performed using a recognition pattern stored in advance in a storage unit. Here, the object recognition process for recognizing an object includes at least one of a process for recognizing the object itself, a process for recognizing the movement of the object, and a process for recognizing the gesture (shape or pose) of the object.

第2の物体認識システムの物体認識処理について詳細に説明すると、例えば、図25(A)に示すように、深度カメラ620によって、発光部から照射された物体の反射光を受光した反射光画像(赤外線の反射結果)を取得する。   The object recognition processing of the second object recognition system will be described in detail. For example, as shown in FIG. 25A, a reflected light image (see FIG. 25A) in which reflected light of an object irradiated from a light emitting unit is received by a depth camera 620. Infrared reflection result) is acquired.

そして、図25(B)に示すように、反射光画像の各画素の輝度値に基づいて、シルエット(形状)を切り出す処理を行う。つまり、反射光画像の各画素の輝度値のうち所定輝度値(200)以上である画素値の領域をシルエットST1として切り出す処理(抽出する処理)を行う。   Then, as shown in FIG. 25B, a process of cutting out a silhouette (shape) is performed based on the luminance value of each pixel of the reflected light image. That is, a process of extracting (extracting) an area having a pixel value that is equal to or greater than the predetermined brightness value (200) among the brightness values of each pixel of the reflected light image as the silhouette ST1.

そして、認識パターン記憶部573に記憶されている複数のボーン情報(スケルトン、骨格)それぞれと、シルエットST1とを照合し、最もシルエットST1に合致するボーン情報を設定する。例えば、図25(C)に示すように、「人」に関するボーン情報BO1、BO2、BO3が認識パターン記憶部573に記憶されており、シルエットST1が、ボーン情報BO1に最も合致すると判断されると、「人」を認識したと判定する処理を行う。   Then, each of the plurality of bone information (skeleton, skeleton) stored in the recognition pattern storage unit 573 is compared with the silhouette ST1, and the bone information that most closely matches the silhouette ST1 is set. For example, as shown in FIG. 25C, bone information BO1, BO2, and BO3 related to “person” is stored in the recognition pattern storage unit 573, and it is determined that the silhouette ST1 most closely matches the bone information BO1. , A process of determining that “person” has been recognized is performed.

一方、「人」を認識できない場合には、次の物体(例えば「手」)のボーン情報を用いて、次の物体(「手」)を認識できるか否かを判断する。そして、物体を認識できるまで、入力画像と次のボーン情報とを照合する処理を行う。図25(D)の例では、シルエットST1が、ボーン情報BO1、BO2、BO3のうち、「人」のボーン情報BO1と最も合致すると判断され、「人」を認識したと判定する。   On the other hand, when “person” cannot be recognized, it is determined whether or not the next object (“hand”) can be recognized using bone information of the next object (for example, “hand”). Then, the process of collating the input image with the next bone information is performed until the object can be recognized. In the example of FIG. 25D, it is determined that the silhouette ST1 most closely matches the bone information BO1 of “person” among the bone information BO1, BO2, and BO3, and it is determined that “person” has been recognized.

また、本実施形態では、フレーム毎にシルエットに合致するボーン情報に基づいて、物体の動作を認識する処理、物体のジェスチャーを認識する処理を行う。例えば、s0時点において、「人」のボーン情報BO1に基づいて、「人」を認識したと判定され、s0時点から10フレーム後のs10時点において、「人」のボーン情報BO2に基づいて、「人」を認識したと判定され、s1時点から20フレーム後のs20時点において「人」のボーン情報BO3に基づいて、「人」を認識したと判定された場合には、各ボーン情報BO1、BO2、BO3をキーフレームとし、キーフレーム間の動きを補間することによって、s1時点からs20時点までの「人」の動きを認識することができる。また、例えば、s20時点と、s20時点から10フレーム後のs30時点とにおいて、「人」のボーン情報BO3に基づいて、「人」を認識した場合には、s20時点からs30時点までの間において、物体(人)が、ボーン情報BO3に基づくジェスチャーを行っていると認識する。   In this embodiment, processing for recognizing the motion of an object and processing for recognizing the gesture of the object are performed based on bone information matching the silhouette for each frame. For example, at time s0, it is determined that “person” is recognized based on the bone information BO1 of “person”, and at time s10, ten frames after time s0, based on the bone information BO2 of “person”. If it is determined that “person” is recognized, and it is determined that “person” is recognized based on the bone information BO3 of “person” at time s20, 20 frames after time s1, each bone information BO1, BO2 By using BO3 as a key frame and interpolating the movement between the key frames, the movement of the “person” from the time point s1 to the time point s20 can be recognized. For example, when “person” is recognized based on the bone information BO3 of “person” at time s20 and at time s30 10 frames after s20, between s20 and s30 It is recognized that the object (person) is performing a gesture based on the bone information BO3.

また、本実施形態では、3次元のボーン情報と、3次元に抽出したシルエットとが一致するかを判断することによって、物体を認識しているので、3次元の物体、物体の動きやジェスチャーを認識することができる。   In this embodiment, since the object is recognized by determining whether the three-dimensional bone information matches the silhouette extracted in the three-dimensional manner, the three-dimensional object, the movement of the object, and the gesture are determined. Can be recognized.

なお、本実施形態では、人物を構成する部位単位(手、腕、顔、足)で物体認識処理を行うこともできる。かかる場合は、部位単位で予め複数のボーンを認識パターン記憶部573に格納し、抽出されたシルエットが複数のボーンのうちいずれと合致するかを判定してもよい。   In the present embodiment, the object recognition process can also be performed on a part basis (hand, arm, face, foot) constituting a person. In such a case, a plurality of bones may be stored in advance in the recognition pattern storage unit 573 for each part, and it may be determined which of the plurality of bones the extracted silhouette matches.

また、第2の物体認識システムは、第1の物体認識システムのように、差分画像に基づいて動き領域を設定し、「人」の形状の認識パターンを用いて、動き領域のシルエットが認識パターンで示される「人」の形状と適合(一致)するか否かを判断するようにしてもよい。   In addition, the second object recognition system sets a motion region based on the difference image, like the first object recognition system, and the silhouette of the motion region is recognized by using the recognition pattern of the shape of “person”. It may be determined whether or not it matches (matches) the shape of the “person” indicated by.

2−5.特定領域において物体を認識する処理
本実施形態では、特定領域を設定し、特定領域において物体認識処理を行う。このようにすれば、効率的に、かつ、正確に物体を認識する処理を行うことができる。また、特定領域以外の領域に別の物体が映りこんでいる場合に、その別の物体を誤って認識する事態を防止することができる。
2-5. Processing for Recognizing Object in Specific Area In the present embodiment, a specific area is set, and object recognition processing is performed in the specific area. In this way, processing for recognizing an object efficiently and accurately can be performed. In addition, when another object is reflected in an area other than the specific area, it is possible to prevent a situation where the other object is erroneously recognized.

つまり、本実施形態では、図21(A)に示す反射光画像(入力画像)の各画素の深度値に基づいて、入力画像において特定領域を設定する。例えば、図21(A)に示すような反射光画像が得られた場合、深度値に基づいて、高輝度部分を特定領域として設定する。   That is, in this embodiment, a specific area is set in the input image based on the depth value of each pixel of the reflected light image (input image) shown in FIG. For example, when a reflected light image as shown in FIG. 21A is obtained, a high-luminance portion is set as a specific region based on the depth value.

例えば、「所与の期間(2秒間)において、反射光画像の各画素の輝度値の平均値がしきい値以上(例えば220以上)である領域」をルール10とし、図26に示すように、ルール10に基づいて決定される領域を、特定領域C1として設定する。なお、特定領域を設定するルールは記憶部570に記憶されている。   For example, the rule 10 is “a region where the average value of the luminance values of the pixels of the reflected light image is not less than a threshold value (eg, not less than 220) in a given period (2 seconds)”, as shown in FIG. The area determined based on the rule 10 is set as the specific area C1. Note that a rule for setting the specific area is stored in the storage unit 570.

なお、本実施形態では、入力画像の各画素の深度値と色情報とに基づいて、入力画像において特定領域を設定するようにしてもよい。例えば、「黄色系統のカラー値を有する画素であって、所与の期間(2秒間)において、反射光画像の輝度値の平均値がしきい値以上(例えば220以上)である領域」をルール10´とし、ルール10´に基づいて、特定領域C1´を設定するようにしてもよい。   In the present embodiment, the specific area may be set in the input image based on the depth value and color information of each pixel of the input image. For example, a rule is defined as “a pixel having a yellow color value, and the average value of the luminance values of the reflected light image is not less than a threshold value (eg, not less than 220) in a given period (2 seconds)”. The specific area C1 ′ may be set based on the rule 10 ′.

なお、一度、特定領域C1を設定した場合、特定領域C1の物体を認識する必要があるので、特定領域C1を設定した時点から所与の期間(例えば60秒間)、特定領域C1を固定する。そして、所与の周期(例えば60秒周期)で特定領域C1を更新(変動、再設定)する。   Note that once the specific area C1 is set, it is necessary to recognize an object in the specific area C1, and thus the specific area C1 is fixed for a given period (for example, 60 seconds) from the time when the specific area C1 is set. Then, the specific area C1 is updated (changed or reset) at a given period (for example, a period of 60 seconds).

そして、本実施形態では、図26に示す特定領域C1において物体認識処理を行う。つまり、設定された特定領域C1において、反射光画像の画素の輝度値がしきい値以上(例えば、220以上)である画素の領域のシルエットST2を切り出し、いずれのボーン情報と一致するか否かを判断すればよい。なお、特定領域においてシルエットを切り出す際のしきい値は、特定領域を設定するルールのしきい値と同じにしてもよい。   In the present embodiment, the object recognition process is performed in the specific area C1 shown in FIG. That is, in the set specific area C1, the silhouette ST2 of the pixel area where the luminance value of the pixel of the reflected light image is equal to or higher than a threshold value (for example, 220 or higher) is cut out, and which bone information is matched? Can be judged. It should be noted that the threshold for cutting out the silhouette in the specific area may be the same as the threshold of the rule for setting the specific area.

例えば、特定領域C1のシルエットST2と、「人」のボーン情報とを比較し、シルエットST2と「人」のボーン情報とが一致するか否かを判断する。図26の例では、シルエットST2が、「人」のボーン情報と一致しないと判断される。そして、特定領域C1のシルエットST2と、次のボーン情報である例えば「手」のボーン情報とを比較し、シルエットST2と「手」のボーン情報とが一致するか否かを判断する。図26の例では、シルエットST2が「手」のボーン情報と一致すると判断され、特定領域C1において「手」を認識したと判定されることになる。   For example, the silhouette ST2 of the specific area C1 is compared with the bone information of “person”, and it is determined whether or not the silhouette ST2 and the bone information of “person” match. In the example of FIG. 26, it is determined that the silhouette ST2 does not match the bone information of “person”. Then, the silhouette ST2 of the specific area C1 is compared with the next bone information, for example, “hand” bone information, and it is determined whether or not the silhouette ST2 and the “hand” bone information match. In the example of FIG. 26, it is determined that the silhouette ST2 matches the bone information of “hand”, and it is determined that “hand” has been recognized in the specific region C1.

なお、本実施形態では、入力画像の一部の特定領域C1にマシンパワーを注ぐことができるので、特定領域C1の画像精度を上げて物体を認識するようにしてもよい。画像精度とは、画像の解像度(画像の総画素数)や、画像の量子化レベル(画素が取り得る範囲、階調)、ボーン情報の関節数であり、解像度が高いほど、より精細に物体を認識することができる。また、量子化レベルが高いほど、画素値(差分画素値)の取り得る値域が広がり、より詳細にシルエットを切り出すことができる。   In the present embodiment, machine power can be applied to a specific area C1 that is a part of the input image. Therefore, an object may be recognized by increasing the image accuracy of the specific area C1. Image accuracy refers to image resolution (total number of pixels in the image), image quantization level (range that pixels can take, gradation), and number of bone information joints. The higher the resolution, the more detailed the object Can be recognized. Further, the higher the quantization level, the wider the range of values that can be taken by the pixel value (difference pixel value), and the silhouette can be extracted in more detail.

例えば、図27に示すように、特定領域C1の解像度を上げて、特定領域C1において各画素の輝度値(深度値)を算出し直し、特定領域C1の各画素の輝度値に基づいて、シルエットST2´を切り出す。例えば、輝度値が220以上の画素の領域をシルエットST2´として切り出す。このようにすれば、例えば、「手」と判断された場合に、「手」のジェスチャー(形状)や、「手」の動きをより詳しく認識することができる。   For example, as shown in FIG. 27, the resolution of the specific area C1 is increased, the luminance value (depth value) of each pixel is recalculated in the specific area C1, and the silhouette is calculated based on the luminance value of each pixel of the specific area C1. Cut out ST2 '. For example, a pixel region having a luminance value of 220 or more is cut out as a silhouette ST2 ′. In this way, for example, when “hand” is determined, the gesture (shape) of “hand” and the movement of “hand” can be recognized in more detail.

また、特定領域C1のボーン情報の関節数を上げて、より詳細に物体を認識するようにしてもよい。より具体的に説明すると、図27で抽出したシルエットST2´と関節数を多くしたボーン情報とを比較して、物体を認識するようにしてもよい。例えば、図28(B)に示すように、シルエットST2´が「手」のボーン情報BOH1と一致すると判断されると、特定領域C1において「手」を認識したと判定される。   Further, the number of joints in the bone information of the specific area C1 may be increased to recognize the object in more detail. More specifically, the object may be recognized by comparing the silhouette ST2 ′ extracted in FIG. 27 with bone information with an increased number of joints. For example, as shown in FIG. 28B, when it is determined that the silhouette ST2 ′ matches the bone information BOH1 of “hand”, it is determined that “hand” is recognized in the specific region C1.

なお、本実施形態では、物体に対応づけて、関節数が異なる複数のボーン情報群を予め用意する。例えば、低、中、高のレベルを設け、レベルが高くになるにつれて関節数が多くなるようにボーン情報群を用意する。例えば、「人」の場合には、関節数が13個のボーン情報群を低レベルとし、関節数が28個のボーン情報群を中レベルとし、関節数が56個のボーン情報群を高レベルとする。また、「手」の場合には、関節数が1個のボーン情報群を低レベルとし、関節数が5個のボーン情報群を中レベルとし、関節数が15個のボーン情報群を高レベルとしている。   In the present embodiment, a plurality of bone information groups with different numbers of joints are prepared in advance in association with objects. For example, low, medium, and high levels are provided, and bone information groups are prepared so that the number of joints increases as the level increases. For example, in the case of “person”, the bone information group having 13 joints is set to the low level, the bone information group having 28 joints is set to the medium level, and the bone information group having 56 joints is set to the high level. And In the case of “hand”, the bone information group with one joint is set to a low level, the bone information group with five joints is set to a medium level, and the bone information group with 15 joints is set to a high level. It is said.

そして、本実施形態では、特定領域において物体認識処理を行う場合には、少なくとも中レベル以上のボーン情報群を用いて物体認識処理を行うようにする。例えば、特定領域C1において物体認識処理を行う場合には、特定領域C1のシルエットと、中レベルの「人」のボーン情報群の各ボーン情報とを比較し、「人」であるか否かを判断する。   In this embodiment, when the object recognition process is performed in the specific area, the object recognition process is performed using at least the bone information group of the middle level or higher. For example, when the object recognition process is performed in the specific area C1, the silhouette of the specific area C1 is compared with each bone information of the bone information group of the medium-level “person” to determine whether or not the person is “person”. to decide.

図27の例で示す特定領域C1のシルエットST2´は、「人」のボーン情報と一致しないと判断され、次に、特定領域C1のシルエットST2´と高レベルの「手」のボーン情報群の各ボーン情報とを比較し、特定領域C1のシルエットST2´と、ボーン情報BOH1とが一致すると判断され、特定領域C1にある物体は「手」であることを認識する。   It is determined that the silhouette ST2 ′ of the specific area C1 shown in the example of FIG. 27 does not match the “person” bone information. Next, the silhouette ST2 ′ of the specific area C1 and the high-level “hand” bone information group. Each bone information is compared, and it is determined that the silhouette ST2 ′ of the specific area C1 matches the bone information BOH1, and it is recognized that the object in the specific area C1 is a “hand”.

なお、本実施形態では、特定領域C1において物体自体を認識した場合には、特定領域C1において物体自体を認識した関節数レベルのボーン情報群に基づいて、特定領域C1の物体のジェスチャーや動きを認識する処理を行うようにしてもよい。例えば、高レベルの「手」のボーン情報に基づいて特定領域C1において、「手」自体を認識した場合には、高レベルの「手」のボーン情報群に基づいて、特定領域C1の「手」のジェスチャーや動きを認識する処理を行うようにしてもよい。   In the present embodiment, when the object itself is recognized in the specific area C1, the gesture or movement of the object in the specific area C1 is determined based on the bone information group of the number of joints that recognized the object itself in the specific area C1. You may make it perform the process which recognizes. For example, when the “hand” itself is recognized in the specific area C1 based on the bone information of the high-level “hand”, the “hand” of the specific area C1 is based on the bone information group of the high-level “hand”. The process of recognizing the gesture or movement of “” may be performed.

また、本実施形態では、図9に示すように、特定領域C1において物体認識処理を行う周期を短くするようにしてもよい。例えば、特定領域C1を設定する前において、反射光画像を1/6秒周期で取得していた場合、特定領域C1を設定したt10以後は、1/60秒周期で取得するようにしてもよい。このようにすれば、より詳細に物体の動きを認識することができる。   In the present embodiment, as shown in FIG. 9, the cycle for performing the object recognition process in the specific area C1 may be shortened. For example, if the reflected light image is acquired at a 1/6 second period before setting the specific area C1, it may be acquired at a 1/60 second period after t10 when the specific area C1 is set. . In this way, the movement of the object can be recognized in more detail.

以上のように、本実施形態では、特定領域C1にマシンパワーを注ぐことができるので、物体について詳細に物体認識処理を行うことができる。また、本実施形態では、特定領域について画像精度を上げ、さらに認識周期を短くすることによって物体の誤認識を軽減することができる、という効果もある。   As described above, in the present embodiment, machine power can be poured into the specific area C1, and therefore object recognition processing can be performed in detail on an object. In addition, in the present embodiment, there is an effect that the erroneous recognition of the object can be reduced by increasing the image accuracy for the specific region and further shortening the recognition cycle.

2−6.特定領域と特定領域以外の領域との関係
本実施形態では、図26の特定領域C1以外の領域において物体認識処理を行うようにしてもよい。特定領域以外の領域において物体認識処理を行う場合には、特定領域以外の領域の画像精度を特定領域の画像精度よりも低くする。このようにすれば、特定領域C1よりも認識精度は劣るが、特定領域C1以外に物体が存在する場合において物体を認識することができる。
2-6. Relationship between the specific region and the region other than the specific region In the present embodiment, the object recognition process may be performed in a region other than the specific region C1 in FIG. When performing object recognition processing in a region other than the specific region, the image accuracy of the region other than the specific region is set lower than the image accuracy of the specific region. In this way, the recognition accuracy is inferior to that of the specific area C1, but the object can be recognized when an object exists outside the specific area C1.

本実施形態では、特定領域C1以外の領域の画像精度を特定領域の画像精度よりも低くするようにしてもよい。また、特定領域以外の領域において物体認識処理を行う周期を、特定領域において物体認識処理を行う周期よりも長くするようにしてもよい。例えば、図13に示すように、特定領域C1以外の領域においては、1/6秒の周期で物体認識処理を行い、特定領域C1においては、1/60秒の周期で物体認識処理を行う。このようにすれば、マシンパワー(コンピュータの総合的な処理能力)を主に特定領域C1の物体認識処理に注力することができ、特定領域C1の物体認識処理をより正確に行うことができる。   In the present embodiment, the image accuracy of the region other than the specific region C1 may be lower than the image accuracy of the specific region. In addition, the period for performing the object recognition process in an area other than the specific area may be longer than the period for performing the object recognition process in the specific area. For example, as shown in FIG. 13, the object recognition process is performed at a period of 1/6 second in the area other than the specific area C1, and the object recognition process is performed at a period of 1/60 second in the specific area C1. In this way, the machine power (the overall processing capability of the computer) can be mainly focused on the object recognition process in the specific area C1, and the object recognition process in the specific area C1 can be performed more accurately.

2−7.複数の特定領域
本実施形態では、複数の特定領域を設定するようにしてもよい。例えば、「所与の期間(2秒間)において、反射光画像の輝度値の平均値がしきい値以上(例えば220以上)である領域」をルール10とし、「所与の期間(2秒間)において、反射光画像の輝度値の平均値がしきい値以上(例えば200以上)である領域」をルール20とした場合、図26に示すように、ルール10に基づいて決定される領域を、特定領域C1として設定すると共に、図29に示すように、ルール20に基づいて決定される領域を、特定領域C2として設定する。なお、本実施形態では、3つ以上の特定領域を設定してもよい。つまり、本実施形態では、反射光画像の輝度値は奥行き(物体との距離)に関係するので、物体の距離関係に応じた特定領域の設定を行う。
2-7. Multiple specific areas In the present embodiment, multiple specific areas may be set. For example, the rule 10 is “a region where the average value of the luminance values of the reflected light image is not less than a threshold value (eg, not less than 220) in a given period (2 seconds)”, and “a given period (2 seconds)”. , The area where the average value of the luminance value of the reflected light image is equal to or greater than a threshold value (for example, 200 or more) is set as the rule 20, the area determined based on the rule 10 as shown in FIG. While setting as the specific area C1, as shown in FIG. 29, the area determined based on the rule 20 is set as the specific area C2. In the present embodiment, three or more specific areas may be set. That is, in the present embodiment, since the luminance value of the reflected light image is related to the depth (distance to the object), the specific area is set according to the distance relationship of the object.

そして、少なくとも1つの特定領域について物体認識処理を行う。例えば、ルール10、ルール20に基づいて設定された特定領域C1、C2のいずれか一方について物体認識処理を行うようにしてもよいし、特定領域C1、C2の両方について物体認識処理を行うようにしてもよい。   Then, object recognition processing is performed for at least one specific region. For example, the object recognition process may be performed on one of the specific areas C1 and C2 set based on the rule 10 and the rule 20, or the object recognition process may be performed on both the specific areas C1 and C2. May be.

例えば、図29に示すように、特定領域C2について物体認識処理を行う場合には、特定領域C2において輝度値が200以上の画素の領域をシルエットST3として切り出す。そして、シルエットST3とボーン情報とを対比して物体を特定する。図31に示すように、例えば、シルエットST3と「人」のボーンとが一致する場合には、特定領域C2において「人」を認識したと判定する。   For example, as shown in FIG. 29, when the object recognition process is performed for the specific area C2, a pixel area having a luminance value of 200 or more in the specific area C2 is cut out as a silhouette ST3. Then, the object is specified by comparing the silhouette ST3 with the bone information. As shown in FIG. 31, for example, when the silhouette ST3 and the “person” bone match, it is determined that “person” has been recognized in the specific region C2.

また、本実施形態では、第1の物体認識システム同じように、各特定領域に優先度を設定する。本実施形態では、深度値に基づいて優先度を決める。例えば、特定領域上の各画素の深度値の平均値を算出し、平均値が高いほど優位になるように優先度を設定するようにしてもよい。このようにすれば、入力部60に近い物体ほど優先的に物体認識処理を行うことができる。   In the present embodiment, the priority is set for each specific area in the same manner as in the first object recognition system. In the present embodiment, the priority is determined based on the depth value. For example, the average value of the depth value of each pixel on the specific region may be calculated, and the priority may be set so that the higher the average value, the more dominant. In this way, the object recognition process can be preferentially performed on an object closer to the input unit 60.

そして、本実施形態では、優先度に基づいて、物体認識処理を行う。例えば、優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くするようにしてもよい。   In this embodiment, object recognition processing is performed based on the priority. For example, the image accuracy of a specific region with a low priority may be set lower than the image accuracy of a specific region with a high priority.

例えば、特定領域C1の優先度が1であり、特定領域C2の優先度が2であるとすると、図30に示すように、特定領域C2について解像度を上げると共に、優先度の低い特定領域C2の解像度を、優先度の高い特定領域C1において物体認識処理を行う解像度よりも低くする。   For example, if the priority of the specific area C1 is 1 and the priority of the specific area C2 is 2, as shown in FIG. 30, the resolution of the specific area C2 is increased and the specific area C2 having a low priority is selected. The resolution is set lower than the resolution at which the object recognition process is performed in the specific area C1 having a high priority.

また、優先度の高い特定領域C1については、図28(B)に示すように、関節数を低レベルから高レベルに上げ、高レベルのボーン情報群に基づいて物体認識処理を行い、優先度が特定領域C1よりも低い特定領域C2については、図31に示すように、関節数を低レベルから中レベルに上げて中レベルのボーン情報群に基づいて物体認識処理を行う。   For the specific area C1 with high priority, as shown in FIG. 28B, the number of joints is increased from a low level to a high level, and object recognition processing is performed based on the high-level bone information group. For the specific area C2 that is lower than the specific area C1, as shown in FIG. 31, the number of joints is increased from the low level to the medium level, and the object recognition process is performed based on the medium level bone information group.

例えば、図29に示すように、特定領域C2について物体認識処理を行う場合には、特定領域C2の解像度を上げて、特定領域C2において各画素の輝度値(深度値)を算出し直し、例えば、輝度値が200以上の画素の領域をシルエットST3´として切り出す。そして、シルエットST3´とボーン情報とを対比して物体を特定する。図31に示すように、例えば、シルエットST3´と「人」のボーンBO5とが一致する場合には、特定領域C2において「人」を認識することができる。   For example, as shown in FIG. 29, when performing the object recognition process for the specific area C2, the resolution of the specific area C2 is increased, and the luminance value (depth value) of each pixel is recalculated in the specific area C2. Then, a pixel region having a luminance value of 200 or more is cut out as a silhouette ST3 ′. Then, the object is specified by comparing the silhouette ST3 'with the bone information. As shown in FIG. 31, for example, when the silhouette ST3 ′ and the “people” bone BO5 match, “people” can be recognized in the specific region C2.

このようにすれば、優先度の高い特定領域C1についてより、マシンパワーを注いで詳細に物体を認識することができ、優先度の低いものについて処理を簡素にし、効率よく特定領域C1、C2の物体認識処理を行うことができる。   By doing this, it is possible to recognize the object in detail by pouring machine power more than the specific area C1 with high priority, simplify processing for the low priority, and efficiently specify the specific areas C1 and C2. Object recognition processing can be performed.

同様に、例えば、優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くする。つまり、図17に示すように、優先度の低い特定領域C2において物体認識処理を行う周期を、優先度の高い特定領域C1において物体認識処理を行う周期よりも長くする。このようにすれば、優先度の高い特定領域C1についてより詳細に物体を認識することができる。   Similarly, for example, the period for performing the object recognition process in the specific area with low priority is set longer than the period for performing the object recognition process in the specific area with high priority. That is, as shown in FIG. 17, the period for performing the object recognition process in the specific area C2 with low priority is set longer than the period for performing the object recognition process in the specific area C1 with high priority. In this way, the object can be recognized in more detail with respect to the specific area C1 having a high priority.

また、本実施形態では、複数の特定領域を設定している場合には、優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うようにしてもよい。つまり、優先度の低い特定領域C2において物体認識処理を行わずに、優先度の高い特定領域C1において物体認識処理を行うようにしてもよい。   In the present embodiment, when a plurality of specific areas are set, the object recognition process is performed in the high priority specific area without performing the object recognition process in the low priority specific area. Also good. That is, the object recognition process may be performed in the specific area C1 having a high priority without performing the object recognition process in the specific area C2 having a low priority.

2−8.フローチャート
最後に、本実施形態の処理の流れについて図32を用いて説明する。まず、入力画像の各画素の深度値に基づいて、入力画像上の特定領域を設定する(ステップS20)。そして、特定領域の画像精度を上げると共に、特定領域の物体認識処理を行う周期を短くする(ステップS21)。そして、特定領域において物体を認識する処理を行う(ステップS22)。以上で処理が終了する。
2-8. Flowchart Finally, the processing flow of this embodiment will be described with reference to FIG. First, a specific area on the input image is set based on the depth value of each pixel of the input image (step S20). And while improving the image precision of a specific area, the period which performs the object recognition process of a specific area is shortened (step S21). And the process which recognizes an object in a specific area is performed (step S22). The process ends here.

3.ゲーム演算処理例
本実施形態では、以上に示す物体認識処理を行うことによって、種々のゲームを行うことができる。
3. Game Calculation Processing Example In the present embodiment, various games can be performed by performing the object recognition processing described above.

3−1.野球ゲームの例
3−1−1.第1の物体認識システムで野球ゲームのゲーム演算を行う例
本実施形態において、第1の物体認識システムで野球ゲームのゲーム演算を行う例について説明する。まず、本実施形態では、オブジェクト空間に、プレーヤキャラクタを配置する。そして、プレーヤの動きやジェスチャーを認識し、認識したプレーヤの動きやジェスチャーに基づいて、プレーヤキャラクタがピッチャーとしてボールを投げる動作処理を行う。
3-1. Example of baseball game 3-1-1. Example of Performing Game Calculation of Baseball Game with First Object Recognition System In this embodiment, an example of performing game calculation of a baseball game with the first object recognition system will be described. First, in this embodiment, a player character is placed in the object space. Then, the player's movement and gesture are recognized, and based on the recognized player's movement and gesture, an action process is performed in which the player character throws the ball as a pitcher.

例えば、オブジェクト空間内においてプレーヤキャラクタがマウンド(所定区域)に立ったタイミングで、入力画像においてルール2(所与の期間(2秒間)において、動きベクトルの大きさ(差分画素値)の平均値が100以上であって、動きベクトルが左又は右方向を向く領域)に基づいて決定される特定領域A2において、動きベクトルによって示される動き領域S3を抽出する。そして動き領域S3の形が「人」のパターン(「人」の形状、「人」の色情報)と一致するか否かを判断する。なお、人の認識処理を行う場合には、特定領域A2において、画像精度を上げた各画素の動きベクトルに基づいて、動き領域S3´を設定し、動き領域S3´の形と、「手」の認識パターンの一致度を判断する。   For example, at the timing when the player character stands on the mound (predetermined area) in the object space, the average value of the magnitudes of motion vectors (difference pixel values) in rule 2 (a given period (2 seconds)) in the input image The motion region S3 indicated by the motion vector is extracted from the specific region A2 that is determined based on the motion vector of 100 or more and the motion vector facing left or right. Then, it is determined whether or not the shape of the motion region S3 matches the “person” pattern (“person” shape, “person” color information). When human recognition processing is performed, in the specific area A2, a motion area S3 ′ is set based on the motion vector of each pixel with increased image accuracy, and the shape of the motion area S3 ′ and “hand” The degree of coincidence of the recognition pattern is determined.

本実施形態では、特定領域A2において「人」を認識した場合に、次に、入力画像に基づいて「手」を認識できるか否かを判断する。例えば、入力画像においてルール1(所与の期間(2秒間)において、動きベクトルの大きさ(差分画素値)の平均値が200以上であって、動きベクトルが左又は右方向を向く領域)に基づいて決定される特定領域A1の動き領域S1の形が、「手」のパターン(「手」の形状、「手」の色情報)と一致するか否かを判断する。例えば、手の認識処理を行う場合には、特定領域A1において、画像精度を上げた各画素の動きベクトルに基づいて、動き領域S1´を設定し、動き領域S1´の形と、「手」の認識パターンの一致度を判断する。   In the present embodiment, when “person” is recognized in the specific area A2, it is next determined whether or not “hand” can be recognized based on the input image. For example, in the input image, rule 1 (region in which the average value of the motion vector (difference pixel value) is 200 or more and the motion vector faces left or right in a given period (2 seconds)) It is determined whether or not the shape of the motion area S1 of the specific area A1 determined based on the pattern matches the “hand” pattern (“hand” shape, “hand” color information). For example, when hand recognition processing is performed, a motion region S1 ′ is set based on the motion vector of each pixel whose image accuracy is increased in the specific region A1, and the shape of the motion region S1 ′ and “hand” The degree of coincidence of the recognition pattern is determined.

そして、特定領域A1において、「手」を認識すると、次に、「手」のジェスチャーを認識する。本実施形態では、認識された「手」のジェスチャーに基づいて、プレーヤキャラクタがボールを投げる投球フォームを決定する。例えば、特定領域A1の動き領域S1´の形と、「手」の「グー」、「チョキ」、「パー」の3つの認識パターンそれぞれの一致度を判断する。そして、動き領域S1´の形が「グー」の認識パターンと一致している場合には、プレーヤキャラクタの投球フォームを「ストレート」に決定し、動き領域S1´の形が「チョキ」の認識パターンと一致している場合には、プレーヤキャラクタの投球フォームを「フォーク」に決定し、動き領域S1´の形が「パー」の認識パターンと一致している場合には、プレーヤキャラクタの投球フォームを「スライダー」に決定する。   When “hand” is recognized in the specific area A1, next, the gesture of “hand” is recognized. In the present embodiment, a throwing form on which the player character throws the ball is determined based on the recognized “hand” gesture. For example, the degree of coincidence between the shape of the movement area S1 ′ of the specific area A1 and the three recognition patterns “goo”, “choki”, and “par” of “hand” is determined. If the shape of the motion area S1 ′ matches the recognition pattern of “Goo”, the player character's throwing form is determined to be “straight”, and the shape of the motion area S1 ′ is a recognition pattern of “Choki”. Is determined to be “fork”, and when the shape of the movement area S1 ′ matches the recognition pattern of “par”, the player character's pitch form is determined to be “fork”. Decide on “Slider”.

そして、特定領域A1(或いは、動き領域S1´)の各画素の動きベクトルの方向に基づいて「手」の動きを認識し、「手」の動きに基づいてオブジェクト空間のプレーヤキャラクタの動作演算を行う。例えば、「手」を認識した特定領域A1において、動きベクトルの方向が画面下方向であって、その動きベクトルの大きさが所定値以上(例えば、差分画素値が250以上)であることを検出した場合に、オブジェクト空間に存在するプレーヤキャラクタが、決定された投球フォームでボールを投げる動作を行う。   Then, the movement of the “hand” is recognized based on the direction of the motion vector of each pixel in the specific area A1 (or the movement area S1 ′), and the motion calculation of the player character in the object space is performed based on the movement of the “hand”. Do. For example, in the specific area A1 in which “hand” is recognized, it is detected that the direction of the motion vector is the downward direction on the screen and the magnitude of the motion vector is greater than or equal to a predetermined value (eg, the difference pixel value is greater than or equal to 250). In this case, the player character existing in the object space performs an action of throwing the ball with the determined throwing form.

以上のように、第1の物体認識システムで野球ゲームのゲーム演算を行う場合には、全画面ではなく特定領域において、「人」や、「手」の物体認識、ジェスチャー、動きを認識する処理を行うので、無駄な処理を省略することができ、効率よく処理を行うことができる。   As described above, when the base object game calculation is performed by the first object recognition system, the object recognition, gesture, and movement of “person” and “hand” are recognized in a specific area instead of the full screen. Therefore, useless processing can be omitted and processing can be performed efficiently.

3−1−2.第2の物体認識システムで野球ゲームのゲーム演算を行う例
次に、本実施形態の第2の物体認識システムで野球ゲームのゲーム演算を行う例について説明する。まず、本実施形態では、オブジェクト空間に、プレーヤキャラクタを配置し、プレーヤの動きやジェスチャーを認識し、認識したプレーヤの動きやジェスチャーに基づいて、プレーヤキャラクタがピッチャーとしてボールを投げる動作処理を行う。
3-1-2. Example of Performing Game Calculation of Baseball Game with Second Object Recognition System Next, an example of performing game calculation of a baseball game with the second object recognition system of the present embodiment will be described. First, in this embodiment, a player character is placed in the object space, the player's movement and gesture are recognized, and the player character performs a motion process of throwing a ball as a pitcher based on the recognized player movement and gesture.

例えば、オブジェクト空間内においてプレーヤキャラクタがマウンドに立ったタイミングで、入力画像においてルール20(所与の期間(2秒間)において、反射光画像の輝度値の平均値がしきい値以上(例えば200以上)である領域)に基づいて決定されるシルエットを特定領域C2として設定し、特定領域C2のシルエットST3が「人」のボーン情報と一致するか否かを判断する。例えば、「人」を認識する場合には、特定領域C2の画像精度を上げて各画素情報に基づいて、シルエットST3´を設定し、シルエットST3´の形と「人」のボーン情報の一致度を判断する。   For example, at the timing when the player character stands on the mound in the object space, the average value of the luminance value of the reflected light image is not less than a threshold value (for example, not less than 200 in the given period (2 seconds)) in the input image. ) Is determined as the specific region C2, and it is determined whether or not the silhouette ST3 of the specific region C2 matches the bone information of “person”. For example, when “person” is recognized, the silhouette ST3 ′ is set based on each pixel information by increasing the image accuracy of the specific area C2, and the degree of coincidence between the shape of the silhouette ST3 ′ and the bone information of “person” Judging.

そして、特定領域C2において「人」を認識した場合には、次に、入力画像に基づいて「手」を認識可能か否かを判断する。例えば、入力画像においてルール10(所与の期間(2秒間)において、反射光画像の輝度値の平均値がしきい値以上(例えば220以上)である領域)に基づいて決定される領域を特定領域C1として設定し、特定領域C1のシルエットST2の形が「手」のボーン情報と一致するか否かを判断する。例えば、特定領域C1の画像精度を上げて各画素情報に基づいて、シルエットST2´を設定し、シルエットST2´の形と、「手」のボーン情報の一致度を判断する。   When “person” is recognized in the specific area C2, it is next determined whether or not “hand” can be recognized based on the input image. For example, in the input image, an area determined based on rule 10 (an area where the average value of the luminance value of the reflected light image is not less than a threshold value (for example, not less than 220) in a given period (2 seconds)) is specified. It is set as the region C1, and it is determined whether or not the shape of the silhouette ST2 of the specific region C1 matches the bone information of “hand”. For example, the silhouette ST2 ′ is set based on each pixel information by increasing the image accuracy of the specific area C1, and the degree of coincidence between the shape of the silhouette ST2 ′ and the bone information of “hand” is determined.

そして、特定領域C1において、「手」を認識すると、次に、「手」のジェスチャーを認識する。例えば、本実施形態では、認識されたジェスチャーに基づいて、プレーヤキャラクタがボールを投げる投球フォームを決定する。例えば、特定領域C1のシルエットST2´の形と、「手」の「グー」、「チョキ」、「パー」の3つのボーン情報それぞれの一致度を判断する。そして、シルエットST2´の形が「グー」のボーン情報と一致する場合には、プレーヤキャラクタの投球フォームを「ストレート」に決定し、シルエットST2´の形が「チョキ」のボーン情報と一致する場合には、プレーヤキャラクタの投球フォームを「フォーク」に決定し、シルエットST2´の形が「パー」のボーン情報と一致する場合には、プレーヤキャラクタの投球フォームを「スライダー」に決定する。   Then, when “hand” is recognized in the specific area C1, next, the gesture of “hand” is recognized. For example, in the present embodiment, a throwing form on which the player character throws the ball is determined based on the recognized gesture. For example, the degree of coincidence between the shape of the silhouette ST2 ′ of the specific area C1 and the three pieces of bone information “goo”, “choki”, and “par” of “hand” is determined. When the shape of the silhouette ST2 ′ matches the bone information of “Goo”, the pitching form of the player character is determined to be “straight”, and the shape of the silhouette ST2 ′ matches the bone information of “Cho” In this case, the pitch form of the player character is determined as “fork”, and when the shape of the silhouette ST2 ′ matches the bone information of “par”, the pitch form of the player character is determined as “slider”.

そして、本実施形態では、シルエットST3´に一致するボーン情報に基づいて、「人」の動きを認識する。例えば、本実施形態では、所定周期で更新するシルエットST3´に合致する「人」のボーン情報をキーフレームとし、キーフレーム間の動きを補間して、「人」の動作を認識し、認識した動作に基づいて、オブジェクト空間に存在するプレーヤキャラクタの動作処理(モーション処理)を行う。例えば、「人」を認識した特定領域C2において、「人」のボールを投げる動きをしていることを認識した場合に、決定された投球フォームに基づいて、オブジェクト空間に存在するプレーヤキャラクタがボールを投げる動作を行う。   In the present embodiment, the movement of the “person” is recognized based on the bone information that matches the silhouette ST3 ′. For example, in the present embodiment, the bone information of “person” matching the silhouette ST3 ′ updated at a predetermined cycle is used as a key frame, and the motion between the key frames is interpolated to recognize and recognize the operation of “person”. Based on the motion, motion processing of the player character existing in the object space is performed. For example, when it is recognized that the movement of throwing a “person” ball is recognized in the specific area C2 in which “person” is recognized, the player character existing in the object space moves to the ball based on the determined throwing form. Do the action of throwing.

以上のように、第2の物体認識システムで野球ゲームのゲーム演算を行う場合には、全画面ではなく特定領域において、「人」や、「手」の物体認識、ジェスチャー、動きを認識する処理を行うので、無駄な処理を省略することができ、効率よく処理を行うことができる。   As described above, when the base object game calculation is performed by the second object recognition system, the object recognition, gesture, and movement of “person” or “hand” are recognized in a specific area instead of the full screen. Therefore, useless processing can be omitted and processing can be performed efficiently.

3−2.対戦ゲームの例
3−2−1.第1の物体認識システムで対戦ゲームのゲーム演算を行う例
第1の物体認識システムで対戦ゲームのゲーム演算を行う例について説明する。まず、本実施形態では、オブジェクト空間に、プレーヤキャラクタを配置する。そして、プレーヤの動きやジェスチャーを認識し、認識したプレーヤの動きやジェスチャーに基づいて、プレーヤキャラクタが敵キャラクタに攻撃技、防御技などを決定する。
3-2. Example of competitive game 3-2-1. Example of performing game calculation of a battle game using the first object recognition system An example of performing game calculation of a battle game using the first object recognition system will be described. First, in this embodiment, a player character is placed in the object space. Then, the player's movement and gesture are recognized, and based on the recognized player's movement and gesture, the player character determines an attack technique, a defense technique, and the like for the enemy character.

例えば、オブジェクト空間内においてプレーヤキャラクタと敵キャラクタとの対戦ゲームが開始されると、入力画像においてルール2に基づいて決定される特定領域A2において、動きベクトルによって示される動き領域S3の形が認識パターン記憶部173に記憶されている「人」のパターン(「人」の形状、「人」の色情報)と一致するか否かを判断する。例えば、特定領域A2において画像精度を上げた各画素の動きベクトルに基づいて、動き領域S3´を設定し、動き領域S3´の形と、「人」の認識パターンの一致度を判断する。   For example, when a battle game between a player character and an enemy character is started in the object space, the shape of the motion area S3 indicated by the motion vector is recognized in the specific area A2 determined based on the rule 2 in the input image. It is determined whether or not the pattern matches the “person” pattern (“person” shape, “person” color information) stored in the storage unit 173. For example, the motion region S3 ′ is set based on the motion vector of each pixel whose image accuracy is improved in the specific region A2, and the degree of coincidence between the shape of the motion region S3 ′ and the recognition pattern of “person” is determined.

そして、特定領域A2において「人」を認識した場合には、次に、入力画像に基づいて「手」を認識できるか否かを判断する。例えば、入力画像においてルール1に基づいて特定領域A1を設定し、特定領域A1の動き領域S1の形が「手」のパターン(「手」の形状、「手」の色情報)と一致するか否かを判断する。例えば、特定領域A1において画像精度を上げた各画素の動きベクトルに基づいて、動き領域S1´を設定し、動き領域S1´の形と、「手」の認識パターンの一致度を判断する。   When “person” is recognized in the specific area A2, it is next determined whether or not “hand” can be recognized based on the input image. For example, whether the specific area A1 is set based on the rule 1 in the input image and the shape of the motion area S1 of the specific area A1 matches the “hand” pattern (“hand” shape, “hand” color information). Judge whether or not. For example, the motion region S1 ′ is set based on the motion vector of each pixel whose image accuracy is improved in the specific region A1, and the degree of coincidence between the shape of the motion region S1 ′ and the recognition pattern of “hand” is determined.

そして、特定領域A1において、「手」を認識すると、次に、「手」のジェスチャーを認識する。例えば、本実施形態では、認識されたジェスチャーに基づいて、プレーヤキャラクタの技を決定する。例えば、特定領域A1の動き領域S1´の形と、「手」の「グー」、「チョキ」、「パー」の3つの認識パターンそれぞれの一致度を判断する。例えば、動き領域S1´の形が「グー」の認識パターンと一致する場合にはプレーヤキャラクタの技を「パンチ」に決定し、動き領域S1´の形が「チョキ」の認識パターンと一致する場合にはプレーヤキャラクタの技を「タックル」に決定し、「パー」の認識パターンと一致する場合にはプレーヤキャラクタの技を「投げ技」に決定する。   When “hand” is recognized in the specific area A1, next, the gesture of “hand” is recognized. For example, in the present embodiment, the technique of the player character is determined based on the recognized gesture. For example, the degree of coincidence between the shape of the movement area S1 ′ of the specific area A1 and the three recognition patterns “goo”, “choki”, and “par” of “hand” is determined. For example, when the shape of the motion area S1 ′ matches the recognition pattern of “Goo”, the technique of the player character is determined to be “punch”, and the shape of the motion area S1 ′ matches the recognition pattern of “choki” In this case, the technique of the player character is determined to be “tackle”, and if it matches the recognition pattern of “par”, the technique of the player character is determined to be “throw technique”.

そして、特定領域A1(或いは、動き領域S1´)の各画素の動きベクトルの方向に基づいて「手」の動きを認識する。例えば、「手」を認識した特定領域A1において、動きベクトルの方向が画面下方向であって、その動きベクトルの大きさが所定値以上(例えば、差分画素値が250以上)であることを検出した場合に、決定された「技」に基づいて、オブジェクト空間に存在するプレーヤキャラクタが敵キャラクタに攻撃を行う動作を行う。   Then, the movement of the “hand” is recognized based on the direction of the motion vector of each pixel in the specific area A1 (or the movement area S1 ′). For example, in the specific area A1 in which “hand” is recognized, it is detected that the direction of the motion vector is the downward direction on the screen and the magnitude of the motion vector is greater than or equal to a predetermined value (for example, the difference pixel value is greater than or equal to 250). In this case, based on the determined “skill”, the player character existing in the object space performs an action to attack the enemy character.

なお、本実施形態では、認識したプレーヤの人や手の動きに基づいて、プレーヤキャラクタを動作させる処理を行うようにしてもよい(モーション演算を行うようにしてもよい)。このようにすれば、例えば、プレーヤが行うパンチの動作をプレーヤキャラクタに反映させることができる。例えば、特定領域A1(或いは、動き領域S1´)の各画素の動きベクトルの方向に基づいて「手」の動きを認識した場合に、その「手」の動きに基づいて、オブジェクト空間に存在するプレーヤキャラクタの手(腕)の動作処理を行う。例えば、「手」を認識した特定領域A1において、動きベクトルの方向が画面下方向であって、その動きベクトルの大きさが所定値以上であることを検出した場合に、プレーヤの「手」が上から下へ動いたものと判断し、プレーヤキャラクタの手(腕)を上から下に振り下ろすモーション処理を行う。   In the present embodiment, processing for moving the player character may be performed based on the recognized movement of the player's person or hand (motion calculation may be performed). In this way, for example, the punching action performed by the player can be reflected in the player character. For example, when the movement of the “hand” is recognized based on the direction of the motion vector of each pixel in the specific area A1 (or the movement area S1 ′), the movement is present in the object space based on the movement of the “hand”. The player character's hand (arm) motion processing is performed. For example, in the specific area A1 in which “hand” is recognized, when it is detected that the direction of the motion vector is the downward direction on the screen and the magnitude of the motion vector is a predetermined value or more, the “hand” of the player is It is determined that the player character has moved from top to bottom, and motion processing is performed in which the player character's hand (arm) is swung down from top to bottom.

以上のように、第1の物体認識システムで対戦ゲームのゲーム演算を行う場合には、全画面ではなく特定領域において、「人」や、「手」の物体認識、ジェスチャー、動きを認識する処理を行うので、無駄な処理を省略することができ、効率よく処理を行うことができる。   As described above, when the game calculation of the battle game is performed by the first object recognition system, the object recognition, gesture, and movement of “person” or “hand” are recognized in a specific area instead of the full screen. Therefore, useless processing can be omitted and processing can be performed efficiently.

3−2−2.第2の物体認識システムで対戦ゲームのゲーム演算を行う例
次に、本実施形態の第2の物体認識システムで対戦ゲームのゲーム演算を行う例について説明する。まず、本実施形態では、プレーヤの動きやジェスチャーを認識し、認識したプレーヤの動きやジェスチャーに基づいて、プレーヤキャラクタが敵キャラクタに攻撃技、防御技などを決定する。
3-2-2. Example of Performing Competitive Game Game Calculation in Second Object Recognition System Next, an example of performing a competitive game game calculation in the second object recognition system of the present embodiment will be described. First, in this embodiment, the player's movement and gesture are recognized, and the player character determines an attack technique, a defense technique, and the like for the enemy character based on the recognized player movement and gesture.

例えば、オブジェクト空間内においてプレーヤキャラクタと敵キャラクタとの対戦ゲームが開始されると、入力画像においてルール20に基づいて決定される特定領域C2において切り出されたシルエットST3が「人」のボーン情報と一致するか否かを判断する。例えば、「人」を認識する場合には、特定領域C2の画像精度を上げて各画素情報に基づいて、シルエットST3´を設定し、シルエットST3´の形と「人」のボーン情報の一致度を判断する。   For example, when a battle game between a player character and an enemy character is started in the object space, the silhouette ST3 cut out in the specific area C2 determined based on the rule 20 in the input image matches the bone information of “person”. Judge whether to do. For example, when “person” is recognized, the silhouette ST3 ′ is set based on each pixel information by increasing the image accuracy of the specific area C2, and the degree of coincidence between the shape of the silhouette ST3 ′ and the bone information of “person” Judging.

そして、シルエットST3が「人」のボーン情報と一致し、「人」であることを認識した場合には、次に、入力画像に基づいて「手」を認識できるか否かを判断する。例えば、入力画像においてルール10に基づいて特定領域C1を設定し、特定領域C1のシルエットST2の形が「手」のボーン情報と一致するか否かを判断する。例えば、特定領域C1の画像精度を上げて各画素情報に基づいて、シルエットST2´を設定し、シルエットST2´の形と、「手」のボーン情報の一致度を判断する。   If the silhouette ST3 matches the bone information of “person” and recognizes that it is “person”, it is next determined whether or not “hand” can be recognized based on the input image. For example, the specific region C1 is set based on the rule 10 in the input image, and it is determined whether or not the shape of the silhouette ST2 of the specific region C1 matches the bone information of “hand”. For example, the silhouette ST2 ′ is set based on each pixel information by increasing the image accuracy of the specific area C1, and the degree of coincidence between the shape of the silhouette ST2 ′ and the bone information of “hand” is determined.

そして、特定領域C1において、「手」を認識すると、次に、「手」のジェスチャーを認識する。例えば、本実施形態では、認識されたジェスチャーに基づいて、プレーヤキャラクタの技を決定する。例えば、シルエットST2´が「グー」のボーン情報と一致する場合にはプレーヤキャラクタの技を「パンチ」に決定し、シルエットST2´が「チョキ」のボーン情報と一致する場合にはプレーヤキャラクタの技を「タックル」に決定し、シルエットST2´が「パー」のボーン情報と一致する場合にはプレーヤキャラクタの技を「投げ技」に決定する。   Then, when “hand” is recognized in the specific area C1, next, the gesture of “hand” is recognized. For example, in the present embodiment, the technique of the player character is determined based on the recognized gesture. For example, when the silhouette ST2 ′ matches the bone information of “Goo”, the skill of the player character is determined as “punch”, and when the silhouette ST2 ′ matches the bone information of “Cho”, the technique of the player character is determined. Is determined to be “tackle”, and if the silhouette ST2 ′ matches the bone information of “par”, the technique of the player character is determined to be “throw technique”.

そして、特定領域C1(或いは、シルエットST2´)のボーン情報に基づいて「手」の動きを認識する。例えば、「手」を認識した特定領域C1において、「手」のボーンが、深度センサに対して前に突き出す動作(奥から手前へ手を前に出す動作)をしていることを検出した場合に、オブジェクト空間に存在するプレーヤキャラクタが、決定された「技」に基づいて、オブジェクト空間に存在するプレーヤキャラクタが敵キャラクタに攻撃を行う。   Then, the movement of the “hand” is recognized based on the bone information of the specific area C1 (or silhouette ST2 ′). For example, in the specific region C1 in which “hand” is recognized, it is detected that the bone of “hand” is protruding forward with respect to the depth sensor (moving the hand forward from the back). The player character existing in the object space attacks the enemy character based on the determined “skill”.

なお、本実施形態では、プレーヤの動きやジェスチャーを認識し、プレーヤの動きやジェスチャーに基づいて、プレーヤキャラクタを動作させる処理を行うようにしてもよい(モーション演算を行う)。   In the present embodiment, the player's movement or gesture may be recognized, and a process for moving the player character may be performed based on the player's movement or gesture (motion calculation is performed).

例えば、特定領域C2(或いは、シルエットST3´)のボーン情報に基づいて「人」の動きを認識した場合に、その「人」の動きに基づいて、オブジェクト空間に存在するプレーヤキャラクタの動作処理を行う。例えば、本実施形態では、所定周期で更新するシルエットST3´に合致する「人」のボーン情報をキーフレームとし、キーフレーム間の動きを補間して、「人」の動作を認識し、認識した動作に基づいて、オブジェクト空間に存在するプレーヤキャラクタの動作処理(モーション処理)を行う。このようにすれば、例えば、プレーヤが行うパンチの動作をプレーヤキャラクタに反映させることができる。   For example, when the movement of the “person” is recognized based on the bone information of the specific area C2 (or silhouette ST3 ′), the motion processing of the player character existing in the object space is performed based on the movement of the “person”. Do. For example, in the present embodiment, the bone information of “person” matching the silhouette ST3 ′ updated at a predetermined cycle is used as a key frame, and the motion between the key frames is interpolated to recognize and recognize the operation of “person”. Based on the motion, motion processing of the player character existing in the object space is performed. In this way, for example, the punching action performed by the player can be reflected in the player character.

以上のように、第2の物体認識システムで対戦ゲームのゲーム演算を行う場合には、全画面ではなく特定領域において、「人」や、「手」の物体認識、ジェスチャー、動きを認識する処理を行うので、無駄な処理を省略することができ、効率よく処理を行うことができる。   As described above, when the game calculation of the battle game is performed by the second object recognition system, the object recognition, gesture, and movement of “person” or “hand” are recognized in a specific area instead of the full screen. Therefore, useless processing can be omitted and processing can be performed efficiently.

3−3.その他のゲーム
本実施形態では、アクションゲーム、レーシングゲーム、シューティングゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、シミュレーションゲーム、音楽演奏ゲーム、ダンスゲームなど種々のゲームに適用できる。
3-3. Other Games This embodiment can be applied to various games such as action games, racing games, shooting games, sports games, competitive games, role playing games, simulation games, music performance games, and dance games.

例えば、各ゲームにおいて適用する場合には、ゲーム進行に応じた所定のタイミングで、特定領域において物体認識処理を行うようにしてもよい。例えば、オブジェクト空間においてプレーヤの操作対象のプレーヤオブジェクトが敵オブジェクトと遭遇したタイミング(プレーヤオブジェクトの位置と敵オブジェクトの位置とが所定位置関係になったタイミング)で、特定領域において物体認識処理を行うようにしてもよい。   For example, when applied in each game, the object recognition process may be performed in a specific area at a predetermined timing according to the progress of the game. For example, the object recognition process is performed in the specific area at the timing when the player object to be operated by the player encounters the enemy object in the object space (the timing at which the position of the player object and the position of the enemy object are in a predetermined positional relationship). It may be.

また、レーシングゲーム、シューティングゲーム等においては、プレーヤがハンドルや操縦桿等を操作しているような動きを認識するようにしてもよい。例えば、レーシングゲーム等で手(或いは腕などでもよい)を認識するための特定領域を設定し、特定領域において手を認識できた場合には、その特定領域において、手の動き、手のジェスチャーを認識する処理を行う。   Further, in a racing game, a shooting game, or the like, it may be recognized that the player is operating a handle, a control stick or the like. For example, when a specific area for recognizing a hand (or an arm or the like) is set in a racing game or the like and the hand can be recognized in the specific area, the movement of the hand or the gesture of the hand is detected in the specific area. Perform recognition processing.

また、音楽ゲームやダンスゲームでは、プレーヤの動作を認識し、プレーヤの動作が予め決められた動作に一致しているか否かを判断してもよい。例えば、人を認識するための特定領域を設定し、特定領域において人を認識できた場合には、その特定領域において、人の動き、人のジェスチャーを認識する処理を行う。   In a music game or a dance game, the player's action may be recognized to determine whether or not the player's action matches a predetermined action. For example, when a specific area for recognizing a person is set and the person can be recognized in the specific area, a process of recognizing the movement of the person and the gesture of the person is performed in the specific area.

また、本実施形態では、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレーター、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話などの種々のシステム(端末)に適用できる。   In the present embodiment, various systems (terminals) such as an arcade game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone ).

4.応用例
本実施形態では、第1の物体認識システムの処理部100の処理を、第2の物体認識システムの処理部500に応用してもよいし、第2の物体認識システムの処理部500の処理を、第1の物体認識システムの処理部100に応用してもよい。例えば、第1の物体認識システムにおいて、ボーン情報を用いて物体認識処理を行うようにしてもよい。具体的には、第1の物体認識システムの認識パターン記憶部173に「人」に関するボーン情報を記憶させる。そして、認識パターン記憶部173で記憶されている複数のボーン(スケルトン、骨格)と入力画像の各画素の画素情報に基づいて設定された動き領域(2次元のシルエット)とを照合し、最も動き領域に合致するボーンを設定する。
4). Application Example In this embodiment, the processing of the processing unit 100 of the first object recognition system may be applied to the processing unit 500 of the second object recognition system, or the processing of the processing unit 500 of the second object recognition system. The processing may be applied to the processing unit 100 of the first object recognition system. For example, in the first object recognition system, object recognition processing may be performed using bone information. Specifically, bone information related to “person” is stored in the recognition pattern storage unit 173 of the first object recognition system. Then, the plurality of bones (skeleton, skeleton) stored in the recognition pattern storage unit 173 are collated with the motion region (two-dimensional silhouette) set based on the pixel information of each pixel of the input image. Set bones that match the region.

そして、本実施形態では、設定されたボーンの動きを演算する処理を行う。つまり、ボーンの動きを、プレーヤPの動作とみなす処理を行なう。本実施形態では、所定間隔毎(例えば、フレーム毎)に、ボーンを特定しプレーヤPの動作を取得する処理を行っている。   And in this embodiment, the process which calculates the motion of the set bone is performed. That is, processing is performed in which the motion of the bone is regarded as the motion of the player P. In the present embodiment, a process of specifying the bone and acquiring the action of the player P is performed at predetermined intervals (for example, every frame).

なお、本実施形態では、人物を構成する部位単位(手、腕、顔、足)で物体認識処理を行うこともできる。かかる場合は、部位単位で予め複数のボーンを認識パターン記憶部173に格納し、抽出された動き領域が複数のボーンのうちいずれと合致するかを判定してもよい。   In the present embodiment, the object recognition process can also be performed on a part basis (hand, arm, face, foot) constituting a person. In such a case, a plurality of bones may be stored in advance in the recognition pattern storage unit 173 for each part, and it may be determined which of the plurality of bones the extracted motion region matches.

5.物体の動きを認識する処理についての説明
本実施形態では、所定タイミングで画像の変化を認識する処理を行うようにしてもよい。つまり、本実施形態では、2つの異なる時点で取得した入力画像に基づいて、物体の動きを認識する処理を行うようにしてもよい。例えば、単純に2つの入力画像間の差分をとって物体の動き(物体の移動)を認識してもよい。このようにすれば、簡易な処理で物体の動きや移動等を認識することができる。
5. Description of Processing for Recognizing Object Movement In this embodiment, processing for recognizing a change in an image may be performed at a predetermined timing. That is, in the present embodiment, processing for recognizing the movement of an object may be performed based on input images acquired at two different times. For example, the movement of an object (movement of an object) may be recognized simply by taking a difference between two input images. In this way, it is possible to recognize the movement and movement of the object with a simple process.

より具体的に説明すると、図33(A)(B)に示すように、タイミングT20で取得した入力画像F20と、タイミングT20時点から所定期間経過した所定タイミングでT21時点(例えば、T20時点から1秒後のT21時点)において取得した入力画像F21との差分をとって動きを認識してもよい。つまり、入力画像F20の各画素値の合計値と、入力画像F21の各画素値の合計値の差分値を算出し、差分値が動き認識のためのしきい値以上(所定値以上)であるか否かを判断し、差分値が動き認識のしきい値以上である場合に、動きがあったものと認識する。   More specifically, as shown in FIGS. 33A and 33B, the input image F20 acquired at the timing T20 and the time T21 (for example, 1 from the time T20) at a predetermined timing after the time T20 has elapsed. The motion may be recognized by taking a difference from the input image F21 acquired at time T21 after 2 seconds). That is, a difference value between the total value of each pixel value of the input image F20 and the total value of each pixel value of the input image F21 is calculated, and the difference value is equal to or greater than a threshold value for motion recognition (greater than a predetermined value). If the difference value is equal to or greater than the threshold value for motion recognition, it is recognized that there has been motion.

なお、入力画像はRGB画像でもよいし、反射光画像でもよい。例えば、T20時点のRGB画像の各画素のカラー値の合計値と、T21時点のRGB画像の各画素のカラー値の合計値の差分値を算出し、差分値がしきい値以上であるか否かを判断する。そして、差分値がしきい値以上である場合に、動きがあったものと認識する。   The input image may be an RGB image or a reflected light image. For example, a difference value between the total value of the color values of each pixel of the RGB image at time T20 and the total value of the color values of each pixel of the RGB image at time T21 is calculated, and whether or not the difference value is equal to or greater than a threshold value. Determine whether. Then, when the difference value is equal to or greater than the threshold value, it is recognized that there has been movement.

また、T20時点の反射光画像の各画素の深度値の合計値と、T21時点の反射光画像の各画素の深度値の合計値の差分値を算出し、差分値がしきい値以上であるか否かを判断する。そして、差分値がしきい値以上である場合に、動きがあったものと認識する。特に、反射光画像を用いれば、物体が奥行き方向へ動いたことを認識することができる。   Also, a difference value between the total depth value of each pixel of the reflected light image at time T20 and the total depth value of each pixel of the reflected light image at time T21 is calculated, and the difference value is equal to or greater than the threshold value. Determine whether or not. Then, when the difference value is equal to or greater than the threshold value, it is recognized that there has been movement. In particular, if a reflected light image is used, it can be recognized that the object has moved in the depth direction.

また、本実施形態では入力画像において特定領域を設定するので、所定タイミングで特定領域における画像の変化を認識する処理を行うようにしてもよい。例えば、図33(A)(B)に示すように、T20時点で取得した入力画像F20の特定領域A20の各画素値の合計値と、T21時点で取得した入力画像F21の特定領域A21の各画素値の合計値の差分値を算出し、差分値がしきい値以上である場合に、動きがあったものと認識するようにしてもよい。このようにすれば、効率的に物体の動きを認識することができ、また、特定領域にマシンパワーを注ぐことができ、より正確に物体の動きを認識することができるからである。   In the present embodiment, since a specific area is set in the input image, a process of recognizing a change in the image in the specific area may be performed at a predetermined timing. For example, as shown in FIGS. 33A and 33B, the total value of the pixel values of the specific area A20 of the input image F20 acquired at time T20 and each of the specific areas A21 of the input image F21 acquired at time T21. A difference value of the total value of the pixel values may be calculated, and when the difference value is equal to or greater than a threshold value, it may be recognized that there is movement. This is because the movement of the object can be recognized efficiently, the machine power can be poured into the specific area, and the movement of the object can be recognized more accurately.

例えば、特定領域A20の各画素のカラー値の合計値と、特定領域A21の各画素のカラー値の合計値の差分値を算出し、差分値がしきい値以上であるか否かを判断する。そして、差分値がしきい値以上である場合に、動きがあったものと認識する。また、特定領域A20の各画素の深度値の合計値と、特定領域A21の各画素の深度値の合計値の差分値を算出し、差分値がしきい値以上であるか否かを判断する。そして、差分値がしきい値以上である場合に、動きがあったものと認識する。   For example, a difference value between the total color value of each pixel in the specific area A20 and the total color value of each pixel in the specific area A21 is calculated, and it is determined whether the difference value is equal to or greater than a threshold value. . Then, when the difference value is equal to or greater than the threshold value, it is recognized that there has been movement. Also, a difference value between the total depth value of each pixel in the specific area A20 and the total depth value of each pixel in the specific area A21 is calculated, and it is determined whether or not the difference value is equal to or greater than a threshold value. . Then, when the difference value is equal to or greater than the threshold value, it is recognized that there has been movement.

物体認識装置 10、処理部 100、取得部 110、算出部 111、
領域設定部 112、物体認識処理部 113、ゲーム演算部 114、
画像生成部 120、音制御部 130、記憶部 170、主記憶部 171、
描画バッファ 172、認識パターン記憶部 173、入力画像記憶部 174、
差分画像記憶部 175、情報記憶媒体 180、通信部 196、
入力部 20、RGBカメラ(撮像部) 21、処理部 22、記憶部 23、
物体認識装置 50、処理部 500、取得部 510、算出部 511、
領域設定部 512、物体認識処理部 513、ゲーム演算部 514、
画像生成部 520、音制御部 530、記憶部 570、主記憶部 571、
描画バッファ 572、認識パターン記憶部 573、入力画像記憶部 574、
差分画像記憶部 575、情報記憶媒体 580、通信部 596、
入力部 60、発光部 610、光源 611、深度センサ 620、
RGBカメラ(撮像部) 630、音入力部 640、処理部 650、
記憶部 660表示部 90、スピーカー 92、P プレーヤ、
F1〜F4、F10、F11 入力画像、P1、P2 画素、V 動きベクトル、
A1、A2、B1、C1、C2 特定領域、S1、S1´、S2、S2´ 動き領域、
GP 入力部の位置、Q 物体の位置、L 物体から入力部までの距離、
BO1、BO2、BO3、BO4、BO5、BOH1 ボーン、
ST1、ST2、ST2´、ST3、ST3´ シルエット
Object recognition device 10, processing unit 100, acquisition unit 110, calculation unit 111,
Area setting unit 112, object recognition processing unit 113, game calculation unit 114,
Image generation unit 120, sound control unit 130, storage unit 170, main storage unit 171,
Drawing buffer 172, recognition pattern storage unit 173, input image storage unit 174,
Difference image storage unit 175, information storage medium 180, communication unit 196,
Input unit 20, RGB camera (imaging unit) 21, processing unit 22, storage unit 23,
Object recognition device 50, processing unit 500, acquisition unit 510, calculation unit 511,
Area setting unit 512, object recognition processing unit 513, game calculation unit 514,
Image generation unit 520, sound control unit 530, storage unit 570, main storage unit 571,
Drawing buffer 572, recognition pattern storage unit 573, input image storage unit 574,
Difference image storage unit 575, information storage medium 580, communication unit 596,
Input unit 60, light emitting unit 610, light source 611, depth sensor 620,
RGB camera (imaging unit) 630, sound input unit 640, processing unit 650,
Storage unit 660 display unit 90, speaker 92, P player,
F1-F4, F10, F11 input image, P1, P2 pixels, V motion vector,
A1, A2, B1, C1, C2 specific area, S1, S1 ′, S2, S2 ′ movement area,
GP input unit position, Q object position, L object to input unit distance,
BO1, BO2, BO3, BO4, BO5, BOH1 bone,
ST1, ST2, ST2 ', ST3, ST3' silhouette

Claims (16)

物体を認識する処理を行うプログラムであって、
物体に光を照射し、当該物体の反射光を受光することによって各画素の深度値を有する入力画像を取得し、入力画像の各画素の深度値に基づいて、入力画像において特定領域を設定する領域設定部と、
物体を認識する物体認識処理を行う物体認識処理部として、コンピュータを機能させ、
前記物体認識処理部が、
特定領域において物体認識処理を行うことを特徴とするプログラム。
A program for performing object recognition processing,
An input image having a depth value of each pixel is obtained by irradiating the object with light and receiving reflected light of the object, and a specific region is set in the input image based on the depth value of each pixel of the input image An area setting section;
As an object recognition processing unit that performs object recognition processing for recognizing an object, the computer functions,
The object recognition processing unit
A program characterized by performing object recognition processing in a specific area.
請求項1において、
前記物体認識処理部が、
特定領域における物体認識処理の精度を特定領域以外の領域の物体認識処理の精度よりも上げて、特定領域において物体認識処理を行うことを特徴とするプログラム。
In claim 1,
The object recognition processing unit
A program for performing object recognition processing in a specific area by increasing the accuracy of object recognition processing in a specific area higher than the accuracy of object recognition processing in an area other than the specific area.
請求項1又は2において、
前記物体認識処理部が、
特定領域において物体認識処理を行う周期を特定領域以外の領域の物体認識処理の周期よりも短くして、特定領域において物体認識処理を行うことを特徴とするプログラム。
In claim 1 or 2,
The object recognition processing unit
A program for performing object recognition processing in a specific area by setting a period for performing object recognition processing in a specific area to be shorter than a period of object recognition processing in an area other than the specific area.
請求項1〜3のいずれかにおいて、
前記物体認識処理部が、
特定領域の画像精度を特定領域以外の領域の画像精度よりも上げて、特定領域において物体認識処理を行うことを特徴とするプログラム。
In any one of Claims 1-3,
The object recognition processing unit
A program for performing object recognition processing in a specific area by increasing the image accuracy of the specific area to be higher than that of an area other than the specific area.
請求項1〜4のいずれかにおいて、
前記物体認識処理部が、
特定領域以外の領域において物体認識処理を行うと共に、
特定領域以外の領域において物体認識処理を行う周期を、特定領域において物体認識処理を行う周期よりも長くすることを特徴とするプログラム。
In any one of Claims 1-4,
The object recognition processing unit
While performing object recognition processing in areas other than the specific area,
A program characterized in that a period for performing object recognition processing in an area other than the specific area is longer than a period for performing object recognition processing in the specific area.
請求項1〜5のいずれかにおいて、
前記物体認識処理部が、
特定領域以外の領域において物体認識処理を行うと共に、
特定領域以外の領域の画像精度を特定領域の画像精度よりも低くすることを特徴とするプログラム。
In any one of Claims 1-5,
The object recognition processing unit
While performing object recognition processing in areas other than the specific area,
A program characterized in that the image accuracy of a region other than the specific region is lower than the image accuracy of the specific region.
請求項1〜6のいずれかにおいて、
前記領域設定部が、複数の特定領域を設定した場合には、
前記物体認識処理部が、
少なくとも1つの特定領域について物体認識処理を行うことを特徴とするプログラム。
In any one of Claims 1-6,
When the area setting unit sets a plurality of specific areas,
The object recognition processing unit
A program for performing object recognition processing on at least one specific area.
請求項7において、
前記領域設定部が、各特定領域に優先度を付与し、
前記物体認識処理部が、
各特定領域において物体認識処理を行うと共に、
優先度の低い特定領域において物体認識処理を行う周期を、優先度の高い特定領域において物体認識処理を行う周期よりも長くすることを特徴とするプログラム。
In claim 7,
The area setting unit gives priority to each specific area,
The object recognition processing unit
While performing object recognition processing in each specific area,
A program characterized in that a period for performing object recognition processing in a specific area with low priority is made longer than a period for performing object recognition processing in a specific area with high priority.
請求項7又は8において、
前記領域設定部が、各特定領域に優先度を付与し、
前記物体認識処理部が、
各特定領域において物体認識処理を行うと共に、
優先度の低い特定領域の画像精度を、優先度の高い特定領域の画像精度よりも低くすることを特徴とするプログラム。
In claim 7 or 8,
The area setting unit gives priority to each specific area,
The object recognition processing unit
While performing object recognition processing in each specific area,
A program characterized in that the image accuracy of a specific region with a low priority is made lower than the image accuracy of a specific region with a high priority.
請求項7において、
前記領域設定部が、各特定領域に優先度を付与し、
前記物体認識処理部が、
優先度の低い特定領域において物体認識処理を行わずに、優先度の高い特定領域において物体認識処理を行うことを特徴とするプログラム。
In claim 7,
The area setting unit gives priority to each specific area,
The object recognition processing unit
A program that performs object recognition processing in a specific area with high priority without performing object recognition processing in the specific area with low priority.
請求項1〜10のいずれかにおいて、
前記領域設定部が、
入力画像の各画素の色情報と深度値とに基づいて、入力画像において特定領域を設定することを特徴とするプログラム。
In any one of Claims 1-10,
The region setting unit
A program that sets a specific region in an input image based on color information and depth value of each pixel of the input image.
請求項1〜11のいずれかにおいて、
前記領域設定部が、
入力画像の各画素の深度値のうち所定値以上である深度値に基づいて、入力画像において特定領域を設定することを特徴とするプログラム。
In any one of Claims 1-11,
The region setting unit
A program that sets a specific region in an input image based on a depth value that is equal to or greater than a predetermined value among the depth values of each pixel of the input image.
請求項1〜12のいずれかにおいて、
前記物体認識処理部が、
ボーン情報に基づいて、前記特定領域における前記物体認識処理を行うことを特徴とするプログラム。
In any one of Claims 1-12,
The object recognition processing unit
A program that performs the object recognition processing in the specific area based on bone information.
請求項1〜13のいずれかにおいて、
前記物体認識処理部が、
所定タイミングで前記特定領域における画像の変化を認識する処理を行うことを特徴とするプログラム。
In any one of Claims 1-13,
The object recognition processing unit
A program for performing a process of recognizing a change in an image in the specific area at a predetermined timing.
コンピュータにより読み取り可能な情報記憶媒体であって、請求項1〜14のいずれかに記載のプログラムを記憶することを特徴とする情報記憶媒体。   An information storage medium readable by a computer, wherein the program according to any one of claims 1 to 14 is stored. 物体を認識する処理を行う物体認識システムであって、
物体に光を照射し、当該物体の反射光を受光することによって各画素の深度値を有する入力画像を取得し、入力画像の各画素の深度値に基づいて、入力画像において特定領域を設定する領域設定部と、
物体を認識する物体認識処理を行う物体認識処理部とを含み、
前記物体認識処理部が、
特定領域において物体認識処理を行うことを特徴とする物体認識システム。
An object recognition system that performs processing for recognizing an object,
An input image having a depth value of each pixel is obtained by irradiating the object with light and receiving reflected light of the object, and a specific region is set in the input image based on the depth value of each pixel of the input image An area setting section;
An object recognition processing unit for performing object recognition processing for recognizing an object,
The object recognition processing unit
An object recognition system characterized by performing object recognition processing in a specific area.
JP2010084610A 2010-03-31 2010-03-31 Program, information storage medium and object recognition system Withdrawn JP2011215968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010084610A JP2011215968A (en) 2010-03-31 2010-03-31 Program, information storage medium and object recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084610A JP2011215968A (en) 2010-03-31 2010-03-31 Program, information storage medium and object recognition system

Publications (1)

Publication Number Publication Date
JP2011215968A true JP2011215968A (en) 2011-10-27

Family

ID=44945608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084610A Withdrawn JP2011215968A (en) 2010-03-31 2010-03-31 Program, information storage medium and object recognition system

Country Status (1)

Country Link
JP (1) JP2011215968A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242844A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
JP2015011664A (en) * 2013-07-02 2015-01-19 Necエンジニアリング株式会社 Operation evaluation device, method, and program
JP2017509986A (en) * 2014-12-19 2017-04-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Optical flow imaging system and method using ultrasonic depth detection
JP2017151536A (en) * 2016-02-22 2017-08-31 株式会社メガチップス Image processing apparatus, control program, and area specification method
JP2017174125A (en) * 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing system, and information processing method
JP2017187954A (en) * 2016-04-06 2017-10-12 Kddi株式会社 Image synthesis device, program and data structure
JP2019096252A (en) * 2017-11-28 2019-06-20 Kddi株式会社 Program, device and method for estimating context representing human action from captured video
JP2020505665A (en) * 2017-10-13 2020-02-20 ファイユージョン,インコーポレイテッド Skeleton-based effect expression and background replacement
JP7399503B2 (en) 2019-04-26 2023-12-18 株式会社バーチャルウインドウ exercise equipment
JP7417232B2 (en) 2020-02-09 2024-01-18 徹 江頭 optical keyboard
WO2024071862A1 (en) * 2022-09-28 2024-04-04 삼성전자 주식회사 Method for providing information based on gaze point and electronic device therefor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242844A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
JP2015011664A (en) * 2013-07-02 2015-01-19 Necエンジニアリング株式会社 Operation evaluation device, method, and program
JP2017509986A (en) * 2014-12-19 2017-04-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Optical flow imaging system and method using ultrasonic depth detection
US9704265B2 (en) 2014-12-19 2017-07-11 SZ DJI Technology Co., Ltd. Optical-flow imaging system and method using ultrasonic depth sensing
JP2017151536A (en) * 2016-02-22 2017-08-31 株式会社メガチップス Image processing apparatus, control program, and area specification method
KR102066890B1 (en) * 2016-03-23 2020-01-17 주식회사 소니 인터랙티브 엔터테인먼트 Information processing apparatus, information processing system, information processing method and computer program
KR20180113576A (en) * 2016-03-23 2018-10-16 주식회사 소니 인터랙티브 엔터테인먼트 Information processing apparatus, information processing system, information processing method, and computer program
JP2017174125A (en) * 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing system, and information processing method
US10957104B2 (en) 2016-03-23 2021-03-23 Sony Interactive Entertainment Inc. Information processing device, information processing system, and information processing method
JP2017187954A (en) * 2016-04-06 2017-10-12 Kddi株式会社 Image synthesis device, program and data structure
JP2020505665A (en) * 2017-10-13 2020-02-20 ファイユージョン,インコーポレイテッド Skeleton-based effect expression and background replacement
JP2019096252A (en) * 2017-11-28 2019-06-20 Kddi株式会社 Program, device and method for estimating context representing human action from captured video
JP7399503B2 (en) 2019-04-26 2023-12-18 株式会社バーチャルウインドウ exercise equipment
JP7417232B2 (en) 2020-02-09 2024-01-18 徹 江頭 optical keyboard
WO2024071862A1 (en) * 2022-09-28 2024-04-04 삼성전자 주식회사 Method for providing information based on gaze point and electronic device therefor

Similar Documents

Publication Publication Date Title
JP2011215968A (en) Program, information storage medium and object recognition system
TWI469813B (en) Tracking groups of users in motion capture system
US8784201B2 (en) Information storage medium, game system, and input determination method
KR101881620B1 (en) Using a three-dimensional environment model in gameplay
US8882593B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
US8556716B2 (en) Image generation system, image generation method, and information storage medium
JP5491217B2 (en) Program, information storage medium, game system
JP5039808B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP6009502B2 (en) Information processing apparatus and information processing method
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
CN107689082B (en) Data projection method and device
JP5320332B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
TW201546659A (en) Human tracking system
JP2007300974A (en) Program, information storage medium and image generation system
EP2051208A2 (en) Generating an asset for interactive entertainment using digital image capture
JP2008033521A (en) Program, information storage medium and image generation system
JP2010088688A (en) Program, information storage medium, and game system
JP2008225985A (en) Image recognition system
US8662976B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP2011101752A (en) Program, information storage medium, and image generating device
JP2009129167A (en) Program, information storage medium, and image generation system
JP2011215967A (en) Program, information storage medium and object recognition system
JP2009205522A (en) Program, information storage medium, and information conversion system
JP2009075739A (en) Program, information storage medium and image generation system
JP4266121B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604