JP2011027707A - Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium - Google Patents

Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium Download PDF

Info

Publication number
JP2011027707A
JP2011027707A JP2009275952A JP2009275952A JP2011027707A JP 2011027707 A JP2011027707 A JP 2011027707A JP 2009275952 A JP2009275952 A JP 2009275952A JP 2009275952 A JP2009275952 A JP 2009275952A JP 2011027707 A JP2011027707 A JP 2011027707A
Authority
JP
Japan
Prior art keywords
distance
person
frame
information
motion detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009275952A
Other languages
Japanese (ja)
Inventor
Yasuta Tanaka
康太 田中
Keiji Nagase
圭司 永瀬
Manabu Yumoto
学 湯元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009275952A priority Critical patent/JP2011027707A/en
Publication of JP2011027707A publication Critical patent/JP2011027707A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect a direction and a change amount of range of a person motion in an image capturing range without making a computation amount to be huge even in a high frame rate when many space areas are planarly computed. <P>SOLUTION: A high speed person motion detection control means 4 is adapted to detect motion information of a person on the basis of range information from a TOF range image sensor 31. The high speed person motion detection control means 4 includes a range frame generating unit 431 that generates range frames in a time series manner on the basis of the range information from the TOF range image sensor 31, a range balance frame generating unit 432 that generates a range balance frame (background image frame) as range information not having a range change of a person on the basis of at least two range frames, and a frame difference computing section 46 that computes a frame difference between each of the plurality of range frames and the range balance frame by each range frame, and computes a change amount of a range and a change direction of the person as motion information of the person based on the frame difference. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、距離フレームから人物の動作を検出して目的とする人物情報を抽出する人物動作検出装置および人物動作検出方法、この人物動作検出装置を用いて人物の動作を検出して、ゲーム内容の各種制御を行うテレビゲーム機などの遊具装置、これを用いたゲーム方法、これらの人物動作検出方法およびゲーム方法をコンピュータに実行させるための制御プログラム、この制御プログラムが格納されたコンピュータ読み取り可能な可読記録媒体に関する。   The present invention relates to a human motion detection device and a human motion detection method for detecting a human motion from a distance frame and extracting target personal information, and to detect a human motion using the human motion detection device to Play equipment such as a video game machine that performs various controls of the above, a game method using the same, a control method for causing a computer to execute the person motion detection method and the game method, and a computer-readable computer storing the control program The present invention relates to a readable recording medium.

従来、テレビゲーム機などの遊具装置では、テニスや野球などのスポーツを題材に、人間の動きを利用した体験型ゲームが多く開発されている。これらの体験型ゲームでは、コントローラを例えばテニスのラケットや野球のバットなどに見立て、テレビジョン画面上のアニメーションの動きに合わせて、ラケットやバットなどのコントローラを振ったり突き出したりして移動させる。このコントローラの動きの速さや方向の時間変化をコントローラに搭載した加速度センサや角速度センサにより検出して、テレビジョン画面上で、ゲーム内の登場人物が動作するテニスのラケットや野球のバットなどの動き、さらには各種イベントの発生などに反映させている。   2. Description of the Related Art Conventionally, for playground equipment such as a video game machine, many experience-type games using human movement have been developed on sports such as tennis and baseball. In these experience-type games, the controller is regarded as a tennis racket or a baseball bat, for example, and the controller such as the racket or bat is moved by swinging or protruding in accordance with the motion of the animation on the television screen. Changes in the speed and direction of the controller's movement with time are detected by an acceleration sensor and angular velocity sensor installed in the controller, and the movement of the tennis racket and baseball bat on which the characters in the game operate are displayed on the television screen. Furthermore, it is reflected in the occurrence of various events.

従来の遊具装置がコントローラを使用していることを図29を用いて説明する。   A conventional playground equipment using a controller will be described with reference to FIG.

図29は、従来の遊具装置の外観図である。   FIG. 29 is an external view of a conventional playground equipment.

図29において、従来の遊具装置111は、表示手段の一例の家庭用テレビジョン受像機113(以下、モニタという)と、このモニタ113に接続コードを介して接続する据置型のゲーム装置本体112と、このゲーム装置本体112と無線により接続するゲームコントローラ114とから構成されている。このゲームコントローラ114は加速度センサ115を内蔵しており、加速度センサ115は上述のようにコントローラの動きの速さや方向の時間変化を検出して、その検出値を無線によりゲーム装置本体112に送信している。   In FIG. 29, a conventional playground equipment 111 includes a home-use television receiver 113 (hereinafter referred to as a monitor) as an example of a display means, and a stationary game apparatus main body 112 connected to the monitor 113 via a connection cord. The game apparatus main body 112 is configured by a game controller 114 that is connected wirelessly. The game controller 114 includes an acceleration sensor 115. The acceleration sensor 115 detects a change in the speed and direction of movement of the controller as described above, and transmits the detected value to the game apparatus body 112 wirelessly. ing.

しかし、上記センサによって検出できるのは、人間が移動させるコントローラの動きだけであり、人間の身体全体の3次元空間内の位置や動きは検出することができない。このため、ゲーム操作が単純化され過ぎてしまい、ユーザが充分な操作感を得られなかったり、すぐにゲーム操作に習熟して飽きてしまったりするという課題がある。   However, the sensor can detect only the movement of the controller moved by a human, and cannot detect the position or movement of the entire human body in the three-dimensional space. For this reason, the game operation is oversimplified, and there is a problem that the user cannot obtain a sufficient operation feeling or gets used to the game operation immediately and gets bored.

例えばテニスゲームでは、ラケットとしてコントローラを持つ手首を動かすだけで強い打球が得られるため、全身を用いる実際のテニスの場合と操作感が乖離してしまっている。また、例えば野球ゲームで、バットとしてのコントローラの3次元空間での高低などの位置は検出されないため、バットスウィングの高低が区別できず、バットとボールが衝突するタイミングだけがモニタされている。   For example, in a tennis game, a strong hitting ball can be obtained simply by moving a wrist having a controller as a racket, so that the feeling of operation is different from that of actual tennis using the whole body. For example, in a baseball game, the position of the controller as a bat, such as the height in the three-dimensional space, is not detected, so the height of the bat swing cannot be distinguished, and only the timing at which the bat and the ball collide is monitored.

そこで、人間の3次元空間での位置や動作を検出してゲーム内容に反映することができれば、現実のスポーツに操作感が近くて臨場感の高いゲームを提供することができたり、ゲームを通じて現実のスポーツでの技術の向上が期待できたりする。   Therefore, if it is possible to detect the position and movement of a human in a three-dimensional space and reflect it in the game content, it is possible to provide a game with a high sense of realism with a sense of operation close to that of real sports, or through the game It can be expected to improve technology in sports.

しかし、人間の3次元空間での位置や動作を検出するために、従来のRGBカメラを用いて、対象物体である人物と背景とのRGB画像上の相違点を解析して対象物体を抽出するという手法(例えば、単一色の背景から色差を利用して対象となる人間を切り出す)をとる場合、特殊な撮像環境が必要であったり複雑な画像認識処理が必要であったりするため、広く普及するテレビゲーム機などの遊具装置に適用することは困難であった。   However, in order to detect the position and movement of a human in a three-dimensional space, a conventional RGB camera is used to analyze the differences in the RGB image between the target person and the background, and extract the target object (For example, using a color difference from a single color background to cut out the target person) requires a special imaging environment or complicated image recognition processing, so it is widely used. It has been difficult to apply to play equipment such as a video game machine.

そこで、上記目的で、距離画像センサを適用することが期待されている。この距離画像センサを用いると、設定した距離範囲内の対象物体のみを検出することが可能であるため、特殊な背景や画像認識処理を用いることなく、人物の位置や動作の検出が可能である。   Therefore, it is expected to apply a distance image sensor for the above purpose. If this distance image sensor is used, it is possible to detect only the target object within the set distance range, so it is possible to detect the position and motion of a person without using a special background or image recognition processing. .

特に、スポーツなどの体験型ゲームでは対象となる人物の動作が速いため、ユーザの操作感や動作の検出精度を向上させるためには、距離画像センサのフレームレートを高くする必要がある。   In particular, in the experience-type game such as sports, the motion of the target person is fast, and therefore the frame rate of the distance image sensor needs to be increased in order to improve the user's operational feeling and motion detection accuracy.

ところが、フレームレートを高くすると、CCDイメージセンサやCMOSイメージセンサである固体撮像素子の信号蓄積時間が減少するためS/N比が低下する。しかしながら、信号成分とノイズ成分を区別するために、高度なフィルタリング処理などの複雑な信号処理を行うと、演算量が増加してしまいゲーム進行に合わせたリアルタイム処理が困難になってしまうか、または、リアルタイム処理を行うには高性能のハードウェアが必要になり、部品コストが増加してしまう。   However, when the frame rate is increased, the signal accumulation time of a solid-state imaging device such as a CCD image sensor or a CMOS image sensor is reduced, so that the S / N ratio is lowered. However, if complicated signal processing such as advanced filtering processing is performed to distinguish the signal component from the noise component, the amount of calculation increases, and real-time processing according to the progress of the game becomes difficult, or In order to perform real-time processing, high-performance hardware is required, which increases the cost of parts.

このため、特に、高いフレームレートでテレビゲーム機などの遊具装置で人物動作の検出を行う際には、計算的に安価な計算手段に基づいてリアルタイムに処理を行うことが求められている。   For this reason, in particular, when detecting a human action with a playground equipment such as a video game machine at a high frame rate, it is required to perform processing in real time based on computationally inexpensive calculation means.

距離フレームを利用したこの種の従来の情報抽出装置が特許文献1に開示されている。上記従来の情報抽出装置では、反射光の強度分布により対象物体までの距離を取得している。即ち、反射光の強度は対象物体までの距離の2乗に反比例して減少する性質があるため、反射光の強度分布によって、撮像範囲の対象物体の各構成部分の遠近関係を求めている。   A conventional information extraction apparatus of this type using a distance frame is disclosed in Patent Document 1. In the conventional information extraction apparatus, the distance to the target object is acquired from the intensity distribution of the reflected light. That is, since the intensity of the reflected light decreases in inverse proportion to the square of the distance to the target object, the perspective relationship of each component of the target object in the imaging range is obtained from the intensity distribution of the reflected light.

図17は、距離フレームを利用した特許文献1に開示されている従来の情報抽出装置の要部構成例を示すブロック図である。なお、図17では、1つの撮像領域内の複数の箇所から対象物の形状、動きおよび位置などの情報を抽出(認識)して、その抽出した情報を、例えばモグラ叩きゲームなどの他のシステムへ入力している。   FIG. 17 is a block diagram illustrating a configuration example of a main part of a conventional information extraction device disclosed in Patent Document 1 using a distance frame. In FIG. 17, information such as the shape, movement, and position of an object is extracted (recognized) from a plurality of locations in one imaging region, and the extracted information is used as another system such as a mole hitting game. Is input.

図17に示すように、従来の情報抽出装置100は、反射光を受光し、距離画像を取得する距離画像取得部101と、取得した距離画像を別途指定された領域に分割する領域分割処理部102と、この領域分割処理部102で分割された各領域毎に距離画像を解析し、対象物の輪郭、重心の抽出や対象物までの距離の算出、対象物の移動速度、移動ベクトルの算出などの認識対象に関する目的とする情報を抽出する画像処理部103と、例えば大型の液晶パネルやスピーカなどから構成される呈示部104と、各部の制御を司る情報管理部105とを有している。   As shown in FIG. 17, a conventional information extraction apparatus 100 receives reflected light and acquires a distance image acquisition unit 101 that acquires a distance image, and an area division processing unit that divides the acquired distance image into separately designated areas. 102, and a distance image is analyzed for each region divided by the region division processing unit 102, and the contour of the object, the extraction of the center of gravity, the calculation of the distance to the object, the movement speed of the object, and the calculation of the movement vector An image processing unit 103 that extracts target information related to a recognition target, a presentation unit 104 including, for example, a large liquid crystal panel or a speaker, and an information management unit 105 that controls each unit. .

画像処理部103で抽出された情報は、例えば情報管理部105を介して他のシステムに入力される。即ち、他のシステムとして、例えばモグラ叩きゲームなどは、情報管理部5を介して他のシステムに接続されている。この他のシステムは、例えばコンピュータに実行させることのできる制御プログラムを搭載したゲームシステムであってもよい。   Information extracted by the image processing unit 103 is input to another system via the information management unit 105, for example. That is, as another system, for example, a mole hitting game is connected to the other system via the information management unit 5. The other system may be a game system equipped with a control program that can be executed by a computer, for example.

図17に示すような情報抽出装置100が、例えば呈示部104の表示画面上の任意の表示領域からモグラを出現させ、ユーザがそのモグラの出現した表示領域めがけてひっぱたく動作(ユーザは表示画面に触れるほど叩く必要はない)を行って、命中したモグラの数を競うモグラ叩きゲームに接続されている場合、1つの距離画像取得部101は、ユーザが呈示部104の表示画面上のどのモグラめがけてひっぱたこうとしているかを認識できるように(表示画面全体に対する対象物としての手の位置が認識できるように)設置されている。   The information extraction apparatus 100 as shown in FIG. 17 causes a mole to appear from an arbitrary display area on the display screen of the presenting unit 104, for example, and the user pulls toward the display area where the mole appears (the user moves to the display screen). If the player is connected to a mole hitting game that competes for the number of moles hit, the one distance image acquisition unit 101 can select which mole on the display screen of the presenting unit 104. It is installed so that it can recognize whether it is going to be pulled (so that the position of the hand as an object relative to the entire display screen can be recognized).

領域分割処理部102では、呈示部104の表示画面上のモグラの出現領域に対応して、距離画像取得部101で取得した距離画像の領域分割を行う。   The area division processing unit 102 divides the area of the distance image acquired by the distance image acquisition unit 101 corresponding to the mole appearance area on the display screen of the presentation unit 104.

ここで、距離画像取得部101および、距離画像取得部101にて取得される距離画像について簡単に説明する。   Here, the distance image acquisition unit 101 and the distance image acquired by the distance image acquisition unit 101 will be briefly described.

距離画像取得部101の外観が図18に示されている。図18に示すように、中央部には円形レンズとその後部にあるエリアセンサ(図示せず)から構成される受光部101aが配置され、円形レンズの周囲にはその輪郭に沿って、赤外線などの光を照射するLEDから構成される発光部101bが複数個(ここでは例えば8個)、等間隔に配置されている。   The appearance of the distance image acquisition unit 101 is shown in FIG. As shown in FIG. 18, a light receiving unit 101a composed of a circular lens and an area sensor (not shown) in the rear part is arranged at the center, and infrared light or the like is provided around the circular lens along its contour. A plurality of (e.g., eight) light emitting portions 101b each composed of LEDs that irradiate the light are arranged at equal intervals.

この発光部101bから照射された光が物体に反射され、受光部101aのレンズにより集光されて、レンズの後部にあるエリアセンサで受光される。このエリアセンサは、例えば256×256のマトリックス状に配列された複数のセンサ群で、マトリックス中の各センサにて受光された反射光の強度がそれぞれ画素値となる。このようにして取得された画像が、図19に示すような各分割領域毎の反射光の強度分布としての距離画像データである。   The light emitted from the light emitting unit 101b is reflected by the object, collected by the lens of the light receiving unit 101a, and received by the area sensor at the rear of the lens. This area sensor is, for example, a plurality of sensor groups arranged in a 256 × 256 matrix, and the intensity of reflected light received by each sensor in the matrix is a pixel value. The image acquired in this way is distance image data as the intensity distribution of reflected light for each divided region as shown in FIG.

図20は、図17の距離画像取得部101の要部構成例を示したブロック図であり、主に、受光部101a、発光部101b、反射光抽出部101cおよびタイミング信号生成部101dから構成されている。   FIG. 20 is a block diagram illustrating a configuration example of a main part of the distance image acquisition unit 101 in FIG. 17, which mainly includes a light receiving unit 101a, a light emitting unit 101b, a reflected light extraction unit 101c, and a timing signal generation unit 101d. ing.

発光部101bは、タイミング信号生成部101dにて生成されたタイミング信号に従って時間的に強度変動する光を発光する。この光は発光部101bの前方にある対象物体に照射される。   The light emitting unit 101b emits light whose intensity varies with time according to the timing signal generated by the timing signal generating unit 101d. This light is applied to the target object in front of the light emitting unit 101b.

受光部101aは、発光部101bが発した光の対象物体による反射光の量を検出する。   The light receiving unit 101a detects the amount of light reflected by the target object of the light emitted from the light emitting unit 101b.

反射光抽出部101cは、受光部101aにて受光された反射光の空間的な強度分布を抽出する。この反射光の空間的な強度分布は画像として捉えることができるので、以下、これを距離画像と呼ぶ。   The reflected light extraction unit 101c extracts a spatial intensity distribution of the reflected light received by the light receiving unit 101a. Since the spatial intensity distribution of the reflected light can be captured as an image, this is hereinafter referred to as a distance image.

受光部101aは、一般的に発光部101bから発せられる光の対象物による反射光だけでなく、照明光や太陽光などの外光も同時に受光する。そこで、反射光抽出部102は発光部101bが発光しているときに受光した光の量と、発光部101bが発光していないときに受光した光の量の差をとることによって、発光部101bからの光の対象物体による反射光成分だけを取り出すことができる。   The light receiving unit 101a generally receives not only light reflected from an object of light emitted from the light emitting unit 101b but also external light such as illumination light and sunlight. Therefore, the reflected light extraction unit 102 takes the difference between the amount of light received when the light emitting unit 101b emits light and the amount of light received when the light emitting unit 101b does not emit light, thereby obtaining the light emitting unit 101b. Only the reflected light component of the light from the target object can be extracted.

反射光抽出部101cでは、受光部101aにて受光された反射光から、その強度分布、即ち、図19に示すような距離画像データを抽出する。   The reflected light extraction unit 101c extracts the intensity distribution, that is, distance image data as shown in FIG. 19, from the reflected light received by the light receiving unit 101a.

図19では、簡単のため、256×256画素の距離画像の一部である8×8画素の距離画像の場合について示している。   For the sake of simplicity, FIG. 19 shows a case of an 8 × 8 pixel distance image that is a part of a 256 × 256 pixel distance image.

物体からの反射光は、物体の距離が大きくなるにつれ大幅に減少する。物体の表面が一様に光を散乱する場合、距離画像1画素当たりの受光量は物体までの距離の2乗に反比例して小さくなる。   The reflected light from the object decreases significantly as the distance of the object increases. When the surface of the object scatters light uniformly, the amount of light received per pixel in the distance image decreases in inverse proportion to the square of the distance to the object.

図19において、行列中のセルの値(画素値)は、取得した反射光の強さを256階調(8ビット)で示したものである。例えば、「255」の値があるセルは、距離画像取得部101に最も接近した状態、「0」の値があるセルは、距離画像取得部101から遠くにあり、反射光が距離画像取得部101にまで到達しないことを示している。   In FIG. 19, the value of the cell (pixel value) in the matrix indicates the intensity of the acquired reflected light in 256 gradations (8 bits). For example, a cell having a value of “255” is the state closest to the distance image acquisition unit 101, a cell having a value of “0” is far from the distance image acquisition unit 101, and reflected light is a distance image acquisition unit. It is shown that 101 is not reached.

距離画像の各画素値は、その画素に対応する単位受光部で受光した反射光の量を表す。反射光は、物体の性質(光を鏡面反射する、散乱する、吸収する、など)、物体の向き、物体の距離などに影響されるが、物体全体が一様に光を散乱する物体である場合、その反射光量は物体までの距離と密接な関係を持つ。手などは、このような性質を持つため、距離画像取得部101の前方に手を差し出した場合の距離画像は、手までの距離、手の傾き(部分的に距離が異なる)などを反映する図21に示したような3次元的なイメージを得ることができる。   Each pixel value of the distance image represents the amount of reflected light received by the unit light receiving unit corresponding to the pixel. Reflected light is affected by the nature of the object (specularly reflects, scatters, absorbs, etc.), the direction of the object, the distance of the object, etc., but the entire object scatters light uniformly. In this case, the amount of reflected light is closely related to the distance to the object. Since the hand and the like have such properties, the distance image when the hand is put out in front of the distance image acquisition unit 101 reflects the distance to the hand, the inclination of the hand (partly different distance), and the like. A three-dimensional image as shown in FIG. 21 can be obtained.

特開2004−333505号公報JP 2004-333505 A

しかし、上記特許文献1に開示されている従来の情報抽出装置100で求まるのは、対象物体の各構成部分の距離の相対値だけであり、距離の絶対値を得ることはできない。距離の絶対値を得る必要がある場合は、距離と反射光強度の間に基準となる対応関係を求める較正手順が必要になったり、相対値から絶対値に変換する手順が必要になったりする。   However, the conventional information extraction apparatus 100 disclosed in Patent Document 1 can only obtain the relative value of the distance of each component of the target object, and cannot obtain the absolute value of the distance. When it is necessary to obtain the absolute value of the distance, a calibration procedure for obtaining a reference correspondence between the distance and the reflected light intensity is required, or a procedure for converting from a relative value to an absolute value is required. .

また、特許文献1に開示されている従来の情報抽出装置100では、反射光の強度の強弱により距離を求めるため、対象物体の表面全体が一様な光学的性質を有する物体にしか適用できない。一般に、対象物体は表面の材質、色彩、加工処理などにより、光学的な性質(例えば、反射、散乱、吸収および屈折)が異なる。人間を対象物体とするとき、人間は光学的性質の異なる複数の構成部分(例えば、頭髪、肌、上半身の衣服および下半身の衣服)からなるため、上記従来の情報抽出装置では、人間のように光学的性質が異なる複数の構成部分からなる対象の距離情報を取得する場合、各構成部分の光学的性質を考慮に入れて距離の補正処理を行う必要性が生じる。スポーツゲームなどの遊具装置に適用するとき、距離画像センサを高いフレームレートで駆動して多数の距離フレームの演算処理を行う必要性が生じている中で、一層、演算量が増加してしまい、リアルタイム処理が困難になってしまう。   Further, in the conventional information extraction device 100 disclosed in Patent Document 1, since the distance is obtained based on the intensity of reflected light, the entire surface of the target object can be applied only to an object having uniform optical properties. In general, an object has different optical properties (for example, reflection, scattering, absorption, and refraction) depending on the surface material, color, processing, and the like. When a human is a target object, the human is composed of a plurality of components having different optical properties (for example, hair, skin, upper body clothes, and lower body clothes). When acquiring distance information of a target composed of a plurality of components having different optical properties, it becomes necessary to perform a distance correction process taking into account the optical properties of each component. When applied to a playground equipment such as a sports game, the amount of calculation is further increased while the need to drive the distance image sensor at a high frame rate to perform calculation processing of a large number of distance frames, Real-time processing becomes difficult.

さらに、上記従来の情報抽出装置では、対象物体の装置に対する向きも距離に影響する。その向きによらず、光を一様に反射・散乱する物体(例えば球体)でない場合、対象物体の装置に対する向き(例えば、正対している、斜めを向いている、真横を向いている)により、それぞれ反射光の強度が異なるため、距離情報も異なって取得されてしまう。つまり、対象物体の並進運動は検出できても、回転運動は正確に検出することができない。   Furthermore, in the conventional information extraction apparatus, the orientation of the target object with respect to the apparatus also affects the distance. Regardless of its orientation, if it is not an object that reflects and scatters light uniformly (eg, a sphere), it depends on the orientation of the target object relative to the device (eg, facing directly, facing diagonally, or facing sideways) Since the intensity of the reflected light is different, the distance information is also acquired differently. That is, even if the translational motion of the target object can be detected, the rotational motion cannot be accurately detected.

本発明は、上記従来の問題を解決するもので、多数の空間領域を面状に演算処理する場合に、高いフレームレートでも演算量が膨大にならず、撮像範囲における人物動作の方向と距離の変化量の検出精度を高精度に検出できる人物動作検出装置および人物動作検出方法、これらを用いたテレビゲーム機などの遊具装置、これを用いたゲーム方法、これらの人物動作検出方法およびゲーム方法の少なくともいずれかをコンピュータに実行させるための制御プログラム、この制御プログラムが格納されたコンピュータ読み取り可能な可読記録媒体を提供することを目的とする。   The present invention solves the above-described conventional problem. When a large number of spatial regions are subjected to arithmetic processing, the amount of calculation does not become enormous even at a high frame rate, and the direction and distance of the human motion in the imaging range are not affected. Human motion detection device and human motion detection method capable of detecting change detection accuracy with high accuracy, play equipment such as a video game machine using the same, game method using the same, human motion detection method and game method using the same It is an object of the present invention to provide a control program for causing a computer to execute at least one of them, and a computer-readable readable recording medium in which the control program is stored.

本発明の人物動作検出装置は、投射光を出射する発光手段と、該投射光の投射空間からの反射光を受光して、該投射空間の人物までの距離に応じた距離情報を複数の受光部からそれぞれ出力するTOF(タイム・オブ・フライト)式距離画像センサとを有する人物動作検出装置であって、該TOF式距離画像センサからの距離情報に基づいて人物の動作情報を検出する人物動作検知制御手段を有するものであり、そのことにより上記目的が達成される。   The human motion detection apparatus according to the present invention receives a plurality of light receiving means for emitting projection light and reflected light from the projection space of the projection light and receiving distance information according to the distance to the person in the projection space. A person motion detection device having a TOF (time of flight) range image sensor output from each unit, and detecting person motion information based on distance information from the TOF range image sensor It has a detection control means, and the above object is achieved thereby.

また、好ましくは、本発明の人物動作検出装置における人物動作検知制御手段は、該TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成手段と、該複数の距離フレームについてそれぞれのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算手段とを有する。   Preferably, the human motion detection control unit in the human motion detection device of the present invention includes a distance frame generating unit that generates a plurality of distance frames in time series based on distance information from the TOF type distance image sensor, Frame difference calculation means for calculating each frame difference for a plurality of distance frames and calculating a change amount and a change direction of the distance of the person as motion information of the person from the frame difference.

さらに、好ましくは、本発明の人物動作検出装置における人物動作検知制御手段は、該TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成手段と、少なくとも2つの該距離フレームに基づいて、前記人物に距離変化のない距離情報である距離平衡フレームを生成する距離平衡フレーム生成手段と、該複数の距離フレームについてそれぞれ該距離平衡フレームとのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算手段とを有する。   Further preferably, the human motion detection control means in the human motion detection device of the present invention comprises at least a distance frame generating means for generating a plurality of distance frames in time series based on distance information from the TOF type distance image sensor, and at least Based on the two distance frames, distance balanced frame generating means for generating a distance balanced frame that is distance information with no distance change for the person, and calculating a frame difference between each of the plurality of distance frames and the distance balanced frame. And a frame difference calculation means for calculating a change amount and a change direction of the distance of the person as the motion information of the person from the frame difference.

さらに、好ましくは、本発明の人物動作検出装置において、前記人物との距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分から、該人物との距離の変化の有無を検出する距離変位検出手段を更に有する。   Further preferably, in the human motion detection device of the present invention, the distance for measuring the distance to the person in real time and detecting the presence or absence of a change in the distance from the person from the frame difference between at least two distance frames Displacement detecting means is further included.

さらに、好ましくは、本発明の人物動作検出装置において、前記人物との距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分が所定の閾値未満である状態が所定の時間以上または所定のフレーム数以上継続した場合に、該人物の距離情報が平衡状態にあると判定する距離平衡状態判定手段を更に有する。   Further preferably, in the human motion detection device of the present invention, the distance to the person is measured in real time, and the state where the frame difference between at least two distance frames is less than a predetermined threshold is greater than or equal to a predetermined time or predetermined When the number of frames continues, the distance balance state determination means for determining that the distance information of the person is in an equilibrium state is further included.

さらに、好ましくは、本発明の人物動作検出装置における距離平衡フレーム生成手段は、前記距離平衡状態判定手段が距離平衡状態にあると判断した場合に、少なくとも2つの距離フレームの時間平均を算出して距離平衡フレームを生成する。   Further preferably, the distance balanced frame generating means in the human motion detecting device of the present invention calculates a time average of at least two distance frames when the distance balanced state determining means determines that the distance balanced state is in the distance balanced state. Generate a distance balanced frame.

さらに、好ましくは、本発明の人物動作検出装置における距離平衡フレーム生成手段は、前記人物が撮像範囲内にいる場合において、遊具装置の指示により該人物を該撮像範囲の右側または左側に移動させて、該撮像範囲の左側または右側半分の該撮像範囲に人物がいない一方側半分の距離平衡フレームを生成し、該人物を該撮像範囲の左側または右側に移動させて、該撮像範囲の右側あるいは左側半分の撮像範囲に該人物がいない他方側半分の距離平衡フレームを生成して、それらの撮像範囲に該人物がいない距離平衡フレームを合成することにより距離平衡フレームを生成する。   Further preferably, the distance balanced frame generation means in the human motion detection device of the present invention moves the person to the right or left side of the imaging range according to an instruction from the play equipment when the person is within the imaging range. Generating a distance balanced frame in one half of the imaging range in the left or right half of the imaging range, with no person in the imaging range, and moving the person to the left or right side of the imaging range, to the right or left side of the imaging range A distance balanced frame is generated by generating a distance balanced frame of the other half that does not have the person in the half imaging range and synthesizes a distance balanced frame that does not have the person in the imaging range.

さらに、好ましくは、本発明の人物動作検出装置において、前記距離フレームと前記距離平衡フレームのフレーム差分を演算し、距離情報が平衡状態にある背景からの距離の変化の有無により人物を検出するフレーム差分演算手段を有する。   Further preferably, in the human motion detection device of the present invention, a frame for calculating a frame difference between the distance frame and the distance balanced frame and detecting a person based on whether or not a distance from the background in which the distance information is in a balanced state is detected. It has a difference calculation means.

さらに、好ましくは、本発明の人物動作検出装置において、前記距離フレームと前記距離平衡フレームのフレーム差分により検出した人物の距離情報から前記人物の中心座標を求める中心座標検出手段を有する。   Furthermore, it is preferable that the human motion detection apparatus of the present invention further includes a central coordinate detection unit that obtains a central coordinate of the person from distance information of the person detected by a frame difference between the distance frame and the distance balanced frame.

さらに、好ましくは、本発明の人物動作検出装置における中心座標検出手段は、前記距離フレーム間の中心座標の移動量を求める。   Further preferably, the center coordinate detection means in the human motion detection device of the present invention obtains a movement amount of the center coordinates between the distance frames.

さらに、好ましくは、本発明の人物動作検出装置における中心座標検出手段は、前記距離フレーム間の差分演算で求めた距離変位と、該距離フレームと前記距離平衡フレーム間のフレーム差分により求めた中心座標から、該距離変位と該中心座標の相対位置を演算する。   Further preferably, the center coordinate detection means in the human motion detection device of the present invention is characterized in that the center coordinate obtained from the distance displacement obtained by the difference calculation between the distance frames and the frame difference between the distance frame and the distance balanced frame. From this, the relative position of the distance displacement and the center coordinate is calculated.

さらに、好ましくは、本発明の人物動作検出装置における中心座標検出手段は、検出した人物の身体全体の距離情報から、3次元空間の各座標軸の重心座標を前記中心座標として算出する。   Further preferably, the center coordinate detection means in the human motion detection device of the present invention calculates the center-of-gravity coordinates of each coordinate axis in the three-dimensional space as the center coordinates from the detected distance information of the whole body of the person.

さらに、好ましくは、本発明の人物動作検出装置における中心座標検出手段は、検出した人物の身体全体の距離情報から、3次元空間の各座標軸方向の最大値および最小値から中点を前記中心座標として算出する。   Further preferably, the center coordinate detection means in the human motion detection device of the present invention is configured to determine the center point from the maximum value and the minimum value in each coordinate axis direction of the three-dimensional space from the detected distance information of the whole body of the person. Calculate as

さらに、好ましくは、本発明の人物動作検出装置における中心座標検出手段は、検出した人物の身体全体の距離情報から、人物の輪郭上の各点からの距離の和が最小となる点を前記中心座標として算出する。   Further preferably, the center coordinate detection means in the human motion detection device of the present invention is configured such that, based on the detected distance information of the entire body of the person, a point at which the sum of the distances from each point on the person's contour is minimum is the center. Calculate as coordinates.

さらに、好ましくは、本発明の人物動作検出装置における距離平衡フレーム生成手段は、前記距離平衡フレームの生成処理を、装置起動時、初期化時または所定時間毎に行う。   Further preferably, the distance balanced frame generating means in the human motion detecting apparatus of the present invention performs the distance balanced frame generation processing at the time of starting the apparatus, at the time of initialization, or every predetermined time.

さらに、好ましくは、本発明の人物動作検出装置における発光手段は、前記投射光として近赤外のパルス光を一定周期で前記投射空間に投射する。   Further preferably, the light emitting means in the human motion detection device of the present invention projects near-infrared pulse light as the projection light into the projection space at a constant period.

さらに、好ましくは、本発明の人物動作検出装置における受光部は、光電変換部が中央に設けられ、該光電変換部の中心に対する点対称位置に、互いに相反するゲート信号が入力される二つの電荷転送ゲートをそれぞれ介して2つの画素出力電極V1,V2が設けられ、該二つの画素出力電極V1,V2から、前記人物までの距離に相当した光の飛行時間に依存して分配された信号電荷をそれぞれ出力する。   Further preferably, the light receiving unit in the human motion detecting device of the present invention has a photoelectric conversion unit provided in the center, and two charges to which mutually opposite gate signals are input at a point-symmetrical position with respect to the center of the photoelectric conversion unit. Two pixel output electrodes V1 and V2 are provided via transfer gates, respectively, and signal charges distributed depending on the flight time of light corresponding to the distance from the two pixel output electrodes V1 and V2 to the person. Are output respectively.

さらに、好ましくは、本発明の人物動作検出装置における二つの画素出力電極V1,V2からの前記信号電荷はそれぞれ前記人物までの距離に応じた出力電圧情報に変換されて、前記TOF式距離画像センサから前記距離情報としてそれぞれ出力される。   Further preferably, the signal charges from the two pixel output electrodes V1 and V2 in the human motion detection device of the present invention are converted into output voltage information corresponding to the distance to the person, respectively, and the TOF distance image sensor To output the distance information.

さらに、好ましくは、本発明の人物動作検出装置における人物までの距離Lが、既知の光速をcとして該人物までの光の飛行時間Tを検出して、L=(1/2)・c・Tから求められている。   Further, preferably, the distance L to the person in the human motion detection device of the present invention detects a flight time T of light to the person with a known speed of light as c, and L = (1/2) · c · Required from T.

さらに、好ましくは、本発明の人物動作検出装置における距離情報は、前記受光部に対応した画素毎の立体的な複数点の距離情報である。   Still preferably, the distance information in the human motion detection device of the present invention is three-dimensional distance information for each pixel corresponding to the light receiving unit.

本発明の遊具装置は、本発明の上記人物動作検出装置と、該人物動作検出装置からの人物の距離の変化量とその変化方向の動作情報を用いて、ゲーム内の登場人物の動作やイベントの発生に反映させるようにゲームを制御するアプリケーションプロセッサとを有するものであり、そのことにより上記目的が達成される。   The playground equipment of the present invention uses the person motion detection device of the present invention, the amount of change in the distance of the person from the person motion detection device, and the motion information of the direction of the change, and the actions and events of the characters in the game. And an application processor that controls the game so as to be reflected in the occurrence of the above, thereby achieving the above object.

また、好ましくは、本発明の遊具装置において、前記アプリケーションプロセッサは、前記人物の動作の詳細情報を取得するために、上記連続して取得されるフレーム差分情報を比較して、前記人物の動作領域の位置情報、該人物の動作の速度ベクトルおよび動作の加速度ベクトルの各種情報を抽出する人物動作検知手段を有する。   Preferably, in the playground equipment of the present invention, the application processor compares the frame difference information obtained continuously in order to obtain detailed information of the motion of the person, and the motion area of the person. Human motion detection means for extracting various information of the position information of the person, the speed vector of the motion of the person, and the acceleration vector of the motion.

さらに、好ましくは、本発明の遊具装置において、前記動作領域の位置情報は前記距離フレームの水平方向および垂直方向のXY座標位置および遊具装置からの距離Lから立体的に求められ、前記人物の動作の速度ベクトルおよび加速度ベクトルは、該動作領域の平均移動距離、該動作領域の重心位置の移動距離および該人物の特定部位位置の移動距離のいずれかから求められる。   Further preferably, in the playground equipment of the present invention, the position information of the motion area is obtained three-dimensionally from the XY coordinate positions in the horizontal and vertical directions of the distance frame and the distance L from the playground equipment, and the motion of the person These velocity vectors and acceleration vectors are obtained from any one of the average moving distance of the motion area, the movement distance of the center of gravity position of the motion area, and the movement distance of the specific part position of the person.

さらに、好ましくは、本発明の遊具装置において、前記人物が行う動作の時刻や空間領域に関して期待値を有しており、該期待値と合致する時刻や空間の距離情報を含む距離フレームに限定して前記人物動作検知手段による処理を行う。   Furthermore, it is preferable that the playground equipment of the present invention is limited to a distance frame that has an expected value with respect to the time and space area of the action performed by the person, and includes time and space distance information that matches the expected value. Then, the processing by the person motion detection means is performed.

さらに、好ましくは、本発明の遊具装置における人物の中心座標の移動量が、前記期待値から設定した閾値以上であった場合に該人物の「全身移動があった」と判定し、また、該人物の中心座標の移動量が該閾値未満であった場合に該人物の「全身移動がなかった」と判定する中心座標移動判定手段を有する。   Further preferably, when the movement amount of the central coordinate of the person in the playground equipment of the present invention is equal to or greater than the threshold set from the expected value, it is determined that the person has “whole body movement”, and There is a center coordinate movement determination means for determining that the person has not moved the whole body when the movement amount of the center coordinates of the person is less than the threshold.

さらに、好ましくは、本発明の遊具装置において、前記中心座標と前記距離フレームの差分の距離変位の相対的な位置関係から、動作した人物の身体部位を判定する身体部位判定手段を有する。   Further preferably, the playground equipment according to the present invention further comprises body part determination means for determining the body part of the operated person from the relative positional relationship of the distance displacement of the difference between the center coordinate and the distance frame.

さらに、好ましくは、本発明の遊具装置における身体部位判定手段は、前記距離フレーム間のフレーム差分により検出した距離変位が、前記中心座標より右上であれば右腕の動作、前記中心座標より左上であれば左腕の動作、前記中心座標より右下であれば右足の動作、前記中心座標より左下であれば左足の動作であると判定する。   Further preferably, the body part determination means in the playground equipment of the present invention is such that if the distance displacement detected by the frame difference between the distance frames is in the upper right from the center coordinate, the body part determination means is in the right arm operation and in the upper left from the center coordinate. If it is a left arm motion, if it is lower right than the center coordinate, it is determined that the motion is a right foot, and if it is lower left than the center coordinate, it is determined that the motion is a left foot.

さらに、好ましくは、本発明の遊具装置における身体部位判定手段は、その判定結果として身体部位が存在する時刻、空間領域および動作変化のうちの少なくともいずれかと前記期待値とを比較して、該少なくともいずれかが該期待値と一致する場合は該身体部位に「期待動作があった」と判定し、また、該少なくともいずれかが該期待値と不一致の場合は該身体部位に「期待動作がなかった」と判定する。   Further preferably, the body part determination means in the playground equipment of the present invention compares the expected value with at least one of a time, a spatial region, and a motion change when the body part exists as a determination result. If any of the body parts agrees with the expected value, it is determined that the body part has “expected motion”, and if any of the body parts does not match the expected value, the body part has “no expected action”. It is determined.

さらに、好ましくは、本発明の遊具装置における期待値として、前記人物が何らかの行動を起こすことを期待されるタイミングを期待時刻とし、該人物が移動動作を行うことを期待される空間領域を期待存在空間とし、該人物が行うであろうと期待される動作の速さや方向が期待動作変化とする。   Furthermore, preferably, as an expected value in the playground equipment of the present invention, the expected time is the timing at which the person is expected to take some action, and there is an expected space area in which the person is expected to move It is assumed that the speed and direction of the motion that the person is expected to perform are the expected motion changes.

さらに、好ましくは、本発明の遊具装置におけるアプリケーションプロセッサは、前記人物の動作の時刻、空間領域および動作変化のうちの少なくともいずれかに関する期待値を有しており、該期待値と合致する人物動作を検知した場合に、無線または有線を介して、振動、光、音声および香りの少なくともいずれかを発生させる体感刺激発生装置を有する。   Further preferably, the application processor in the playground equipment according to the present invention has an expected value related to at least one of the time of the person's action, the space region, and the action change, and the person action that matches the expected value In the case of detecting sensation, the apparatus has a sensation generating device that generates at least one of vibration, light, sound and scent via wireless or wired communication.

さらに、好ましくは、本発明の遊具装置において、従来の遊具装置に搭載されているゲームコントローラを使用することなく前記人物動作検出装置を用いて人物動作が検知され、当該人物動作の検知結果と前記期待値との比較処理が行わて、振動、光、音声および香りの少なくともいずれかを発生させる体感刺激発生装置を駆動させる。   Further preferably, in the playground equipment of the present invention, the human motion is detected using the human motion detection device without using a game controller mounted on a conventional playground equipment, and the detection result of the human motion and the A comparison process with the expected value is performed to drive the sensation generating device that generates at least one of vibration, light, voice, and scent.

本発明の人物動作検出方法は、発光手段から出射される投射光の投射空間からの反射光を受光して、該投射空間の人物までの距離に応じた距離情報をTOF(タイム・オブ・フライト)式距離画像センサの複数の受光部からそれぞれ出力する人物動作検出方法であって、 該TOF式距離画像センサからの距離情報に基づいて人物の動作情報を検出する人物動作検知制御ステップを有するものであり、そのことにより上記目的が達成される。   In the human motion detection method of the present invention, reflected light from the projection space of the projection light emitted from the light emitting means is received, and distance information according to the distance to the person in the projection space is expressed as TOF (Time of Flight). ) Method for detecting human motions respectively output from a plurality of light receiving sections of a distance image sensor, comprising a human motion detection control step for detecting human motion information based on distance information from the TOF distance image sensor Thus, the above object is achieved.

また、好ましくは、本発明の人物動作検出方法における人物動作検知制御ステップは、前記TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、該複数の距離フレームについてそれぞれのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算ステップとを有する。   Preferably, the human motion detection control step in the human motion detection method of the present invention includes a distance frame generation step of generating a plurality of distance frames in time series based on distance information from the TOF distance image sensor, A frame difference calculation step of calculating each frame difference for a plurality of distance frames and calculating a change amount and a change direction of the distance of the person as motion information of the person from the frame difference.

さらに、好ましくは、本発明の人物動作検出方法における人物動作検知制御ステップは、 前記TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、少なくとも2つの該距離フレームに基づいて、前記人物に距離変化のない距離情報である距離平衡フレームを生成する距離平衡フレーム生成ステップと、該複数の距離フレームについてそれぞれ該距離平衡フレームとのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算ステップとを有する。   Further preferably, the human motion detection control step in the human motion detection method of the present invention includes a distance frame generation step of generating a plurality of distance frames in time series based on distance information from the TOF distance image sensor, and at least Based on the two distance frames, a distance balanced frame generation step for generating a distance balanced frame that is distance information without any change in the distance of the person, and a frame difference between the plurality of distance frames and the distance balanced frame is calculated. And a frame difference calculation step for calculating a change amount and a change direction of the distance of the person as the motion information of the person from the frame difference.

さらに、好ましくは、本発明の人物動作検出方法において、前記人物の距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分から、該人物の距離の変化の有無を検出する距離変位検出ステップを更に有する。   Further preferably, in the human motion detection method of the present invention, the distance displacement detection for measuring the distance of the person in real time and detecting the change in the distance of the person from the frame difference between at least two distance frames. It further has a step.

さらに、好ましくは、本発明の人物動作検出方法において、前記人物の距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分が所定の閾値未満である状態が所定の時間以上または所定のフレーム数以上継続した場合に、該人物の距離情報が平衡状態にあると判定する距離平衡状態判定ステップを更に有する。   Further preferably, in the human motion detection method of the present invention, the distance of the person is measured in real time, and the state where the frame difference between at least two distance frames is less than a predetermined threshold is greater than or equal to a predetermined time or predetermined The method further includes a distance equilibrium state determination step for determining that the distance information of the person is in an equilibrium state when the number of frames continues.

さらに、好ましくは、本発明の人物動作検出方法において、前記距離フレームと前記距離平衡フレームのフレーム差分を演算し、距離情報が平衡状態にある背景からの距離の変化の有無により前記人物を検出するフレーム差分演算ステップを有する。   Further preferably, in the human motion detection method of the present invention, a frame difference between the distance frame and the distance balanced frame is calculated, and the person is detected based on whether there is a change in the distance from the background where the distance information is in a balanced state. A frame difference calculation step.

さらに、好ましくは、本発明の人物動作検出方法における距離フレームと前記距離平衡フレームのフレーム差分により検出した人物の距離情報から中心座標を求める中心座標検出ステップを有する。   Furthermore, it preferably has a center coordinate detection step of obtaining center coordinates from distance information of a person detected by a frame difference between the distance frame and the distance balanced frame in the person motion detection method of the present invention.

さらに、好ましくは、本発明の人物動作検出方法における中心座標検出ステップは、前記距離フレーム間の中心座標の移動量を求める。   Still preferably, in a person motion detection method according to the present invention, the center coordinate detection step obtains a movement amount of the center coordinates between the distance frames.

さらに、好ましくは、本発明の人物動作検出方法における中心座標検出ステップは、前記距離フレーム間の差分演算で求めた距離変位と、該距離フレームと前記距離平衡フレーム間のフレーム差分により求めた中心座標から、該距離変位と該中心座標の相対位置を演算する。   Further preferably, the center coordinate detection step in the human motion detection method of the present invention includes the center coordinate obtained from the distance displacement obtained by the difference calculation between the distance frames and the frame difference between the distance frame and the distance balanced frame. From this, the relative position of the distance displacement and the center coordinate is calculated.

さらに、好ましくは、本発明の人物動作検出方法における中心座標検出ステップは、検出した人物の身体全体の距離情報から、3次元空間の各座標軸の重心座標を前記中心座標として算出する。   Still preferably, in the person motion detection method of the present invention, the center coordinate detection step calculates the center-of-gravity coordinates of each coordinate axis in the three-dimensional space as the center coordinates from the detected distance information of the whole body of the person.

さらに、好ましくは、本発明の人物動作検出方法における中心座標検出ステップは、検出した人物の身体全体の距離情報から、3次元空間の各座標軸方向の最大値および最小値から中点を前記中心座標として算出することを特徴とする。   Further preferably, the central coordinate detection step in the human motion detection method of the present invention includes determining the central point from the maximum value and the minimum value in each coordinate axis direction of the three-dimensional space from the distance information of the detected human whole body. It is calculated as follows.

さらに、好ましくは、本発明の人物動作検出方法における中心座標検出ステップは、検出した人物の身体全体の距離情報から、人物の輪郭上の各点からの距離の和が最小となる点を前記中心座標として算出する。   Further preferably, the center coordinate detection step in the person motion detection method of the present invention is configured such that the center of the distance from each point on the contour of the person is the minimum from the detected distance information of the whole body of the person. Calculate as coordinates.

本発明のゲーム方法は、本発明の上記人物動作検出装置からの人物の距離の変化量とその変化方向の動作情報を用いて、アプリケーションプロセッサがゲーム内の登場人物の動作やイベントの発生に反映させるようにゲームを制御するゲーム実行ステップを有するものであり、そのことにより上記目的が達成される。   In the game method of the present invention, the application processor uses the amount of change in the distance of the person from the person motion detection device of the present invention and the motion information of the change direction to reflect the motion of the character in the game and the occurrence of the event. A game execution step for controlling the game so that the above-mentioned object is achieved.

また、好ましくは、本発明のゲーム方法において、人物の動作詳細情報を取得するために、連続して取得されるフレーム差分情報を比較して、該人物の動作領域の位置情報、該人物の動作の速度ベクトルおよび加速度ベクトルの各種情報を抽出する人物動作検知ステップを更に有し、前記人物の距離の変化量とその変化方向の情報と共に、該人物の動作領域の位置情報、該人物の動作の速度ベクトルおよび加速度ベクトルの各種情報を用いて、前記ゲーム実行ステップとして、前記アプリケーションプロセッサがゲーム内の登場人物の動作やイベントの発生に反映させるようにゲームを制御する。   Preferably, in the game method of the present invention, in order to acquire the detailed motion information of the person, the frame difference information acquired continuously is compared, the positional information of the motion area of the person, the motion of the person A person motion detection step for extracting various information of the velocity vector and acceleration vector of the human body, and information on the distance of the person and the direction of the change, as well as the position information of the person's motion region and the motion of the person Using the various information on the velocity vector and the acceleration vector, as the game execution step, the application processor controls the game so that it is reflected in the actions of the characters in the game and the occurrence of events.

本発明の制御プログラムは、本発明の上記人物動作検出方法のステップをコンピュータに実行させるための処理手順が記述されたものであり、そのことにより上記目的が達成される。   The control program according to the present invention describes a processing procedure for causing a computer to execute the steps of the human motion detection method according to the present invention, thereby achieving the above object.

本発明の制御プログラムは、本発明の上記ゲーム方法のステップをコンピュータに実行させるための処理手順が記述されたものであり、そのことにより上記目的が達成される。   The control program according to the present invention describes a processing procedure for causing a computer to execute the steps of the game method according to the present invention, thereby achieving the above object.

本発明の可読記録媒体は、本発明の上記制御プログラムが格納されたコンピュータ読み取り可能なものであり、そのことにより上記目的が達成される。   The readable recording medium of the present invention is a computer-readable medium in which the control program of the present invention is stored, whereby the above object is achieved.

上記構成により、以下、本発明の作用を説明する。   With the above configuration, the operation of the present invention will be described below.

本発明においては、TOF式距離画像センサからの距離情報に基づいて、時系列に複数の距離フレームを生成する距離フレーム生成手段と、少なくとも2つの距離フレームに基づいて距離の変化がないフレームである距離平衡フレームを生成する距離平衡フレーム生成手段と、各距離フレームについて距離平衡フレームとのフレーム差分を演算し、対象物体の人物との距離の変化量とその方向を算出する手段とを有して、人物として形状特定化された距離変位領域までの方向および距離を人物の動作情報として検出する。   In the present invention, the distance frame generating means for generating a plurality of distance frames in time series based on the distance information from the TOF type distance image sensor and the frame having no distance change based on at least two distance frames. A distance balanced frame generating means for generating a distance balanced frame; and a means for calculating a frame difference between the distance balanced frame and the distance balanced frame for each distance frame, and calculating a distance change amount and a direction of the target object. The direction and distance to the distance displacement region whose shape is specified as a person is detected as the motion information of the person.

これによって、多数の空間領域を面状に演算処理する場合であっても、従来の反射光の強度分布を用いた距離画像センサや三角測量式距離画像センサのように計算量が膨大にならず、フレームレートが高い場合であっても人物の動作検出をリアルタイムに行うことが可能となる。   As a result, even when a large number of spatial regions are processed in a plane, the amount of calculation does not become enormous, unlike conventional distance image sensors and triangulation distance image sensors that use the intensity distribution of reflected light. Even when the frame rate is high, it is possible to detect the movement of a person in real time.

したがって、この高速な人物動作の検出により、人物動作に応じてゲーム内容の制御をリアルタイムに行うことが可能となって、遊具装置において操作性の向上や動きの検出精度の向上が大いに図られる。   Therefore, the high-speed detection of the person action enables the game content to be controlled in real time according to the person action, and greatly improves the operability and the motion detection accuracy in the playground equipment.

以上により、本発明によれば、TOF式距離画像センサからの距離情報(距離に応じた出力電圧情報)に基づいて、投射光の投射空間の物体までの距離変位を検出する距離変位検出手段と、距離変位の有無を判定する距離平衡状態判定手段とを有し、距離フレームと距離平衡フレームのフレーム差分による距離変位を人物動作として検出するため、多数の空間領域を面状に演算処理する場合であっても、従来の距離画像センサのように演算量が膨大にならず、人物の動作の検出を計算的に安価に行うことができる。よって、要求されるフレームレートが高い用途であっても、人物の動作をリアルタイムに抽出し、ゲーム内容や進行状況に反映することができる。   As described above, according to the present invention, the distance displacement detection means for detecting the distance displacement of the projection light to the object in the projection space based on the distance information (output voltage information corresponding to the distance) from the TOF type distance image sensor. A distance equilibrium state determination means for determining the presence / absence of a distance displacement, in order to detect a distance displacement due to a frame difference between the distance frame and the distance equilibrium frame as a human motion, and when calculating a large number of spatial regions in a plane Even so, the amount of calculation does not become enormous as in the case of the conventional distance image sensor, and the detection of the movement of the person can be performed computationally at low cost. Therefore, even in applications where the required frame rate is high, it is possible to extract a person's action in real time and reflect it in the game content and progress.

本発明の実施形態1に係る人物動作検出装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the person motion detection apparatus which concerns on Embodiment 1 of this invention. 図1の人物動作検出装置で用いるTOF式距離計測原理を模式的に示す説明図である。It is explanatory drawing which shows typically the TOF type | formula distance measurement principle used with the person motion detection apparatus of FIG. 図1の画素アレイ部における1画素単位の受光部の平面構造図である。FIG. 2 is a plan structure diagram of a light receiving unit in one pixel unit in the pixel array unit of FIG. 1. 図2のTOF式距離計測原理を説明するための各要部での信号波形のタイミング図である。FIG. 3 is a timing diagram of signal waveforms at each main part for explaining the principle of TOF distance measurement in FIG. 2. 本発明の実施形態2に係る遊具装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the playground equipment apparatus which concerns on Embodiment 2 of this invention. 本実施形態2を実施するための最良の形態における期待時刻と期待存在空間を模式的に示す図である。It is a figure which shows typically the expected time and expected presence space in the best form for implementing this Embodiment 2. FIG. 本実施形態2を実施するための最良の形態における期待時刻と期待存在空間と期待動作変化を模式的に示す図である。It is a figure which shows typically the expected time in the best form for implementing this Embodiment 2, an expected presence space, and an expected operation | movement change. 図5の人物動作検出装置の簡易な動作例を示すフローチャートである。It is a flowchart which shows the simple operation example of the person motion detection apparatus of FIG. 図5の人物動作検出装置の高精度な動作例を示すフローチャートである。It is a flowchart which shows the example of a highly accurate operation | movement of the person motion detection apparatus of FIG. 図5の距離平衡フレーム生成部で取得した距離情報の具体例を示した画像図である。It is the image figure which showed the specific example of the distance information acquired by the distance balance frame production | generation part of FIG. ある時刻において、図5の距離フレーム生成部で取得した距離情報の具体例を示した画像図である。It is the image figure which showed the specific example of the distance information acquired by the distance frame production | generation part of FIG. 5 at a certain time. 図10とは異なる時刻において、図5の距離フレーム生成部で取得した距離情報の具体例を示した画像図である。FIG. 11 is an image diagram illustrating a specific example of distance information acquired by the distance frame generation unit in FIG. 5 at a time different from that in FIG. 10. 図10の距離フレームと図11の距離平衡フレームとのフレーム差分画像(RFsubBRF)の具体例を示した画像図である。FIG. 12 is an image diagram illustrating a specific example of a frame difference image (RFsubBRF) between the distance frame of FIG. 10 and the distance balanced frame of FIG. 11. 図10の距離フレームと図11の距離平衡フレームのフレーム差分画像(RFsubBRF)の具体例を示した画像図である。12 is an image diagram showing a specific example of a frame difference image (RFsubBRF) between the distance frame of FIG. 10 and the distance balanced frame of FIG. 11. 図12のBRF距離差分フレーム(RFsubBRF)と図11のBRF距離差分フレーム(RFsubBRF)のフレーム差分画像の具体例を示した画像図である。FIG. 13 is an image diagram illustrating a specific example of a frame difference image between the BRF distance difference frame (RFsubBRF) in FIG. 12 and the BRF distance difference frame (RFsubBRF) in FIG. 11. 図5のアプリケーションプロセッサの要部ハード構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a hardware configuration example of a main part of the application processor of FIG. 5. 距離フレームを利用した特許文献1に開示されている従来の情報抽出装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the conventional information extraction apparatus currently disclosed by patent document 1 using a distance frame. 図17の従来の情報抽出装置における距離画像取得部の外観を模式的に示す図である。It is a figure which shows typically the external appearance of the distance image acquisition part in the conventional information extraction device of FIG. 図17の従来の情報抽出装置における分割領域毎の反射光の強度分布を示す距離画像のデータ図である。FIG. 18 is a data diagram of a distance image showing an intensity distribution of reflected light for each divided region in the conventional information extraction device of FIG. 17. 図17の従来の情報抽出装置における距離画像取得部の要部構成例を示したブロック図である。It is the block diagram which showed the principal part structural example of the distance image acquisition part in the conventional information extraction device of FIG. 図17の従来の情報抽出装置における距離画像取得部の前方に手を差し出した場合の距離画像を示す図である。It is a figure which shows the distance image at the time of pushing out a hand ahead of the distance image acquisition part in the conventional information extraction device of FIG. 本発明の実施形態3に係る遊具装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the playground equipment apparatus which concerns on Embodiment 3 of this invention. 図22の人物動作検出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the person motion detection apparatus of FIG. 本発明の実施形態4に係る遊具装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the playground equipment apparatus which concerns on Embodiment 4 of this invention. 図24の人物動作検出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the person motion detection apparatus of FIG. 本発明の実施形態5に係る遊具装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the playground equipment apparatus which concerns on Embodiment 5 of this invention. 本発明の実施形態5に係る遊具装置の変形例を示すブロック図である。It is a block diagram which shows the modification of the playground equipment apparatus which concerns on Embodiment 5 of this invention. 本発明の実施形態5に係る遊具装置の別の変形例を示すブロック図である。It is a block diagram which shows another modification of the playground equipment apparatus which concerns on Embodiment 5 of this invention. 従来の遊具装置の外観図である。It is an external view of the conventional playground equipment apparatus.

以下に、本発明の人物動作検出装置の実施形態1について説明した後に、本発明の人物動作検出装置の実施形態1を、対象物体としての人物の動作内容に応じてゲームの内容や進行を制御する遊具装置に用いた場合を実施形態2とし、人物動作の検出における人物の身体全体の移動の判定方法を実施形態3とし、人物動作の検出において、距離フレーム間の距離変位が身体のどの部分に該当するかを判定する方法を実施形態4とし、さらに、体感刺激発生装置を有する遊具装置について実施形態5として、図面を参照しながら詳細に説明する。   Hereinafter, after describing the first embodiment of the human motion detection device of the present invention, the first embodiment of the human motion detection device of the present invention controls the content and progress of the game according to the motion content of the person as the target object. Embodiment 2 is used for a playground equipment apparatus, and a method for determining the movement of the entire body of a person in detection of human motion is described in Embodiment 3. In the detection of human motion, the distance displacement between the distance frames is determined by which part of the body. A method for determining whether or not this is the case will be described as a fourth embodiment, and a playground equipment having a sensation generating device will be described as a fifth embodiment in detail with reference to the drawings.

(実施形態1)
図1は、本発明の実施形態1に係る人物動作検出装置の要部構成例を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration example of a main part of the human motion detection device according to the first embodiment of the present invention.

図1において、本実施形態1の人物動作検出装置1は、図2に示すように、距離計測の対象物体Aに対して投射光を出射するための光源としての発光手段2と、その投射光の距離計測の対象物体Aからの反射光を受光する受光手段3と、受光手段3からの受光情報に基づいて対象物体Aとしての人物の動作を検出する人物動作検知制御手段4とを有しており、受光手段3からの受光情報に基づいて対象物体Aまでの光の飛行時間(遅れ時間)Tを検出して既知の光速cからの演算で対象物体Aまでの距離Lを求めるTOF(タイム・オブ・フライト)技術を用いて、画素毎の複数点の距離情報を用いて立体的に高精度に人物の位置や動作を検出する。   In FIG. 1, as shown in FIG. 2, a human motion detection apparatus 1 according to the first embodiment includes a light emitting means 2 as a light source for emitting projection light to a target object A for distance measurement, and the projection light. A light receiving means 3 for receiving reflected light from the target object A for distance measurement, and a human motion detection control means 4 for detecting the motion of the person as the target object A based on the light reception information from the light receiving means 3. TOF (determining the distance L to the target object A by calculation from the known speed of light c by detecting the flight time (delay time) T of the light to the target object A based on the light reception information from the light receiving means 3 Using a time-of-flight technique, the position and motion of a person are detected with high accuracy in three dimensions using distance information of a plurality of points for each pixel.

発光手段2は、人物動作検知制御手段4により投射光の発光タイミングが制御されるパワーLEDドライバ21と、パワーLEDドライバ21により駆動されて複数のパワーLED22aから投射光を発光するパワーLEDモジュール22と、少なくとも1つ以上のパワーLED22aが設けられたパワーLEDモジュール22の前方位置に配置されて対象物体Aに対する投射光の放射角を調整可能とする放射角調整レンズ23とを有している。   The light emitting means 2 includes a power LED driver 21 whose emission timing of projection light is controlled by the human motion detection control means 4, and a power LED module 22 that is driven by the power LED driver 21 to emit projection light from a plurality of power LEDs 22a. And a radiation angle adjusting lens 23 which is disposed in front of the power LED module 22 provided with at least one power LED 22a and which can adjust the radiation angle of the projection light with respect to the target object A.

この場合の投射光は、投射光として近赤外のパルス光を一定周期で投射空間に投射するようにしてもよい。   The projection light in this case may project near-infrared pulsed light as projection light onto the projection space at a constant period.

受光手段3は、対象物体Aからの反射光を受光して対象物体Aまでの距離Lに応じた撮像信号を複数の画素でそれぞれ検出するTOF式距離画像センサ31と、TOF式距離画像センサ31の前方位置に配置されて、対象物体Aからの反射光が入射される視野角を調整可能とする視野角調整レンズ32とを有している。   The light receiving means 3 receives the reflected light from the target object A and detects an imaging signal corresponding to the distance L to the target object A with a plurality of pixels, and a TOF distance image sensor 31. And a viewing angle adjustment lens 32 that can adjust the viewing angle at which the reflected light from the target object A is incident.

TOF式距離画像センサ31は、複数の受光部である画素アレイ部311と、各画素(受光部)からの信号読出用のタイミング信号を生成するタイミング生成部312と、各画素(受光部)を垂直方向に走査する垂直スキャナ部313および、各画素(受光部)を水平方向に走査する水平スキャナ部314と、このタイミング信号を用いて垂直スキャナ部313および水平スキャナ部314を制御して各画素(受光部)からの信号読み出しを駆動する画素ドライバ部315と、画素ドライバ部315により画素アレイ部311から読み出された画像信号に対してノイズキャンセル処理を行うノイズキャンセラ部316と、ノイズキャンセラ部315からの出力信号をA/D変換して信号出力するA/Dコンバータ317とを有している。   The TOF type distance image sensor 31 includes a pixel array unit 311 that is a plurality of light receiving units, a timing generation unit 312 that generates a timing signal for signal readout from each pixel (light receiving unit), and each pixel (light receiving unit). The vertical scanner unit 313 that scans in the vertical direction, the horizontal scanner unit 314 that scans each pixel (light-receiving unit) in the horizontal direction, and the vertical scanner unit 313 and the horizontal scanner unit 314 are controlled by using this timing signal to control each pixel. From the pixel driver unit 315 that drives signal readout from the (light receiving unit), the noise canceller unit 316 that performs noise cancellation processing on the image signal read from the pixel array unit 311 by the pixel driver unit 315, and the noise canceller unit 315 And an A / D converter 317 for A / D converting and outputting a signal.

画素アレイ部311は、対象物体Aからの反射光を受光してそれぞれ光電変換して信号電荷をそれぞれ生成する複数の受光部(例えば約8万画素)が行列方向のマトリクス状で面状に配列されているが、ここでは、本発明の特徴構成を持った1画素単位の受光部を図3の平面構造図に示している。   In the pixel array unit 311, a plurality of light receiving units (for example, about 80,000 pixels) that receive reflected light from the target object A and photoelectrically convert them to generate signal charges, respectively, are arranged in a matrix in a matrix direction in a planar shape. However, here, the light receiving portion of one pixel unit having the characteristic configuration of the present invention is shown in the plan view of FIG.

図3に示すように、その1画素単位の受光部は、対象物体Aからの反射光を受光する受光部が中央部に光電変換領域(電荷変換領域PG)として設けられており、この電荷変換領域PGの左右位置に電荷転送ゲートTX1,TX2をそれぞれ介して出力電極V1,V2がそれぞれ設けられ、各出力電極V1,V2から読み出される各信号電荷を、タイミング的に電荷転送ゲートTX1,TX2への相反のゲート信号によって振り分けられている。要するに、対象物体Aまでの距離Lに相当した光の飛行時間(反射光の遅れ時間Td)に依存して分配された信号電荷をそれぞれ二つの画素出力電極V1,V2から出力し、その信号電荷はそれぞれ距離Lに応じた出力電圧情報に変換されて、TOF式距離画像センサ31から距離情報としてそれぞれ出力される。即ち、図4に示すように、投射光のパルス幅T0が、反射光の遅れ時間Tdのタイミングによって、二つの画素出力電極V1,V2から距離Lに応じた出力電圧ΔV1、ΔV2として振り分けられて出力される。なお、CDは電荷変換領域PGの上下位置に設けられた背景光信号排出ゲートである。   As shown in FIG. 3, the light receiving unit of one pixel unit includes a light receiving unit that receives reflected light from the target object A as a photoelectric conversion region (charge conversion region PG) in the center, and this charge conversion. Output electrodes V1 and V2 are provided on the left and right positions of the region PG via charge transfer gates TX1 and TX2, respectively, and signal charges read from the output electrodes V1 and V2 are timely transferred to the charge transfer gates TX1 and TX2. It is sorted by the reciprocal gate signal. In short, the signal charges distributed depending on the flight time of light (the reflected light delay time Td) corresponding to the distance L to the target object A are output from the two pixel output electrodes V1 and V2, respectively. Are converted into output voltage information corresponding to the distance L, and output from the TOF distance image sensor 31 as distance information. That is, as shown in FIG. 4, the pulse width T0 of the projection light is distributed as output voltages ΔV1 and ΔV2 corresponding to the distance L from the two pixel output electrodes V1 and V2 according to the timing of the reflected light delay time Td. Is output. Note that CD is a background light signal discharge gate provided at the upper and lower positions of the charge conversion region PG.

ここで、図2に示すTOF(タイム・オブ・フライト)技術を用いて対象物体Aまでの距離Lを複数点で立体的に求める原理について簡単に説明する。   Here, the principle of obtaining the distance L to the target object A in a three-dimensional manner using the TOF (Time of Flight) technique shown in FIG. 2 will be briefly described.

まず、電流をIとすると、電荷Qは時間ΔTの時間積分として求められ、Q=I・ΔTで与えられる。また、電極に電圧ΔVを印加して蓄積できる電荷Qは、誘電体の容量をCとすると、Q=C・ΔVで与えられる。これらの2つの式により、出力端子電圧Vは、ΔV=(1/C)・I・ΔTで与えられる。上記出力端子電圧Vを用いて、図4に示されるパルス投射光および信号電荷転送ゲートのタイミング図に基づいて、出力端子電圧ΔV1,ΔV2を以下に導出する。図4に示されるように、パルス投射光の点灯時間幅をT0、反射光の光電変換にて流れる光電流をIph、光速をc、出力端子容量をC1,C2とすると、出力端子電圧V1,V2はそれぞれ、次の式1(数1)により求めることができる。   First, assuming that the current is I, the charge Q is obtained as a time integral of time ΔT, and is given by Q = I · ΔT. The charge Q that can be accumulated by applying the voltage ΔV to the electrode is given by Q = C · ΔV, where C is the capacitance of the dielectric. From these two equations, the output terminal voltage V is given by ΔV = (1 / C) · I · ΔT. Using the output terminal voltage V, the output terminal voltages ΔV1 and ΔV2 are derived below based on the timing diagram of the pulse projection light and the signal charge transfer gate shown in FIG. As shown in FIG. 4, assuming that the lighting time width of the pulse projection light is T0, the photocurrent flowing by photoelectric conversion of the reflected light is Iph, the speed of light is c, and the output terminal capacitances are C1 and C2, the output terminal voltage V1, V2 can be obtained by the following equation 1 (Equation 1).

また、図3に示されるように、2つの出力端子の構造は同一のため、端子容量C1とC2は等しくなる。即ち、C1=C2である。この条件を、上記式1(数1)に代入して距離Lを求めると、次の式2(数2)を求めることができる。 Further, as shown in FIG. 3, since the two output terminals have the same structure, the terminal capacities C1 and C2 are equal. That is, C1 = C2. Substituting this condition into Equation 1 (Equation 1) to obtain the distance L, the following Equation 2 (Equation 2) can be obtained.

上記TOF技術に基づくTOF式距離画像センサ31を用いた人物動作検出装置1は、従来の対象物体からの反射光の強度分布を用いて距離情報を取得する距離画像センサを用いた人物動作検出装置の場合と比較して、以下の点で大幅に優れている。 The human motion detection device 1 using the TOF type distance image sensor 31 based on the TOF technology is a human motion detection device using a distance image sensor that acquires distance information using the intensity distribution of reflected light from a conventional target object. Compared with the case of, the following points are significantly superior.

第1に、空間上の複数点での距離Lを各画素の距離の相対的な遠近ではなく、距離の絶対値で計ることができる。距離Lが絶対値で求まるため、A/D変換後の信号処理(例えば、距離変位の有無を判定する閾値の設定)が容易である。よって、追加の演算処理が不要であり、テレビゲームなどの高いフレームレートが要求される用途でのリアルタイム処理に適している。   First, the distance L at a plurality of points in space can be measured not by the relative perspective of the distance of each pixel but by the absolute value of the distance. Since the distance L is obtained as an absolute value, signal processing after A / D conversion (for example, setting of a threshold value for determining the presence or absence of distance displacement) is easy. Therefore, no additional arithmetic processing is required, which is suitable for real-time processing in applications where a high frame rate is required such as a video game.

一方、反射光の強度分布から距離を取得する従来の距離画像センサでは、距離Lが相対値でしか求まらないため、距離Lを相対値から絶対値に変換する演算が必要になり、演算量が増加してしまう。よって、テレビゲームなどの遊具装置での高いフレームレートでのリアルタイム処理に適さないことになる。   On the other hand, in the conventional distance image sensor that obtains the distance from the intensity distribution of the reflected light, the distance L can be obtained only as a relative value, and therefore an operation for converting the distance L from the relative value to the absolute value is required. The amount will increase. Therefore, it is not suitable for real-time processing at a high frame rate in a playground equipment such as a video game.

第2に、対象物体Aの表面の光学的性質の影響を受けにくいため、距離情報を取得できる対象物体Aの適用範囲が広い。上記式2によれば、距離Lは出力端子電圧ΔV1,ΔV2の比で求まるため、対象物体Aの表面の光学的性質の影響を受けにくい。即ち、対象物体Aの表面の光学的性質が対象物体Aの構成部分により異なる場合(例えば対象物体Aの表面の一部分は反射率が高く、その他の部分は反射率が低い)、ΔV1,ΔV2の絶対値は上記構成部分により増減するが、ΔV1,ΔV2の比は一定であるため、距離Lは対象物体Aの表面の光学的性質の影響を受けにくい。これによって、追加の演算処理が不要であり、テレビゲームなどの遊具装置での高いフレームレートでのリアルタイム処理に適することになる。   Second, since it is difficult to be affected by the optical properties of the surface of the target object A, the range of application of the target object A from which distance information can be acquired is wide. According to the above equation 2, the distance L is determined by the ratio of the output terminal voltages ΔV1 and ΔV2, and thus is not easily affected by the optical properties of the surface of the target object A. That is, when the optical properties of the surface of the target object A vary depending on the constituent parts of the target object A (for example, a part of the surface of the target object A has a high reflectance and the other parts have a low reflectance), ΔV1 and ΔV2 Although the absolute value increases or decreases depending on the above components, since the ratio of ΔV1 and ΔV2 is constant, the distance L is not easily affected by the optical properties of the surface of the target object A. This eliminates the need for additional arithmetic processing and is suitable for real-time processing at a high frame rate in a playground equipment such as a video game.

一方、反射光の強度分布から距離Lを取得する従来の距離画像センサでは、反射光の強度分布は対象物体Aの表面の光学的性質の影響を大きく受けるため、光学的性質が均一である対象物体にしか適用できない。このため、人物の全身動作を取得しようとする場合、光学的性質が均一の構成部位毎(例えば、手のみ、上半身の衣服のみ、下半身の衣服のみ)に変化量を見る演算処理や、構成部位毎の光学的性質を考慮に入れて距離を補正する演算処理が必要になる。これによって、追加の演算量が膨大になり、テレビゲームなどの高いフレームレートでのリアルタイム処理に適さないことになる。   On the other hand, in the conventional distance image sensor that obtains the distance L from the intensity distribution of the reflected light, the intensity distribution of the reflected light is greatly influenced by the optical properties of the surface of the target object A, so that the target has uniform optical properties. Applicable only to objects. For this reason, when trying to acquire the whole body motion of a person, arithmetic processing for viewing the amount of change for each component part with uniform optical properties (for example, only the hand, only the upper body clothes, only the lower body clothes) An arithmetic process for correcting the distance in consideration of each optical property is required. As a result, the amount of additional computation becomes enormous, making it unsuitable for real-time processing at a high frame rate such as a video game.

図1の説明に戻って、本実施形態1の特徴構成である高速人物動作検知制御手段4は、人物動作検出装置1全体を制御するために必要な各種制御部から構成されており、パワーLEDドライバ21およびTOF式距離画像センサ31の各駆動タイミングをそれぞれ制御するタイミング制御手段としてのタイミング制御部41と、ホスト側の遊具装置11などのシステムと交信するためのホストインターフェイス手段としてのホストインターフェイス部42と、TOF式距離画像センサ31からの距離情報(距離に応じた出力電圧情報)に基づく出力データストリームを所定のフォーマットに変換するためのデータフォーマット手段としてのデータフォーマット部43と、投射光の投射空間の距離変位を検出する距離変位検出手段としての距離変位検出部44と、距離変位の有無を判定する距離変位判定手段としての距離平衡状態判定部45と、距離フレームと距離平衡フレームのフレーム差分を求めるフレーム差分演算手段としてのフレーム差分演算部46とを有し、受光手段3からの受光情報に基づいて対象物体Aとしての人物の動作を検出する。
タイミング制御部41は、少なくとも1個以上のパワーLEDモジュール22を、パワーLEDドライバ21を介して発光させるタイミングを制御すると共に、図4に示すように時間経過に伴って信号を振り分けるために、画素アレイ部311の各受光部の転送ゲートTX1,TX2の開閉タイミングをそれぞれ相反に制御する。
ホストインターフェイス部42は、図5で後述する制御対象の遊具装置11などのシステムのアプリケーションプロセッサ5と交信して必要な情報をやり取りするためのインターフェイスであって、例えば人物の動作を検出したときに、人物の動作情報を3次元空間座標でアプリケーションプロセッサ5に情報通信するためのインターフェイスである。
Returning to the description of FIG. 1, the high-speed human motion detection control means 4, which is a characteristic configuration of the first embodiment, includes various control units necessary for controlling the entire human motion detection device 1, and includes a power LED. A timing control unit 41 as a timing control unit for controlling each driving timing of the driver 21 and the TOF type distance image sensor 31, and a host interface unit as a host interface unit for communicating with a system such as the host-side playground equipment 11 42, a data formatting unit 43 as data formatting means for converting an output data stream based on distance information (output voltage information corresponding to the distance) from the TOF type distance image sensor 31 to a predetermined format, Distance as distance displacement detection means for detecting distance displacement in projection space A position detection unit 44; a distance equilibrium state determination unit 45 as a distance displacement determination unit that determines presence or absence of a distance displacement; and a frame difference calculation unit 46 as a frame difference calculation unit that obtains a frame difference between the distance frame and the distance balance frame. And detecting the motion of the person as the target object A based on the light reception information from the light receiving means 3.
The timing control unit 41 controls the timing at which at least one power LED module 22 emits light via the power LED driver 21 and distributes signals with time as shown in FIG. The opening / closing timings of the transfer gates TX1 and TX2 of each light receiving unit of the array unit 311 are controlled reciprocally.
The host interface unit 42 is an interface for exchanging necessary information by communicating with a system application processor 5 such as a playground equipment 11 to be controlled, which will be described later with reference to FIG. This is an interface for information communication of human motion information to the application processor 5 in three-dimensional space coordinates.

データフォーマット部43は、画素アレイ部311が複数の受光部として例えば8万画素からなっており、TOF式距離画像センサ31からのセンサ出力が、処理の高速化のために2画素単位の並列出力であり、1画素当りの出力情報が2つの端子の出力電圧のΔV1,ΔV2の形式で出力されるため、後段の信号処理として、演算処理が容易となるようにデータ形式の変換が為されている。   In the data format unit 43, the pixel array unit 311 includes, for example, 80,000 pixels as a plurality of light receiving units, and the sensor output from the TOF distance image sensor 31 is output in parallel in units of two pixels in order to increase the processing speed. Since the output information per pixel is output in the form of ΔV1 and ΔV2 of the output voltages of the two terminals, the data format is converted to facilitate the arithmetic processing as the subsequent signal processing. Yes.

また、データフォーマット部43は、所定のフォーマットで距離フレーム(RangeFrame;RF)を生成する距離フレーム生成部431と、所定のフォーマットで距離平衡フレーム(背景画像フレーム)を生成する距離平衡フレーム生成部432とを有している。   In addition, the data format unit 43 includes a distance frame generation unit 431 that generates a distance frame (Range) in a predetermined format, and a distance balance frame generation unit 432 that generates a distance balance frame (background image frame) in a predetermined format. And have.

距離フレーム生成部431は、上記[式1]のTOF式距離画像センサ31の出力電圧情報を基に、上記[式2]より距離Lを演算して距離フレームを生成する。   The distance frame generation unit 431 generates a distance frame by calculating the distance L from [Expression 2] based on the output voltage information of the TOF distance image sensor 31 of [Expression 1].

距離平衡フレーム生成部432は、少なくとも2つの距離フレームを基に、人物動作検出の際にフレーム差分演算の基準(背景画像フレーム)となる距離平衡フレームを生成する。この距離平衡フレーム生成部432について、以下に更に詳細に説明する。   The distance balanced frame generation unit 432 generates a distance balanced frame that serves as a reference (background image frame) for frame difference calculation when detecting a human motion based on at least two distance frames. The distance balanced frame generation unit 432 will be described in more detail below.

距離変位検出部44は、TOF式距離画像センサ31からの距離情報(距離に応じた出力電圧情報で、上記式1の情報)に基づいて投射光の投射空間の距離Lを上記[式2]によりリアルタイムに計測し、計測した距離L(距離フレーム)に基づいて、フレーム差分演算部46による距離フレーム間でのフレーム差分演算処理(RFsubRF)により投射空間の距離の変化量を算出して所定の閾値と比較することにより距離変位の有無を検出することができる。   The distance displacement detection unit 44 calculates the distance L of the projection space of the projection light based on the distance information from the TOF type distance image sensor 31 (the output voltage information corresponding to the distance and the information of Expression 1 above) [Expression 2]. Based on the measured distance L (distance frame), the frame difference calculation unit 46 calculates the amount of change in the distance of the projection space by frame difference calculation processing (RFsubRF) between the distance frames. The presence or absence of a distance displacement can be detected by comparing with a threshold value.

即ち、距離変位検出部44は、人物が動作を行ったか行っていないかを求めるのに、距離フレーム間で距離の変化があるかどうかを求める。例えば1秒間に120フレーム分の距離情報が距離画像センサ31から距離変位検出部44に入ってくるが、距離変位検出部44において、距離Lの時間に対する変化量をフレーム差分演算部46によるフレーム差分(RFsubRF)から求める。なお、少なくとも2つの距離フレームの間のフレーム差分の算出はここではフレーム差分演算部46によって行っているが、距離変位検出部44が少なくとも2つの距離フレームの間のフレーム差分を算出してもよい。   That is, the distance displacement detection unit 44 determines whether or not there is a change in distance between distance frames in order to determine whether or not a person has performed an action. For example, distance information for 120 frames per second enters the distance displacement detection unit 44 from the distance image sensor 31. In the distance displacement detection unit 44, the amount of change with respect to time of the distance L is determined by the frame difference calculation unit 46. It is obtained from (RFsubRF). Here, the frame difference between at least two distance frames is calculated by the frame difference calculator 46 here, but the distance displacement detector 44 may calculate a frame difference between at least two distance frames. .

各距離フレームは、TOF式距離画像センサ31の出力電圧情報の時間的な揺らぎ(ランダムノイズ)に由来する距離の時間的な揺らぎを持っているため、人物が全く動作せず距離Lの変化がなくても、上記フレーム差分(RFsubRF)が全画素で「0」にはならない。そこで、人物の動作があったかなかったかを確定するために、距離Lの変化に対する閾値(フレーム差分閾値)を設定する。上記距離Lの変化に対する閾値は、TOF距離画像センサ31の距離分解能性能を考慮して、代表的な距離L毎に、TOF距離画像センサ31の距離分解能以上で、複数個、テーブル形式で用意しておく。   Each distance frame has a temporal fluctuation of the distance due to a temporal fluctuation (random noise) of the output voltage information of the TOF type distance image sensor 31. Therefore, the person does not operate at all and the change of the distance L changes. Even if not, the frame difference (RFsubRF) does not become “0” in all pixels. Therefore, a threshold (frame difference threshold) for the change in the distance L is set in order to determine whether or not a person has moved. Considering the distance resolution performance of the TOF distance image sensor 31, a plurality of threshold values for the change in the distance L are prepared in a table format for each representative distance L that is greater than or equal to the distance resolution of the TOF distance image sensor 31. Keep it.

上記フレーム差分(RFsubRF)が設定閾値未満となった場合、距離変位検出部44は投射光の投射空間における距離の変化がない(対象物体Aは動いていない)と判定する。一方、上記フレーム差分(RFsubRF)が設定閾値以上となった場合、距離変位検出部44は投射光の投射空間における距離の変化があった(対象物体Aが動いている)と判定する。   When the frame difference (RFsubRF) is less than the set threshold, the distance displacement detection unit 44 determines that there is no change in the distance of the projection light in the projection space (the target object A is not moving). On the other hand, when the frame difference (RFsubRF) is equal to or greater than the set threshold value, the distance displacement detection unit 44 determines that there is a change in the distance of the projection light in the projection space (the target object A is moving).

距離平衡状態判定部45は、投射光の投射空間が距離平衡状態にあるかどうかを判定する。距離平衡状態判定部45は、上記距離変位検出部44が距離Lの時間変化がないと判定した期間が所定の時間以上続くかまたは、所定のフレーム数以上続けば、投射光の投射空間は距離平衡状態にあると判定する。なお、少なくとも2つの距離フレームの間のフレーム差分の算出はここではフレーム差分演算部46によって行っているが、距離平衡状態判定部45が少なくとも2つの距離フレームの間のフレーム差分を算出してもよい。   The distance equilibrium state determination unit 45 determines whether the projection space of the projection light is in a distance equilibrium state. The distance equilibrium state determination unit 45 determines that the projection space of the projection light is a distance if the period in which the distance displacement detection unit 44 determines that there is no time change of the distance L continues for a predetermined time or more than a predetermined number of frames. Judged to be in equilibrium. Here, the frame difference between at least two distance frames is calculated by the frame difference calculation unit 46 here, but the distance equilibrium state determination unit 45 may calculate the frame difference between at least two distance frames. Good.

フレーム差分演算部46は、連続して取得される距離フレーム間でフレーム差分演算(RFsubRF)を行ったり、距離フレームと距離平衡フレームの間でフレーム差分演算(RFsubBRF)を行ったりする。   The frame difference calculation unit 46 performs frame difference calculation (RFsubRF) between continuously acquired distance frames, or performs frame difference calculation (RFsubBRF) between the distance frame and the distance balanced frame.

このように、フレーム差分演算部46は、複数の距離フレームについてそれぞれ距離平衡フレーム(背景画像)とのフレーム差分を演算し、そのフレーム差分から、例えば変化した水平方向および垂直方向(XY座標)の面積が最も広い領域や、距離Lの変化量が最も大きい領域などを、人物の動作情報として距離の変化量と変化方向を算出するようにしている。   As described above, the frame difference calculation unit 46 calculates the frame difference between each of the plurality of distance frames and the distance balanced frame (background image), and from the frame difference, for example, the changed horizontal direction and vertical direction (XY coordinates). An area having the largest area, an area having the largest change amount of the distance L, and the like are calculated as the movement information of the person, and the change amount and the change direction of the distance are calculated.

距離平衡フレーム生成部432は、連続して取得される距離フレームの中から、上記距離変位検出部44が距離の変化がないと判定した少なくとも1つの連続した距離フレームを記憶する。距離平衡状態判定手段45が、投射光の投射空間が距離平衡状態にあると判定したら、距離平衡フレーム生成部432は、記憶しておいた少なくとも2つの距離フレームの時間平均を算出し、距離平衡フレーム(BalancedRange Frame;BRF)を生成する。この時間平均をとることにより、距離平衡フレームが含む時間的なランダムノイズが減少し、距離フレームと距離平衡フレームのフレーム差分をとって人物動作を検出する際の誤検出を減少させることができる。   The distance balanced frame generation unit 432 stores at least one continuous distance frame determined by the distance displacement detection unit 44 that there is no change in distance from among the continuously acquired distance frames. When the distance equilibrium state determination unit 45 determines that the projection space of the projection light is in the distance equilibrium state, the distance equilibrium frame generation unit 432 calculates the time average of at least two stored distance frames, and the distance equilibrium A frame (Balanced Range Frame; BRF) is generated. By taking this time average, the temporal random noise included in the distance balanced frame is reduced, and erroneous detection when detecting the human motion by taking the frame difference between the distance frame and the distance balanced frame can be reduced.

上記距離平衡フレーム生成処理は、所定の時刻毎(例えば毎秒1回)など頻繁に行う必要はなく、例えば高速人物動作検出装置1の起動時やアプリケーションプロセッサ5によるゲームプログラムの初期化時などに行えばよい。よって、上記距離平衡フレーム生成処理の演算量は多いが頻度が少ないため、高いフレームレートでの駆動時におけるリアルタイム処理を阻害することはない。   The distance balanced frame generation process does not need to be frequently performed at a predetermined time (for example, once every second). For example, the distance balanced frame generation process is performed when the high-speed human motion detection device 1 is activated or when the application processor 5 initializes a game program. Just do it. Therefore, since the calculation amount of the distance balanced frame generation process is large but the frequency is low, real-time processing at the time of driving at a high frame rate is not hindered.

(実施形態2)
上記実施形態1では、対象物体Aまでの距離Lを複数点で立体的に求める本発明の人物動作検出装置1について説明したが、本実施形態2では、上記高速人物動作検出装置1を、対象物体Aとしての人物の動作内容に応じてゲーム内容や進行を制御する遊具装置に適用した場合について詳細に説明する。
(Embodiment 2)
In the first embodiment, the human motion detection device 1 according to the present invention that obtains the distance L to the target object A three-dimensionally has been described. However, in the second embodiment, the high-speed human motion detection device 1 is the target. A case will be described in detail where the present invention is applied to a playground equipment that controls the game content and progress according to the motion content of the person as the object A.

図5は、本発明の実施形態2に係る遊具装置の要部構成例を示すブロック図である。なお、図1の構成部材と同様の作用効果を奏する構成部材には同一の符号を付して説明する。   FIG. 5 is a block diagram illustrating a configuration example of a main part of the playground equipment according to the second embodiment of the present invention. In addition, the same code | symbol is attached | subjected and demonstrated to the structural member which show | plays the effect similar to the structural member of FIG.

図5において、本実施形態2の遊具装置11は、上記実施形態1の人物動作検出装置1と、ゲームプログラムの実行や人物動作検出装置1との距離情報のやり取りなどゲーム進行に必要な各種制御を行うアプリケーションプロセッサ5とを有している。   In FIG. 5, the playground equipment 11 of the second embodiment includes various controls necessary for the progress of the game, such as execution of a game program and exchange of distance information with the human motion detection device 1 of the first embodiment. And an application processor 5 for performing

人物動作検出装置1は、TOF式距離画像センサ31を有することで、後段の信号処理での演算量を大幅に減らすことができるため、特に、テレビゲームなどの高いフレームレートが要求される遊具装置11におけるリアルタイム処理に適している。   Since the human motion detection device 1 includes the TOF type distance image sensor 31, it can greatly reduce the amount of calculation in the subsequent signal processing, and in particular, a playground equipment that requires a high frame rate such as a video game. 11 is suitable for real-time processing.

アプリケーションプロセッサ5は、この人物の動作情報の3次元空間座標に基づいて、人物の動作をゲーム内の登場人物の動作やイベントの発生に反映させるなどゲーム内容を制御してゲームを進行させる。   The application processor 5 advances the game by controlling the content of the game, such as reflecting the movement of the person in the movement of the character in the game or the occurrence of an event based on the three-dimensional space coordinates of the movement information of the person.

アプリケーションプロセッサ5の人物動作検出部51は、検出しようとする人物の動作の詳細な情報を取得するために、上記連続して取得されるフレーム差分(RFsubRFやRFsubBRF)を比較して、人物の動作領域の位置(距離と方向)、人物の動作の速度ベクトル(動作の速さと方向)、人物の動作の加速度ベクトル(動作の加速度の大きさと方向)などの各種情報を抽出する。動作領域の位置は距離フレームの水平・垂直方向(XY座標)の位置および距離L(XY平面に直交する人物動作検出装置1からの距離L)から立体座標(XYZ座標)として求める。人物の動作の速度ベクトルや加速度ベクトルは動作領域の平均移動距離から求めてもよく、動作領域の重心位置の移動距離から求めてもよく、特定位置(例えば人物の頭部や腕や手)について求めてもよい。   The human motion detection unit 51 of the application processor 5 compares the frame differences (RFsubRF and RFsubBRF) acquired continuously in order to acquire detailed information on the motion of the person to be detected. Various information such as the position of the region (distance and direction), the speed vector of the person's motion (speed and direction of motion), and the acceleration vector of the motion of the person (magnitude and direction of motion acceleration) are extracted. The position of the motion area is obtained as a solid coordinate (XYZ coordinate) from the position in the horizontal / vertical direction (XY coordinate) of the distance frame and the distance L (distance L from the human motion detection device 1 orthogonal to the XY plane). The speed vector and acceleration vector of a person's movement may be obtained from the average movement distance of the movement area, or may be obtained from the movement distance of the center of gravity position of the movement area. For a specific position (for example, a person's head, arm, or hand) You may ask for it.

ここで、人物動作検出装置1と人物動作検出部51の間で、ゲームの内容や進行状況に応じて、アプリケーションプロセッサ5が必要とする距離情報に対してのみ信号処理を限定するように、ホストインターフェイス部42を介して情報のやり取りを行ってもよい。即ち、アプリケーションプロセッサ5のゲームプログラム側では、ゲームの内容や進行状況に応じて、対象物体Aである人物が動作を行うことを期待する時刻(以下、期待時刻)や、人物が存在することを期待する空間(以下、期待存在空間)、および人物が動作することを期待する空間(以下、期待動作変化)の情報を持っている。   Here, between the human motion detection device 1 and the human motion detection unit 51, the host is configured to limit the signal processing only to the distance information required by the application processor 5 in accordance with the content and progress of the game. Information may be exchanged via the interface unit 42. That is, on the game program side of the application processor 5, the time at which the person who is the target object A expects to perform an action (hereinafter, the expected time) or the presence of the person is determined according to the content and progress of the game. It has information on an expected space (hereinafter, an expected existence space) and a space where a person is expected to operate (hereinafter, an expected motion change).

図6は、本実施形態2を実施するための最良の形態における期待時刻と期待存在空間を模式的に示す図であり、図7は、本実施形態2を実施するための最良の形態における期待時刻と期待存在空間と期待動作変化を模式的に示す図である。   FIG. 6 is a diagram schematically showing an expected time and an expected existence space in the best mode for carrying out the second embodiment, and FIG. 7 is an expectation in the best mode for carrying out the second embodiment. It is a figure which shows typically time, expected presence space, and expected operation | movement change.

図6および図7において、テニスゲームを例にして期待時刻、期待存在空間および期待動作変化について詳細に説明する。対象物体Aである人物が何らかの行動を起こすことを期待されるタイミングが期待時刻である。例えば図6の時刻t0では、ゲーム内でテニスが開始されていないので対象物体Aである人物は移動や動作を期待されていない。次の時刻t1では、ゲーム内の対戦相手が返球する順番で、対象物体Aである人物は移動の構えをとっているだけであり、ここではまだ、対象物体Aである人物や対戦相手が移動や動作を期待されていない。更に次の時刻t2において、ゲーム内のプレイヤが返球する順番であり、対象物体Aである人物はボールに届く位置まで移動を開始することが期待されている。   6 and 7, the expected time, the expected presence space, and the expected motion change will be described in detail by taking a tennis game as an example. The expected time is when the person who is the target object A is expected to take some action. For example, at time t0 in FIG. 6, since tennis has not started in the game, the person who is the target object A is not expected to move or move. At the next time t1, the person who is the target object A is just moving in the order in which the opponent in the game returns, and here the person and the opponent who are the target object A still move. And is not expected to work. Furthermore, at the next time t2, it is the turn in which the players in the game return, and the person who is the target object A is expected to start moving to the position where it reaches the ball.

対象物体Aである人物が移動するなどの動作を行うことを期待される空間領域が期待存在空間である。例えば図6の時刻t2において、ゲーム内のプレイヤが返球するためにテニスコートの右に移動しなければならないとき、対象物体Aである人物は期待存在空間P2まで右に移動することが期待されている。さらに、対象物体Aである人物が行うであろうと期待される動作の速さや方向が期待動作変化である。   An expected presence space is a space area in which a person as the target object A is expected to move. For example, at time t2 in FIG. 6, when a player in the game has to move to the right of the tennis court in order to return, the person who is the target object A is expected to move right to the expected existence space P2. Yes. Further, the expected motion change is the speed and direction of motion expected to be performed by the person who is the target object A.

図7の時刻t3において、対象物体Aである人物は期待存在空間P3まで右に移動し、図7の時刻t4において、ゲーム内のプレイヤの近くにボールが来たら、対象物体Aである人物は期待存在空間P4において手に持ったラケットで返球動作(期待動作変化V4)を行うことが期待されている。   At time t3 in FIG. 7, the person who is the target object A moves to the right to the expected existence space P3. When the ball comes near the player in the game at time t4 in FIG. 7, the person who is the target object A is It is expected that a return ball motion (expected motion change V4) is performed with a racket held in the hand in the expected presence space P4.

アプリケーションプロセッサ5では、ゲームプログラムの進行に合わせて期待時刻tでの期待存在空間Pにおける期待動作変化Vのみが意味を持つため、それ以外のモニタ量は不要と見なせる。よって、人物動作検出部51は上記各期待値と合致する距離情報についてのみ、人物動作を検出するための演算処理を行えばよい。   In the application processor 5, since only the expected motion change V in the expected existence space P at the expected time t is meaningful as the game program progresses, it can be considered that other monitoring amounts are unnecessary. Therefore, the human motion detection unit 51 only needs to perform a calculation process for detecting a human motion only for the distance information that matches each expected value.

人物動作検出部51は、不要な信号処理を実施しないことにより演算量を減らすことができるため、人物動作検出装置1を高いフレームレートで駆動してもリアルタイム処理を行うことが可能になる。また、対象物体Aである人物のゲーム進行と無関係の動作や、複数人が撮像領域内にいるときに対象物体Aである人物以外の動作を誤検出する可能性が低くなる。   Since the human motion detection unit 51 can reduce the amount of calculation by not performing unnecessary signal processing, real-time processing can be performed even when the human motion detection device 1 is driven at a high frame rate. In addition, the possibility of erroneous detection of an operation irrelevant to the game progress of the person who is the target object A or an operation other than the person who is the target object A when a plurality of persons are in the imaging region is reduced.

ここで、まず、図8に示すフローチャートを参照して、図5の人物動作検出装置1の簡易で特に高速な人物動作検知処理について説明する。   Here, first, a simple and particularly high-speed human motion detection process of the human motion detection device 1 of FIG. 5 will be described with reference to a flowchart shown in FIG.

図8に示すように、まず、ステップS1において、電源の投入または遊具装置11のゲームプログラムからの動作開始の指示などにより、高速人物動作検知制御手段4は、発光手段2や受光手段3を用いて、例えば1秒間に120枚程度のフレームレートで距離フレームを取得する。   As shown in FIG. 8, first, in step S1, the high-speed person motion detection control means 4 uses the light emitting means 2 or the light receiving means 3 in response to an instruction to turn on the power or an operation start from the game program of the playground equipment 11 or the like. For example, distance frames are acquired at a frame rate of about 120 frames per second.

次に、ステップS2でフレーム差分を演算する。即ち、高速人物動作検知制御手段4のフレーム差分演算部46は、距離フレーム間でフレーム演算を行う。出力端子電圧ΔV1,ΔV2の大きさが、対象物体Aとなる人物が存在する領域と存在しない領域(背景)とで比較すると1桁から2桁違うため、人物の存在や動作を検出することが可能である。   Next, a frame difference is calculated in step S2. That is, the frame difference calculation unit 46 of the high-speed human motion detection control means 4 performs frame calculation between distance frames. Since the magnitudes of the output terminal voltages ΔV1 and ΔV2 are different by one to two digits when compared with a region where the person who is the target object A is present and a region where the person is not present (background), the presence and movement of the person can be detected. Is possible.

その後、演算結果の情報は、ホストインターフェイス部42を介してアプリケーションプロセッサ5に渡される。アプリケーションプロセッサ5の人物動作検知部51では、ステップS3で、距離変位がアプリケーションプロセッサ5の有する期待値と一致するかどうかを判定し、それが一致する場合は、ステップS4で「人物動作があった」と判定し、それが不一致の場合は、ステップS5で「人物動作がなかった」と判定する。   Thereafter, the calculation result information is passed to the application processor 5 via the host interface unit 42. In step S3, the human motion detection unit 51 of the application processor 5 determines whether or not the distance displacement matches the expected value of the application processor 5. If they match, in step S4, “there is a human motion”. If it does not match, it is determined in step S5 that there was no person action.

以上の簡易で高速な人物動作検知制御ステップは、距離フレーム生成部431がTOF式距離画像センサ31からの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、フレーム差分演算部46が複数の距離フレームについてそれぞれのフレーム差分を演算し、その演算したフレーム差分から人物の動作情報として人物の距離の変化量とその変化方向を算出するフレーム差分演算ステップとを有している。   The simple and high-speed human motion detection control step includes a distance frame generation step in which the distance frame generation unit 431 generates a plurality of distance frames in time series based on distance information from the TOF type distance image sensor 31, and a frame difference. A calculation unit 46 has a frame difference calculation step of calculating each frame difference for a plurality of distance frames, and calculating a change amount and a change direction of the distance of the person as the motion information of the person from the calculated frame difference. Yes.

次に、図9に示すフローチャートを参照して、図1の高速人物動作検出装置1の高精度な人物動作検知処理について説明する。   Next, a highly accurate human motion detection process of the high-speed human motion detection device 1 of FIG. 1 will be described with reference to the flowchart shown in FIG.

図9に示すように、まず、ステップS11において、電源の投入または遊具装置11のゲームプログラムからの動作開始の指示などにより、高速人物動作検知制御手段4は、発光手段2や受光手段3を用いて、例えば1秒間に120枚程度のフレームレートで距離フレームを取得する。   As shown in FIG. 9, first, in step S11, the high-speed human motion detection control unit 4 uses the light emitting unit 2 or the light receiving unit 3 in accordance with an instruction to turn on the power or start the operation from the game program of the playground equipment 11. For example, distance frames are acquired at a frame rate of about 120 frames per second.

次に、ステップS12で、高速人物動作検知制御手段4が、所定のタイミングで、距離フレーム毎のフレーム差分を求める動作を開始する。   Next, in step S12, the high-speed human motion detection control unit 4 starts an operation for obtaining a frame difference for each distance frame at a predetermined timing.

ステップS13で、上記フレーム差分(RFsubRF)が、設定された閾値未満であるかどうかが判定される。上記フレーム差分(RFsubRF)が、設定された閾値未満であるとき、ステップS14で、距離変位検出部44は「距離変位がない」と判定する。また、上記フレーム差分(RFsubRF)が、設定された閾値以上であるとき、ステップS15で、距離変位検出部44は「距離変位有り」と判定し、その後、ステップS11の距離フレーム取得処理に戻る。   In step S13, it is determined whether or not the frame difference (RFsubRF) is less than a set threshold value. When the frame difference (RFsubRF) is less than the set threshold value, the distance displacement detection unit 44 determines that “there is no distance displacement” in step S14. If the frame difference (RFsubRF) is greater than or equal to the set threshold value, the distance displacement detection unit 44 determines that “distance displacement is present” in step S15, and then returns to the distance frame acquisition process in step S11.

さらに、ステップS14で、距離変位検出部44により「距離変位がない」と判定された状態が、所定の時間以上または所定のフレーム枚数以上継続した場合、距離平衡状態判定部45は投射光の投射空間が距離平衡状態にあると判定する。   Furthermore, when the state determined as “no distance displacement” by the distance displacement detection unit 44 in step S14 continues for a predetermined time or more or a predetermined number of frames, the distance equilibrium state determination unit 45 projects the projection light. It is determined that the space is in a distance equilibrium state.

その後、ステップS16で、距離平衡状態判定部45は投射光の投射空間が距離平衡状態にあると判定すると、距離平衡フレーム生成部432は、少なくとも1つの距離フレームの時間平均をとり、距離平衡フレームを生成する。   Thereafter, in step S16, when the distance balanced state determination unit 45 determines that the projection space of the projection light is in the distance balanced state, the distance balanced frame generation unit 432 takes a time average of at least one distance frame to obtain the distance balanced frame. Is generated.

続いて、距離平衡フレームの具体例を示した画像を図10に示している。図10では対象物体Aである人物がおらず、背景のみから距離平衡フレームを生成しているが、人物が撮像範囲にいても、例えば遊具装置11のゲームプログラムからの指示により人物を右側に移動させて左側半分の距離フレームを生成し、続いて人物を左側に移動させて右側半分の距離フレームを生成し、最後にそれらを合成することにより距離平衡フレームを生成することができる。または、人物が静止している状態であれば、静止した人物を含めて距離平衡フレームを生成しても、フレーム差分演算(RFsubBRF)により距離の変位を検出することができる。   Subsequently, an image showing a specific example of the distance balanced frame is shown in FIG. In FIG. 10, there is no person who is the target object A and the distance balanced frame is generated only from the background. However, even if the person is in the imaging range, for example, the person is moved to the right side by an instruction from the game program of the playground equipment 11 The distance frame of the left half is generated, and then the person is moved to the left side to generate the distance frame of the right half, and finally the distance balanced frame is generated by combining them. Alternatively, if the person is stationary, the distance displacement can be detected by frame difference calculation (RFsubBRF) even if the distance balanced frame including the stationary person is generated.

以上の高精度な人物動作検知制御ステップは、距離フレーム生成部431がTOF式距離画像センサ31からの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、距離平衡フレーム生成部432が、少なくとも2つの距離フレームに基づいて、人物に距離変化のない距離情報である距離平衡フレームを生成する距離平衡フレーム生成ステップと、フレーム差分演算部46が複数の距離フレームについてそれぞれ距離平衡フレームとのフレーム差分を演算し、その演算したフレーム差分から人物の動作情報として人物の距離の変化量とその変化方向を算出するフレーム差分演算ステップとを有している。   The above highly accurate human motion detection control step includes a distance frame generation step in which the distance frame generation unit 431 generates a plurality of distance frames in time series based on the distance information from the TOF type distance image sensor 31, and a distance balanced frame. The generation unit 432 generates a distance balanced frame that is distance information that does not change the distance of the person based on at least two distance frames, and the frame difference calculation unit 46 sets the distance for each of the plurality of distance frames. There is a frame difference calculation step for calculating a frame difference from the balanced frame and calculating a change amount and a change direction of the distance of the person as the motion information of the person from the calculated frame difference.

図11および図12に、ある時刻とその後の時刻において図5の距離フレーム生成部431で取得した距離情報の具体例を示した画像をそれぞれ示している。   FIGS. 11 and 12 respectively show images showing specific examples of distance information acquired by the distance frame generation unit 431 in FIG. 5 at a certain time and subsequent times.

ステップS17において、フレーム差分演算部46が、距離フレームと距離平衡フレームの間のフレーム差分演算を行う。図10と図11のフレーム差分(RFsubBRF)および図10と図12のフレーム差分(RFsubBRF)をそれぞれ図13と図14に示している。距離変位がない領域はフレーム差分演算により相殺され距離変位がある領域のみが残る。   In step S <b> 17, the frame difference calculation unit 46 performs a frame difference calculation between the distance frame and the distance balanced frame. The frame difference (RFsubBRF) in FIGS. 10 and 11 and the frame difference (RFsubBRF) in FIGS. 10 and 12 are shown in FIGS. 13 and 14, respectively. Areas without distance displacement are canceled out by frame difference calculation, and only areas with distance displacement remain.

図15に、図13と図14のフレーム差分を示している。それぞれ図11と図12に示す距離フレームを取得する間に対象物体Aである人物がどれだけ移動したかが検出されることになる。   FIG. 15 shows the frame difference between FIG. 13 and FIG. It is detected how much the person who is the target object A has moved while acquiring the distance frames shown in FIGS. 11 and 12, respectively.

その後、演算結果の情報は、ホストインターフェイス部42を介してアプリケーションプロセッサ5に渡される。人物動作検知部51では、ステップS18で、距離変位がアプリケーションプロセッサ5の有する期待値と一致するかどうかを判定し、それが一致する場合は、ステップS19で「人物動作があった」と判定し、それが不一致の場合は、ステップS20で「人物動作がなかった」と判定する。   Thereafter, the calculation result information is passed to the application processor 5 via the host interface unit 42. In step S18, the person motion detection unit 51 determines whether or not the distance displacement matches the expected value of the application processor 5. If they match, it is determined in step S19 that "there is a person motion". If they do not match, it is determined in step S20 that “no human motion has occurred”.

(実施形態3)
上記実施形態1では、対象物体Aまでの距離Lを複数点で立体的に求める本発明の人物動作検出装置1について説明し、上記実施形態2では、上記高速人物動作検出装置1を、対象物体Aとしての人物の動作内容に応じてゲーム内容や進行を制御する遊具装置に適用した場合について説明し、本実施形態3では、上記実施形態2の図9のステップS17のフレーム差分演算(RFsubRF)以降のステップを追加することにより、対象物体Aである人物の身体全体が移動したかどうかを判定する方法について詳細に説明する。
(Embodiment 3)
In the first embodiment, the human motion detection device 1 according to the present invention that three-dimensionally calculates the distance L to the target object A will be described, and in the second embodiment, the high-speed human motion detection device 1 is the target object. A case where the present invention is applied to a playground equipment that controls game content and progress according to the motion content of a person as A will be described. In the third embodiment, the frame difference calculation (RFsubRF) in step S17 of FIG. A method for determining whether or not the whole body of the person who is the target object A has moved by adding the subsequent steps will be described in detail.

図22は、本発明の実施形態3に係る遊具装置の要部構成例を示すブロック図である。なお、図1および図5の構成部材と同様の作用効果を奏する構成部材には同一の符号を付して説明する。   FIG. 22 is a block diagram illustrating a configuration example of a main part of the playground equipment according to the third embodiment of the present invention. In addition, the same code | symbol is attached | subjected and demonstrated to the structural member which show | plays the effect similar to the structural member of FIG. 1 and FIG.

図22において、本実施形態3の遊具装置11Aは、対象物体Aまでの距離Lを複数点で立体的に求める人物動作検出装置1Aと、ゲームプログラムの実行や人物動作検出装置1Aとの距離情報のやり取りなどゲーム進行に必要な各種制御を行うアプリケーションプロセッサ5Aとを有している。   In FIG. 22, the playground equipment 11A of the third embodiment includes distance information between the person motion detection device 1A that three-dimensionally calculates the distance L to the target object A at a plurality of points, and the execution of the game program and the person motion detection device 1A. And an application processor 5A for performing various controls necessary for the progress of the game, such as exchange of information.

人物動作検出装置1Aは、上記実施形態1、2の人物動作検出装置1の構成に中心座標検出部47をさらに有している。   The human motion detection device 1A further includes a center coordinate detection unit 47 in the configuration of the human motion detection device 1 of the first and second embodiments.

距離平衡フレーム生成手段よしての距離平衡フレーム生成部432が距離平衡フレーム(BRF)を生成し、フレーム差分演算手段としてのフレーム差分演算部46がN番目の距離フレームと距離平衡フレームとの差分(RFsubBRF)を演算する。これによって、距離変化のない背景情報から、対象物体Aである人物を切り出して検出することができる。即ち、フレーム差分演算部46は、距離フレームと距離平衡フレームのフレーム差分を演算し、距離情報が平衡状態にある背景情報からの距離の変化の有無により人物を検出する。   A distance balanced frame generating unit 432 as a distance balanced frame generating unit generates a distance balanced frame (BRF), and a frame difference calculating unit 46 as a frame difference calculating unit calculates a difference between the Nth distance frame and the distance balanced frame ( RFsubBRF) is calculated. Thereby, the person who is the target object A can be cut out and detected from the background information having no distance change. That is, the frame difference calculation unit 46 calculates a frame difference between the distance frame and the distance balanced frame, and detects a person based on whether or not there is a change in distance from the background information in which the distance information is in a balanced state.

この状態で、中心座標検出手段としての中心座標検出部47は、距離フレームと距離平衡フレームのフレーム差分により検出した人物の距離情報から中心座標および中心座標の移動量を求める。つまり、中心座標検出部47は、N番目の距離フレームについて、その検出した人物の距離情報から中心座標を求める。次のN+1番目の距離フレームについても同様に中心座標を求め、N番目とN+1番目の各距離フレーム間の中心座標の移動量を求める。この場合の中心座標とは、例えば、検出した人物の身体全体の距離情報から重心座標を求めてもよく、検出した人物の全身のX,Y,Z座標の最大値および最小値からそれぞれ中点座標を求めてもよく、検出した人物の輪郭の各点からの距離の和が最小になる点の座標を求めてもよい。   In this state, the center coordinate detection unit 47 as the center coordinate detection means obtains the center coordinates and the movement amount of the center coordinates from the distance information of the person detected by the frame difference between the distance frame and the distance balanced frame. That is, the center coordinate detection unit 47 obtains center coordinates from the detected distance information of the Nth distance frame. For the next N + 1th distance frame, the center coordinates are obtained in the same manner, and the movement amount of the center coordinates between the Nth and N + 1th distance frames is obtained. In this case, the center coordinates may be obtained, for example, by calculating the center-of-gravity coordinates from the distance information of the whole body of the detected person, and the midpoint from the maximum value and the minimum value of the X, Y, Z coordinates of the whole body of the detected person. You may obtain | require a coordinate and may obtain | require the coordinate of the point from which the sum of the distance from each point of the detected person's outline becomes the minimum.

即ち、中心座標検出部47は、検出した人物の身体全体の距離情報から、3次元空間の各座標軸の重心座標を中心座標として算出する。または、中心座標検出部47は、検出した人物の身体全体の距離情報から、3次元空間の各座標軸方向の最大値および最小値から中点を中心座標として算出する。または、中心座標検出部47は、検出した人物の身体全体の距離情報から、人物の輪郭上の各点からの距離の和が最小となる点を中心座標として算出する。   That is, the center coordinate detection unit 47 calculates the center-of-gravity coordinates of each coordinate axis in the three-dimensional space as the center coordinates from the detected distance information of the whole body of the person. Alternatively, the center coordinate detection unit 47 calculates the midpoint as the center coordinate from the maximum value and the minimum value in each coordinate axis direction of the three-dimensional space from the detected distance information of the whole body of the person. Alternatively, the center coordinate detection unit 47 calculates, from the detected distance information of the entire body of the person, a point at which the sum of the distances from the points on the contour of the person is the minimum as the center coordinates.

アプリケーションプロセッサ5Aは、この人物の動作情報の3次元空間座標に基づいて、人物の動作をゲーム内の登場人物の動作やイベントの発生に反映させるなどゲーム内容を制御してゲームを進行させる。   The application processor 5A advances the game by controlling the content of the game, such as reflecting the action of the person in the action of the character in the game or the occurrence of an event based on the three-dimensional space coordinates of the action information of the person.

アプリケーションプロセッサ5Aの人物動作検出手段としての人物動作検出部51Aは、連続して取得される距離フレーム間の中心座標の移動量と、ゲーム内の期待値とを比較して、中心座標移動判定手段としての中心座標移動判定部511は、人物の中心座標の移動量が期待値から設定した閾値以上であった場合には人物の「全身移動があった」と判定し、また、人物の中心座標の移動量が閾値未満であった場合には人物の「全身移動がなかった」と判定する。   The human motion detection unit 51A as the human motion detection unit of the application processor 5A compares the movement amount of the central coordinate between distance frames acquired successively with the expected value in the game, thereby determining the central coordinate movement determination unit. The center coordinate movement determination unit 511 determines that the person has “whole body movement” when the movement amount of the person's center coordinates is equal to or greater than a threshold value set based on the expected value. If the movement amount is less than the threshold, it is determined that the person has not moved the whole body.

ここで、人物動作検出装置1Aの高速人物動作検知制御手段4Aと人物動作検出部51の間で、ゲームの内容や進行状況に応じて、アプリケーションプロセッサ5Aが必要とする距離情報に対してのみ信号処理を限定するように、ホストインターフェイス部42を介して情報のやり取りを行ってもよい。即ち、アプリケーションプロセッサ5Aのゲームプログラム側では、ゲームの内容や進行状況に応じて、対象物体Aである人物が動作を行うことを期待する時刻(以下、期待時刻)や、人物が存在することを期待する空間(以下、期待存在空間)、および人物が動作することを期待する空間(以下、期待動作変化)の情報を持っている。   Here, only the distance information required by the application processor 5A is signaled between the high-speed human motion detection control means 4A and the human motion detector 51 of the human motion detector 1A according to the game content and progress. Information may be exchanged via the host interface unit 42 so as to limit processing. That is, on the game program side of the application processor 5A, the time at which the person who is the target object A expects to perform an action (hereinafter, the expected time) or the presence of the person is determined according to the content and progress of the game. It has information on an expected space (hereinafter, an expected existence space) and a space where a person is expected to operate (hereinafter, an expected motion change).

次に、図23に示すフローチャートを参照して、図22の高速人物動作検出装置1Aの高精度な人物動作検知処理について説明する。   Next, with reference to the flowchart shown in FIG. 23, the highly accurate human motion detection process of the high-speed human motion detector 1A of FIG. 22 will be described.

図23に示すように、まず、ステップS11において、電源の投入または遊具装置11Aのゲームプログラムからの動作開始の指示などにより、高速人物動作検知制御手段4Aは、発光手段2や受光手段3を用いて、例えば1秒間に120枚程度のフレームレートで距離フレームを取得する。   As shown in FIG. 23, first, in step S11, the high-speed human motion detection control unit 4A uses the light emitting unit 2 or the light receiving unit 3 in accordance with an instruction to turn on the power or start an operation from the game program of the playground equipment 11A. For example, distance frames are acquired at a frame rate of about 120 frames per second.

次に、ステップS12で、高速人物動作検知制御手段4Aが、所定のタイミングで、距離フレーム毎のフレーム差分を求める動作を開始する。   Next, in step S12, the high-speed human motion detection control unit 4A starts an operation for obtaining a frame difference for each distance frame at a predetermined timing.

ステップS13で、上記フレーム差分(RFsubRF)が、設定された閾値未満であるかどうかが判定される。上記フレーム差分(RFsubRF)が、設定された閾値未満であるとき、ステップS14で、距離変位検出部44は「距離変位がない」と判定する。また、上記フレーム差分(RFsubRF)が、設定された閾値以上であるとき、ステップS15で、距離変位検出部44は「距離変位有り」と判定し、その後、ステップS11の距離フレーム取得処理に戻る。   In step S13, it is determined whether or not the frame difference (RFsubRF) is less than a set threshold value. When the frame difference (RFsubRF) is less than the set threshold value, the distance displacement detection unit 44 determines that “there is no distance displacement” in step S14. If the frame difference (RFsubRF) is greater than or equal to the set threshold value, the distance displacement detection unit 44 determines that “distance displacement is present” in step S15, and then returns to the distance frame acquisition process in step S11.

さらに、ステップS14で、距離変位検出部44により「距離変位がない」と判定された状態が、所定の時間以上または所定のフレーム枚数以上継続した場合、距離平衡状態判定部45は投射光の投射空間が距離平衡状態にあると判定する。   Furthermore, when the state determined as “no distance displacement” by the distance displacement detection unit 44 in step S14 continues for a predetermined time or more or a predetermined number of frames, the distance equilibrium state determination unit 45 projects the projection light. It is determined that the space is in a distance equilibrium state.

その後、ステップS16で、距離平衡状態判定部45は投射光の投射空間が距離平衡状態にあると判定すると、距離平衡フレーム生成部432は、少なくとも1つの距離フレームの時間平均をとり、距離平衡フレームを生成する。   Thereafter, in step S16, when the distance balanced state determination unit 45 determines that the projection space of the projection light is in the distance balanced state, the distance balanced frame generation unit 432 takes a time average of at least one distance frame to obtain the distance balanced frame. Is generated.

さらに、ステップS17において、フレーム差分演算部46が、距離フレームと距離平衡フレームの間のフレーム差分演算を行う。距離変位がない領域はフレーム差分演算により相殺され距離変位がある領域のみが残っている。   Further, in step S17, the frame difference calculation unit 46 performs a frame difference calculation between the distance frame and the distance balanced frame. The area without the distance displacement is canceled by the frame difference calculation, and only the area with the distance displacement remains.

このように、この距離平衡フレーム生成方法に従って、距離平衡フレーム(BRF)を求め(ステップS16)、N番目の距離フレームと距離平衡フレームとの差分(RFsubBRF)を演算する(ステップS17)ことにより、距離が平衡状態にある、即ち距離変化のない背景情報から、対象物体Aである人物を切り出して検出することができる。   Thus, according to the distance balanced frame generation method, the distance balanced frame (BRF) is obtained (step S16), and the difference (RFsubBRF) between the Nth distance frame and the distance balanced frame is calculated (step S17). The person who is the target object A can be cut out and detected from the background information in which the distance is in an equilibrium state, that is, the distance does not change.

ここまでは、図9のステップS17のフレーム差分演算(RFsubRF)までのステップと同様であるが、ステップS17以降のステップを追加することにより、対象物体Aである人物の身体の全体が移動したかどうかを判定することができる。
即ち、フレーム差分演算処理に続くステップS21において、高速人物動作検知制御手段4Aの中心座標検出部47は、N番目の距離フレームについて、検出した人物の距離情報から中心座標を求める。中心座標とは、例えば、検出した人物の身体全体の距離情報から重心座標を求めてもよく、検出した人物の全身のX,Y,Z座標の最大値および最小値からそれぞれ中点座標を求めてもよく、検出した人物の輪郭の各点からの距離の和が最小になる点の座標を求めてもよい。これと同様に、次のN+1番目の距離フレームについても同様に中心座標を求め、N番目とN+1番目の距離フレーム間の中心座標の移動量を求める。例えば、テニスゲームにおいてボールの返球位置に人物が移動するために、人物が投射光の投射空間を前後左右に移動すると、人物の中心座標は距離フレーム間で移動するため、人物の身体がどこからどこに移動したのか、演算が簡易で演算量の少ない指標値とすることができる。
The steps up to this point are the same as the steps up to the frame difference calculation (RFsubRF) in step S17 in FIG. 9, but whether the whole body of the person who is the target object A has moved by adding steps after step S17. Whether it can be determined.
That is, in step S21 following the frame difference calculation process, the center coordinate detection unit 47 of the high-speed person motion detection control unit 4A obtains center coordinates from the detected person distance information for the Nth distance frame. For example, the center coordinates may be obtained by determining the center-of-gravity coordinates from the distance information of the whole body of the detected person, and the center point coordinates are obtained from the maximum and minimum values of the X, Y, Z coordinates of the whole body of the detected person. Alternatively, the coordinates of the point that minimizes the sum of the distances from the points of the detected contour of the person may be obtained. Similarly, the center coordinates are similarly obtained for the next N + 1th distance frame, and the movement amount of the center coordinates between the Nth and N + 1th distance frames is obtained. For example, in a tennis game, when a person moves to the ball return position, if the person moves back and forth and right and left in the projection space of the projection light, the center coordinates of the person move between distance frames, so where the person's body moves from where It is possible to obtain an index value that is simple in calculation and has a small amount of calculation.

さらに、ステップS22において、中心座標の移動量の情報は、ホストインターフェイス部42を介してアプリケーションプロセッサ5Aに渡される。ゲームプログラム側では、ゲーム内容に応じて人物がどこにどの程度移動すべきか期待値を持っており、アプリケーションプロセッサ5Aの人物動作検知部51Aは、人物の中心座標の移動量を期待値と比較する。   Further, in step S22, the information on the movement amount of the center coordinate is passed to the application processor 5A via the host interface unit. On the game program side, there is an expected value where and how much the person should move according to the game content, and the person motion detection unit 51A of the application processor 5A compares the movement amount of the center coordinates of the person with the expected value.

その人物の中心座標の移動量が期待値から設定した閾値以上であった場合、次のステップS23で、中心座標移動判定部511は、対象物体Aである人物が単に手足を動かしただけでなく「全身移動があった」と判定する。一方、人物の中心座標の移動量が閾値未満であった場合、ステップS24で、中心座標移動判定部511は人物の「全身移動がなかった」と判定する。このようにして、対象物体Aである人物の身体の全体が移動したかどうかを判定することができる。   If the movement amount of the central coordinate of the person is equal to or greater than the threshold value set from the expected value, in the next step S23, the central coordinate movement determination unit 511 not only moves the limb of the person who is the target object A. It is determined that “the whole body has moved”. On the other hand, if the movement amount of the central coordinate of the person is less than the threshold value, the central coordinate movement determination unit 511 determines that “the whole body has not moved” in step S24. In this way, it is possible to determine whether or not the whole body of the person who is the target object A has moved.

(実施形態4)
上記実施形態3では、対象物体Aである人物の身体全体が移動したかどうかを判定する方法について説明したが、本実施形態4では、人物動作の検出において、上記実施形態3の中心座標演算処理以降のステップを追加することにより、距離フレーム間の距離変位が身体のどの部分に該当するかを判定する方法について説明する。
(Embodiment 4)
In the third embodiment, the method for determining whether or not the whole body of the person who is the target object A has moved has been described. However, in the fourth embodiment, the central coordinate calculation process of the third embodiment is used in the detection of the human motion. A method for determining which part of the body the distance displacement between the distance frames corresponds to by adding the subsequent steps will be described.

図24は、本発明の実施形態4に係る遊具装置の要部構成例を示すブロック図である。なお、図1および図5の構成部材と同様の作用効果を奏する構成部材には同一の符号を付して説明する。   FIG. 24 is a block diagram illustrating a configuration example of a main part of a playground equipment according to Embodiment 4 of the present invention. In addition, the same code | symbol is attached | subjected and demonstrated to the structural member which show | plays the effect similar to the structural member of FIG. 1 and FIG.

図24において、本実施形態4の遊具装置11Bは、対象物体Aまでの距離Lを複数点で立体的に求める人物動作検出装置1Bと、ゲームプログラムの実行や人物動作検出装置1Aとの距離情報のやり取りなどゲーム進行に必要な各種制御を行うアプリケーションプロセッサ5Bとを有している。   In FIG. 24, the playground equipment 11B of the fourth embodiment includes distance information between the person motion detection device 1B that three-dimensionally calculates the distance L to the target object A from a plurality of points, and the execution of the game program and the person motion detection device 1A. And an application processor 5B that performs various controls necessary for the progress of the game, such as exchange of information.

人物動作検出装置1Bは、上記実施形態1、2の人物動作検出装置1の構成に中心座標検出部47Bをさらに有している。   The human motion detection device 1B further includes a central coordinate detection unit 47B in the configuration of the human motion detection device 1 of the first and second embodiments.

中心座標検出部47Bは、N番目の距離フレームとN+1番目の距離フレームについて、その検出した人物の距離情報から各中心座標を求め、N番目とN+1番目の距離フレーム間の中心座標の移動量を求めると共に、距離フレーム間の差分演算で求めた距離変位と、距離フレームと距離平衡フレーム間のフレーム差分演算で求めた中心座標から、距離変位と中心座標の相対位置を演算する。   The center coordinate detection unit 47B obtains each center coordinate from the detected person distance information for the Nth distance frame and the N + 1th distance frame, and calculates the movement amount of the center coordinates between the Nth and N + 1th distance frames. In addition, the relative position between the distance displacement and the center coordinate is calculated from the distance displacement obtained by the difference calculation between the distance frames and the center coordinate obtained by the frame difference calculation between the distance frame and the distance balanced frame.

アプリケーションプロセッサ5Bは、この人物の動作情報の3次元空間座標に基づいて、人物の動作をゲーム内の登場人物の動作やイベントの発生に反映させるなどゲーム内容を制御してゲームを進行させる。   The application processor 5B advances the game by controlling the game content based on the three-dimensional spatial coordinates of the movement information of the person, such as reflecting the movement of the person in the movement of the characters in the game and the occurrence of an event.

アプリケーションプロセッサ5Bの人物動作検出部51Bは、連続して取得される距離フレーム間の中心座標の移動量と、ゲーム内の期待値とを比較して、中心座標移動判定手段としての中心座標移動判定部511は、人物の中心座標の移動量が期待値から設定した閾値以上であった場合には人物の「全身移動があった」と判定し、また、人物の中心座標の移動量が閾値未満であった場合には人物の「全身移動がなかった」と判定する。   The human motion detection unit 51B of the application processor 5B compares the amount of movement of the center coordinates between the distance frames acquired successively with the expected value in the game, and determines the center coordinate movement as the center coordinate movement determination means. The unit 511 determines that the person has “whole body movement” when the movement amount of the central coordinates of the person is equal to or greater than the threshold set from the expected value, and the movement amount of the central coordinates of the person is less than the threshold If it is, it is determined that the person has not moved.

また、アプリケーションプロセッサ5Bの人物動作検出部51Bは、中心座標と距離フレーム差分の距離変位の相対的な位置関係から、動作した人物の身体部位を判定する身体部位判定手段としての身体部位判定部512を有している。身体部位判定部512は、その判定結果としての身体部位が存在する時刻、空間領域および動作変化のうちの少なくともいずれかと期待値とを比較して、身体部位が存在する時刻、空間領域および動作変化のうちの少なくともいずれかが期待値と一致する場合は身体部位に「期待動作があった」と判定し、また、身体部位が存在する時刻、空間領域および動作変化のうちの少なくともいずれかが期待値と不一致の場合は身体部位に「期待動作がなかった」と判定する。要するに、身体部位判定部512は、中心座標と距離変位の座標の相対的な位置関係から、対象物体Aである人物の身体のどの部分が動作したのかを判定する。   In addition, the human motion detection unit 51B of the application processor 5B has a body part determination unit 512 as a body part determination unit that determines the body part of the person who has operated based on the relative positional relationship between the center coordinate and the distance displacement of the distance frame difference. have. The body part determination unit 512 compares the expected value with at least one of the time when the body part exists as a result of the determination, the spatial region, and the action change, and the time, the spatial region, and the action change when the body part exists. If at least one of the values matches the expected value, it is determined that the body part has “expected motion”, and at least one of the time, space region, and motion change at which the body part exists is expected. If the values do not match, the body part is determined to have “no expected motion”. In short, the body part determination unit 512 determines which part of the body of the person that is the target object A has moved from the relative positional relationship between the center coordinates and the coordinates of the distance displacement.

ゲームプログラム側では、ゲーム内容に応じて人物が動作するべき身体部位が何であるか、期待値を持っており、身体の中心部に位置する中心座標と比較して、例えば、距離フレーム間の距離変位が中心座標より右上(水平方向および垂直方向のXY座標方向)であれば右腕の動作、左上であれば左腕の動作、右下であれば右足の動作、左下であれば左足の動作であると判定する。身体部位判定部512の判定結果が上記期待値と一致する場合は「期待動作があった」と判定し、また、身体部位判定部512の判定結果が上記期待値と不一致の場合は「期待動作がなかった」と判定する。   On the game program side, there is an expected value as to what body part the person should move according to the game content, and compared with the center coordinates located at the center of the body, for example, the distance between distance frames If the displacement is in the upper right (horizontal and vertical XY coordinate directions) from the center coordinates, it is the right arm movement, the upper left is the left arm movement, the lower right is the right leg movement, and the lower left is the left leg movement. Is determined. If the determination result of the body part determination unit 512 matches the expected value, it is determined that “there is an expected action”. If the determination result of the body part determination unit 512 does not match the expected value, the “expected action” is determined. It was determined that there was no.

ここで、人物動作検出装置1Bの高速人物動作検知制御手段4Bと人物動作検出部51Bの間で、ゲームの内容や進行状況に応じて、アプリケーションプロセッサ5Bが必要とする距離情報に対してのみ信号処理を限定するように、ホストインターフェイス部42を介して情報のやり取りを行ってもよい。即ち、アプリケーションプロセッサ5Bのゲームプログラム側では、ゲームの内容や進行状況に応じて、対象物体Aである人物が動作を行うことを期待する時刻(以下、期待時刻)や、人物が存在することを期待する空間(以下、期待存在空間)、および人物が動作することを期待する空間(以下、期待動作変化)の情報を持っている。   Here, only the distance information required by the application processor 5B is signaled between the high-speed human motion detection control unit 4B and the human motion detector 51B of the human motion detector 1B according to the content and progress of the game. Information may be exchanged via the host interface unit 42 so as to limit processing. That is, on the game program side of the application processor 5B, the time at which the person who is the target object A expects to perform an action (hereinafter referred to as the expected time) and the presence of the person according to the content and progress of the game. It has information on an expected space (hereinafter, an expected existence space) and a space where a person is expected to operate (hereinafter, an expected motion change).

次に、図25に示すフローチャートを参照して、図24の高速人物動作検出装置1Bの高精度な人物動作検知処理について説明する。なお、ここでは、図23に示すフローチャートのステップと同一の作用効果を奏するステップには同一の符号を付してその説明を省略する。
人物動作の検出において、上記実施形態3の中心座標演算処理以降のステップを追加することにより、距離フレーム間の距離変位が身体のどの部分に該当するかを判定することができる。
Next, with reference to the flowchart shown in FIG. 25, the highly accurate human motion detection process of the high-speed human motion detector 1B of FIG. 24 will be described. Here, steps having the same effects as the steps of the flowchart shown in FIG. 23 are denoted by the same reference numerals, and description thereof is omitted.
In the detection of the human motion, it is possible to determine which part of the body the distance displacement between the distance frames corresponds to by adding the steps after the central coordinate calculation process of the third embodiment.

即ち、ステップS12において、距離フレーム間の差分演算(RFsubRF)で求めた距離変位と、ステップS21において、距離フレームと距離平衡フレーム間のフレーム差分演算(RFsubBRF)で求めた中心座標から、ステップS31において、距離変位と中心座標の相対位置を演算する。
ステップS21で求めた距離フレーム間の中心座標の移動量がホストインターフェイス部42を介してアプリケーションプロセッサ5Bに渡されるのと同様に、ステップS12で求めた距離変位とその中心座標の相対位置がステップS31で演算され、その求められた距離変位と中心座標の相対位置がホストインターフェイス部42を介してアプリケーションプロセッサ5Bに渡される。ゲームプログラム側では、ゲーム内容に応じて人物がどの方向にどの程度移動すべきかの期待値を持っている。
アプリケーションプロセッサ5Bにおいて、まず、ステップ22で、人物の身体の全体が移動したかどうかに関して、上記実施形態3の場合と同様に、中心座標の移動量を期待値と比較する。
That is, in step S31, the distance displacement obtained by the difference calculation (RFsubRF) between the distance frames in step S12 and the central coordinates obtained by the frame difference calculation (RFsubBRF) between the distance frame and the distance balanced frame in step S21. Calculate the relative position of the distance displacement and center coordinates.
In the same manner as the movement amount of the center coordinate between the distance frames obtained in step S21 is passed to the application processor 5B via the host interface unit 42, the distance displacement obtained in step S12 and the relative position of the center coordinate are determined in step S31. The relative distance between the obtained distance displacement and center coordinates is passed to the application processor 5B via the host interface unit 42. On the game program side, there is an expected value of how much the person should move in which direction according to the game content.
In the application processor 5B, first, in step 22, as to whether or not the entire body of the person has moved, the movement amount of the center coordinates is compared with the expected value as in the case of the third embodiment.

さらに、上記実施形態3の場合と同様に、中心座標の移動量が期待値から設定した閾値以上であった場合、ステップS23で、中心座標移動判定部511は、対象物体Aである人物が単に手足を動かしただけでなく人物の「全身移動があった」と判定する。一方、中心座標の移動量が閾値未満であった場合、ステップS24で、中心座標移動判定部511は人物の「全身移動がなかった」と判定する。これによって、対象物体Aである人物の身体の全体が移動したかどうかを判定することができる。   Further, as in the case of the third embodiment, when the movement amount of the center coordinates is equal to or larger than the threshold set from the expected value, the center coordinate movement determination unit 511 simply determines that the person who is the target object A is the target object A in step S23. In addition to moving the limbs, it is determined that the person has “whole body movement”. On the other hand, if the movement amount of the center coordinates is less than the threshold value, in step S24, the center coordinate movement determination unit 511 determines that “the whole body has not moved”. Thereby, it can be determined whether or not the whole body of the person who is the target object A has moved.

次に、ステップ32で、身体部位判定部512は、上記中心座標と上記距離変位の座標の相対的な位置関係から、対象物体Aである人物の身体のどの部分が動作したのかを判定することができる。即ち、ゲームプログラム側では、ゲーム内容に応じて人物が動作するべき身体部位が何であるか、期待値を持っており、身体の中心部に位置する中心座標と比較して、例えば、距離フレーム間の距離変位が中心座標より右上(水平方向および垂直方向のXY座標方向)であれば右腕の動作、左上であれば左腕の動作、右下であれば右足の動作、左下であれば左足の動作であると判定する。   Next, in step 32, the body part determination unit 512 determines which part of the body of the person that is the target object A has moved, based on the relative positional relationship between the center coordinates and the distance displacement coordinates. Can do. That is, the game program side has an expected value as to what body part the person should move according to the game content, and compared with the center coordinates located at the center of the body, for example, between the distance frames If the distance displacement is right upper than the center coordinates (horizontal and vertical XY coordinate directions), the right arm moves, the upper left moves the left arm, the lower right moves the right foot, and the lower left moves the left foot. It is determined that

身体部位判定部512の判定結果が上記期待値と一致する場合は、ステップ33で「期待動作があった」と判定する。一方、身体部位判定部512の判定結果が上記期待値と不一致の場合は、ステップ34で「期待動作がなかった」と判定する。このようにして、距離フレーム間の距離変位が身体のどの部分に該当するかを判定することができる。
このように、距離フレーム間の距離変位が身体のどの部分に該当するかを判定する本実施形態4の方法は、従来の関節などの特徴点から人物の骨格を抽出することにより人物の全身をモデル化する方法と比べて演算量が大幅に少なく、要求されるフレームレートが高いテレビゲーム機などの遊具装置に適している。
When the determination result of the body part determination unit 512 matches the expected value, it is determined in step 33 that “there is an expected motion”. On the other hand, if the determination result of the body part determination unit 512 does not match the expected value, it is determined in step 34 that “the expected motion has not occurred”. In this way, it is possible to determine to which part of the body the distance displacement between the distance frames corresponds.
As described above, the method according to the fourth embodiment for determining which part of the body the distance displacement between the distance frames corresponds to is obtained by extracting the human skeleton from the feature points such as the conventional joints. Compared to the modeling method, the calculation amount is significantly less, and it is suitable for a play equipment such as a video game machine having a high required frame rate.

(実施形態5)
上記実施形態2では、人物動作検出装置1を、対象物体Aの人物の動作内容に応じてゲームの内容や進行を制御する遊具装置11に用いた場合について説明し、上記実施形態3では、対象物体Aである人物の身体全体が移動したかどうかを判定する方法について説明し、上記実施形態4では、距離フレーム間の距離変位が身体のどの部分に該当するかを判定する方法について説明したが、本実施形態5では、上記実施形態2〜4の遊具装置に、衝撃や衝撃音などを発生させて臨場感を得るための体感刺激発生装置を更に有する場合について説明する。
(Embodiment 5)
In the second embodiment, the case where the human motion detection device 1 is used for the playground equipment 11 that controls the content and progress of the game according to the motion content of the person of the target object A will be described. The method for determining whether or not the entire body of the person who is the object A has moved has been described. In the fourth embodiment, the method for determining which part of the body the distance displacement between the distance frames corresponds to has been described. In the fifth embodiment, a case will be described in which the playground equipment according to the second to fourth embodiments further includes a sensation generating device for generating a sense of reality by generating an impact or impact sound.

図26は、本発明の実施形態5に係る遊具装置の要部構成例を示すブロック図である。なお、図1および図5の構成部材と同様の作用効果を奏する構成部材には同一の符号を付して説明する。また、図26は、上記実施形態4の遊具装置11Bに、衝撃や衝撃音などを発生させて臨場感を得るための体感刺激発生装置を更に有する場合を示しているが、上記実施形態2の遊具装置11に体感刺激発生装置を更に有する場合を図27に示し、上記実施形態3の遊具装置11Aに体感刺激発生装置を更に有する場合を図28に示している。ここでは、図26を用いて体感刺激発生装置の一例を説明する。   FIG. 26 is a block diagram illustrating a configuration example of a main part of the playground equipment according to the fifth embodiment of the present invention. In addition, the same code | symbol is attached | subjected and demonstrated to the structural member which show | plays the effect similar to the structural member of FIG. 1 and FIG. FIG. 26 shows a case where the playground equipment 11B of the fourth embodiment further includes a sensation generating device for generating a sense of reality by generating an impact or impact sound. FIG. 27 shows a case where the playground equipment device 11 further includes a bodily sensation stimulation generating device, and FIG. 28 shows a case where the playground equipment device 11A of the third embodiment further includes a bodily sensation stimulation generating device. Here, an example of a sensation generating device will be described with reference to FIG.

図26において、遊具装置11Cのアプリケーションプロセッサ5Cは、ゲームの進行内容において期待値と一致する人物動作があったと判定した場合、人物動作検知部51Cで動作を検知し、無線送信部57(例えばBluetoothを用いた無線通信)または有線を通じて体感刺激発生装置8に体感刺激制御信号を送信する。   In FIG. 26, when the application processor 5C of the playground equipment 11C determines that there is a human motion that matches the expected value in the progress of the game, the human motion detector 51C detects the motion, and the wireless transmitter 57 (for example, Bluetooth) The sensory stimulation control signal is transmitted to the sensory stimulation generating device 8 through a wireless communication using a wireless communication or a wired connection.

体感刺激発生装置8は、無線送信部57からの体感刺激制御信号を受信する無線受信部81と、例えばテニスゲームの場合テニスラケットにボールが当たる衝撃などを発生させる振動発生部82(例えばバイブレータ)と、発光させる発光部83(例えばLED)と、例えばテニスゲームの場合テニスラケットにボールが当たる衝撃音などを発生させる音声出力部84(例えばスピーカ)と、香りを発生させる香り発生部85(例えば香りを発する物体を封入した扉の開閉)とを有しており、受信した信号に応じて体感刺激発生装置8の筐体に振動や衝撃を発生させたり、発光させたり、衝突音などの音声を出力させたり、香りを発生させたりする。これによって、体感刺激発生装置8を保持する人物(対象物体Aである人物)は、ゲーム内容と自身の操作内容に応じたフィードバックを得て臨場感を得ることができる。要するに、体感刺激発生装置8は、振動、光、音声および香りの少なくともいずれかを発生させるようになっている。   The bodily sensation generating device 8 includes a wireless receiving unit 81 that receives the bodily sensation stimulation control signal from the wireless transmission unit 57, and a vibration generating unit 82 (for example, a vibrator) that generates an impact such as a ball hitting a tennis racket in the case of a tennis game. A light emitting unit 83 (for example, LED) that emits light, an audio output unit 84 (for example, a speaker) that generates an impact sound such as a ball hitting a tennis racket in the case of a tennis game, and a scent generating unit 85 (for example, that generates a scent) A door that encloses an object that emits a scent), and in response to the received signal, the housing of the sensation generator 8 generates vibrations or shocks, emits light, or sounds such as a collision sound. To generate a scent. Thereby, the person (person who is the target object A) holding the bodily sensation stimulus generating device 8 can obtain a sense of reality by obtaining feedback according to the game contents and the operation contents of the person. In short, the bodily sensation stimulus generating device 8 generates at least one of vibration, light, sound, and scent.

ここで、体感刺激発生装置8をラケットに見立てたテニスゲームを一例に説明する。   Here, a tennis game in which the sensation stimulus generator 8 is regarded as a racket will be described as an example.

体感刺激発生装置8であるラケットがボールに当たるときに、中心座標検出部47Bが、検出した人物の距離情報から中心座標を求め、さらに、距離フレーム間の中心座標の移動量を求める、距離フレーム間の差分演算で求めた距離変位と、距離フレームと距離平衡フレーム間のフレーム差分演算で求めた中心座標から、距離変位と中心座標の相対位置を演算する。次に、アプリケーションプロセッサ5Cの人物動作検出部51Bは、連続して取得される距離フレーム差分の距離変位と中心座標の相対的位置とゲーム内の期待値とを比較して、身体部位判定部512は、中心座標と距離変位の座標の相対的な位置関係から、対象物体Aである人物の身体のどの部分、ここでは右手にラケットを持っているので、人物の右手と共にラケットが動作したのかどうかを判定する。   When the racket which is the sensation generating device 8 hits the ball, the center coordinate detection unit 47B obtains the center coordinate from the detected distance information of the person and further obtains the movement amount of the center coordinate between the distance frames. The relative position between the distance displacement and the center coordinates is calculated from the distance displacement obtained by the difference calculation of the distance and the center coordinates obtained by the frame difference calculation between the distance frame and the distance balance frame. Next, the human motion detection unit 51B of the application processor 5C compares the distance displacement of the distance frame difference acquired successively, the relative position of the center coordinates, and the expected value in the game, and the body part determination unit 512 Indicates that, based on the relative positional relationship between the center coordinates and the distance displacement coordinates, the target object A has a racket in the body of the person, here the right hand. Determine.

ゲームプログラム側では、ゲーム内容に応じて人物が動作するべき身体部位、右手およびラケットに対する期待値を持っており、身体部位判定部512の判定結果が上記期待値と一致する場合は「期待動作があった」と判定し、また、身体部位判定部512の判定結果が上記期待値と不一致の場合は「期待動作がなかった」と判定する。この場合、期待値は、人物動作において身体部位が存在する時刻、空間領域および動作変化のうちの少なくともいずれかに関する期待値である。   On the game program side, there are expected values for the body part, right hand, and racket that the person should act on according to the game content, and if the determination result of the body part determination unit 512 matches the expected value, If the determination result of the body part determination unit 512 does not match the expected value, it is determined that there was no expected action. In this case, the expected value is an expected value related to at least one of the time when the body part is present in the human motion, the spatial region, and the motion change.

身体部位判定部512が「期待動作があった」と判定した場合、即ち、ラケットがボールに当たった瞬間、アプリケーションプロセッサ5Cは、ゲームの進行内容において期待値と一致する人物動作(ラケットを振る動作)があったと判定した場合、人物動作検知部51Bで動作を検知し、アプリケーションプロセッサ5Cから無線送信部57を通じて体感刺激発生装置8に体感刺激制御信号を送信する。   When the body part determination unit 512 determines that “there is an expected motion”, that is, at the moment when the racket hits the ball, the application processor 5C performs a human motion (a motion to swing the racket) that matches the expected value in the progress of the game. ), The human motion detection unit 51B detects the motion, and transmits a bodily sensation stimulus control signal from the application processor 5C to the bodily sensation stimulus generation device 8 through the wireless transmission unit 57.

体感刺激発生装置8では、無線送信部57からの体感刺激制御信号を無線受信部81で受信すると、内部の振動発生部82を用いて体感刺激発生装置8の筐体を、ボールが当たった衝撃を受けたように振動させたり、音声出力部84を用いてボールが当たった衝突音を発生させたりする。   In the bodily sensation generating device 8, when the bodily sensation stimulation control signal from the wireless transmission unit 57 is received by the wireless receiving unit 81, the impact of the ball hitting the housing of the bodily sensation generating device 8 using the internal vibration generating unit 82. The voice output unit 84 is used to generate a collision sound that hits the ball.

これによって、ラケットである体感刺激発生装置8を保持する人物は、ラケットにボールが当たる瞬間の衝撃を手で感じることができる。また、音声もテレビジョンのスピーカから聞こえてくるのではなく、手に保持した体感刺激装置8から聞こえてくるため、より現実のテニスに近い操作感および臨場感を得ることができる。なお、ボールの速さやボールの飛ぶ向き、ラケットのスウィングスピード、衝突のタイミングのずれの有無などに応じて、振動や音声の強弱、長さ、リズムなどを変化させてもよい。   Thereby, the person holding the sensation generating device 8 which is a racket can feel the impact at the moment when the ball hits the racket by hand. Further, since the sound is not heard from the television speaker but from the sensation stimulating device 8 held in the hand, it is possible to obtain an operational feeling and a sense of reality that are closer to real tennis. It should be noted that the vibration, voice strength, length, rhythm, and the like may be changed according to the speed of the ball, the direction in which the ball flies, the swing speed of the racket, the presence or absence of a shift in the timing of the collision, and the like.

本実施形態5の体感刺激発生装置8は、従来のテレビゲーム機などの遊具装置11Cにおけるリモートコントローラに相当する。ただし、ユーザの操作を制御信号として遊具装置11Cに無線送信するものに限らず、遊具装置11Cからの制御信号を受信する機能専用のものであってもよい。   The bodily sensation stimulus generation device 8 according to the fifth embodiment corresponds to a remote controller in a playground equipment 11C such as a conventional video game machine. However, it is not limited to a function that wirelessly transmits a user's operation as a control signal to the playground equipment 11C, but may be dedicated to a function that receives a control signal from the playground equipment 11C.

従来の遊具装置のように、リモートコントローラ内部に搭載した加速度センサや角速度センサにより人物動作を検出する場合、上記のようにゲーム内容に応じて、リモートコントローラ内部に搭載したバイブレータなどの振動発生装置によりリモートコントローラを振動させることができなかった。これは、加速度センサや角速度センサでは、人物の動作とリモートコントローラの振動の区別ができないため、振動させた場合、目的とする人物動作のみを検出することができなくなるためである。本実施形態5では、体感刺激発生装置8の外部の人物動作検知装置1、1Aまたは1Bのみで人物動作を検知しているため、体感刺激発生装置8を振動させても上記課題は生じない。スポーツなどの体感型ゲームにおいて、ユーザへの触覚によるフィードバックは視覚や聴覚と同様に重要であり、ユーザの操作感を大きく向上させることができる。   When a human motion is detected by an acceleration sensor or an angular velocity sensor mounted inside a remote controller as in a conventional playground equipment device, depending on the game content, a vibration generator such as a vibrator mounted inside the remote controller as described above. The remote controller could not be vibrated. This is because the acceleration sensor and the angular velocity sensor cannot distinguish between the human motion and the vibration of the remote controller, and therefore, when it is vibrated, only the intended human motion cannot be detected. In the fifth embodiment, since the human motion is detected only by the human motion detector 1, 1 </ b> A, or 1 </ b> B outside the bodily sensation stimulus generator 8, the above problem does not occur even if the bodily sensation stimulus generator 8 is vibrated. In bodily sensation-type games such as sports, feedback by tactile sensation to the user is as important as visual and auditory senses, and can greatly improve the user's operational feeling.

なお、上記テニスゲームを例にした説明では、ユーザがラケットとしての体感刺激発生装置8を手に保持する場合について説明したが、体感刺激発生装置8を手に保持する場合に限らず、振動であれば、身体のどの部分で保持していてもよく、光、音声、香りであればユーザが感知できる範囲に設置してあればよい。また、体感刺激発生装置8は、振動、光、音声および香りの少なくともいずれかを発生させるが、テニスゲームで「振動」は衝撃の代わりに用い「音声」はボールを打つときの衝撃音の代わりに用い、これ以外の「光」の事例については、LEDを光らせるなど、例えば「刀」同士が衝突したときの火花の代わりに刀の一部または全部を光らせるようにすることができるし、また、「香り」の事例としては、薬品をヒータで熱するなどして各種の「香り」を発生させることができるし、例えばピストルで玉を撃った後の薬莢のにおいの代わり用いることができる。   In the above description of the tennis game as an example, the case where the user holds the sensation stimulus generating device 8 as a racket in the hand has been described. If it exists, it may be held in any part of the body, and it may be installed in a range that can be sensed by the user if it is light, voice, or scent. The sensory stimulation generator 8 generates at least one of vibration, light, voice, and scent. In the tennis game, “vibration” is used instead of impact, and “sound” is used instead of the impact sound when the ball is hit. For other “light” cases, for example, the LED can be lit, for example, a part or all of the sword can be made to shine instead of the spark when the “swords” collide with each other. As an example of “scent”, various “scents” can be generated by heating a medicine with a heater, and for example, it can be used in place of the smell of a shell after shooting a ball with a pistol.

以上により、上記実施形態1〜5によれば、対象物体Aまでの距離Lに相当した光の飛行時間(遅れ時間)に依存して分配された信号電荷をそれぞれ二つの画素出力電極V1,V2から出力し、その信号電荷はそれぞれ距離Lに応じた出力電圧情報に変換されて、TOF式距離画像センサ31から距離情報として出力される。このTOF式距離画像センサ31からの距離情報に基づいて、既知の光速をcとして、光の飛行時間(遅れ時間)Tを検出して、L=(1/2)・c・Tから対象物体Aまでの距離Lを求め、これに基づいて、投射光の投射空間の対象物体Aまでの距離変位を検出する距離変位検出手段44と、投射空間が距離平衡状態にあるかどうかを判定する距離平衡判定手段45とを有しており、フレーム差分(RFsubBRF)によって、対象物体Aである人物が動作したかどうかを検出する。これによって、多数の空間領域を面状に演算処理する場合に、高いフレームレートでもであっても従来の距離画像センサのように演算量が膨大にならず、撮像範囲における人物の動作の検出をリアルタイムに行うと共に、撮像範囲における人物動作の方向と距離の変化量の検出精度を高精度に検出することができる。   As described above, according to the first to fifth embodiments, the signal charges distributed depending on the flight time (delay time) of the light corresponding to the distance L to the target object A are two pixel output electrodes V1 and V2, respectively. The signal charges are converted into output voltage information corresponding to the distance L and output from the TOF distance image sensor 31 as distance information. Based on the distance information from the TOF type distance image sensor 31, the light flight time (delay time) T is detected with the known speed of light as c, and the target object is obtained from L = (1/2) · c · T. The distance L to A is obtained, and based on this, the distance displacement detecting means 44 for detecting the distance displacement of the projection light to the target object A in the projection space and the distance for determining whether or not the projection space is in the distance equilibrium state The balance determination means 45 is included, and it is detected whether or not the person who is the target object A has operated based on the frame difference (RFsubBRF). As a result, when a large number of spatial regions are processed in a plane, the amount of calculation is not enormous, unlike the conventional distance image sensor, even at a high frame rate. In addition to performing in real time, it is possible to detect with high accuracy the detection accuracy of the direction of human motion and the amount of change in distance in the imaging range.

この高精度で計算的に安価な人物動作の検出により、テレビゲームなどの遊具装置11および11A〜11Eのゲーム内容や進行状況の制御をリアルタイムに行うことができて、遊具装置11および11A〜11Eの操作性の向上を図ることができる。   By detecting this highly accurate and computationally inexpensive human action, the game contents and progress of the playground equipment 11 and 11A-11E such as a video game can be controlled in real time, and the playground equipment 11 and 11A-11E. The operability can be improved.

また、従来の遊具装置において利用されていたゲームコントローラを利用することなく人物動作検知装置1,1Aまたは1Bが用いられ、人物動作検知装置1,1Aまたは1Bを用いて立体的な人物動作が検知され、当該人物動作の検知結果と期待値との比較処理が行わて、振動、光、音声および香りの少なくともいずれかを発生させる体感刺激発生装置を駆動させることにより、ゲームコントローラを用いないでゲームを行うことが可能となった。これにより、ゲームコントローラ作成にかかる費用が不要になり、更に、ゲームコントローラを指で押したりする操作が不要となるため、現実のスポーツなどに操作感が近いゲームを実現できることや、ゲームを通じて現実のスポーツなどでの技術の向上を期待することもできる。   Further, the person motion detection device 1, 1A or 1B is used without using the game controller used in the conventional playground equipment, and the three-dimensional human motion is detected using the person motion detection device 1, 1A or 1B. A game is performed without using a game controller by driving a sensory stimulus generator that generates at least one of vibration, light, voice, and scent by performing a comparison process between the detection result of the person motion and the expected value. It became possible to do. This eliminates the expense of creating a game controller, and further eliminates the need to press the game controller with your finger. We can expect improvement of technique in sports.

なお、上記実施形態2〜5では、本発明の人物動作検出装置1、1Aまたは1Bを、その人物動作に応じてゲーム内容や進行状況を制御する遊具装置11および11A〜11Eなどに用いた場合について説明したが、これに限らず、リアルタイムで3次元空間の人物動作情報を検出する人物動作検出装置1、1Aまたは1Bによる人物動作検出情報を用いて制御できる電子機器であればどのようなものでもよい。   In the second to fifth embodiments, the person motion detection device 1, 1A or 1B of the present invention is used for the playground equipment 11 and 11A to 11E for controlling the game content and progress according to the person motion. However, the present invention is not limited to this, and any electronic device can be used as long as it can be controlled using the human motion detection device 1, 1A, or 1B that detects human motion information in a three-dimensional space in real time. But you can.

なお、上記実施形態2〜5では、特に説明しなかったが、アプリケーションプロセッサ5および5A〜5Eは、人物動作検知部51、51Aおよび51Bの他に各種構成部が配設されており、これについて以下に詳細に説明する。ここでは、上記実施形態2のアプリケーションプロセッサ5により代表して説明する。   Although not particularly described in Embodiments 2 to 5, the application processors 5 and 5A to 5E are provided with various components in addition to the human motion detectors 51, 51A, and 51B. This will be described in detail below. Here, the application processor 5 of the second embodiment will be described as a representative.

図16は、図5のアプリケーションプロセッサ5の要部ハード構成例を示すブロック図である。   FIG. 16 is a block diagram illustrating a hardware configuration example of a main part of the application processor 5 of FIG.

図16において、上記実施形態2のアプリケーションプロセッサ5は、全体の制御を行う制御手段としてのCPU(中央演算処理装置)50と、前述したが、検出しようとする人物の動作の詳細な情報を取得するために、上記連続して取得されるフレーム差分(RFsubRFやRFsubBRF)を比較して、人物の動作領域の位置(距離と方向)、人物の動作の速度ベクトル(動作の速さと方向)、人物の動作の加速度ベクトル(動作の加速度の大きさと方向)などの各種情報を抽出する人物動作検知部51と、人物動作検知部51による人物動作検知情報を用いてゲーム進行に必要な各種制御を行うゲーム実行部52と、CPU50に対して入力指令を行うためのキーボード、マウス、タッチパネルおよびペン入力装置、さらには通信ネットワーク(例えばインターネットやイントラネット)を介して受信入力する入力装置などの操作部53と、表示画面上に、初期画面、選択場面、ゲームプログラムに基づく制御結果画面および操作入力画面などを表示する表示部54と、ゲームプログラムおよびそのデータなどが記憶されたコンピュータ読み出し可能な可読記録媒体としてのROM55と、起動時にゲームプログラムおよびそのデータなどが読み出されて、CPU1による制御毎にデータを読み出し・記憶するワークメモリとして働く記憶部としてのRAM56とを有している。   In FIG. 16, the application processor 5 according to the second embodiment acquires detailed information on the CPU (central processing unit) 50 as a control unit that performs overall control and the action of the person to be detected as described above. Therefore, by comparing the frame differences (RFsubRF and RFsubBRF) acquired continuously, the position (distance and direction) of the person's motion region, the speed vector (speed and direction of motion) of the person, The person motion detection unit 51 that extracts various information such as the motion acceleration vector (the magnitude and direction of motion acceleration), and various controls necessary for the progress of the game using the person motion detection information by the person motion detection unit 51 A game execution unit 52 and a keyboard, mouse, touch panel, and pen input device for inputting commands to the CPU 50, and further communication An operation unit 53 such as an input device that receives and inputs via a network (for example, the Internet or an intranet), and a display unit that displays an initial screen, a selection scene, a control result screen based on a game program, an operation input screen, and the like on the display screen 54, ROM 55 as a computer-readable readable recording medium storing the game program and its data, and the game program and its data are read out at the time of activation, and the data is read and stored for each control by CPU 1 It has RAM56 as a memory | storage part which works as a work memory.

CPU50は、ROM55内に記憶された制御プログラムとしてのゲームプログラムおよびそのデータを装置起動時にRAM56内に読み出して、そのゲームプログラムおよびそのデータ基づいて、人物動作検知部51が、上記連続して取得されるフレーム差分(RFsubRFやRFsubBRF)を比較して、人物の動作領域の位置(距離と方向)、人物の動作の速度ベクトル(動作の速さと方向)、人物の動作の加速度ベクトル(動作の加速度の大きさと方向)などの各種情報を抽出する人物動作検知ステップと、ゲーム実行部52が、人物動作検知部51による人物動作検知情報を用いてゲーム進行に必要な各種制御を行うゲーム実行ステップとを実行するようになっている。   The CPU 50 reads out a game program and its data as a control program stored in the ROM 55 into the RAM 56 when the apparatus is activated, and the person motion detection unit 51 is continuously acquired based on the game program and its data. Frame differences (RFsubRF and RFsubBRF), the position (distance and direction) of the person's motion area, the speed vector (motion speed and direction) of the person's motion, and the acceleration vector (motion acceleration of the motion of the person) A person action detecting step for extracting various information such as size and direction), and a game executing step in which the game executing unit 52 performs various controls necessary for the game progress using the person action detecting information by the person action detecting unit 51. It is supposed to run.

可読記録媒体としてのROM55としては、ハードディスクの他、形態自在な光ディスク、光磁気ディスク、磁気ディスクおよびICメモリなどで構成されていてもよい。このゲームプログラムおよびそのデータなどがROM55に記憶されるが、このゲームプログラムおよびそのデータは、他の可読記録媒体から、または、無線、有線またはインターネットなどを介してROM55にダウンロードされてもよい。   The ROM 55 as a readable recording medium may be composed of a hard disk, a formable optical disk, a magneto-optical disk, a magnetic disk, an IC memory, and the like. Although this game program and its data are stored in the ROM 55, this game program and its data may be downloaded to the ROM 55 from another readable recording medium or via wireless, wired or the Internet.

また同様に、本実施形態1〜5において、図示しない高速人物動作検知制御手段4のCPUは、ROM内に記憶された制御プログラムとしての人物動作検知プログラムおよびそのデータを装置起動時にRAM内に読み出して、その人物動作検知プログラムおよびそのデータに基づいて、タイミング制御部41が、パワーLEDドライバ21およびTOF式距離画像センサ31の各駆動タイミングをそれぞれ制御するタイミング制御ステップと、ホストインターフェイス部42が、ホスト側の遊具装置11などのシステムと交信するためのホストインターフェイスステップと、データフォーマット部43が、TOF式距離画像センサ31からの距離情報(距離に応じた出力電圧情報)に基づく出力データストリームを所定のフォーマットに変換するデータフォーマットステップと、距離変位検出部44が、投射光の投射空間の距離変位を検出する距離変位検出ステップと、距離平衡状態判定部45が、距離変位の有無を判定する距離変位判定ステップと、フレーム差分演算部46が、距離フレームと距離平衡フレームのフレーム差分を求めるフレーム差分演算手段としてのフレーム差分演算ステップとを実行し、受光手段3からの受光情報に基づいて対象物体Aとしての人物の動作情報を検出する。   Similarly, in the first to fifth embodiments, the CPU of the high-speed human motion detection control means 4 (not shown) reads the human motion detection program as a control program stored in the ROM and its data into the RAM when the apparatus is activated. Based on the person motion detection program and the data, the timing control unit 41 controls the drive timing of the power LED driver 21 and the TOF distance image sensor 31, respectively, and the host interface unit 42 A host interface step for communicating with a system such as the playground equipment 11 on the host side, and the data format unit 43 outputs an output data stream based on distance information (output voltage information corresponding to the distance) from the TOF distance image sensor 31. Convert to the specified format A data format step, a distance displacement detection unit 44 that detects a distance displacement in the projection space of the projection light, and a distance equilibrium state determination unit 45 that determines whether or not there is a distance displacement. The frame difference calculation unit 46 executes a frame difference calculation step as a frame difference calculation unit for obtaining a frame difference between the distance frame and the distance balanced frame, and the person as the target object A based on the light reception information from the light receiving unit 3 The operation information of is detected.

このデータフォーマットステップは、ROM内に記憶された制御プログラムとしての人物動作検知プログラムおよびそのデータを装置起動時にRAM内に読み出して、その人物動作検知プログラムおよびそのデータに基づいて、距離フレーム生成部431が、TOF式距離画像センサ31からの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、距離平衡フレーム生成部432が、少なくとも2つの距離フレームに基づいて、人物に距離変化のない距離情報である距離平衡フレーム(背景画像フレーム)を生成する距離平衡フレーム生成ステップとを実行する。   In this data formatting step, the human motion detection program and its data as a control program stored in the ROM are read into the RAM when the apparatus is activated, and the distance frame generation unit 431 is based on the human motion detection program and its data. The distance frame generation step for generating a plurality of distance frames in time series based on the distance information from the TOF type distance image sensor 31 and the distance balanced frame generation unit 432 generate a person based on at least two distance frames. A distance balanced frame generation step of generating a distance balanced frame (background image frame) which is distance information without a distance change is executed.

この場合も、前述したように、可読記録媒体としてのROMとしては、ハードディスクの他、形態自在な光ディスク、光磁気ディスク、磁気ディスクおよびICメモリなどで構成されていてもよい。この人物動作検知プログラムおよびそのデータなどがROMに記憶されるが、この人物動作検知プログラムおよびそのデータは、他の可読記録媒体から、または、無線、有線またはインターネットなどを介して、そのROMにダウンロードされてもよい。   Also in this case, as described above, the ROM as the readable recording medium may be composed of a hard disk, a formable optical disk, a magneto-optical disk, a magnetic disk, an IC memory, and the like. This person motion detection program and its data are stored in the ROM, but this person motion detection program and its data are downloaded to the ROM from another readable recording medium or via wireless, wired or the Internet. May be.

なお、上記実施形態1〜5では、特に説明しなかったが、投射光を出射する発光手段2と、投射光の投射空間からの反射光を受光して、投射空間の人物までの距離に応じた距離情報を複数の受光部からそれぞれ出力するTOF式距離画像センサ31とを有する人物動作検出装置1であって、TOF式距離画像センサ31からの距離情報に基づいて人物の動作情報を検出する高速人物動作検知制御手段4を有している。この高速人物動作検知制御手段4は、TOF式距離画像センサ31からの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成部431と、少なくとも2つの距離フレームに基づいて、人物に距離変化のない距離情報である距離平衡フレーム(背景画像フレーム)を生成する距離平衡フレーム生成部432と、複数の距離フレームについてそれぞれ距離平衡フレームとのフレーム差分を演算し、フレーム差分から人物の動作情報として人物の距離変化量と変化方向を算出するするフレーム差分演算部46とを有している。   Although not particularly described in the first to fifth embodiments, the light emitting means 2 that emits the projection light and the reflected light from the projection space of the projection light are received and the distance to the person in the projection space is determined. A person motion detection device 1 having a TOF distance image sensor 31 that outputs the distance information from a plurality of light receiving units, and detects person motion information based on the distance information from the TOF distance image sensor 31. High-speed human motion detection control means 4 is provided. The high-speed human motion detection control means 4 includes a distance frame generation unit 431 that generates a plurality of distance frames in time series based on distance information from the TOF type distance image sensor 31, and a person based on at least two distance frames. A distance balanced frame generation unit 432 that generates a distance balanced frame (background image frame) that is distance information that does not change in distance, and calculates a frame difference from the distance balanced frame for each of the plurality of distance frames. A frame difference calculation unit 46 that calculates a distance change amount and a change direction of a person as motion information.

これによって、多数の空間領域を面状に演算処理する場合に、高いフレームレートでも演算量が膨大にならず、撮像範囲における人物動作の方向と距離の変化量の検出精度を高精度に検出できる本発明の目的を達成することができる。   As a result, when a large number of spatial regions are subjected to arithmetic processing, the amount of calculation does not become enormous even at a high frame rate, and the detection accuracy of the amount of change in the direction and distance of human motion in the imaging range can be detected with high accuracy. The object of the present invention can be achieved.

以上のように、本発明の好ましい実施形態1〜5を用いて本発明を例示してきたが、本発明は、この実施形態1〜5に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態1〜5の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。本明細書において引用した特許、特許出願および文献は、その内容自体が具体的に本明細書に記載されているのと同様にその内容が本明細書に対する参考として援用されるべきであることが理解される。   As mentioned above, although this invention has been illustrated using preferable Embodiment 1-5 of this invention, this invention should not be limited and limited to this Embodiment 1-5. It is understood that the scope of the present invention should be construed only by the claims. It is understood that those skilled in the art can implement an equivalent range based on the description of the present invention and the common general technical knowledge from the description of specific preferred embodiments 1 to 5 of the present invention. Patents, patent applications, and documents cited herein should be incorporated by reference in their entirety, as if the contents themselves were specifically described herein. Understood.

本発明は、人物の動作を検出するための人物動作検出装置および人物動作検出方法、この人物動作検出装置を用いて人物の動作を検出して、ゲーム内容の各種制御を行う遊具装置、これを用いたゲーム方法、これらの人物動作検出方法およびゲーム方法をコンピュータに実行させるための制御プログラム、この制御プログラムが格納されたコンピュータ読み取り可能な可読記録媒体の分野において、TOF式距離画像センサからの距離情報(距離に応じた出力電圧情報)に基づいて、時系列に複数の距離フレームを生成する手段と、少なくとも1つの該距離フレームに基づいて、距離の変化のない距離フレームである距離平衡フレームを生成する手段と、各距離フレームについて距離平衡フレームとのフレーム差分を演算し、対象物体の距離の変化量と方向を算出する手段を有し、距離変位が生じた領域までの距離や方向の変化を人物の動作として検出するため、多数の空間領域を面状に演算処理する場合であっても、従来の反射光の強度を用いた距離画像センサや三角測量式距離画像センサのように演算量が膨大にならず、高フレームレートにおける人物の動作検出をリアルタイムに行うことができる。この人物動作検出により、人物動作に応じてゲーム内容の各種制御をリアルタイムで行うことができて、テレビゲームなどの遊具装置の操作性を大幅に向上させることができる。   The present invention relates to a human motion detection device and a human motion detection method for detecting a human motion, a playground equipment device that detects a human motion using the human motion detection device, and performs various controls of game content. The distance from the TOF type distance image sensor in the field of the game method used, the control method for causing the computer to execute the person motion detection method and the game method, and the computer readable recording medium storing the control program Based on the information (output voltage information corresponding to the distance), means for generating a plurality of distance frames in time series, and based on at least one of the distance frames, a distance balanced frame that is a distance frame having no distance change is provided. Calculate the frame difference between the means to generate and the distance balanced frame for each distance frame, and the distance of the target object Even if it has a means to calculate the amount of change and the direction, and it detects a change in the distance and direction to the area where the distance displacement occurred as a person's motion, even when processing a large number of spatial areas in a plane Thus, unlike the conventional distance image sensor and triangulation distance image sensor using the intensity of reflected light, the amount of calculation is not enormous, and human motion detection at a high frame rate can be performed in real time. By detecting this person action, various control of game contents can be performed in real time according to the person action, and the operability of the playground equipment such as a video game can be greatly improved.

1、1A、1B 人物動作検出装置
2 発光手段
21 パワーLEDドライバ
22 パワーLEDモジュール
22a パワーLED
23 放射角調整レンズ
3 受光手段
31 TOF式距離画像センサ
311 画素アレイ部
312 タイミング生成部
313 垂直スキャナ部
314 水平スキャナ部
315 画素ドライバ部
316 ノイズキャンセラ部
317 A/Dコンバータ部
32 視野角調整レンズ
4、4A、4B 高速人物動作検知制御手段
41 タイミング制御部
42 ホストインターフェイス部
43 データフォーマット部
431 距離フレーム生成部
432 距離平衡フレーム生成部
44 距離変位検出部
45 距離平衡状態判定部
46 フレーム差分演算部
47、47B 中心座標検出部
5、5A〜5E アプリケーションプロセッサ
51、51A〜51E 人物動作検出部
511 中心座標移動判定部
512 身体部位判定部
52 ゲーム実行部
53 操作部
54 表示部
55 ROM
56 RAM
57 無線送信部
8 体感刺激発生装置
81 無線受信部
82 振動発生部
83 発光部
84 音声出力部
85 香り発生部
6 ゲーム内容の模式図
7 テレビジョン
11、11A〜11E 遊具装置
A 対象物体
T 光の飛行時間
c 光速
C1 画素出力電極V1での容量
C2 画素出力電極V2での容量
PG 電荷変換領域
TX1,TX2 電荷転送ゲート
V1,V2 画素出力電極
ΔV1,ΔV2 画素出力電極での出力電圧
T0 パルス幅
Td 反射光の遅れ時間
Iph 反射光による光電流
DESCRIPTION OF SYMBOLS 1, 1A, 1B Human motion detection apparatus 2 Light emission means 21 Power LED driver 22 Power LED module 22a Power LED
DESCRIPTION OF SYMBOLS 23 Radiation angle adjustment lens 3 Light receiving means 31 TOF type distance image sensor 311 Pixel array part 312 Timing generation part 313 Vertical scanner part 314 Horizontal scanner part 315 Pixel driver part 316 Noise canceller part 317 A / D converter part 32 Viewing angle adjustment lens 4, 4A, 4B High-speed human motion detection control means 41 Timing control unit 42 Host interface unit 43 Data format unit 431 Distance frame generation unit 432 Distance equilibrium frame generation unit 44 Distance displacement detection unit 45 Distance equilibrium state determination unit 46 Frame difference calculation unit 47 47B Central coordinate detection unit 5, 5A to 5E Application processor 51, 51A to 51E Human motion detection unit 511 Central coordinate movement determination unit 512 Body part determination unit 52 Game execution unit 53 Operation unit 54 Display unit 5 ROM
56 RAM
57 wireless transmission unit 8 bodily sensation generating device 81 wireless receiving unit 82 vibration generating unit 83 light emitting unit 84 audio output unit 85 scent generating unit 6 schematic diagram of game contents 7 television 11, 11A to 11E play equipment A target object T light of Flight time c Speed of light C1 Capacitance at the pixel output electrode V1 C2 Capacitance at the pixel output electrode V2 PG Charge conversion area TX1, TX2 Charge transfer gate V1, V2 Pixel output electrode ΔV1, ΔV2 Output voltage at the pixel output electrode T0 Pulse width Td Reflected light delay time Iph Photocurrent due to reflected light

Claims (48)

投射光を出射する発光手段と、該投射光の投射空間からの反射光を受光して、該投射空間の人物までの距離に応じた距離情報を複数の受光部からそれぞれ出力するTOF(タイム・オブ・フライト)式距離画像センサとを有する人物動作検出装置であって、
該TOF式距離画像センサからの距離情報に基づいて人物の動作情報を検出する人物動作検知制御手段を有する人物動作検出装置。
A light emitting means for emitting the projection light, and a TOF (Time-Timer) that receives the reflected light from the projection space of the projection light and outputs distance information according to the distance to the person in the projection space from each of the plurality of light receiving units. A human motion detection device having a distance image sensor,
A human motion detection device having human motion detection control means for detecting human motion information based on distance information from the TOF distance image sensor.
前記人物動作検知制御手段は、
該TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成手段と、
該複数の距離フレームについてそれぞれのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算手段とを有する請求項1に記載の人物動作検出装置。
The person motion detection control means includes
Distance frame generating means for generating a plurality of distance frames in time series based on distance information from the TOF type distance image sensor;
2. The frame difference calculating unit according to claim 1, further comprising: a frame difference calculating unit that calculates a frame difference for each of the plurality of distance frames, and calculates a change amount and a change direction of the distance of the person as motion information of the person from the frame difference. Human motion detection device.
前記人物動作検知制御手段は、
該TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成手段と、
少なくとも2つの該距離フレームに基づいて、前記人物に距離変化のない距離情報である距離平衡フレームを生成する距離平衡フレーム生成手段と、
該複数の距離フレームについてそれぞれ該距離平衡フレームとのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算手段とを有する請求項1に記載の人物動作検出装置。
The person motion detection control means includes
Distance frame generating means for generating a plurality of distance frames in time series based on distance information from the TOF type distance image sensor;
Distance balanced frame generating means for generating a distance balanced frame that is distance information without a change in distance to the person based on at least two of the distance frames;
Frame difference calculating means for calculating a frame difference with the distance balanced frame for each of the plurality of distance frames, and calculating a change amount and a change direction of the distance of the person as motion information of the person from the frame difference. Item 2. The person motion detection device according to Item 1.
前記人物との距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分から、該人物との距離の変化の有無を検出する距離変位検出手段を更に有する請求項2または3に記載の人物動作検出装置。   The distance displacement detection means according to claim 2 or 3, further comprising distance displacement detection means for measuring the distance to the person in real time and detecting the presence or absence of a change in the distance to the person from a frame difference between at least two distance frames. Human motion detection device. 前記人物との距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分が所定の閾値未満である状態が所定の時間以上または所定のフレーム数以上継続した場合に、該人物の距離情報が平衡状態にあると判定する距離平衡状態判定手段を更に有する請求項3に記載の人物動作検出装置。   When the distance between the person is measured in real time and the frame difference between at least two distance frames is less than a predetermined threshold value continues for a predetermined time or more or a predetermined number of frames, the distance information of the person The person motion detection device according to claim 3, further comprising a distance equilibrium state determination unit that determines that is in an equilibrium state. 前記距離平衡フレーム生成手段は、前記距離平衡状態判定手段が距離平衡状態にあると判断した場合に、少なくとも2つの距離フレームの時間平均を算出して距離平衡フレームを生成する請求項5に記載の人物動作検出装置。   6. The distance balanced frame generating unit according to claim 5, wherein the distance balanced frame generating unit generates a distance balanced frame by calculating a time average of at least two distance frames when the distance balanced state determining unit determines that the distance balanced state is in a distance balanced state. Human motion detection device. 前記距離平衡フレーム生成手段は、前記人物が撮像範囲内にいる場合において、遊具装置の指示により該人物を該撮像範囲の右側または左側に移動させて、該撮像範囲の左側または右側半分の該撮像範囲に人物がいない一方側半分の距離平衡フレームを生成し、該人物を該撮像範囲の左側または右側に移動させて、該撮像範囲の右側あるいは左側半分の撮像範囲に該人物がいない他方側半分の距離平衡フレームを生成して、それらの撮像範囲に該人物がいない距離平衡フレームを合成することにより距離平衡フレームを生成する請求項3に記載の人物動作検出装置。   The distance balanced frame generation means moves the person to the right or left side of the imaging range in accordance with an instruction from the playground equipment when the person is within the imaging range, and the imaging of the left or right half of the imaging range A distance-balanced frame of one half that does not have a person in the range is generated, the person is moved to the left or right side of the imaging range, and the other half that does not have the person in the imaging range on the right or left half of the imaging range 4. The human motion detection device according to claim 3, wherein a distance balanced frame is generated by synthesizing a distance balanced frame having no person in the imaging range. 前記距離フレームと前記距離平衡フレームのフレーム差分を演算し、距離情報が平衡状態にある背景からの距離の変化の有無により人物を検出するフレーム差分演算手段を有する請求項5に記載の人物動作検出装置。 6. The human motion detection according to claim 5, further comprising a frame difference calculation means for calculating a frame difference between the distance frame and the distance balanced frame, and detecting a person based on the presence or absence of a change in distance from a background in which the distance information is in a balanced state. apparatus. 前記距離フレームと前記距離平衡フレームのフレーム差分により検出した人物の距離情報から前記人物の中心座標を求める中心座標検出手段を有する請求項8に記載の人物動作検出装置。   The person motion detection device according to claim 8, further comprising center coordinate detection means for obtaining center coordinates of the person from distance information of the person detected by a frame difference between the distance frame and the distance balanced frame. 前記中心座標検出手段は、前記距離フレーム間の中心座標の移動量を求める請求項9に記載の人物動作検出装置。   The human motion detection device according to claim 9, wherein the central coordinate detection unit obtains a movement amount of the central coordinate between the distance frames. 前記中心座標検出手段は、前記距離フレーム間の差分演算で求めた距離変位と、該距離フレームと前記距離平衡フレーム間のフレーム差分により求めた中心座標から、該距離変位と該中心座標の相対位置を演算する請求項10に記載の人物動作検出装置。   The center coordinate detection means is configured to calculate a relative position between the distance displacement and the center coordinate from a distance displacement obtained by a difference calculation between the distance frames and a center coordinate obtained by a frame difference between the distance frame and the distance balanced frame. The human motion detection device according to claim 10, wherein 前記中心座標検出手段は、検出した人物の身体全体の距離情報から、3次元空間の各座標軸の重心座標を前記中心座標として算出する請求項9に記載の人物動作検出装置。   The human motion detection device according to claim 9, wherein the central coordinate detection unit calculates, as the central coordinate, a barycentric coordinate of each coordinate axis in a three-dimensional space from the detected distance information of the entire human body. 前記中心座標検出手段は、検出した人物の身体全体の距離情報から、3次元空間の各座標軸方向の最大値および最小値から中点を前記中心座標として算出する請求項9に記載の人物動作検出装置。   The human motion detection according to claim 9, wherein the central coordinate detection means calculates a midpoint as the central coordinate from the maximum value and the minimum value in each coordinate axis direction of the three-dimensional space from the detected distance information of the entire human body. apparatus. 前記中心座標検出手段は、検出した人物の身体全体の距離情報から、人物の輪郭上の各点からの距離の和が最小となる点を前記中心座標として算出する請求項9に記載の人物動作検出装置。   The human motion according to claim 9, wherein the central coordinate detection unit calculates, as the central coordinate, a point having a minimum sum of distances from each point on the contour of the person from distance information of the detected person's entire body. Detection device. 前記距離平衡フレーム生成手段は、前記距離平衡フレームの生成処理を、装置起動時、初期化時または所定時間毎に行う請求項3または6に記載の人物動作検出装置。   The human motion detection device according to claim 3, wherein the distance balanced frame generation unit performs the process of generating the distance balanced frame at the time of starting the apparatus, at initialization, or at predetermined time intervals. 前記発光手段は、前記投射光として近赤外のパルス光を一定周期で前記投射空間に投射する請求項1に記載の人物動作検出装置。   The human motion detection device according to claim 1, wherein the light emitting unit projects near-infrared pulsed light as the projection light onto the projection space at a constant period. 前記受光部は、光電変換部が中央に設けられ、該光電変換部の中心に対する点対称位置に、互いに相反するゲート信号が入力される二つの電荷転送ゲートをそれぞれ介して2つの画素出力電極V1,V2が設けられ、該二つの画素出力電極V1,V2から、前記人物までの距離に相当した光の飛行時間に依存して分配された信号電荷をそれぞれ出力する請求項1に記載の人物動作検出装置。   The light receiving unit is provided with a photoelectric conversion unit in the center, and two pixel output electrodes V1 via two charge transfer gates to which opposite gate signals are input at a point symmetrical position with respect to the center of the photoelectric conversion unit. , V2 are provided to output signal charges distributed depending on the time of flight of light corresponding to the distance to the person from the two pixel output electrodes V1, V2, respectively. Detection device. 前記二つの画素出力電極V1,V2からの前記信号電荷はそれぞれ前記人物までの距離に応じた出力電圧情報に変換されて、前記TOF式距離画像センサから前記距離情報としてそれぞれ出力される請求項17に記載の人物動作検出装置。   18. The signal charges from the two pixel output electrodes V1 and V2 are converted into output voltage information corresponding to the distance to the person, respectively, and output as the distance information from the TOF type distance image sensor. The human motion detection device according to 1. 前記人物までの距離Lが、既知の光速をcとして該人物までの光の飛行時間Tを検出して、L=(1/2)・c・Tから求められている請求項1または17に記載の人物動作検出装置。   18. The distance L to the person is obtained from L = (1/2) · c · T by detecting a flight time T of light to the person with a known speed of light as c. The human motion detection device described. 前記距離情報は、前記受光部に対応した画素毎の立体的な複数点の距離情報である請求項1〜3、5および18のいずれかに記載の人物動作検出装置。   The person motion detection device according to claim 1, wherein the distance information is three-dimensional distance information for each pixel corresponding to the light receiving unit. 請求項1〜20のいずれかに記載の人物動作検出装置と、該人物動作検出装置からの人物の距離の変化量とその変化方向の動作情報を用いて、ゲーム内の登場人物の動作やイベントの発生に反映させるようにゲームを制御するアプリケーションプロセッサとを有する遊具装置。   A motion or event of a character in the game using the human motion detection device according to any one of claims 1 to 20 and the motion information of the distance and direction of the distance from the human motion detection device. And an application processor that controls the game to reflect the occurrence of the game. 前記アプリケーションプロセッサは、前記人物の動作の詳細情報を取得するために、連続して取得されるフレーム差分情報を比較して、該人物の動作領域の位置情報、該人物の動作の速度ベクトルおよび動作の加速度ベクトルの各種情報を抽出する人物動作検知手段を有する請求項21に記載の遊具装置。   The application processor compares the frame difference information acquired continuously in order to acquire the detailed information of the motion of the person, the position information of the motion area of the person, the velocity vector of the motion of the person, and the motion The playground equipment according to claim 21, further comprising a person motion detection unit that extracts various pieces of information on the acceleration vector. 前記動作領域の位置情報は前記距離フレームの水平方向および垂直方向のXY座標位置および距離から立体的に求められ、前記人物の動作の速度ベクトルおよび加速度ベクトルは、該動作領域の平均移動距離、該動作領域の重心位置の移動距離および該人物の特定部位位置の移動距離のいずれかから求められる請求項22に記載の遊具装置。   The position information of the motion area is obtained three-dimensionally from the horizontal and vertical XY coordinate positions and distances of the distance frame, and the velocity vector and acceleration vector of the motion of the person are the average moving distance of the motion area, the The playground equipment according to claim 22, wherein the playground equipment is obtained from one of a movement distance of the center of gravity position of the motion region and a movement distance of the specific part position of the person. 前記人物が行う動作の身体部位の時刻、空間領域および動作変化のうちの少なくともいずれかに関して期待値を有しており、該期待値と合致する時刻、空間領域および動作変化のうちの少なくともいずれかの距離情報を含む距離フレームに限定して前記人物動作検知手段による処理を行う請求項22に記載の遊具装置。   The person has an expected value regarding at least one of the time of the body part of the action performed by the person, the space area, and the action change, and at least one of the time, the space area, and the action change that matches the expected value The playground equipment according to claim 22, wherein the processing by the person motion detection means is performed only for a distance frame including the distance information. 前記人物の中心座標の移動量が、前記期待値から設定した閾値以上であった場合に該人物の「全身移動があった」と判定し、また、該人物の中心座標の移動量が該閾値未満であった場合に該人物の「全身移動がなかった」と判定する中心座標移動判定手段を有する請求項22または24に記載の遊具装置。   When the movement amount of the central coordinate of the person is greater than or equal to a threshold set from the expected value, it is determined that the person has moved the whole body, and the movement amount of the central coordinate of the person is the threshold The playground equipment according to claim 22 or 24, further comprising central coordinate movement determination means for determining that "the whole body has not moved" when the number is less than. 前記中心座標と前記距離フレームの差分の距離変位の相対的な位置関係から、動作した人物の身体部位を判定する身体部位判定手段を有する請求項22または24に記載の遊具装置。   The playground equipment according to claim 22 or 24, further comprising body part determination means for determining a body part of an operated person from a relative positional relationship of a distance displacement of a difference between the center coordinate and the distance frame. 前記身体部位判定手段は、前記距離フレーム間のフレーム差分により検出した距離変位が、前記中心座標より右上であれば右腕の動作、前記中心座標より左上であれば左腕の動作、前記中心座標より右下であれば右足の動作、前記中心座標より左下であれば左足の動作であると判定する請求項26に記載の遊具装置。   The body part determination means, if the distance displacement detected by the frame difference between the distance frames is upper right from the center coordinate, the right arm movement, if the distance displacement is upper left from the center coordinate, the left arm movement, the right from the center coordinate 27. The playground equipment according to claim 26, wherein it is determined that the motion is a right foot if it is below, and a left foot motion if it is below the center coordinates. 前記身体部位判定手段は、その判定結果として身体部位が存在する時刻、空間領域および動作変化のうちの少なくともいずれかと前記期待値とを比較して、該少なくともいずれかが該期待値と一致する場合は該身体部位に「期待動作があった」と判定し、また、該少なくともいずれかが該期待値と不一致の場合は該身体部位に「期待動作がなかった」と判定する請求項26または27に記載の遊具装置。   The body part determination means compares the expected value with at least one of the time, the spatial region, and the movement change when the body part exists as the determination result, and when the at least one matches the expected value 28. The method according to claim 26 or 27, wherein it is determined that the body part has “expected motion”, and if at least one of the body parts does not match the expected value, the body part is determined to have “no expected motion”. A playground equipment according to claim 1. 前記期待値として、前記人物が何らかの行動を起こすことを期待されるタイミングを期待時刻とし、該人物が移動動作を行うことを期待される空間領域を期待存在空間とし、該人物が行うであろうと期待される動作の速さや方向が期待動作変化とする請求項24〜27のいずれかに記載の遊具装置。   As the expected value, the timing when the person is expected to take some action is assumed as the expected time, the space area where the person is expected to perform the moving operation is assumed as the expected existence space, and the person will perform The playground equipment according to any one of claims 24 to 27, wherein an expected motion speed or direction is an expected motion change. 前記アプリケーションプロセッサは、前記人物の動作の時刻、空間領域および動作変化のうちの少なくともいずれかに関する期待値を有しており、該期待値と合致する人物動作を検知した場合に、無線または有線を介して、振動、光、音声および香りの少なくともいずれかを発生させる体感刺激発生装置を有する請求項21に記載の遊具装置。   The application processor has an expected value related to at least one of the time of the person's action, the spatial region, and the action change, and when detecting a person action that matches the expected value, the application processor The playground equipment according to claim 21, further comprising a bodily sensation generating device that generates at least one of vibration, light, voice, and fragrance. 従来の遊具装置に搭載されているゲームコントローラを使用することなく前記人物動作検出装置を用いて人物動作が検知され、当該人物動作の検知結果と前記期待値との比較処理が行わて、振動、光、音声および香りの少なくともいずれかを発生させる体感刺激発生装置を駆動させる請求項21に記載の遊具装置。   A person motion is detected using the person motion detection device without using a game controller mounted on a conventional playground equipment device, a comparison process between the detection result of the person motion and the expected value is performed, vibration, The playground equipment according to claim 21, wherein the device for generating a bodily sensation stimulus that generates at least one of light, sound, and scent is driven. 発光手段から出射される投射光の投射空間からの反射光を受光して、該投射空間の人物までの距離に応じた距離情報をTOF(タイム・オブ・フライト)式距離画像センサの複数の受光部からそれぞれ出力する人物動作検出方法であって、
該TOF式距離画像センサからの距離情報に基づいて人物の動作情報を検出する人物動作検知制御ステップを有する人物動作検出方法。
The reflected light from the projection space of the projection light emitted from the light emitting means is received, and distance information according to the distance to the person in the projection space is received by a plurality of light receptions of a TOF (Time of Flight) distance image sensor. A human motion detection method for outputting from each of the sections,
A human motion detection method comprising a human motion detection control step of detecting human motion information based on distance information from the TOF distance image sensor.
前記人物動作検知制御ステップは、
前記TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、
該複数の距離フレームについてそれぞれのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算ステップとを有する請求項32に記載の人物動作検出方法。
The person motion detection control step includes:
A distance frame generating step for generating a plurality of distance frames in time series based on distance information from the TOF type distance image sensor;
The frame difference calculating step according to claim 32, further comprising: calculating a frame difference for each of the plurality of distance frames, and calculating a change amount and a change direction of the distance of the person as motion information of the person from the frame difference. Human motion detection method.
前記人物動作検知制御ステップは、
前記TOF式距離画像センサからの距離情報に基づいて時系列に複数の距離フレームを生成する距離フレーム生成ステップと、
少なくとも2つの該距離フレームに基づいて、前記人物に距離変化のない距離情報である距離平衡フレームを生成する距離平衡フレーム生成ステップと、
該複数の距離フレームについてそれぞれ該距離平衡フレームとのフレーム差分を演算し、該フレーム差分から該人物の動作情報として該人物の距離の変化量と変化方向を算出するフレーム差分演算ステップとを有する請求項32に記載の人物動作検出方法。
The person motion detection control step includes:
A distance frame generating step for generating a plurality of distance frames in time series based on distance information from the TOF type distance image sensor;
A distance balanced frame generating step of generating a distance balanced frame that is distance information without a distance change for the person based on at least two of the distance frames;
A frame difference calculating step of calculating a frame difference from the distance balanced frame for each of the plurality of distance frames, and calculating a change amount and a change direction of the person's distance as motion information of the person from the frame difference. Item 33. The person motion detection method according to Item 32.
前記人物の距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分から、該人物の距離の変化の有無を検出する距離変位検出ステップを更に有する請求項33または34に記載の人物動作検出方法。   The person motion according to claim 33 or 34, further comprising a distance displacement detecting step of measuring the distance of the person in real time and detecting the presence or absence of a change in the distance of the person from a frame difference between at least two distance frames. Detection method. 前記人物の距離をリアルタイムに計測し、少なくとも2つの距離フレームの間のフレーム差分が所定の閾値未満である状態が所定の時間以上または所定のフレーム数以上継続した場合に、該人物の距離情報が平衡状態にあると判定する距離平衡状態判定ステップを更に有する請求項34に記載の人物動作検出方法。   When the distance of the person is measured in real time and the state where the frame difference between at least two distance frames is less than a predetermined threshold continues for a predetermined time or more or a predetermined number of frames, the distance information of the person is The person motion detection method according to claim 34, further comprising a distance equilibrium state determination step for determining that the state is in an equilibrium state. 前記距離フレームと前記距離平衡フレームのフレーム差分を演算し、距離情報が平衡状態にある背景からの距離の変化の有無により前記人物を検出するフレーム差分演算ステップを有する請求項36に記載の人物動作検出方法。 37. A human motion operation according to claim 36, further comprising a frame difference calculation step of calculating a frame difference between the distance frame and the distance balanced frame, and detecting the person based on presence or absence of a change in distance from a background whose distance information is in a balanced state. Detection method. 前記距離フレームと前記距離平衡フレームのフレーム差分により検出した人物の距離情報から中心座標を求める中心座標検出ステップを有する請求項37に記載の人物動作検出方法。   38. The person motion detection method according to claim 37, further comprising a center coordinate detection step of obtaining center coordinates from distance information of the person detected by a frame difference between the distance frame and the distance balanced frame. 前記中心座標検出ステップは、前記距離フレーム間の中心座標の移動量を求める請求項38に記載の人物動作検出方法。   The person motion detection method according to claim 38, wherein the center coordinate detection step obtains a movement amount of the center coordinates between the distance frames. 前記中心座標検出ステップは、前記距離フレーム間の差分演算で求めた距離変位と、該距離フレームと前記距離平衡フレーム間のフレーム差分により求めた中心座標から、該距離変位と該中心座標の相対位置を演算する請求項38または39に記載の人物動作検出装置。   The center coordinate detection step includes calculating a relative position between the distance displacement and the center coordinate from the distance displacement obtained by the difference calculation between the distance frames and the center coordinate obtained by the frame difference between the distance frame and the distance balanced frame. 40. The human motion detection device according to claim 38 or 39, wherein 前記中心座標検出ステップは、検出した人物の身体全体の距離情報から、3次元空間の各座標軸の重心座標を前記中心座標として算出する請求項38に記載の人物動作検出方法。   39. The person motion detection method according to claim 38, wherein the center coordinate detection step calculates a center-of-gravity coordinate of each coordinate axis in the three-dimensional space as the center coordinate from the detected distance information of the entire body of the person. 前記中心座標検出ステップは、検出した人物の身体全体の距離情報から、3次元空間の各座標軸方向の最大値および最小値から中点を前記中心座標として算出することを特徴とする請求項38に記載の人物動作検出方法。   The center coordinate detection step calculates a center point as the center coordinate from the maximum value and the minimum value of each coordinate axis direction in the three-dimensional space from the detected distance information of the whole body of the person. The human motion detection method described. 前記中心座標検出ステップは、検出した人物の身体全体の距離情報から、人物の輪郭上の各点からの距離の和が最小となる点を前記中心座標として算出する請求項38に記載の人物動作検出方法。   39. The human motion according to claim 38, wherein the central coordinate detection step calculates, as the central coordinate, a point having a minimum sum of distances from each point on the contour of the person from distance information of the detected whole body of the person. Detection method. 請求項1〜20のいずれかに記載の人物動作検出装置からの人物の距離の変化量とその変化方向の動作情報を用いて、アプリケーションプロセッサがゲーム内の登場人物の動作やイベントの発生に反映させるようにゲームを制御するゲーム実行ステップを有するゲーム方法。   The application processor reflects the movement of the character in the game and the occurrence of the event using the movement amount of the person's distance from the person movement detection device according to any one of claims 1 to 20 and the movement information of the changing direction. The game method which has a game execution step which controls a game so that it may be made. 前記人物の動作詳細情報を取得するために、連続して取得されるフレーム差分情報を比較して、該人物の動作領域の位置情報、該人物の動作の速度ベクトルおよび加速度ベクトルの各種情報を抽出する人物動作検知ステップを更に有し、前記人物の距離の変化量とその変化方向の情報と共に、該人物の動作領域の位置情報、該人物の動作の速度ベクトルおよび加速度ベクトルの各種情報を用いて、前記ゲーム実行ステップとして、前記アプリケーションプロセッサがゲーム内の登場人物の動作やイベントの発生に反映させるようにゲームを制御する請求項44に記載のゲーム方法。   In order to acquire the detailed motion information of the person, the frame difference information acquired continuously is compared, and the position information of the motion area of the person, various information on the speed vector and acceleration vector of the motion of the person are extracted. A person motion detecting step, and using information on the amount of change in the person's distance and the direction of the person's distance, as well as position information on the person's motion region, various information on the speed vector and acceleration vector of the person's motion 45. The game method according to claim 44, wherein, as the game execution step, the game is controlled so that the application processor reflects the action of a character in the game or the occurrence of an event. 請求項32〜43のいずれかに記載の人物動作検出方法のステップをコンピュータに実行させるための処理手順が記述された制御プログラム。   44. A control program in which a processing procedure for causing a computer to execute the steps of the human motion detection method according to claim 32 is described. 請求項44または45に記載のゲーム方法のステップをコンピュータに実行させるための処理手順が記述された制御プログラム。   46. A control program in which a processing procedure for causing a computer to execute the steps of the game method according to claim 44 or 45 is described. 請求項46または47に記載の制御プログラムが格納されたコンピュータ読み取り可能な可読記録媒体。   A computer-readable readable recording medium in which the control program according to claim 46 or 47 is stored.
JP2009275952A 2009-06-25 2009-12-03 Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium Withdrawn JP2011027707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009275952A JP2011027707A (en) 2009-06-25 2009-12-03 Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009151558 2009-06-25
JP2009275952A JP2011027707A (en) 2009-06-25 2009-12-03 Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium

Publications (1)

Publication Number Publication Date
JP2011027707A true JP2011027707A (en) 2011-02-10

Family

ID=43636609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009275952A Withdrawn JP2011027707A (en) 2009-06-25 2009-12-03 Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium

Country Status (1)

Country Link
JP (1) JP2011027707A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2957997A1 (en) 2014-06-20 2015-12-23 Funai Electric Co., Ltd. Image display device
WO2016035181A1 (en) * 2014-09-03 2016-03-10 株式会社ニコン Image pickup device, information processing device, and image pickup system
JP2016524709A (en) * 2013-06-06 2016-08-18 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. Sensor system with active illumination
JP2016530701A (en) * 2013-06-13 2016-09-29 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Optical detector and method of manufacturing the optical detector
JP2017510739A (en) * 2014-01-31 2017-04-13 ハフ ヒュエルスベック ウント フュルスト ゲーエムベーハー ウント コー. カーゲー Method for providing an operating signal
WO2018020950A1 (en) * 2016-07-28 2018-02-01 株式会社神戸製鋼所 Construction machine
JP2018055257A (en) * 2016-09-27 2018-04-05 キヤノン株式会社 Information processing device, control method thereof, and program
JP2018066609A (en) * 2016-10-18 2018-04-26 株式会社リコー Range-finding device, supervising camera, three-dimensional measurement device, moving body, robot and range-finding method
US9989623B2 (en) 2013-06-13 2018-06-05 Basf Se Detector for determining a longitudinal coordinate of an object via an intensity distribution of illuminated pixels
US10012532B2 (en) 2013-08-19 2018-07-03 Basf Se Optical detector
WO2018142878A1 (en) * 2017-02-06 2018-08-09 パナソニックIpマネジメント株式会社 Three-dimensional motion acquisition device and three-dimensional motion acquisition method
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
CN108854065A (en) * 2018-06-14 2018-11-23 广州市点格网络科技有限公司 Somatic sensation television game equipment
KR20190063139A (en) * 2017-11-29 2019-06-07 (주)스마트모션 Apparatus of controlling drone using distance measuring sensor and method thereof
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
JP2019163960A (en) * 2018-03-19 2019-09-26 アズビル株式会社 Detection device
JPWO2018142878A1 (en) * 2017-02-06 2019-11-21 パナソニックIpマネジメント株式会社 3D motion acquisition apparatus and 3D motion acquisition method
KR20200099048A (en) * 2019-02-13 2020-08-21 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US11151733B2 (en) 2016-03-09 2021-10-19 Nikon Corporation Detection device, information processing device, detection method, storage medium, and detection system
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120078B2 (en) 2012-12-19 2018-11-06 Basf Se Detector having a transversal optical sensor and a longitudinal optical sensor
JP2016524709A (en) * 2013-06-06 2016-08-18 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. Sensor system with active illumination
US10401498B2 (en) 2013-06-06 2019-09-03 Ams Sensors Singapore Pte. Ltd. Sensor system with active illumination
JP2016530701A (en) * 2013-06-13 2016-09-29 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Optical detector and method of manufacturing the optical detector
US10845459B2 (en) 2013-06-13 2020-11-24 Basf Se Detector for optically detecting at least one object
US10823818B2 (en) 2013-06-13 2020-11-03 Basf Se Detector for optically detecting at least one object
US10353049B2 (en) 2013-06-13 2019-07-16 Basf Se Detector for optically detecting an orientation of at least one object
US9989623B2 (en) 2013-06-13 2018-06-05 Basf Se Detector for determining a longitudinal coordinate of an object via an intensity distribution of illuminated pixels
US10012532B2 (en) 2013-08-19 2018-07-03 Basf Se Optical detector
JP2017510739A (en) * 2014-01-31 2017-04-13 ハフ ヒュエルスベック ウント フュルスト ゲーエムベーハー ウント コー. カーゲー Method for providing an operating signal
EP2957997A1 (en) 2014-06-20 2015-12-23 Funai Electric Co., Ltd. Image display device
US9841844B2 (en) 2014-06-20 2017-12-12 Funai Electric Co., Ltd. Image display device
US11041718B2 (en) 2014-07-08 2021-06-22 Basf Se Detector for determining a position of at least one object
US11151783B2 (en) 2014-09-03 2021-10-19 Nikon Corporation Image pickup device, information processing device, and image pickup system
WO2016035181A1 (en) * 2014-09-03 2016-03-10 株式会社ニコン Image pickup device, information processing device, and image pickup system
JPWO2016035181A1 (en) * 2014-09-03 2017-06-22 株式会社ニコン Imaging apparatus, information processing apparatus, and imaging system
US10094927B2 (en) 2014-09-29 2018-10-09 Basf Se Detector for optically determining a position of at least one object
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
US10775505B2 (en) 2015-01-30 2020-09-15 Trinamix Gmbh Detector for an optical detection of at least one object
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
US10412283B2 (en) 2015-09-14 2019-09-10 Trinamix Gmbh Dual aperture 3D camera and method using differing aperture areas
US11151733B2 (en) 2016-03-09 2021-10-19 Nikon Corporation Detection device, information processing device, detection method, storage medium, and detection system
JP2018017617A (en) * 2016-07-28 2018-02-01 株式会社神戸製鋼所 Construction machine
US10907324B2 (en) 2016-07-28 2021-02-02 Kobe Steel, Ltd. Construction machine
WO2018020950A1 (en) * 2016-07-28 2018-02-01 株式会社神戸製鋼所 Construction machine
US11211513B2 (en) 2016-07-29 2021-12-28 Trinamix Gmbh Optical sensor and detector for an optical detection
JP2018055257A (en) * 2016-09-27 2018-04-05 キヤノン株式会社 Information processing device, control method thereof, and program
JP2018066609A (en) * 2016-10-18 2018-04-26 株式会社リコー Range-finding device, supervising camera, three-dimensional measurement device, moving body, robot and range-finding method
US10890491B2 (en) 2016-10-25 2021-01-12 Trinamix Gmbh Optical detector for an optical detection
US11428787B2 (en) 2016-10-25 2022-08-30 Trinamix Gmbh Detector for an optical detection of at least one object
US11415661B2 (en) 2016-11-17 2022-08-16 Trinamix Gmbh Detector for optically detecting at least one object
US11635486B2 (en) 2016-11-17 2023-04-25 Trinamix Gmbh Detector for optically detecting at least one object
US11698435B2 (en) 2016-11-17 2023-07-11 Trinamix Gmbh Detector for optically detecting at least one object
US10948567B2 (en) 2016-11-17 2021-03-16 Trinamix Gmbh Detector for optically detecting at least one object
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object
JPWO2018142878A1 (en) * 2017-02-06 2019-11-21 パナソニックIpマネジメント株式会社 3D motion acquisition apparatus and 3D motion acquisition method
CN108700664A (en) * 2017-02-06 2018-10-23 松下知识产权经营株式会社 Three-dimensional motion acquisition device and three-dimensional motion adquisitiones
WO2018142878A1 (en) * 2017-02-06 2018-08-09 パナソニックIpマネジメント株式会社 Three-dimensional motion acquisition device and three-dimensional motion acquisition method
US11060922B2 (en) 2017-04-20 2021-07-13 Trinamix Gmbh Optical detector
US11067692B2 (en) 2017-06-26 2021-07-20 Trinamix Gmbh Detector for determining a position of at least one object
KR102018503B1 (en) 2017-11-29 2019-09-06 (주)스마트모션 Apparatus of controlling drone using distance measuring sensor and method thereof
KR20190063139A (en) * 2017-11-29 2019-06-07 (주)스마트모션 Apparatus of controlling drone using distance measuring sensor and method thereof
CN111712685A (en) * 2018-03-19 2020-09-25 阿自倍尔株式会社 Detection device
WO2019181512A1 (en) * 2018-03-19 2019-09-26 アズビル株式会社 Detection device
JP2019163960A (en) * 2018-03-19 2019-09-26 アズビル株式会社 Detection device
CN108854065A (en) * 2018-06-14 2018-11-23 广州市点格网络科技有限公司 Somatic sensation television game equipment
KR102225342B1 (en) 2019-02-13 2021-03-09 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
KR20200099048A (en) * 2019-02-13 2020-08-21 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control

Similar Documents

Publication Publication Date Title
JP2011027707A (en) Person motion detecting device, play apparatus, person motion detecting method, gaming method, control program, and readable recording medium
US7961174B1 (en) Tracking groups of users in motion capture system
KR102065687B1 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
RU2580450C2 (en) Systems and methods for applying model tracking for motion capture
CA2767788C (en) Bringing a visual representation to life via learned input from the user
US8253746B2 (en) Determine intended motions
CN102470273B (en) Visual representation expression based on player expression
US20160041391A1 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US20140362188A1 (en) Image processing device, image processing system, and image processing method
CN104353240A (en) Running machine system based on Kinect
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
KR20140053235A (en) Method to extend laser depth map range
CN102270276A (en) Caloric burn determination from body movement
WO2018012062A1 (en) Information processing apparatus, information processing method, and program
EP3646147B1 (en) Display apparatus for computer-mediated reality
WO2020026443A1 (en) Vibration control system for haptic representation, vibration generating device for haptic representation, vibration control device for haptic representation, and vibration control method for haptic representation
JP2011083542A (en) Operation detection device, operation detection method, game device, game method, control program, and readable recording medium
KR101078954B1 (en) Apparatus for virtual golf simulation, and sensing device and method used to the same
US9953213B2 (en) Self discovery of autonomous NUI devices
TWI413018B (en) Volume recognition method and system
TW201043306A (en) Interaction game control system and control method
Ionescu et al. A 3D NIR camera for gesture control of video game consoles
US20050100871A1 (en) Training aid for physical movement with virtual work area

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205