JP4218963B2 - Information extraction method, information extraction apparatus, and recording medium - Google Patents
Information extraction method, information extraction apparatus, and recording medium Download PDFInfo
- Publication number
- JP4218963B2 JP4218963B2 JP2004189878A JP2004189878A JP4218963B2 JP 4218963 B2 JP4218963 B2 JP 4218963B2 JP 2004189878 A JP2004189878 A JP 2004189878A JP 2004189878 A JP2004189878 A JP 2004189878A JP 4218963 B2 JP4218963 B2 JP 4218963B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- distance image
- value
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、距離画像から認識対象の動きや位置等の目的とする情報を抽出する情報抽出装置および方法に関する。 The present invention relates to an information extraction apparatus and method for extracting target information such as a movement and position of a recognition target from a distance image.
従来、アーケードゲーム機などの遊具装置では、ボクシングゲームや、射撃ゲームなどの人間の動きを利用したゲームが多く開発されてきている。ボクシングゲームでは、ユーザが実際にサンドバッグを打撃したときの圧力を物理的に測定している。このとき、測定されているのは、ユーザのパンチがサンドバッグに当たった瞬間の圧力のみである。パンチがユーザからどのような経路でどのくらいの速さで繰り出されたのかという情報は用いられていない。このため、単純なパンチの強さだけを競う単調なゲームになっている。 Conventionally, in playground equipment such as arcade game machines, many games using human movement such as a boxing game and a shooting game have been developed. In the boxing game, the pressure when the user actually hits the sandbag is physically measured. At this time, only the pressure at the moment when the user's punch hits the sandbag is measured. Information on how and how fast the punch is fed from the user is not used. For this reason, it is a monotonous game that competes only for the strength of a simple punch.
射撃ゲームでは、おもちゃの銃の先に発光体をつけ、その発光体の光が、画面上のどこにあたるかを検知する。銃の引き金が弾かれたときに光が当たっている物体に銃弾があたったと判定するようになっている。このように単純なため、射撃の腕を競うと言うよりは、呈示された標的をいかに素早く見つけて撃つだけの反射神経を競うだけのゲームになってしまっている。 In the shooting game, a light emitter is attached to the tip of a toy gun, and the light on the screen is detected where the light is. When a gun trigger is fired, it is determined that a bullet has hit an object that is exposed to light. Because of this simplicity, rather than competing for shooting skills, it has become a game that only competes for reflexes to quickly find and shoot the presented target.
一方、CCDカメラなどを用いて撮像した画像を解析して、人間の身体の位置、動きなどを認識する方法もとられている。この方法では、進行方向をまず、CCDカメラなどの撮像装置を用いて撮影する。その画像から人間を抽出する場合では、例えば、顔や手の色が肌色なので、それ以外の背景などの余計な部分を取り除き、障害物となる物体など認識したい対象のみを切り出すという前処理を行う。そして、その処理後の画像から対象物の形状、動き等を認識する。 On the other hand, a method of recognizing the position and movement of a human body by analyzing an image captured using a CCD camera or the like is used. In this method, the traveling direction is first photographed using an imaging device such as a CCD camera. In the case of extracting a human from the image, for example, since the color of the face or hand is a skin color, a preprocessing is performed such that an extra portion such as the background is removed and only an object to be recognized such as an obstacle is cut out. . Then, the shape, movement, etc. of the object are recognized from the processed image.
まず、この認識対象の切り出しという前処理部分について説明する。従来の手法では、カメラで撮影した画像から、取得したい対象物の部分のみを切り出す作業手段として、対象物と、それ以外の部分の何らかの相違点を手がかりとして対象物の切り出しが行われていた。 First, the pre-processing part of extracting the recognition target will be described. In the conventional technique, as an operation means for cutting out only a part of an object to be acquired from an image photographed by a camera, the object is cut out by using some difference between the object and other parts as a clue.
この手がかりとして、色相の変化を利用する方法、差分画像を利用する方法などが用いられている。色を使って切り出す場合、色相差の大きな部分を抜き出し、細線化などの処理を行い、エッジを抽出する。人間を対象にする場合には、顔や手の部分の肌色に注目し、その色相部分のみを抽出しようとするものである。が、色相差を用いる方法は、照明の色や角度などにより、肌色といっても変化し、また、背景の色相が肌色に近いと、人間の肌色と識別するのが難しいなどの問題があり、定常的に切り出すことは困難である。また、照明が全くない状態では、撮像画像は全部暗くなってしまうので、人間でも暗闇で撮影した写真から物体を判別することは難しい。 As a clue, a method using a change in hue, a method using a difference image, and the like are used. When cutting out using colors, a portion with a large hue difference is extracted, and processing such as thinning is performed to extract edges. When targeting humans, attention is paid to the skin color of the face and hand parts, and only the hue part is extracted. However, the method of using the hue difference changes depending on the color and angle of the lighting, even if it is called skin color, and if the background hue is close to skin color, it is difficult to distinguish it from human skin color. It is difficult to cut out regularly. In addition, in the state where there is no illumination, the entire captured image becomes dark, and it is difficult for a human to discriminate an object from a photograph taken in the dark.
認識対象の撮像された画像から当該認識対象の動きや形状等の情報を抽出する際、当該認識対象が複数ある場合、例えば、人が右手と左手の双方を使って、粘土をこねるようにして、彫塑を行ったり、写真の隅をもって変形させるなどの操作を行ったりなど、両手を使う場合には、それぞれの手を別個に認識(動き、形状の抽出)する必要がある。例えば、右手と左手の画像をそれぞれ別個に取得して認識せねばならず、コストがかかった。 When extracting information such as movement and shape of the recognition target from the captured image of the recognition target, when there are a plurality of the recognition targets, for example, a person kneads clay using both the right hand and the left hand. When using both hands, such as engraving or performing operations such as deforming the corners of a photograph, it is necessary to recognize each hand separately (movement and shape extraction). For example, the right hand image and the left hand image must be acquired and recognized separately, which is expensive.
また、ビデオ画像のフレーム間の動きベクトルを算出し、動いている物体を解析する方式もあるが、この場合、動いている物体が少ないうちは問題ないが、動いている物体が多いと、動きベクトルの数が急に増え、フレーム間で動きベクトルを算出の負荷が増し、算出が追いつかなくなる。 There is also a method of calculating motion vectors between frames of video images and analyzing moving objects, but in this case there is no problem as long as there are few moving objects, but if there are many moving objects, The number of vectors suddenly increases, the motion vector calculation load increases between frames, and the calculation cannot keep up.
また、対象物の動きを抽出するにあたり、特に、対象物が人間である場合、その動きには、目的とする動きの他にも無駄な動きも多く含まれていて不安定であるため、当該目的とする動きのみを抽出しようとすると困難な場合がある。 In addition, when extracting the movement of the object, particularly when the object is a human being, the movement includes a lot of useless movements in addition to the target movement, and is unstable. It may be difficult to extract only the desired movement.
例えば、手を使って射撃もどきのゲームを行ったりするときに、人間の手は、ユーザが自身が意識しているよりも、位置に関して不安定である。例えば、手を拳銃の形にして、位置を決め撃つとしよう。銃口に当たる人差し指で、射撃位置と方向を決め、撃鉄に当たる親指を曲げた瞬間に弾丸が発射されるとする。ここで、問題になるのは、親指を曲げた瞬間に人差し指の指し示す方向が、射撃位置と方向を決めたときに、わずかながらではあるが、変化することである。熟練すれば、人差し指の方向が変化しないように親指を曲げることは可能であるが、このような熟練をすべてのユーザに要求するのでは、誰もが容易にゲームなどを楽しむことが難しくなる。 For example, when playing a shooting game using a hand, a human hand is more unstable in terms of position than the user is aware of. For example, suppose your hand is in the shape of a handgun and you decide the position and shoot. Let's say that a bullet is fired at the moment when the shooting position and direction are determined with the index finger hitting the muzzle and the thumb hitting the hammer is bent. Here, the problem is that when the thumb is bent, the pointing direction of the index finger changes slightly when the shooting position and direction are determined. If skilled, it is possible to bend the thumb so that the direction of the index finger does not change. However, if such skill is required for all users, it becomes difficult for everyone to enjoy games and the like easily.
また、親指を曲げるのでなく、位置を決めたあと、さらに拳銃にあたる手を目標に対し、近づけることで、引き金が押され、弾丸が発射されるように、操作方法を変えた場合でも、手を近づけるために移動したときに、人差し指の方向や位置が変化してしまう。変化しないように、動かそうとすると、下肢の筋肉に不自然に負担がかかってしまい、手がつりやすくなる。 Even if the operation method is changed so that the trigger is pushed and the bullet is fired by positioning the hand instead of bending the thumb and moving the hand that hits the handgun closer to the target. When moving to move closer, the direction and position of the index finger changes. If you try to move it so that it does not change, the muscles of the lower limbs will be unnaturally strained and your hands will be easier to lift.
同様の問題は、カメラなどの撮影でシャッターを押した瞬間に手がぶれる手ぶれとして知られている。カメラの場合には、撮像する対象は停止している、つまり静止画であるという前提のもとに、手ぶれ防止機能が設けられている。が、手や体を使ったジェスチャでは、動いていることが前提であるので、カメラに搭載されている手ぶれ防止機能のような、手の操作を安定させる方法をとることができない。 A similar problem is known as camera shake that occurs when the shutter is pressed when shooting with a camera or the like. In the case of a camera, a camera shake prevention function is provided on the assumption that an object to be imaged is stopped, that is, a still image. However, since gestures using the hands and body are premised on moving, it is impossible to take a method of stabilizing the operation of the hand, such as a camera shake prevention function mounted on the camera.
取得した距離画像から、認識すべき動き以外の余分な動きに影響されずに、高精度に認識対象の動きを抽出できる情報抽出装置および方法を提供することを目的とする。 An object of the present invention is to provide an information extraction apparatus and method that can extract a motion of a recognition target with high accuracy from an acquired distance image without being affected by extra motion other than the motion to be recognized.
本発明は、対象物に発光手段により光を照射し、対象物からの反射光を受光手段で受光することにより、各素値が当該受光手段で受光された反射光の強度を示し、各素値が示す反射光の強度により対象物までの距離及び対象物の3次元形状を表す距離画像を取得する距離画像取得手段により取得された、認識対象の対象物の撮像された、時系列な複数の距離画像のうちの少なくとも1つの距離画像の各素値を基に、前記識対象以外の画像である基盤画像を生成し、前記距離画像取得手段で取得された各距離画像について、前記基盤画像との間の差分画像を求め、各差分画像の前記対象物の位置を示す3次元座標から、異なる距離画像間における前記対象物の位置の変化量及び変化方向を求めることにより、認識すべき動き以外の余分な動きに影響されずに、高精度に認識対象の動きを抽出できる。 The present invention irradiates the object with light from the light emitting means and receives the reflected light from the object with the light receiving means, whereby each elementary value indicates the intensity of the reflected light received by the light receiving means, A plurality of time-series captured images of the object to be recognized, acquired by distance image acquisition means for acquiring a distance image representing the distance to the object and the three-dimensional shape of the object based on the intensity of the reflected light indicated by the value Based on each prime value of at least one distance image of the distance images, a base image that is an image other than the target object is generated, and for each distance image acquired by the distance image acquisition means, the base image Motion to be recognized by obtaining the difference image and the change direction of the position of the object between different distance images from the three-dimensional coordinates indicating the position of the object of each difference image. To extra movement other than Without being sound can be extracted motion of the recognition target with high precision.
取得した距離画像から、認識すべき動き以外の余分な動きに影響されずに、高精度に認識対象の動きを抽出できる。 The movement of the recognition target can be extracted from the acquired distance image with high accuracy without being affected by extra movement other than the movement to be recognized.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る情報抽出装置の構成例を示したもので、1つの撮像領域内の複数の箇所から対象物の形状、動き、位置等の情報を抽出(認識)して、その抽出した情報を、例えば、モグラ叩きゲーム等の他のシステムへ入力するためのものである。
(First embodiment)
FIG. 1 shows a configuration example of an information extraction apparatus according to the first embodiment of the present invention, in which information on the shape, movement, position, etc. of an object is extracted from a plurality of locations in one imaging region ( The extracted information is input to another system such as a mole hitting game.
図1に示すように、本実施形態に係る情報抽出装置は、反射光を受光し、距離画像を取得する、例えば特願平9−299648号に記載されている距離画像取得部1と、取得した距離画像を別途指定された領域に分割する領域分割処理部2と、この領域分割処理部2で分割された各領域毎に距離画像を解析し、対象物の輪郭、重心の抽出や対象物までの距離の算出、対象物の移動速度、移動ベクトルの算出等の当該認識対象に関する目的とする情報を抽出する画像処理部3と、例えば、大型の液晶パネル、スピーカなどから構成される呈示部4と、上記各部の制御を司る情報管理部5とから構成されている。
As shown in FIG. 1, the information extraction apparatus according to this embodiment receives reflected light and acquires a distance image, for example, a distance
画像処理部3で抽出された情報は、例えば、情報管理部5を介して他のシステムに入力される。すなわち、他のシステムとして、例えば、モグラ叩きゲーム等は情報管理部5を介して接続されている。この他のシステムは、例えば、コンピュータに実行させることのできるプログラムであってもよい。
The information extracted by the
図1に示すような構成の情報抽出装置が、例えば、提示部4の表示画面上の任意の表示領域からモグラを出現させ、ユーザがそのモグラの出現した表示領域めがけてひっぱたく動作(ユーザは表示画面に触れるほど叩く必要はない)を行って、命中したモグラの数を競うモグラ叩きゲームに接続されている場合、1つの距離画像取得部1は、ユーザが提示部4の表示画面上のどのモグラめがけてひっぱたこうとしているかを認識できるように(表示画面全体に対する対象物としての手の位置が認識できるように)設置されている。そして、領域分割処理部2では、提示部4の表示画面上のモグラの出現領域に対応して、距離画像取得部1で取得した距離画像の領域分割を行う。
The information extraction apparatus having the configuration as shown in FIG. 1 causes, for example, a mole to appear from an arbitrary display area on the display screen of the
ここで、距離画像取得部1および、距離画像取得部1にて取得される距離画像について簡単に説明する。
Here, the distance
距離画像取得部1の外観を図2に示す。中央部には円形レンズとその後部にあるエリアセンサ(図示せず)から構成される受光部103が配置され、円形レンズの周囲にはその輪郭に沿って、赤外線などの光を照射するLEDから構成される発光部101が複数個(例えば8個)等間隔に配置されている。
The appearance of the distance
発光部101から照射された光が物体に反射され、受光部103のレンズにより集光され、レンズの後部にあるエリアセンサで受光される。エリアセンサは、例えば256×256のマトリックス状に配列されたセンサで、マトリックス中の各センサにて受光された反射光の強度がそれぞれ画素値となる。このようにして取得された画像が、図4に示すような反射光の強度分布としての距離画像である。
The light emitted from the
図3は、距離画像取得部1の構成例を示したもので、主に、発光部102、受光部103、反射光抽出部102、タイミング信号生成部104から構成される。
FIG. 3 shows a configuration example of the distance
発光部101は、タイミング信号生成部104にて生成されたタイミング信号に従って時間的に強度変動する光を発光する。この光は発光部前方にある対象物体に照射される。
The
受光部103は、発光部101が発した光の対象物体による反射光の量を検出する。
The
反射光抽出部102は、受光部103にて受光された反射光の空間的な強度分布を抽出する。この反射光の空間的な強度分布は画像として捉えることができるので、以下、これを距離画像と呼ぶ。
The reflected
受光部103は一般的に発光部101から発せられる光の対象物による反射光だけでなく、照明光や太陽光などの外光も同時に受光する。そこで、反射光抽出部102は発光部101が発光しているときに受光した光の量と、発光部101が発光していないときに受光した光の量の差をとることによって、発光部101からの光の対象物体による反射光成分だけを取り出す。
In general, the
反射光抽出部102では、受光部103にて受光された反射光から、その強度分布、すなわち、図4に示すような距離画像を抽出する。
The reflected
図4では、簡単のため、256×256画素の距離画像の一部である8×8画素の距離画像の場合について示している。 For the sake of simplicity, FIG. 4 shows the case of an 8 × 8 pixel distance image that is a part of a 256 × 256 pixel distance image.
物体からの反射光は、物体の距離が大きくなるにつれ大幅に減少する。物体の表面が一様に光を散乱する場合、距離画像1画素あたりの受光量は物体までの距離の2乗に反比例して小さくなる。 The reflected light from the object decreases significantly as the distance of the object increases. When the surface of the object scatters light uniformly, the amount of light received per pixel in the distance image decreases in inverse proportion to the square of the distance to the object.
図4において、行列中のセルの値(画素値)は、取得した反射光の強さを256階調(8ビット)で示したものである。例えば、「255」の値があるセルは、距離画像取得部1に最も接近した状態、「0」の値があるセルは、距離画像取得部1から遠くにあり、反射光が距離画像取得部1にまで到達しないことを示している。
In FIG. 4, the cell value (pixel value) in the matrix indicates the intensity of the acquired reflected light in 256 gradations (8 bits). For example, a cell having a value of “255” is closest to the distance
距離画像の各画素値は、その画素に対応する単位受光部で受光した反射光の量を表す。反射光は、物体の性質(光を鏡面反射する、散乱する、吸収する、など)、物体の向き、物体の距離などに影響されるが、物体全体が一様に光を散乱する物体である場合、その反射光量は物体までの距離と密接な関係を持つ。手などは、このような性質をもつため、距離画像取得部1の前方に手を差し出した場合の距離画像は、手までの距離、手の傾き(部分的に距離が異なる)などを反映する図5に示したような3次元的なイメージを得ることができる。
Each pixel value of the distance image represents the amount of reflected light received by the unit light receiving unit corresponding to the pixel. Reflected light is affected by the nature of the object (specularly reflects, scatters, absorbs, etc.), the direction of the object, the distance of the object, etc., but the entire object scatters light uniformly. In this case, the amount of reflected light is closely related to the distance to the object. Since hands and the like have such properties, the distance image when the hand is put out in front of the distance
次に、図7に示すフローチャートを参照して、図1に示すような構成の情報抽出装置の処理動作について説明する。 Next, the processing operation of the information extraction apparatus configured as shown in FIG. 1 will be described with reference to the flowchart shown in FIG.
まず、電源の投入あるいは動作の開始指示にて起動されると、所定の初期化処理を行う。その後、距離画像取得部1は、図2に示したような発光部101、受光部103を用いて、例えば、1秒間に1枚あるいは2枚程度の速度で距離画像を取得する(ステップS1)。このとき取得した距離画像の一例を図8(a)に示す。図8(a)では、対象物が右手と左手の2つあり、そのそれぞれについて、動きや形状や位置等を認識する必要がある。
First, when the power is turned on or activated by an operation start instruction, a predetermined initialization process is performed. Thereafter, the distance
そこで、次に、領域分割処理部2は、情報管理部5から分割する領域に関する情報(領域情報)を受け取る。例えば、前述したようなモグラ叩きゲームの場合には、距離画像取得間隔(例えば1秒)の間に提示部4の表示画面上に出現したモグラの表示領域のそれぞれに対応した距離画像上の領域情報として、その領域の端点座標、縦の長さ、横の長さを情報管理部5から読み込む(ステップS2)。そして、この情報を基に、例えば、図8(a)に示したような距離画像を図8(b)に示すように分割する。
Therefore, next, the area
例えば、提示部4の表示画面上に2匹のモグラが出現したとする。まず、情報管理部5から1匹目のモグラの表示領域に対応した距離画像の領域情報(左上端点T1が(x1、y1)、右上端点T2が(x2、y2)、縦の長さをL1、横の長さがR1)が与えられると、図8(a)に示した距離画像から、図8(b)に示したような画像領域AR1を分割する。また、2匹目のモグラの表示領域に対応した距離画像の領域情報(左上端点T2が(x2、y2)、右上端点T3が(x3、y3)、縦の長さをL2、横の長さがR2)が与えられると、図8(a)に示した距離画像から、図8(b)に示したような画像領域AR2を分割する。
For example, assume that two moles appear on the display screen of the
図8(b)では、分割した各画像領域が重ならないようになっているが、重なってもよい。分割する画像領域の数も図8(b)では2つであるが、より多くの数に分割することも可能である。あるいは分割する画像領域の面積は必ずしも均等になっている必要もない。また分割する画像領域の形も矩形に限定されているわけではなく、三角形や多角形、円など種々の形に分割することが可能である。 In FIG. 8B, the divided image areas are not overlapped, but may be overlapped. Although the number of image areas to be divided is two in FIG. 8B, it can be divided into a larger number. Or the area of the image area | region to divide | segment does not necessarily need to be equal. Further, the shape of the image area to be divided is not limited to a rectangle, and can be divided into various shapes such as a triangle, a polygon, and a circle.
領域分割後、領域分割処理部2は、分割された個々の画像領域それぞれについて画像処理プロセスを割り当てる(ステップS4)。ここで、各画像領域に割り当てる画像処理プロセスは全て同じであってもよいし、また、場合によっては、異なっていてもよい。いずれにしても、画像処理部3には、処理対象となる分割した画像領域の最大数に合わせて画像処理プロセスを予め用意しておく必要がある。
After the area division, the area
領域分割処理部2は、以上のステップS2〜ステップS4までの処理動作を情報管理部5から読み込むべき領域情報がなくなるまで繰り返す(ステップS5)。
The area
画像処理部3では、距離画像取得部1から送られてきた図4に示したような距離画像データのうち、領域分割処理部2にて分割された画像領域に対応するものに対してのみ、エッジ切り出し(撮像物体の輪郭抽出)、重心抽出、面積算出、撮像物体までの距離の算出、動きベクトルの算出など、撮像体の形状、動き、位置等の情報を抽出するための種々の画像処理を行う(ステップS6)。例えば、ここでは、2つの分割された画像領域(分割画像)のそれぞれに対し割り当てれた2つの同じ画像処理プロセスが並列に実行されているものとする。
In the
画像処理部3の各分割画像に割り当てられた画像処理プロセスのそれぞれでは、まず、画素値が予め定められた所定値以下のセルを除き、例えば、図6に示すように当該分割画像内にある撮像された物体の輪郭情報を抽出する。
In each of the image processing processes assigned to each divided image of the
図6のような輪郭情報を抽出するには、隣り合う画素の画素値を比較し、画素値が一定値α以上のところだけに定数値を入れて、同じ定数値が割り振られた連続した画像領域の画素を抽出すればよい。 In order to extract the contour information as shown in FIG. 6, the pixel values of adjacent pixels are compared, a constant value is inserted only where the pixel value is equal to or greater than a certain value α, and consecutive images assigned with the same constant value. What is necessary is just to extract the pixel of an area | region.
すなわち、マトリックス上の座標位置(i、j)にある画素値をP(i、j)とし、輪郭情報の画素値をR(i、j)とすると、
・{P(i、j)−P(i−1、j)}>α、かつ
{P(i、j)−P(i、j−1)}>α、かつ
{P(i、j)−P(i+1、j)}>α、かつ
{P(i、j)−P(i、j+1)}>α
のとき、R(i、j)=255
・ 上記以外のとき、R(i、j)=0
とすることにより、図6のような物体の輪郭情報を得ることができる。
That is, if the pixel value at the coordinate position (i, j) on the matrix is P (i, j) and the pixel value of the contour information is R (i, j),
{P (i, j) -P (i-1, j)}> α, and {P (i, j) -P (i, j-1)}> α, and {P (i, j) −P (i + 1, j)}> α and {P (i, j) −P (i, j + 1)}> α
Then R (i, j) = 255
・ R (i, j) = 0 in other cases
By doing so, the contour information of the object as shown in FIG. 6 can be obtained.
また、画像処理部3の各画像処理プロセスは、各分割画像から抽出された図6に示したような輪郭情報を基に、当該物体の重心を計算する。
Each image processing process of the
この重心位置と直前のフレームから抽出された重心位置とを比較して物体が動いているかどうかが判断できる。動いていると判断したときは、重心の変化量と変化方向とを表す動きベクトルを算出する。また、重心位置のみに限らず、連続する距離画像のそれぞれから抽出された輪郭情報を互いに比較しあって、輪郭上の任意の点の動きベクトルを求めてもよい。 It can be determined whether or not the object is moving by comparing the position of the center of gravity with the position of the center of gravity extracted from the immediately preceding frame. When it is determined that the object is moving, a motion vector representing the change amount and the change direction of the center of gravity is calculated. Further, not only the position of the center of gravity but also the contour information extracted from each of the continuous distance images may be compared with each other to obtain a motion vector of an arbitrary point on the contour.
輪郭の抽出された物体までの距離dの算定には、まず当該物体の重心位置近傍の画像の代表画素値を求める。代表画素値としては、平均値、最近傍値などいくつかあるが、ここでは、最近傍値を使うとする。当該物体からの反射光の強さは物体までの距離の2乗に反比例して小さくなる。すなわち、当該物体の画像の代表画素値をQ(i、j)とすると、
Q(i、j)=K/d2 …(1)
と表すことができる。
In order to calculate the distance d to the object from which the contour is extracted, first, the representative pixel value of the image near the center of gravity of the object is obtained. There are several representative pixel values such as an average value and a nearest neighbor value. Here, the nearest neighbor value is used. The intensity of reflected light from the object decreases in inverse proportion to the square of the distance to the object. That is, if the representative pixel value of the image of the object is Q (i, j),
Q (i, j) = K / d 2 (1)
It can be expressed as.
ここで、Kは、例えば、d=0.5mのときに、画素値R(i、j)の値が「255」になるように調整された係数である。式(1)をdについて解くことで、距離値dを求めることができる。 Here, for example, K is a coefficient adjusted so that the value of the pixel value R (i, j) becomes “255” when d = 0.5 m. The distance value d can be obtained by solving the equation (1) for d.
このようにして、分割画像のそれぞれから目的とする対象物の形状、動き、位置等の情報を抽出することができる。 In this way, information such as the shape, movement, and position of the target object can be extracted from each of the divided images.
例えば、モグラ叩きゲームの場合、距離画像取得間隔(例えば1秒)の間に提示部4の表示画面上に出現したモグラの数が2匹であるとき、画像処理部3は、距離画像取得部1で取得した距離画像のうち、2匹のモグラの表示領域に対応する分割画像に対し、上述したような画像処理を施す。この場合、当該2つの分割画像のそれぞれから前述したようにして(図8に示したようなユーザの手の)輪郭情報の重心位置(例えば、距離値を含めた3次元座標)を抽出すればよい。この各分割画像から抽出された重心位置は、情報管理部5に送られる。情報管理部5では、各分割画像から抽出された重心位置が予め定められた範囲内にであるとき、モグラが叩かれたと判断すればよい。モグラが叩かれたと判断したときは、提示部4に表示された当該叩かれたモグラに悲鳴を発せさせたり、提示部4に表示されている叩かれたモグラの数に対応する点数を加算する等の処理を行う(ステップS7)。
For example, in the case of a mole hitting game, when there are two moles appearing on the display screen of the
距離画像取得部1で取得した距離画像を図8に示したように、右手と左手の両方を撮像して、この双方の動きをそれぞれ認識したい場合に、距離画像取得部1が取得した距離画像全体をそのまま(領域分割せずに)画像処理を行うのでは、それに対応した画像処理プログラムを新たに開発せねばならなかった。が、本発明の情報抽出装置では、領域分割処理部2が、図8(a)に示したような距離画像を図8(b)に示したように左右2つの領域に分割する。そして、そのそれぞれの分割画像に対し同様の画像処理を別個に実行することにより、例えば、認識対象が増えた場合でも、その数が予め用意されている画像処理プロセスの数以内であれば、例えば、当該認識対象の存在する領域を新たに分割して、画像処理プロセスを割り当てることにより、柔軟に(新たに画像処理プログラムを開発することなく)対処することができる。
As shown in FIG. 8, the distance image acquired by the distance
すなわち、認識対象が増えれば、その増えた分の領域情報を情報管理部5が保持していればよい。あるいは、距離画像取得部1で取得した距離画像を提示部4に提示し、それを基にユーザが所望の領域を指示入力するためのユーザインタフェースを具備していてもよい。ユーザは、提示部4に提示された距離画像に対し、マウス、ペン等のポインティングデバイスを用いて、所望の認識対象の存在する位置を入力すればよい。この入力された領域情報を情報管理部5が保持する。
That is, if the number of recognition targets increases, the
領域分割処理部2は、領域情報を情報管理部5から読み込んで距離画像取得部1で取得した距離画像を分割していけばよい。
The area
例えば、図1の情報抽出装置がモグラ叩きゲームに接続されている場合、提示部4の表示画面上に表示すべく配置されているモグラにあわせて距離画像取得部1で取得した距離画像を領域分割し、各分割画像で重心位置を認識する。例えば、モグラが16匹いて、今、叩かれるべきモグラ4匹だけであれば、その4匹のモグラの存在する分割画像に対してのみ重心位置の認識をし、どのモグラがたたかれたかを判定すればよいので、高速に処理することが可能となる。
For example, when the information extraction device of FIG. 1 is connected to a mole hitting game, the distance image acquired by the distance
本発明の情報抽出装置は、何もモグラ叩きゲームにのみ適用されるわけでなく、種々のシステムに適用可能である。例えば、両手を使って楽器を演奏するようなシステムに適用する場合、右手では、シンバルを、左手では、ティンパニーをというように、複数の楽器を演奏することも可能である。その場合、例えば、各画像領域に割り当てられる画像処理プロセスは、画像領域中の手の重心位置を抽出し、その奥行き(z軸)方向の動きの速さと、左右(x軸)方向の動きの速さとを算出するものである。この画像処理結果を受け取ったシステムは、奥行き(z軸)方向の動きの速さを演奏する音の大きさ、左右(x軸)方向の動きの速さを演奏する音の周波数に割り当てることで、簡単にかつ直感的に演奏することが可能である。 The information extraction apparatus of the present invention is not applied only to a mole hitting game, but can be applied to various systems. For example, when applied to a system in which an instrument is played using both hands, it is possible to play a plurality of instruments, such as a cymbal with the right hand and a timpani with the left hand. In that case, for example, the image processing process assigned to each image area extracts the center of gravity position of the hand in the image area, and the movement speed in the depth (z-axis) direction and the movement in the left-right (x-axis) direction. The speed is calculated. The system that has received the image processing result assigns the speed of movement in the depth (z-axis) direction to the volume of the sound to be played, and assigns the speed of movement in the left and right (x-axis) direction to the frequency of the sound to be played. It is possible to play easily and intuitively.
なお、領域分割処理部2で距離画像を分割する際、1つの分割画像の大きさがあまり小さいと、対象物の認識したい動きとは関係のない微妙な動きまで認識してしまい、好ましくない。例えば、図1の情報抽出装置が携帯可能な他のシステムに用いられている場合、人間の手は、無意識的に意味のない微動をするものであり(例えば、手ぶれ)、1つ1つの分割画像があまり小さいと、この手ぶれの影響から認識対象の動きが正確に認識できない。そのため、分割画像の大きさとしては、手ぶれが認識対象の動きの抽出に影響を与えるほど小さくならないよう、分割画像の大きさの下限をあらかじめ設けることが望ましい。
It should be noted that when the range image is divided by the area
以上説明したように、上記第1の実施形態によれば、取得した距離画像に認識対象が複数ある場合でも、その認識対象の数に応じて当該距離画像を分割し、その分割画像毎に画像処理をそれぞれ施すことにより、当該距離画像から容易に複数の認識対象のそれぞれの動き、形状、位置等の情報が抽出できる。 As described above, according to the first embodiment, even when there are a plurality of recognition objects in the acquired distance image, the distance image is divided according to the number of recognition objects, and an image is obtained for each divided image. By performing each processing, it is possible to easily extract information such as the movement, shape, and position of each of the plurality of recognition objects from the distance image.
(第2の実施形態)
図9は、本発明の第2の実施形態に係る情報抽出装置の構成例を示したものである。なお、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、図1の領域分割処理部2が図9では、基盤抽出部6に置き換わっている。
(Second Embodiment)
FIG. 9 shows a configuration example of an information extraction apparatus according to the second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to FIG. 1 and an identical part, and only a different part is demonstrated. That is, the area
基盤抽出部6は、上腕に対する下腕の相対的な動き、あるいは体に対する腕の相対的な動きを抽出したいときに、上腕や体のように、相対的な動きの基盤になる部分を抽出するものである。
The
人間が、例えば、道具を使ってスポーツやゲームを楽しんでいるとき、全身が動いてはいるものの、例えば、投げ込まれた玉をラケットに当てて投げ返すという動作において、その投げ込まれた玉がラケットにあったか否か、また、ラケットに当てられた球がどの方向に向かっていくのか等は、当該人物のラケットを持っている腕の部分の動きのみを解析すれば充分であり、当該人物がどのように胴体を動かしているかを解析する必要はない。そこで、本発明では、この点に着目して、認識すべき対象の動き(例えば、腕の動き)を基盤の動き(例えば、胴体の動き)に対する相対的な動きとして認識するものである。より具体的には、取得した距離画像から認識すべき対象以外のもの(基盤画像)を削除してから、当該認識すべき対象に関する目的とする情報を抽出するための画像処理を施すようになっている。 For example, when a human is enjoying a sport or a game using a tool, the whole body is moving, but the thrown ball is a racket in the action of throwing the thrown ball against the racket and throwing it back. It is sufficient to analyze only the movement of the part of the arm that holds the person's racket, etc. There is no need to analyze how the body is moving. Accordingly, in the present invention, focusing on this point, the movement of the object to be recognized (for example, the movement of the arm) is recognized as a relative movement with respect to the movement of the base (for example, the movement of the trunk). More specifically, after deleting an object other than the object to be recognized (base image) from the acquired distance image, image processing for extracting target information regarding the object to be recognized is performed. ing.
次に、図10に示すフローチャートを参照して、図9の情報抽出装置の処理動作について説明する。 Next, the processing operation of the information extraction apparatus in FIG. 9 will be described with reference to the flowchart shown in FIG.
まず、電源の投入あるいは動作の開始指示にて起動されると、所定の初期化処理を行う。その後、距離画像取得部1は、図2に示したような発光部101、受光部103を用いて、例えば、1秒間に100枚程度の速度で距離画像を取得する(ステップS11)。
First, when the power is turned on or activated by an operation start instruction, a predetermined initialization process is performed. Thereafter, the distance
距離画像取得部1では、例えば、毎秒100枚の距離画像を取得するとすると、基盤抽出部6では、その取得された距離画像のうち、毎秒1枚あるいは2枚を所定間隔おきに(基盤抽出タイミングで)取り込む(ステップS12)。ある基盤抽出タイミングに基盤抽出部6が図11に示したような距離画像を取り込んだとする。
For example, when the distance
基盤抽出部6では、図11に示したような距離画像から、例えば、距離値が一定値以上大きい(つまり、遠方にある)画像を基盤画像として抽出する。あるいは、距離値が一定値以上近いもの、あるいは最も動きの少ない部分などの基準で基盤画像を抽出する(ステップS13)。
The
距離値に基づき基盤画像を抽出する場合について説明する。図11に示したような距離画像は、実際には、図4に示したような反射光の強度分布であり、前述したように、画素値は、撮像体の距離画像取得部1までの距離値を表しているとみなしてよい(例えば、画素値が大きい程、撮像体は遠方にあり、画素値が小さい程撮像体は近傍にある)。従って、距離画像取得部1が固定されているならば、試験的に取得した距離画像と(1)式とから、必要とする画素値と距離値との対応関係を予め求めることができる。基盤抽出部6は、この対応関係を記録したテーブルを予め具備していることが好ましい。抽出しようとしている基盤の特徴(あるいは、認識すべき対象の特徴)に応じて、基準となる距離値を定め、上記対応関係を参照して、当該基準となる距離値より遠方にある画素値を抽出することにより、あるいは、当該基準となる距離値より近傍にある画素値を抽出することにより、基盤画像を抽出する。
A case where a base image is extracted based on the distance value will be described. The distance image as shown in FIG. 11 is actually the intensity distribution of the reflected light as shown in FIG. 4. As described above, the pixel value is the distance to the distance
動きに基づき基盤画像を抽出する場合について説明する。基盤抽出タイミング毎に基盤抽出部6に送られてくる距離画像から、前述したように物体の輪郭情報を抽出し、当該物体の重心を求める。各距離画像から求めた該当する物体同士の重心位置を比較して、その変化量が所定値以下の物体の画像の基盤画像として抽出すればよい。
A case where a base image is extracted based on movement will be described. As described above, the contour information of the object is extracted from the distance image sent to the
例えば、図11に示したような距離画像から距離値が所定値以上となる(すなわち、画素値が所定値以下の)画素を抽出して得られた基盤画像の一例を図14に示す。 For example, FIG. 14 shows an example of a base image obtained by extracting pixels from which the distance value is equal to or greater than a predetermined value (that is, the pixel value is equal to or less than the predetermined value) from the distance image as shown in FIG.
基盤抽出部6は、基盤抽出タイミング毎に基盤部分を抽出すると、その後、距離画像取得部1で取得された距離画像から当該基盤画像との差分(差分画像)を求める(ステップS14)。すなわち、例えば、図14に示したように、人間の上半身を撮像した距離画像から基盤画像として胴体の画像が抽出され、その後、距離画像取得部1から、図11、図12、図13に示したような人間の上半身を撮像した距離画像が取り込まれたとする。図11に示した距離画像と図14に示したような基盤画像との差分を求めると、図15に示すように、差分画像として、人間の両腕の距離画像が得られる。同様にして、図12に示した距離画像と図14に示したような基盤画像との差分画像の一例を図16に示す。図13に示した距離画像と図14に示したような基盤画像との差分画像の一例を図17に示す。
After extracting the base part at each base extraction timing, the
画像処理部3は、差分画像に対し、第1の実施形態と同様にして、エッジ切り出し(撮像物体の輪郭抽出)、重心抽出、面積算出、撮像物体までの距離の算出、動きベクトルの算出など、撮像体の形状、動き、位置等の情報を抽出するための種々の画像処理を行う(ステップS15)。すなわち、モグラ叩きゲームの場合、例えば、図15〜図17に示したような両腕のみが抽出された差分画像から腕の輪郭とその重心位置(3次元座標)を抽出すればよい。
For the difference image, the
この各距離画像から抽出された重心位置は、情報管理部5に送られる。情報管理部5では、各画像領域から抽出された重心位置と提示部4の表示画面に表示されたモグラの出現位置とを比較して、予め定められた範囲内にであるとき、モグラが叩かれたと判断すればよい。モグラが叩かれたと判断したときは、提示部4に表示された当該叩かれたモグラに悲鳴を発せさせたり、提示部4に表示されている叩かれたモグラの数に対応する点数を加算する等の処理を行う(ステップS16)。
The barycentric position extracted from each distance image is sent to the
第2の実施形態にかかる情報抽出装置を、例えばモグラ叩きゲームのアーケード版に用いた場合、ユーザは、肘部分を支点にして、モグラをたたいていくというごく自然なジェスチャで、モグラを叩く操作を容易に再現できる。 When the information extraction apparatus according to the second embodiment is used for an arcade version of a mole hitting game, for example, the user taps the mole with a natural gesture of hitting the mole with the elbow portion as a fulcrum. Can be easily reproduced.
このように、上記第2の実施形態によれば、距離画像から、例えば、胴体に対する腕の相対的な動きのみを抽出するので、認識すべき動き以外の余分な動きに影響されずに、取得した距離画像から高精度に動きを認識できる。 As described above, according to the second embodiment, since only the relative movement of the arm with respect to the torso is extracted from the distance image, for example, the acquisition is performed without being affected by the extra movement other than the movement to be recognized. The motion can be recognized from the obtained distance image with high accuracy.
(第3の実施形態)
図18は、本発明の第3の実施形態に係る情報抽出装置の構成例を示したものである。なお、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、図18では、領域分割処理部2と基盤抽出部6とを具備したものである。
(Third embodiment)
FIG. 18 shows a configuration example of an information extraction apparatus according to the third embodiment of the present invention. In addition, the same code | symbol is attached | subjected to FIG. 1 and an identical part, and only a different part is demonstrated. That is, in FIG. 18, the area
図18の情報抽出装置の処理動作について簡単に説明する。すなわち、図7を参照して説明したように、距離画像取得部1で所定間隔毎に(例えば、毎秒2枚)に取り込まれた距離画像は、領域分割処理部2で情報管理部5から受け取った領域情報に基づき分割される。基盤抽出部6は、処理対象とすべき各分割画像から、所定間隔毎に(例えば毎秒1枚)基盤画像を抽出し、当該分割画像と当該基盤画像との差分画像を求める。各分割画像から求められた差分画像のそれぞれに対し画像処理プロセスを起動して、前述したようなエッジ切り出し(撮像物体の輪郭抽出)、重心抽出、面積算出、撮像物体までの距離の算出、動きベクトルの算出など、撮像体の形状、動き、位置等の情報を抽出するための種々の画像処理を行う。
The processing operation of the information extraction apparatus in FIG. 18 will be briefly described. That is, as described with reference to FIG. 7, the distance image captured at predetermined intervals (for example, two images per second) by the distance
なお、図1、図9、図18の情報抽出装置の構成において距離画像取得部1を除く各構成部の処理動作はコンピュータに実行させることのできるプログラムとして、フロッピー(登録商標)ディスク、ハードディスク、CD−ROM、DVD、半導体メモリなどの記録媒体に格納して頒布することもできる。
1, 9, and 18, the processing operations of the components other than the distance
1…距離画像取得部
2…領域分割処理部
3…画像処理部
4…呈示部
5…情報管理部
6…基盤抽出部
101…発光部
102…反射光抽出部
103…受光部
104…タイミング信号生成部
DESCRIPTION OF
Claims (5)
取得した距離画像から、(a)重心位置の変化量が所定値以下の画像領域を抽出することにより、あるいは(b)前記距離画像中の前記対象物のうちの一部分である認識対象の画像領域の画素値から算出される当該認識対象までの距離値に基づき定められた基準値と、前記距離画像の各素値とを比較して、当該距離画像から当該基準値よりも大きいあるいは小さい値の画素値を抽出することにより、前記対象物の前記認識対象以外の部分に対応する画像領域を基盤画像として抽出する第2のステップと、
前記第1のステップで取得された各距離画像について、前記基盤画像との間の差分を求め、前記対象物の前記認識対象の画像領域を含む差分画像を得る第3のステップと、
各差分画像中の前記認識対象の位置を示す3次元座標から、異なる距離画像間における前記認識対象の位置の変化量及び変化方向を求める第4のステップと、
を含む情報抽出方法。 By irradiating the object with light from the light emitting means and receiving the reflected light from the object with the light receiving means, each pixel value indicates the intensity of the reflected light received by the light receiving means, and the reflection indicated by each pixel value A first step in which distance image acquisition means for acquiring a distance image representing a distance to an object and a three-dimensional shape of the object by light intensity acquires a plurality of time-series distance images captured of the object. When,
From the acquired distance image, (a) by extracting an image area in which the amount of change in the center of gravity position is a predetermined value or less, or (b) an image area of a recognition target that is a part of the object in the distance image The reference value determined based on the distance value to the recognition target calculated from the pixel value of each pixel is compared with each elementary value of the distance image, and a value larger or smaller than the reference value is calculated from the distance image. A second step of extracting, as a base image, an image region corresponding to a portion of the object other than the recognition target by extracting a pixel value ;
For each distance image acquired in the first step, a third step is performed for obtaining a difference between the base image and obtaining a difference image including the recognition target image area of the object ;
A fourth step of determining a change amount and a change direction of the position of the recognition target between different distance images from three-dimensional coordinates indicating the position of the recognition target in each difference image ;
Information extraction method, including.
前記距離画像取得手段で取得された距離画像から、(a)重心位置の変化量が所定値以下の画像領域を抽出することにより、あるいは(b)前記距離画像中の前記対象物のうちの一部分である認識対象の画像領域の画素値から算出される当該認識対象までの距離値に基づき定められた基準値と、前記距離画像の各素値とを比較して、当該距離画像から当該基準値よりも大きいあるいは小さい値の画素値を抽出することにより、前記対象物の前記認識対象以外の部分に対応する画像領域を基盤画像として抽出する抽出手段と、
前記距離画像取得手段で取得された各距離画像について、前記基盤画像との間の差分を求め、前記対象物の前記認識対象の画像領域を含む差分画像を得る手段と、
各差分画像中の前記認識対象の位置を示す3次元座標から、異なる距離画像間における前記認識対象の位置の変化量及び変化方向を求める手段と、
を具備したことを特徴とする情報抽出装置。 By irradiating the object with light from the light emitting means and receiving the reflected light from the object with the light receiving means, each pixel value indicates the intensity of the reflected light received by the light receiving means, and the reflection indicated by each pixel value Distance image acquisition means for acquiring a distance image representing the distance to the object and the three-dimensional shape of the object by the intensity of light;
From the distance image acquired by the distance image acquisition means , (a) by extracting an image region where the amount of change in the center of gravity position is a predetermined value or less, or (b) a part of the object in the distance image The reference value determined based on the distance value to the recognition target calculated from the pixel value of the image area of the recognition target is compared with each elementary value of the distance image, and the reference value is calculated from the distance image. Extracting means for extracting, as a base image, an image region corresponding to a portion other than the recognition target of the target object by extracting a pixel value having a larger or smaller value than
For each distance image acquired by the distance image acquisition means, a difference between the distance image acquisition means and the base image is obtained, and a means for obtaining a difference image including the recognition target image area of the object ;
Means for determining a change amount and a change direction of the position of the recognition object between different distance images from three-dimensional coordinates indicating the position of the recognition object in each difference image;
An information extraction apparatus comprising:
前記距離画像取得手段で取得された距離画像から、(a)重心位置の変化量が所定値以下の画像領域を抽出することにより、あるいは(b)前記距離画像中の前記対象物のうちの一部分である認識対象の画像領域の画素値から算出される当該認識対象までの距離値に基づき定められた基準値と、前記距離画像の各素値とを比較して、当該距離画像から当該基準値よりも大きいあるいは小さい値の画素値を抽出することにより、前記対象物の前記認識対象以外の部分に対応する画像領域を基盤画像として抽出する抽出手段と、
前記距離画像取得手段で取得された各距離画像について、前記基盤画像との間の差分を求め、前記対象物の前記認識対象の画像領域を含む差分画像を得る手段と、
各差分画像中の前記認識対象の位置を示す3次元座標から、異なる距離画像間における前記認識対象の一部の位置の変化量及び変化方向を求める手段、
として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 By irradiating the object with light from the light emitting means and receiving the reflected light from the object with the light receiving means, each pixel value indicates the intensity of the reflected light received by the light receiving means, and the reflection indicated by each pixel value A computer comprising distance image acquisition means for acquiring a distance image representing the distance to the object and the three-dimensional shape of the object by the intensity of light,
From the distance image acquired by the distance image acquisition means , (a) by extracting an image region where the amount of change in the center of gravity position is a predetermined value or less, or (b) a part of the object in the distance image The reference value determined based on the distance value to the recognition target calculated from the pixel value of the image area of the recognition target is compared with each elementary value of the distance image, and the reference value is calculated from the distance image. Extracting means for extracting, as a base image, an image region corresponding to a portion other than the recognition target of the target object by extracting a pixel value having a larger or smaller value than
For each distance image acquired by the distance image acquisition means, a difference between the distance image acquisition means and the base image is obtained, and a means for obtaining a difference image including the recognition target image area of the object ;
Means for obtaining a change amount and a change direction of a position of a part of the recognition object between different distance images from three-dimensional coordinates indicating the position of the recognition object in each difference image;
A computer-readable recording medium in which a program for functioning as a computer is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004189878A JP4218963B2 (en) | 2004-06-28 | 2004-06-28 | Information extraction method, information extraction apparatus, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004189878A JP4218963B2 (en) | 2004-06-28 | 2004-06-28 | Information extraction method, information extraction apparatus, and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10167201A Division JP2000003445A (en) | 1998-06-15 | 1998-06-15 | Method and device for extracting information and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004333505A JP2004333505A (en) | 2004-11-25 |
JP4218963B2 true JP4218963B2 (en) | 2009-02-04 |
Family
ID=33509357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004189878A Expired - Fee Related JP4218963B2 (en) | 2004-06-28 | 2004-06-28 | Information extraction method, information extraction apparatus, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4218963B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010154405A (en) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | Video image reproducing device, control signal generating device, and method of generating control signal |
JP2012008998A (en) * | 2010-06-23 | 2012-01-12 | Ind Technol Res Inst | Method for recognizing three-dimensional control point and computer-readable recording medium using the same |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200625143A (en) * | 2005-01-04 | 2006-07-16 | Pixart Imaging Inc | Personal computer's interactive input device and game-peripheral equipment |
JP4769859B2 (en) | 2006-02-28 | 2011-09-07 | 富士通株式会社 | Reflected light detection device, reflection characteristic determination device, and object detection device |
JP5476685B2 (en) * | 2007-11-09 | 2014-04-23 | 株式会社リコー | Information processing apparatus, image processing apparatus, information processing apparatus control method, information processing program, and recording medium |
JP4923214B2 (en) * | 2008-09-09 | 2012-04-25 | ブリテッシュ ヴァージン アイランズ シューウィー グループ リミテッド | Electronic game controller capable of sensing player body image and method thereof |
KR101591471B1 (en) | 2008-11-03 | 2016-02-04 | 삼성전자주식회사 | apparatus and method for extracting feature information of object and apparatus and method for generating feature map |
JP2012000165A (en) | 2010-06-14 | 2012-01-05 | Sega Corp | Video game apparatus |
JP6014890B2 (en) * | 2012-09-14 | 2016-10-26 | 国立大学法人 奈良先端科学技術大学院大学 | 3D motion detection apparatus and detection method for moving object |
-
2004
- 2004-06-28 JP JP2004189878A patent/JP4218963B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010154405A (en) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | Video image reproducing device, control signal generating device, and method of generating control signal |
JP2012008998A (en) * | 2010-06-23 | 2012-01-12 | Ind Technol Res Inst | Method for recognizing three-dimensional control point and computer-readable recording medium using the same |
US8433131B2 (en) | 2010-06-23 | 2013-04-30 | Industrial Technology Research Institute | Method for recognizing three-dimensional control point and computer readable medium using the same thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2004333505A (en) | 2004-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000003445A (en) | Method and device for extracting information and recording medium | |
CN107925739B (en) | Projection system | |
JP7013139B2 (en) | Image processing device, image generation method and program | |
US8556716B2 (en) | Image generation system, image generation method, and information storage medium | |
CN105073210B (en) | Extracted using the user's body angle of depth image, curvature and average terminal position | |
US7961174B1 (en) | Tracking groups of users in motion capture system | |
JP3841806B2 (en) | Image processing apparatus and image processing method | |
EP2371434B1 (en) | Image generation system, image generation method, and information storage medium | |
WO2006025137A1 (en) | Image processor, game machine, and image processing method | |
EP2395454A2 (en) | Image generation system, shape recognition method, and information storage medium | |
JP5255789B2 (en) | Image processing program and image processing apparatus | |
CN1676184A (en) | Image generation device, image display method and program product | |
JP2014238731A (en) | Image processor, image processing system, and image processing method | |
US9126109B2 (en) | Game device, control method of game device, program, and information storage medium | |
JP2002233665A5 (en) | ||
US20140045593A1 (en) | Virtual joint orientation in virtual skeleton | |
JP2009245349A (en) | Position detection system, program, information recording medium, and image generating device | |
JP4218963B2 (en) | Information extraction method, information extraction apparatus, and recording medium | |
JP2006260602A (en) | Image processing apparatus | |
JP2010137097A (en) | Game machine and information storage medium | |
JP5399966B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
EP1716896A3 (en) | Billiard game input device, billiard game system, game input device, and computer program | |
KR101912126B1 (en) | Apparatus for base-ball practice, sensing device and sensing method used to the same and control method for the same | |
JP4433579B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP5629364B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060711 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061003 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081110 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |