JP4218963B2 - Information extraction method, information extraction apparatus, and recording medium - Google Patents

Information extraction method, information extraction apparatus, and recording medium Download PDF

Info

Publication number
JP4218963B2
JP4218963B2 JP2004189878A JP2004189878A JP4218963B2 JP 4218963 B2 JP4218963 B2 JP 4218963B2 JP 2004189878 A JP2004189878 A JP 2004189878A JP 2004189878 A JP2004189878 A JP 2004189878A JP 4218963 B2 JP4218963 B2 JP 4218963B2
Authority
JP
Japan
Prior art keywords
image
distance
distance image
value
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004189878A
Other languages
Japanese (ja)
Other versions
JP2004333505A (en
Inventor
美和子 土井
直子 梅木
功雄 三原
康晋 山内
明 森下
俊一 沼崎
高広 原島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004189878A priority Critical patent/JP4218963B2/en
Publication of JP2004333505A publication Critical patent/JP2004333505A/en
Application granted granted Critical
Publication of JP4218963B2 publication Critical patent/JP4218963B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、距離画像から認識対象の動きや位置等の目的とする情報を抽出する情報抽出装置および方法に関する。   The present invention relates to an information extraction apparatus and method for extracting target information such as a movement and position of a recognition target from a distance image.

従来、アーケードゲーム機などの遊具装置では、ボクシングゲームや、射撃ゲームなどの人間の動きを利用したゲームが多く開発されてきている。ボクシングゲームでは、ユーザが実際にサンドバッグを打撃したときの圧力を物理的に測定している。このとき、測定されているのは、ユーザのパンチがサンドバッグに当たった瞬間の圧力のみである。パンチがユーザからどのような経路でどのくらいの速さで繰り出されたのかという情報は用いられていない。このため、単純なパンチの強さだけを競う単調なゲームになっている。   Conventionally, in playground equipment such as arcade game machines, many games using human movement such as a boxing game and a shooting game have been developed. In the boxing game, the pressure when the user actually hits the sandbag is physically measured. At this time, only the pressure at the moment when the user's punch hits the sandbag is measured. Information on how and how fast the punch is fed from the user is not used. For this reason, it is a monotonous game that competes only for the strength of a simple punch.

射撃ゲームでは、おもちゃの銃の先に発光体をつけ、その発光体の光が、画面上のどこにあたるかを検知する。銃の引き金が弾かれたときに光が当たっている物体に銃弾があたったと判定するようになっている。このように単純なため、射撃の腕を競うと言うよりは、呈示された標的をいかに素早く見つけて撃つだけの反射神経を競うだけのゲームになってしまっている。   In the shooting game, a light emitter is attached to the tip of a toy gun, and the light on the screen is detected where the light is. When a gun trigger is fired, it is determined that a bullet has hit an object that is exposed to light. Because of this simplicity, rather than competing for shooting skills, it has become a game that only competes for reflexes to quickly find and shoot the presented target.

一方、CCDカメラなどを用いて撮像した画像を解析して、人間の身体の位置、動きなどを認識する方法もとられている。この方法では、進行方向をまず、CCDカメラなどの撮像装置を用いて撮影する。その画像から人間を抽出する場合では、例えば、顔や手の色が肌色なので、それ以外の背景などの余計な部分を取り除き、障害物となる物体など認識したい対象のみを切り出すという前処理を行う。そして、その処理後の画像から対象物の形状、動き等を認識する。   On the other hand, a method of recognizing the position and movement of a human body by analyzing an image captured using a CCD camera or the like is used. In this method, the traveling direction is first photographed using an imaging device such as a CCD camera. In the case of extracting a human from the image, for example, since the color of the face or hand is a skin color, a preprocessing is performed such that an extra portion such as the background is removed and only an object to be recognized such as an obstacle is cut out. . Then, the shape, movement, etc. of the object are recognized from the processed image.

まず、この認識対象の切り出しという前処理部分について説明する。従来の手法では、カメラで撮影した画像から、取得したい対象物の部分のみを切り出す作業手段として、対象物と、それ以外の部分の何らかの相違点を手がかりとして対象物の切り出しが行われていた。   First, the pre-processing part of extracting the recognition target will be described. In the conventional technique, as an operation means for cutting out only a part of an object to be acquired from an image photographed by a camera, the object is cut out by using some difference between the object and other parts as a clue.

この手がかりとして、色相の変化を利用する方法、差分画像を利用する方法などが用いられている。色を使って切り出す場合、色相差の大きな部分を抜き出し、細線化などの処理を行い、エッジを抽出する。人間を対象にする場合には、顔や手の部分の肌色に注目し、その色相部分のみを抽出しようとするものである。が、色相差を用いる方法は、照明の色や角度などにより、肌色といっても変化し、また、背景の色相が肌色に近いと、人間の肌色と識別するのが難しいなどの問題があり、定常的に切り出すことは困難である。また、照明が全くない状態では、撮像画像は全部暗くなってしまうので、人間でも暗闇で撮影した写真から物体を判別することは難しい。   As a clue, a method using a change in hue, a method using a difference image, and the like are used. When cutting out using colors, a portion with a large hue difference is extracted, and processing such as thinning is performed to extract edges. When targeting humans, attention is paid to the skin color of the face and hand parts, and only the hue part is extracted. However, the method of using the hue difference changes depending on the color and angle of the lighting, even if it is called skin color, and if the background hue is close to skin color, it is difficult to distinguish it from human skin color. It is difficult to cut out regularly. In addition, in the state where there is no illumination, the entire captured image becomes dark, and it is difficult for a human to discriminate an object from a photograph taken in the dark.

認識対象の撮像された画像から当該認識対象の動きや形状等の情報を抽出する際、当該認識対象が複数ある場合、例えば、人が右手と左手の双方を使って、粘土をこねるようにして、彫塑を行ったり、写真の隅をもって変形させるなどの操作を行ったりなど、両手を使う場合には、それぞれの手を別個に認識(動き、形状の抽出)する必要がある。例えば、右手と左手の画像をそれぞれ別個に取得して認識せねばならず、コストがかかった。   When extracting information such as movement and shape of the recognition target from the captured image of the recognition target, when there are a plurality of the recognition targets, for example, a person kneads clay using both the right hand and the left hand. When using both hands, such as engraving or performing operations such as deforming the corners of a photograph, it is necessary to recognize each hand separately (movement and shape extraction). For example, the right hand image and the left hand image must be acquired and recognized separately, which is expensive.

また、ビデオ画像のフレーム間の動きベクトルを算出し、動いている物体を解析する方式もあるが、この場合、動いている物体が少ないうちは問題ないが、動いている物体が多いと、動きベクトルの数が急に増え、フレーム間で動きベクトルを算出の負荷が増し、算出が追いつかなくなる。   There is also a method of calculating motion vectors between frames of video images and analyzing moving objects, but in this case there is no problem as long as there are few moving objects, but if there are many moving objects, The number of vectors suddenly increases, the motion vector calculation load increases between frames, and the calculation cannot keep up.

また、対象物の動きを抽出するにあたり、特に、対象物が人間である場合、その動きには、目的とする動きの他にも無駄な動きも多く含まれていて不安定であるため、当該目的とする動きのみを抽出しようとすると困難な場合がある。   In addition, when extracting the movement of the object, particularly when the object is a human being, the movement includes a lot of useless movements in addition to the target movement, and is unstable. It may be difficult to extract only the desired movement.

例えば、手を使って射撃もどきのゲームを行ったりするときに、人間の手は、ユーザが自身が意識しているよりも、位置に関して不安定である。例えば、手を拳銃の形にして、位置を決め撃つとしよう。銃口に当たる人差し指で、射撃位置と方向を決め、撃鉄に当たる親指を曲げた瞬間に弾丸が発射されるとする。ここで、問題になるのは、親指を曲げた瞬間に人差し指の指し示す方向が、射撃位置と方向を決めたときに、わずかながらではあるが、変化することである。熟練すれば、人差し指の方向が変化しないように親指を曲げることは可能であるが、このような熟練をすべてのユーザに要求するのでは、誰もが容易にゲームなどを楽しむことが難しくなる。   For example, when playing a shooting game using a hand, a human hand is more unstable in terms of position than the user is aware of. For example, suppose your hand is in the shape of a handgun and you decide the position and shoot. Let's say that a bullet is fired at the moment when the shooting position and direction are determined with the index finger hitting the muzzle and the thumb hitting the hammer is bent. Here, the problem is that when the thumb is bent, the pointing direction of the index finger changes slightly when the shooting position and direction are determined. If skilled, it is possible to bend the thumb so that the direction of the index finger does not change. However, if such skill is required for all users, it becomes difficult for everyone to enjoy games and the like easily.

また、親指を曲げるのでなく、位置を決めたあと、さらに拳銃にあたる手を目標に対し、近づけることで、引き金が押され、弾丸が発射されるように、操作方法を変えた場合でも、手を近づけるために移動したときに、人差し指の方向や位置が変化してしまう。変化しないように、動かそうとすると、下肢の筋肉に不自然に負担がかかってしまい、手がつりやすくなる。   Even if the operation method is changed so that the trigger is pushed and the bullet is fired by positioning the hand instead of bending the thumb and moving the hand that hits the handgun closer to the target. When moving to move closer, the direction and position of the index finger changes. If you try to move it so that it does not change, the muscles of the lower limbs will be unnaturally strained and your hands will be easier to lift.

同様の問題は、カメラなどの撮影でシャッターを押した瞬間に手がぶれる手ぶれとして知られている。カメラの場合には、撮像する対象は停止している、つまり静止画であるという前提のもとに、手ぶれ防止機能が設けられている。が、手や体を使ったジェスチャでは、動いていることが前提であるので、カメラに搭載されている手ぶれ防止機能のような、手の操作を安定させる方法をとることができない。   A similar problem is known as camera shake that occurs when the shutter is pressed when shooting with a camera or the like. In the case of a camera, a camera shake prevention function is provided on the assumption that an object to be imaged is stopped, that is, a still image. However, since gestures using the hands and body are premised on moving, it is impossible to take a method of stabilizing the operation of the hand, such as a camera shake prevention function mounted on the camera.

取得した距離画像から、認識すべき動き以外の余分な動きに影響されずに、高精度に認識対象の動きを抽出できる情報抽出装置および方法を提供することを目的とする。   An object of the present invention is to provide an information extraction apparatus and method that can extract a motion of a recognition target with high accuracy from an acquired distance image without being affected by extra motion other than the motion to be recognized.

本発明は、対象物に発光手段により光を照射し、対象物からの反射光を受光手段で受光することにより、各素値が当該受光手段で受光された反射光の強度を示し、各素値が示す反射光の強度により対象物までの距離及び対象物の3次元形状を表す距離画像を取得する距離画像取得手段により取得された、認識対象の対象物の撮像された、時系列な複数の距離画像のうちの少なくとも1つの距離画像の各素値を基に、前記識対象以外の画像である基盤画像を生成し、前記距離画像取得手段で取得された各距離画像について、前記基盤画像との間の差分画像を求め、各差分画像の前記対象物の位置を示す3次元座標から、異なる距離画像間における前記対象物の位置の変化量及び変化方向を求めることにより、認識すべき動き以外の余分な動きに影響されずに、高精度に認識対象の動きを抽出できる。   The present invention irradiates the object with light from the light emitting means and receives the reflected light from the object with the light receiving means, whereby each elementary value indicates the intensity of the reflected light received by the light receiving means, A plurality of time-series captured images of the object to be recognized, acquired by distance image acquisition means for acquiring a distance image representing the distance to the object and the three-dimensional shape of the object based on the intensity of the reflected light indicated by the value Based on each prime value of at least one distance image of the distance images, a base image that is an image other than the target object is generated, and for each distance image acquired by the distance image acquisition means, the base image Motion to be recognized by obtaining the difference image and the change direction of the position of the object between different distance images from the three-dimensional coordinates indicating the position of the object of each difference image. To extra movement other than Without being sound can be extracted motion of the recognition target with high precision.

取得した距離画像から、認識すべき動き以外の余分な動きに影響されずに、高精度に認識対象の動きを抽出できる。   The movement of the recognition target can be extracted from the acquired distance image with high accuracy without being affected by extra movement other than the movement to be recognized.

以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る情報抽出装置の構成例を示したもので、1つの撮像領域内の複数の箇所から対象物の形状、動き、位置等の情報を抽出(認識)して、その抽出した情報を、例えば、モグラ叩きゲーム等の他のシステムへ入力するためのものである。
(First embodiment)
FIG. 1 shows a configuration example of an information extraction apparatus according to the first embodiment of the present invention, in which information on the shape, movement, position, etc. of an object is extracted from a plurality of locations in one imaging region ( The extracted information is input to another system such as a mole hitting game.

図1に示すように、本実施形態に係る情報抽出装置は、反射光を受光し、距離画像を取得する、例えば特願平9−299648号に記載されている距離画像取得部1と、取得した距離画像を別途指定された領域に分割する領域分割処理部2と、この領域分割処理部2で分割された各領域毎に距離画像を解析し、対象物の輪郭、重心の抽出や対象物までの距離の算出、対象物の移動速度、移動ベクトルの算出等の当該認識対象に関する目的とする情報を抽出する画像処理部3と、例えば、大型の液晶パネル、スピーカなどから構成される呈示部4と、上記各部の制御を司る情報管理部5とから構成されている。   As shown in FIG. 1, the information extraction apparatus according to this embodiment receives reflected light and acquires a distance image, for example, a distance image acquisition unit 1 described in Japanese Patent Application No. 9-299648, and an acquisition The area division processing unit 2 that divides the distance image into separately designated areas, and the distance image is analyzed for each area divided by the area division processing unit 2 to extract the contour and center of gravity of the object and the object An image processing unit 3 that extracts target information about the recognition target such as calculation of distance to the target, movement speed of the target object, calculation of movement vector, and the like, and a presentation unit composed of, for example, a large liquid crystal panel or a speaker 4 and an information management unit 5 that controls the above-described units.

画像処理部3で抽出された情報は、例えば、情報管理部5を介して他のシステムに入力される。すなわち、他のシステムとして、例えば、モグラ叩きゲーム等は情報管理部5を介して接続されている。この他のシステムは、例えば、コンピュータに実行させることのできるプログラムであってもよい。   The information extracted by the image processing unit 3 is input to another system via the information management unit 5, for example. That is, as another system, for example, a mole hitting game or the like is connected via the information management unit 5. The other system may be a program that can be executed by a computer, for example.

図1に示すような構成の情報抽出装置が、例えば、提示部4の表示画面上の任意の表示領域からモグラを出現させ、ユーザがそのモグラの出現した表示領域めがけてひっぱたく動作(ユーザは表示画面に触れるほど叩く必要はない)を行って、命中したモグラの数を競うモグラ叩きゲームに接続されている場合、1つの距離画像取得部1は、ユーザが提示部4の表示画面上のどのモグラめがけてひっぱたこうとしているかを認識できるように(表示画面全体に対する対象物としての手の位置が認識できるように)設置されている。そして、領域分割処理部2では、提示部4の表示画面上のモグラの出現領域に対応して、距離画像取得部1で取得した距離画像の領域分割を行う。   The information extraction apparatus having the configuration as shown in FIG. 1 causes, for example, a mole to appear from an arbitrary display area on the display screen of the presentation unit 4, and the user pulls toward the display area where the mole appears (user displays If the player is connected to a mole hitting game that competes for the number of moles hit, the one distance image acquisition unit 1 can select which one on the display screen of the presentation unit 4 It is installed so that it can recognize whether it is trying to pull it toward the mole (so that the position of the hand as an object relative to the entire display screen can be recognized). Then, the area division processing unit 2 performs area division of the distance image acquired by the distance image acquisition unit 1 corresponding to the mole appearance area on the display screen of the presentation unit 4.

ここで、距離画像取得部1および、距離画像取得部1にて取得される距離画像について簡単に説明する。   Here, the distance image acquisition unit 1 and the distance image acquired by the distance image acquisition unit 1 will be briefly described.

距離画像取得部1の外観を図2に示す。中央部には円形レンズとその後部にあるエリアセンサ(図示せず)から構成される受光部103が配置され、円形レンズの周囲にはその輪郭に沿って、赤外線などの光を照射するLEDから構成される発光部101が複数個(例えば8個)等間隔に配置されている。   The appearance of the distance image acquisition unit 1 is shown in FIG. A light receiving unit 103 composed of a circular lens and an area sensor (not shown) at the rear thereof is arranged in the center, and the circular lens is surrounded by an LED that emits light such as infrared rays along its outline. A plurality of (for example, eight) light emitting units 101 are arranged at equal intervals.

発光部101から照射された光が物体に反射され、受光部103のレンズにより集光され、レンズの後部にあるエリアセンサで受光される。エリアセンサは、例えば256×256のマトリックス状に配列されたセンサで、マトリックス中の各センサにて受光された反射光の強度がそれぞれ画素値となる。このようにして取得された画像が、図4に示すような反射光の強度分布としての距離画像である。   The light emitted from the light emitting unit 101 is reflected by the object, collected by the lens of the light receiving unit 103, and received by the area sensor at the rear of the lens. The area sensor is, for example, a sensor arranged in a 256 × 256 matrix, and the intensity of reflected light received by each sensor in the matrix becomes a pixel value. The image acquired in this way is a distance image as the intensity distribution of reflected light as shown in FIG.

図3は、距離画像取得部1の構成例を示したもので、主に、発光部102、受光部103、反射光抽出部102、タイミング信号生成部104から構成される。   FIG. 3 shows a configuration example of the distance image acquisition unit 1, which mainly includes a light emitting unit 102, a light receiving unit 103, a reflected light extraction unit 102, and a timing signal generation unit 104.

発光部101は、タイミング信号生成部104にて生成されたタイミング信号に従って時間的に強度変動する光を発光する。この光は発光部前方にある対象物体に照射される。   The light emitting unit 101 emits light whose intensity varies with time in accordance with the timing signal generated by the timing signal generating unit 104. This light is applied to the target object in front of the light emitting unit.

受光部103は、発光部101が発した光の対象物体による反射光の量を検出する。   The light receiving unit 103 detects the amount of light reflected by the target object of the light emitted from the light emitting unit 101.

反射光抽出部102は、受光部103にて受光された反射光の空間的な強度分布を抽出する。この反射光の空間的な強度分布は画像として捉えることができるので、以下、これを距離画像と呼ぶ。   The reflected light extraction unit 102 extracts a spatial intensity distribution of the reflected light received by the light receiving unit 103. Since the spatial intensity distribution of the reflected light can be captured as an image, this is hereinafter referred to as a distance image.

受光部103は一般的に発光部101から発せられる光の対象物による反射光だけでなく、照明光や太陽光などの外光も同時に受光する。そこで、反射光抽出部102は発光部101が発光しているときに受光した光の量と、発光部101が発光していないときに受光した光の量の差をとることによって、発光部101からの光の対象物体による反射光成分だけを取り出す。   In general, the light receiving unit 103 simultaneously receives not only light reflected from an object of light emitted from the light emitting unit 101 but also external light such as illumination light and sunlight. Therefore, the reflected light extraction unit 102 takes the difference between the amount of light received when the light emitting unit 101 emits light and the amount of light received when the light emitting unit 101 does not emit light, thereby obtaining the light emitting unit 101. Only the reflected light component of the light from the target object is extracted.

反射光抽出部102では、受光部103にて受光された反射光から、その強度分布、すなわち、図4に示すような距離画像を抽出する。   The reflected light extraction unit 102 extracts the intensity distribution, that is, a distance image as shown in FIG. 4 from the reflected light received by the light receiving unit 103.

図4では、簡単のため、256×256画素の距離画像の一部である8×8画素の距離画像の場合について示している。   For the sake of simplicity, FIG. 4 shows the case of an 8 × 8 pixel distance image that is a part of a 256 × 256 pixel distance image.

物体からの反射光は、物体の距離が大きくなるにつれ大幅に減少する。物体の表面が一様に光を散乱する場合、距離画像1画素あたりの受光量は物体までの距離の2乗に反比例して小さくなる。   The reflected light from the object decreases significantly as the distance of the object increases. When the surface of the object scatters light uniformly, the amount of light received per pixel in the distance image decreases in inverse proportion to the square of the distance to the object.

図4において、行列中のセルの値(画素値)は、取得した反射光の強さを256階調(8ビット)で示したものである。例えば、「255」の値があるセルは、距離画像取得部1に最も接近した状態、「0」の値があるセルは、距離画像取得部1から遠くにあり、反射光が距離画像取得部1にまで到達しないことを示している。   In FIG. 4, the cell value (pixel value) in the matrix indicates the intensity of the acquired reflected light in 256 gradations (8 bits). For example, a cell having a value of “255” is closest to the distance image acquisition unit 1, a cell having a value of “0” is far from the distance image acquisition unit 1, and reflected light is a distance image acquisition unit 1 is not reached.

距離画像の各画素値は、その画素に対応する単位受光部で受光した反射光の量を表す。反射光は、物体の性質(光を鏡面反射する、散乱する、吸収する、など)、物体の向き、物体の距離などに影響されるが、物体全体が一様に光を散乱する物体である場合、その反射光量は物体までの距離と密接な関係を持つ。手などは、このような性質をもつため、距離画像取得部1の前方に手を差し出した場合の距離画像は、手までの距離、手の傾き(部分的に距離が異なる)などを反映する図5に示したような3次元的なイメージを得ることができる。   Each pixel value of the distance image represents the amount of reflected light received by the unit light receiving unit corresponding to the pixel. Reflected light is affected by the nature of the object (specularly reflects, scatters, absorbs, etc.), the direction of the object, the distance of the object, etc., but the entire object scatters light uniformly. In this case, the amount of reflected light is closely related to the distance to the object. Since hands and the like have such properties, the distance image when the hand is put out in front of the distance image acquisition unit 1 reflects the distance to the hand, the inclination of the hand (the distance is partially different), and the like. A three-dimensional image as shown in FIG. 5 can be obtained.

次に、図7に示すフローチャートを参照して、図1に示すような構成の情報抽出装置の処理動作について説明する。   Next, the processing operation of the information extraction apparatus configured as shown in FIG. 1 will be described with reference to the flowchart shown in FIG.

まず、電源の投入あるいは動作の開始指示にて起動されると、所定の初期化処理を行う。その後、距離画像取得部1は、図2に示したような発光部101、受光部103を用いて、例えば、1秒間に1枚あるいは2枚程度の速度で距離画像を取得する(ステップS1)。このとき取得した距離画像の一例を図8(a)に示す。図8(a)では、対象物が右手と左手の2つあり、そのそれぞれについて、動きや形状や位置等を認識する必要がある。   First, when the power is turned on or activated by an operation start instruction, a predetermined initialization process is performed. Thereafter, the distance image acquisition unit 1 uses the light emitting unit 101 and the light receiving unit 103 as shown in FIG. 2, for example, to acquire a distance image at a speed of about one or two per second (step S1). . An example of the distance image acquired at this time is shown in FIG. In FIG. 8A, there are two objects, the right hand and the left hand, and it is necessary to recognize the movement, shape, position, etc. for each of them.

そこで、次に、領域分割処理部2は、情報管理部5から分割する領域に関する情報(領域情報)を受け取る。例えば、前述したようなモグラ叩きゲームの場合には、距離画像取得間隔(例えば1秒)の間に提示部4の表示画面上に出現したモグラの表示領域のそれぞれに対応した距離画像上の領域情報として、その領域の端点座標、縦の長さ、横の長さを情報管理部5から読み込む(ステップS2)。そして、この情報を基に、例えば、図8(a)に示したような距離画像を図8(b)に示すように分割する。   Therefore, next, the area division processing unit 2 receives information (area information) regarding the area to be divided from the information management unit 5. For example, in the case of the mole hitting game as described above, the area on the distance image corresponding to each of the display areas of the moles that appeared on the display screen of the presentation unit 4 during the distance image acquisition interval (for example, 1 second). As information, the end point coordinates, vertical length, and horizontal length of the area are read from the information management unit 5 (step S2). Based on this information, for example, the distance image as shown in FIG. 8A is divided as shown in FIG.

例えば、提示部4の表示画面上に2匹のモグラが出現したとする。まず、情報管理部5から1匹目のモグラの表示領域に対応した距離画像の領域情報(左上端点T1が(x1、y1)、右上端点T2が(x2、y2)、縦の長さをL1、横の長さがR1)が与えられると、図8(a)に示した距離画像から、図8(b)に示したような画像領域AR1を分割する。また、2匹目のモグラの表示領域に対応した距離画像の領域情報(左上端点T2が(x2、y2)、右上端点T3が(x3、y3)、縦の長さをL2、横の長さがR2)が与えられると、図8(a)に示した距離画像から、図8(b)に示したような画像領域AR2を分割する。   For example, assume that two moles appear on the display screen of the presentation unit 4. First, the area information of the distance image corresponding to the display area of the first mole from the information management unit 5 (the upper left end point T1 is (x1, y1), the upper right end point T2 is (x2, y2), and the vertical length is L1. When the horizontal length R1) is given, the image area AR1 as shown in FIG. 8B is divided from the distance image shown in FIG. Also, area information of the distance image corresponding to the display area of the second mole (the upper left end point T2 is (x2, y2), the upper right end point T3 is (x3, y3), the vertical length is L2, and the horizontal length is When R2) is given, the image area AR2 as shown in FIG. 8B is divided from the distance image shown in FIG.

図8(b)では、分割した各画像領域が重ならないようになっているが、重なってもよい。分割する画像領域の数も図8(b)では2つであるが、より多くの数に分割することも可能である。あるいは分割する画像領域の面積は必ずしも均等になっている必要もない。また分割する画像領域の形も矩形に限定されているわけではなく、三角形や多角形、円など種々の形に分割することが可能である。   In FIG. 8B, the divided image areas are not overlapped, but may be overlapped. Although the number of image areas to be divided is two in FIG. 8B, it can be divided into a larger number. Or the area of the image area | region to divide | segment does not necessarily need to be equal. Further, the shape of the image area to be divided is not limited to a rectangle, and can be divided into various shapes such as a triangle, a polygon, and a circle.

領域分割後、領域分割処理部2は、分割された個々の画像領域それぞれについて画像処理プロセスを割り当てる(ステップS4)。ここで、各画像領域に割り当てる画像処理プロセスは全て同じであってもよいし、また、場合によっては、異なっていてもよい。いずれにしても、画像処理部3には、処理対象となる分割した画像領域の最大数に合わせて画像処理プロセスを予め用意しておく必要がある。   After the area division, the area division processing unit 2 assigns an image processing process to each divided image area (step S4). Here, the image processing processes assigned to the respective image regions may all be the same, or may be different depending on circumstances. In any case, the image processing unit 3 needs to prepare an image processing process in advance according to the maximum number of divided image areas to be processed.

領域分割処理部2は、以上のステップS2〜ステップS4までの処理動作を情報管理部5から読み込むべき領域情報がなくなるまで繰り返す(ステップS5)。   The area division processing unit 2 repeats the above processing operations from step S2 to step S4 until there is no area information to be read from the information management unit 5 (step S5).

画像処理部3では、距離画像取得部1から送られてきた図4に示したような距離画像データのうち、領域分割処理部2にて分割された画像領域に対応するものに対してのみ、エッジ切り出し(撮像物体の輪郭抽出)、重心抽出、面積算出、撮像物体までの距離の算出、動きベクトルの算出など、撮像体の形状、動き、位置等の情報を抽出するための種々の画像処理を行う(ステップS6)。例えば、ここでは、2つの分割された画像領域(分割画像)のそれぞれに対し割り当てれた2つの同じ画像処理プロセスが並列に実行されているものとする。   In the image processing unit 3, only the one corresponding to the image region divided by the region division processing unit 2 among the distance image data sent from the distance image acquisition unit 1 as shown in FIG. Various image processing for extracting information such as the shape, movement, and position of the imaging body, such as edge extraction (contour extraction of the imaging object), centroid extraction, area calculation, distance calculation to the imaging object, and motion vector calculation (Step S6). For example, here, it is assumed that two identical image processing processes assigned to each of two divided image regions (divided images) are executed in parallel.

画像処理部3の各分割画像に割り当てられた画像処理プロセスのそれぞれでは、まず、画素値が予め定められた所定値以下のセルを除き、例えば、図6に示すように当該分割画像内にある撮像された物体の輪郭情報を抽出する。   In each of the image processing processes assigned to each divided image of the image processing unit 3, first, except for cells whose pixel values are equal to or smaller than a predetermined value, for example, as shown in FIG. The contour information of the imaged object is extracted.

図6のような輪郭情報を抽出するには、隣り合う画素の画素値を比較し、画素値が一定値α以上のところだけに定数値を入れて、同じ定数値が割り振られた連続した画像領域の画素を抽出すればよい。   In order to extract the contour information as shown in FIG. 6, the pixel values of adjacent pixels are compared, a constant value is inserted only where the pixel value is equal to or greater than a certain value α, and consecutive images assigned with the same constant value. What is necessary is just to extract the pixel of an area | region.

すなわち、マトリックス上の座標位置(i、j)にある画素値をP(i、j)とし、輪郭情報の画素値をR(i、j)とすると、
・{P(i、j)−P(i−1、j)}>α、かつ
{P(i、j)−P(i、j−1)}>α、かつ
{P(i、j)−P(i+1、j)}>α、かつ
{P(i、j)−P(i、j+1)}>α
のとき、R(i、j)=255
・ 上記以外のとき、R(i、j)=0
とすることにより、図6のような物体の輪郭情報を得ることができる。
That is, if the pixel value at the coordinate position (i, j) on the matrix is P (i, j) and the pixel value of the contour information is R (i, j),
{P (i, j) -P (i-1, j)}> α, and {P (i, j) -P (i, j-1)}> α, and {P (i, j) −P (i + 1, j)}> α and {P (i, j) −P (i, j + 1)}> α
Then R (i, j) = 255
・ R (i, j) = 0 in other cases
By doing so, the contour information of the object as shown in FIG. 6 can be obtained.

また、画像処理部3の各画像処理プロセスは、各分割画像から抽出された図6に示したような輪郭情報を基に、当該物体の重心を計算する。   Each image processing process of the image processing unit 3 calculates the center of gravity of the object based on the contour information as shown in FIG. 6 extracted from each divided image.

この重心位置と直前のフレームから抽出された重心位置とを比較して物体が動いているかどうかが判断できる。動いていると判断したときは、重心の変化量と変化方向とを表す動きベクトルを算出する。また、重心位置のみに限らず、連続する距離画像のそれぞれから抽出された輪郭情報を互いに比較しあって、輪郭上の任意の点の動きベクトルを求めてもよい。   It can be determined whether or not the object is moving by comparing the position of the center of gravity with the position of the center of gravity extracted from the immediately preceding frame. When it is determined that the object is moving, a motion vector representing the change amount and the change direction of the center of gravity is calculated. Further, not only the position of the center of gravity but also the contour information extracted from each of the continuous distance images may be compared with each other to obtain a motion vector of an arbitrary point on the contour.

輪郭の抽出された物体までの距離dの算定には、まず当該物体の重心位置近傍の画像の代表画素値を求める。代表画素値としては、平均値、最近傍値などいくつかあるが、ここでは、最近傍値を使うとする。当該物体からの反射光の強さは物体までの距離の2乗に反比例して小さくなる。すなわち、当該物体の画像の代表画素値をQ(i、j)とすると、
Q(i、j)=K/d…(1)
と表すことができる。
In order to calculate the distance d to the object from which the contour is extracted, first, the representative pixel value of the image near the center of gravity of the object is obtained. There are several representative pixel values such as an average value and a nearest neighbor value. Here, the nearest neighbor value is used. The intensity of reflected light from the object decreases in inverse proportion to the square of the distance to the object. That is, if the representative pixel value of the image of the object is Q (i, j),
Q (i, j) = K / d 2 (1)
It can be expressed as.

ここで、Kは、例えば、d=0.5mのときに、画素値R(i、j)の値が「255」になるように調整された係数である。式(1)をdについて解くことで、距離値dを求めることができる。   Here, for example, K is a coefficient adjusted so that the value of the pixel value R (i, j) becomes “255” when d = 0.5 m. The distance value d can be obtained by solving the equation (1) for d.

このようにして、分割画像のそれぞれから目的とする対象物の形状、動き、位置等の情報を抽出することができる。   In this way, information such as the shape, movement, and position of the target object can be extracted from each of the divided images.

例えば、モグラ叩きゲームの場合、距離画像取得間隔(例えば1秒)の間に提示部4の表示画面上に出現したモグラの数が2匹であるとき、画像処理部3は、距離画像取得部1で取得した距離画像のうち、2匹のモグラの表示領域に対応する分割画像に対し、上述したような画像処理を施す。この場合、当該2つの分割画像のそれぞれから前述したようにして(図8に示したようなユーザの手の)輪郭情報の重心位置(例えば、距離値を含めた3次元座標)を抽出すればよい。この各分割画像から抽出された重心位置は、情報管理部5に送られる。情報管理部5では、各分割画像から抽出された重心位置が予め定められた範囲内にであるとき、モグラが叩かれたと判断すればよい。モグラが叩かれたと判断したときは、提示部4に表示された当該叩かれたモグラに悲鳴を発せさせたり、提示部4に表示されている叩かれたモグラの数に対応する点数を加算する等の処理を行う(ステップS7)。   For example, in the case of a mole hitting game, when there are two moles appearing on the display screen of the presentation unit 4 during a distance image acquisition interval (for example, 1 second), the image processing unit 3 The image processing as described above is performed on the divided images corresponding to the display areas of the two moles among the distance images acquired in 1. In this case, if the centroid position (for example, three-dimensional coordinates including the distance value) of the contour information is extracted from each of the two divided images as described above (the user's hand as shown in FIG. 8). Good. The barycentric position extracted from each of the divided images is sent to the information management unit 5. The information management unit 5 may determine that the mole has been hit when the position of the center of gravity extracted from each divided image is within a predetermined range. When it is determined that the mole has been hit, the hit mole displayed on the presentation unit 4 is screamed, or a score corresponding to the number of hit moles displayed on the presentation unit 4 is added. Etc. are performed (step S7).

距離画像取得部1で取得した距離画像を図8に示したように、右手と左手の両方を撮像して、この双方の動きをそれぞれ認識したい場合に、距離画像取得部1が取得した距離画像全体をそのまま(領域分割せずに)画像処理を行うのでは、それに対応した画像処理プログラムを新たに開発せねばならなかった。が、本発明の情報抽出装置では、領域分割処理部2が、図8(a)に示したような距離画像を図8(b)に示したように左右2つの領域に分割する。そして、そのそれぞれの分割画像に対し同様の画像処理を別個に実行することにより、例えば、認識対象が増えた場合でも、その数が予め用意されている画像処理プロセスの数以内であれば、例えば、当該認識対象の存在する領域を新たに分割して、画像処理プロセスを割り当てることにより、柔軟に(新たに画像処理プログラムを開発することなく)対処することができる。   As shown in FIG. 8, the distance image acquired by the distance image acquisition unit 1 is captured by the distance image acquisition unit 1 when both the right hand and the left hand are imaged and the movements of both are to be recognized. In order to perform image processing as it is (without dividing an area), an image processing program corresponding to the image processing has to be newly developed. However, in the information extraction apparatus of the present invention, the area division processing unit 2 divides the distance image as shown in FIG. 8A into two left and right areas as shown in FIG. 8B. Then, by performing the same image processing separately for each of the divided images, for example, even when the number of recognition targets increases, if the number is within the number of image processing processes prepared in advance, for example, Therefore, it is possible to deal flexibly (without newly developing an image processing program) by newly dividing an area where the recognition target exists and assigning an image processing process.

すなわち、認識対象が増えれば、その増えた分の領域情報を情報管理部5が保持していればよい。あるいは、距離画像取得部1で取得した距離画像を提示部4に提示し、それを基にユーザが所望の領域を指示入力するためのユーザインタフェースを具備していてもよい。ユーザは、提示部4に提示された距離画像に対し、マウス、ペン等のポインティングデバイスを用いて、所望の認識対象の存在する位置を入力すればよい。この入力された領域情報を情報管理部5が保持する。   That is, if the number of recognition targets increases, the information management unit 5 may hold the area information corresponding to the increase. Alternatively, a user interface may be provided for presenting the distance image acquired by the distance image acquisition unit 1 to the presentation unit 4 and allowing the user to instruct and input a desired region based on the distance image. The user may input a position where a desired recognition target exists using a pointing device such as a mouse or a pen with respect to the distance image presented on the presentation unit 4. The information management unit 5 holds the input area information.

領域分割処理部2は、領域情報を情報管理部5から読み込んで距離画像取得部1で取得した距離画像を分割していけばよい。   The area division processing unit 2 may read the area information from the information management unit 5 and divide the distance image acquired by the distance image acquisition unit 1.

例えば、図1の情報抽出装置がモグラ叩きゲームに接続されている場合、提示部4の表示画面上に表示すべく配置されているモグラにあわせて距離画像取得部1で取得した距離画像を領域分割し、各分割画像で重心位置を認識する。例えば、モグラが16匹いて、今、叩かれるべきモグラ4匹だけであれば、その4匹のモグラの存在する分割画像に対してのみ重心位置の認識をし、どのモグラがたたかれたかを判定すればよいので、高速に処理することが可能となる。   For example, when the information extraction device of FIG. 1 is connected to a mole hitting game, the distance image acquired by the distance image acquisition unit 1 according to the mole arranged to be displayed on the display screen of the presentation unit 4 Divide and recognize the center of gravity position in each divided image. For example, if there are 16 moles and there are only 4 moles to be hit now, the center of gravity position is recognized only for the divided images where the 4 moles exist, and which mole is hit. Since it only needs to be determined, high-speed processing can be performed.

本発明の情報抽出装置は、何もモグラ叩きゲームにのみ適用されるわけでなく、種々のシステムに適用可能である。例えば、両手を使って楽器を演奏するようなシステムに適用する場合、右手では、シンバルを、左手では、ティンパニーをというように、複数の楽器を演奏することも可能である。その場合、例えば、各画像領域に割り当てられる画像処理プロセスは、画像領域中の手の重心位置を抽出し、その奥行き(z軸)方向の動きの速さと、左右(x軸)方向の動きの速さとを算出するものである。この画像処理結果を受け取ったシステムは、奥行き(z軸)方向の動きの速さを演奏する音の大きさ、左右(x軸)方向の動きの速さを演奏する音の周波数に割り当てることで、簡単にかつ直感的に演奏することが可能である。   The information extraction apparatus of the present invention is not applied only to a mole hitting game, but can be applied to various systems. For example, when applied to a system in which an instrument is played using both hands, it is possible to play a plurality of instruments, such as a cymbal with the right hand and a timpani with the left hand. In that case, for example, the image processing process assigned to each image area extracts the center of gravity position of the hand in the image area, and the movement speed in the depth (z-axis) direction and the movement in the left-right (x-axis) direction. The speed is calculated. The system that has received the image processing result assigns the speed of movement in the depth (z-axis) direction to the volume of the sound to be played, and assigns the speed of movement in the left and right (x-axis) direction to the frequency of the sound to be played. It is possible to play easily and intuitively.

なお、領域分割処理部2で距離画像を分割する際、1つの分割画像の大きさがあまり小さいと、対象物の認識したい動きとは関係のない微妙な動きまで認識してしまい、好ましくない。例えば、図1の情報抽出装置が携帯可能な他のシステムに用いられている場合、人間の手は、無意識的に意味のない微動をするものであり(例えば、手ぶれ)、1つ1つの分割画像があまり小さいと、この手ぶれの影響から認識対象の動きが正確に認識できない。そのため、分割画像の大きさとしては、手ぶれが認識対象の動きの抽出に影響を与えるほど小さくならないよう、分割画像の大きさの下限をあらかじめ設けることが望ましい。   It should be noted that when the range image is divided by the area division processing unit 2, if the size of one divided image is too small, even a subtle movement unrelated to the movement of the object to be recognized is recognized, which is not preferable. For example, when the information extraction apparatus in FIG. 1 is used in another portable system, the human hand unconsciously makes a fine movement that is meaningless (for example, camera shake), and is divided into individual pieces. If the image is too small, the movement of the recognition target cannot be accurately recognized due to the influence of the camera shake. For this reason, it is desirable that a lower limit of the size of the divided image is provided in advance so that the size of the divided image does not become so small that camera shake affects the extraction of the movement of the recognition target.

以上説明したように、上記第1の実施形態によれば、取得した距離画像に認識対象が複数ある場合でも、その認識対象の数に応じて当該距離画像を分割し、その分割画像毎に画像処理をそれぞれ施すことにより、当該距離画像から容易に複数の認識対象のそれぞれの動き、形状、位置等の情報が抽出できる。   As described above, according to the first embodiment, even when there are a plurality of recognition objects in the acquired distance image, the distance image is divided according to the number of recognition objects, and an image is obtained for each divided image. By performing each processing, it is possible to easily extract information such as the movement, shape, and position of each of the plurality of recognition objects from the distance image.

(第2の実施形態)
図9は、本発明の第2の実施形態に係る情報抽出装置の構成例を示したものである。なお、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、図1の領域分割処理部2が図9では、基盤抽出部6に置き換わっている。
(Second Embodiment)
FIG. 9 shows a configuration example of an information extraction apparatus according to the second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to FIG. 1 and an identical part, and only a different part is demonstrated. That is, the area division processing unit 2 in FIG. 1 is replaced with the base extraction unit 6 in FIG.

基盤抽出部6は、上腕に対する下腕の相対的な動き、あるいは体に対する腕の相対的な動きを抽出したいときに、上腕や体のように、相対的な動きの基盤になる部分を抽出するものである。   The base extraction unit 6 extracts a portion that becomes a base of relative movement, such as the upper arm or the body, when extracting the relative movement of the lower arm with respect to the upper arm or the relative movement of the arm with respect to the body. Is.

人間が、例えば、道具を使ってスポーツやゲームを楽しんでいるとき、全身が動いてはいるものの、例えば、投げ込まれた玉をラケットに当てて投げ返すという動作において、その投げ込まれた玉がラケットにあったか否か、また、ラケットに当てられた球がどの方向に向かっていくのか等は、当該人物のラケットを持っている腕の部分の動きのみを解析すれば充分であり、当該人物がどのように胴体を動かしているかを解析する必要はない。そこで、本発明では、この点に着目して、認識すべき対象の動き(例えば、腕の動き)を基盤の動き(例えば、胴体の動き)に対する相対的な動きとして認識するものである。より具体的には、取得した距離画像から認識すべき対象以外のもの(基盤画像)を削除してから、当該認識すべき対象に関する目的とする情報を抽出するための画像処理を施すようになっている。   For example, when a human is enjoying a sport or a game using a tool, the whole body is moving, but the thrown ball is a racket in the action of throwing the thrown ball against the racket and throwing it back. It is sufficient to analyze only the movement of the part of the arm that holds the person's racket, etc. There is no need to analyze how the body is moving. Accordingly, in the present invention, focusing on this point, the movement of the object to be recognized (for example, the movement of the arm) is recognized as a relative movement with respect to the movement of the base (for example, the movement of the trunk). More specifically, after deleting an object other than the object to be recognized (base image) from the acquired distance image, image processing for extracting target information regarding the object to be recognized is performed. ing.

次に、図10に示すフローチャートを参照して、図9の情報抽出装置の処理動作について説明する。   Next, the processing operation of the information extraction apparatus in FIG. 9 will be described with reference to the flowchart shown in FIG.

まず、電源の投入あるいは動作の開始指示にて起動されると、所定の初期化処理を行う。その後、距離画像取得部1は、図2に示したような発光部101、受光部103を用いて、例えば、1秒間に100枚程度の速度で距離画像を取得する(ステップS11)。   First, when the power is turned on or activated by an operation start instruction, a predetermined initialization process is performed. Thereafter, the distance image acquisition unit 1 acquires a distance image at a speed of, for example, about 100 sheets per second using the light emitting unit 101 and the light receiving unit 103 as illustrated in FIG. 2 (step S11).

距離画像取得部1では、例えば、毎秒100枚の距離画像を取得するとすると、基盤抽出部6では、その取得された距離画像のうち、毎秒1枚あるいは2枚を所定間隔おきに(基盤抽出タイミングで)取り込む(ステップS12)。ある基盤抽出タイミングに基盤抽出部6が図11に示したような距離画像を取り込んだとする。   For example, when the distance image acquisition unit 1 acquires 100 distance images per second, the base extraction unit 6 extracts one or two of the acquired distance images every second (base extraction timing). (Step S12). Assume that the base extraction unit 6 captures a distance image as shown in FIG. 11 at a base extraction timing.

基盤抽出部6では、図11に示したような距離画像から、例えば、距離値が一定値以上大きい(つまり、遠方にある)画像を基盤画像として抽出する。あるいは、距離値が一定値以上近いもの、あるいは最も動きの少ない部分などの基準で基盤画像を抽出する(ステップS13)。   The base extraction unit 6 extracts, for example, an image having a distance value larger than a certain value (that is, far away) from the distance image as shown in FIG. 11 as a base image. Alternatively, the base image is extracted based on a criterion such as a distance value close to a certain value or a portion having the least movement (step S13).

距離値に基づき基盤画像を抽出する場合について説明する。図11に示したような距離画像は、実際には、図4に示したような反射光の強度分布であり、前述したように、画素値は、撮像体の距離画像取得部1までの距離値を表しているとみなしてよい(例えば、画素値が大きい程、撮像体は遠方にあり、画素値が小さい程撮像体は近傍にある)。従って、距離画像取得部1が固定されているならば、試験的に取得した距離画像と(1)式とから、必要とする画素値と距離値との対応関係を予め求めることができる。基盤抽出部6は、この対応関係を記録したテーブルを予め具備していることが好ましい。抽出しようとしている基盤の特徴(あるいは、認識すべき対象の特徴)に応じて、基準となる距離値を定め、上記対応関係を参照して、当該基準となる距離値より遠方にある画素値を抽出することにより、あるいは、当該基準となる距離値より近傍にある画素値を抽出することにより、基盤画像を抽出する。   A case where a base image is extracted based on the distance value will be described. The distance image as shown in FIG. 11 is actually the intensity distribution of the reflected light as shown in FIG. 4. As described above, the pixel value is the distance to the distance image acquisition unit 1 of the imaging body. It may be considered that the value is expressed (for example, the larger the pixel value, the farther the image pickup body is, and the smaller the pixel value, the closer the image pickup body is). Therefore, if the distance image acquisition unit 1 is fixed, a correspondence relationship between a required pixel value and a distance value can be obtained in advance from the distance image acquired on a trial basis and the equation (1). It is preferable that the base extraction unit 6 includes a table in which the correspondence relationship is recorded in advance. The distance value used as a reference is determined according to the feature of the base to be extracted (or the feature of the object to be recognized), and a pixel value far from the reference distance value is determined by referring to the correspondence relationship. The base image is extracted by extracting or by extracting a pixel value that is in the vicinity of the reference distance value.

動きに基づき基盤画像を抽出する場合について説明する。基盤抽出タイミング毎に基盤抽出部6に送られてくる距離画像から、前述したように物体の輪郭情報を抽出し、当該物体の重心を求める。各距離画像から求めた該当する物体同士の重心位置を比較して、その変化量が所定値以下の物体の画像の基盤画像として抽出すればよい。   A case where a base image is extracted based on movement will be described. As described above, the contour information of the object is extracted from the distance image sent to the base extraction unit 6 at each base extraction timing, and the center of gravity of the object is obtained. What is necessary is just to compare the gravity center position of the corresponding objects calculated | required from each distance image, and to extract as a base image of the image of the object whose change amount is below a predetermined value.

例えば、図11に示したような距離画像から距離値が所定値以上となる(すなわち、画素値が所定値以下の)画素を抽出して得られた基盤画像の一例を図14に示す。   For example, FIG. 14 shows an example of a base image obtained by extracting pixels from which the distance value is equal to or greater than a predetermined value (that is, the pixel value is equal to or less than the predetermined value) from the distance image as shown in FIG.

基盤抽出部6は、基盤抽出タイミング毎に基盤部分を抽出すると、その後、距離画像取得部1で取得された距離画像から当該基盤画像との差分(差分画像)を求める(ステップS14)。すなわち、例えば、図14に示したように、人間の上半身を撮像した距離画像から基盤画像として胴体の画像が抽出され、その後、距離画像取得部1から、図11、図12、図13に示したような人間の上半身を撮像した距離画像が取り込まれたとする。図11に示した距離画像と図14に示したような基盤画像との差分を求めると、図15に示すように、差分画像として、人間の両腕の距離画像が得られる。同様にして、図12に示した距離画像と図14に示したような基盤画像との差分画像の一例を図16に示す。図13に示した距離画像と図14に示したような基盤画像との差分画像の一例を図17に示す。   After extracting the base part at each base extraction timing, the base extraction unit 6 then obtains a difference (difference image) from the base image from the distance image acquired by the distance image acquisition unit 1 (step S14). That is, for example, as shown in FIG. 14, a torso image is extracted as a base image from a distance image obtained by imaging the upper body of a human, and thereafter, from the distance image acquisition unit 1, shown in FIGS. 11, 12, and 13. Suppose that a distance image that captures the upper body of a person is captured. When the difference between the distance image shown in FIG. 11 and the base image as shown in FIG. 14 is obtained, a distance image of both human arms is obtained as the difference image, as shown in FIG. Similarly, FIG. 16 shows an example of a difference image between the distance image shown in FIG. 12 and the base image as shown in FIG. An example of the difference image between the distance image shown in FIG. 13 and the base image as shown in FIG. 14 is shown in FIG.

画像処理部3は、差分画像に対し、第1の実施形態と同様にして、エッジ切り出し(撮像物体の輪郭抽出)、重心抽出、面積算出、撮像物体までの距離の算出、動きベクトルの算出など、撮像体の形状、動き、位置等の情報を抽出するための種々の画像処理を行う(ステップS15)。すなわち、モグラ叩きゲームの場合、例えば、図15〜図17に示したような両腕のみが抽出された差分画像から腕の輪郭とその重心位置(3次元座標)を抽出すればよい。   For the difference image, the image processing unit 3 performs edge extraction (imaging object contour extraction), centroid extraction, area calculation, distance to the imaging object, motion vector calculation, and the like in the same manner as the first embodiment. Then, various image processing is performed to extract information such as the shape, movement, and position of the image pickup body (step S15). That is, in the case of a mole hitting game, for example, the outline of the arm and its center-of-gravity position (three-dimensional coordinates) may be extracted from the difference image in which only both arms are extracted as shown in FIGS.

この各距離画像から抽出された重心位置は、情報管理部5に送られる。情報管理部5では、各画像領域から抽出された重心位置と提示部4の表示画面に表示されたモグラの出現位置とを比較して、予め定められた範囲内にであるとき、モグラが叩かれたと判断すればよい。モグラが叩かれたと判断したときは、提示部4に表示された当該叩かれたモグラに悲鳴を発せさせたり、提示部4に表示されている叩かれたモグラの数に対応する点数を加算する等の処理を行う(ステップS16)。   The barycentric position extracted from each distance image is sent to the information management unit 5. The information management unit 5 compares the position of the center of gravity extracted from each image area with the appearance position of the mole displayed on the display screen of the presentation unit 4, and if the mole is within a predetermined range, It can be determined that When it is determined that the mole has been hit, the hit mole displayed on the presentation unit 4 is screamed, or a score corresponding to the number of hit moles displayed on the presentation unit 4 is added. Etc. are performed (step S16).

第2の実施形態にかかる情報抽出装置を、例えばモグラ叩きゲームのアーケード版に用いた場合、ユーザは、肘部分を支点にして、モグラをたたいていくというごく自然なジェスチャで、モグラを叩く操作を容易に再現できる。   When the information extraction apparatus according to the second embodiment is used for an arcade version of a mole hitting game, for example, the user taps the mole with a natural gesture of hitting the mole with the elbow portion as a fulcrum. Can be easily reproduced.

このように、上記第2の実施形態によれば、距離画像から、例えば、胴体に対する腕の相対的な動きのみを抽出するので、認識すべき動き以外の余分な動きに影響されずに、取得した距離画像から高精度に動きを認識できる。   As described above, according to the second embodiment, since only the relative movement of the arm with respect to the torso is extracted from the distance image, for example, the acquisition is performed without being affected by the extra movement other than the movement to be recognized. The motion can be recognized from the obtained distance image with high accuracy.

(第3の実施形態)
図18は、本発明の第3の実施形態に係る情報抽出装置の構成例を示したものである。なお、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、図18では、領域分割処理部2と基盤抽出部6とを具備したものである。
(Third embodiment)
FIG. 18 shows a configuration example of an information extraction apparatus according to the third embodiment of the present invention. In addition, the same code | symbol is attached | subjected to FIG. 1 and an identical part, and only a different part is demonstrated. That is, in FIG. 18, the area division processing unit 2 and the base extraction unit 6 are provided.

図18の情報抽出装置の処理動作について簡単に説明する。すなわち、図7を参照して説明したように、距離画像取得部1で所定間隔毎に(例えば、毎秒2枚)に取り込まれた距離画像は、領域分割処理部2で情報管理部5から受け取った領域情報に基づき分割される。基盤抽出部6は、処理対象とすべき各分割画像から、所定間隔毎に(例えば毎秒1枚)基盤画像を抽出し、当該分割画像と当該基盤画像との差分画像を求める。各分割画像から求められた差分画像のそれぞれに対し画像処理プロセスを起動して、前述したようなエッジ切り出し(撮像物体の輪郭抽出)、重心抽出、面積算出、撮像物体までの距離の算出、動きベクトルの算出など、撮像体の形状、動き、位置等の情報を抽出するための種々の画像処理を行う。   The processing operation of the information extraction apparatus in FIG. 18 will be briefly described. That is, as described with reference to FIG. 7, the distance image captured at predetermined intervals (for example, two images per second) by the distance image acquisition unit 1 is received from the information management unit 5 by the region division processing unit 2. Is divided based on the area information. The base extraction unit 6 extracts a base image from each divided image to be processed at predetermined intervals (for example, one per second) and obtains a difference image between the split image and the base image. Start the image processing process for each of the difference images obtained from each divided image, edge extraction (imaging object contour extraction), centroid extraction, area calculation, distance calculation to the imaging object, motion as described above Various image processing for extracting information such as the shape, movement, and position of the image pickup body such as vector calculation is performed.

なお、図1、図9、図18の情報抽出装置の構成において距離画像取得部1を除く各構成部の処理動作はコンピュータに実行させることのできるプログラムとして、フロッピー(登録商標)ディスク、ハードディスク、CD−ROM、DVD、半導体メモリなどの記録媒体に格納して頒布することもできる。   1, 9, and 18, the processing operations of the components other than the distance image acquisition unit 1 are a program that can be executed by a computer, such as a floppy (registered trademark) disk, a hard disk, It can also be stored and distributed in a recording medium such as a CD-ROM, DVD, or semiconductor memory.

本発明の第1の実施形態に係る情報抽出装置の構成例を概略的に示した図。1 is a diagram schematically illustrating a configuration example of an information extraction device according to a first embodiment of the present invention. 距離画像取得部の外観の一例を示した図。The figure which showed an example of the external appearance of a distance image acquisition part. 距離画像取得部の構成例を示した図。The figure which showed the structural example of the distance image acquisition part. 反射光の強度を画素値とする距離画像の一例を示した図。The figure which showed an example of the distance image which uses the intensity | strength of reflected light as a pixel value. 図3に示した様なマトリックス形式の距離画像を3次元的な表した図。FIG. 4 is a three-dimensional representation of a matrix-type distance image as shown in FIG. 3. 距離画像から抽出された物体の輪郭画像の一例を示した図。The figure which showed an example of the outline image of the object extracted from the distance image. 図1の情報抽出装置の処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation of the information extraction apparatus of FIG. 距離画像取得部で取得した距離画像の具体例で、両手の撮像された距離画像と、それを基に分割画像の示した図。FIG. 3 is a specific example of a distance image acquired by a distance image acquisition unit, and is a diagram showing a distance image captured with both hands and a divided image based on the distance image. 本発明の第2の実施形態に係る情報抽出装置の構成例を示した図。The figure which showed the structural example of the information extraction apparatus which concerns on the 2nd Embodiment of this invention. 図9の情報抽出装置の処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation of the information extraction apparatus of FIG. 距離画像取得部で取得した距離画像の具体例を示した図。The figure which showed the specific example of the distance image acquired by the distance image acquisition part. 距離画像取得部で取得した距離画像の具体例を示した図。The figure which showed the specific example of the distance image acquired by the distance image acquisition part. 距離画像取得部で取得した距離画像の具体例を示した図。The figure which showed the specific example of the distance image acquired by the distance image acquisition part. 図11の距離画像から抽出された基盤画像の一例を示した図。The figure which showed an example of the base image extracted from the distance image of FIG. 図11の距離画像と図14の基盤画像との差分画像。The difference image of the distance image of FIG. 11 and the base image of FIG. 図12の距離画像と図14の基盤画像との差分画像。The difference image of the distance image of FIG. 12 and the base image of FIG. 図13の距離画像と図14の基盤画像との差分画像。The difference image of the distance image of FIG. 13 and the base image of FIG. 本発明の第3の実施形態に係る情報抽出装置の構成例を示した図。The figure which showed the structural example of the information extraction apparatus which concerns on the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1…距離画像取得部
2…領域分割処理部
3…画像処理部
4…呈示部
5…情報管理部
6…基盤抽出部
101…発光部
102…反射光抽出部
103…受光部
104…タイミング信号生成部
DESCRIPTION OF SYMBOLS 1 ... Distance image acquisition part 2 ... Area division process part 3 ... Image processing part 4 ... Presentation part 5 ... Information management part 6 ... Base extraction part 101 ... Light emission part 102 ... Reflection light extraction part 103 ... Light reception part 104 ... Timing signal generation Part

Claims (5)

対象物に発光手段により光を照射し、対象物からの反射光を受光手段で受光することにより、各画素値が当該受光手段で受光された反射光の強度を示し、各画素値が示す反射光の強度により対象物までの距離及び対象物の3次元形状を表す距離画像を取得する距離画像取得手段が、対象物の撮像された、時系列な複数の距離画像を取得する第1のステップと、
取得した距離画像から、(a)重心位置の変化量が所定値以下の画像領域を抽出することにより、あるいは(b)前記距離画像中の前記対象物のうちの一部分である認識対象の画像領域の画素値から算出される当該認識対象までの距離値に基づき定められた基準値と、前記距離画像の各素値とを比較して、当該距離画像から当該基準値よりも大きいあるいは小さい値の画素値を抽出することにより、前記対象物の前記認識対象以外の部分に対応する画像領域を基盤画像として抽出する第2のステップと、
前記第1のステップで取得された各距離画像について、前記基盤画像との間の差分を求め、前記対象物の前記認識対象の画像領域を含む差分画像を得る第3のステップと、
各差分画像前記認識対象の位置を示す3次元座標から、異なる距離画像間における前記認識対象の位置の変化量及び変化方向を求める第4のステップと、
を含む情報抽出方法。
By irradiating the object with light from the light emitting means and receiving the reflected light from the object with the light receiving means, each pixel value indicates the intensity of the reflected light received by the light receiving means, and the reflection indicated by each pixel value A first step in which distance image acquisition means for acquiring a distance image representing a distance to an object and a three-dimensional shape of the object by light intensity acquires a plurality of time-series distance images captured of the object. When,
From the acquired distance image, (a) by extracting an image area in which the amount of change in the center of gravity position is a predetermined value or less, or (b) an image area of a recognition target that is a part of the object in the distance image The reference value determined based on the distance value to the recognition target calculated from the pixel value of each pixel is compared with each elementary value of the distance image, and a value larger or smaller than the reference value is calculated from the distance image. A second step of extracting, as a base image, an image region corresponding to a portion of the object other than the recognition target by extracting a pixel value ;
For each distance image acquired in the first step, a third step is performed for obtaining a difference between the base image and obtaining a difference image including the recognition target image area of the object ;
A fourth step of determining a change amount and a change direction of the position of the recognition target between different distance images from three-dimensional coordinates indicating the position of the recognition target in each difference image ;
Information extraction method, including.
前記第2のステップは、所定時間毎に、前記距離画像取得手段で取得された距離画像を基に前記基盤画像を抽出することを特徴とする請求項1記載の情報抽出方法。 2. The information extraction method according to claim 1, wherein the second step extracts the base image based on the distance image acquired by the distance image acquisition means at every predetermined time. 対象物に発光手段により光を照射し、対象物からの反射光を受光手段で受光することにより、各画素値が当該受光手段で受光された反射光の強度を示し、各画素値が示す反射光の強度により対象物までの距離及び対象物の3次元形状を表す距離画像を取得する距離画像取得手段と、
前記距離画像取得手段で取得された距離画像から、(a)重心位置の変化量が所定値以下の画像領域を抽出することにより、あるいは(b)前記距離画像中の前記対象物のうちの一部分である認識対象の画像領域の画素値から算出される当該認識対象までの距離値に基づき定められた基準値と、前記距離画像の各素値とを比較して、当該距離画像から当該基準値よりも大きいあるいは小さい値の画素値を抽出することにより、前記対象物の前記認識対象以外の部分に対応する画像領域を基盤画像として抽出する抽出手段と、
前記距離画像取得手段で取得された各距離画像について、前記基盤画像との間の差分を求め、前記対象物の前記認識対象の画像領域を含む差分画像を得る手段と、
各差分画像の前記認識対象の位置を示す3次元座標から、異なる距離画像間における前記認識対象の位置の変化量及び変化方向を求める手段と、
を具備したことを特徴とする情報抽出装置。
By irradiating the object with light from the light emitting means and receiving the reflected light from the object with the light receiving means, each pixel value indicates the intensity of the reflected light received by the light receiving means, and the reflection indicated by each pixel value Distance image acquisition means for acquiring a distance image representing the distance to the object and the three-dimensional shape of the object by the intensity of light;
From the distance image acquired by the distance image acquisition means , (a) by extracting an image region where the amount of change in the center of gravity position is a predetermined value or less, or (b) a part of the object in the distance image The reference value determined based on the distance value to the recognition target calculated from the pixel value of the image area of the recognition target is compared with each elementary value of the distance image, and the reference value is calculated from the distance image. Extracting means for extracting, as a base image, an image region corresponding to a portion other than the recognition target of the target object by extracting a pixel value having a larger or smaller value than
For each distance image acquired by the distance image acquisition means, a difference between the distance image acquisition means and the base image is obtained, and a means for obtaining a difference image including the recognition target image area of the object ;
Means for determining a change amount and a change direction of the position of the recognition object between different distance images from three-dimensional coordinates indicating the position of the recognition object in each difference image;
An information extraction apparatus comprising:
前記抽出手段は、所定時間毎に、前記距離画像取得手段で取得された距離画像を基に前記基盤画像を抽出することを特徴とする請求項記載の情報抽出装置。 4. The information extracting apparatus according to claim 3 , wherein the extracting unit extracts the base image based on the distance image acquired by the distance image acquiring unit every predetermined time. 対象物に発光手段により光を照射し、対象物からの反射光を受光手段で受光することにより、各画素値が当該受光手段で受光された反射光の強度を示し、各画素値が示す反射光の強度により対象物までの距離及び対象物の3次元形状を表す距離画像を取得する距離画像取得手段を備えたコンピュータ
前記距離画像取得手段で取得された距離画像から、(a)重心位置の変化量が所定値以下の画像領域を抽出することにより、あるいは(b)前記距離画像中の前記対象物のうちの一部分である認識対象の画像領域の画素値から算出される当該認識対象までの距離値に基づき定められた基準値と、前記距離画像の各素値とを比較して、当該距離画像から当該基準値よりも大きいあるいは小さい値の画素値を抽出することにより、前記対象物の前記認識対象以外の部分に対応する画像領域を基盤画像として抽出する抽出手段と、
前記距離画像取得手段で取得された各距離画像について、前記基盤画像との間の差分を求め、前記対象物の前記認識対象の画像領域を含む差分画像を得る手段と、
各差分画像中の前記認識対象の位置を示す3次元座標から、異なる距離画像間における前記認識対象の一部の位置の変化量及び変化方向を求める手段、
として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
By irradiating the object with light from the light emitting means and receiving the reflected light from the object with the light receiving means, each pixel value indicates the intensity of the reflected light received by the light receiving means, and the reflection indicated by each pixel value A computer comprising distance image acquisition means for acquiring a distance image representing the distance to the object and the three-dimensional shape of the object by the intensity of light,
From the distance image acquired by the distance image acquisition means , (a) by extracting an image region where the amount of change in the center of gravity position is a predetermined value or less, or (b) a part of the object in the distance image The reference value determined based on the distance value to the recognition target calculated from the pixel value of the image area of the recognition target is compared with each elementary value of the distance image, and the reference value is calculated from the distance image. Extracting means for extracting, as a base image, an image region corresponding to a portion other than the recognition target of the target object by extracting a pixel value having a larger or smaller value than
For each distance image acquired by the distance image acquisition means, a difference between the distance image acquisition means and the base image is obtained, and a means for obtaining a difference image including the recognition target image area of the object ;
Means for obtaining a change amount and a change direction of a position of a part of the recognition object between different distance images from three-dimensional coordinates indicating the position of the recognition object in each difference image;
A computer-readable recording medium in which a program for functioning as a computer is recorded.
JP2004189878A 2004-06-28 2004-06-28 Information extraction method, information extraction apparatus, and recording medium Expired - Fee Related JP4218963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004189878A JP4218963B2 (en) 2004-06-28 2004-06-28 Information extraction method, information extraction apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004189878A JP4218963B2 (en) 2004-06-28 2004-06-28 Information extraction method, information extraction apparatus, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10167201A Division JP2000003445A (en) 1998-06-15 1998-06-15 Method and device for extracting information and recording medium

Publications (2)

Publication Number Publication Date
JP2004333505A JP2004333505A (en) 2004-11-25
JP4218963B2 true JP4218963B2 (en) 2009-02-04

Family

ID=33509357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004189878A Expired - Fee Related JP4218963B2 (en) 2004-06-28 2004-06-28 Information extraction method, information extraction apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP4218963B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154405A (en) * 2008-12-26 2010-07-08 Toshiba Corp Video image reproducing device, control signal generating device, and method of generating control signal
JP2012008998A (en) * 2010-06-23 2012-01-12 Ind Technol Res Inst Method for recognizing three-dimensional control point and computer-readable recording medium using the same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200625143A (en) * 2005-01-04 2006-07-16 Pixart Imaging Inc Personal computer's interactive input device and game-peripheral equipment
JP4769859B2 (en) 2006-02-28 2011-09-07 富士通株式会社 Reflected light detection device, reflection characteristic determination device, and object detection device
JP5476685B2 (en) * 2007-11-09 2014-04-23 株式会社リコー Information processing apparatus, image processing apparatus, information processing apparatus control method, information processing program, and recording medium
JP4923214B2 (en) * 2008-09-09 2012-04-25 ブリテッシュ ヴァージン アイランズ シューウィー グループ リミテッド Electronic game controller capable of sensing player body image and method thereof
KR101591471B1 (en) 2008-11-03 2016-02-04 삼성전자주식회사 apparatus and method for extracting feature information of object and apparatus and method for generating feature map
JP2012000165A (en) 2010-06-14 2012-01-05 Sega Corp Video game apparatus
JP6014890B2 (en) * 2012-09-14 2016-10-26 国立大学法人 奈良先端科学技術大学院大学 3D motion detection apparatus and detection method for moving object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154405A (en) * 2008-12-26 2010-07-08 Toshiba Corp Video image reproducing device, control signal generating device, and method of generating control signal
JP2012008998A (en) * 2010-06-23 2012-01-12 Ind Technol Res Inst Method for recognizing three-dimensional control point and computer-readable recording medium using the same
US8433131B2 (en) 2010-06-23 2013-04-30 Industrial Technology Research Institute Method for recognizing three-dimensional control point and computer readable medium using the same thereof

Also Published As

Publication number Publication date
JP2004333505A (en) 2004-11-25

Similar Documents

Publication Publication Date Title
JP2000003445A (en) Method and device for extracting information and recording medium
CN107925739B (en) Projection system
JP7013139B2 (en) Image processing device, image generation method and program
US8556716B2 (en) Image generation system, image generation method, and information storage medium
CN105073210B (en) Extracted using the user's body angle of depth image, curvature and average terminal position
US7961174B1 (en) Tracking groups of users in motion capture system
JP3841806B2 (en) Image processing apparatus and image processing method
EP2371434B1 (en) Image generation system, image generation method, and information storage medium
WO2006025137A1 (en) Image processor, game machine, and image processing method
EP2395454A2 (en) Image generation system, shape recognition method, and information storage medium
JP5255789B2 (en) Image processing program and image processing apparatus
CN1676184A (en) Image generation device, image display method and program product
JP2014238731A (en) Image processor, image processing system, and image processing method
US9126109B2 (en) Game device, control method of game device, program, and information storage medium
JP2002233665A5 (en)
US20140045593A1 (en) Virtual joint orientation in virtual skeleton
JP2009245349A (en) Position detection system, program, information recording medium, and image generating device
JP4218963B2 (en) Information extraction method, information extraction apparatus, and recording medium
JP2006260602A (en) Image processing apparatus
JP2010137097A (en) Game machine and information storage medium
JP5399966B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
EP1716896A3 (en) Billiard game input device, billiard game system, game input device, and computer program
KR101912126B1 (en) Apparatus for base-ball practice, sensing device and sensing method used to the same and control method for the same
JP4433579B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP5629364B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061003

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees