JP2006244272A - Hand position tracking method, device and program - Google Patents
Hand position tracking method, device and program Download PDFInfo
- Publication number
- JP2006244272A JP2006244272A JP2005060952A JP2005060952A JP2006244272A JP 2006244272 A JP2006244272 A JP 2006244272A JP 2005060952 A JP2005060952 A JP 2005060952A JP 2005060952 A JP2005060952 A JP 2005060952A JP 2006244272 A JP2006244272 A JP 2006244272A
- Authority
- JP
- Japan
- Prior art keywords
- image
- limited
- area
- limited area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、人間の手の動きと位置によってコンピュータ、家電等を操作するインタフェース方法および装置に関する。 The present invention relates to an interface method and apparatus for operating a computer, home appliances, etc. according to the movement and position of a human hand.
素手を認識して手の動きと位置によってコンピュータや家電などを操作するインタフェースが研究されている。手の位置と動きで操作するインタフェースの利用シーンとしては、画面から少し離れた場所にユーザが複数いて、背景は特に規定しない普通の部屋などが想定され、また、ユーザが何も身体に装着しなくても使えることが望ましい。さらに、手の動きに追随できる程度の実時間性が要求される。 An interface for recognizing a bare hand and operating a computer or a household appliance according to the movement and position of the hand has been studied. The usage scene of the interface operated by the position and movement of the hand is assumed to be a normal room where there are multiple users at a distance from the screen and the background is not specified, and the user wears nothing on the body. It is desirable that it can be used without it. Furthermore, real-time performance that can follow the movement of the hand is required.
このような状況で手の位置認識をすることは実は難しい。 It is actually difficult to recognize the hand position in such a situation.
アプローチとして、ステレオ視などの形状復元技術を利用し手の形状の特徴を検出する手法もあるが、直接手をクローズアップするなどの手段を用いなければ十分な精度で手の形状を認識することは困難である。クローズアップなどをせずに撮像する場合、人物全体の大まかな形状(カメラからの距離情報)を利用することとなる。しかし、大まかな形状のみでは手の認識が困難なため、誤認識が発生しやすい。また、3次元的に指差しを行うシステムの場合に、指先位置の計測誤差が指されている物体との距離に比例して拡大することによる指差し位置の誤認識も発生する。また、肌色情報を主に用いて手の位置を検出・追跡するものは、顔や周りの物体など手以外に条件に当てはまるものが出てきてしまうため、やはり誤認識の発生が避けられない。 As an approach, there is a method of detecting the shape of the hand shape using shape restoration technology such as stereo vision, but the shape of the hand can be recognized with sufficient accuracy unless means such as direct close-up of the hand are used. It is difficult. When taking an image without performing close-up or the like, the rough shape (distance information from the camera) of the entire person is used. However, since it is difficult to recognize a hand only with a rough shape, erroneous recognition is likely to occur. In addition, in the case of a system that performs three-dimensional pointing, misrecognition of the pointing position also occurs because the measurement error of the fingertip position increases in proportion to the distance from the object being pointed. In addition, in the case of detecting and tracking the position of the hand mainly using the skin color information, there are cases where conditions other than the hand such as the face and surrounding objects are met, and thus erroneous recognition is unavoidable.
ここで、代表的な従来技術の問題点について説明する。非特許文献1に記載の技術は、Continuously Adsaptive Mean Shift(CAMSHIFT)と呼ばれるアルゴリズムを用いて対象物をリアルタイムに追跡するものであるが、指定色分布領域の追跡を時系列的に前の画像での指定色検出位置を起点とする近傍追跡背景に同色のものがあると誤認識することがある。特に物体に照明の影響で影などが入った場合色情報の精度が落ちる。非特許文献2に記載の技術は、距離(一番手前にあるもの)と背景差分(カメラと手の間に置いてあるものなどは無視)と顔の近くにあるという条件と肌色情報を用いて手を認識するもので、顔検出は他人が肩越しに覗いている等の複雑な背景では操作者の特定等が難しく、顔の誤認識の影響を強く受ける。非特許文献3に記載の技術は、指定色領域の時系列の各画像毎を追跡するもので、指定色マーカを使わなくてはいけない。背景にない可能性が高い色情報を使っており、背景に指定色がある場合、位置認識は失敗する。
本発明の目的は、類似物体誤認識を減らす手位置追跡方法、装置、およびプログラムを提供することにある。 An object of the present invention is to provide a hand position tracking method, apparatus, and program that reduce false recognition of similar objects.
本発明の第1の態様によれば、手位置追跡方法は、
撮像手段で撮像された撮像画像を入力として手の探索範囲を限定するための画像内の限定領域を決定する限定領域決定段階と、
該撮像画像から該限定領域外の情報を削除した画像情報である限定領域画像を作成する限定領域画像作成段階と、
該限定領域画像を探索範囲とし、肌色領域の色を指定する肌色情報に適合する画像上の領域を追跡する肌色追跡段階と
を有する。
According to the first aspect of the present invention, the hand position tracking method comprises:
A limited area determination step for determining a limited area in the image for limiting the search range of the hand using the captured image captured by the imaging means as an input;
A limited area image creating step of creating a limited area image which is image information obtained by deleting information outside the limited area from the captured image;
A skin color tracking step of tracking the region on the image that matches the skin color information that specifies the color of the skin color region with the limited region image as a search range.
本態様は、手の位置を追跡する範囲を決定して、その限定範囲内の情報にのみ限ったカメラ画像(限定領域画像)を作成し、限定領域画像を用いて肌色情報により手の位置を追跡するものである。追跡する範囲を限定することにより、処理対象の情報が減り、誤認識の可能性が減るとともに、計算コストも減る。 In this aspect, a range for tracking the position of the hand is determined, a camera image limited to information within the limited range (limited area image) is created, and the position of the hand is determined based on skin color information using the limited area image. To track. By limiting the range to be tracked, the information to be processed is reduced, the possibility of erroneous recognition is reduced, and the calculation cost is also reduced.
本発明の第2の態様によれば、前記限定領域決定段階が、第1および第2の撮像手段から得られる複数の画像からステレオ視技術によって画像各画素の距離情報を作成する距離情報作成段階と、該距離情報から探索範囲を指定するための対象距離情報に合致する画像上の領域を求めて限定領域として出力する限定領域作成段階を含む。 According to the second aspect of the present invention, the limited area determining step generates distance information of each pixel of the image by a stereo vision technique from a plurality of images obtained from the first and second imaging means. And a limited area creating step of obtaining an area on the image that matches the target distance information for designating the search range from the distance information and outputting the area as a limited area.
本態様は、撮像手段を2つ用いてステレオ視の手法により距離情報を作成し、対象距離設定部から得られる対象距離情報に基づき限定領域を算出するものである。 In this aspect, distance information is created by a stereo vision technique using two imaging means, and a limited region is calculated based on target distance information obtained from a target distance setting unit.
本発明の第3の態様によれば、限定領域決定段階が、前記撮像手段から得られる時系列上で連続する複数の画像列に対し、隣接する2画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出する動き情報作成段階と、該抽出点の画像上の隣接関係によって定義される連結領域の面積が一定値以上である連結領域集合を限定領域として出力する限定領域作成段階を含む。 According to the third aspect of the present invention, the limited region determination step may calculate the absolute value of the difference between the pixel values of every two adjacent images with respect to a plurality of consecutive image sequences obtained in time series from the imaging unit. A motion information creation stage for extracting points on the image whose sum is equal to or greater than a certain value, and a connected region set in which the area of the connected region defined by the adjacent relationship on the image of the extracted points is equal to or greater than a certain value is defined as a limited region Includes a limited area creation stage to output.
本態様は、1つの撮像手段の画像を入力とし、時系列的に連続する画像の差分を用いて動き情報を作成し、動きのある範囲を限定領域とするものである。 In this aspect, an image of one imaging unit is input, motion information is created using a difference between images that are time-sequentially continuous, and a range where there is a motion is defined as a limited region.
本発明の第4の態様によれば、手位置追跡方法は、
第1および第2の撮像手段から得られる複数の画像からステレオ視技術によって画像各画素の距離情報を作成し、該距離情報から探索範囲を指定するための対象距離情報に合致する画像上の領域を求めて第1の限定領域として出力する第1の限定領域決定段階と、
第1の撮像手段から得られる時系列上で連続する複数の画像列に対し、隣接する2画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出し、該抽出点の画像上の隣接関係によって定義される連結領域の面積が一定値以上である連結領域集合を第2の限定領域として出力する第2の限定領域決定段階と、
該撮像画像から前記第1と第2の限定領域の積集合である限定領域外の情報を削除した画像情報である限定領域画像を作成する限定領域画像作成段階と、
該限定領域画像を探索範囲とし、肌色領域の色を指定する肌色情報に適合する画像上の領域を追跡する肌色追跡段階と
を有する。
According to a fourth aspect of the present invention, a hand position tracking method comprises:
An area on the image that matches the target distance information for specifying the search range from the distance information by creating distance information of each pixel of the image from a plurality of images obtained from the first and second imaging means by stereo vision technology A first limited region determination step for obtaining and outputting as a first limited region;
For a plurality of image sequences that are continuous in time series obtained from the first imaging means, extract points on the image in which the sum of absolute difference values of each pixel value for every two adjacent images is a certain value or more, A second limited region determination step of outputting a connected region set in which the area of the connected region defined by the adjacent relationship on the image of the extraction points is a certain value or more as a second limited region;
A limited area image creation step of creating a limited area image that is image information obtained by deleting information outside the limited area that is a product set of the first and second limited areas from the captured image;
A skin color tracking step of tracking the region on the image that matches the skin color information that specifies the color of the skin color region with the limited region image as a search range.
本態様は、動き情報と距離情報をあわせて用いて、動きがあり、一定の距離範囲にある領域を探索範囲として限定するものである。 In this aspect, the motion information and the distance information are used together to limit an area that is in motion and within a certain distance range as a search range.
本発明は、追跡する範囲を限定することにより、色ベース手法の欠点である類似色物体誤認識の削減、さらに計算コストの低減が可能になる。 In the present invention, by limiting the range to be tracked, it is possible to reduce false recognition of similar color objects, which is a drawback of the color-based method, and to reduce calculation costs.
次に、本発明の実施の形態について図面を参照して説明する。 Next, embodiments of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1を参照すると、本発明の第1の実施形態の手位置追跡装置は、撮像部11と限定領域設定部12Aと限定領域画像作成部13と肌色追跡部14と表示部15とで構成されている。
[First Embodiment]
Referring to FIG. 1, the hand position tracking device according to the first embodiment of the present invention includes an
本実施形態は撮像部11からの画像を入力とし、ユーザが追跡する範囲を決定して、その限定範囲内の情報にのみ限ったカメラ画像(限定領域画像)を作成し、限定領域画像を用いて肌色情報により手の位置を追跡するものである。本実施形態は、動きや距離情報で限定領域を自動的に決めるのではなく、手動(ファイル入力またはアプリケーションのユーザインタフェースより入力)によって領域を指定する方法を示しており、メニューアイコンなどがあるエリアなどだけを認識対象とする場合などに使える。
In this embodiment, an image from the
本実施形態は特に、ミラーインタフェースへの適用を考えたもので、画面上のメニューアイコン(タッチされてコマンドが入力されるオブジェクト)を触るための方法の1つである。メニューを認識対象とするのは、それ以外の場所で手が見つかってもアプリケーション側がコマンドをメニューからしか受け付けない場合には意味がないからである。また、メニューアイコンの場所以外にシステムを設置した場合に背景にドアがあってよく動き、人が通ることがわかっていて、その場所で手を認識する必要がない場合、ドアのある位置以外の場所を認識対象として指定することによってドアの開閉と背景の人をノイズとして無視することができるようになり、そのような場合にも本実施形態を使用することができる。 In particular, this embodiment is intended for application to a mirror interface, and is one method for touching a menu icon (an object to which a command is input by touching it) on the screen. The reason for recognizing the menu is that it is meaningless if the application side only accepts commands from the menu even if a hand is found elsewhere. In addition, when the system is installed at a location other than the location of the menu icon, if there is a door in the background and it moves well and it is known that a person passes and there is no need to recognize the hand at that location, By designating a place as a recognition target, the opening and closing of the door and the background person can be ignored as noise, and in this case, the present embodiment can be used.
次に、各部の機能を図2のフローチャートも参照しながら説明する。 Next, the function of each unit will be described with reference to the flowchart of FIG.
限定領域決定部12Aはユーザが画面上の特定領域を限定領域として予め指定するためのものである(ステップ101、102)。四角形の限定領域の場合、四角形の対角線の2点の座標を指定する、または1点の座標と四角形の幅と高さを指定することによって、限定領域を指定することができる。また、四角形以外の限定領域の場合、座標、大きさなどを指定することによって、限定領域を指定することができる。ユーザインタフェースとして本手位置追跡装置を用いることを想定した場合、ユーザが選択可能な画面上のコマンド指定領域(アイコンなど)を含む範囲を予め限定領域に設定することが可能である。限定領域決定部12Aの出力のうち限定範囲内の画素は“1”の値を持ち、それ以外の画素は“0”の値をもつ。図1では、3つの正方形の領域が限定領域となっている。
The limited
撮像部11はカメラで、手を含む人体の画像を入力する(ステップ103)。
The
限定領域画像作成部13は撮像部11(カメラ)からのカメラ画像(基準画像)を入力し、限定領域決定部12Aで作成された限定領域を用いて、この限定領域内に限定された領域のみの情報を持った限定領域画像を作成する(ステップ104)。この限定領域画像では、限定領域内の画素に関しては、カメラ画像(基準画像)の同じ画素の位置のカラー画素値を保持し、限定領域外の画素に関しては、カメラ画像(基準画像)の同じ画素の位置のカラー画素値は“0”となる。図1では、3つの正方形の限定領域のうち、右の限定領域に手の一部の画像が入っている。
The limited region
肌色追跡部14は限定領域画像作成部13で作成された限定領域画像において肌色により手の位置を追跡し(ステップ105)、表示部15に表示する(ステップ106)。肌色追跡部14はCAMSHIFT等の既存の方法を用いて実現することができる。
The skin
なお、ユーザが限定領域を指定する代わりに、領域を指定する座標等(限定領域指定情報)が保存されたファイルから、限定領域指定情報を限定領域決定部11Aが読み出すことによって行なってもよい。 Instead of designating the limited area by the user, the limited area specifying unit 11A may read the limited area designation information from a file in which coordinates for designating the area or the like (limited area designation information) are stored.
本実施形態は、ユーザインタフェースとして必要な領域にのみ追跡を限定することにより、計算コストを削減するとともに、誤認識を削減して、コマンドの選択を確実にする効果がある。 In this embodiment, tracking is limited only to an area necessary as a user interface, thereby reducing calculation cost and reducing misrecognition and ensuring command selection.
[第2の実施形態]
図3を参照すると、本発明の第2の実施形態の手位置追跡装置は撮像部111,112と限定領域決定部12Bと限定領域画像作成部13と肌色追跡部14と表示部15とから構成されている。また、図4に示すように、限定領域決定部12Bは距離情報作成部21と対象距離設定部22と限定領域作成部23とで構成されている。
[Second Embodiment]
Referring to FIG. 3, the hand position tracking apparatus according to the second embodiment of the present invention includes
限定領域画像作成部13と肌色追跡部14と表示部15は第1の実施形態のものと同じである。
The limited area
本実施形態は、撮像部を2つ用いてステレオ視の手法により距離情報を作成し、対象距離設定部22から得られる対象距離情報に基づき限定領域を算出するものである。
In the present embodiment, distance information is created by a stereo vision technique using two imaging units, and a limited region is calculated based on target distance information obtained from the target
撮像部111,112としては市販のカメラを用いることができる。例えばセンサーテクノロジー(株)STC−R640などである。市販のカメラ2つを用いて距離情報を作成する場合、ノンインタレースの同期制御の可能である市販のカメラを用いる。また、特別な複数のカメラがあらかじめ設置された市販の複眼カメラも用いることができる。例えば、Point Grey Reserch Inc. Digiclopsのようなあらかじめステレオ視用にキャリブレーションされたカメラである。
Commercially available cameras can be used as the
対象距離設定部22は手を認識する対象距離範囲(カメラからの距離と範囲)を設定する。対象距離範囲は、ステレオ視で得られるカメラと物体との距離の情報のなかで、どこからどこまでを対象とするか、を指定する値で、カメラから距離1(手前)と距離2(奥)の2つの地点を間にはさむ範囲からなる(図6参照)。設定のインタフェースとしては、距離を2つの数値(例えば1mと3mの間など)で設定する方法がある。これに対して、「距離情報」はステレオ視のいわゆるdepth Map(カメラから見えている全体の画像の奥行き情報)である。各画素が持つ距離情報を輝度に変えてグレースケール画像で、近いところが明るく(白く)、遠いところが暗く(黒)で示されている。つまりグラデーションのある絵というのが距離画像である。
The target
なお、対象距離設定部22の構成は上記に限定されるものではない。例えば、カメラ前方の2地点でパタン(物体)を提示してそのパタン(物体)のカメラからの距離をステレオ視機能で測定して設定範囲の2点とする方法、任意に撮影された画像から距離画像を作成し試行錯誤により設定範囲を変更しながら距離画像を見て範囲を決定する方法、等がある。
The configuration of the target
また、対象距離を設定するもう一つの方法は、ステレオ視の機能を動的に用い、撮像部に最も近い画素の距離を基準にその距離から何m〜何mという形で時系列に連続する各画像毎に動的に対象距離を変更することである。また、最近画素と最遠画素の距離範囲の中の一定範囲をパーセンテージ(割合)で設定することで、動的に距離範囲を設定する方法もある。 Another method of setting the target distance is to use the stereo vision function dynamically and continue in time series in the form of how many meters to how many meters from the distance based on the distance of the pixel closest to the imaging unit. The target distance is dynamically changed for each image. There is also a method of dynamically setting the distance range by setting a certain range in the distance range between the nearest pixel and the farthest pixel as a percentage.
なお、対象となる距離Zは後述する距離情報作成部21で用いられるカメラの焦点距離f、カメラのベースライン距離Bを用いてd=f×B/Zなる変換式で視差値dに変換して(図7参照)記録することで限定領域作成部23の処理量を削減することができる。 Note that the target distance Z is converted into a parallax value d using a conversion formula of d = f × B / Z using a camera focal length f and a camera baseline distance B used in the distance information creation unit 21 described later. (See FIG. 7), the processing amount of the limited area creating unit 23 can be reduced.
距離情報作成部21では、2つ以上の画像から同一の点が撮影されている画像上の位置を画像の類似度から判定し、複数画像間での位置のずれ(視差)から三角測量の原理で基準画像上でのカメラからの距離を求めるステレオ視を行う(図5のステップ107)。
The distance information creation unit 21 determines the position on the image where the same point is captured from two or more images based on the similarity of the images, and the principle of triangulation from the positional deviation (parallax) between the plurality of images. The stereo view for obtaining the distance from the camera on the reference image is performed (
以下では、カメラ(撮像手段)が2つで平行に置いてある場合を例として説明する。時間的に同期された2つの一定距離離れて、水平方向に平行に置かれたカメラ111(右)とカメラ112(左)で撮像した2枚のカメラ画像の視差を、カメラから撮像対象までの距離情報とする。 Hereinafter, a case where two cameras (imaging units) are placed in parallel will be described as an example. The parallax between the two camera images taken by the camera 11 1 (right) and the camera 11 2 (left) placed in parallel in the horizontal direction at two fixed distances synchronized in time is captured from the camera. Distance information.
視差の計算の方法としては、例えば以下のような方法がある。カメラ111を基準として、基準のカメラ111で撮像されたカメラ画像(基準画像)と、カメラ112で撮像されたカメラ画像とで、特定の大きさの画像小領域(ブロック)同士の類似度を計算することによって、対応する画素を求めるブロックマッチングを行うことで視差を計算する。視差をdとした時、撮像手段と撮像物体間の距離ZはZ=f×B/d、という関係になる(参考文献:辻 三郎、徐 剛 著「3次元ビジョン」共立出版 95−97頁)。d=u−u’であり、Bはカメラ111とカメラ112との距離、fはカメラの焦点距離である。図7に説明図を示す。ここで、左画像、右画像とはそれぞれ左側のカメラ、右側のカメラに写っている画像である。
As a method for calculating the parallax, for example, there are the following methods. The
距離画像は、同時刻に撮像された右カメラ画像と左カメラ画像との視差を、画像全体の各画素の画素値で表現することで生成される。この視差は、その値が大きいほど人物の位置がカメラ111に近いことを表し、値が小さいほど人物の位置がカメラ111から遠いことを表している。
The distance image is generated by expressing the parallax between the right camera image and the left camera image captured at the same time by the pixel value of each pixel of the entire image. The parallax indicates that the position of the person is closer to the
なお、距離情報作成部21の構成は上記に限定されるものではない。例えば、Digiclopsのような市販のステレオカメラを用いた場合は、ステレオカメラとその付属プログラムから距離情報を作成することも可能である。 The configuration of the distance information creation unit 21 is not limited to the above. For example, when a commercially available stereo camera such as Digitallops is used, it is also possible to create distance information from the stereo camera and its attached program.
図6は限定領域作成部23の動作を説明する図である。限定領域作成部23は、距離情報作成部21にて作成された距離画像と、対象距離設定部22にて設定された対象距離の範囲を入力し、距離画像において、各画素の画素値として表された距離情報を用いて、対象距離設定部22で設定された範囲にある距離(視差)の画素のみを抽出する(図5のステップ108)。
FIG. 6 is a diagram for explaining the operation of the limited area creation unit 23. The limited area creating unit 23 inputs the distance image created by the distance information creating unit 21 and the range of the target distance set by the target
例えば、対象距離設定部22で設定された範囲内にある画素には、手のある一定範囲の中にあるものとして“1”を与え、それ以外の画素には手のある一定範囲外にあるものとして“0”の値を与えるなどの方法により、一定距離範囲に限られた限定領域を作成する。
For example, “1” is given to the pixels within the range set by the target
図8はカメラ画像1(右)とカメラ画像2(左)から対象距離に限定した限定領域が得られ、さらに限定領域内のみ画像情報をもつ限定領域画像が得られる様子を示している。 FIG. 8 shows that a limited area limited to the target distance is obtained from the camera image 1 (right) and the camera image 2 (left), and that a limited area image having image information only in the limited area is obtained.
[第3の実施形態]
図9を参照すると、本発明の第3の実施形態の手位置追跡装置は、撮像部11と限定領域決定部12Cと限定領域画像作成部13と肌色追跡部14と表示部15で構成されている。限定領域決定部12Cは、図10に示すように、動き情報作成部31と限定領域作成部32で構成されている。
[Third Embodiment]
Referring to FIG. 9, the hand position tracking apparatus according to the third embodiment of the present invention includes an
本実施形態は、図11に示すように。1つの撮像部(カメラ)の画像(At)を入力とし、限定領域決定部12Cにおいて、時系列的に連続する画像の差分を用いて動き情報を作成し(ステップ109)、動きのある範囲を限定領域とするものである(ステップ110)。
This embodiment is as shown in FIG. Using the image (A t ) of one imaging unit (camera) as an input, the limited
限定領域の算出後の限定領域画像作成部13での限定領域画像の生成ならびに肌色追跡部14の肌色追跡は第1の実施形態と同じである。
The generation of the limited area image in the limited area
以下、限定領域決定部12Cの動き情報作成部31と限定領域作成部32について図12により詳細に説明する。
Hereinafter, the motion information creation unit 31 and the limited region creation unit 32 of the limited
動き情報作成部31は、時系列に連続する複数(k+1個)の撮像画像(At-k,At-k+1,…,At)を入力とし、時系列上隣接(連続)する2つの撮像画像の差分絶対値(|At-k+1−At-k|,…,|At−At-1|)を計算し、画素毎の和からなる画像 The motion information creation unit 31 receives a plurality (k + 1) of captured images (A tk , A t-k + 1 ,..., A t ) that are continuous in time series and inputs two adjacent (continuous) in time series. An image composed of the sum of each pixel by calculating a difference absolute value (| A t−k + 1 −A tk |,..., | A t −A t−1 |) of the captured image.
を求め、Stの画素毎にその値が既定値を超える画素を1とし、そうでない画素を0とする、ビットマップBtを作成する。 The calculated, the value for each pixel of S t is set to 1 pixel exceeds a predetermined value, the pixel is not the case and 0, creates a bitmap B t.
なお、動き情報作成部31の構成は上記に限定されるものではない。例えば、動きのある画素を求める方法として、上記では、画像の差分絶対値の総和Stによって動き領域を検出しているが、差分2乗和 The configuration of the motion information creation unit 31 is not limited to the above. For example, as a method for determining the in motion pixel, in the above, and detects the motion area by the sum S t of the difference absolute values of the image, a difference square sum
によって検出する方法もある。さらに、あらかじめ撮像しておいた背景画像とカメラ入力画像の差分である背景差分を作成することにより、動きを検出する方法もある。また、オプティカルフローを計算することにより、動きのある画素を求めることもできる。 There is also a method of detecting by. Further, there is a method for detecting motion by creating a background difference that is a difference between a background image captured in advance and a camera input image. In addition, by calculating the optical flow, a moving pixel can be obtained.
限定領域作成部32は、動き情報作成部31にて作成された、Bt内で画素を隣接関係のある画素集合(連結集合)に分割し、各連結集合のうちその領域に属する画素数があらかじめ決められた閾値以下の大きさになる領域は誤差として、動きがない領域と同じ扱い(値を“0”とする等)とすることにより、限定領域を作成する。これは、「ラベリング」をして、1つの物体として区切られたものの面積を求めて、面積があまり小さいものを無視することを意味している。 Limited area creating unit 32, is created by the motion information generating unit 31 divides the pixels in B t to the pixel set with adjacency (connected set), the number of pixels belonging to the region of each connected set A limited area is created by treating an area having a size equal to or smaller than a predetermined threshold as an error as the same area as a non-motion area (eg, setting the value to “0”). This means that “labeling” is performed to obtain the area of the object divided as one object, and the area having a very small area is ignored.
図13はカメラ画像Atとカメラ画像At-1から、動きのある範囲に限定した限定領域が得られ、さらに動きのある限定領域内のみ画像情報をもつ限定領域画像が得られる様子を示している。 Figure 13 shows the manner in which the camera image A t and the camera image A t-1, to obtain a limited area is limited to a range of motion limited region image is obtained further having image information only limited areas with motion ing.
本実施形態によれば、動きを用いて限定領域を決定することによって、例えば、カメラからの距離範囲が手と同じ範囲に、肌色と色相の値の近い色の物体が存在した場合にも、その物体が静物であれば、または動きの大きさが少なければ無視することができ、その肌色物体を誤検出することを抑制することができる。 According to the present embodiment, by determining the limited area using the motion, for example, even when an object having a color close to the skin color and the hue value exists in the same distance range from the camera as the hand, If the object is a still life or if the amount of movement is small, it can be ignored, and erroneous detection of the skin color object can be suppressed.
[第4の実施形態]
図14を参照すると、本発明の第4の実施形態の手位置追跡装置は撮像部111,112と、それぞれ第2、第3の実施形態における限定領域決定部12B,12Cと、AND回路16と、限定領域画像作成部13と、肌色追跡部14と、表示部15で構成されている。
[Fourth Embodiment]
Referring to FIG. 14, the hand position tracking apparatus according to the fourth embodiment of the present invention includes
本実施形態では、第1の実施形態の内容に加え、第1の実施形態で示した限定領域決定部13において、動き情報と距離情報をあわせて用いて、動きがあり、一定の距離範囲にある領域を探索範囲として限定するものである(ステップ102B、102C、111)。
In the present embodiment, in addition to the contents of the first embodiment, the limited
すなわち、限定領域決定部12B,12Cそれぞれから出力される第2の実施形態および第3の実施形態で用いられる限定領域の論理積を限定領域として出力する。
That is, the logical product of the limited areas used in the second and third embodiments output from the limited
図16は、カメラ画像1(右)とカメラ画像2(左)から距離による限定領域が作成され、カメラ画像Atとカメラ画像At-1から動きによる限定領域が作成され、両限定領域の積がとられて、限定領域画像作成部13にて、動きがあり一定の距離範囲にある領域内のみ画像情報をもつ限定領域画像が得られることを示している。
Figure 16 is restricted area creates camera image 1 (right) by the distance from the camera image 2 (left), limited areas due to the movement is created from the camera image A t and the camera image A t-1, in both confined area This shows that the limited area
なお、以上説明した手位置追跡装置の機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。 The program for realizing the function of the hand position tracking device described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. May be. The computer-readable recording medium refers to a recording medium such as a flexible disk, a magneto-optical disk, and a CD-ROM, and a storage device such as a hard disk device built in a computer system. Furthermore, a computer-readable recording medium is a server that dynamically holds a program (transmission medium or transmission wave) for a short period of time, as in the case of transmitting a program via the Internet, and a server in that case. Some of them hold programs for a certain period of time, such as volatile memory inside computer systems.
11,111,112 撮像部
12A、12B、12C 限定領域決定部
13 限定領域画像作成部
14 肌色追跡部
15 表示部
16 AND回路
21 距離情報作成部
22 対象距離設定部
23 限定領域作成部
31 動き情報作成部
32 限定領域作成部
101〜111 ステップ
11, 11 1 , 11 2
Claims (9)
該撮像手段で撮像された撮像画像を入力として手の探索範囲を限定するための画像内の限定領域を決定する限定領域決定段階と、
該撮像画像から該限定領域外の情報を削除した画像情報である限定領域画像を作成する限定領域画像作成段階と、
該限定領域画像を探索範囲とし、肌色領域の色を指定する肌色情報に適合する画像上の領域を追跡する肌色追跡段階と
を有する手位置追跡方法。 A method of tracking a hand position by tracking a skin color region on a captured moving image obtained by imaging an imaging target by an imaging means,
A limited area determination step of determining a limited area in the image for limiting the search range of the hand using the captured image captured by the imaging means as an input;
A limited area image creating step of creating a limited area image which is image information obtained by deleting information outside the limited area from the captured image;
A skin color tracking step of tracking a region on the image that matches the skin color information that specifies the color of the skin color region with the limited region image as a search range.
第1および第2の撮像手段から得られる複数の画像からステレオ視技術によって該画像の各画素の距離情報を作成し、該距離情報から探索範囲を指定するための対象距離情報に合致する画像上の領域を求めて第1の限定領域として出力する第1の限定領域決定段階と、
第1の撮像手段から得られる時系列上で連続する複数の画像列に対し、隣接する2画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出し、該抽出点の画像上の隣接関係によって定義される連結領域の面積が一定値以上である連結領域集合を第2の限定領域として出力する第2の限定領域決定段階と、
該撮像画像から前記第1と第2の限定領域の積集合である限定領域外の情報を削除した画像情報である限定領域画像を作成する限定領域画像作成段階と、
該限定領域画像を探索範囲とし、肌色領域の色を指定する肌色情報に適合する画像上の領域を追跡する肌色追跡段階と
を有する手位置追跡方法。 A method of tracking a hand position by tracking a skin color region on a captured moving image obtained by imaging an imaging target by an imaging means,
The distance information of each pixel of the image is created from a plurality of images obtained from the first and second imaging means by a stereo vision technique, and on the image that matches the target distance information for designating the search range from the distance information A first limited area determining step for obtaining the area of the first limited area and outputting it as a first limited area;
For a plurality of image sequences that are continuous in time series obtained from the first imaging means, extract points on the image in which the sum of absolute difference values of each pixel value for every two adjacent images is a certain value or more, A second limited region determination step of outputting a connected region set in which the area of the connected region defined by the adjacent relationship on the image of the extraction points is a certain value or more as a second limited region;
A limited area image creation step of creating a limited area image that is image information obtained by deleting information outside the limited area that is a product set of the first and second limited areas from the captured image;
A skin color tracking step of tracking a region on the image that matches the skin color information that specifies the color of the skin color region with the limited region image as a search range.
該撮像手段で撮像された撮像画像を入力として手の探索範囲を限定するための画像内の限定領域を決定する限定領域決定手段と、
該撮像画像から該限定領域外の情報を削除した画像情報である限定領域画像を作成する限定領域画像作成手段と、
探索対象となる肌色情報を保持する肌色情報設定手段と、
前記限定領域画像を探索範囲とし、肌色領域の色を指定する前記肌色情報に適合する画像上の領域を追跡する肌色追跡手段と
を有する手位置追跡装置。 An apparatus for tracking a hand position by tracking a skin color region on a captured moving image obtained by imaging an imaging target by an imaging means,
Limited area determination means for determining a limited area in the image for limiting the search range of the hand by using the captured image captured by the imaging means as an input;
Limited area image creating means for creating a limited area image, which is image information obtained by deleting information outside the limited area from the captured image;
Skin color information setting means for holding skin color information to be searched;
A hand position tracking device comprising: a skin color tracking unit configured to track a region on an image that matches the skin color information that designates a color of a skin color region using the limited region image as a search range.
第1および第2の撮像手段から得られる複数の画像からステレオ視技術によって画像各画素の距離情報を作成する対象距離作成手段と、
該距離情報から探索範囲を指定するための対象距離情報に合致する画像上の領域を求めて第1の限定領域として出力する限定領域作成手段を含む第1の限定領域決定手段と、
第1の撮像手段から得られる時系列上で連続する複数の画像列に対し、隣接する2画像毎の各画素値の差分絶対値の総和が一定値以上である画像上の点を抽出し、該抽出点の画像上の隣接関係によって定義される連結領域の面積が一定値以上である連結領域集合を第2の限定領域として出力する限定領域作成手段を含む第2の限定領域決定手段と、
該撮像画像から前記第1と第2の限定領域の積集合である限定領域外の情報を削除した画像情報である限定領域画像を作成する限定領域画像作成手段と、
探索対象となる肌色情報を保持する肌色情報設定手段と、
前記限定領域画像を探索範囲とし、肌色領域の色を指定する前記肌色情報に適合する画像上の領域を追跡する肌色追跡手段と
を有する手位置追跡装置。 An apparatus for tracking a hand position by tracking a skin color region on a captured moving image obtained by imaging an imaging target by an imaging means,
Target distance creation means for creating distance information of each pixel of an image by a stereo vision technique from a plurality of images obtained from the first and second imaging means;
First limited area determination means including limited area creation means for obtaining an area on the image that matches target distance information for designating a search range from the distance information and outputting the area as a first limited area;
For a plurality of image sequences that are continuous in time series obtained from the first imaging means, extract points on the image in which the sum of absolute difference values of each pixel value for every two adjacent images is a certain value or more, A second limited area determining means including a limited area creating means for outputting a connected area set in which the area of the connected area defined by the adjacent relationship on the image of the extraction points is a certain value or more, as a second limited area;
Limited area image creating means for creating a limited area image that is image information obtained by deleting information outside the limited area that is a product set of the first and second limited areas from the captured image;
Skin color information setting means for holding skin color information to be searched;
A hand position tracking device comprising: a skin color tracking unit configured to track a region on an image that matches the skin color information that designates a color of a skin color region using the limited region image as a search range.
A hand position tracking program for causing a computer to execute the hand position tracking method according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005060952A JP2006244272A (en) | 2005-03-04 | 2005-03-04 | Hand position tracking method, device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005060952A JP2006244272A (en) | 2005-03-04 | 2005-03-04 | Hand position tracking method, device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006244272A true JP2006244272A (en) | 2006-09-14 |
Family
ID=37050615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005060952A Pending JP2006244272A (en) | 2005-03-04 | 2005-03-04 | Hand position tracking method, device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006244272A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011175347A (en) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | Information processing apparatus and method |
JP2014170319A (en) * | 2013-03-01 | 2014-09-18 | Ricoh Co Ltd | System, image projection device, control method and program |
JP2015191480A (en) * | 2014-03-28 | 2015-11-02 | 株式会社ソニー・コンピュータエンタテインメント | Information processor, operation method of object and operation program of object |
WO2016208216A1 (en) * | 2015-06-22 | 2016-12-29 | 株式会社村田製作所 | User interface device and distance sensor |
US10080963B2 (en) | 2014-03-28 | 2018-09-25 | Sony Interactive Entertainment Inc. | Object manipulation method, object manipulation program, and information processing apparatus |
CN110675428A (en) * | 2019-09-06 | 2020-01-10 | 鹏城实验室 | Target tracking method and device for human-computer interaction and computer equipment |
WO2022085775A1 (en) * | 2020-10-23 | 2022-04-28 | ソニーグループ株式会社 | User interface system, user interface method, and image editing device |
-
2005
- 2005-03-04 JP JP2005060952A patent/JP2006244272A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011175347A (en) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | Information processing apparatus and method |
JP2014170319A (en) * | 2013-03-01 | 2014-09-18 | Ricoh Co Ltd | System, image projection device, control method and program |
JP2015191480A (en) * | 2014-03-28 | 2015-11-02 | 株式会社ソニー・コンピュータエンタテインメント | Information processor, operation method of object and operation program of object |
US10080963B2 (en) | 2014-03-28 | 2018-09-25 | Sony Interactive Entertainment Inc. | Object manipulation method, object manipulation program, and information processing apparatus |
WO2016208216A1 (en) * | 2015-06-22 | 2016-12-29 | 株式会社村田製作所 | User interface device and distance sensor |
CN110675428A (en) * | 2019-09-06 | 2020-01-10 | 鹏城实验室 | Target tracking method and device for human-computer interaction and computer equipment |
WO2022085775A1 (en) * | 2020-10-23 | 2022-04-28 | ソニーグループ株式会社 | User interface system, user interface method, and image editing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10216987B2 (en) | Image processing device and image processing method | |
JP4575829B2 (en) | Display screen position analysis device and display screen position analysis program | |
JP2941207B2 (en) | Gesture recognition system | |
CN105229582B (en) | Gesture detection based on proximity sensor and image sensor | |
US8860760B2 (en) | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene | |
KR101227255B1 (en) | Marker size based interaction method and augmented reality system for realizing the same | |
JP5381569B2 (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
KR20150055543A (en) | Gesture recognition device and gesture recognition device control method | |
EP3136203B1 (en) | System and method of real-time interactive operation of user interface | |
JP2016099941A (en) | System and program for estimating position of object | |
TW201712524A (en) | Apparatus and method for video zooming by selecting and tracking an image area | |
JP5438601B2 (en) | Human motion determination device and program thereof | |
KR100692526B1 (en) | Gesture recognition apparatus and methods for automatic control of systems | |
JP2006244272A (en) | Hand position tracking method, device and program | |
JP2007034525A (en) | Information processor, information processing method and computer program | |
KR20140026629A (en) | Dynamic gesture recognition process and authoring system | |
JP2010057105A (en) | Three-dimensional object tracking method and system | |
KR100457929B1 (en) | System of Soft Remote Controller Using Hand Pointing Recognition | |
JP5468773B2 (en) | Image processing apparatus and image processing method | |
JP4559375B2 (en) | Object position tracking method, apparatus, and program | |
CN106951077B (en) | Prompting method and first electronic device | |
Akman et al. | Multi-cue hand detection and tracking for a head-mounted augmented reality system | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
JP4221330B2 (en) | Interface method, apparatus, and program | |
JP6068741B2 (en) | Display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091028 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100120 |