JP3863809B2 - 手の画像認識による入力システム - Google Patents
手の画像認識による入力システム Download PDFInfo
- Publication number
- JP3863809B2 JP3863809B2 JP2002154145A JP2002154145A JP3863809B2 JP 3863809 B2 JP3863809 B2 JP 3863809B2 JP 2002154145 A JP2002154145 A JP 2002154145A JP 2002154145 A JP2002154145 A JP 2002154145A JP 3863809 B2 JP3863809 B2 JP 3863809B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- finger
- region
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、コンピュータ入力のヒューマン・インターフェースに関し、特に掌の画像から立っている指を識別することにより入力することができるシステムに関する。
【0002】
【技術的背景】
近年、コンピュータ等の発達によって、人間の周りの機械類をより利用しやすく、より役に立つものにすることが可能になった。バーチャルリアリティ、マルチメディア、ヒューマン・インターフェースなどの発明はこの動きの代表的なものである。
その中のヒューマン・インターフェースは、人間と機械の間の情報のやりとりを如何にして効率良く、理解しやすい形で行えるかを目的とする発明であり、人とコンピュータとの間で人にやさしい対話を目的とする上で、人間の動作や姿勢を機械に理解させることが非常に重要な課題である。例えば、仮想世界の構築を行うためには人体全体に対する姿勢推定が必要であるし、機械の遠隔操作を想定するなら、手指の姿勢推定が重要となる。また、各種の設備や機器にカメラを設置して利用者の行動を数値化できれば、ヒューマン・インターフェースの一助となる。
動作認識の中でも、人体の一部である手の形状を入力手段とする方法は、各種機器とのインターフェースが自然な形で実現することにつながり、非常に重要な意味を持っている。しかも、手は人の体の中でもっとも器用な部分で、その形状や動作による表現が非常に豊富である。従って、人間像の合成や人の動作の認識の中で手は極めて重要な部分である。
【0003】
手形状を利用する手法としては、データグローブ等の物理型センサやマーカを用いる接触型の手法と画像情報から認識をおこなう非接触型の手法がある。センサーやマーカを用いる接触型の手法は数多く提案されているが、入力画像の特徴点を抽出する際の安定性が高く処理が速い反面、被観測者にとって物理的なセンサの装着に伴う煩わしさがあり、より自然なシステムを構築するためには問題がある。
それに対し、センサやマーカを用いず画像情報から認識を行う方法も数多く提案されている。画像情報より認識を行う手法には、入力画像から指などのエッジ成分や輪郭線といった特徴を抽出し、得られた成分と学習済みの3次元モデルをマッチングさせることで形状推定を行う方法がある。しかし、これらの手法は、マッチングの際の計算量が多く処理時間に問題があり、手を入力手段とする実時間上で動作するシステムを構築するには無理がある。実時間で手の重心の位置や手の方向、指の本数の認識は行えるものもあるが、これらは手の形状から得られる基本的な情報のみを認識しており、実際にどの指が伸びているのかを認識することができない。
実時間で指を認識することができるシステムもあるが、複数台のカメラを用いて特徴を抽出し認識を行っており、手をコンピュータの入力装置とする自然なマンマシン・ヒューマン・インタフェースを構築するには無理がある。
しかし、ユーザにとって自然で使いやすいヒューマン・インターフェースを構築するためには、物理センサを用いず、被観測者に負担を与えない画像情報を利用する手法の方が有用である。
【0004】
【発明が解決しようとする課題】
本発明の目的は、センサやマーカを用いず、手の形状の画像情報から、5本の指のうちどの指が立っているかの認識を行うことにより、コンピュータ等に入力できるシステムを提供することである。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明は手の画像認識による入力システムであって、手の画像を入力する画像入力手段と、該画像入力手段からの手の画像から、手領域部分を塗りつぶした手領域抽出画像を得る手領域抽出手段と、該手領域抽出画像から、手領域細線画像を得る手領域細線画像生成手段と、前記手領域抽出画像と手領域細線画像とから、立っている指を認識して手の形状を特定する手形状認識手段とを備え、どの指が立っているかで片手で32通りの形状を特定することを特徴とする。
前記手領域抽出手段は、前記手の画像から肌色部分を抽出して、肌色部分に平滑化処理を行い、平滑化処理後の前記肌色部分の輪郭線を追跡して輪郭線の長さが最大である座標系列の抽出を行い、抽出した輪郭線に平滑化処理を行った後、該輪郭線の内部を塗りつぶして手領域抽出画像を得ることができる。
さらに、前記輪郭線から、指の数を認識する指数認識手段を備え、該指数認識手段により、指の数が2〜4のいずれかであると認識したときに、前記手形状認識手段で手形状の特定を行い、指の数が0又は5であると認識したときは、前記手形状認識手段による処理を行わないようにすることもできる。
手形状認識手段は、前記手領域細線画像から手の方向ベクトルを求め、求めた該手の方向ベクトルに対して垂直に前記手領域抽出画像を走査して、手のラン長を求め、該ラン長により指領域を抽出し、抽出した該指領域を用いて、前記手領域細線画像から指の部分を抽出することで手の形状を認識することもできる。
手形状認識手段は、前記手の形状の認識を行うパラメータを正規化して評価するとよい。
上述に記載した機能を有する入力システムをコンピュータ・システムに構成させるプログラムやプログラムを格納した記録媒体も本発明である。
【0006】
【発明の実施の形態】
本発明の実施形態を、図面を参照して詳細に説明する。
図1は、本発明の実施形態におけるシステム構成例を示す。手の画像認識による入力システム100は、CPU,ハードディスク等を内蔵するコンピュータ本体110,CRT等の表示装置120,キーボード112,マウス等のポインティング・デバイス114等で構成される通常のコンピュータ・システムにカメラ等の画像入力装置130を接続したものである。画像入力装置130から、手の画像をコンピュータ・システム内に取り込み、画像処理を行うことができる。
また、図2は、このシステムで実行される手形状の認識処理を示すフローチャートである。以下に、このフローチャートを用いて、手形状の認識処理を説明する。
まず、1台のカメラ130により、システム内に手形状の画像を取得する(S202)。以下に説明するこの実施形態では、取得した入力画像に対して、以下のような制約条件がある。
1.入力画像はRGB表色系で表されるカラー画像である。
2.肌色領域を抽出して手領域とするため、画像中において手が最大の肌色領域であり、手領域と他の肌色物体は重ならないようにする。
3.カメラのレンズに対してなるべく掌を平行に向けるようにし、カメラのレンズに掌が向いているのか手の甲が向いているのかが分かっている。
4.手となる領域がすべて肌で表され、手首より先の領域は画像枠とは交わらない。
5.指同士は重なり合わないようにする。
6.指は伸ばしているか伸ばしていないかのいずれかの状態にあるとする。
【0007】
これらの制約条件を満たし、かつ人間が指を用いて表現できる手形状は32種類ある。本発明はこの32種類全ての形状に対してどの指が伸びているかを認識する。32種類の手形状の詳細を図3,図4(背景は黒に統一してある)に示す。図3,図4では、各手形状に対して、指の位置を2進数の位とし、指が立っている状態を1、畳んでいる状態を0としたときの2進数(括弧の中は10進数)も示している。図3に示すように、手形状の32種類の状態と指による2進数とは1対1の関係にある。従って、図3に示す手形状を認識できると、それに対応する2進数(10進数)も入力できることになる。
【0008】
入力した入力画像の例を図5に示す。図5に示すように、実際の入力画像には、背景等、手の認識に無関係のものが映っている。次に、図5に示した入力した画像から、手領域を抽出するための画像を生成する(S204)。この認識用の画像の生成を行う処理例のフローチャートを図6に示す。図6に示すように、手領域抽出画像の生成は、例えば以下の手順で行う。
1.RGB表色系で表される入力画像を、RBG表色系に対して光の影響が受けにくいHSV表色系に変換する(S304)。
2.HSV表色系画像において肌色成分を抽出し(S306)、肌色成分とその他の成分に2値化し、2値画像を生成する(S308)。
3.得られた2値画像において面積が最大である領域を抽出し(S310)、平滑化処理として拡散・収縮を行った(S322)ものを手領域候補とする。
【0009】
上の手順で得られた画像は、撮影環境などによっては情報の欠落やノイズを含んでいる場合があり、後の細線化処理において不都合が生じる場合がある。そこで手領域候補の輪郭線に対しても平滑化を行う。輪郭線の平滑化は以下の手順で行う。
1.手領域候補の輪郭線を抽出し、輪郭線の最大のものを手領域候補の輪郭線とする(S324)。
2.得られた手領域候補の輪郭線を線分近似パラメータεで多角形近似し、多角形近似された領域に対して塗りつぶし処理を行う(S326)。ここで線分近似パラメータεは手領域候補の面積に対して設定される。
3.多角形近似された領域に対して塗りつぶし処理を行って得られた図形を手領域として決定し、この画像を手領域抽出画像とする(S328)。
以下に各処理の詳細に付いて述べる。
【0010】
(手領域候補の抽出:S302)
まず、画像中の手領域である場所を抽出するために、本発明の実施形態では肌色抽出を行う。
しかしながら、入力画像であるRGB表色系で表されるカラー画像は、色彩情報を人間が直接推定することが困難となり扱いにくい。したがって人間が感覚的に取り扱いやすい、明度、彩度、色度のような属性を持つ表色系に変換することが望ましい。このような表色系にはHSV表色系やL*a*b*表色系など様々なものがあるが、HSV表色系が安定して肌色抽出が行える。
そこで、本発明の実施形態では、RGB表色系からHSV表色系に変換し、肌色抽出を行った。
【0011】
(HSV表色系)
HSV表色系は、色の種類を表す色相H(hue)、色の鮮やかさを表す彩度S(saturation)、そして明るさの程度を表す明度V(value)の3つの要素からなる。変換方法は、RGB表色系を非線形変換する。ただし、R,G,B,S,Vの値域は[0,1]であり、Hは〔0,2π〕の値を持つものとする。RGB表色系からHSV表色系への変換方法は、例えば高木・下田監修「画像解析ハンドブック」(東京大学出版会,pp.485−491,1991年発行)に記載されている。
【0012】
(手領域の抽出)
本発明では、肌色領域の閾値は
0.11<H<0.22
0.2<S<0.5
のように設定し、この閾値を用いて肌色を抽出する(S306)。手領域と背景とを分離するために2値化処理(S308)を行い、手領域の最大面積部を抽出する。このとき手領域の最大面積部、つまり画素数が1000より小さいときは画像中に手領域が存在しないとし、処理を終る。なお、用いている画像は、横320画素・縦240画素の大きさであるとする。
得られた手領域最大部のシルエット画像に対して、平滑化処理として拡散・収縮処理(S322)を行ったものを手領域候補とする(図7参照)。拡散・収縮処理のアルゴリズムは、例えば長谷川他「画像処理の基本技法−技術入門編−」(技術評論社 1986年発行)を用いることができる。
【0013】
(手領域の決定)
得られた手領域候補に対して、輪郭線追跡処理を施して輪郭線抽出画像を作成し(S324:図8参照)、輪郭線の長さが最大である座標系列の抽出を行う。この座標系列より、輪郭線の平滑化処理として多角形近似(S326)を行う。多角形近似には区分的直線近似法を用いる。
(区分的直線近似法)
区分的直線近似法とは、ある線分近似パラメータεを導入した以下の手順のアルゴリズムで実現されている(長谷川他「画像処理の基本技法−技術入門編−」(技術評論社 1986年発行)参照)。図9は、その動作原理を示したもので(a)(b)(c)(d)という順で処理されている。
1.まず、輪郭線図形の追跡開始点Aから追跡順に直線線分で結んでいき、その直線線分から最も離れた点Cを見つけ、その最大距離hが近似値εより大きければ、その点で2つの直線AC,直線CBに分割する。最大距離hが近似値εより小さければ手順終了。
2.次に、分割した各々の部分線AC,BCに対し、1と同様の手順を用いて分割を繰り返す。図9(b)の例では、直線ACで、再度最大距離hが近似値εより大きい点Dが見出されているので、直線ADと直線DCに分割している(図9(c)参照)。
3.分割されたどの直線線分に対しても最大距離がεを越えなければ分割操作を停止し(図9(c)参照)、分割点で結ばれた多角形が求める線図形として手順終了(図9(d)参照)。
区分的近似法は、線分近似パラメータ値εを適当に設定することにより滑らかさの具合も調整できる。
【0014】
しかし、手とカメラとの距離(奥行き値)によって、フレーム上での手領域面積が異なるため、一定の線分近似パラメータでは適切な近似ができない。そこで本発明の実施形態では、手領域の面積によりそれぞれの線分近似パラメータを決定し、奥行き値の影響を軽減する適切な近似ができるようにした。
本発明の実施形態で用いた近似パラメータの例を表1に示す。
【表1】
輪郭線抽出画像を区分的直線近似法を使って実現した、多角形近似画像の例を図10に示す。
【0015】
(手領域の決定)
得られた多角形近似画像に対して、スキャン・コンバージョンのアルゴリズムを用いて多角形近似画像の塗りつぶし処理(S326)をおこない、得られた画像(図11参照)を手領域抽出画像として決定する(S328)。スキャン・コンバージョンは、例えば、阿部圭一「OAのための図面・文書画像処理4 図形の追跡」(画像ラボ,pp.52−55,1999)に記載されている。
(手領域細線画像の生成)
得られた手領域抽出画像を用いて手領域細線画像を生成する(図2のS206)。手領域抽出画像に対して細線化を行う。細線化のアルゴリズムは、例えば横井他「標本化された2値図形のトポロジカルな性質について」(電子通信学会論文誌(D),J56−D,42,pp.662−669,1973)に記載のものを用いた。
得られた細線化画像には、図12に示すように指先などに小さな枝が付いている場合が多く、この後の処理に不都合が生じる。そこで枝の除去処理を行う。枝の除去を行った細線化画像を手領域細線画像とする(図13)。
(指の本数認識:S208)
認識用画像を生成するとともに、伸びている指の本数を求める。手領域抽出過程で得られた輪郭線抽出画像に対して、手領域抽出で用いた線分近似パラメータとは別の値(表2参照)の線分近似パラメータεで多角形近似を行う。
【表2】
【0016】
近似された画像は、n個の点とn個の直線から成る多角形である。そこでn個の点を近似点と呼び、図14に示す様に、近似点をx0,x1,・・・,xi−1,xi,・・・,xn−1と置いて、ベクトルxixi+1,ベクトルxixi−1の成す角をθiとする。ここでベクトルxixi+1=(a1,a2),ベクトルxixi−1=(b1,b2)とすると、θiは次の式で求められる。
【数1】
この式によって、多角形のすべての近似点によって成される角が求まる。ここでθi≦60°であるものを特徴点として抽出しその数を算出する。
しかし、上述の式を用いて内角を求めると、多角形の内角が180°以上のものも抽出されてしまう。これは、180°以上の内角θは、上述の式では360°−θとして計算され、実質的に多角形の内角が180°以上のものも抽出されてしまうことになる。
そこで、図15に示すように、三角形△pi−1pipi+1の符号付き面積(例えば、浅野哲夫「計算幾何学」pp.73−79 朝倉書店,1990年参照)を用いて180°以上の内角を持つ頂点の検出を行い、180°以上の内角を持つ角を特徴点として抽出しない処理を行う。
算出された特徴点の数より指の本数の認識を行う。特徴点の個数と指の本数との対応は表3に示す。このとき指が0本と5本に認識された場合は、処理を終了する。
【表3】
指の本数認識の精度であるが、認識実験で用いた画像1500枚に対して、認識率は約99%である。
【0017】
<指領域抽出処理>
以下に、作成された2種類の認識用画像より指領域の抽出を行い、認識に必要な画像特徴を抽出する。手領域抽出画像からは手指の太さといった手の見かけ特徴を抽出し、手領域細線画像からは手の骨格的特徴である座標特徴を抽出する。(手の方向ベクトルの決定:S210)
手領域細線画像(図13参照)から手の方向ベクトルを決定する。以下に指ベクトルの抽出方法を説明する。
1.手領域抽出細線画像から端点(xn0,yn0)(n=0,1…,N)を求める。ここで、各端点は対応する指先に存在する。端点から分岐点または交差点までの線分Snを抽出し、指候補線分とする(図16参照)。
2.各線分Snを区分的直線近似法を用いて折れ線近似し、屈折点を(xnm,ynm)とする。但し、mは端点側より1,2,…とする。折れ線近似する必要のない線分では、分岐点または交差点を屈折点(xn1,yn1)として抽出する。また、このときの線分近似パラメータεの値を7.0とした。
3.各線分Snにおいて、端点(xn0,yn0)と、近似された直線において端点に最も近い屈折点(xnl,yn1)とを用いて各指ベクトルvnを求める(図17参照)。
但し、vn=(xn0−xn1,yn0−yn1)である。
4.以下の式を用いて、各指の方向ベクトルの和をとり、手の方向ベクトルvとする(図18参照)。ただし、Nは指の数である。
【数2】
本手法では、指領域抽出の際に手の方向ベクトルが必要であり、画像中の手領域全体の方向より、手首から指先の方向のベクトルの方が重要である。この手順により求められた手の方向ベクトルは、指の領域候補より求められているために、手首の曲がり具合に影響されず、手首から指先の方向を求めることができる。
(指領域の決定:S212)
得られた手の方向ベクトルに対して垂直に画像走査し、画像走査とともに画像中の手領域のラン長のヒストグラム(以下ラン・ヒストグラムとする)を作成する(図19参照)。
各指の太さは、手首や掌の太さとは大きく異なる。そのため、手の方向ベクトルに対して垂直に画像を走査すると、指・手首・掌を横切ることによって定まるランの長さは、指の部分とその他の部分で大きく異なる。そこで、図20に示す様なラン・ヒストグラムを作成して、指領域とそうでない領域とを分割するための閾値となるラン長を、判別分析法により決定することができる。判別分析法は、例えば大津展之「判別および最小2乗基準に基づく自動しきい値選定法」電子通信学会論文誌,J−63D,p.349,1980に記載されている。
【0018】
(指領域の抽出)
判別分析法により決定された閾値を用いて、指領域を抽出する。再度、手の方向ベクトルに対して垂直に画像走査を行い、図21に示すように、画像中の手領域のランが閾値より短い場合、それを指領域として抽出する。図22の白い部分が抽出された指領域である。また、図22(a)〜(d)に示された指領域のランヒストグラムと決定された閾値を図23(a)〜(d)に示す。
しかし、すべての場合この判別分析法が適用されるとは限らない。判別分析法の特性上、例えば指が1本のときなどは、閾値が決定されない場合がある。その場合はランの最長の1/3より小さい領域を指領域として抽出する。
得られた指領域抽出画像より、手領域細線画像から指領域を抽出する。抽出は、指領域抽出画像と手領域細線画像の論理積をとるだけなのだが、そのとき本来の指の本数より多くの線分数が抽出されてしまう場合がある。そこで指の本数認識(S208)の結果を用い、指の本数と指領域線分が一致するように、指領域線分の長さが小さいものを取り除く処理を行う。得られる画像を図24に示す。
【0019】
<手形状の認識>
これまでの処理または処理過程より得られた画像より、以下の画像特徴を抽出し、認識パラメータとする。これらの認識パラメータを用いて認識関数を作成し、どの指が伸びているのかを認識する。
・指領域のランの平均長
・各指線分の長さ
・各指同士の間隔
・掌に対する指の位置情報
以下に、画像特徴から認識パラメータを抽出する過程(S216)を示す。
指領域のランの平均長を求めるには、抽出する画像特徴である各指線分の長さ、各指同士の間隔、掌に対する指の位置情報を数値化する時、画像中の手の大きさ、つまりカメラと手の位置により値が異なるため、正規化する必要がある。そこで正規化値を求めるため、抽出された指領域(図22参照)に対し、図25に示す様に、手の方向ベクトルvに垂直な画像走査を行い、指領域のランヒストグラムを作成する。得られたランヒストグラムの平均値を求め、これを指領域のランの平均長とし、正規化値Tとする。
【0020】
(各指の線分の長さ)
指領域抽出細線画像において、図26に示すように、指にあたる各線分の両端点を結ぶ直線の長さをLn(n=1,2,…,N)とする。これを指領域のラン平均長Tを用いて正規化する。正規化には次式を用い、正規化後の指の長さFln(n=1,2,…,N)を求める。
【数3】
【0021】
(各指同士の間隔)
指同士の間隔を求める手順を以下に示す。
1.指領域抽出細線画像において、手の方向ベクトルvを用いて、各線分の指の根本に対応する座標を検出する。
2.得られた指の根本座標を近似する直線Aを最小2乗法により求める(図27(a)参照)。
3.直線Aに対して垂直かつ指の根本座標を通る直線Bn(n=1,2,…,N)を求める(図27(b)参照)。
4.直線Aと直線Bn(n=1,2,…N)の交点Cn(n=1,2,…,N)を求め、CnとCn+ 1の長さを指同士の間隔とする。
5.得られた間隔を指領域のラン平均長Tを用いて正規化を行う。
【0022】
(掌に対する指の位置情報)
掌に対する指の位置情報を求める手順を以下に示す。
まず、掌の位置線分の決定するために、手領域抽出画像に対して、手の方向ベクトルvに垂直な画像走査を行う。ラン長が最大である部分を画像走査によって検出し、その部分を掌の位置線分とする(図28(a)参照)。また、得られた位置線分の両端点をそれぞれ端点L,端点Rとする。
(指の位置の決定)
得られた掌の位置線分に対して、指の根本座標から垂線を降ろし、掌の位置線分との交点座標を求める(図28(b)参照)。図28(b)に示される様に、指の位置情報は、交点と掌の位置線分の両端点L、Rからの距離により求める。また、他のパラメータ同様、指領域のランの平均長Tを用いて正規化を行う。
<認識パラメータの特徴>
認識パラメータから得られる特徴について述べ、これらの特徴を用いて認識を行う(S216)。
【0023】
(各指の長さ特徴)
人間の手の構造上、各指の長さに違いがある。図29(a)のように指が5本の時、図29(b)のグラフに示す様に、親指と小指はその他の指の長さに比べ短いという特徴が現れる。また、図30のグラフは、指が5本の時の統計データを示す(但し、データ数は47である)。統計データからも親指と小指がその他の指の長さに比べ短いということが分かる。
しかし、この関係は、図3,図4に示した手の各形状において異なるため、全ての形状のデータを分析し、指の長さ特徴として用いる必要がある。
図29(b)、図30において、×印は正規化後の指の長さflnを表し、折れ線部は同じ画像の各指の長さ関係を示している。
【0024】
(各指同士の間隔特徴)
図31に示すように指の組合せ方によって指同士の間隔は異なる。例えば、図31(a)と図31(b)では、指の組合せ方の違いから、指の間隔特徴も異なる。そこで、前に述べた方法で、指の間隔を数値化することにより、指の組合せを限定することができ、認識に用いることができる。
(掌に対する指の位置特徴)
図32に示すように、どの指のが伸びているかによって指の位置情報が異なる。図32(a)は、端点Lから最左の交点の距離が小さく、端点Rから最右の交点の距離が大きい。この特徴より小指が伸びている確率が高く、親指または人指し指が伸びている確率が低いことが分かる。
また、図32(b)は端点Lから最左の交点の距離が小さく、端点Rからの最右の交点の距離が大きい。この特徴より小指の伸びている確率が小さく、親指または人指し指の伸びている確率が高いことが分かる。
このように、上述の様にして用いた各認識パラメータを用いて、どの指が立っているかを認識する。
【0025】
<どの指が立っているかの認識手順>
具体的な認識手順の例を図33〜図37に示す。どの指が立っているかの認識は、指の本数認識処理(S208)より認識した、立っている指の本数毎に行われている。図33には1本の指が立っている場合の認識手順、図34には2本の指が立っている場合の認識手順、図35,36は3本の指が立っている場合の認識手順、図37には4本の指が立っている場合の認識手順が示されている。
示されている手順は、条件欄に示されている条件が、満たされているか、満たされないかにより、認識結果又はどの手順にジャンプするかを示している。認識結果が示されている場合は、認識手順を終了する。これらの認識手順では、認識結果は、立っている指を図3,図4に示したような2進法で示している。右の掌をカメラに向けて、小指が左側,親指が右側に映っている画像を認識している。左手を認識する場合は、指の番号付け・左右の解釈を変えればよい。指の太さの平均を1として、手の左右端からの指の位置や指の長さを表す。
【0026】
【発明の効果】
上述するように、各種機器に接続されたカメラの前で手の形を変えることにより、片手を認識することで32通り、両手だと1024通りの指示等を、本発明の入力システムを用いて、各種機器に入力することが可能である。
【図面の簡単な説明】
【図1】実施形態のシステム構成例を示す図である。
【図2】実施形態の認識処理の例を示すフローチャートである。
【図3】実施形態のシステムで認識可能な手の形状を示す図である。
【図4】実施形態のシステムで認識可能な手の形状を示す図である。
【図5】入力画像例を示す図である。
【図6】手領域抽出画像の生成する処理例を示すフローチャートである。
【図7】手領域候補画像例を示す図である。
【図8】輪郭線抽出画像例を示す図である。
【図9】区分的直線近似法を説明する図である。
【図10】多角形近似画像例を示す図である。
【図11】手領域抽出画像例を示す図である。
【図12】細線化処理後の画像例を示す図である。
【図13】手領域細線画像例を示す図である。
【図14】多角形近似を示す図である。
【図15】180°以上の内角を持つ頂点の検出を説明する図である。
【図16】指候補線分Snを説明する図である。
【図17】各指の方向ベクトルvnを示す図である。
【図18】手の方向ベクトルvを示す図である。
【図19】画像走査を説明する図である。
【図20】画像走査で得られるラン・ヒストグラムを示す図である。
【図21】ラン長のヒストグラムで指領域を抽出することを説明する図である。
【図22】指領域抽出画像例を示す図である。
【図23】ラン・ヒストグラムと閾値の例を示す図である。
【図24】手領域細線画像の指領域抽出例を示す図である。
【図25】指領域のランの平均長Tを説明するための図である。
【図26】各指の長さを示す図である。
【図27】各指の間隔を得る処理を説明する図である。
【図28】掌に対する指の位置情報を得る処理を説明する図である。
【図29】各指の長さの特徴を示す図である。
【図30】各指の長さの特徴を示す他の図である。
【図31】指同士の間隔の特徴例を示す図である。
【図32】掌に対する指の位置特徴例を示す図である。
【図33】立っている指が1本の場合の認識手順の例を示す図である。
【図34】立っている指が2本の場合の認識手順の例を示す図である。
【図35】立っている指が3本の場合の認識手順の例を示す図である。
【図36】立っている指が3本の場合の認識手順の続きを示す図である。
【図37】立っている指が4本の場合の認識手順の例を示す図である。
Claims (7)
- 手の画像認識による入力システムであって、
手の画像を入力する画像入力手段と、
該画像入力手段からの手の画像から、手領域部分を塗りつぶした手領域抽出画像を得る手領域抽出手段と、
該手領域抽出画像から、手領域細線画像を得る手領域細線画像生成手段と、
前記手領域抽出画像と手領域細線画像とから、立っている指を認識して手の形状を特定する手形状認識手段と
を備え、どの指が立っているかで片手で32通りの形状を特定することを特徴とする手の画像認識による入力システム。 - 請求項1に記載の入力システムにおいて、
前記手領域抽出手段は、前記手の画像から肌色部分を抽出して、肌色部分に平滑化処理を行い、平滑化処理後の前記肌色部分の輪郭線を追跡して輪郭線の長さが最大である座標系列の抽出を行い、抽出した輪郭線に平滑化処理を行った後、該輪郭線の内部を塗りつぶして手領域抽出画像を得る
ことを特徴とする手の画像認識による入力システム。 - 請求項2に記載の入力システムにおいて、
さらに、前記輪郭線から、指の数を認識する指数認識手段を備え、
該指数認識手段により、指の数が2〜4のいずれかであると認識したときに、前記手形状認識手段で手形状の特定を行い、指の数が0又は5であると認識したときは、前記手形状認識手段による処理を行わない
ことを特徴とする手の画像認識による入力システム。 - 請求項1〜3のいずれかに記載の入力システムにおいて、
手形状認識手段は、前記手領域細線画像から手の方向ベクトルを求め、求めた該手の方向ベクトルに対して垂直に前記手領域抽出画像を走査して、手のラン長を求め、該ラン長により指領域を抽出し、抽出した該指領域を用いて、前記手領域細線画像から指の部分を抽出することで手の形状を認識する
ことを特徴とする手の画像認識による入力システム。 - 請求項1〜4のいずれかに記載の入力システムにおいて、
手形状認識手段は、前記手の形状の認識を行うパラメータを正規化して評価することを特徴とする手の画像認識による入力システム。 - 請求項1〜5のいずれかに記載の入力システムをコンピュータ・システムに構成させるプログラムを格納した記録媒体。
- 請求項1〜5のいずれかに記載の入力システムをコンピュータ・システムに構成させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002154145A JP3863809B2 (ja) | 2002-05-28 | 2002-05-28 | 手の画像認識による入力システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002154145A JP3863809B2 (ja) | 2002-05-28 | 2002-05-28 | 手の画像認識による入力システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003346162A JP2003346162A (ja) | 2003-12-05 |
JP3863809B2 true JP3863809B2 (ja) | 2006-12-27 |
Family
ID=29771007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002154145A Expired - Lifetime JP3863809B2 (ja) | 2002-05-28 | 2002-05-28 | 手の画像認識による入力システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3863809B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101167784B1 (ko) | 2010-07-09 | 2012-07-25 | 성균관대학교산학협력단 | 단말기의 후면부 손가락 움직임에 따른 포인터 인식 방법 및 제어 명령어 인식 방법 |
KR101189633B1 (ko) * | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말 |
EP2840527A1 (en) | 2013-08-22 | 2015-02-25 | Fujitsu Limited | Image processing device and image processing method |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
JP2006163662A (ja) * | 2004-12-06 | 2006-06-22 | Nissan Motor Co Ltd | 指本数認識装置および方法 |
WO2007097548A1 (en) * | 2006-02-20 | 2007-08-30 | Cheol Woo Kim | Method and apparatus for user-interface using the hand trace |
KR100858358B1 (ko) * | 2006-09-29 | 2008-09-11 | 김철우 | 손의 움직임 인식을 이용한 사용자인터페이스 장치 및 방법 |
JP4915503B2 (ja) * | 2006-04-06 | 2012-04-11 | 株式会社デンソー | プロンプター方式操作装置 |
US7477782B2 (en) * | 2006-08-25 | 2009-01-13 | Restoration Robotics, Inc. | System and method for classifying follicular units |
EP2153377A4 (en) | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
JP4810509B2 (ja) * | 2007-07-11 | 2011-11-09 | 京セラミタ株式会社 | 画像形成装置 |
JP4938617B2 (ja) * | 2007-10-18 | 2012-05-23 | 幸輝郎 村井 | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 |
US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
KR101297144B1 (ko) * | 2008-03-19 | 2013-08-21 | 가부시키가이샤 덴소 | 차량용 조작 입력 장치 |
JP5448370B2 (ja) | 2008-05-20 | 2014-03-19 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム、記憶媒体 |
KR100977443B1 (ko) | 2008-10-01 | 2010-08-24 | 숭실대학교산학협력단 | 제스쳐 기반의 가전기기 제어장치 및 방법 |
JP2010086367A (ja) * | 2008-10-01 | 2010-04-15 | Sony Corp | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 |
TWI405149B (zh) * | 2008-12-08 | 2013-08-11 | Ind Tech Res Inst | 物體端點定位方法及應用其之系統 |
JP5254897B2 (ja) * | 2009-07-17 | 2013-08-07 | 株式会社 沖情報システムズ | 手画像認識装置 |
TWI498786B (zh) * | 2009-08-24 | 2015-09-01 | Semiconductor Energy Lab | 觸控感應器及其驅動方法與顯示裝置 |
JP5648207B2 (ja) * | 2009-09-04 | 2015-01-07 | 現代自動車株式会社 | 車両用操作装置 |
JP5051671B2 (ja) * | 2010-02-23 | 2012-10-17 | Necシステムテクノロジー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP5464661B2 (ja) * | 2010-03-12 | 2014-04-09 | Kddi株式会社 | 情報端末装置 |
JP2011198270A (ja) * | 2010-03-23 | 2011-10-06 | Denso It Laboratory Inc | 対象認識装置及びそれを用いた制御装置、並びに対象認識方法 |
US9183632B2 (en) | 2010-11-24 | 2015-11-10 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9196042B2 (en) | 2010-11-24 | 2015-11-24 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
US9224033B2 (en) | 2010-11-24 | 2015-12-29 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
JP5716504B2 (ja) | 2011-04-06 | 2015-05-13 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
WO2013051681A1 (ja) * | 2011-10-07 | 2013-04-11 | 国立大学法人筑波大学 | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム |
JP5777507B2 (ja) | 2011-12-27 | 2015-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びそのプログラム |
EP2872966A1 (en) * | 2012-07-12 | 2015-05-20 | Dual Aperture International Co. Ltd. | Gesture-based user interface |
JP5916566B2 (ja) | 2012-08-29 | 2016-05-11 | アルパイン株式会社 | 情報システム |
JP5264007B1 (ja) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | コントローラ |
JP6108437B2 (ja) * | 2012-11-28 | 2017-04-05 | Necソリューションイノベータ株式会社 | 指方向特定システム、指方向特定方法、及びそのプログラム |
JP5971108B2 (ja) | 2012-12-18 | 2016-08-17 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6089722B2 (ja) | 2013-01-23 | 2017-03-08 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6195893B2 (ja) * | 2013-02-19 | 2017-09-13 | ミラマ サービス インク | 形状認識装置、形状認識プログラム、および形状認識方法 |
JP6075110B2 (ja) | 2013-02-21 | 2017-02-08 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6044426B2 (ja) | 2013-04-02 | 2016-12-14 | 富士通株式会社 | 情報操作表示システム、表示プログラム及び表示方法 |
JP6146094B2 (ja) | 2013-04-02 | 2017-06-14 | 富士通株式会社 | 情報操作表示システム、表示プログラム、および、表示方法 |
JP6155786B2 (ja) * | 2013-04-15 | 2017-07-05 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
JP6326847B2 (ja) | 2014-02-14 | 2018-05-23 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP2015184906A (ja) | 2014-03-24 | 2015-10-22 | 富士通株式会社 | 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム |
JP6417702B2 (ja) | 2014-05-01 | 2018-11-07 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP2016131008A (ja) * | 2014-07-30 | 2016-07-21 | まるおかディジタル株式会社 | 入力装置 |
JP2016091457A (ja) | 2014-11-10 | 2016-05-23 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
JP6455186B2 (ja) | 2015-01-29 | 2019-01-23 | 富士通株式会社 | 指先位置推定装置、指先位置推定方法、及び、プログラム |
US10110858B2 (en) * | 2015-02-06 | 2018-10-23 | Conduent Business Services, Llc | Computer-vision based process recognition of activity workflow of human performer |
JP2016184362A (ja) | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム |
JP2017102598A (ja) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
-
2002
- 2002-05-28 JP JP2002154145A patent/JP3863809B2/ja not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101167784B1 (ko) | 2010-07-09 | 2012-07-25 | 성균관대학교산학협력단 | 단말기의 후면부 손가락 움직임에 따른 포인터 인식 방법 및 제어 명령어 인식 방법 |
KR101189633B1 (ko) * | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말 |
EP2840527A1 (en) | 2013-08-22 | 2015-02-25 | Fujitsu Limited | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2003346162A (ja) | 2003-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3863809B2 (ja) | 手の画像認識による入力システム | |
CN107038424B (zh) | 一种手势识别方法 | |
US9372546B2 (en) | Hand pointing estimation for human computer interaction | |
Wang et al. | Superpixel-based hand gesture recognition with kinect depth camera | |
JP4332649B2 (ja) | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 | |
JP5403699B2 (ja) | 手指形状推定装置、手指形状の推定方法及びプログラム | |
KR101588254B1 (ko) | 3차원 근거리 상호작용 | |
Sonkusare et al. | A review on hand gesture recognition system | |
Nair et al. | Hand gesture recognition system for physically challenged people using IOT | |
Feng et al. | Features extraction from hand images based on new detection operators | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
Wen et al. | A robust method of detecting hand gestures using depth sensors | |
JPH10214346A (ja) | ハンドジェスチャ認識システムおよび方法 | |
JP6651388B2 (ja) | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム | |
Chaman et al. | Real-time hand gesture communication system in Hindi for speech and hearing impaired | |
Yousefi et al. | 3D gesture-based interaction for immersive experience in mobile VR | |
JP2009288917A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2005351814A (ja) | 検出装置および検出方法 | |
CN112016370A (zh) | 基于形态学的静态手势识别方法 | |
Caplier et al. | Comparison of 2D and 3D analysis for automated cued speech gesture recognition | |
CN114596582B (zh) | 一种带视觉和力反馈的增强现实交互方法及系统 | |
Wang | Hand gesture recognition based on fingertip detection | |
Jeong et al. | Hand gesture user interface for transforming objects in 3d virtual space | |
Zhang et al. | The improved Hu moment and its application in gesture recognition | |
Rong et al. | RGB-D hand pose estimation using fourier descriptor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060929 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101006 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111006 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121006 Year of fee payment: 6 |