JPH0944668A - 動作開始位置検出方法 - Google Patents

動作開始位置検出方法

Info

Publication number
JPH0944668A
JPH0944668A JP7190154A JP19015495A JPH0944668A JP H0944668 A JPH0944668 A JP H0944668A JP 7190154 A JP7190154 A JP 7190154A JP 19015495 A JP19015495 A JP 19015495A JP H0944668 A JPH0944668 A JP H0944668A
Authority
JP
Japan
Prior art keywords
palm
image
face
shape
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7190154A
Other languages
English (en)
Other versions
JP3440641B2 (ja
Inventor
Hideaki Matsuo
英明 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP19015495A priority Critical patent/JP3440641B2/ja
Publication of JPH0944668A publication Critical patent/JPH0944668A/ja
Application granted granted Critical
Publication of JP3440641B2 publication Critical patent/JP3440641B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 被験者の身体特徴に沿って空間領域を分割
し、被験者が身体の一部を指す指示形状を検出すること
により、被験者の意図する動作の開始位置を検出するこ
とを目的とする。 【構成】 被験者の上半身を撮影する手段と被験者の身
体を抜き出す手段と、被験者の身体に沿って領域分割を
する手段と顔の分割をする手段と動作の開始タイミング
を検出する手段とてのひらを抜き出す手段とてのひら形
状が指示形状かを判定する手段とてのひら代表点を重心
位置か指先の先端位置とするかを決定する手段を備えた
動作開始位置検出方法。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は人間の身振りや手振りの
認識をおこない、認識結果に基づいて人間と機械のイン
ターフェースをおこない、指示装置や手話動作認識など
に利用可能な動作の開始位置検出方法に関する。
【0002】
【従来の技術】人間の身振り、手振りを理解する方法の
中で、動作の開始位置を特定する時に、題名:「動き情
報の検出とヒューマンインターフェースへの応用」(H
C91−33:待井康弘他:電子情報通信学会信学技報
ヒューマンコミュニケーション:1991年)のように
任意の絶対空間の座標を使った位置の特定方式が従来使
われ、また開始位置の代表点として、検出された任意の
物体の重心位置を代表点としている。
【0003】
【発明が解決しようとする課題】従来の技術で任意の絶
対空間の座標を使った時には、被験者が違った時に体の
大きさが違うなどで、特定された開始位置の座標値が意
味を持たなくなり、また被験者毎にデータベースを持っ
たのでは、被験者の数に比例してデータベースの数が多
くなってしまうという課題がある。また開始位置の代表
点として重心位置のみを取った時には、被験者が唇に意
味があって指さしても、てのひらの重心位置を取ると、
重心位置では首付近を表していることになり、正しく被
験者が意図する位置が代表点となっていない。
【0004】そこで、本発明では開始位置を検出するた
めの空間を、撮影された被験者の身体特徴によって分割
し、開始動作位置を被験者との相対位置で表現すること
が出来、被験者が代わった時にも開始動作位置を特定す
ることが出来、また被験者が、身体の任意の部分を意識
的に指し示した時、指の先端部をてのひらの代表点とす
ることにより被験者の意図を開始動作位置に反映するこ
とが可能となることを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するため
に、本出願発明は少なくとも被験者の上半身を複眼式カ
メラにより撮影する手段と撮影された被験者の身体を抜
き出す手段と、被験者自身の部位に沿った空間領域分割
手段と、顔の中の各部位に沿って領域を分割する手段
と、少なくとも右左どちらかのてのひらを抽出する手段
と、動作の開始タイミングを検出する手段と、てのひら
画像の特徴を抜き出す手段と、てのひら形状が指示形状
かを判定する手段と、顔の中をてのひらが指しているか
を判定する手段と、てのひらの代表点を重心位置とする
か指先の先端位置とするかを決定する手段と検出された
開始動作位置を登録する手段を備えた動作開始位置検出
方法である。
【0006】
【作用】本発明の開始動作位置検出方法では、被験者の
身体特徴に沿って空間領域を分割することにより、被験
者が代わった時も同じ開始動作位置のデータベースを使
用することが出来、被験者が示したてのひらの形状が指
示形状かどうかを判定することにより、被験者が意図す
る開始動作位置を検出することが可能になる。
【0007】
【実施例】
(実施例1)この発明の1実施例の動作について図1の
フローチャートに沿って説明する。図2に示すように少
なくとも人物の上半身が撮影されている画像から背景の
みの画像の差分を取り人物を抜き出す。
【0008】(ステップ1)ステップ1で抜き出した身
体画像を識別関数fgを用いて2値化する。
【0009】
【数1】
【0010】なお、閾値に関しては光源の違いにより値
が変わってくるので可変とする。次に身体の外郭線をエ
ッジ抽出フィルタを用い、身体の外郭線を(図3)に示
すように抜き出す。
【0011】画像の上部より探索をおこない、図4に示
すように人物の外形線とX軸に平行な線とが接した線を
身体の頭を表す線、HULとする。HULに接し、人物
の外形線とY軸に平行な線が交わる線の中で画像中左側
の線を、顔の右側を表す線FRL、右側の線を顔の左側
を表す線FLLとする。FRLを垂直に伸ばし、外形線
と交わった点をfrlp(Xf,Yf)とする。また画
像中の左側から探索をおこない、Y軸に平行で身体の外
形線と交わる点をtempp(Xt,Yt)を求める。
frlpからtempp迄外形線を探索し、曲率が最大
の点を右肩の点shpとする。shpを通り、X軸に平
行な線をSUL、Y軸に平行な線をSHRLとする。ま
たFRLとFLLの中線をMCLとする。MCLの軸を
中心としてSHRLに対称な線をSHLL、ERLに対
象な線をELLとする。またSULとHULの3/4の
位置にあるX軸に平行な線をNEL、SULとX軸の中
線をBMLとする。
【0012】前記ERL、SHRL,FRL,MCL,
FLL,SHLL,ELL,HUL,NEL,SUL,
BMLを使って右カメラ、左カメラ画像の領域を図5の
ように分割する。次に図5に示すように前記の線分によ
って生じた交点を求める。右カメラ、左カメラ画像での
同じ交点番号を左右の対応点とする。交点番号0の画像
上の座標値を(Xr0,Yr0),(Xl0,Yl0)
とすれば、(数3)に代入し、空間位置を計算する。
【0013】
【数2】
【0014】同様に全ての交点についても空間位置の計
算をおこなう。その結果に基づいて空間領域コード(0
〜24)を定義する。空間領域コード(0〜24)から
MCLとSHRLの距離だけ人物の前にある領域を空間
領域コード(25〜49)、さらに前方にある領域を空
間領域コード(50〜74)と定義し、それぞれの定義
された空間領域は空間領域コードテーブルとして空間の
座標値を格納する。このことにより、図6に示すように
被験者自身の部位に沿った領域(顔、首、胸、腹、顔の
横等)の分割が可能となり、空間領域コードが被験者自
身の部位との対応付けを示すことになる。なおこの領域
コードはデータグローブからの計測データ及びキーボー
ドからの指定でも作成できる。
【0015】(ステップ2)顔を示す領域のテンプレー
ト画像を図7に示す。ここでは画像の大きさをxfac
e,yfaceとして定義する。テンプレート画像内に
目、耳、口、頬、顎、額、鼻の領域を定義する。前記空
間領域コードの顔を示す領域11を上記のテンプレート
画像を用いて正規化する。例えば口領域については図7
のテンプレート画像では開始位置(xt_m,yt_
m)大きさxt_mlen,yt_mlenとする。
【0016】顔を示す空間領域コード11の大きさが始
点(xf,yf)、高さylen,幅xlenとした
時、正規化をおこなう。、顔の口領域の始点を(xf_
mouth,yf_mouth)、高さをxlen_m
outh、幅をyflen_mouthとすると顔の口
領域は(数3)で表される。
【0017】
【数3】
【0018】上記と同様に目、耳、頬、顎、額、鼻領域
の計算をおこない、顔領域の分割をおこなう。
【0019】(ステップ3)次に色情報をもとに肌色情
報を抜き出した状態を図8に示す。この内てのひらの大
きさを示す閾値に入っている物体をてのひらと特定す
る。てのひらの判定は識別関数fgで(数4)あらわさ
れる。
【0020】
【数4】
【0021】よって図8に示すLab_1,Lab_2
はてのひらと判定され、それぞれ右てのひら、左てのひ
らが特定される。
【0022】(ステップ4)図9に時系列的にてのひら
が抽出された状態を示す。時刻T(n)の時のてのひら
の右カメラの重心を(Xc1_n_r,Yc1_n_
r)、左カメラの重心位置を(Xc1_n_l,Yc1
_n_l)とするとてのひらの空間位置は(数5)で計
算される。
【0023】
【数5】
【0024】時刻T(n+1)の時の重心位置から差分
を計算し、移動距離をdとすると(数6)で表される。
【0025】
【数6】
【0026】少なくとも右、左どちらかのてのひらの移
動距離dが閾値を越えた時、時刻T(n+1)を開始タ
イミングとして検出する。
【0027】(ステップ5)ステップ4で抜き出された
少なくとも一方のてのひらの特徴を、(図10)に示す
ように重心位置(Xc1_r(l),Ycl_r
(l))、最大長を示す2点の座標(Xm12_r
(l),Ym12_r(l))(Xm11_r(l),
Ym11_r(l))とX軸に平行な線と最大長を示す
2点を結ぶ線との角度θを(表1)に格納する。
【0028】(ステップ6)
【0029】
【表1】
【0030】次に請求項5に示すようにステップ4で抜
き出されたてのひらの外形線の曲率を(数7)で求め曲
率がある閾値ここでは1を越えた点を多角形の1点とし
て、てのひらを多角形近似する。次に図11に示すよう
に多角形近似されたてのひらの凸閉包図形を作成する。
凸閉包図形から多角形近似されたてのひらの差分を取
る。この時、凹部があれば図12に示すように残余図形
が残る。残余図形の曲率最大点を図12に示すようPc
urとする。残余図形が1つの時、曲率最大点より最大
長辺へ垂線を下ろし、(数8)に示す識別関数で両側の
辺の比を用いて指示形状かどうかの判定をおこなう。
【0031】
【数7】
【0032】
【数8】
【0033】図12に示す図形は識別関数(数8)によ
り指示形状と判定される。 (ステップ7)ステップ4で抽出されたてのひら画像の
形状がステップ7で指示形状と判定された時、ステップ
6で求めた最大長を示す2点の座標の内、最大長を示す
2点を結んだ線分に直交する線分を引き、てのひら領域
を示す長さが少ない方を指示形状の先端位置として検出
する。図10ではXmr1_p,Ymr1_pが指示形
状の先端位置と検出される。
【0034】(ステップ8)ステップ8で求められた指
示形状の先端位置の空間位置を右カメラ、左カメラのて
のひら画像の先端位置の座標(Xmr1_p,Ymr1
_p),(Xml1_p,Yml1_p)から(数9)
を用いててのひらの先端位置の空間位置(Xw_p,Y
w_p,Zw_p)を計算する。
【0035】
【数9】
【0036】求められた空間位置がステップ2で求めら
れた領域(0〜24)に相当する時、身体接触位置にあ
ると判定される。また空間位置がステップ2で求められ
た領域(25〜74)にある時、てのひらは身体接触位
置にはないと判定される。
【0037】(ステップ9)ステップ7で指示形状では
ないと判定されるか、指示形状であってもステップ9で
身体接触位置ではないと判定された時、てのひらの代表
点として重心位置が登録される。
【0038】(ステップ10)ステップ9で身体接触位
置と判定された時、次に先端位置が顔の内部にあるかど
うかの判定をおこなう。ステップ2で求めた空間領域の
うち領域11の所にあるものは顔の内部にあると判定さ
れる。
【0039】(ステップ11)ステップ11で顔の内部
と判定された時、身体部分はステップ2で求めた顔の空
間領域11と検出され、ステップ9で検出されたてのひ
らの重心位置が身体位置のどの領域にあるかを検出す
る。
【0040】(ステップ12)ステップ11で顔の内部
を指示、接触していると判定された時、てのひらの代表
点が示す位置がステップ3で検出された顔のどの部位に
相当するかを検出する。
【0041】(ステップ13)検出されたてのひら形状
が指示形状で身体に接触して顔の内部にある時、開始動
作位置コードとして身体部位を示す空間領域コードと顔
の部位を示すコードの2種類を登録する。
【0042】(ステップ14)ステップ14以外のての
ひら形状の時には、てのひらの代表点を示す空間領域コ
ードを開始動作位置コードとして1種類登録する。
【0043】(ステップ15)本実施例をおこなうこと
で被験者自身の身体特徴による領域の空間分割が可能と
なり、動作開始位置が被験者との相対位置で表現するこ
とが可能となり、また身体の1部を意識的に指している
時その時の指示形状を判定することで正しい開始動作位
置を特定することが出来る。
【0044】(実施例2)実施例1に述べているステッ
プ3の代わりに、抽出された身体領域の中の顔領域の色
情報をもとに目、口の領域を検出し、その重心位置を求
める。重心位置よりある閾値をもとに目領域、口領域を
決定する。
【0045】一例として検出された図16にしめすよう
に右目の重心位置を(xre_cen,yre_ce
n)とすると右目領域の開始点、高さ、幅をそれぞれ
o’’(xf_reye,yf_reye),xlen
_reye,ylen_reyrとするとそれぞれ(数
10)で表される。
【0046】
【数10】
【0047】同様に左目に関しても計算をおこなう。口
領域の重心位置を(xm_cen,ym_cen)とす
ると口領域の開始点、高さ、幅をそれぞれp’’(xf
_m,yf_m),m_xlen,m_ylenとする
とそれぞれ(数11)で表される。
【0048】
【数11】
【0049】上記の目領域、口領域の位置関係より耳、
額、顎、鼻、頬領域を計算する。耳、額、顎、鼻の領域
開始位置をそれぞれq’’(xf_rear,yf_r
ear),r’’(xf_head,yf_hea
d),t’’(xf_chin,yf_chin),
s’’(xf_nose,yf_nose)とし、幅を
それぞれxlen_ear,xlen_head,xl
en_chin,xlen_noseとし、高さをyl
en_ear,ylen_head,ylen_chi
n,ylen_noseとすると、右耳領域は(数1
2)で額領域は(数13)で、顎領域は(数14)で、
鼻領域は(数15)で表される。
【0050】
【数12】
【0051】
【数13】
【0052】
【数14】
【0053】
【数15】
【0054】顔領域の中でそれ以外の領域を頬領域とす
る。本実施例により、目、耳、頬、顎、額、鼻領域の少
なくとも1つの顔領域の分割をおこなう。実施例1のス
テップ3以外は実施例1と同じとする。
【0055】本実施例をおこなうことで顔の中の目、口
を抽出し、被験者に応じた顔の領域分割が可能となる。
【0056】(実施例3)実施例1に示した上記ステッ
プ5の開始タイミングの代わりに、時系列に抽出された
てのひらの画像の隣合うフレーム間で(数16)で表さ
れた式で、画像間の相関を取る。相関値がある任意の値
より低い時、ステップ5で重心位置の移動距離が任意の
閾値以内であっても動作の開始タイミングとし、位置が
同じ場所にあっても手形状の変化で動作開始のタイミン
グを取ることができる。ステップ5以外は実施例1と同
じとする。
【0057】
【数16】
【0058】画像間の輝度値の相関を取ることにより、
てのひらの重心が動いてなくても形状の変化があった時
にも動作の開始タイミングにすることができる。
【0059】(実施例4)実施例のステップ7の変わり
に請求項6に記したアルゴリズムを図13に示した。
(表1)の最大長を示す座標同士を直線で結ぶ。
【0060】(ステップa)最大長を示す座標の内1点
を中心にθ度アフィン変換をおこなう。アフィン変換が
おこなわれた後の図を図14に示す。
【0061】(ステップb)アフィン変換後の画像にY
軸に平行な線を引き、画像のてのひらを示す部分の長さ
を計測する。この時、Y軸に平行な線が反転した回数を
検出する。
【0062】(ステップc)反転回数が3回以上のライ
ンが存在する時、上記のてのひら形状は非指示形状とし
て判定される。反転回数が2回の時、曲率を求めるモジ
ュールへ進む。
【0063】(ステップd)アフィン変換後の図形のて
のひらの長さを計測した図形の曲率を計算し、閾値を越
えた点を多角形の頂点の1点とし、多角形近似をおこな
う。多角形近似された画像を図15に示す。
【0064】(ステップe)図15に示された画像の頂
点の中で順番にY座標がある閾値以内に存在する頂点の
グループ化をおこなう。図15の画像では頂点1,2,
3,4がグループ1に、頂点5がグループ2に頂点6,
7がグループ3に頂点8,9がグループ4に登録され
る。
【0065】(ステップf)上記で求められたグループ
のX軸に平行な長さをそれぞれxlen1,xlen
2,xlen3,xlen4とし、その時のY座標の平
均をhigh1,high2,high3,high4
とし、グループの位置関係を(表2)に格納する。
【0066】(ステップg)
【0067】
【表2】
【0068】表2の値を取り出し、識別関数(数17)
によって指示形状かどうか判定させる。図15に示され
るアフィン変換後の図形は指示形状と判定される。
【0069】
【数17】
【0070】(ステップh)実施例1のステップ7以外
については実施例1と同じ方法を取る。上記の指示形状
の判定を用いることにより、身体の部位を特定している
時に正しい動作開始位置を検出することができる。
【0071】(実施例5)実施例1のステップ7の代わ
りに指示形状を判定するアルゴリズムを示した図を図1
7に記す。ステップ4で抽出されたてのひら画像を任意
の回数、縮退処理をかけた図を図18に示す。次に縮退
をかけた回数分、拡輻処理をかける。拡輻処理をかけた
図を図19に示す。もとのてのひら画像より拡幅画像の
差分を取る。残った画像を図20に示す。差分画像の特
徴を取り、ラベリングの個数が1個であり、長さが任意
の閾値以上であれば、実施例1に示されたステップ4で
抽出されたてのひら画像を指示形状と判定をおこなう。
実施例1のステップ7以外は実施例1と同じ方法を取
る。
【0072】上記の指示形状の判定方法を用いることに
より、より簡単に指示形状を検出することが可能にな
る。
【0073】
【発明の効果】被験者の身体に沿って空間領域の分割を
おこなっていることで、被験者が違っても同一開始位置
領域で登録することが可能となり、手動作の開始タイミ
ング時に被験者の身体部位を指し示す形状を検出するこ
とにより、被験者自身が意図して始めた開始動作位置を
特定することが可能となる。
【0074】顔領域のテンプレート画像を1つ用意し、
実際に抽出された画像によって正規化をすることが出
来、登録しておく顔の部位の領域を最小限に押えること
が出来る。
【0075】被験者自身の抽出された顔領域の色情報に
より、顔の部位を計算で特定することが出来、テンプレ
ート画像を登録する必要がなくなり、被験者に応じた顔
領域の分割が可能となる。
【0076】てのひら領域のフレーム間での画像の相関
をとることにより、てのひらが動いていなくともてのひ
らの形状に変化があったところを動作の開始タイミング
とすることが出来る。
【0077】てのひらの代表点を身体の一部を指し示し
ている形状を判定することにより、開始動作位置の正確
な位置の特定が可能となる。
【図面の簡単な説明】
【図1】第1の実施例のアルゴリズムを示すフローチャ
ート
【図2】第1の実施例の人物を抜き出した背景差分画像
を示す図
【図3】第1の実施例に示される身体外形線を示す図
【図4】第1の実施例に示される身体検出線を示す図
【図5】第1の実施例の領域分割図と交点を示す図
【図6】第1の実施例の空間領域分割をおこなったこと
を示す図
【図7】第1の実施例の顔各部位テンプレート画像を示
す図
【図8】第1の実施例の肌色情報を抜き出した状態を示
す図
【図9】第1の実施例の時系列にてのひらが抜き出され
た状態を示す図
【図10】第1の実施例のてのひらの特徴検出されたこ
とを示す図
【図11】第1の実施例の多角形近似されたてのひら+
てのひら凸閉包図形を示す図
【図12】第1の実施例の残余図形を示す図
【図13】第4の実施例の指示形状判定アルゴリズムの
フローチャート
【図14】第4の実施例のアフィン変換後のてのひら図
形を示す図
【図15】第4の実施例の多角形近似されたアフィン変
換後の図形を示す図
【図16】第2の実施例の顔部位抽出画像を示す図
【図17】第5の実施例のアルゴリズムのフローチャー
【図18】第5の実施例のてのひらを縮退させたのを示
す図
【図19】第5の実施例の縮退画像を拡輻処理させたこ
とを示す図
【図20】第5の実施例のてのひら画像より拡輻画像の
差分を取った画像を示す図
【符号の説明】
Xw,Yw,Zw 画像交点の空間位置座標 (Xr0,Yr0) 右カメラの交点番号0の座標 (Xl0,Yl0) 左カメラの交点番号0の座標 ERL(ElbowRightLine) 右肘を示す
線 SHRL(ShoulderRightLine) 右
肩を示す線 FRL(FaceRightLine) 顔の右側を示
す線 MCL(MiddleCenterLine) 体の中
心を示す線 FLL(FaceLeftLine) 顔の左側を示す
線 SHLL(ShoulderLeftLine) 肩の
左側を示す線 ELL(ElbowLeftLine) 左肘を示す線 SUL(ShoulderUpperLine) 肩の
上部を示す線 shp(ShoulderPoint) 肩の位置を示
すポイント frlp(FaceRightLinePoint)
FRLを垂直に伸ばした外形線と交わった線 tempp(TemporaryPoint) 身体が
Y軸に平行な線と最初に接した線 xface テンプレート画像での顔領域のX方向の長
さ yface テンプレート画像での顔領域のY方向の長
さ (xt_m,yt_m) テンプレート画像での口領域
の開始位置 xt_mlen テンプレート画像での口領域のX方向
の長さ yt_mlen テンプレート画像での口領域のY方向
の長さ (xf,yf) 抽出画像での顔領域の始点 xlen 抽出画像での顔領域のxlen方向の長さ ylen 抽出画像での顔領域のylen方向の長さ (xf_mouth,yf_mouth) 抽出画像の
口領域の始点を示す座標 xlen_mouth 抽出画像の口領域のX方向の長
さ ylen_mouth 抽出画像の口領域のY方向の長
さ o’o’’ 右目領域の先頭アドレス p,p’,p’’ 口領域の先頭アドレス q’,q’’ 右耳領域の先頭アドレス r,r’,r’’ 額領域の先頭アドレス s’,s’’ 鼻領域の先頭アドレス t’,t’’ 顎領域の先頭アドレス Lab_1,Lab_2 右,左てのひら領域 Lab_3 顔を示す領域 (Xc1_n_r,Yc1_n_r) 右カメラのnフ
レームの右てのひらを示す重心位置 (Xc1_n_l,Yc1_n_l) 左カメラのnフ
レームの右てのひらを示す重心位置 (Xc1_n+1_r,Yc1_n+1_r) 右カメ
ラのn+1フレームの右てのひらを示す重心位置 (Xc1_n+1_l,Yc1_n+1_l) 左カメ
ラのn+1フレームの左てのひらを示す重心位置 (Xm11_r(l),Ym11_r(l)) 右
(左)カメラのてのひらの最大長を示す点の座標 (Xm12_r(l),Ym12_r(l)) 右
(左)カメラのてのひらの最大長を示す点の座標 (Xw_p,Yw_p,Zw_p) てのひら先端の空
間座標

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】手話動作の動作開始位置検出において、 少なくとも上半身を複眼式カメラにより撮像された被験
    者の画像と前記被験者が写っていない同じ場所を写した
    背景との画像を差分することにより、前記被験者の身体
    を抜きだすステップと、 前記抜き出された記被験者の身体部位に沿って空間領域
    を分割するステップと、 前記空間領域の顔を示す領域を特定領域に分割するステ
    ップと、 少なくとも右、左いずれかのてのひらの画像を抽出する
    ステップと、 前記てのひらの画像の重心を検出し、時間的に後ろに存
    在するフレーム間での前記重心位置がずれた時、動作開
    始タイミングとして検出するステップと、 前記てのひら画像の前記重心位置、最大長を示す2点の
    座標を先端候補位置として格納するステップと、 前記てのひら画像の形状が身体の一部を特定している指
    示形状かを判定するステップと、 前記指示形状でなければ重心位置をてのひらの代表点と
    するステップと、 前記てのひら画像の形状が指示形状の時、前記2点の先
    端位置候補の内手領域が少ない点を前記てのひらの先端
    位置として、前記てのひらの代表点とするステップと、 前記てのひらの代表点が前記被験者の顔を示す領域かを
    判定し、前記顔の領域を示さない時、前記先端位置が前
    記分割された空間領域のどこにあるかを特定し、動作開
    始位置コードを1種類登録するステップと、 前記先端位置の代表点が前記被験者の顔の領域を示す領
    域を示す時、前記先端位置が前記顔領域の目、耳、唇、
    頬、額、顎、鼻のどこにあるかを特定し、前記分割され
    た空間の身体部位は顔として特定し、動作開始位置コー
    ドを2種類登録するステップを有する手話動作の動作開
    始位置検出方法。
  2. 【請求項2】空間領域の顔を示す領域を特定領域に分割
    するステップは、 目、耳、唇、頬、額、顎、鼻の少なくとも1つの領域を
    モデル化したテンプレート顔領域の空間を準備し、顔の
    空間領域の大きさに合わせて前記テンプレート画像を拡
    大、縮小することにより、前記顔の空間領域を分割する
    請求項1記載の動作開始位置検出方法。
  3. 【請求項3】空間領域の顔を示す領域を特定領域に分割
    するステップは、 前記空間領域の顔を示す領域の色情報により、目、唇を
    抜きだし、前記目、唇の位置関係より、耳、顎、頬、
    鼻、額の少なくとも1つの領域を示し、前記顔の空間領
    域を分割する請求項1記載の動作開始位置検出方法。
  4. 【請求項4】動作開始タイミングを検出するステップ
    は、 てのひら画像の抽出領域の連続したフレーム間で自己相
    関を取り、任意の閾値を越えた時に動作開始タイミング
    とする請求項1記載の動作開始位置検出方法。
  5. 【請求項5】身体の一部を特定している指示形状かを判
    定するステップをてのひら画像の外郭線の曲率を取り、
    ある閾値を越えた点を多角形の一点として前記てのひら
    を多角形近似し、前記多角形の角を凸部、凹部に分類
    し、凹部の角が1つもしくは2つのみ存在する時、前記
    指示形状として判定する請求項1記載の動作開始位置検
    出方法。
  6. 【請求項6】身体の一部を特定している指示形状かを判
    定するステップは、 てのひら画像の最大長を示す2点の座標を通る直線とX
    軸との角度を計算し、前記最大長を示す2点の内1点を
    中心として前記てのひら画像を前記角度だけアフィン変
    換をおこない、前記アフィン変換後のてのひら画像のY
    軸に対する射影をおこない、前記Y軸に対する射影画像
    の曲率計算をおこない、ある閾値を越えた点を多角形の
    頂点として検出し、多角形近似をおこない、Y軸の値が
    任意の閾値内のグループになる時、前記グループ間の関
    係より、前記てのひら画像の形状を前記指示形状として
    判定する請求項1記載の動作開始検出方法。
  7. 【請求項7】身体の一部を特定している指示形状かを判
    定するステップは、 てのひらの画像を任意の回数、縮退処理をかけ、てのひ
    ら縮退画像を作成し、前記てのひら縮退画像を前記任意
    回数分拡輻処理をかけた復元画像を前記てのひら画像か
    ら差分を取り、てのひら差分画像を作成し、前記てのひ
    ら差分画像のラベリング処理をおこない、ラベリング数
    が1つで、長さが任意の閾値以上の時、前記てのひら画
    像の形状を前記指示形状として判定する請求項1記載の
    動作開始検出方法。
JP19015495A 1995-07-26 1995-07-26 動作開始位置検出方法 Expired - Fee Related JP3440641B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19015495A JP3440641B2 (ja) 1995-07-26 1995-07-26 動作開始位置検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19015495A JP3440641B2 (ja) 1995-07-26 1995-07-26 動作開始位置検出方法

Publications (2)

Publication Number Publication Date
JPH0944668A true JPH0944668A (ja) 1997-02-14
JP3440641B2 JP3440641B2 (ja) 2003-08-25

Family

ID=16253326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19015495A Expired - Fee Related JP3440641B2 (ja) 1995-07-26 1995-07-26 動作開始位置検出方法

Country Status (1)

Country Link
JP (1) JP3440641B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256400B1 (en) 1998-09-28 2001-07-03 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
JP2007287145A (ja) * 2006-04-12 2007-11-01 Fujitsu Ltd 形状比較装置および形状比較方法
JP2009080539A (ja) * 2007-09-25 2009-04-16 Toshiba Corp ジェスチャ認識装置及びその方法
JP2013101428A (ja) * 2011-11-07 2013-05-23 Pasuko:Kk 建物輪郭抽出装置、建物輪郭抽出方法及び建物輪郭抽出プログラム
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
JP2015172887A (ja) * 2014-03-12 2015-10-01 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02144675A (ja) * 1988-11-25 1990-06-04 A T R Tsushin Syst Kenkyusho:Kk 手話言語変換装置
JPH07282235A (ja) * 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JPH08320920A (ja) * 1995-05-24 1996-12-03 Matsushita Electric Ind Co Ltd 手動作認識装置および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02144675A (ja) * 1988-11-25 1990-06-04 A T R Tsushin Syst Kenkyusho:Kk 手話言語変換装置
JPH07282235A (ja) * 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JPH08320920A (ja) * 1995-05-24 1996-12-03 Matsushita Electric Ind Co Ltd 手動作認識装置および方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256400B1 (en) 1998-09-28 2001-07-03 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
JP2007287145A (ja) * 2006-04-12 2007-11-01 Fujitsu Ltd 形状比較装置および形状比較方法
JP2009080539A (ja) * 2007-09-25 2009-04-16 Toshiba Corp ジェスチャ認識装置及びその方法
US8654187B2 (en) 2009-06-08 2014-02-18 Panasonic Corporation Work recognition system, work recognition device, and work recognition method
JP2013101428A (ja) * 2011-11-07 2013-05-23 Pasuko:Kk 建物輪郭抽出装置、建物輪郭抽出方法及び建物輪郭抽出プログラム
JP2015172887A (ja) * 2014-03-12 2015-10-01 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法

Also Published As

Publication number Publication date
JP3440641B2 (ja) 2003-08-25

Similar Documents

Publication Publication Date Title
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
Oka et al. Real-time tracking of multiple fingertips and gesture recognition for augmented desk interface systems
Ahmed et al. Vision based hand gesture recognition using dynamic time warping for Indian sign language
US6215890B1 (en) Hand gesture recognizing device
Jain et al. Real-time upper-body human pose estimation using a depth camera
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
CN109145802B (zh) 基于Kinect的多人手势人机交互方法及装置
JP2007538318A5 (ja)
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP2014165660A (ja) バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
KR20150127381A (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
CN114072839A (zh) 单目静止相机视频中的分层运动表示与提取
Marzec et al. Methods of face localization in thermograms
JPH07282235A (ja) 動作認識装置
JPH08287216A (ja) 顔面内部位認識方法
JP3440641B2 (ja) 動作開始位置検出方法
JP2001005973A (ja) カラー画像による人物の3次元姿勢推定方法および装置
JP3144400B2 (ja) ジェスチャ認識装置及び方法
CN103426000B (zh) 一种静态手势指尖检测方法
JPH11174948A (ja) 手動作認識装置
JP2002366958A (ja) 画像認識方法および画像認識装置
JP3440644B2 (ja) 手動作認識装置
JPH09179988A (ja) 手振り認識装置
JPH09305743A (ja) 人物顔動作検出方式

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080620

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees