JP2000172163A - 手動作分節方法および装置 - Google Patents
手動作分節方法および装置Info
- Publication number
- JP2000172163A JP2000172163A JP27112299A JP27112299A JP2000172163A JP 2000172163 A JP2000172163 A JP 2000172163A JP 27112299 A JP27112299 A JP 27112299A JP 27112299 A JP27112299 A JP 27112299A JP 2000172163 A JP2000172163 A JP 2000172163A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- hand
- transition
- appears
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 168
- 230000033001 locomotion Effects 0.000 claims abstract description 649
- 230000007704 transition Effects 0.000 claims abstract description 231
- 230000011218 segmentation Effects 0.000 claims abstract description 166
- 238000007562 laser obscuration time method Methods 0.000 claims abstract description 3
- 230000008859 change Effects 0.000 claims description 84
- 230000009471 action Effects 0.000 claims description 76
- 238000001514 detection method Methods 0.000 claims description 34
- 239000013598 vector Substances 0.000 claims description 31
- 230000004397 blinking Effects 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 2
- 230000005057 finger movement Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 62
- 238000000605 extraction Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 43
- 230000005484 gravity Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 33
- 239000000284 extract Substances 0.000 description 21
- 238000010977 unit operation Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 241001469893 Oxyzygonectes dovii Species 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 102100031584 Cell division cycle-associated 7-like protein Human genes 0.000 description 1
- 101000777638 Homo sapiens Cell division cycle-associated 7-like protein Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101100533310 Mus musculus Set gene Proteins 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
者側が分節位置を提示しなくても、検出される手動作を
単語単位または複数の単語からなる有意味単位に自動的
に分節することができるような手動作分節方法を提供す
る。 【解決手段】 利用者の身体に、一つの単語を示す動作
の途中には現れず、ある単語を示す動作から別の単語を
示す動作へと遷移する際に現れる遷移動作の特徴を記述
した遷移特徴データを予め記憶しておく。そして、遷移
動作の現れる身体部位と対応する画像の動きを検出し
(ステップS106)、検出した画像の動きを遷移特徴
データと比較して(ステップS107)、遷移動作が現
れた時間位置を求めることにより、手動作を分節する
(ステップS108)。
Description
よび装置に関し、より特定的には、手話等のための手動
作を自動的に認識する際に、その手動作を単語単位に自
動的に分節する方法および装置に関する。
倒なキーボード操作を行わなくてもポインティングデバ
イス等を用いて簡単に入力が行えるようになり、専門家
以外の利用者にも広く用いられるようになった。そし
て、最近では、利用者の音声を自動的に認識する技術の
開発に伴い、音声入力が可能なパーソナル・コンピュー
タや、音声で操作指示を行えるマイクロ・コンピュータ
を用いた家電製品なども登場している(以下、パーソナ
ル・コンピュータや、マイクロ・コンピュータを用いた
家電製品などを、コンピュータ装置と呼ぶことにす
る)。この技術がさらに進歩すれば、利用者は、コンピ
ュータ装置の入力操作を、対人のコミュニケーションに
近い態様で行えるようになる。また、手操作が困難な利
用者が音声入力によって気軽にコンピュータ装置を使用
できるようになる。
は、音声に加えて、手や頭の動き、顔の表情なども用い
られる。コンピュータ装置が、こうした利用者の体の特
定の部分の動きをも自動的に認識することができれば、
利用者は、対人のコミュニケーションにさらに近い態様
で入力操作を行えるようになる。また、音声操作が困難
な利用者が手話入力によって気軽にコンピュータ装置を
使用できるようになり、例えば、それを用いて手話を翻
訳することも可能となる。こうした要請に応えるべく、
本出願人等によって、手話等のための手動作をはじめ、
利用者の体の特定の部分の動きを認識するコンピュータ
装置が開発されている。この従来のコンピュータ装置で
行われる処理は、例えば手話のための手動作を認識しよ
うとする場合、次のようなものである。すなわち、最
初、利用者を撮影して、その画像を記憶する。次に、画
像のどの部分が手であるかを特定する。そして、手の動
きを検出し、検出した手の動きに基づいて手話単語を判
定する。判定は、手話の動作的特徴を記述した辞書を参
照して行う。こうして、コンピュータ装置は、利用者の
行う手話を”認識”する。
に基づいて手話単語を判定する処理を、具体的に説明す
る。一般に、手話単語は、いくつかの単位動作およびそ
れらの組み合わせによって表現される。ここで単位動作
とは、上げる、下げる、曲げるなどの、分割可能な最小
の動作をいう。各単位動作をA,B,C,…とすると、
手話単語は、(A),(B),(C),…,(A,
B),(A,C),(B,C),…,(A,B,C),
…のように表現される。そして、これら手話単語を組み
合わせることによって手話が行われる。例えば、手話単
語(A)が「電源」、手話単語(B,C)が「切断す
る」を意味するとすると、手話単語(A)および(B,
C)を提示する、すなわち単位動作A,BおよびCを連
続して行うことによって、「電源を切断する」意が表現
される。
が、手話単語(A)および(B,C)を意図して、単位
動作A、BおよびCを連続して行ったとすると、受け手
は、その一連の単位動作を、通常、直感的に手話単語
(A)および(B,C)と認識できる。しかし、コンピ
ュータ装置に対して手話入力をする場合、利用者が、手
話単語(A)および(B,C)を意図して単位動作A、
BおよびCを連続して行っても、コンピュータ装置は、
その一連の単位動作A、BおよびCを、手話単語(A)
および(B,C)であると認識することができない。
と手話単語(B,C)との間に、静止等の予め決められ
た動作(以下、分節動作a)を挿入するようにしてい
た。すなわち、「電源を切断する」と入力したい場合、
利用者は、手話単語(A)、分節動作aおよび手話単語
(B,C)を提示、つまり単位動作A,分節動作a,お
よび単位動作BおよびCを連続して実行する。コンピュ
ータ装置は、提示される一連の動作を検出して、分節動
作aを挟んでその前後で分節(セグメンテーション)
し、手話単語(A)と手話単語(B,C)とを得る。
ュータ装置において行われる従来の動作認識方法では、
利用者は、例えば、複数の単語からなる文章を、手話の
ための手動作によってコンピュータ装置に入力しようと
する場合、ある単語と対応する手動作と次の単語と対応
する手動作との間に分節動作を逐一挿入しつつ、入力を
行わなければならなかった。なぜなら、従来の動作認識
方法では、検出される動作を、単語単位に自動的に分節
することができなかったからである。
ード列)を単語単位に分節する方法としては、例えば、
文字コード列を単語単位に分節して文字に変換するワー
ドプロセッサで行われるものと同様の処理を行うことが
考えられる。しかし、この場合、単語を登録した辞書を
参照することによって、動作コード列中の分節位置を求
めるので、分節位置が一義的に求まらないことがある。
その場合、コンピュータ装置は、いくつかの分節位置に
基づく選択肢を利用者に提示し、利用者が、提示された
選択肢の中から、自らの意図するものを選ばねばならな
い。そのため、利用者は、入力に手間がかかり、入力速
度も上がらない。
(B,C)を意図して単位動作A、BおよびCを連続し
て行ったとき、コンピュータ装置の辞書に手話単語
(A),(B),(C),…,(A,B),(A,
C),(B,C),…,(A,B,C),…が登録され
ているとすると、この辞書を参照して分節位置を求めた
のでは、分節位置が1つに決まらない。そこで、コンピ
ュータ装置は、可能ないくつかの位置で分節を行い、手
話単語(A)および(B,C)や、手話単語(A,B)
および(C)、手話単語(A,B,C)などからなる選
択肢を提示する。応じて、利用者は、提示された選択肢
の中から、自らが意図するものを選び、それをコンピュ
ータ装置に通知する。つまり、こうした動作コード列に
基づいて分節位置を求める方法では、検出される一連の
動作を単語単位に自動的に分節することはできない。
動作を認識する際に行われ、利用者側が分節位置を提示
しなくても、検出される手動作を単語単位に自動的に分
節することができるような手動作分節方法および装置を
提供することである。
発明は、利用者が行う手動作を認識する際に当該手動作
を単語単位または複数の単語からなる有意味単位に自動
的に分節するための方法であって、利用者の身体に、一
つの単語を示す動作の途中には現れず、ある単語を示す
動作から別の単語を示す動作へと遷移する際に現れる遷
移動作の特徴を記述した遷移特徴データを予め記憶する
ステップと、利用者を撮影して、その画像データを記憶
するステップと、画像データから、遷移動作の現れる身
体部位と対応する画像を抽出するステップと、遷移動作
の現れる身体部位と対応する画像の動きを検出するステ
ップと、遷移動作の現れる身体部位と対応する画像の動
きを遷移特徴データと比較して、遷移動作が現れた時間
位置を求めることにより、手動作を分節するステップと
を備えている。
に、一つの単語を示す動作の途中には現れず、ある単語
を示す動作から別の単語を示す動作へと遷移する際に現
れる遷移動作に基づいて手動作を分節するので、利用者
側が分節位置を提示しなくても、検出される手動作を単
語単位または複数の単語からなる有意味単位に自動的に
分節することができるようになる。
動作は、瞬きを含むことを特徴としている。
動作は、頷きを含むことを特徴としている。
動作は、閉口を含むことを特徴としている。
動作は、手静止を含むことを特徴としている。
動作は、胴体静止を含むことを特徴としている。
動作は、手と顔との接触を含むことを特徴としている。
者の身体を取り巻く空間内に、手がその内部に存在する
場合は有効な手動作が行われていないと見なされるよう
な死手領域を設定するステップをさらに備え、遷移動作
は、死手領域への手の出入を含むことを特徴としてい
る。
作を分節するステップでは、遷移動作の継続時間を計測
して、当該継続時間に関連して分節を行うことを特徴と
している。
を高めることができる。
用者の身体に、ある単語を示す動作から別の単語を示す
動作への遷移時には現れず、一つの単語を示す動作の途
中に現れる非遷移動作の特徴を記述した非遷移特徴デー
タを予め記憶するステップと、画像データから、非遷移
動作の現れる身体部位と対応する画像を抽出するステッ
プと、非遷移動作の現れる身体部位と対応する画像の動
きを検出するステップと、非遷移動作の現れる身体部位
と対応する画像の動きを非遷移特徴データと比較して、
非遷移動作が現れた時間位置を求めるステップとをさら
に備え、手動作を分節するステップでは、非遷移動作が
現れた時間位置においては分節を行わないことを特徴と
している。
に、ある単語を示す動作から別の単語を示す動作への遷
移時には現れず、一つの単語を示す動作の途中に現れる
非遷移動作が現れる時間位置では分節を行わないので、
誤って単語を分節することがなくなり、分節処理の精度
を高めることができる。
非遷移動作は、右手と左手との距離が予め決められた値
以下に接近する両手接近を含むことを特徴としている。
非遷移動作は、口形変化を含むことを特徴としている。
非遷移動作は、右手と左手とを互いに対称的に動かす対
称動作を含むことを特徴としている。
利用者を撮影して、その画像データを記憶するステップ
では、当該利用者を立体的に撮影して、その3次元画像
データを記憶し、画像データから、非遷移動作の現れる
身体部位と対応する画像を抽出するステップでは、3次
元画像データから、非遷移動作の現れる身体部位と対応
する3次元画像を抽出し、非遷移動作の現れる身体部位
と対応する画像の動きを検出するステップでは、3次元
画像の動きを検出し、非遷移動作が現れた時間位置を求
めるステップでは、3次元画像の動きに基づいて、右手
の動作面および左手の動作面の変化を検出し、右手の動
作面および左手の動作面がどちらも変化しない場合、当
該非遷移動作が現れたと判定して、その時間位置を求め
ることを特徴としている。
非遷移動作が現れた時間位置を求めるステップでは、右
手の動作面および左手の動作面の変化を、それら動作面
の法線ベクトルの変化に基づいて検出することを特徴と
している。
それぞれ互いに異なる方向を持つ3次元ベクトルと対応
する複数の3次元動作コードに関し、1つの面内に含ま
れるような3次元動作コードの組み合わせを記載した単
一動作面テーブルを、予め作成するステップと、3次元
画像の動きを、複数の3次元動作コードで表現された3
次元動作コード列に変換するステップとをさらに備え、
非遷移動作が現れた時間位置を求めるステップでは、右
手の動作面および左手の動作面の変化を、同一動作面テ
ーブルに基づいて検出することを特徴としている。
移動作を示すアニメーションの画像データを予め記憶す
るステップと、遷移動作の検出状況および手動作の認識
状況を検知するステップと、遷移動作の検出状況および
手動作の認識状況に関連して、利用者に対し、遷移動作
を示すアニメーションを視覚的に提示するステップとを
さらに備えている。
遷移動作の検出頻度が著しく低い場合や、検出した遷移
動作に基づいて手動作を分節したが手動作を認識できな
かった場合に、その遷移動作を示すアニメーションが提
示されるので、利用者は、表示されたアニメーションを
参照して、意識的に遷移動作を矯正することができ、そ
の結果、遷移動作の検出を正確に行えるようになる。
遷移動作を示すアニメーションを視覚的に提示するステ
ップでは、当該アニメーションの速度を、手動作の認識
状況に応じて変化させることを特徴としている。
作の認識状況が悪い場合、提示するアニメーションの速
度を下げ、それによって、遷移動作をゆっくり行うよ
う、利用者を誘導するので、手動作の認識状況を改善す
ることができる。
識する際に当該手動作を単語単位または複数の単語から
なる有意味単位に自動的に分節するための方法を記述し
た、コンピュータ装置において実行されるプログラムを
記録した記録媒体であって、利用者の身体に、一つの単
語を示す動作の途中には現れず、ある単語を示す動作か
ら別の単語を示す動作へと遷移する際に現れる遷移動作
の特徴を記述した遷移特徴データを予め記憶するステッ
プと、利用者を撮影して、その画像データを記憶するス
テップと、画像データから、遷移動作の現れる身体部位
と対応する画像を抽出するステップと、遷移動作の現れ
る身体部位と対応する画像の動きを検出するステップ
と、遷移動作の現れる身体部位と対応する画像の動きを
遷移特徴データと比較して、遷移動作が現れた時間位置
を求めることにより、手動作を分節するステップとを備
える動作環境を、コンピュータ装置上で実現するための
プログラムを記録している。
利用者の身体に、ある単語を示す動作から別の単語を示
す動作への遷移時には現れず、一つの単語を示す動作の
途中に現れる非遷移動作の特徴を記述した非遷移特徴デ
ータを予め記憶するステップと、画像データから、非遷
移動作の現れる身体部位と対応する画像を抽出するステ
ップと、非遷移動作の現れる身体部位と対応する画像の
動きを検出するステップと、非遷移動作の現れる身体部
位と対応する画像の動きを非遷移特徴データと比較し
て、非遷移動作が現れた時間位置を求めるステップとを
さらに備え、手動作を分節するステップでは、非遷移動
作が現れた時間位置においては分節を行わないことを特
徴とする動作環境を、コンピュータ装置上で実現するた
めのプログラムを記録している。
遷移動作を示すアニメーションの画像データを予め記憶
するステップと、遷移動作の検出状況および手動作の認
識状況を検知するステップと、遷移動作の検出状況およ
び手動作の認識状況に関連して、利用者に対し、遷移動
作を示すアニメーションを視覚的に提示するステップと
をさらに備える動作環境を、コンピュータ装置上で実現
するためのプログラムを記録している。
識する際に当該手動作を単語単位または複数の単語から
なる有意味単位に自動的に分節するための手動作分節装
置であって、利用者の身体に、一つの単語を示す動作の
途中には現れず、ある単語を示す動作から別の単語を示
す動作へと遷移する際に現れる遷移動作の特徴を記述し
た遷移特徴データを記憶する手段と、利用者を撮影し
て、その画像データを記憶する手段と、画像データか
ら、遷移動作の現れる身体部位と対応する画像を抽出す
る手段と、遷移動作の現れる身体部位と対応する画像の
動きを検出する手段と、遷移動作の現れる身体部位と対
応する画像の動きを遷移特徴データと比較して、遷移動
作が現れた時間位置を求めることにより、手動作を分節
する手段とを備えている。
利用者の身体に、ある単語を示す動作から別の単語を示
す動作への遷移時には現れず、一つの単語を示す動作の
途中に現れる非遷移動作の特徴を記述した非遷移特徴デ
ータを予め記憶する手段と、画像データから、非遷移動
作の現れる身体部位と対応する画像を抽出する手段と、
非遷移動作の現れる身体部位と対応する画像の動きを検
出する手段と、非遷移動作の現れる身体部位と対応する
画像の動きを非遷移特徴データと比較して、非遷移動作
が現れた時間位置を求める手段とをさらに備え、手動作
を分節する手段は、非遷移動作が現れた時間位置におい
ては分節を行わないことを特徴としている。
識する手動作認識装置、および当該手動作を単語単位ま
たは複数の単語からなる有意味単位に自動的に分節する
ための手動作分節装置に付随して設けられ、利用者を視
覚的に誘導して当該利用者に所定の動作を行わせるため
の動作誘導装置であって、手動作分節装置は、利用者の
身体に、一つの単語を示す動作の途中には現れず、ある
単語を示す動作から別の単語を示す動作へと遷移する際
に現れる遷移動作を検出して分節を行う機能を有してお
り、遷移動作を示すアニメーションの画像データを予め
記憶する手段と、手動作分節装置および手動作認識装置
を監視して、遷移動作の検出状況および手動作の認識状
況を検知する手段と、遷移動作の検出状況および手動作
の認識状況に関連して、利用者に対し、遷移動作を示す
アニメーションを視覚的に提示する手段とを備えてい
る。
遷移動作を示すアニメーションを視覚的に提示する手段
は、当該アニメーションの速度を、手動作の認識状況に
応じて変化させる手段を含んでいる。
識する際に当該手動作を単語単位または複数の単語から
なる有意味単位に自動的に分節するための手動作分節装
置であって、利用者の身体に、一つの単語を示す動作の
途中には現れず、ある単語を示す動作から別の単語を示
す動作へと遷移する際に現れる遷移動作の特徴を記述し
た遷移特徴データを記憶する手段と、利用者に対向して
設置されるテレビカメラを含み、当該テレビカメラで当
該利用者を撮影して、その画像データを記憶する手段
と、画像データから、遷移動作の現れる身体部位と対応
する画像を抽出する手段と、遷移動作の現れる身体部位
と対応する画像の動きを検出する手段と、遷移動作の現
れる身体部位と対応する画像の動きを遷移特徴データと
比較して、遷移動作が現れた時間位置を求めることによ
り、手動作を分節する手段と、遷移動作の検出状況およ
び手動作の認識状況に関連して、利用者に対し、遷移動
作を示すアニメーションを視覚的に提示する手段と、利
用者に対して、テレビカメラが露見しないよう、当該テ
レビカメラを隠蔽する手段とを備えている。
レビカメラが見えなくなるので、利用者がテレビカメラ
を意識して緊張し、手動作がぎこちなくなることを防ぐ
ことができる。その結果、分節を正確に行えるようにな
る。
遷移動作を示すアニメーションを視覚的に提示する手段
は、利用者とテレビカメラとを結ぶ直線の鉛直下方に、
鉛直上方を向いて設置されるモニタを含み、テレビカメ
ラを隠蔽する手段は、順方向からの光を透過させ、かつ
逆方向からの光を反射するようなハーフミラーを含み、
ハーフミラーは、利用者とテレビカメラとを結ぶ直線上
であって、かつモニタの鉛直上方の位置に、当該直線に
対して45度となるような角度で設置されることを特徴
としている。
で、テレビカメラを隠蔽することができるようになる。
て、図面を参照しながら説明する。 (第1の実施形態)図1は、本発明の第1の実施形態に
係る手動作分節方法を用いた手動作認識方法を示すフロ
ーチャート、図2は、図1の方法を実現するコンピュー
タ装置の構成の一例を示すブロック図である。図2にお
いて、コンピュータ装置は、CPU201と、RAM2
02と、プログラム記憶部203と、入力部204と、
出力部205と、撮像部206と、画像記憶部207
と、手話用手動作記憶部208と、遷移動作記憶部20
9とを備えている。
手話のための手動作を認識して所定の処理を実行する装
置である。具体的には、例えば、所定のプログラムデー
タをインストールすると共に、テレビカメラを接続する
ことによって、手話入力や手話の自動翻訳を実現する汎
用的なパーソナル・コンピュータ・システムを想定して
いる。あるいは、利用者の手動作に応じて電源のon/
offや動作モードの切替などを行うマイクロ・コンピ
ュータを備えた家電製品等であってもよい。図1に示さ
れる手動作認識方法には、利用者の手動作を認識する際
に、検出された手動作を単語単位または複数の単語から
なる有意味単位に分節するための手動作分節処理が含ま
れる。
で、予めその概要を説明しておく。従来の技術の項目に
おいて説明したように、手話では一般に、文章は、複数
の手話単語を用いて表現される。そして、各手話単語
は、それぞれ1以上の単位動作の組み合わせによって構
成されている。一方、コンピュータ装置は、利用者の手
動作を一連の単位動作として検出するので、コンピュー
タ装置に手動作を認識させるには、何らかの方法で、一
連の単位動作を利用者の意図する単語単位に分節するこ
とが必要となる。従来の分節方法では、利用者が、ある
単語と対応する動作と次の単語と対応する動作との間に
静止動作等を挿入し、コンピュータ装置は、静止動作等
の検出を行うことによって、一連の単位動作を分節して
いた。つまり、利用者側が、意図的に分節位置を提示す
る必要があった。
語は、連続的に提示される。本願の発明者は、このよう
な自然な手話において、手話者がある単語と対応する動
作を終えてから次の単語と対応する動作を開始するまで
の間に、利用者の体に無意識的にある特定の動きが現れ
ることに着目した。例えば、瞬き、閉口、頷きなどであ
る(以下では、こうした単語と単語の切れ目で利用者が
無意識的に行う動作を、遷移動作と呼ぶ)。単語と単語
の切れ目に挿入される自然な静止動作も、遷移動作に含
まれる。これらの遷移動作は、一つの単語と対応する手
動作の最中に行われることは少ない。そこで、本願の発
明者は、遷移動作を、手動作の分節に利用することを発
案した。
置は、利用者が行う手話のための手動作を検出する際
に、それと平行して遷移動作の検出をも行う。そして、
遷移動作が現れる時間位置を求めることによって、手動
作(つまり一連の単位動作)を単語ないしは有意味単位
に分節する。そのため、上記従来の分節方法と異なり、
利用者は、意図的に分節位置を提示する必要がなくな
る。
03には、図1のフローチャートに示されるような処理
を実現するためのプログラムデータが格納されている。
CPU201は、プログラム記憶部203に格納された
プログラムデータに従って、図1に示す処理を実行す
る。RAM202は、CPU201の処理に必要なデー
タ類や処理中に生じる作業データ等を記憶する。
み、オペレータの操作に応じて、各種指示やデータをC
PU201に入力する。出力部205は、ディスプレイ
やスピーカを含み、CPU201の処理結果等を、映像
や音声などの形態で出力する。
カメラを含み、利用者の動作を撮像する。ここで、テレ
ビカメラの台数は、利用者の動きを2次元的に捉える場
合は1台でよいが、3次元的に捉える場合は2台必要と
なる。画像記憶部207は、撮像部206の出力画像を
複数フレーム分記憶する。手話用手動作記憶部208に
は、手話のための手動作の特徴を示す手話特徴データが
格納されている。遷移動作記憶部209には、遷移動作
の特徴を示す遷移特徴データが格納されている。
ラムデータを格納する方法としては、次の3つの方法が
ある。第1は、プログラムデータを記録した記録媒体か
らそのプログラムデータを読み取って、プログラム記憶
部203へ格納する方法である。第2は、通信回線を通
じて伝送されてくるプログラムデータを受信して、プロ
グラム記憶部203に格納する方法である。第3は、本
コンピュータ装置の出荷時に、予めプログラム記憶部2
03へプログラムデータを格納しておく方法である。な
お、手話特徴データおよび遷移特徴データも、上記第1
〜第3の方法と同様の方法により、それぞれ手話用手動
作記憶部208、遷移動作記憶部209に格納すること
ができる。
タ装置の動作について、図1のフローチャートを用いて
説明する。まず、撮像部206によって、利用者の撮像
が開始される(ステップS101)。撮像部206から
出力される画像データは、所定のサンプリング周期(例
えば30分の1秒間隔)で画像記憶部207に格納され
る(ステップS102)。画像記憶部207に格納され
る画像データの各フレームには、時系列的に連続番号
(フレーム番号)が付される。
で画像記憶部207に格納された画像データの各フレー
ムから、利用者の手に対応するデータを抽出する(ステ
ップS103)。そして、ステップS103で抽出され
たデータに基づいて、利用者の手の動きを検出する(ス
テップS104)。これらステップS103およびS1
04の詳細については、後述する。
で画像記憶部207に格納された画像データから、利用
者の体の特定の部位に対応するデータを抽出する(ステ
ップS105)。ここで、特定の部位は、利用者の体の
うち前述の遷移動作が現れる部位であり、例えば、目、
口、顔(の輪郭)、胴体などである。ステップS105
では、これら特定の部位のうち少なくとも1つの部位、
好ましくは複数の部位について、各部位に対応するデー
タの抽出が行われる。以下の説明では、目、口、顔およ
び胴体と対応するデータが抽出されるものとする。
で抽出したデータに基づいて、上記各部位の動きを検出
する(ステップS106)。なお、遷移動作は、目、
口、顔および胴体だけでなく手にも現れるが、手の動き
については、ステップS104の検出結果を転用する。
05のデータ抽出処理、およびステップS104および
S106の動き検出処理について具体的に説明する。ス
テップS103およびS105のデータ抽出処理は、例
えば、次のようにして行われる。最初、CPU201
は、画像記憶部207に格納された画像データを、利用
者の体の各部位に対応付けられた複数の領域に分割す
る。ここでは、手を含む手領域、顔を含む顔領域、胴体
を含む胴体領域の3つの領域に分割する。この領域分割
は、例えば、次のようにして行う。
入力部204を通じてCPU201に入力する。すなわ
ち、ステップS103では、手の色(例えば肌色)が入
力され、一方、ステップS105では、目の白目部分の
色(例えば白色)、唇の色(例えば暗赤色)、顔の色
(例えば肌色)、および衣服の色(例えば青)が入力さ
れる。
データを構成する複数の画素データについて、各画素デ
ータの示す色が、利用者によって指定された色と一致な
いしは近接するか否かを判定し、判定結果が肯定である
画素データだけを選択する。すなわち、ステップS10
3では、手領域に属する画像データから肌色を示すデー
タだけが選択されるので、手と対応するデータを抽出す
ることができる。一方、ステップS105では、顔領域
から白色を示すデータだけが選択されるので、目(白目
部分)と対応するデータを抽出することができる。同様
に、顔領域から暗赤色を示すデータだけが選択されの
で、口(唇部分)と対応するデータを抽出することがで
き、顔領域から肌色を示すデータだけが選択されので、
顔と対応するデータを抽出することができ、胴体領域か
ら青色を示すデータだけが選択されるので、胴体(衣
服)と対応するデータを抽出することができる。
ようにして行われる。CPU201は、ステップS10
3で各フレームから抽出されたデータを相互に比較する
ことによって、各フレームにおける手の動きを検出す
る。そして、検出した動きを所定の手順でコード化す
る。従って、ステップS104で検出された手の動き
は、手に関して決められた複数の動作コードからなるコ
ード列の形態を有する。この動作コード列は、RAM2
02に一時記憶される。
ようにして行われる。CPU201は、ステップS10
5で各フレームから抽出されたデータを相互に比較する
ことによって、各フレームにおける目、口、顔および胴
体の動きを検出する。そして、検出した動きを所定の手
順でコード化する。従って、ステップS106で検出さ
れた各部位(目、口、顔および胴体)の動きは、それら
各部位に関して決められた複数の動作コードからなるコ
ード列の形態を有する。これらの動作コード列は、RA
M202に一時記憶される。
処理を説明する。次に、CPU201は、遷移動作記憶
部209から遷移特徴データを読み出してきて、ステッ
プS106で検出した各部位の動きと比較する。ここ
で、遷移特徴データは、上記ステップS104およびS
106で利用者の体の各部位の動きを表現するのに用い
られた複数の動作コードを用いて記述されている。そし
て、各部位(目、口、顔、手および胴体)の動きにおい
て、遷移動作(瞬き動作、閉口動作、頷き動作、手静止
および胴体静止)に一致ないしは近似している箇所があ
るか否かを判定する(ステップS107)。具体的に
は、CPU201は、RAM202に記憶されている各
部位の動作コード列を検索して、遷移特徴データの動作
コードまたは動作コード列と一致する箇所があるか否か
を判定する。ステップS107の判定結果が否定である
場合、CPU201は、ステップS109に進む。
場合、CPU201は、ステップS104で検出した手
動作を単語単位に分節するための分節位置を決定する
(ステップS108)。この分節位置決定処理は、次の
ようにして行われる。最初、CPU201は、各部位の
動きにおいて、遷移動作に一致ないしは近似している箇
所を、分節位置の候補としてピックアップする。具体的
には、RAM202に記憶されている各部位の動作コー
ド列を検索して、遷移特徴データの動作コードまたは動
作コード列に一致ないしは類似する箇所を検出し、それ
ら一致ないしは類似箇所の時間位置を、フレーム番号を
用いて特定する。こうして特定された時間位置を、以
下、分節位置候補と呼ぶことにする。
各部位毎にピックアックした分節位置候補を相互に比較
して、その比較結果に基づいて、ステップS104で検
出した手動作(一連の単位動作)における分節位置を決
定する。
閉じた(すなわち白目領域が消失した)瞬間を分節位置
候補とする。閉口動作の場合、例えば唇が閉じた瞬間を
分節位置とする。頷き動作の場合、例えば顔の下端の動
きが下向きから上向きに転じる瞬間(顎の先端が最下点
に達した瞬間)を分節位置候補とする。手静止の場合、
例えば手の動きが停止した瞬間を分節位置候補とする。
胴体静止の場合、例えば胴体の動きが停止した瞬間を分
節位置候補とする。こうしてピックアップされた各部位
毎の分節位置候補を相互に比較して、例えば2以上の部
位において、ピックアップされた分節位置候補が互いに
一致ないしは予め決められた間隔よりも近接している場
合、その位置を、分節位置に決定する。より正確には、
2以上の部位の分節位置候補が互いに一致した場合は、
その一致した位置を分節位置とする。2以上の部位の分
節位置候補が互いに近接している場合は、それら近接す
る2以上の位置の平均位置を分節位置とする(または、
近接する2以上の位置のいずれか1つを分節位置として
もよい)。
で決定された分節位置を参照して、ステップS104で
検出された手動作を翻訳する処理が行われる。すなわ
ち、CPU201は、ステップS104で検出した手動
作を、ステップS108で決定した分節位置で分節し、
それによって得られた各手話単語を、手話用手動作記憶
部208に格納されている手話特徴データと比較しつつ
翻訳する。ここで、手話特徴データは、上記ステップS
104で手動作を表現するのに用いられた複数の動作コ
ードを用いて記述されている。その後、動作を終了する
か否かが判断され(ステップS110)、判断結果が否
定であればステップS101に戻って上記と同様の処理
が繰り返され、肯定であれば、処理が終了される。
者の身体に、一つの単語を示す動作の途中には現れず、
ある単語を示す動作から別の単語を示す動作へと遷移す
る際に現れる遷移動作に基づいて手動作を分節するの
で、利用者側が意図的に分節位置を提示しなくても、コ
ンピュータ装置は、検出される手動作を単語単位または
複数の単語からなる有意味単位に自動的に分節すること
ができるようになる。
を、そこから利用者の体の各部位と対応するデータを抽
出する処理に関連して、手を含む手領域、顔を含む顔領
域、胴体を含む胴体領域の3つの領域に分割したが、代
わりに、それら3つの領域にさらに死手領域を加えた4
つの領域に分割してもよい。ここで、死手領域とは、利
用者が腕を下ろした状態で手がその領域内にあるよう
な、出力部205の画面の底辺近縁に相当する領域であ
る。この場合、手が死手領域内に存在する期間は利用者
が手話を行っていないと判断され、手が死手領域外に出
た瞬間が手動作開始と判断される。これによって、コン
ピュータ装置は、利用者が手動作を開始したことを明確
に認識できるようになる。さらには、死手領域への手の
出入を検出するようにして、それを遷移動作として分節
に利用してもよい。
定するための遷移動作として、瞬き動作、閉口動作、頷
き動作、手静止および胴体静止(の少なくとも1つ)を
検出したが、遷移動作は、これらの動作に限らない。例
えば、手と顔との接触動作を遷移動作に加えてもよい。
なぜなら、手話では、互いに離れていた手と顔とを接触
させたり、互いに接触していた手と顔とを離したりする
動作は、単語の先頭や末尾で行われることが多いからで
ある。
を決定する際に、遷移動作の継続時間を考慮するように
してもよい。例えば、手静止の継続時間を計測して、予
め決められたしきい値と比較する。そして、継続時間が
しきい値よりも長ければ、その手静止を遷移動作と判断
して分節位置の決定に利用し、継続時間がしきい値より
も短ければ、その手静止を遷移動作でないと判断して無
視する。これによって、分節処理の精度を高めることが
できる。
に加え、非遷移動作をもさらに記憶しておき、それら遷
移動作および非遷移動作に基づいて分節位置を決定して
もよい。ここで、非遷移動作とは、一つの単語と対応す
る手動作を行っている最中に行われ、かつ、ある単語か
ら次の単語へと移行する際には行われることがまれであ
るような動作である。例えば、両手を互いに接近させる
動作、口形を変化させる動作などである。
遷移動作記憶部(図示せず)をさらに設け、そこに非遷
移動作の特徴を示す非遷移特徴データを格納しておく。
その上で、図1のステップS106において、遷移動作
に加え、非遷移動作をも検出する。非遷移動作の検出
は、遷移動作の検出と同様にして行える。そして、ステ
ップS108において、ステップS106で検出した遷
移動作および非遷移動作に基づいて、手動作の分節を行
う。
ップされた各部位毎の分節位置候補を相互に比較して、
例えば2以上の部位において、ピックアップされた分節
位置候補が互いに一致ないしは予め決められた間隔より
も近接している場合、それら分節位置候補に基づいて分
節位置を決定した(具体的には、一致した位置、ないし
は近接する2以上の位置の平均値を分節位置に決定し
た)。これに対し、非遷移動作をも考慮する場合、たと
え2以上の部位において、ピックアップされた分節位置
候補が互いに一致ないしは予め決められた間隔よりも近
接しても、同時に非遷移動作が検出されていれば、それ
ら分節位置候補に基づいて分節位置を決定することはし
ない。つまり、非遷移動作が行われている期間は、たと
え遷移動作が検出されても、分節が実行されないことに
なる。これにより、分節処理の精度を高めることができ
る。
ータ装置が遷移動作の検出を正確に行えるようにするた
めに、出力部205の画面を通じ、正しい(つまりコン
ピュータ装置が認識しやすいような)遷移動作を行わせ
るよう利用者を誘導するためのアニメーション画像を提
示するようにしてもよい。
いて、各遷移動作を示すアニメーションの画像データ
を、図示しないアニメーション記憶部に予め記憶してお
く。そして、遷移動作の検出状況(例えば特定の遷移動
作の検出頻度が著しく低いことなど)と、手動作の認識
状況(検出した遷移動作に基づいて手動作を分節したと
きに、その手動作を認識できたか否か)とに基づいて、
どの遷移動作を利用者に提示すべきかをCPU201が
判断し、その遷移動作を示すアニメーションの画像デー
タをアニメーション記憶部から読み出して出力部205
へと与える。こうして、出力部205の画面上には、遷
移動作を示すアニメーションが表示され、利用者は、表
示されたアニメーションを参照ながら、遷移動作を矯正
する。
の実施形態に係る手話動作セグメンテーション装置の構
成を示すブロック図である。図3において、手話動作セ
グメンテーション装置は、画像入力部301、身体特徴
抽出部302、特徴運動追跡部303、セグメント位置
判定部304およびセグメント要素記憶部305を備え
ている。
ば手話認識装置(図示せず)に設けられる。そのほか、
家電製品や駅の券売機等のようなコンピュータ装置にも
設けられる。画像入力部301へは、テレビカメラ等の
画像入力装置を通じて取り込まれた画像が与えられる。
ここでは、特に断らない限り、手話者の動作を2次元的
に捉えるので、画像入力装置は1台でよい。
入力する。画像入力部301から入力された画像(以
下、入力画像)は、フレーム毎に番号を付与され、身体
特徴抽出部302に送られる。セグメント要素記憶部3
05には、予め、分節を行うための要素(以下、セグメ
ント要素)として、身体特徴と動き特徴とが記憶されて
いる。身体特徴抽出部302は、入力画像から、セグメ
ント要素記憶部305に記憶されている身体特徴と対応
する画像を抽出する。特徴運動追跡部303は、抽出さ
れた画像に基づいて、身体特徴の動きを計算し、その計
算結果を示す動き情報を、セグメント位置判定部304
に送る。セグメント位置判定部304は、送られてきた
動き情報と、セグメント要素記憶部305に記憶されて
いる動き特徴とに基づいて、セグメント位置を判定し、
そのセグメント位置を示すフレーム番号を出力する。
部302、特徴運動追跡部303およびセグメント位置
判定部304は、1台もしくは複数台のコンピュータに
よって実現可能である。セグメント要素記憶部305
は、コンピュータに接続されるハードディスクやCD−
ROM、DVD等の記録装置によって実現可能である。
グメンテーション装置の処理手順について説明する。図
4は、図3の手話動作セグメンテーション装置の処理の
流れの一例を示すフローチャートである。図4の各ステ
ップでは、それぞれ以下のような処理が行われる。
の入力画像があれば、画像入力部301は、1フレーム
分の入力画像を取り込む。そして、フレーム番号iに
「1」が加えられ、その後、入力画像は、身体特徴抽出
部302に送られる。その後、手話動作セグメンテーシ
ョン装置は、ステップS402に進む。入力画像がない
場合、フレーム番号iに「0」が加えられ、次いで、判
定コード番号jに「1」が加えられる。その後、手話動
作セグメンテーション装置では、ステップS401が繰
り返される。
2は、手話者の身体に応じて空間領域を分割する。空間
領域の分割は、例えば「動作開始位置検出方法」(特開
平9−44668号公報)に記述されている方法と同様
の方法によって行う。すなわち、身体特徴抽出部302
は、最初、画像データにおいて、背景と人物との色の違
い等に基づいて人物領域を検出し、次に、検出した人物
領域の輪郭線に沿って、手話者を取り巻く空間領域を分
割する。そして、分割して得られる領域毎に、領域コー
ドを設定する。図5は、身体特徴抽出部302が設定す
る領域コードの一例を示す図である。図5において、入
力画像501(空間領域)は、人物領域の輪郭線50
2、頭部外接矩形503、首ライン504、胴体左ライ
ン505、胴体右ライン506、および死手決定ライン
507によって分割される。
初、人物領域の輪郭線502から首の位置を検出し、こ
の首の高さにおいて、X軸に平行に首ライン504をひ
く。次に、画面下端から、首ライン504の高さに死手
決定比率をかけた高さの位置に、X軸に水平に死手決定
ライン507をひく。ここで、死手決定比率は、手の有
効性を確定するためのパラメータであって、死手決定ラ
イン507より下に手が入った場合、たとえ手動作が行
われていても、その手動作は無効、つまり手が使われて
いないのと同様であると判断される。本実施形態では、
死手決定比率は、およそ1/5に設定される。
各領域に、領域コードが設定される。図中の丸内の数字
が、領域コードである。本実施形態では、領域コード
は、例えば図5に示されるように設定される。すなわ
ち、頭部外接矩形503の外側にあってかつ首ライン5
04より上の領域が、頭部外接矩形503の内側の領
域が、首ライン504と死手決定ライン507との間
にあってかつ胴体左ライン505の左の領域が、首ラ
イン504と死手決定ライン507との間にあってかつ
胴体左ライン505と胴体右ライン506との間に挟ま
れた領域が、首ライン504と死手決定ライン507
との間にあってかつ胴体右ライン506の右の領域が
、そして、死手決定ライン507の下の領域がのよ
うに設定される。その後、手話動作セグメンテーション
装置は、ステップS403に進む。
2は、入力画像から、セグメント要素記憶部305に記
憶されている身体特徴と対応する画像を抽出する。こう
して抽出された画像を、以下、抽出身体特徴と呼ぶ。図
6は、セグメント要素記憶部305に記憶されるセグメ
ント要素データの一例を示す図である。図6において、
セグメント要素データは、身体特徴601と、動き特徴
602とを含む。身体特徴601には、1以上の身体特
徴、ここでは、顔領域と、目と、口と、手領域および胴
体と、手領域および顔領域と、手領域とがセットされ
る。
1にセットされた各身体特徴と対応する動き特徴がセッ
トされる。すなわち、顔領域と対応して頷き頂点がセッ
トされ、目と対応して瞬きがセットされ、口と対応して
口形変化がセットされ、手領域および胴体と対応して動
作静止がセットされ、手領域および顔領域と対応して手
顔接触がセットされ、手領域と対応して手有効性変化点
がセットされる。身体特徴抽出部302は、身体特徴6
01にセットされた身体特徴を、抽出身体特徴として検
出する。例えば、身体特徴601に「顔領域」がセット
されている場合、身体特徴抽出部302は、抽出身体特
徴として顔領域を抽出する。
る。身体特徴抽出部302は、最初、入力画像から、R
GB色情報を元に、肌色領域を抽出する。次に、抽出し
た肌色領域のうち、ステップS402で分割して得られ
た、領域コードがである領域(頭部領域)と重なる部
分を取り出し、それを顔領域とする。
出された肌色領域の一例を示す図である。図7に示すよ
うに、肌色領域には、顔の肌色領域702および手の肌
色領域703がある。そのため、単にRGB色情報に基
づいて肌色領域を抽出したのでは、顔の肌色領域702
および手の肌色領域703が抽出され、両者の区別が付
かない。そこで、図5に示すように、予め入力画像を領
域〜に分割しておき、抽出された肌色領域のうち、
頭部領域701(図5の領域)と重なる部分だけを取
り出す。それによって、顔の肌色領域702が得られ
る。
報を生成する。すなわち、抽出した顔領域に関し、その
重心、面積、X軸方向最大長およびY軸方向最大長を、
i番目の顔領域情報face[i]にセットする。図8
は、身体特徴抽出部302が生成する顔領域情報の一例
を示す図である。図8において、顔領域情報には、顔領
域の重心座標801、顔領域の面積802、顔領域のX
軸方向最大長803、および顔領域のY軸方向最大長8
04が含まれる。その後、手話動作セグメンテーション
装置は、ステップS404に進む。
の場合、手話動作セグメンテーション装置は、ステップ
S401に進む。一方、フレーム番号iが1でない場
合、ステップS405に進む。
3は、<式1>を用いて、i番目の顔領域情報face
[i]と、i−1番目の顔領域情報face[i−1]
とから、顔領域の特徴運動コードを求める。また、i番
目の顔領域情報face[i]の重心g_face
[i]と、i−1番目の顔領域情報face[i−1]
の重心g_face[i−1]とから、i番目の顔領域
の顔運動方向ベクトルV_face[i]を求める。
顔運動方向ベクトルV_face[i]から、特徴運動
コードを決定する 図9は、特徴運動追跡部303が特徴運動コードを決定
するための、顔による特徴運動決定条件を示す図であ
る。図9において、顔による特徴運動決定条件は、運動
コード901と、条件902とを含む。運動コード90
1には、番号「1」〜「8」がセットされ、条件902
には、運動コード901にセットされた各番号と対応し
て、各々、顔による特徴運動決定条件がセットされる。
つまり、特徴運動追跡部303は、i番目の顔運動方向
ベクトルV_face[i]を、図9の条件902と比
較して、i番目の顔運動方向ベクトルV_face
[i]と一致するような顔による特徴運動決定条件を選
択する。そして、図9の運動コード901のうち、選択
した顔による特徴運動決定条件と対応する番号を取り出
すことによって、特徴運動コードを決定する。その後、
手話動作セグメンテーション装置は、ステップS406
に進む。
部304は、特徴運動コードを、セグメント要素記憶部
305に記憶されているセグメント要素データ(図6参
照)と比較して、特徴運動コードが、動き特徴602と
一致するかどうかをチェックする。動き特徴602に
は、セグメント確定のための動き特徴(動き特徴)を示
すパラメータ(動き特徴パラメータ)がセットされてい
る。
動き特徴パラメータの一例を示す図である。図10にお
いて、動き特徴パラメータには、動き特徴1001、判
定コード1002、時間1003およびセグメント位置
1004が含まれる。動き特徴1001は、動き特徴の
種別を示す。判定コード1002は、動き特徴を判定す
る条件となるコード列である。時間1003は、動き特
徴を判定する条件となる時間である。セグメント位置1
004は、動き特徴におけるセグメント位置を示す。
は、各コードは、図9の運動コード901(特徴運動コ
ード)と同様の番号「1」〜「8」と、動作静止を示す
番号「0」とを用いて表現され、コードとコードの間
が”−”で結ばれている。そして、ステップS405で
決定された特徴運動コードと、例えば「1−0−2」が
一致するか否かは、「1」の次に「0」、「2」という
順番でコードが続くか否かで判定され、その順番でコー
ドが続いた場合に、一致と判定される。
がなくても一致するとみなされる。例えば、「7−
(0)−3」は、コード「7」の次に「0」、「3」と
続いた場合も、コード「7」の次に「3」と続いた場合
も、条件一致とみなされる。また、”/”を間に挟んだ
コードは、どちらのコードでもよいことを示す”/”は
図示していない。例えば、「0/3」となっている場
合、「0」でも「3」でも条件一致とみなされる。一
方、”*”は、どのコードでもよいことを表す。
601は「顔領域」であり、動き特徴602として「頷
き頂点」がセットされている。このとき、セグメント位
置判定部304は、ステップS405で決定された顔の
特徴運動コードが、図10の「頷き頂点」と対応するコ
ード列「7−(0)−3」と一致するかどうかを判定す
る。手話動作セグメンテーション装置は、jが1である
か否かを判定し、j=1の場合、ステップS407に進
む。j>1の場合、ステップS409に進む。
ーション装置は、特徴運動コードが判定コード1002
の最初のコードと一致しているか否かを判定し、一致し
ている場合、ステップS408に進む。一致していない
場合、S401に進む。
部304は、判定コードデータを作成する。すなわち、
1番目の判定コードデータCode_data[1]の
コード番号に、特徴運動コードをセットし、1番目の判
定コードデータCode_data[1]のコード開始
フレーム番号に、iをセットする。図11は、セグメン
ト位置判定部304が作成する判定コードデータの一例
を示す図である。図11において、判定コードデータに
は、コード番号1101、コード開始フレーム番号11
02、およびコード終了フレーム番号1103が含まれ
る。
ドが「7」であれば、1番目の判定コードデータCod
e_data[1]のコード番号に「7」をセットし、
1番目の判定コードデータCode_data[1]の
コード開始フレーム番号にiをセットする。その後、j
に2がセットされ、手話動作セグメンテーション装置
は、ステップS401に進む。
−1番目の判定コードデータCode#data[j−
1]のコード番号と一致しているか否かが判断され、一
致している場合、手話動作セグメンテーション装置は、
ステップS401に進む。特徴運動コードがj−1番目
の判定コードデータCode#data[j−1]のコ
ード番号と一致していない場合、ステップS410に進
む。
部304は、j−1番目の判定コードデータCode#
data[j−1]のコード終了フレーム番号に、i−
1をセットする。その後、手話動作セグメンテーション
装置は、ステップS411に進む。
のコード数がj個以上であるか否かが判定され、j個以
上の場合、手話動作セグメンテーション装置は、ステッ
プS412に進む。判定コード1002のコード数がj
−1個の場合、ステップS417に進む。
のj番目のコードと特徴運動コードとが一致しているか
否かが判定され、一致していない場合、手話動作セグメ
ンテーション装置は、ステップS413に進む。一致し
ている場合、ステップS416に進む。
のj番目のコードが( )付であるか否かが判定され、
()付である場合、手話動作セグメンテーション装置
は、ステップS414に進む。( )付でない場合、ス
テップS415に進む。
のj+1番目のコードと特徴運動コードとが一致してい
るか否かが判定され、一致していない場合、手話動作セ
グメンテーション装置は、ステップS415に進む。一
致している場合、jに1が加えられ、その後、ステップ
S416に進む。
れ、その後、手話動作セグメンテーション装置は、ステ
ップS401に進む。
データCode#data[j]のコード番号に、特徴
運動コードがセットされる。また、j番目の判定コード
データCode#data[j]のコード開始フレーム
番号に、iがセットされる。そして、jに1が加えられ
る。その後、手話動作セグメンテーション装置は、ステ
ップS401に進む。
部304は、動き特徴1001およびセグメント位置1
004(図10参照)に基づき、動き特徴におけるセグ
メント位置を求める。動き特徴が「頷き頂点」の場合、
「頷き頂点」と対応するセグメント位置は、Y座標最下
点であり、セグメント位置判定部304は、Y座標最下
点と対応するフレーム番号を求める。すなわち、1番目
の判定コードデータCode#data[1]のコード
開始フレーム番号から、j−1番目の判定コードデータ
Code#data[j−1]のコード終了フレーム番
号までに該当する各フレームについて、顔領域の重心の
Y座標を相互に比較する。そして、Y座標が最小となる
(つまり顔領域の重心が最下点にくる)ようなフレーム
のフレーム番号を、動き特徴におけるセグメント位置と
する。なお、Y座標最下点に該当するフレーム番号が複
数出てきた場合は、最初の(番号が最も若い)フレーム
番号を、セグメント位置とする。その後、手話動作セグ
メンテーション装置は、ステップS418に進む。
ーション装置は、セグメント位置を出力する。その後、
ステップS401に戻り、上記と同様の処理を繰り返
す。以上の手順により、頷き運動の検出による手話動作
セグメンテーション方法が実現できる。
メンテーション方法について説明する。瞬き運動の検出
による手話動作セグメンテーション方法では、前述の頷
き運動の検出による手話動作セグメンテーション方法
(図4参照)において、ステップS403の処理を、次
のように変更する。 [ステップS403a]身体特徴抽出部302は、入力
画像から、セグメント要素記憶部305に記憶されてい
る身体特徴601(図6参照)と対応する画像を抽出す
る。瞬き運動を検出する場合、身体特徴601に「目」
が設定され、身体特徴抽出部302は、抽出身体特徴と
して目を抽出する。
最初、上記ステップS403と同様の方法で、顔領域を
抽出する。次に、抽出された顔領域から、以下のように
して、目を抽出する。図12は、身体特徴抽出部302
によって抽出された顔領域の一例を示す図である。図1
2において、抽出された顔領域1201には、眉毛によ
る穴領域1202、目による穴領域1203、および口
による穴領域1204が存在する(網掛けした部分が肌
色領域)。
は、顔上下分割ラインである。顔上下分割ライン120
5は、抽出された顔領域1201を上下に分割するライ
ンである。最初、この顔上下分割ライン1205が、顔
の上端から顔の下端の間の、顔上下分割比率で指定され
る位置にひかれる。ここで、顔上下分割比率は、パラメ
ータであり、目の穴領域1203が顔上下分割ライン1
205の上側の領域に入るように設定される。本実施形
態では、例えば、顔上下分割比率を「1/2」に設定す
る。
の顔領域中の穴領域を検出する。検出された穴領域が2
つの場合、それらの穴領域を眉毛と判定し、目は閉じら
れていると判定する。検出された穴領域が3つの場合、
片目が閉じられていると判定し、3つの穴領域のうち下
にある1つを目と判定する。検出された穴領域が4つの
場合、両目が開かれていると判定し、4つの穴領域のう
ち下にある2つを目と判定する。図12の例の場合、穴
領域が4つあるため、下の2つの穴領域が、目による穴
領域1203とわかる。
報を生成する。すなわち、抽出した目の数と、目の面積
とを、i番目の目領域情報eye[i]にセットする。
図13は、身体特徴抽出部302によって生成される目
領域情報の一例を示す図である。図13において、目領
域情報は、目の数1301、1つめの(目の)面積13
02、および2つめの面積1303を含む。身体特徴抽
出部302は、最初、抽出した目の数を、目の数130
1にセットする。そして、抽出した目の数に応じ、次の
ようにして目の面積をセットする。
1302、および2つめの面積1303にそれぞれ0を
セットする。抽出した目の数が1の場合、目(目による
穴領域1203)の面積を計算して、1つめの面積13
02にセットする。2つめの面積1303には、0をセ
ットする。抽出した目の数が2の場合、2つの目の面積
を各々計算して、1つめの面積1302には、左目(目
による穴領域1203の左側の方)の面積をセットし、
2つめの面積1303には、右目の面積をセットする。
その後、手話動作セグメンテーション装置は、ステップ
S404に進む。
ーション方法では、上記のステップS405の処理を、
次のように変更する。 [ステップS405a]特徴運動追跡部303は、<式
2>を用いて、i番目の目領域情報eye[i]と、i
−1番目の目領域情報eye[i−1]とから、目の特
徴運動コードを求める。また、i番目の目領域情報ey
e[i]の1つめの面積s1_eye[i]と、i−1
番目の目領域情報eye[i−1]の1つめの面積s1
_eye[i−1]とから、i番目の目の1つめの目の
目領域面積変化d1_eye[i]を求める。また、i
番目の目領域情報eye[i]の2つめの面積s2_e
ye[i]と、i−1番目の目領域情報eye[i−
1]の2つめの面積s2_eye[i−1]とから、i
番目の目の2つめ目領域面積変化d2_eye[i]を
求める。
動コードを決定するための、目による特徴運動決定条件
を示す図である。図14において、目による特徴運動決
定条件は、運動コード1401と、条件1402とを含
む。運動コード1401には、番号「0」〜「6」がセ
ットされ、条件1402には、運動コード1401にセ
ットされた各番号と対応して、各々、目による特徴運動
決定条件がセットされる。条件1402中のαは、目が
閉じているかどうかを判定する目面積閾値であり、例え
ば「1」がセットされる。βは、目の大きさが変化して
いるかどうかを判定する目大きさ変化閾値であり、例え
ば「5」がセットされる。
の目領域情報eye[i]、i番目の1つめの目領域面
積変化d1_eye[i]、および2つめの目領域面積
変化d2_eye[i]を、図14の条件1402と比
較して、i番目の目領域情報eye[i]、i番目の1
つめの目領域面積変化d1_eye[i]、および2つ
めの目領域面積変化d2_eye[i]と一致するよう
な目による特徴運動決定条件を選択する。そして、図1
4の運動コード1401のうち、選択した目による特徴
運動決定条件と対応する番号を取り出すことによって、
特徴運動コードを決定する。例えば、目が両方閉じてい
る場合、s1_eye[i]≦α、s2_eye[i]
≦αとなり、このとき、特徴運動コードは、0となる。
その後、手話動作セグメンテーション装置は、ステップ
S406に進む。
ーション方法では、上記ステップS417の処理を、次
のように変更する。 [ステップS417a]セグメント位置判定部304
は、動き特徴1001およびセグメント位置1004
(図10参照)に基づき、動き特徴におけるセグメント
位置を求める。動き特徴が「瞬き」の場合、「瞬き」と
対応するセグメント位置は、目領域消失点であり、セグ
メント位置判定部304は、目領域消失点と対応するフ
レーム番号を求める。すなわち、2番目の判定コードデ
ータCode#data[2]のコード開始フレーム番
号を、セグメント位置とする。その後、手話動作セグメ
ンテーション装置は、ステップS418に進む。以上の
手順により、瞬き運動の検出による手話動作セグメンテ
ーション方法が実現できる。
動作セグメンテーション方法について説明する。この場
合、前述の頷き運動の検出による手話動作セグメンテー
ション方法(図4参照)において、ステップS403の
処理を、次のように変更する。 [ステップS403b]身体特徴抽出部302は、入力
画像から、セグメント要素記憶部305に記憶されてい
る身体特徴601(図6参照)と対応する画像を抽出す
る。口形変化(閉口)を検出する場合、身体特徴601
に「口」が設定され、身体特徴抽出部302は、抽出身
体特徴として口を抽出する。
最初、上記ステップS403と同様の方法で、顔領域を
抽出する。次に、抽出された顔領域から、以下のように
して、口を抽出する。図12において、最初、ステップ
S403と同様にして、顔上下分割ライン1205がひ
かれる。次に、顔上下分割ライン1205より下側の顔
領域中の穴領域を検出する。
らの穴領域のうち、顔領域の下端との間の距離が口高さ
条件に最も近いものを口とする。ここで、口高さ条件
は、パラメータであり、標準的な人の口の位置を、顔領
域の下端との間の距離によって表したものである。本実
施形態では、口高さ条件を「10」に設定する。検出さ
れた穴領域が1つの場合、その穴領域を口とする。穴領
域が検出されない場合、口を閉じているとみなす。図1
2の例の場合、顔上下分割ライン1205より下側に
は、穴領域が1つだけなので、その穴領域が、口による
穴領域1204とわかる。
報を生成する。すなわち、抽出した口の面積と、口のY
軸方向最大長とを、i番目の口領域情報mouth
[i]にセットする。図15は、身体特徴抽出部302
が生成する口領域情報の一例を示す図である。図15に
おいて、口領域情報は、口の面積1501、および口の
Y軸方向最大長1502を含む。身体特徴抽出部302
は、抽出した口の面積を計算して、口の面積1501に
セットし、さらに、口のY軸方向の長さの最大長を計算
して、口のY軸方向最大長1502にセットする。その
後、手話動作セグメンテーション装置は、ステップS4
04に進む。
ーション方法では、上記のステップS405の処理を、
次のように変更する。 [ステップS405b]特徴運動追跡部303は、<式
3>を用いて、i番目の口領域情報mouth[i]
と、i−1番目の口領域情報mouth[i−1]とか
ら、口の特徴運動コードを求める。また、i番目の口領
域情報mouth[i]の面積s_mouth[i]
と、i−1番目の口領域情報mouth[i−1]の面
積s_mouth[i−1]とから、i番目の口の口領
域面積変化d_mouth[i]を求める。
情報mouth[i]のY軸方向最大長h_mouth
[i]と、i−1番目の口領域情報mouth[i−
1]のY軸方向最大長h_mouth[i−1]とか
ら、i番目の口のY軸方向変化y_mouth[i]を
求める。
動コードを決定するための、口による特徴運動決定条件
を示す図である。図16において、口による特徴運動決
定条件は、運動コード1601と、条件1602とを含
む。運動コード1601には、番号「0」および「1」
がセットされ、条件1602には、運動コード1601
にセットされた各番号と対応して、各々、口による特徴
運動決定条件がセットされる。条件1602中のγは、
口形の変化の有無を判定するための口面積変化閾値であ
り、本実施形態では、例えば「5」がセットされる。λ
は、口Y軸方向変化閾値であり、例えば「3」がセット
される。
の口領域面積変化d_mouth[i]およびY軸方向
最大長h_mouth[i]を、図16の条件1602
と比較して、i番目の口領域面積変化d_mouth
[i]およびY軸方向最大長h_mouth[i]と一
致するような口による特徴運動決定条件を選択する。そ
して、図16の運動コード1601のうち、選択した口
による特徴運動決定条件と対応する番号を取り出すこと
によって、特徴運動コードを決定する。例えば、口が閉
じている場合は、s_mouth[i]≦γとなり、こ
のとき、特徴運動コードは、「0」となる。その後、手
話動作セグメンテーション装置は、ステップS406に
進む。
ーション方法では、上記のステップS417の処理を、
次のように変更する。 [ステップS417b]セグメント位置判定部304
は、動き特徴1001およびセグメント位置1004
(図10参照)に基づき、動き特徴におけるセグメント
位置を求める。動き特徴が「口形変化」の場合、「口形
変化」と対応するセグメント位置は、変化始点終点であ
り、セグメント位置判定部304は、変化始点終点と対
応するフレーム番号を求める。すなわち、2番目の判定
コードデータCode#data[2]のコード開始フ
レーム番号と、2番目の判定コードデータCode#d
ata[2]のコード終了フレーム番号とを、セグメン
ト位置として出力する。その後、手話動作セグメンテー
ション装置は、ステップS418に進む。以上の手順に
より、口形変化の検出による手話動作セグメンテーショ
ン方法が実現できる。
る手話動作セグメンテーション方法について説明する。
この場合、前述の頷き動作の検出による手話動作セグメ
ンテーション方法(図4参照)において、ステップS4
03の処理を、次のように変更する。 [ステップS403c]身体特徴抽出部302は、入力
画像から、セグメント要素記憶部305に記憶されてい
る身体特徴601(図6参照)と対応する画像を抽出す
る。手および胴体の静止動作を検出する場合、身体特徴
601に「手領域、胴体」が設定され、身体特徴抽出部
302は、抽出身体特徴として手領域および胴体を抽出
する。
いて説明する。最初、身体特徴抽出部302は、上記ス
テップS403と同様の方法で、手領域を抽出する。す
なわち、入力画像から肌色領域を抽出して、抽出された
肌色領域のうち頭部領域と重複しない部分を取り出し、
それを手領域とする。図7の場合、肌色領域のうち頭部
領域と重複しない領域、すなわち手の領域703が抽出
される。胴体については、ステップS402で検出され
た人物領域を、そのまま胴体とする。
報を生成する。すなわち、抽出した手領域に関し、その
重心、面積、X軸方向最大長およびY軸方向最大長を、
i番目の手領域情報hand[i]にセットする。次い
で、抽出した胴体に関し、その重心、面積、X軸方向最
大長およびY軸方向最大長を、i番目の胴体情報bod
y[i]にセットする。図17は、身体特徴抽出部30
2が生成する手領域情報の一例を示す図である。図17
において、手領域情報には、手の数1701、1つめの
手の重心座標1702、1つめの手の面積1703、2
つめの手の重心座標1704、および2つめの手の面積
1705が含まれる。身体特徴抽出部302は、最初、
抽出した手の数を、手の数1701にセットする。そし
て、抽出した手の数に応じ、次のようにして手の重心座
標および手の面積をセットする。
めの手の重心座標1702、および2つめの手の重心座
標1704に、それぞれ(0,0)を設定し、また、1
つめの手の面積1703、および2つめの手の面積17
04に、それぞれ0を設定する。抽出した手の数170
1が「1」の場合、手領域の重心座標および面積を計算
して、1つめ手の重心座標1702、および1つめの手
の面積1703にセットする。また、2つめの手の重心
座標1704に(0、0)をセットし、2つめの手の面
積1704に0をセットする。抽出した手の数1701
が「2」の場合、2つの手領域のうち左側の領域の重心
座標および面積を計算して、1つめ手の重心座標170
2、および1つめの手の面積1703にセットする。ま
た、2つの手領域のうち右側の領域の重心座標および面
積を計算して、2つめ手の重心座標1704、および2
つめの手の面積1705にセットする。胴体情報bod
y[i]は、顔領域情報face[i]と同様、図8の
構成で実現できる。その後、手話動作セグメンテーショ
ン装置は、ステップS404に進む。
動作セグメンテーション方法では、上記のステップS4
05の処理を、次のように変更する。 [ステップS405c]特徴運動追跡部303は、<式
5>を用いて、i番目の手領域情報hand[i]と、
i−1番目の手領域情報hand[i−1]と、i番目
の胴体情報body[i]と、i−1番目の胴体情報b
ody[i−1]とから、手領域および胴体の特徴運動
コードを求める。また、i番目の手領域情報hand
[i]の1つめの手の重心g1_hand[i]と、i
−1番目の手領域情報hand[i−1]の1つめの手
の重心g1_hand[i−1]とから、i番目の手領
域の1つめの手の移動量m1_hand[i]を求め
る。また、i番目の手領域情報hand[i]の2つめ
の手の重心g2_hand[i]と、i−1番目の手領
域情報hand[i−1]の2つめの手の重心g2_h
and[i−1]とから、i番目の手領域の2つめの手
の移動量m2_hand[i]を求める。
情報hand[i]の1つめの手の面積s1_hand
[i]と、i−1番目の手領域情報hand[i−1]
の1つめの手の面積s1_hand[i−1]とから、
i番目の手領域の1つめの手の面積変化量d1_han
d[i]を求める。また、i番目の手領域情報hand
[i]の2つめの手の面積s2_hand[i]と、i
−1番目の手領域情報hand[i−1]の2つめの手
の面積s2_hand[i−1]とから、i番目の手領
域の2つめの手の面積変化量d2_hand[i]を求
める。
報body[i]の重心g_body[i]と、i−1
番目の胴体情報body[i−1]の重心g_body
[i−1]とから、i番目の胴体の移動量m_body
[i]を求める。
動決定条件を示す図である。図18において、胴体およ
び手領域による特徴運動決定条件は、運動コード180
1と、条件1802とを含む。運動コード1801に
は、番号「0」および「1」がセットされ、条件180
2には、運動コード1801にセットされた各番号と対
応して、各々、胴体および手領域による特徴運動決定条
件がセットされる。条件1802中のχは、手領域の停
止判定閾値であり、本実施形態では、例えば「5」がセ
ットされる。δは、手領域の形状変化判定閾値であり、
例えば「10」がセットされる。εは、胴体の停止判定
閾値であり、例えば「5」がセットされる。
の手領域の1つめの手の移動量m1_hand[i]、
i番目の手領域の2つめの手の移動量m2_hand
[i]、i番目の手領域の1つめの手の面積変化量d1
_hand[i]、i番目の手領域の2つめの手の面積
変化量d2_hand[i]、およびi番目の胴体の移
動量m_body[i]を、図18の条件1802と比
較して、i番目の手領域の1つめの手の移動量m1_h
and[i]、i番目の手領域の2つめの手の移動量m
2_hand[i]、i番目の手領域の1つめの手の面
積変化量d1_hand[i]、i番目の手領域の2つ
めの手の面積変化量d2_hand[i]、およびi番
目の胴体の移動量m_body[i]と一致するような
手領域および胴体による特徴運動決定条件を選択する。
そして、図18の運動コード1801のうち、選択した
手領域および胴体による特徴運動決定条件と対応する番
号を取り出すことによって、特徴運動コードを決定す
る。例えば、手領域が左右に移動中の場合、i番目の手
領域の移動量m_hand[i]>χとなり、このと
き、特徴運動コードは、「1」となる。その後、手話動
作セグメンテーション装置は、ステップS406に進
む。
動作セグメンテーション方法では、上記のステップS4
17の処理を、次のように変更する。 [ステップS417c]セグメント位置判定部304
は、動き特徴1001およびセグメント位置1004
(図10参照)に基づき、動き特徴におけるセグメント
位置を求める。動き特徴が「動作静止」の場合、「動作
静止」と対応するセグメント位置は、動作静止始点であ
り、セグメント位置判定部304は、動作静止始点と対
応するフレーム番号を求める。または、静止区間の中間
点と対応するフレーム番号を求めてもよい。この場合、
1番目の判定コードデータCode_data[1]の
コード開始フレーム番号と、1番目の判定コードデータ
Code_data[1]のコード終了フレーム番号と
を求めて、それらの中間値を計算すればよい。その後、
手話動作セグメンテーション装置は、ステップS418
に進む。以上の手順により、手および胴体の静止動作の
検出による手話動作セグメンテーション方法が実現でき
る。
話動作セグメンテーション方法について説明する。この
場合、前述の頷き動作の検出による手話動作セグメンテ
ーション方法(図4参照)において、ステップS403
の処理を、次のように変更する。 [ステップS403d]身体特徴抽出部302は、入力
画像から、セグメント要素記憶部305に記憶されてい
る身体特徴601(図6参照)と対応する画像を抽出す
る。手と顔との接触動作を検出する場合、身体特徴60
1に「顔領域、手領域」が設定され、抽出身体特徴とし
て顔領域および手領域を抽出する。
ついて説明する。最初、上記ステップS403と同様の
方法で、顔領域を抽出し、また、上記ステップS403
cと同様の方法で、手領域を抽出する。次に、抽出した
顔領域に関し、その重心、面積、X軸方向最大長および
Y軸方向最大長を、i番目の顔領域情報face[i]
にセットする。また、抽出した手領域に関し、その重
心、面積、X軸方向最大長およびY軸方向最大長を、i
番目の手領域情報hand[i]にセットする。その
後、手話動作セグメンテーション装置は、ステップS4
04に進む。
セグメンテーション方法では、上記のステップS405
の処理を、次のように変更する。 [ステップS405d]特徴運動追跡部303は、<式
8>を用いて、i番目の手領域情報hand[i]と、
i番目の顔領域情報face[i]とから、手領域およ
び顔領域の特徴運動コードを求める。また、i番目の手
領域情報hand[i]の1つめの手の重心g1_ha
nd[i]と、i番目の顔領域情報face[i]の重
心g_face[i]とから、i番目の手領域の1つめ
の手と顔との距離l1_fh[i]を求める。また、i
番目の手領域情報hand[i]の2つめの手の重心g
2_hand[i]と、i番目の顔領域情報face
[i]の重心g_face[i−1]とから、i番目の
手領域の2つめの手と顔との距離l2_fh[i]を求
める。
[i]の1つめの手の面積s1_hand[i]が0の
場合は、l1_fh[i−1]≦Φであれば、l1_f
h[i]=0とする。l1_fh[i−1]>Φであれ
ば、l1_fh[i]=1000とする。同様に、i番
目の手領域情報hand[i]の2つめの手の面積s2
_hand[i]が0の場合、l2_fh[i−1]≦
Φであれば、l2_fh[i]=0とする。l2_fh
[i−1]>Φであれば、l2_fh[i]=1000
とする。ここで、Φは、顔と手との距離閾値であり、本
実施形態では、例えば「20」がセットされる
動コードを決定するための、手と顔との接触動作による
特徴運動決定条件を示す図である。図19において、手
と顔との接触動作による特徴運動決定条件は、運動コー
ド1901と、条件1902とを含む。運動コード19
01には、番号「0」および「1」がセットされ、条件
1902には、運動コード1901にセットされた各番
号と対応して、各々、手と顔との接触動作による特徴運
動決定条件がセットされる。条件1902中のωは、手
領域と顔領域の接触閾値であり、本実施形態では、例え
ば「5」がセットされる。
の手領域の1つめの手と顔との距離l1_fh[i]、
およびi番目の手領域の2つめの手と顔との距離l2_
fh[i]を、図19の条件1902と比較して、i番
目の手領域の1つめの手と顔との距離l1_fh
[i]、およびi番目の手領域の2つめの手と顔との距
離l2_fh[i]と一致するような特徴運動決定条件
を選択する。そして、図19の運動コード1901のう
ち、選択した特徴運動決定条件と対応する番号を取り出
すことによって、特徴運動コードを決定する。例えば、
右手が顔と重なっている場合、i番目の手領域の一つめ
の手と顔の距離l1_fh[i]=0となり、このと
き、特徴運動コードは、「0」となる。その後、手話動
作セグメンテーション装置は、ステップS406に進
む。
セグメンテーション方法では、上記のステップS417
の処理を、次のように変更する。 [ステップS417d]セグメント位置判定部304
は、動き特徴1001およびセグメント位置1004
(図10参照)に基づき、動き特徴におけるセグメント
位置を求める。動き特徴が「手と顔との接触動作」の場
合、「手顔接触」と対応するセグメント位置は、「接触
始点終点」であり、セグメント位置判定部304は、手
顔接触区間の始点および終点と対応するフレーム番号を
求める。すなわち、1番目の判定コードデータCode
#data[1]のコード開始フレーム番号と、1番目
の判定コードデータCode#data[1]のコード
終了フレーム番号とを、セグメント位置とする。その
後、手話動作セグメンテーション装置は、ステップS4
01に進む。以上の手順により、手と顔との接触動作の
検出による手話動作セグメンテーション方法が実現でき
る。
作セグメンテーション方法について説明する。この場
合、前述の頷き動作の検出による手話動作セグメンテー
ション方法(図4参照)において、ステップS403の
処理を、次のように変更する。 [ステップS403e]身体特徴抽出部302は、入力
画像から、セグメント要素記憶部305に記憶されてい
る身体特徴601(図6参照)と対応する画像を抽出す
る。手の有効性変化を検出する場合、身体特徴601に
「手領域」が設定され、身体特徴抽出部302は、抽出
身体特徴として手領域を抽出する。
と同様の方法で抽出する。次に、身体特徴抽出部302
は、抽出した手領域に関し、その重心、面積、X軸方向
最大長およびY軸方向最大長を、i番目の手領域情報h
and[i]にセットする。その後、手話動作セグメン
テーション装置は、ステップS404に進む。
メンテーション方法では、上記のステップS405の処
理を、次のように変更する。 [ステップS405e]特徴運動追跡部303は、前述
の<式5>を用いて、i番目の手領域情報hand
[i]から、手の有効性および動きによる特徴運動コー
ドを求める。また、i番目の手領域情報hand[i]
の1つめの手の重心g1_hand[i]から、1つめ
の手が、上記ステップS402で空間分割して得られた
複数の領域(図5参照)のうちどの領域に属するかを判
定して、その領域コードを求め、一つめの手の手領域空
間コードsp1_hand[i]にセットする。なお、
i番目の手領域情報hand[i]の1つめの手の面積
s1_hand[i]が0の場合、1つめの手の手領域
空間コードsp1_hand[i]に「6」をセットす
る。
の2つめの手の重心g2_hand[i]から、領域コ
ードを求めて、2つめの手の手領域空間コードsp2_
hand[i]にセットする。なお、i番目の手領域情
報hand[i]の2つめの手の面積s2_hand
[i]が0の場合、2つめの手の手領域空間コードsp
2_hand[i]に「6」をセットする。
の1つめの手の重心g1_hand[i]と、i−1番
目の手領域情報hand[i−1]の1つめの手の重心
g1_hand[i−1]とから、i番目の手領域の1
つめの手の移動量m1_hand[i]を求める。ま
た、i番目の手領域情報hand[i]の2つめの手の
重心g2_hand[i]と、i−1番目の手領域情報
hand[i−1]の2つめの手の重心g2_hand
[i−1]とから、i番目の手領域の2つめの手の移動
量m2_hand[i]を求める。
動コードを決定するための、手の有効性変化による特徴
運動決定条件を示す図である。図20において、手の有
効性変化による特徴運動決定条件は、運動コード200
1と、条件2002とを含む。運動コード2001に
は、番号「0」〜「5」がセットされ、条件2002に
は、運動コード2001にセットされた各番号と対応し
て、各々、手と顔との接触動作による特徴運動決定条件
がセットされる。条件2002中のχは、手領域の停止
判定閾値であり、本実施形態では、例えば「5」がセッ
トされる。
の手領域の1つめの手の手領域空間コードsp1_ha
nd[i]、i番目の手領域の1つめの手の移動量m1
_hand[i]、i番目の手領域の2つめの手の手領
域空間コードsp2_hand[i]、およびi番目の
手領域の2つめの手の移動量m2_hand[i]を、
図20の条件2002と比較して、i番目の手領域の1
つめの手の手領域空間コードsp1_hand[i]、
i番目の手領域の1つめの手の移動量m1_hand
[i]、i番目の手領域の2つめの手の手領域空間コー
ドsp2_hand[i]、およびi番目の手領域の2
つめの手の移動量m2_hand[i]と一致するよう
な手と顔との接触動作による特徴運動決定条件を選択す
る。例えば、右手が移動中で、かつ左手が入力画像50
1(図5参照)の一番下の位置まで降りた状態の場合、
i番目の手領域の1つめの手の移動量m1_hand
[i]>χとなり、i番目の手領域の2つめの手の手領
域空間コードsp2_hand[i]=7となり、この
とき、特徴運動コードは、「2」となる。その後、手話
動作セグメンテーション装置は、ステップS406に進
む。
メンテーション方法では、上記のステップS417の処
理を、次のように変更する。 [ステップS417e]セグメント位置判定部304
は、動き特徴1001およびセグメント位置1004
(図10参照)に基づき、動き特徴におけるセグメント
位置を求める。動き特徴が「手の有効性変化点」の場
合、「手有効性変化点」と対応するセグメント位置は、
「コード変化点」であり、セグメント位置判定部304
は、コード変化点と対応するフレーム番号を求める。す
なわち、1番目の判定コードデータCode_data
[1]のコード開始フレーム番号と、1番目の判定コー
ドデータCode_data[1]のコード終了フレー
ム番号とを、セグメント位置とする。その後、ステップ
S418に進む。以上の手順により、手の有効性変化の
検出による手話動作セグメンテーション方法が実現でき
る。
よる手話動作セグメンテーション方法について説明す
る。この場合、前述の頷き動作の検出による手話動作セ
グメンテーション方法(図4参照)において、ステップ
S403を次のように変更する。 [ステップS403f]身体特徴抽出部302は、入力
画像から、セグメント要素記憶部305に記憶されてい
る身体特徴601(図6参照)と対応する画像を抽出す
る。上記の各動作を検出する場合、身体特徴601に
「顔領域」、「目」、「口」、「手領域、胴体」、「手
領域、顔領域」および「手領域」が設定され、身体特徴
抽出部302は、抽出身体特徴として、顔領域、目、
口、手領域および胴体を抽出する。なお、顔領域は、上
記ステップS403と同様の方法で抽出する。目は、上
記ステップS403aと同様の方法で抽出する。口は、
上記ステップS403bと同様の方法で抽出する。手領
域および胴体は、上記ステップS403cと同様の方法
で抽出する。
顔領域、目、口、手領域および胴体に関する情報を、各
々、顔領域情報face[i]、目領域情報eye
[i]、口領域情報mouth[i]、手領域情報ha
nd[i]、および胴体情報body[i]にセットす
る。その後、手話動作セグメンテーション装置は、ステ
ップS404に進む。
は、上記ステップS405からステップS417までを
処理し、続いて、上記ステップS405bからステップ
S417bまでを処理する。以降、上記ステップS40
5cからステップS417cまでの処理、上記ステップ
S405dからステップS417dまでの処理、および
上記ステップS405eからステップS417dまでの
処理を、順番に処理する。これにより、上記の各動作の
検出の組み合わせによる手話動作セグメンテーション方
法が実現できる。
の継続時間を考慮してセグメンテーションを行うような
手話動作セグメンテーション方法について説明する。図
21は、頷き動作の検出による手話動作セグメンテーシ
ョン方法(図4参照)において、検出した動作の継続時
間を考慮してセグメンテーションを行う場合の処理の流
れを示すフローチャートである。図21の方法は、図4
の方法において、ステップS411を次のように変更
し、さらにステップS2101を追加したものである。 [ステップS411a]判定コード1002のコード数
がj個以上か否かが判定され、j個以上の場合、ステッ
プS412に進む。j−1個の場合、ステップS210
1に進む。
定コードデータCode_data[1]のコード開始
フレーム番号と対応するフレームから、j−1番目の判
定コードデータCode_data[j−1]のコード
終了フレーム番号と対応するフレームまでのフレーム数
が、特徴継続時間にセットされる。次に、動き特徴パラ
メータ(図10参照)の時間1003に、値が設定され
ているか否かが判定され、さらに、特徴継続時間が、時
間1003に設定された値より小さいか否かが判定され
る。そして、時間1003に値が設定されており、かつ
特徴継続時間が時間1003に設定された値より小さい
場合、ステップS415に進む。時間1003に何も設
定されていないか、特徴継続時間が時間1003に設定
された値以上の場合、ステップS417に進む。以上の
手順により、検出した動作の継続時間を考慮してセグメ
ンテーションを行うような手話動作セグメンテーション
方法が実現できる。
ント要素を検出してセグメンテーションを行うような手
話動作セグメンテーション方法について説明する。 (第3の実施形態)図22は、本発明の第3の実施形態
に係る手話動作セグメンテーション装置の構成を示すブ
ロック図である。図22の装置は、図3の装置におい
て、非セグメント要素記憶部2201をさらに備えてい
る。非セグメント要素記憶部2201には、セグメント
を行わない条件となる非セグメント要素が、予め記憶さ
れている。他の構成要素は、図3のものと同様のもので
ある。すなわち、図22の装置は、セグメント要素に加
えて、非セグメント要素をも検出し、それらに基づいて
手話動作のセグメンテーションを行うような手話動作セ
グメンテーション方法を実行する。
グメンテーション装置の処理手順について説明する。最
初、非セグメント要素として、両手の接近を検出する場
合を説明する。図23および24は、図22の手話動作
セグメンテーション装置の処理の流れの一例を示すフロ
ーチャートである。図23および24の方法は、図21
の方法において、ステップS403の後にステップS2
401を追加し、また、ステップS405の後にステッ
プS2402〜S2405を追加し、さらに、ステップ
S418をステップS418aのように変更したもので
ある。これら各ステップ(S2401〜S2405,S
418a)では、以下のような処理が行われる。
02は、入力画像から、非セグメント要素記憶部220
1に記憶されている身体特徴と対応する画像を抽出す
る。図25は、非セグメント要素記憶部2201に記憶
されている非セグメント要素データの一例を示す図であ
る。図25において、非セグメント要素データは、身体
特徴2501と、非セグメント動き特徴2502とを含
む。例えば、両手の接近を検出する場合、「手領域」が
身体特徴2501にセットされている。身体特徴抽出部
302は、手領域を非セグメント身体特徴として抽出す
る。手領域は、上記ステップS403cの手順で抽出で
きる。その後、手話動作セグメンテーション装置は、ス
テップS404に進む。
グメント特徴運動コードが決定される。i番目の手領域
情報hand[i]の手の数が2の場合、特徴運動追跡
部303は、<式9>を用いて、i番目の手領域情報h
and[i]の1つめの手の重心g1_hand[i]
と、2つめの手の重心g2_hand[i]とから、i
番目の手領域の手間距離l_hand[i]を求める。
域の手間距離l_hand[i]と、i−1番目の手領
域の手間距離l_hand[i−1]とから、手間距離
変化量dl_hand[i]を求める。
数が2でないか、または、i番目の手領域情報hand
[i]の手の数と、i−1番目の手領域情報hand
[i−1]の手の数とが異なる場合、特徴運動追跡部3
03は、手間距離変化量dl_hand[i]に、負で
ない値、例えば1000をセットする。手間距離変化量
dl_hand[i]≦−θの場合、非セグメント特徴
運動コードは、「1」となる。手間距離変化量dl_h
and[i]>−θの場合、非セグメント特徴運動コー
ドは、「0」となる。ここで、θは、手間距離変化閾値
であり、本実施形態では、例えば「5」がセットされ
る。非セグメントコード番号kに何もセットされていな
い場合、非セグメントコード番号kに「1」がセットさ
れ、非セグメント特徴フレーム数に「0」がセットされ
る。ここで非セグメントコード番号kは、非セグメント
特徴運動コードを構成するコードの個数を示し、非セグ
メント特徴フレーム数は、非セグメント動き特徴の検出
期間に相当するフレーム数、つまり検出開始フレームか
ら検出終了フレームまでのフレーム数を示す。その後、
手話動作セグメンテーション装置は、ステップ3003
に進む。
定部304は、非セグメント特徴運動コードを、非セグ
メント要素記憶部2201に記憶されている非セグメン
ト要素データ(図25参照)と比較して、非セグメント
特徴運動コードが、非セグメント動き特徴2502と一
致するかどうかをチェックする。非セグメント動き特徴
2502には、非セグメント確定のための動き特徴(非
セグメント動き特徴)を示すパラメータ(非セグメント
動き特徴パラメータ)がセットされている。
にセットされる非セグメント動き特徴パラメータの一例
を示す図である。図26において、非セグメント動き特
徴パラメータは、非セグメント動き特徴2601、判定
コード2602、および時間2603を含む。非セグメ
ント動き特徴2601は、非セグメント動き特徴の種別
を示す。判定コード2602は、非セグメント動き特徴
を判定する条件となるコード列である。時間2603
は、非セグメント動き特徴を判定する条件となる時間で
ある。判定コード2602は、図10の動き特徴パラメ
ータ中の判定コード1002と同様の方法で記述され
る。時間2603には、非セグメント動き特徴2601
の最低継続時間が設定される。
2で決定された非セグメント特徴運動コードのk番目の
コード、つまり非セグメント特徴運動コードを構成する
最後のコードとが異なる場合、手話動作セグメンテーシ
ョン装置は、ステップS2404に進む。同じ場合、ス
テップS2405に進む。
フレーム数に「0」がセットされ、非セグメントコード
番号kに「1」がセットされる。その後、手話動作セグ
メンテーション装置は、ステップS406に進む。
フレーム数に「1」が加算される。k>2ので非セグメ
ント確定コード列条件のk−1番目のコードと、非セグ
メント特徴運動コードとが異なる場合、kに「1」が加
算される。その後、手話動作セグメンテーション装置
は、ステップS406に進む。
特徴パラメータ(図26参照)中の時間2603に値が
設定されていない場合、非セグメント時間最小値に0が
セットされる。時間2603に値が設定されている場
合、非セグメント時間最小値に、時間2603の値をセ
ットする。非セグメント特徴フレーム数が、非セグメン
ト時間最小値に相当するフレーム数より小さい場合は、
ステップS417でセットしたセグメント位置を出力す
る。その後、手話動作セグメンテーション装置は、ステ
ップS401に進む。以上の手順により、セグメント要
素に加えて、非セグメント要素(両手接近)をも検出
し、それらに基づいてセグメンテーションを行うような
手話動作セグメンテーション方法が実現できる。
検出する場合を説明する。この場合、上記のステップS
2401を次のように変更する。 [ステップS2401a]身体特徴抽出部302は、入
力画像から、非セグメント要素記憶部2201に記憶さ
れている身体特徴と対応する画像を抽出する。図25に
おいて、口形変化を検出する場合、「口」が身体特徴2
501にセットされている。身体特徴抽出部302は、
口を非セグメント身体特徴として抽出する。口は、上記
ステップS403bの手順で抽出できる。その後、手話
動作セグメンテーション装置は、ステップS404に進
む。
うに変更する。 [ステップS2402a]次の手順で、非セグメント特
徴運動コードが決定される。特徴運動追跡部303は、
最初、上記のステップS405bと同様の手順で、i番
目の口領域情報の口領域面積変化d_mouth
[i]、およびi番目の口領域情報のY軸方向変化y_
mouth[i]を求める。次に、i番目の口領域情報
の口領域面積変化d_mouth[i]、およびi番目
の口領域情報のY軸方向変化y_mouth[i]を、
図16の条件1602と比較して、i番目の口領域情報
の口領域面積変化d_mouth[i]、およびi番目
の口領域情報のY軸方向変化y_mouth[i]と一
致するような口による特徴運動決定条件を選択する。そ
して、図16の運動コード1601のうち、選択した口
による特徴運動決定条件と対応する番号を取り出すこと
によって、非セグメント特徴運動コードを決定する。例
えば、口を動かしていない場合、口の面積およびY軸方
向最大長が変化せず、このとき、非セグメント特徴運動
コードは、「0」となる。非セグメントコード番号kに
何もセットされていない場合、非セグメントコード番号
kに「1」がセットされ、非セグメント特徴フレーム数
に「0」がセットされる。その後、手話動作セグメンテ
ーション装置は、ステップS2403に進む。以上の手
順により、セグメント要素に加えて、非セグメント要素
(口形変化)をも検出して、それらに基づいてセグメン
テーションを行うような手話動作セグメンテーション方
法が実現できる。
手との動作の対称性を検出する場合を説明する。この場
合、上記のステップS2402を次のように変更する。 [ステップS2402b]次の手順で、非セグメント特
徴運動コードが決定される。特徴運動追跡部303は、
最初、i番目の手領域情報hand[i]の手の数が1
以下か否かを判定し、1以下の場合、非セグメント特徴
運動コードに0をセットする。その後、手話動作セグメ
ンテーション装置は、ステップS2403に進む。i番
目の手領域情報hand[i]の手の数が2の場合、特
徴運動追跡部303は、〈式11〉を用いて、i番目の
手領域情報hand[i]の1つめの手の重心g1_h
and[i]と、2つめの手の重心g2_hand
[i]と、i−1番目の手領域情報hand[i−1]
の1つめの手の重心g1_hand[i−1]と、2つ
めの手の重心g2_hand[i−1]とから、i番目
の1つめの手領域運動方向ベクトルvh[1][i]、
およびi番目の2つめの手領域運動方向ベクトルvh
[2][i]を求める。
>により、i番目の1つめの手領域の移動量dvh
[1][i]、およびi番目の2つめの手領域の移動量
dvh[2][i]を求める。
メント特徴運動コードを決定するための、手話動作の対
称性による非セグメント特徴運動決定条件である。図2
7において、手話動作の対称性による非セグメント特徴
運動決定条件は、運動コード2701と、条件2702
とを含む。運動コード2701には、番号「0」〜
「8」がセットされ、条件2702には、運動コード2
701にセットされた各番号と対応して、各々、手話動
作の対称性による非セグメント特徴運動決定条件がセッ
トされる。次に、特徴運動追跡部303は、図27の手
話動作の対称性による非セグメント特徴運動決定条件に
より、i番目の1つめの手領域運動コードCh[1]
[i]、およびi番目の2つめの手領域運動コードCh
[2][i]を求める。非セグメント特徴フレーム数が
0の場合、1つめの非セグメント条件始点Psh[1]
に、i−1番目の手領域情報hand[i−1]の1つ
めの手の重心g1_hand[i−1]をセットし、2
つめの非セグメント条件始点Psh[2]に、i−1番
目の手領域情報hand[i−1]の2つめの手の重心
g2_hand[i−1]をセットする。
には、予め、手話動作の対称性による非セグメントコー
ド決定条件が記憶されている。図28は、非セグメント
要素記憶部2201に記憶される、手話動作の対称性に
よる非セグメントコード決定条件の一例を示す図であ
る。図28の非セグメントコード決定条件には、図示し
ない手話認識装置が認識対象とする動作(手話動作)に
おいて現れるような対照性が、番号1〜10の条件とし
て設定される。例えば、手話動作の場合、左右の手は、
胴体と垂直または平行な面に対して、互いに対称的な軌
跡をとることが多い。なお、認識対象となる、手動作以
外の動作についても、同様の条件を設定することができ
る。
つめの非セグメント条件始点Psh[1]=(Xps
1,Yps1)と、2つめのセグメント条件始点Psh
[2]=(Xps2、Yps2)と、i番目の1つめの
手領域運動コードCh[1][i]と、i番目の2つめ
の手領域運動コードCh[2][i]とをもとに、手話
動作の対称性の特徴運動コード(すなわち、i番目の1
つめの手領域運動コードCh[1][i]、およびi番
目の2つめの手領域運動コードCh[2][i])が、
図28の条件(番号1〜10のいずれかの条件)に一致
するか否かを判定し、一致する場合、非セグメント特徴
コードに1をセットする。一致しない場合、非セグメン
ト特徴コードに0をセットする。その後、手話動作セグ
メンテーション装置は、ステップ2403に進む。以上
の手順により、セグメント要素に加えて、非セグメント
要素(右手と左手の動作の対称性)をも検出して、それ
らに基づいてセグメンテーションを行うような手話動作
セグメンテーション方法が実現できる。
て、非セグメント要素(右手と左手の動作の対称性)を
も検出して、それらに基づいてセグメンテーションを行
うような手話動作セグメンテーション方法では、右手と
左手の動作の対称性を検出する際に、手話者の動作が平
面的に捉えられおり、従って、検出可能な右手と左手の
動作の対称性は、2次元的なものに限られる。そこで、
次に、手話者の動作を立体的に捉えて、右手と左手の動
作の3次元的な対称性を検出する方法を説明する。
台のテレビカメラを含み、3次元画像を入力する。それ
によって、手話者の動作が立体的に捉えられる。この場
合も、図22の装置の処理動作は、図23および24と
基本的には同様であるが、以下の点が変更される。すな
わち、図23のステップS403において、身体特徴抽
出部302は、2台のテレビカメラによる3次元入力画
像から、身体特徴、ここでは手領域の画像を抽出する。
3次元画像から手領域を抽出するには、2次元画像から
手領域を抽出する場合と同様、RGB色情報をもとに肌
色領域を抽出すればよい。ただしこの場合、RGB色情
報には、例えば、3次元画像を構成する各画素のRGB
色情報が、3次元座標の関数として記述される。その
他、「ファジイパターン照合を用いた色彩画像からの顔
検出システム」(呉,陳,谷内田;電子情報通信学会論
文誌 D−II Vol.J80−D−II No.7
pp.1774〜1785,1997.7)に記載さ
れている方法を用いてもよい。
2は、i番目の1つめの手領域の3次元座標h[1]
[i]、およびi番目の2つめの手領域の3次元座標h
[2][i]を求める。2台のテレビカメラによる3次
元画像から抽出された手領域の3次元位置座標を求める
には、一方のテレビカメラによる2次元画像と、他方の
テレビカメラによる2次元画像との間に生じる視差を利
用すればよい。
のように変更する。 [ステップS2402c]2台のテレビカメラのうちの
一方、たとえば左側のテレビカメラの画像から算出した
手領域の情報を使って、ステップS2402bと同様の
処理が行われる。ただし、特徴運動追跡部303は、i
番目の1つめの手領域の3次元移動ベクトルVth
[1][i]、i番目の2つめの手領域の3次元移動ベ
クトルVth[2][i]を求める際、〈式13〉を使
って求める。
動作セグメンテーション装置は、ステップS2403に
進む。以上の手順で、右手と左手との動作の3次元的な
対称性を検出することができる。
非セグメント要素(右手と左手の動作の対称性)をも検
出して、それらに基づいてセグメンテーションを行うよ
うな手話動作セグメンテーション方法において、右手と
左手との動作の対称性の変化をどのようにして検出する
かを説明する。
変化を捉えることにより検出することができる。ここ
で、動作面とは、動作の軌跡を含むような面をいう。例
えば、手の動作面は、手動作の軌跡を含むような面であ
る。そして、左手および右手の少なくとも一方の動作面
が変化した場合、動作の対称性の変化が生じたとみな
す。
作面の法線ベクトルの変化を検出すればよい。そこで、
次に、動作面が変化したことを、動作面の法線ベクトル
の変化によって検出する方法を説明する。動作面が変化
したことを、動作面の法線ベクトルの変化によって検出
する場合、上記のステップS2402を、次のように変
更する。
303は、〈式14〉を使って、i番目の1つめの手領
域の3次元移動ベクトルVth[1][i]と、i−1
番目の1つめの手領域の3次元移動ベクトルVth
[1][i−1]とから、i番目の1つめの手領域運動
面の法線ベクトルVch[1][i]を求め、i番目の
2つめの手領域の3次元移動ベクトルVth[2]
[i]と、i−1番目の2つめの手領域の3次元移動ベ
クトルVth[2][i−1]とから、i番目の2つめ
の手領域運動面の法線ベクトルVch[2][i]を求
める。
めの手領域運動面の法線ベクトルVch[1][i]
と、i−1番目の1つめの手領域運動面の法線ベクトル
Vch[1][i−1]とから、i番目の1つめの手領
域運動余弦CosΘh[1][i]を求め、i番目の2
つめの手領域運動面の法線ベクトルVch[2][i]
と、i−1番目の2つめの手領域運動面の法線ベクトル
Vch[2][i−1]とから、i番目の2つめの手領
域運動余弦CosΘh[2][i]を求める。
h[1][i]、およびi番目の2つめの手領域運動余
弦CosΘh[2][i]が、〈式16〉の条件の少な
くとも一方を満たさない場合、非セグメント特徴コード
に0をセットする。ここで、α_vcは、法線方向変化
閾値であり、例えば、0.1がセットされる。
S2403に進む。以上の手順により、動作面が変化し
たことを、動作面の法線ベクトルの変化によって検出す
ることができる。
るのに、動作コードベクトルを用いる方法がある。そこ
で、次に、動作面が変化したことを、動作コードベクト
ルを用いて検出する方法を説明する。動作面が変化した
ことを、動作コードベクトルを用いて検出する場合、上
記のステップS2402を、次のように変更する。
303は、i番目の1つめの3次元座標h1[i]と、
i−1番目の1つめの3次元座標位置h1[i−1]と
から、i番目の1つめの手領域3次元運動コードCod
e_h1[i]を求める。i番目の2つめの3次元座標
h2[i]と、i−1番目の2つめの3次元座標位置h
2[i−1]とから、i番目の2つめの手領域3次元運
動コードCode_h2[i]を求める。
例えば、「動作認識装置」(特開平7−282235号
公報)に記載されている。この方法では、手領域の運動
が、0から26の27個のコードによって表現される。
これら27個のコードは、それぞれ互いに異なる方向を
持つ3次元ベクトルと対応している。一方、非セグメン
ト要素記憶部2201には、予め、同一動作面テーブル
が記憶されている。
1に記憶される同一動作面テーブルの一例を示す図であ
る。図29において、同一動作面テーブルには、9個の
同一動作面(動作面番号「1」〜「9」)が記載されて
いる。各同一動作面は、上記27個のコードと同様のコ
ードを用いて表現されている。特徴運動追跡部303
は、i番目の1つめの3次元座標h1[i]に基づい
て、図29のテーブルから、i番目の1つめの手領域が
含まれる動作面番号と、i番目の2つめの手領域が含ま
れる動作面番号とを抽出する。
ane1に何も設定されていない場合、抽出した1つめ
の手領域の動作面番号を全て、1つめの手領域動作面候
補Move_plane1にセットし、また、抽出した
2つめの手領域の動作面番号を全て、2つめの手領域動
作面候補Move_plane2にセットする。その
後、手話動作セグメンテーション装置は、ステップS2
403に進む。
1つめの手領域の動作面番号の中に、Move_pla
ne1に設定されている動作面番号と一致するものがあ
るか否か、および、抽出した2つめの手領域の動作面番
号の中に、Move_plane2に設定されている動
作面番号と一致するものがあるか否かを判定する。
作面番号の中に、Move_plane1に設定されて
いる動作面番号と一致するものがない場合、もしくは、
抽出した2つめの手領域の動作面番号の中に、Move
_plane2に設定されている動作面番号と一致する
ものがない場合、特徴運動追跡部303は、Move_
plane1に設定されている動作面番号を全て削除
し、また、Move_plane2に設定されている動
作面番号を全て削除し、さらに、非セグメント特徴コー
ドに0をセットする。その後、手話動作セグメンテーシ
ョン装置は、ステップS2403に進む。
号の中に、Move_plane1に設定されている動
作面番号と一致するものがある場合、1つめの手領域の
動作面番号のうち一致する番号のみをMove_pla
ne1に設定し、一致しない番号をMove_plan
e1から削除する。また、抽出した2つめの手領域の動
作面番号の中に、Move_plane1に設定されて
いる動作面番号と一致するものがある場合、2つめの手
領域動作面候補Move_plane2に、1つ以上の
動作面番号が設定されていれば、2つめの手領域の動作
面番号のうち一致する番号のみを、Move_plan
e2に設定し、一致しない番号を、Move_plan
e2から削除する。その後、手話動作セグメンテーショ
ン装置は、ステップS2403に進む。以上の手順によ
り、動作面が変化したことを、動作コードベクトルを用
いて検出することができる。
たは図22の手話動作セグメンテーション装置とに付随
して設けられ、アニメーション画面を通じ、手話動作セ
グメンテーション装置がセグメンテーションを行いやす
いような遷移動作を行わせるよう利用者を誘導するセグ
メント要素誘導装置について説明する。 (第4の実施形態)図30は、本発明の第4の実施形態
に係るセグメント要素誘導装置の構成を示すブロック図
である。図30のセグメント要素誘導装置は、図示しな
い手話認識装置と、図3または図22の手話動作セグメ
ンテーション装置とに付随して設けられる。図30にお
いて、セグメント要素誘導装置は、認識結果入力部30
01、セグメント結果入力部3002、誘導制御情報生
成部3003、出力部3004および誘導規則記憶部3
005を備えている。
認識装置から、現在の認識状況情報が認識結果入力部3
001に入力される。セグメント結果入力部3002に
接続された手話動作セグメンテーション装置から、現在
のセグメント状況情報がセグメント結果入力部3002
に入力される。
識状況情報を、誘導制御情報生成部3003に送る。セ
グメント結果入力部3002は、入力されたセグメント
状況情報を、誘導制御生成部3003に送る。誘導制御
情報生成部3003は、認識状況情報とセグメント状況
情報とをもとに、誘導規則記憶部3005に記憶された
誘導規則を使って誘導制御情報を生成し、出力部300
4に送る。出力部3004は、出力部3004に接続さ
れた手話アニメーション装置等(図示せず)に、誘導制
御情報を出力する。
要素誘導装置の処理について説明する。図31は、図3
0のセグメント要素誘導装置の処理の流れを示すフロー
チャートである。図31の各ステップでは、それぞれ以
下のような処理が行われる。 [ステップS3101]認識結果入力部3001は、認
識結果入力部3001に接続された手話認識装置から入
力される認識状況情報をチェックする。図32は、認識
結果入力部3001に入力される認識状況情報の一例を
示す図である。図32において、認識状況情報は、フレ
ーム番号3201、および状況フラグ3202を含む。
フレーム番号3201には、カレントフレーム、つまり
手話認識装置が認識状況情報作成時に処理中のフレーム
のフレーム番号がセットされる。状況フラグ3202に
は、認識に成功していれば「0」、失敗していれば
「1」がセットされる。認識状況情報が入力されると、
認識結果入力部3001は、その認識状況情報を誘導制
御情報生成部3003に送る。その後、セグメント要素
誘導装置は、ステップS3102に進む。
力部3002は、手話動作セグメンテーション装置から
入力されたセグメント状況情報をチェックする。図33
は、セグメント結果入力部3002に入力されるセグメ
ント状況情報の一例を示す図である。図33において、
セグメント状況情報は、フレーム番号3301、および
未セグメントフレーム数3302を含む。フレーム番号
3301には、カレントフレーム、つまり手話動作セグ
メンテーション装置がセグメント状況情報作成時に処理
中のフレームのフレーム番号がセットされる。未セグメ
ントフレーム数3302には、最後にセグメント対象と
なったフレームから、カレントフレームまでのフレーム
数がセットされる。セグメント状況情報が入力される
と、セグメント結果入力部3002は、そのセグメント
情報を誘導制御情報生成部3003に送る。その後、セ
グメント要素誘導装置は、ステップS3103に進む。
部3003は、誘導規則記憶部3005に記憶されてい
る誘導規則を使って、誘導制御情報を作成する。図34
は、誘導制御情報生成部3003が作成する誘導制御情
報の一例を示す図である。図34において、誘導制御情
報は、制御部位数3401、制御部位3402、および
制御動作3403を含む。制御部位数3401には、C
Gキャラクタ(アニメーション)において、制御対象と
なる部位の数がセットされる。制御部位3402には、
CGキャラクタにおいて、制御対象となる部位がセット
される。制御動作3403には、制御対象となる部位の
動作がセットされる。なお、制御部位3402、および
制御動作3403については、制御部位数3401にセ
ットされた部位数に等しい回数、続けてセットが行われ
る。
在入力されている認識状況情報およびセグメント状況情
報に応じて、誘導規則記憶部3005から誘導規則を抽
出する。図35は、誘導規則記憶部3005に記憶され
る誘導規則の一例を示す図である。図35において、誘
導規則は、認識状況3501、非セグメントフレーム数
3502、制御部位3503、および制御動作3504
を含む。例えば、図32の認識状況情報と、図33のセ
グメント状況情報とが入力されているとき、認識状況お
よびグメント状況は、図35の認識状況3501および
非セグメントフレーム数3502の第2行目に記載の条
件と一致する。よって、図34の誘導制御情報では、制
御部位数3401に「1」が、制御部位3402に
「頭」が、制御動作3403に「頷き」が、それぞれセ
ットされる。こうして生成された誘導制御情報は、出力
部3004に送られる。その後、セグメント要素誘導装
置は、ステップS3104に進む。
は、誘導制御情報生成部3003から送られてきた誘導
制御情報を、アニメーション生成装置等に出力する。そ
の際、出力部3004は、必要に応じ、誘導制御情報
を、アニメーション生成装置等から要求される形式に変
形する。その後、セグメント要素誘導装置は、ステップ
S3101に進む。以上の手順により、セグメント要素
誘導方法が実現できる。
いて、手話動作の認識率に応じて、アニメーションの速
度を変化させる場合を説明する。すなわち、手話認識装
置の手話動作認識率を、セグメント要素誘導装置側に与
える。セグメント要素誘導装置には、手話動作認識率が
悪い場合、提示するアニメーションの速度を下げ、それ
によって、遷移動作をゆっくり行うよう、手話者を誘導
するためのアニメーション速度調整装置を設ける。
置に設けられるアニメーション速度調整装置の構成を示
すブロック図である。図36において、アニメーション
速度調整装置は、認識結果入力部3601と、セグメン
ト結果入力部3602と、速度調整情報生成部3603
と、速度調整規則記憶部3604と、出力部3605と
を備えている。認識結果入力部3601へは、図示しな
い手話認識装置からの認識結果情報が入力される。セグ
メント結果入力部3602へは、図3または図22の手
話動作セグメンテーション装置からのセグメンテーショ
ン結果情報が入力される。速度調整規則記憶部3604
には、予め、速度調整規則が記憶されている。速度調整
情報生成部3603は、速度調整規則を参照しつつ、少
なくとも認識結果情報、好ましくは、識結果情報および
セグメンテーション結果情報に基づいて、アニメーショ
ンの速度を制御するための制御情報(アニメーション速
度調整情報)を生成する。なお、ここでは、速度調整情
報生成部3603は、認識結果情報に基づいてアニメー
ション速度調整情報を生成する場合を説明する。
度調整装置が設けられたセグメント要素誘導装置では、
図31と同様の処理が行われる。ただし、以下の点が異
なる。図31のステップS3103を、次のように変更
する。 [ステップS3103a]速度調整情報生成部3603
は、誤認識フラグflag_recに何も設定されてい
ない場合、0を設定する。認識結果情報に含まれる状況
フラグが1の場合、誤認識フラグflag_recに1
を加える。状況フラグが0で、誤認識フラグflag_
rec>0の場合、誤認識フラグflag_recから
1を引く。
記憶される速度調整規則の一例を示す図である。図37
において、速度調整規則は、速度調整量3701と、条
件3702とを含む。条件3702は、速度調整量を決
めるための条件である。条件3702中のd_spd
は、速度調整パラメータであり、例えば、50がセット
される。速度調整情報生成部3603は、速度調整規則
記憶部3604に記憶されている速度調整規則を参照し
つつ、誤認識フラグflag_recに応じた速度調整
量d_spdを求める。こうして求められた速度調整量
は、出力部3605に送られる。なお、上記以外の処理
は、ステップS3103と同様であり、省略する。
変更する。 [ステップS3104a]出力部3605は、速度調整
量d_spdを、図示しないアニメーション生成装置に
送る。アニメーション生成装置は、デフォルトのアニメ
ーション速度Spd_defから、速度調整量d_sp
dの分だけ、アニメーションの速度が遅くなるよう調整
する。以上の手順により、手話動作認識率が悪い場合
に、提示するアニメーションの速度を下げ、それによっ
て、遷移動作をゆっくり行うよう、手話者を誘導するこ
とができる。
22参照;なお、図36のアニメーション速度調整装置
は、設けられていてもいなくてもよい)において、手話
者からテレビカメラが見えないように、テレビカメラ隠
蔽部を設けた場合を説明する。なお、テレビカメラが露
出していると、手話者がテレビカメラを意識して緊張
し、手話動作がぎこちなくなることがある。その結果、
セグメンテーションが正しく行われず、手話認識装置の
認識率が悪くなることがある。
置に設けられるテレビカメラ隠蔽部の構成の一例を示す
模式図である。図38において、テレビカメラ3802
は、手話者3801と対向して設置され、モニタ380
3は、テレビカメラ3802と手話者3801とを結ぶ
直線の鉛直下方に、鉛直上方を向いて設置される。テレ
ビカメラ隠蔽部は、順方向からの光を透過させ、かつ逆
方向からの光を反射するようなハーフミラー3804を
備え、このハーフミラー3804を、手話者3801と
テレビカメラ3802とを結ぶ直線上であって、かつモ
ニタ3803の鉛直上方の位置に、その直線に対して4
5度となるような角度で設置することによって実現され
る。
ーフミラー3804で反射されて手話者3801に到達
するので、手話者3801は、モニタ3803(に表示
されるアニメーション)を見ることができる。一方、手
話者3801からテレビカメラ3802へ向かう光は、
ハーフミラー3804を透過するが、テレビカメラ38
02から手話者3801へ向かう光は、ハーフミラーで
反射される。よって、テレビカメラ3802で手話者3
801を撮影できるにもかかわらず、撮影の際、手話者
3801からは、テレビカメラ3802が見えない。こ
のようなテレビカメラ隠蔽部を設けることにより、手話
者からテレビカメラが見えないようにすることができ
る。
を用いた手動作認識方法を示すフローチャートである。
の一例を示すブロック図である。
ンテーション装置の構成を示すブロック図である。
の流れの一例を示すフローチャートである。
一例を示す図である。
メント要素データの一例を示す図である。
領域の一例を示す図である。
一例を示す図である。
するための、顔による特徴運動決定条件を示す図であ
る。
メータの一例を示す図である。
コードデータの一例を示す図である。
の肌色領域の一例を示す図である。
領域情報の一例を示す図である。
定するための、目による特徴運動決定条件を示す図であ
る。
の一例を示す図である。
定するための、口による特徴運動決定条件を示す図であ
る。
の一例を示す図である。
定するための、胴体と手領域とによる特徴運動決定条件
を示す図である。
定するための、手と顔との接触動作による特徴運動決定
条件を示す図である。
定するための、手の有効性変化による特徴運動決定条件
を示す図である。
ション方法(図4参照)において、検出した動作の継続
時間を考慮してセグメンテーションを行う場合の処理の
流れを示すフローチャートである。
メンテーション装置の構成を示すブロック図である。
処理の流れの一例を示すフローチャートである。
処理の流れの一例を示すフローチャートである。
ている非セグメント要素データの一例を示す図である。
る非セグメント動き特徴パラメータの一例を示す図であ
る。
定するための、手話動作の対称性による非セグメント特
徴運動決定条件である。
る、手話動作の対称性による非セグメントコード決定条
件の一例を示す図である。
る同一動作面テーブルの一例を示す図である。
素誘導装置の構成を示すブロック図である(図示しない
手話認識装置と、図3または図22の手話動作セグメン
テーション装置とに付随して設けられる)。
れを示すフローチャートである。
況情報の一例を示す図である。
セグメント状況情報の一例を示す図である。
制御情報の一例を示す図である。
則の一例を示す図である。
るアニメーション速度調整装置の構成を示すブロック図
である。
度調整規則の一例を示す図である。
るテレビカメラ隠蔽部の構成の一例を示す模式図であ
る。
Claims (27)
- 【請求項1】 利用者が行う手動作を認識する際に当該
手動作を単語単位または複数の単語からなる有意味単位
に自動的に分節するための方法であって、 利用者の身体に、一つの単語を示す動作の途中には現れ
ず、ある単語を示す動作から別の単語を示す動作へと遷
移する際に現れる遷移動作の特徴を記述した遷移特徴デ
ータを予め記憶するステップと、 利用者を撮影して、その画像データを記憶するステップ
と、 前記画像データから、前記遷移動作の現れる身体部位と
対応する画像を抽出するステップと、 前記遷移動作の現れる身体部位と対応する画像の動きを
検出するステップと、 前記遷移動作の現れる身体部位と対応する画像の動きを
前記遷移特徴データと比較して、前記遷移動作が現れた
時間位置を求めることにより、前記手動作を分節するス
テップとを備える、手動作分節方法。 - 【請求項2】 前記遷移動作は、瞬きを含むことを特徴
とする、請求項1に記載の手動作分節方法。 - 【請求項3】 前記遷移動作は、頷きを含むことを特徴
とする、請求項1に記載の手動作分節方法。 - 【請求項4】 前記遷移動作は、閉口を含むことを特徴
とする、請求項1に記載の手動作分節方法。 - 【請求項5】 前記遷移動作は、手静止を含むことを特
徴とする、請求項1に記載の手動作分節方法。 - 【請求項6】 前記遷移動作は、胴体静止を含むことを
特徴とする、請求項1に記載の手動作分節方法。 - 【請求項7】 前記遷移動作は、手と顔との接触を含む
ことを特徴とする、請求項1に記載の手動作分節方法。 - 【請求項8】 利用者の身体を取り巻く空間内に、手が
その内部に存在する場合は有効な手動作が行われていな
いと見なされるような死手領域を設定するステップをさ
らに備え、 前記遷移動作は、前記死手領域への手の出入を含むこと
を特徴とする、請求項1に記載の手動作分節方法。 - 【請求項9】 前記手動作を分節するステップでは、前
記遷移動作の継続時間を計測して、当該継続時間に関連
して分節を行うことを特徴とする、請求項1に記載の手
動作分節方法。 - 【請求項10】 利用者の身体に、ある単語を示す動作
から別の単語を示す動作への遷移時には現れず、一つの
単語を示す動作の途中に現れる非遷移動作の特徴を記述
した非遷移特徴データを予め記憶するステップと、 前記画像データから、前記非遷移動作の現れる身体部位
と対応する画像を抽出するステップと、 前記非遷移動作の現れる身体部位と対応する画像の動き
を検出するステップと、 前記非遷移動作の現れる身体部位と対応する画像の動き
を前記非遷移特徴データと比較して、前記非遷移動作が
現れた時間位置を求めるステップとをさらに備え、 前記手動作を分節するステップでは、前記非遷移動作が
現れた時間位置においては分節を行わないことを特徴と
する、請求項1に記載の手動作分節方法。 - 【請求項11】 前記非遷移動作は、右手と左手との距
離が予め決められた値以下に接近する両手接近を含むこ
とを特徴とする、請求項10に記載の手動作分節方法。 - 【請求項12】 前記非遷移動作は、口形変化を含むこ
とを特徴とする、請求項10に記載の手動作分節方法。 - 【請求項13】 前記非遷移動作は、右手と左手とを互
いに対称的に動かす対称動作を含むことを特徴とする、
請求項10に記載の手動作分節方法。 - 【請求項14】 前記利用者を撮影して、その画像デー
タを記憶するステップでは、当該利用者を立体的に撮影
して、その3次元画像データを記憶し、 前記画像データから、前記非遷移動作の現れる身体部位
と対応する画像を抽出するステップでは、前記3次元画
像データから、前記非遷移動作の現れる身体部位と対応
する3次元画像を抽出し、 前記非遷移動作の現れる身体部位と対応する画像の動き
を検出するステップでは、前記3次元画像の動きを検出
し、 前記非遷移動作が現れた時間位置を求めるステップで
は、 前記3次元画像の動きに基づいて、右手の動作面および
左手の動作面の変化を検出し、 右手の動作面および左手の動作面がどちらも変化しない
場合、当該非遷移動作が現れたと判定して、その時間位
置を求めることを特徴とする、請求項13に記載の手動
作分節方法。 - 【請求項15】 前記非遷移動作が現れた時間位置を求
めるステップでは、右手の動作面および左手の動作面の
変化を、それら動作面の法線ベクトルの変化に基づいて
検出することを特徴とする、請求項14に記載の手動作
分節方法。 - 【請求項16】 それぞれ互いに異なる方向を持つ3次
元ベクトルと対応する複数の3次元動作コードに関し、
1つの面内に含まれるような3次元動作コードの組み合
わせを記載した単一動作面テーブルを、予め作成するス
テップと、 前記3次元画像の動きを、前記複数の3次元動作コード
で表現された3次元動作コード列に変換するステップと
をさらに備え、 前記非遷移動作が現れた時間位置を求めるステップで
は、右手の動作面および左手の動作面の変化を、前記同
一動作面テーブルに基づいて検出することを特徴とす
る、請求項14に記載の手動作分節方法。 - 【請求項17】 前記遷移動作を示すアニメーションの
画像データを予め記憶するステップと、 前記遷移動作の検出状況および前記手動作の認識状況を
検知するステップと、 前記遷移動作の検出状況および前記手動作の認識状況に
関連して、利用者に対し、前記遷移動作を示すアニメー
ションを視覚的に提示するステップとをさらに備える、
請求項1に記載の手動作分節方法。 - 【請求項18】 前記遷移動作を示すアニメーションを
視覚的に提示するステップでは、当該アニメーションの
速度を、前記手動作の認識状況に応じて変化させること
を特徴とする、請求項17に記載の手動作分節方法。 - 【請求項19】 利用者が行う手動作を認識する際に当
該手動作を単語単位または複数の単語からなる有意味単
位に自動的に分節するための方法を記述した、コンピュ
ータ装置において実行されるプログラムを記録した記録
媒体であって、 利用者の身体に、一つの単語を示す動作の途中には現れ
ず、ある単語を示す動作から別の単語を示す動作へと遷
移する際に現れる遷移動作の特徴を記述した遷移特徴デ
ータを予め記憶するステップと、 利用者を撮影して、その画像データを記憶するステップ
と、 前記画像データから、前記遷移動作の現れる身体部位と
対応する画像を抽出するステップと、 前記遷移動作の現れる身体部位と対応する画像の動きを
検出するステップと、 前記遷移動作の現れる身体部位と対応する画像の動きを
前記遷移特徴データと比較して、前記遷移動作が現れた
時間位置を求めることにより、前記手動作を分節するス
テップとを備える動作環境を、前記コンピュータ装置上
で実現するためのプログラムを記録した、記録媒体。 - 【請求項20】 利用者の身体に、ある単語を示す動作
から別の単語を示す動作への遷移時には現れず、一つの
単語を示す動作の途中に現れる非遷移動作の特徴を記述
した非遷移特徴データを予め記憶するステップと、 前記画像データから、前記非遷移動作の現れる身体部位
と対応する画像を抽出するステップと、 前記非遷移動作の現れる身体部位と対応する画像の動き
を検出するステップと、 前記非遷移動作の現れる身体部位と対応する画像の動き
を前記非遷移特徴データと比較して、前記非遷移動作が
現れた時間位置を求めるステップとをさらに備え、 前記手動作を分節するステップでは、前記非遷移動作が
現れた時間位置においては分節を行わないことを特徴と
する動作環境を、前記コンピュータ装置上で実現するた
めのプログラムを記録した、請求項19に記載の記録媒
体。 - 【請求項21】 前記遷移動作を示すアニメーションの
画像データを予め記憶するステップと、 前記遷移動作の検出状況および前記手動作の認識状況を
検知するステップと、 前記遷移動作の検出状況および前記手動作の認識状況に
関連して、利用者に対し、前記遷移動作を示すアニメー
ションを視覚的に提示するステップとをさらに備える動
作環境を、前記コンピュータ装置上で実現するためのプ
ログラムを記録した、請求項19に記載の記録媒体。 - 【請求項22】 利用者が行う手動作を認識する際に当
該手動作を単語単位または複数の単語からなる有意味単
位に自動的に分節するための手動作分節装置であって、 利用者の身体に、一つの単語を示す動作の途中には現れ
ず、ある単語を示す動作から別の単語を示す動作へと遷
移する際に現れる遷移動作の特徴を記述した遷移特徴デ
ータを記憶する手段と、 利用者を撮影して、その画像データを記憶する手段と、 前記画像データから、前記遷移動作の現れる身体部位と
対応する画像を抽出する手段と、 前記遷移動作の現れる身体部位と対応する画像の動きを
検出する手段と、 前記遷移動作の現れる身体部位と対応する画像の動きを
前記遷移特徴データと比較して、前記遷移動作が現れた
時間位置を求めることにより、前記手動作を分節する手
段とを備える、手動作分節装置。 - 【請求項23】 利用者の身体に、ある単語を示す動作
から別の単語を示す動作への遷移時には現れず、一つの
単語を示す動作の途中に現れる非遷移動作の特徴を記述
した非遷移特徴データを予め記憶する手段と、 前記画像データから、前記非遷移動作の現れる身体部位
と対応する画像を抽出する手段と、 前記非遷移動作の現れる身体部位と対応する画像の動き
を検出する手段と、 前記非遷移動作の現れる身体部位と対応する画像の動き
を前記非遷移特徴データと比較して、前記非遷移動作が
現れた時間位置を求める手段とをさらに備え、 前記手動作を分節する手段は、前記非遷移動作が現れた
時間位置においては分節を行わないことを特徴とする、
請求項22に記載の手動作分節装置。 - 【請求項24】 利用者が行う手動作を認識する手動作
認識装置、および当該手動作を単語単位または複数の単
語からなる有意味単位に自動的に分節するための手動作
分節装置に付随して設けられ、利用者を視覚的に誘導し
て当該利用者に所定の動作を行わせるための動作誘導装
置であって、 前記手動作分節装置は、利用者の身体に、一つの単語を
示す動作の途中には現れず、ある単語を示す動作から別
の単語を示す動作へと遷移する際に現れる遷移動作を検
出して分節を行う機能を有しており、 前記遷移動作を示すアニメーションの画像データを予め
記憶する手段と、 前記手動作分節装置および前記手動作認識装置を監視し
て、前記遷移動作の検出状況および前記手動作の認識状
況を検知する手段と、 前記遷移動作の検出状況および前記手動作の認識状況に
関連して、利用者に対し、前記遷移動作を示すアニメー
ションを視覚的に提示する手段とを備える、動作誘導装
置。 - 【請求項25】 前記遷移動作を示すアニメーションを
視覚的に提示する手段は、当該アニメーションの速度
を、前記手動作の認識状況に応じて変化させる手段を含
む、請求項24に記載の手動作分節装置。 - 【請求項26】 利用者が行う手動作を認識する際に当
該手動作を単語単位または複数の単語からなる有意味単
位に自動的に分節するための手動作分節装置であって、 利用者の身体に、一つの単語を示す動作の途中には現れ
ず、ある単語を示す動作から別の単語を示す動作へと遷
移する際に現れる遷移動作の特徴を記述した遷移特徴デ
ータを記憶する手段と、 利用者に対向して設置されるテレビカメラを含み、当該
テレビカメラで当該利用者を撮影して、その画像データ
を記憶する手段と、 前記画像データから、前記遷移動作の現れる身体部位と
対応する画像を抽出する手段と、 前記遷移動作の現れる身体部位と対応する画像の動きを
検出する手段と、 前記遷移動作の現れる身体部位と対応する画像の動きを
前記遷移特徴データと比較して、前記遷移動作が現れた
時間位置を求めることにより、前記手動作を分節する手
段と、 前記遷移動作の検出状況および前記手動作の認識状況に
関連して、利用者に対し、前記遷移動作を示すアニメー
ションを視覚的に提示する手段と、 前記利用者に対して、前記テレビカメラが露見しないよ
う、当該テレビカメラを隠蔽する手段とを備える、手動
作分節装置。 - 【請求項27】 前記遷移動作を示すアニメーションを
視覚的に提示する手段は、前記利用者と前記テレビカメ
ラとを結ぶ直線の鉛直下方に、鉛直上方を向いて設置さ
れるモニタを含み、 前記テレビカメラを隠蔽する手段は、順方向からの光を
透過させ、かつ逆方向からの光を反射するようなハーフ
ミラーを含み、 前記ハーフミラーは、前記利用者と前記テレビカメラと
を結ぶ直線上であって、かつ前記モニタの鉛直上方の位
置に、当該直線に対して45度となるような角度で設置
されることを特徴とする、請求項26に記載の手動作分
節装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27112299A JP4565200B2 (ja) | 1998-09-28 | 1999-09-24 | 手動作分節方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10-273966 | 1998-09-28 | ||
JP27396698 | 1998-09-28 | ||
JP27112299A JP4565200B2 (ja) | 1998-09-28 | 1999-09-24 | 手動作分節方法および装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000172163A true JP2000172163A (ja) | 2000-06-23 |
JP2000172163A5 JP2000172163A5 (ja) | 2006-10-12 |
JP4565200B2 JP4565200B2 (ja) | 2010-10-20 |
Family
ID=26549546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27112299A Expired - Fee Related JP4565200B2 (ja) | 1998-09-28 | 1999-09-24 | 手動作分節方法および装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4565200B2 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005310068A (ja) * | 2004-04-26 | 2005-11-04 | Noritsu Koki Co Ltd | 白目補正方法及びこの方法を実施する装置 |
JP2006155563A (ja) * | 2004-11-05 | 2006-06-15 | Fuji Xerox Co Ltd | 動作分析装置 |
JP2006301906A (ja) * | 2005-04-20 | 2006-11-02 | Nec Corp | カメラ付携帯電話端末、カメラ付携帯電話端末操作方法、及びカメラ付携帯電話端末操作プログラム |
JP2007310914A (ja) * | 2007-08-31 | 2007-11-29 | Nippon Telegr & Teleph Corp <Ntt> | マウス代替方法、マウス代替プログラム、および記録媒体 |
KR100817298B1 (ko) | 2005-12-08 | 2008-03-27 | 한국전자통신연구원 | 양손 검출 및 추적 방법 |
JP2011525283A (ja) * | 2008-06-18 | 2011-09-15 | オブロング・インダストリーズ・インコーポレーテッド | 車両インターフェース用ジェスチャ基準制御システム |
JP2011186576A (ja) * | 2010-03-05 | 2011-09-22 | Nec Corp | 動作認識装置 |
JP2013003647A (ja) * | 2011-06-13 | 2013-01-07 | Sony Corp | 情報処理装置及びプログラム |
WO2015046500A1 (ja) * | 2013-09-30 | 2015-04-02 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
JP2015075750A (ja) * | 2013-10-11 | 2015-04-20 | 株式会社Nttドコモ | 画像認識装置および画像認識方法 |
CN104616028A (zh) * | 2014-10-14 | 2015-05-13 | 北京中科盘古科技发展有限公司 | 基于空间分割学习的人体肢体姿势动作识别方法 |
JP2015125766A (ja) * | 2013-12-27 | 2015-07-06 | 株式会社Nttドコモ | 画像認識装置、及び画像認識方法 |
WO2016017101A1 (ja) * | 2014-07-30 | 2016-02-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
1999
- 1999-09-24 JP JP27112299A patent/JP4565200B2/ja not_active Expired - Fee Related
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005310068A (ja) * | 2004-04-26 | 2005-11-04 | Noritsu Koki Co Ltd | 白目補正方法及びこの方法を実施する装置 |
JP2006155563A (ja) * | 2004-11-05 | 2006-06-15 | Fuji Xerox Co Ltd | 動作分析装置 |
JP2006301906A (ja) * | 2005-04-20 | 2006-11-02 | Nec Corp | カメラ付携帯電話端末、カメラ付携帯電話端末操作方法、及びカメラ付携帯電話端末操作プログラム |
KR100817298B1 (ko) | 2005-12-08 | 2008-03-27 | 한국전자통신연구원 | 양손 검출 및 추적 방법 |
JP2007310914A (ja) * | 2007-08-31 | 2007-11-29 | Nippon Telegr & Teleph Corp <Ntt> | マウス代替方法、マウス代替プログラム、および記録媒体 |
JP2011525283A (ja) * | 2008-06-18 | 2011-09-15 | オブロング・インダストリーズ・インコーポレーテッド | 車両インターフェース用ジェスチャ基準制御システム |
JP2011186576A (ja) * | 2010-03-05 | 2011-09-22 | Nec Corp | 動作認識装置 |
JP2013003647A (ja) * | 2011-06-13 | 2013-01-07 | Sony Corp | 情報処理装置及びプログラム |
US9182816B2 (en) | 2011-06-13 | 2015-11-10 | Sony Corporation | Information processing apparatus and program |
US9933850B2 (en) | 2011-06-13 | 2018-04-03 | Sony Corporation | Information processing apparatus and program |
WO2015046500A1 (ja) * | 2013-09-30 | 2015-04-02 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
US9996740B2 (en) | 2013-09-30 | 2018-06-12 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, program, and information storage medium |
JPWO2015046500A1 (ja) * | 2013-09-30 | 2017-03-09 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
JP2015075750A (ja) * | 2013-10-11 | 2015-04-20 | 株式会社Nttドコモ | 画像認識装置および画像認識方法 |
JP2015125766A (ja) * | 2013-12-27 | 2015-07-06 | 株式会社Nttドコモ | 画像認識装置、及び画像認識方法 |
JPWO2016017101A1 (ja) * | 2014-07-30 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2016017101A1 (ja) * | 2014-07-30 | 2016-02-04 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10346992B2 (en) | 2014-07-30 | 2019-07-09 | Sony Corporation | Information processing apparatus, information processing method, and program |
CN104616028B (zh) * | 2014-10-14 | 2017-12-12 | 北京中科盘古科技发展有限公司 | 基于空间分割学习的人体肢体姿势动作识别方法 |
CN104616028A (zh) * | 2014-10-14 | 2015-05-13 | 北京中科盘古科技发展有限公司 | 基于空间分割学习的人体肢体姿势动作识别方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4565200B2 (ja) | 2010-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0991011B1 (en) | Method and device for segmenting hand gestures | |
US10186057B2 (en) | Data input device, data input method, and non-transitory computer readable recording medium storing data input program | |
US9778748B2 (en) | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program | |
JP4481663B2 (ja) | 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム | |
CN110531853B (zh) | 一种基于人眼注视点检测的电子书阅读器控制方法及系统 | |
JP2000172163A (ja) | 手動作分節方法および装置 | |
CN108198159A (zh) | 一种图像处理方法、移动终端以及计算机可读存储介质 | |
JP4206053B2 (ja) | ユーザインタフェース装置およびユーザインタフェースプログラム | |
JP5964603B2 (ja) | データ入力装置、及び表示装置 | |
CN105912126A (zh) | 一种手势运动映射到界面的增益自适应调整方法 | |
Yousefi et al. | 3D gesture-based interaction for immersive experience in mobile VR | |
CN107329564B (zh) | 基于手势智能感知和人机协同机制的人机猜拳方法 | |
JPH11174948A (ja) | 手動作認識装置 | |
JPH0648458B2 (ja) | 情報入力装置 | |
Abdallah et al. | An overview of gesture recognition | |
JP2016186809A (ja) | データ入力装置、データ入力方法、及びデータ入力プログラム | |
Vančo et al. | Gesture identification for system navigation in 3D scene | |
Manresa-Yee et al. | Towards hands-free interfaces based on real-time robust facial gesture recognition | |
JP4221681B2 (ja) | ジェスチャ認識装置 | |
KR100788057B1 (ko) | 바이오 마우스 | |
Krejcar | Handicapped people virtual keyboard controlled by head motion detection | |
JP4030147B2 (ja) | オブジェクト操作装置及びオブジェクト操作方法 | |
CN118553022B (zh) | 一种车辆内手势识别方法、手势控制方法及系统 | |
WO2021095278A1 (ja) | 画像処理方法、画像処理装置、及び画像処理プログラム | |
WO2020138119A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100614 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100709 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130813 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |