JP3122290B2 - ジェスチャ動画像認識方法 - Google Patents

ジェスチャ動画像認識方法

Info

Publication number
JP3122290B2
JP3122290B2 JP05217566A JP21756693A JP3122290B2 JP 3122290 B2 JP3122290 B2 JP 3122290B2 JP 05217566 A JP05217566 A JP 05217566A JP 21756693 A JP21756693 A JP 21756693A JP 3122290 B2 JP3122290 B2 JP 3122290B2
Authority
JP
Japan
Prior art keywords
image
gesture
moving image
feature sequence
standard pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP05217566A
Other languages
English (en)
Other versions
JPH0773289A (ja
Inventor
隆一 岡
進 関
勝彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Sharp Corp
Original Assignee
NEC Corp
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Sharp Corp filed Critical NEC Corp
Priority to JP05217566A priority Critical patent/JP3122290B2/ja
Publication of JPH0773289A publication Critical patent/JPH0773289A/ja
Application granted granted Critical
Publication of JP3122290B2 publication Critical patent/JP3122290B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、撮像された動画像の中
で示される人間の身振り,手振りを認識するためのジェ
スチャ動画像認識方法に関する。
【0002】
【従来の技術】人は多くの情報を視覚を通して獲得し行
動に役立っている。同じような視覚情報処理能力をコン
ピュータに持たせることができたならば、現在人間が行
っている仕事の一部を代行させたり、人にやさしいイン
タフェースを持たせることが可能になる。
【0003】このような機能を実現するため、これまで
様々な種類のビジョン研究がされているが、特に近年で
は動画像を連続した動的プロセスとして捉えた研究が増
えつつある。ボレス(Bolles)は、移動している
観測者が得る動画像を時空間パターンととらえ、そこか
ら対象の位置を抽出するEpipolar−Plane
Image Analysis法を提案している。ペ
ントランド(Pentland)は、人の顔などをCC
Dカメラでとらえ、このとき得られる連続画像をカルマ
ンフィルタに入力し、その数ms後の位置や向きを推測
してリアルタイムにユーザにフィードバックするシステ
ムを提案している。また、入力は画像データではない
が、佐川らはデータグローブから1/30秒毎に得られ
る32次元のデータを連続DPで予め作成してある手話
単語標準パターンと照合し、手話文認識を行った。しか
し、これまで動画像から得られる動き情報の意味を理解
しようとする提案は未だよく知られていない。なお、未
公開ではあるが、本願発明者の提案として特願平4−4
9790号がある。
【0004】
【発明が解決しようとする課題】特願平4−49790
号の提案は動画像の中から画像の特徴を示す1次特徴を
抽出し、次に1次特徴から2次特徴を抽出する。この2
次特徴を動画像中のジェスチャ(身振り,手振り)の認
識処理に用いるというものである。しかしながら特願平
4−349790号に示される方法は、ノイズや変動に
対し頑健な動作モデルを少ないデータから生成できるも
のの、その2次特徴が画像系列から抽出されるエッジ強
度を直接反映したものであるため、被検者の着衣や背景
のテクスチャによる影響を受けやすい。これが特願平4
−349790号の提案による人間の身振り・手振りの
認識率を低下させる一つの要因になっていた。
【0005】加えて、認識対象となる動画像は時間の経
過に応じて画像が変化するため、ジェスチャが動画像の
中に含まれる時間および時刻は一定時間ではなく、不特
定の時間長さ,時刻となる。このような動画像からジェ
スチャのみが含まれる動画像を切り出すためには、動画
像を表示し、人間の眼でジェスチャのみが含まれる動画
像を確認する必要があった。
【0006】そこで、これらの点に鑑みて、本発明の第
1目的は、被検者の着衣や背景が変化してもその影響を
緩和することの可能なジェスチャ動画像認識方法を提供
することにある。
【0007】本発明の第2目的は、人間を介在すること
なく、動画像の中の不特定位置のジェスチャを検出し、
その意味を識別することの可能なジェスチャ動画像認識
方法を提供することにある。
【0008】
【課題を解決するための手段】第1,第2の目的を達成
するために、請求項1の発明は、撮像装置により撮像さ
れた動画像の中の被写体の示すジェスチャ内容を画像処
理装置により識別するジェスチャ動画像認識方法におい
て、前記画像処理装置は、前記動画像の中から、エッジ
情報の形態の前記被写体の特徴系列を抽出し、ジェスチ
ャの内容が判明している前記特徴系列を標準パターンと
して予め用意しておき、前記画像処理装置は前記動画像
から抽出された特徴系列と前記標準パターンの示す特徴
系列とを連続DP法により整合することを特徴とする。
【0009】さらに請求項2の発明は、請求項1の発明
に加えて、前記標準パターンは、前記撮像装置により撮
像された被写体の動画像から前記画像処理装置により生
成されることを特徴とする。
【0010】第1の目的を達成するために、請求項3の
発明は、撮像装置により撮像された動画像の中の被写体
の示すジェスチャ内容を画像処理装置により識別するジ
ェスチャ動画像認識方法において、前記画像処理装置
は,前記動画像の中から、エッジ情報の形態の前記被写
体の特徴系列であって、その特徴系列が画像データの集
合で構成され、該画像データは画像の水平位置、垂直位
置および時刻をパラメータとして有する画像データであ
る特徴系列を抽出し、ジェスチャ内容が判明している前
記特徴系列を標準パターンとして予め用意しておき、前
記画像処理装置は前記動画像から抽出された特徴系列と
前記標準パターンの示す特徴系列とを整合することによ
り前記被写体の示すジェスチャ内容を識別し、前記画像
処理装置はジェスチャ内容の識別に先立って、前記動画
像の中から、エッジ情報の形態の前記被写体の特徴系列
を抽出し、当該抽出された特徴系列に対して、前記画像
データの平滑化処理を行なうことを特徴とする。
【0011】
【作用】請求項1の発明は、動画像の中のエッジ情報、
すなわち輪郭線画像を示す情報を被写体の形状を表す特
徴として抽出するので、輪郭線の中に含まれる被写体の
衣服の色や輪郭線の外の背景の色の相違の影響を受ける
ことがない。また、エッジ情報の抽出により、標準パタ
ーンとの整合の対象となるデータ量が減少するので連続
DPによる整合が可能となる。
【0012】請求項2の発明は、撮像装置により撮像し
た動画像から標準パターンを生成するので、どのような
被写体のジェスチャをも識別することができる。
【0013】請求項3の発明は、輪郭線画像中にエッジ
強度むらがあってもなまし処理によりエッジ情報が平滑
され、明確な輪郭線形状を得ることができる。
【0014】
【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。
【0015】動画像のスポッティング理解系の構成を図
1に示す。本理解系は2種類の処理系から構成される。
一方は標準パターンを作成する処理系である。入力画像
系列から特徴抽出を行い、それを用いて各ジェスチャの
モデルである標準パターンを生成する。この処理はジェ
スチャ認識を行う前に実行する。もう一方はジェスチャ
を認識する処理系である。入力画像系列から特徴抽出を
行い、予め作成してある標準パターンとの距離をスポッ
ティング認識という方法によって計算し認識結果をフレ
ームワイズに出力する。
【0016】動画像から得られる特徴には様々なものが
考えられるが、本手法では水平・垂直・時間方向のエッ
ジ情報を用いる。これは、エッジ特徴をその要素別に分
解して独立な複数のスカラ場を作成し、これを空間的リ
ダクションや時間的平均化することにより、動画像理解
のための分解能とロバスト性のある特徴を得られるから
である。また、特徴抽出は比較的容易で実時間処理にも
適している。
【0017】対象の人間による手振り・身振り等のジェ
スチャはCCDカメラによって画像の時系列として観測
されるため、この画像系列を処理してエッジ特徴画像の
時系列パターン(時空間パターン)を生成することがで
きる。ここでは、 (1)入力画像系列から時空間ベクトル場の抽出 (2)時空間ベクトル場系列に対する空間リダクション
・時間平均化 (3)平均化されたベクトル場のなまし処理 という3つの処理によって特徴ベクトル場を定めること
にする。以下に特徴ベクトル場を得る具体的な手順を示
す。
【0018】今、観測される入力画像系列を
【0019】
【数1】 {f(x,y,t)|0≦x≦L,0≦y≦L,0≦t≦∞} と記す。ここで、x,yは各画像の水平・垂直位置、t
は時刻を示し、f(x,y,t)は時空間点(x,y,
t)での画像の強度を示す。そしてエッジ情報として、
時空間点(x,y,t)での時空間ベクトルV(x,
y,t)を、
【0020】
【数2】
【0021】によって定義する。実際の入力画像系列は
x,y,tが離散的であるので、数2の各ベクトル要素
は、重みの行列を
【0022】
【数3】
【0023】として
【0024】
【数4】
【0025】によって与えることにする。
【0026】そして、数4で定められる時空間ベクトル
場を、特徴量として、よりロバストなものにするために
その要素ごとの空間的リダクションと時間的平均化操作
を行う。空間的リダクションとして、x,y平面の圧縮
によりxおよびy軸上の格子点の数をLからN(≦L)
にする操作を行い、時間的平均化として、時刻t−K+
1から時刻tまでの間のフレームの平均をx,yでの値
にする。さらに、エッジの有無の効果を強く出すため
に、平均化された時空間ベクトルの各成分の値を対数を
とることによってなます。以上の操作は、α,βを整
数、h≡L/N、ω=1,2,3、1≦≦N、1≦m
≦Nとし、ガウス記号[]を用いて、
【0027】
【数5】
【0028】と記述できる。これらの操作によって作ら
れる特徴ベクトル場を
【0029】
【数6】
【0030】と定める。はアルファベットの小文字を
示す。
【0031】標準パターンは人間の手振り・身振りを表
現するモデルであり、始点および終点の定まった特徴ベ
クトル場によって表現される。以下に作成手順を示す。
【0032】まずジェスチャを録画した映像から1つの
意図を表現しているフレームだけを切り出す。そして、
この画像系列を入力とし前に示した処理を施して始点お
よび終点の定まった特徴ベクトル場を得る。しかし、こ
の特徴ベクトル場の初めのK+2の区間では時間軸方向
のエッジの抽出、および空間的平均化操作の性質上適正
な値を得ることができず標準パターンの一部として用い
るのは適当でない。そこで、T+K+2のフレーム数の
入力画像を用いてフレーム数Tのジェスチャの標準パタ
ーンを作成する。基本的に1つのジェスチャには1つの
標準パターンが対応する。
【0033】認識対象となる入力画像系列とあらかじめ
作成されている標準パターンとのマッチング方法を示
す。CCDカメラ等によって得られる入力画像系列は画
像が得られると同時に数6で示される特徴ベクトル場に
変換される。この系列は始点(t=1)はあっても終端
はないものとする。各時刻tを標準パターンの終端と仮
定して、それらの最適対応を時間軸に沿ってとり、これ
を時刻tの識別結果とする。この整合の考え方は音声認
識で用いられているスポッティング整合というものであ
る。このスポッティング整合方式としては連続DPが良
く知られているが、動画像に対してそのまま連続DPを
用いることは問題があり、従来では行われていなかっ
た。そこで、本実施例では動画像の特徴系列を連続DP
の整合対象としたことにより動画像の連続DPの整合を
可能とした。連続DPを特徴画像系列のスポッティング
整合方式として用いると以下のように表現できる。
【0034】入力画像系列から計算される時刻tにおけ
る特徴パターンを
【0035】
【数7】
【0036】とする。また、一つの標準パターンを
【0037】
【数8】Z≡{z(τ) |1≦τ≦T} で表す。ここで、
【0038】
【数9】
【0039】とする。そのとき、u(t)とz(τ)と
の距離d(t,τ)を
【0040】
【数10】
【0041】によって定義する。ここで、ωは注目する
情報によってω∈{1,2,3}、ω∈{1,2}また
はω∈{3}とする。このとき、連続DPは(t,τ)
における累積距離S(t,τ)を以下のように定義す
る。初期条件を、
【0042】
【数11】 S(-1,τ) ≡S(0,τ) ≡∞ (1≦τ≦T) として、t≧1については漸化式、
【0043】
【数12】S(t,1)≡3・d(t,1)
【0044】
【数13】
【0045】
【数14】
【0046】で与える(図2)。ここでτ=Tとおく、
すなわち時刻tに動作が終了したと仮定するとS(t,
T)は標準パターンの区間[1,T]について入力時系
列に最適に整合した時の累積距離を示すが、この値を重
みの和3・Tで正規化したもの
【0047】
【数15】
【0048】を連続DPの出力とする。今、I個の標準
パターンが存在すると、各時刻tにおいて、I個のA
(t)が存在するが、これらをA l (t)、=1,
2,…,Iとしたとき、各時刻における意図を表すカテ
ゴリ番号は
【0049】
【数16】
【0050】として定められる。ここで、Argは引数
を返す関数、h0 は閾値、nullは空のカテゴリを表
す。連続DPの出力は図3に示すようになり、動作の開
始時刻ではなく、動作終了前後において最小となる性質
がある。
【0051】本手法に対する衣服・背景の影響や利用す
るエッジ特徴の有効性を調べるため認識実験を行った。
以下に具体的な手順を示す。
【0052】本実験の機器構成を図4に示す。映像はC
CDカメラを用いて取り込む。映像を記録しておく必要
のある場合は書き込み可能なレーザディスクまたはVT
Rを用いる。計算はIRIS CRIMSON(R40
00,80Mips−画像処理装置の商品名)で行い、
先に挙げた3つの映像ソースからフレームグラバを介し
て画像データを取り込むことができる。ただしIRIS
のみでは、リアルタイムに処理ができず、データが送ら
れてくるスピードに追随できない。そこで、本実験時に
はリアルタイムディスクを介して一旦IRISのハード
ディスクにデータを蓄積し、そこからデータを読み込ん
で処理を行った。
【0053】実験は室内で、1人の被験者に対して行っ
た。カメラは映像の背景が動かないようにしっかり固定
し、ジェスチャを行う人物が画面のほぼ同じ位置に同じ
大きさで映るようにセットした。CCDカメラの出力映
像をAD変換して得られる画像はサイズ720×48
4、1画素256階調のRGB画像であるが、そのなか
で比較的輝度に強い影響を与えるグリーンのプレーンの
みを用いた。このうちの256×256の領域を切り出
し、さらに4×4のピクセルを一まとめにして64×6
4の画像を入力とした。
【0054】実験に用いたジェスチャは(1)いいえ、
(2)拍手、(3)こっちこっち、(4)じゃんけん、
(5)まる、(6)ばいばい、(7)頭をかく、の7種
類である。標準パターンはこれらのジェスチャに対して
すべて同じ服、同じ背景の元、通常そのジェスチャが行
われるのと同様なスピードで動作して作成した。また、
各標準パターンは意図するジェスチャの特徴的な動作の
1周期または2周期分から作成し、その長さは14〜3
6フレームである。入力画像は、上記7種類のジェスチ
ャを順番に行ったものを用いた(図5,図6)。
【0055】実験条件として、衣服および背景の影響を
調べるために、標準パターン作成時とジェスチャ認識時
の衣服および背景を、(s1)衣服および背景を全く同
じにした場合、(s2)背景のみを同じにした場合、
(s3)衣服のみを同じにした場合、(s4)衣服およ
び背景を変えた場合、の4通り変化させ、認識率の変化
を調べた。また、3種類のエッジ特徴(u1 ,u2 ,u
3 )の有効性を調べるために、(f1)u1 ,u2
み、(f2)u3 のみ、(f3)u1 ,u2 ,u3すべ
て、を認識に用いた場合の認識率の変化を調べた。
【0056】実験の評価基準として、以下に挙げる3つ
の認識率を定めた。
【0057】ジェスチャを行っている時刻において、正
解を出力する場合をcorrect、間違ったカテゴリ
番号(1〜7)を出力する場合をconfusion、
nullを出力する場合をmissing、またジェス
チャを行っていない時刻においてカテゴリ番号を出力す
る場合をghost、とおいて以下のように定義した。
【0058】認識率I:ghost=confusio
n=0となるように数16のh0 を設定した場合の
【0059】
【数17】
【0060】認識率II:missing=0となるよう
に数16のh0 を設定した場合の
【0061】
【数18】
【0062】認識率III :数16の代わりに
【0063】
【数19】
【0064】ただし、h 1 は各ジェスチャ毎に設定され
た閾値を示す。
【0065】と定め、ghost=0となるように各h
1 を設定した場合の
【0066】
【数20】
【0067】利用するエッジ特徴と衣服・背景を上記に
示したようにそれぞれ変えて認識実験を行った。表1,
表2,表3に結果を示す。
【0068】まず、利用する特徴の面から見るとほとん
ど全ての場合においてu3 のみ、u1 ,u2 ,u3 すべ
て、u1 ,u2 のみの順に効果的であることがわかっ
た。また、衣服・背景の影響の面から見ると、認識率I
I,III では、u3 のみ、およびu1 ,u2 ,u3 全て
を用いた場合は衣服や背景の影響をあまり受けないが、
認識率Iでは、u3 のみを用いた場合以外は衣服や背景
の影響を強く受けて認識率が低下している。
【0069】
【表1】
【0070】
【表2】
【0071】
【表3】
【0072】今回提案した手法では、水平・垂直・時間
方向のエッジ特徴を抽出して時空間ベクトル場を生成
し、これを時空間的にリダクションして認識のための基
本特徴を得た。その理由は、この一連の操作により動画
像理解のための分解能とロバスト性のある特徴を得られ
ると考えたからである。そこで、これを確かめるため
に、連続DPの入力を特徴ベクトル場ではなく、時空間
的リダクションおよびなまし処理を行った濃淡画像にし
て認識実験を行った。表4にその結果を示す。
【0073】
【表4】
【0074】この結果から、濃淡情報を用いた場合の認
識率は3種類のエッジ情報を用いた場合に比べかなり低
いことがわかる。特に、認識率と標準パターン作成時の
背景が異なる場合にはほとんど正しく認識できていな
い。このことから、提案した方式で用いたエッジ情報が
認識に有効であることがわかる。
【0075】前述の実験結果に基づき本手法の有効性に
ついて考察する。
【0076】まず、衣服・背景の影響はu3 を特徴とし
て用いることによりある程度押えられることがわかった
が、これは特徴u3 が画素濃度の時間的変化のみに着目
しているため、動きがない背景や動きや少ない衣服部分
を無視できるからであろうと思われる。これに比べてu
1 ,u2 のみを用いた場合では、たとえ人物の写蔽輪郭
が標準パターンと一致したとしても、服の柄や背景によ
るエッジ成分が全く整合しない分がすべてノイズとして
働いてしまい、性能が低下すると考えられる。
【0077】また、利用すべき特徴という観点からみる
と全体的にu3 を用いた場合がもっともよいが、衣服・
背景共に標準パターン作成時と同じ時だけはu1 ,u
2 ,u3 を用いた場合がもっともよい。これは、エッジ
特徴u1 ,u2 が対象の形状や色などの情報を、u3
対象の動き情報をよく表現していて、これらがうまく組
み合わされることによって認識率が増したのではないか
と思われる。このことから、u1 ,u2 ,u3 を用いて
得られる結果を単純に足し合わせるのではなく、u3
用いて移動物体の切り出しと運動パターンの抽出を行
い、さらに切り出された領域に対してu1 ,u2 を用い
て形状特徴等を識別することでより詳しい動物体の認識
が可能となるかもしれない。
【0078】次に各認識率の違いについて考察する。ま
ず、認識率Iと認識率IIに着目する。一般的に、ある閾
値においてmissとなるものは閾値を上げることによ
って、confusionもしくはcorrectにな
る。これを
【0079】
【数21】
【0080】と記す。すると、認識率Iにおいてmis
sだったものは認識率IIでは、すべてconfusio
nもしくはcorrectになったはずである。ゆえ
に、認識率IIのcorrectは(認識率Iのcorr
ect+misscorrect )に等しいといえる。また、
認識率IIのcorrectは閾値をどう変化させてもこ
れ以上は増えないこと、認識率Iの分母と認識率IIの分
母は共に全ジェスチャ数に等しいことから、単一の閾値
の元に、数18の基準で認識率を定めた場合は、認識率
IIが最高認識率となり、認識率Iより高くなることがわ
かる。また、認識率Iと認識率III を比較すると、認識
率の求め方という面では、全カテゴリに対し1つの閾値
を定めるか、各カテゴリ毎に設定するか、という違いの
みだが、認識率はあらゆる状況において認識率III の方
が高い。しかも認識率III は認識率IIの値よりも良い。
このことから、今回は簡単のために単一閾値を用いた
が、各ジェスチャに対して異なる閾値を設定することが
効果的であると推測される。
【0081】最後に、リアルタイムシステム構築の可能
性について検討する。認識プログラムのプロファイルを
とった結果、各処理の処理時間は表5のようであること
がわかった。
【0082】
【表5】
【0083】表5からわかるように、現在IRISのみ
を用いてリアルタイムの8倍弱の時間で処理を行ってい
る。しかし、それ以外という項目で示した処理時間の8
割はディスクからのデータ読み出しにかかっている時間
なので、フレームグラバからデータを取り込む場合を仮
定すると、29.2ms程度と見積もることができる。
また、連続DPの処理時間は認識対象のジェスチャ数が
増加するにしたがってリニアに増加してしまうが、各ジ
ェスチャとの距離計測を並列に行うのは容易である。そ
こで、マルチプロセッサ構成のワークステーションもし
くは画像処理ボード等を用いて圧縮からなまし処理まで
を現在の4倍程度まで高速化(25ms/frame程
度)し、特徴ベクトルデータをFDDIを経由して超並
列計算機に転送して連続DPを実行することにより、十
分リアルタイムシステムを構築することが可能であると
考えられる。
【0084】実世界で起きる事象の中から人間の身振り
・手振りなどのジェスチャを取り上げ、これらの動画像
から認識する手法を提案した。本手法の特徴は、画像系
列から抽出される水平・垂直・時間方向のエッジ情報を
用いて各ジェスチャの標準パターンを表現し、入力画像
系列と標準パターンとのマッチングに連続DPを用いて
時間軸方向の変動を吸収し、フレームワイズに認識結果
を生成するところにある。衣服・背景の影響、利用する
エッジ特徴の有効性を検討するために認識実験を行い、
衣服や背景の影響に対してロバストであること、時間軸
方向のエッジ情報が認識に有効であること、を確認し
た。また、本手法の計算コストを見積り、比較的容易に
リアルタイムシステムの構築が可能であることを示し
た。
【0085】以上、述べたジェスチャ動画像の認識方法
は学術論文を目的として作成され、発表されたので、当
業者にとっては理解しにくい。そこで、内容の理解を容
易にするために、簡単な補足説明を行う。
【0086】本実施例では、動画像の中の被写体、たと
えば、人間が示すジェスチャの意味する動作を理解する
ために、予め、ジェスチャの動作の内容(意味)が判明
している標準パターンを用意する。この標準パターン
は、図4のTVカメラ13により被写体のジェスチャを
撮像し、撮像結果として得られる動画像の中から図5に
示すような複数の静止画像を図4のフレームブラバ11
により取得する。
【0087】静止画像の中の被写体を画像処理装置10
が識別できるように、各静止画像の中の被写体の輪郭線
画像が画像処理装置10により抽出される。静止画像の
中の輪郭線画像は被写体画像と背景画像の境界線画像で
ある。この輪郭線のことを上述の記載ではエッジ情報と
表現している。すなわち、エッジ情報の示す輪郭線の画
像のある画素位置は、画面のx,y座標と、時間軸のt
座標により表わされる。したがって、x,yの2次元座
標と時間軸とで表わされる空間が上述の記載では時空間
ベクトル場と表現されている。
【0088】ジェスチャ認識処理の時間短縮およびロバ
スト性向上を目的として、本実施例では、上述の輪郭線
画像の大きさを縮小する。このために、画面中のx,y
座標空間上で、輪郭線画像上の連続するいくつかの画素
位置の画像データの平均を行う。また、時間軸上に沿っ
てx,y座標空間上の同一位置の複数の画像データの平
均化を行う。この平均化処理により輪郭線画像の変化を
示す画像データ群の総数が減少する。以上の処理を上述
の記載ではリダクションと表わしている。
【0089】次に、本実施例では、数5により表わされ
るなまし処理および平均化を、リダクション処理が施さ
れた画像データに対して実行する。なまし処理とは画像
データの平滑化を行うことを意味する。入力画像データ
の対数をとった画像データ(出力)は、図7に示すよう
に、入力画像データが大きい程、出力画像データの大き
さが低く抑えられる。このようななまし処理を行うこと
により、輪郭線画像全体の明るさが均一化され、雑音影
響が除去される。また、被写体の衣服の色等の影響を受
けることなく、輪郭線が強調される。
【0090】次に連続DP手法について説明する。
【0091】連続DP方法は主に音声認識処理において
広く用いられた手法である。本発明者等は、動画像の中
からの複数枚の静止画像から取り出した輪郭線画像群同
士であれば、連続DP法により整合することが可能なこ
とを発見した。
【0092】そこで、上述の連続DP法により複数の静
止画像の整合する手順を図8を用いて説明する。
【0093】図5に示すようなあるジェスチャを表す3
枚の静止画像A,B,Cが標準パターンとして用意され
ているものとする。また、TVカメラ13から得られる
動画像から輪郭線情報(エッジ情報)が抽出される。輪
郭線情報に対して上述のリダクション処理、なまし処理
が施される(図1のS10の処理に対応)。このとき順
次に得られる静止画像を図8において、a→A→A→B
→B→C→dと表している。ここでA→Aは同一の画像
が続くことを示しており、被写体が一時的に静止してい
るときに得られた画像であることを示している。なお、
標準パターンとして用意された画像A,B,Cについて
もリダクション処理、なまし処理が施されていることは
言うまでもない。画像処理装置10は、最初に得られた
輪郭線画像110と標準パターンの中の輪郭線画像10
0,101,102のそれぞれとの距離(類似度)を上
述の数10により計算する。たとえば、τ=1に相当す
る標準パターン側の輪郭線画像100(“A”)とt=
t1に相当する入力の輪郭線画像(以下画像と略す)と
の距離は数10によればd(t1,1)と表される。標
準パターン側の各画像100〜102と入力画像との間
の距離を示す値(距離情報)は画像処理装置10内のメ
モリに格納される。
【0094】以下、同様にして、時刻t2では、入力画
像111のと標準パターン側の各画像100〜102に
対する距離情報が算出される。連続DPでは、この距離
情報を用いて、標準パターン側の画像全体と入力画像側
のこれまでの任意の枚数の画像全体との間の距離を計算
する。連続DPではない通常の整合方法を用いて、たと
えば、図8のt1〜t3までの入力画像110〜112
と標準パターン側の画像100〜102との間の距離を
計算しようとする場合、その距離計算に用いる距離情報
は多数の組み合わせがある。たとえば、符号121〜1
24,120の距離情報が加算対象の1つの組を構成す
る。また符号121,125,120の距離情報が他の
組を構成する。各組み合わせの距離情報を加算し、その
加算結果の中で最小値を有するものが、最終的な距離計
算結果となる。このような組み合わせは標準パターンの
画像枚数が増加すると膨大となるので連続DPでは、上
述の数14により最適な組み合わせとなる距離情報を数
12〜数14により定まる複数の組み合わせの中から選
択しながら距離計算を行っていく。本実施例では、図9
のように3種の組み合わせを用意しており、3種の組み
合わせの中の最小値が最適の組み合わせとして選択す
る。選択された組み合わせを初期値から連結して行くこ
とによりτ=1〜3と時刻tの値とで定まる座標位置の
総合距離S(t,τ)を得る。
【0095】より具体的には、画像処理装置10は時刻
t1では、各個別距離d(t1,1),d(t1,
2),d(t1,3)を計算すると共に総合距離S(t
1,1),S(t1,2),S(t1,3)をも計算す
る。そして、τ=3に対応する総合距離S(t1,3)
と予め定めた閾値とが比較される。これは、入力画像
(“a”)と標準パターンの画像(“A”+“B”+
“C”)100〜102とを比較することを意味する。
【0096】以下、入力画像を取得する毎に画像処理装
置10は個別距離d、総合距離Sを計算して、τ=3に
相当する距離S(t,3)と閾値を比較する。図8に示
すような入力画像が得られるとすると、時刻t=t5に
おいて、総合距離S(t5,3)が閾値以下となって、
標準パターンの複数の画像100〜102と合致する画
像が入力画像中に現われたことがこの時点で判別され
る。以上までの連続DPの詳細処理が図1のS30で行
われる処理である。
【0097】閾値の比較の対象となった総合距離(いわ
ゆる累積距離)の時刻変化を示す図が図3となる。ま
た、図8の例で、標準パターンに合致すると判定された
ときに用いられた個別距離の距離情報の組み合わせを図
8の太い矢印で示している。また、この組み合わせが選
択されていく様子を表わした図が図2である。
【0098】以上、述べた例の他に次の例を実施でき
る。
【0099】1)本実施例ではTVカメラ13から入力
された画像をリアルタイムで認識する例を示したが、標
準パターンを複数用意し、複数の標準パターンの中から
入力画像(複数)に合致する標準パターンを選択するこ
ともできる。この場合は入力画像をレーザディスク14
に保存しておき、画像処理装置10側の整合処理に同期
して、レーザディスク14から静止画像を読み出す。
【0100】2)本実施例において標準パターンに入力
画像が合致するとの判定が得られた時点で、識別された
標準パターンの内容をユーザに報らせることもできる。
この場合は、標準パターンに帯同させて、標準パターン
の内容を表わすメッセージ文字列を画像処理装置10内
に記憶させておき、上記判定が得られた時点でメッセー
ジ文字列を画像処理装置の表示器の表示画面に表示す
る。また、標準パターンを構成する複数の輪郭線画像も
しくは、標準パターンの作成に用いた原静止画像を表示
させることもできる。
【0101】
【発明の効果】以上、説明したように、本発明によれ
ば、動画像の示すジェスチャ画像を連続DPにより整合
できるので、認識対象の動画像の中からジェスチャ画像
部分を切り出す必要がなくなる。また整合の対象がエッ
ジ情報の示す輪郭線形状なので、背景や被写体の衣服の
色が標準パターンと異なっていてもその影響を受けな
い。さらにはなまし処理の画像補正を加えることによ
り、より輪郭線形状が明確になる。
【図面の簡単な説明】
【図1】ジェスチャ動画像認識手順を示すフローチャー
トである。
【図2】連続DPの処理内容を示す図である。
【図3】連続DPの処理内容を示す図である。
【図4】本発明実施例のシステム構成を示すブロック図
である。
【図5】標準パターンの一例を示す図である。
【図6】標準パターンの他の例を示す図である。
【図7】なまし処理の効果を示す図である。
【図8】連続DPの処理内容を示す図である。
【図9】連続DPの処理内容を示す図である。
【符号の説明】
10 画像処理装置 13 TVカメラ 100〜103 標準パターン側の特徴系列(画像系
列) 110〜115 認識対象側の特徴系列(画像系列) 120〜125 時間軸座標と標準パターンの画像位置
座標から定まる座標位置 130〜132 連続DPの整合に用いられる個別距離
情報の組み合わせの種類を示すベクトル
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡 隆一 茨城県つくば市竹園1−6−1 つくば 三井ビル16階 技術研究組合 新情報処 理開発機構内 (72)発明者 関 進 茨城県つくば市竹園1−6−1 つくば 三井ビル16階 技術研究組合 新情報処 理開発機構内 (72)発明者 高橋 勝彦 茨城県つくば市竹園1−6−1 つくば 三井ビル16階 技術研究組合 新情報処 理開発機構内 (56)参考文献 特開 平5−46583(JP,A) 特開 平6−337629(JP,A) 特開 平6−176156(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 7/20

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 撮像装置により撮像された動画像の中の
    被写体の示すジェスチャ内容を画像処理装置により識別
    するジェスチャ動画像認識方法において、 前記画像処理装置は、前記動画像の中から、エッジ情報
    の形態の前記被写体の特徴系列を抽出し、 ジェスチャの内容が判明している前記特徴系列を標準パ
    ターンとして予め用意しておき、 前記画像処理装置は前記動画像から抽出された特徴系列
    と前記標準パターンの示す特徴系列とを連続DP法によ
    り整合することを特徴とするジェスチャ動画像認識方
    法。
  2. 【請求項2】 前記標準パターンは、前記撮像装置によ
    り撮像された被写体の動画像から前記画像処理装置によ
    り生成されることを特徴とする請求項1に記載のジェス
    チャ動画像認識方法。
  3. 【請求項3】 撮像装置により撮像された動画像の中の
    被写体の示すジェスチャ内容を画像処理装置により識別
    するジェスチャ動画像認識方法において、 前記画像処理装置は、前記動画像の中から、エッジ情報
    の形態の前記被写体の特徴系列であって、その特徴系列
    が画像データの集合で構成され、該画像データは画像の
    水平位置、垂直位置および時刻をパラメータとして有す
    る画像データである特徴系列を抽出し、 ジェスチャ内容が判明している前記特徴系列を標準パタ
    ーンとして予め用意しておき、 前記画像処理装置は前記動画像から抽出された特徴系列
    と前記標準パターンの示す特徴系列とを整合することに
    より前記被写体の示すジェスチャ内容を識別し、 前記画像処理装置はジェスチャ内容の識別に先立って、
    前記動画像の中から、 エッジ情報の形態の前記被写体の特徴系列を抽出し、 当該抽出された特徴系列に対して、前記画像データの平
    滑化処理を行なうことを特徴とするジェスチャ認識方
    法。
JP05217566A 1993-09-01 1993-09-01 ジェスチャ動画像認識方法 Expired - Lifetime JP3122290B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05217566A JP3122290B2 (ja) 1993-09-01 1993-09-01 ジェスチャ動画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05217566A JP3122290B2 (ja) 1993-09-01 1993-09-01 ジェスチャ動画像認識方法

Publications (2)

Publication Number Publication Date
JPH0773289A JPH0773289A (ja) 1995-03-17
JP3122290B2 true JP3122290B2 (ja) 2001-01-09

Family

ID=16706277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05217566A Expired - Lifetime JP3122290B2 (ja) 1993-09-01 1993-09-01 ジェスチャ動画像認識方法

Country Status (1)

Country Link
JP (1) JP3122290B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048541A (ja) 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
CN111001154A (zh) * 2020-01-10 2020-04-14 北京铭客教育科技有限公司 一种带有语音播报功能的智能猜拳娱乐系统

Also Published As

Publication number Publication date
JPH0773289A (ja) 1995-03-17

Similar Documents

Publication Publication Date Title
CN109325933B (zh) 一种翻拍图像识别方法及装置
EP2265023B1 (en) Subject tracking device and subject tracking method
CN110569731B (zh) 一种人脸识别方法、装置及电子设备
JP3512992B2 (ja) 画像処理装置および画像処理方法
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP5713790B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
US20230360435A1 (en) Facial authentication device, facial authentication method, and program recording medium
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2006524394A (ja) 画像における人体輪郭描写
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
CN112287867B (zh) 一种多摄像头的人体动作识别方法及装置
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2010057105A (ja) オブジェクトの3次元追跡方法およびシステム
CN112185515A (zh) 一种基于动作识别的病患辅助系统
JP6272071B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2020032254A1 (ja) 注意対象推定装置及び注意対象推定方法
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JPH1185988A (ja) 顔画像認識システム
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN112131984A (zh) 视频裁剪方法、电子设备和计算机可读存储介质
CN116645697A (zh) 一种多视角步态识别方法、装置、电子设备及存储介质
JP3122290B2 (ja) ジェスチャ動画像認識方法
Li et al. Detecting and tracking human faces in videos

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081020

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111020

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111020

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 12

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350