JPH0773289A - ジェスチャ動画像認識方法 - Google Patents
ジェスチャ動画像認識方法Info
- Publication number
- JPH0773289A JPH0773289A JP5217566A JP21756693A JPH0773289A JP H0773289 A JPH0773289 A JP H0773289A JP 5217566 A JP5217566 A JP 5217566A JP 21756693 A JP21756693 A JP 21756693A JP H0773289 A JPH0773289 A JP H0773289A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gesture
- standard pattern
- moving image
- continuous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
を認識する際に、動画像からサンプリングした複数枚の
静止画像の中から被写体の輪郭線画像をジェスチャ内容
を示す特徴系列として抽出し、標準パターンとして用意
した特徴系列と連続DP法により整合する。
Description
で示される人間の身振り,手振りを認識するためのジェ
スチャ動画像認識方法に関する。
動に役立っている。同じような視覚情報処理能力をコン
ピュータに持たせることができたならば、現在人間が行
っている仕事の一部を代行させたり、人にやさしいイン
タフェースを持たせることが可能になる。
様々な種類のビジョン研究がされているが、特に近年で
は動画像を連続した動的プロセスとして捉えた研究が増
えつつある。ボレス(Bolles)は、移動している
観測者が得る動画像を時空間パターンととらえ、そこか
ら対象の位置を抽出するEpipolar−Plane
Image Analysis法を提案している。ペ
ントランド(Pentland)は、人の顔などをCC
Dカメラでとらえ、このとき得られる連続画像をカルマ
ンフィルタに入力し、その数ms後の位置や向きを推測
してリアルタイムにユーザにフィードバックするシステ
ムを提案している。また、入力は画像データではない
が、佐川らはデータグローブから1/30秒毎に得られ
る32次元のデータを連続DPで予め作成してある手話
単語標準パターンと照合し、手話文認識を行った。しか
し、これまで動画像から得られる動き情報の意味を理解
しようとする提案は未だよく知られていない。なお、未
公開ではあるが、本願発明者の提案として特願平4−4
9790号がある。
号の提案は動画像の中から画像の特徴を示す1次特徴を
抽出し、次に1次特徴から2次特徴を抽出する。この2
次特徴を動画像中のジェスチャ(身振り,手振り)の認
識処理に用いるというものである。しかしながら特願平
4−349790号に示される方法は、ノイズや変動に
対し頑健な動作モデルを少ないデータから生成できるも
のの、その2次特徴が画像系列から抽出されるエッジ強
度を直接反映したものであるため、被検者の着衣や背景
のテクスチャによる影響を受けやすい。これが特願平4
−349790号の提案による人間の身振り・手振りの
認識率を低下させる一つの要因になっていた。
過に応じて画像が変化するため、ジェスチャが動画像の
中に含まれる時間および時刻は一定時間ではなく、不特
定の時間長さ,時刻となる。このような動画像からジェ
スチャのみが含まれる動画像を切り出すためには、動画
像を表示し、人間の眼でジェスチャのみが含まれる動画
像を確認する必要があった。
1目的は、被検者の着衣や背景が変化してもその影響を
緩和することの可能なジェスチャ動画像認識方法を提供
することにある。
なく、動画像の中の不特定位置のジェスチャを検出し、
その意味を識別することの可能なジェスチャ動画像認識
方法を提供することにある。
するために、請求項1の発明は、撮像装置により撮像さ
れた動画像の中の被写体の示すジェスチャ内容を画像処
理装置により識別するジェスチャ動画像認識方法におい
て、前記画像処理装置は、前記動画像の中から、エッジ
情報の形態の前記被写体の特徴系列を抽出し、ジェスチ
ャの内容が判明している前記特徴系列を標準パターンと
して予め用意しておき、前記画像処理装置は前記動画像
から抽出された特徴系列と前記標準パターンの示す特徴
系列とを連続DP法により整合することを特徴とする。
に加えて、前記標準パターンは、前記撮像装置により撮
像された被写体の動画像から前記画像処理装置により生
成されることを特徴とする。
発明は、撮像装置により撮像された動画像の中の被写体
の示すジェスチャ内容を画像処理装置により識別するジ
ェスチャ動画像認識方法において、前記画像処理装置
は、前記動画像の中から、エッジ情報の形態の前記被写
体の特徴系列を抽出し、当該抽出された特徴系列に対し
て、画像のなまし処理を前記画像処理装置により施し
て、ジェスチャの識別対象の特徴系列を生成することを
特徴とする。
すなわち輪郭線画像を示す情報を被写体の形状を表す特
徴として抽出するので、輪郭線の中に含まれる被写体の
衣服の色や輪郭線の外の背景の色の相違の影響を受ける
ことがない。また、エッジ情報の抽出により、標準パタ
ーンとの整合の対象となるデータ量が減少するので連続
DPによる整合が可能となる。
た動画像から標準パターンを生成するので、どのような
被写体のジェスチャをも識別することができる。
強度むらがあってもなまし処理によりエッジ情報が平滑
され、明確な輪郭線形状を得ることができる。
に説明する。
1に示す。本理解系は2種類の処理系から構成される。
一方は標準パターンを作成する処理系である。入力画像
系列から特徴抽出を行い、それを用いて各ジェスチャの
モデルである標準パターンを生成する。この処理はジェ
スチャ認識を行う前に実行する。もう一方はジェスチャ
を認識する処理系である。入力画像系列から特徴抽出を
行い、予め作成してある標準パターンとの距離をスポッ
ティング認識という方法によって計算し認識結果をフレ
ームワイズに出力する。
考えられるが、本手法では水平・垂直・時間方向のエッ
ジ情報を用いる。これは、エッジ特徴をその要素別に分
解して独立な複数のスカラ場を作成し、これを空間的リ
ダクションや時間的平均化することにより、動画像理解
のための分解能とロバスト性のある特徴を得られるから
である。また、特徴抽出は比較的容易で実時間処理にも
適している。
スチャはCCDカメラによって画像の時系列として観測
されるため、この画像系列を処理してエッジ特徴画像の
時系列パターン(時空間パターン)を生成することがで
きる。ここでは、 (1)入力画像系列から時空間ベクトル場の抽出 (2)時空間ベクトル場系列に対する空間リダクション
・時間平均化 (3)平均化されたベクトル場のなまし処理 という3つの処理によって特徴ベクトル場を定めること
にする。以下に特徴ベクトル場を得る具体的な手順を示
す。
は時刻を示し、f(x,y,t)は時空間点(x,y,
t)での画像の強度を示す。そしてエッジ情報として、
時空間点(x,y,t)での時空間ベクトルV(x,
y,t)を、
x,y,tが離散的であるので、数2の各ベクトル要素
は、重みの行列を
場を、特徴量として、よりロバストなものにするために
その要素ごとの空間的リダクションと時間的平均化操作
を行う。空間的リダクションとして、x,y平面の圧縮
によりxおよびy軸上の格子点の数をLからN(≦L)
にする操作を行い、時間的平均化として、時刻t−K+
1から時刻tまでの間のフレームの平均をx,yでの値
にする。さらに、エッジの有無の効果を強く出すため
に、平均化された時空間ベクトルの各成分の値を対数を
とることによってなます。以上の操作は、α,βを整
数、h≡L/N、ω=1,2,3、1≦l≦N、1≦m
≦Nとし、ガウス記号[]を用いて、
れる特徴ベクトル場を
示す。
現するモデルであり、始点および終点の定まった特徴ベ
クトル場によって表現される。以下に作成手順を示す。
意図を表現しているフレームだけを切り出す。そして、
この画像系列を入力とし前に示した処理を施して始点お
よび終点の定まった特徴ベクトル場を得る。しかし、こ
の特徴ベクトル場の初めのK+2の区間では時間軸方向
のエッジの抽出、および空間的平均化操作の性質上適正
な値を得ることができず標準パターンの一部として用い
るのは適当でない。そこで、T+K+2のフレーム数の
入力画像を用いてフレーム数Tのジェスチャの標準パタ
ーンを作成する。基本的に1つのジェスチャには1つの
標準パターンが対応する。
作成されている標準パターンとのマッチング方法を示
す。CCDカメラ等によって得られる入力画像系列は画
像が得られると同時に数6で示される特徴ベクトル場に
変換される。この系列は始点(t=1)はあっても終端
はないものとする。各時刻tを標準パターンの終端と仮
定して、それらの最適対応を時間軸に沿ってとり、これ
を時刻tの識別結果とする。この整合の考え方は音声認
識で用いられているスポッティング整合というものであ
る。このスポッティング整合方式としては連続DPが良
く知られているが、動画像に対してそのまま連続DPを
用いることは問題があり、従来では行われていなかっ
た。そこで、本実施例では動画像の特徴系列を連続DP
の整合対象としたことにより動画像の連続DPの整合を
可能とした。連続DPを特徴画像系列のスポッティング
整合方式として用いると以下のように表現できる。
る特徴パターンを
の距離d(t,τ)を
情報によってω∈{1,2,3}、ω∈{1,2}また
はω∈{3}とする。このとき、連続DPは(t,τ)
における累積距離S(t,τ)を以下のように定義す
る。初期条件を、
すなわち時刻tに動作が終了したと仮定するとS(t,
T)は標準パターンの区間[1,T]について入力時系
列に最適に整合した時の累積距離を示すが、この値を重
みの和3・Tで正規化したもの
パターンが存在すると、各時刻tにおいて、I個のA
(t)が存在するが、これらをA l (t)、l=1,
2,…,Iとしたとき、各時刻における意図を表すカテ
ゴリ番号は
を返す関数、h0 は閾値、nullは空のカテゴリを表
す。連続DPの出力は図3に示すようになり、動作の開
始時刻ではなく、動作終了前後において最小となる性質
がある。
るエッジ特徴の有効性を調べるため認識実験を行った。
以下に具体的な手順を示す。
CDカメラを用いて取り込む。映像を記録しておく必要
のある場合は書き込み可能なレーザディスクまたはVT
Rを用いる。計算はIRIS CRIMSON(R40
00,80Mips−画像処理装置の商品名)で行い、
先に挙げた3つの映像ソースからフレームグラバを介し
て画像データを取り込むことができる。ただしIRIS
のみでは、リアルタイムに処理ができず、データが送ら
れてくるスピードに追随できない。そこで、本実験時に
はリアルタイムディスクを介して一旦IRISのハード
ディスクにデータを蓄積し、そこからデータを読み込ん
で処理を行った。
た。カメラは映像の背景が動かないようにしっかり固定
し、ジェスチャを行う人物が画面のほぼ同じ位置に同じ
大きさで映るようにセットした。CCDカメラの出力映
像をAD変換して得られる画像はサイズ720×48
4、1画素256階調のRGB画像であるが、そのなか
で比較的輝度に強い影響を与えるグリーンのプレーンの
みを用いた。このうちの256×256の領域を切り出
し、さらに4×4のピクセルを一まとめにして64×6
4の画像を入力とした。
(2)拍手、(3)こっちこっち、(4)じゃんけん、
(5)まる、(6)ばいばい、(7)頭をかく、の7種
類である。標準パターンはこれらのジェスチャに対して
すべて同じ服、同じ背景の元、通常そのジェスチャが行
われるのと同様なスピードで動作して作成した。また、
各標準パターンは意図するジェスチャの特徴的な動作の
1周期または2周期分から作成し、その長さは14〜3
6フレームである。入力画像は、上記7種類のジェスチ
ャを順番に行ったものを用いた(図5,図6)。
調べるために、標準パターン作成時とジェスチャ認識時
の衣服および背景を、(s1)衣服および背景を全く同
じにした場合、(s2)背景のみを同じにした場合、
(s3)衣服のみを同じにした場合、(s4)衣服およ
び背景を変えた場合、の4通り変化させ、認識率の変化
を調べた。また、3種類のエッジ特徴(u1 ,u2 ,u
3 )の有効性を調べるために、(f1)u1 ,u2 の
み、(f2)u3 のみ、(f3)u1 ,u2 ,u3すべ
て、を認識に用いた場合の認識率の変化を調べた。
の認識率を定めた。
解を出力する場合をcorrect、間違ったカテゴリ
番号(1〜7)を出力する場合をconfusion、
nullを出力する場合をmissing、またジェス
チャを行っていない時刻においてカテゴリ番号を出力す
る場合をghost、とおいて以下のように定義した。
n=0となるように数16のh0 を設定した場合の
に数16のh0 を設定した場合の
た閾値を示す。
1 を設定した場合の
示したようにそれぞれ変えて認識実験を行った。表1,
表2,表3に結果を示す。
ど全ての場合においてu3 のみ、u1 ,u2 ,u3 すべ
て、u1 ,u2 のみの順に効果的であることがわかっ
た。また、衣服・背景の影響の面から見ると、認識率I
I,III では、u3 のみ、およびu1 ,u2 ,u3 全て
を用いた場合は衣服や背景の影響をあまり受けないが、
認識率Iでは、u3 のみを用いた場合以外は衣服や背景
の影響を強く受けて認識率が低下している。
方向のエッジ特徴を抽出して時空間ベクトル場を生成
し、これを時空間的にリダクションして認識のための基
本特徴を得た。その理由は、この一連の操作により動画
像理解のための分解能とロバスト性のある特徴を得られ
ると考えたからである。そこで、これを確かめるため
に、連続DPの入力を特徴ベクトル場ではなく、時空間
的リダクションおよびなまし処理を行った濃淡画像にし
て認識実験を行った。表4にその結果を示す。
識率は3種類のエッジ情報を用いた場合に比べかなり低
いことがわかる。特に、認識率と標準パターン作成時の
背景が異なる場合にはほとんど正しく認識できていな
い。このことから、提案した方式で用いたエッジ情報が
認識に有効であることがわかる。
ついて考察する。
て用いることによりある程度押えられることがわかった
が、これは特徴u3 が画素濃度の時間的変化のみに着目
しているため、動きがない背景や動きや少ない衣服部分
を無視できるからであろうと思われる。これに比べてu
1 ,u2 のみを用いた場合では、たとえ人物の写蔽輪郭
が標準パターンと一致したとしても、服の柄や背景によ
るエッジ成分が全く整合しない分がすべてノイズとして
働いてしまい、性能が低下すると考えられる。
と全体的にu3 を用いた場合がもっともよいが、衣服・
背景共に標準パターン作成時と同じ時だけはu1 ,u
2 ,u3 を用いた場合がもっともよい。これは、エッジ
特徴u1 ,u2 が対象の形状や色などの情報を、u3 が
対象の動き情報をよく表現していて、これらがうまく組
み合わされることによって認識率が増したのではないか
と思われる。このことから、u1 ,u2 ,u3 を用いて
得られる結果を単純に足し合わせるのではなく、u3 を
用いて移動物体の切り出しと運動パターンの抽出を行
い、さらに切り出された領域に対してu1 ,u2 を用い
て形状特徴等を識別することでより詳しい動物体の認識
が可能となるかもしれない。
ず、認識率Iと認識率IIに着目する。一般的に、ある閾
値においてmissとなるものは閾値を上げることによ
って、confusionもしくはcorrectにな
る。これを
sだったものは認識率IIでは、すべてconfusio
nもしくはcorrectになったはずである。ゆえ
に、認識率IIのcorrectは(認識率Iのcorr
ect+misscorrect )に等しいといえる。また、
認識率IIのcorrectは閾値をどう変化させてもこ
れ以上は増えないこと、認識率Iの分母と認識率IIの分
母は共に全ジェスチャ数に等しいことから、単一の閾値
の元に、数18の基準で認識率を定めた場合は、認識率
IIが最高認識率となり、認識率Iより高くなることがわ
かる。また、認識率Iと認識率III を比較すると、認識
率の求め方という面では、全カテゴリに対し1つの閾値
を定めるか、各カテゴリ毎に設定するか、という違いの
みだが、認識率はあらゆる状況において認識率III の方
が高い。しかも認識率III は認識率IIの値よりも良い。
このことから、今回は簡単のために単一閾値を用いた
が、各ジェスチャに対して異なる閾値を設定することが
効果的であると推測される。
性について検討する。認識プログラムのプロファイルを
とった結果、各処理の処理時間は表5のようであること
がわかった。
を用いてリアルタイムの8倍弱の時間で処理を行ってい
る。しかし、それ以外という項目で示した処理時間の8
割はディスクからのデータ読み出しにかかっている時間
なので、フレームグラバからデータを取り込む場合を仮
定すると、29.2ms程度と見積もることができる。
また、連続DPの処理時間は認識対象のジェスチャ数が
増加するにしたがってリニアに増加してしまうが、各ジ
ェスチャとの距離計測を並列に行うのは容易である。そ
こで、マルチプロセッサ構成のワークステーションもし
くは画像処理ボード等を用いて圧縮からなまし処理まで
を現在の4倍程度まで高速化(25ms/frame程
度)し、特徴ベクトルデータをFDDIを経由して超並
列計算機に転送して連続DPを実行することにより、十
分リアルタイムシステムを構築することが可能であると
考えられる。
・手振りなどのジェスチャを取り上げ、これらの動画像
から認識する手法を提案した。本手法の特徴は、画像系
列から抽出される水平・垂直・時間方向のエッジ情報を
用いて各ジェスチャの標準パターンを表現し、入力画像
系列と標準パターンとのマッチングに連続DPを用いて
時間軸方向の変動を吸収し、フレームワイズに認識結果
を生成するところにある。衣服・背景の影響、利用する
エッジ特徴の有効性を検討するために認識実験を行い、
衣服や背景の影響に対してロバストであること、時間軸
方向のエッジ情報が認識に有効であること、を確認し
た。また、本手法の計算コストを見積り、比較的容易に
リアルタイムシステムの構築が可能であることを示し
た。
は学術論文を目的として作成され、発表されたので、当
業者にとっては理解しにくい。そこで、内容の理解を容
易にするために、簡単な補足説明を行う。
えば、人間が示すジェスチャの意味する動作を理解する
ために、予め、ジェスチャの動作の内容(意味)が判明
している標準パターンを用意する。この標準パターン
は、図4のTVカメラ13により被写体のジェスチャを
撮像し、撮像結果として得られる動画像の中から図5に
示すような複数の静止画像を図4のフレームブラバ11
により取得する。
が識別できるように、各静止画像の中の被写体の輪郭線
画像が画像処理装置10により抽出される。静止画像の
中の輪郭線画像は被写体画像と背景画像の境界線画像で
ある。この輪郭線のことを上述の記載ではエッジ情報と
表現している。すなわち、エッジ情報の示す輪郭線の画
像のある画素位置は、画面のx,y座標と、時間軸のt
座標により表わされる。したがって、x,yの2次元座
標と時間軸とで表わされる空間が上述の記載では時空間
ベクトル場と表現されている。
スト性向上を目的として、本実施例では、上述の輪郭線
画像の大きさを縮小する。このために、画面中のx,y
座標空間上で、輪郭線画像上の連続するいくつかの画素
位置の画像データの平均を行う。また、時間軸上に沿っ
てx,y座標空間上の同一位置の複数の画像データの平
均化を行う。この平均化処理により輪郭線画像の変化を
示す画像データ群の総数が減少する。以上の処理を上述
の記載ではリダクションと表わしている。
るなまし処理および平均化を、リダクション処理が施さ
れた画像データに対して実行する。なまし処理とは画像
データの平滑化を行うことを意味する。入力画像データ
の対数をとった画像データ(出力)は、図7に示すよう
に、入力画像データが大きい程、出力画像データの大き
さが低く抑えられる。このようななまし処理を行うこと
により、輪郭線画像全体の明るさが均一化され、雑音影
響が除去される。また、被写体の衣服の色等の影響を受
けることなく、輪郭線が強調される。
広く用いられた手法である。本発明者等は、動画像の中
からの複数枚の静止画像から取り出した輪郭線画像群同
士であれば、連続DP法により整合することが可能なこ
とを発見した。
止画像の整合する手順を図8を用いて説明する。
枚の静止画像A,B,Cが標準パターンとして用意され
ているものとする。また、TVカメラ13から得られる
動画像から輪郭線情報(エッジ情報)が抽出される。輪
郭線情報に対して上述のリダクション処理、なまし処理
が施される(図1のS10の処理に対応)。このとき順
次に得られる静止画像を図8において、a→A→A→B
→B→C→dと表している。ここでA→Aは同一の画像
が続くことを示しており、被写体が一時的に静止してい
るときに得られた画像であることを示している。なお、
標準パターンとして用意された画像A,B,Cについて
もリダクション処理、なまし処理が施されていることは
言うまでもない。画像処理装置10は、最初に得られた
輪郭線画像110と標準パターンの中の輪郭線画像10
0,101,102のそれぞれとの距離(類似度)を上
述の数10により計算する。たとえば、τ=1に相当す
る標準パターン側の輪郭線画像100(“A”)とt=
t1に相当する入力の輪郭線画像(以下画像と略す)と
の距離は数10によればd(t1,1)と表される。標
準パターン側の各画像100〜102と入力画像との間
の距離を示す値(距離情報)は画像処理装置10内のメ
モリに格納される。
像111のと標準パターン側の各画像100〜102に
対する距離情報が算出される。連続DPでは、この距離
情報を用いて、標準パターン側の画像全体と入力画像側
のこれまでの任意の枚数の画像全体との間の距離を計算
する。連続DPではない通常の整合方法を用いて、たと
えば、図8のt1〜t3までの入力画像110〜112
と標準パターン側の画像100〜102との間の距離を
計算しようとする場合、その距離計算に用いる距離情報
は多数の組み合わせがある。たとえば、符号121〜1
24,120の距離情報が加算対象の1つの組を構成す
る。また符号121,125,120の距離情報が他の
組を構成する。各組み合わせの距離情報を加算し、その
加算結果の中で最小値を有するものが、最終的な距離計
算結果となる。このような組み合わせは標準パターンの
画像枚数が増加すると膨大となるので連続DPでは、上
述の数14により最適な組み合わせとなる距離情報を数
12〜数14により定まる複数の組み合わせの中から選
択しながら距離計算を行っていく。本実施例では、図9
のように3種の組み合わせを用意しており、3種の組み
合わせの中の最小値が最適の組み合わせとして選択す
る。選択された組み合わせを初期値から連結して行くこ
とによりτ=1〜3と時刻tの値とで定まる座標位置の
総合距離S(t,τ)を得る。
t1では、各個別距離d(t1,1),d(t1,
2),d(t1,3)を計算すると共に総合距離S(t
1,1),S(t1,2),S(t1,3)をも計算す
る。そして、τ=3に対応する総合距離S(t1,3)
と予め定めた閾値とが比較される。これは、入力画像
(“a”)と標準パターンの画像(“A”+“B”+
“C”)100〜102とを比較することを意味する。
置10は個別距離d、総合距離Sを計算して、τ=3に
相当する距離S(t,3)と閾値を比較する。図8に示
すような入力画像が得られるとすると、時刻t=t5に
おいて、総合距離S(t5,3)が閾値以下となって、
標準パターンの複数の画像100〜102と合致する画
像が入力画像中に現われたことがこの時点で判別され
る。以上までの連続DPの詳細処理が図1のS30で行
われる処理である。
ゆる累積距離)の時刻変化を示す図が図3となる。ま
た、図8の例で、標準パターンに合致すると判定された
ときに用いられた個別距離の距離情報の組み合わせを図
8の太い矢印で示している。また、この組み合わせが選
択されていく様子を表わした図が図2である。
る。
された画像をリアルタイムで認識する例を示したが、標
準パターンを複数用意し、複数の標準パターンの中から
入力画像(複数)に合致する標準パターンを選択するこ
ともできる。この場合は入力画像をレーザディスク14
に保存しておき、画像処理装置10側の整合処理に同期
して、レーザディスク14から静止画像を読み出す。
画像が合致するとの判定が得られた時点で、識別された
標準パターンの内容をユーザに報らせることもできる。
この場合は、標準パターンに帯同させて、標準パターン
の内容を表わすメッセージ文字列を画像処理装置10内
に記憶させておき、上記判定が得られた時点でメッセー
ジ文字列を画像処理装置の表示器の表示画面に表示す
る。また、標準パターンを構成する複数の輪郭線画像も
しくは、標準パターンの作成に用いた原静止画像を表示
させることもできる。
ば、動画像の示すジェスチャ画像を連続DPにより整合
できるので、認識対象の動画像の中からジェスチャ画像
部分を切り出す必要がなくなる。また整合の対象がエッ
ジ情報の示す輪郭線形状なので、背景や被写体の衣服の
色が標準パターンと異なっていてもその影響を受けな
い。さらにはなまし処理の画像補正を加えることによ
り、より輪郭線形状が明確になる。
トである。
である。
列) 110〜115 認識対象側の特徴系列(画像系列) 120〜125 時間軸座標と標準パターンの画像位置
座標から定まる座標位置 130〜132 連続DPの整合に用いられる個別距離
情報の組み合わせの種類を示すベクトル
Claims (3)
- 【請求項1】 撮像装置により撮像された動画像の中の
被写体の示すジェスチャ内容を画像処理装置により識別
するジェスチャ動画像認識方法において、 前記画像処理装置は、前記動画像の中から、エッジ情報
の形態の前記被写体の特徴系列を抽出し、 ジェスチャの内容が判明している前記特徴系列を標準パ
ターンとして予め用意しておき、 前記画像処理装置は前記動画像から抽出された特徴系列
と前記標準パターンの示す特徴系列とを連続DP法によ
り整合することを特徴とするジェスチャ動画像認識方
法。 - 【請求項2】 前記標準パターンは、前記撮像装置によ
り撮像された被写体の動画像から前記画像処理装置によ
り生成されることを特徴とする請求項1に記載のジェス
チャ動画像認識方法。 - 【請求項3】 撮像装置により撮像された動画像の中の
被写体の示すジェスチャ内容を画像処理装置により識別
するジェスチャ動画像認識方法において、 前記画像処理装置は、前記動画像の中から、エッジ情報
の形態の前記被写体の特徴系列を抽出し、 当該抽出された特徴系列に対して、画像のなまし処理を
前記画像処理装置により施して、ジェスチャの識別対象
の特徴系列を生成することを特徴とするジェスチャ動画
像認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05217566A JP3122290B2 (ja) | 1993-09-01 | 1993-09-01 | ジェスチャ動画像認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05217566A JP3122290B2 (ja) | 1993-09-01 | 1993-09-01 | ジェスチャ動画像認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0773289A true JPH0773289A (ja) | 1995-03-17 |
JP3122290B2 JP3122290B2 (ja) | 2001-01-09 |
Family
ID=16706277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05217566A Expired - Lifetime JP3122290B2 (ja) | 1993-09-01 | 1993-09-01 | ジェスチャ動画像認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3122290B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10241565B2 (en) | 2014-06-19 | 2019-03-26 | Ricoh Company, Ltd. | Apparatus, system, and method of controlling display, and recording medium |
CN111001154A (zh) * | 2020-01-10 | 2020-04-14 | 北京铭客教育科技有限公司 | 一种带有语音播报功能的智能猜拳娱乐系统 |
-
1993
- 1993-09-01 JP JP05217566A patent/JP3122290B2/ja not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10241565B2 (en) | 2014-06-19 | 2019-03-26 | Ricoh Company, Ltd. | Apparatus, system, and method of controlling display, and recording medium |
CN111001154A (zh) * | 2020-01-10 | 2020-04-14 | 北京铭客教育科技有限公司 | 一种带有语音播报功能的智能猜拳娱乐系统 |
Also Published As
Publication number | Publication date |
---|---|
JP3122290B2 (ja) | 2001-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3512992B2 (ja) | 画像処理装置および画像処理方法 | |
JP4373840B2 (ja) | 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置 | |
Lee et al. | LA-VITON: A network for looking-attractive virtual try-on | |
JP5032846B2 (ja) | 監視装置および監視記録装置、それらの方法 | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
US10063838B2 (en) | Information processor, information processing method, and computer program | |
JP7499280B2 (ja) | 人物の単眼深度推定のための方法およびシステム | |
US9785854B2 (en) | Information processor, information processing method, and computer program | |
US11159717B2 (en) | Systems and methods for real time screen display coordinate and shape detection | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP2010057105A (ja) | オブジェクトの3次元追跡方法およびシステム | |
CN109241956A (zh) | 合成图像的方法、装置、终端及存储介质 | |
Matsui et al. | Soccer image sequence computed by a virtual camera | |
JP7312026B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7096175B2 (ja) | オブジェクト抽出方法および装置 | |
WO2020032254A1 (ja) | 注意対象推定装置及び注意対象推定方法 | |
JPH1185988A (ja) | 顔画像認識システム | |
KR101468347B1 (ko) | 이미지 내 가상 시각 정보를 식별하는 방법 및 장치 | |
CN112257617A (zh) | 多模态目标识别方法和系统 | |
JP6544970B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2012153868A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP2009289210A (ja) | 重要物体認識装置および重要物体認識方法ならびにそのプログラム | |
Li et al. | Detecting and tracking human faces in videos | |
US12051150B2 (en) | Computer implemented method and system for classifying an input image for new view synthesis in a 3D visual effect, and non-transitory computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081020 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091020 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091020 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101020 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101020 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111020 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111020 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121020 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121020 Year of fee payment: 12 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |